Wie intelligente Dateninfrastrukturen zum Schutz der Ozeane beitragen – und was Unternehmen daraus lernen können
Die UN Ocean Conference 2025 macht deutlich: Der Schutz der Meere braucht mehr als Appelle – er braucht Technologie. Denn ohne moderne Dateninfrastruktur lassen sich marine Ökosysteme weder verstehen noch schützen. Intelligente Speicher- und Analyselösungen spielen dabei eine Schlüsselrolle.

Die Ozeane sind nicht nur Lebensraum für Millionen Arten, sondern auch ein zentraler CO₂-Speicher, Klimaregulator und Nahrungsquelle für Milliarden Menschen. Doch Überfischung, Verschmutzung und der Klimawandel setzen ihnen zu. Die dritte UN Ocean Conference (UNOC 3), die im Juni 2025 im französischen Nizza stattfand, rückte die Dringlichkeit des Themas erneut ins Zentrum der globalen Agenda.
Ziel der Konferenz war es, die Umsetzung der nachhaltigen Entwicklungsziele der Vereinten Nationen voranzutreiben – insbesondere des Ziels 14 „Leben unter Wasser“. Im Mittelpunkt standen der Schutz mariner Biodiversität, die Eindämmung illegaler Fischerei und die wissenschaftliche Grundlage für effektiven Meeresschutz. Dabei wurde eines klar: Ohne leistungsfähige Dateninfrastrukturen bleiben viele dieser Vorhaben bloße Theorie.
Supercomputing trifft Ozeanforschung
Ein Beispiel, wie Technologie heute zum Meeresverständnis beiträgt, zeigt sich beim französischen Meeresforschungsinstitut IFREMER. Hier verarbeitet der Hochleistungsrechner „Datarmor“ riesige Mengen ozeanografischer Daten – gewonnen aus Satelliten, Forschungsmissionen und autonomen Sensoren. Die Analyse erfolgt mit Unterstützung von Künstlicher Intelligenz, bereitgestellt unter anderem von NetApp, IBM und NVIDIA.
Dabei setzen die Forscher zunehmend auf sogenannte „Frugal AI“-Konzepte – also ressourcenschonende und energieeffiziente KI-Verfahren, die dennoch präzise Erkenntnisse liefern. So entsteht ein datengetriebenes Verständnis über komplexe Wechselwirkungen in marinen Ökosystemen – von Meeresströmungen bis zur Ausbreitung von Plankton.
Der digitale Zwilling der Meere
Besonders wegweisend ist das Konzept des „Digital Twin Ocean“ – eines digitalen Zwillings des Ozeans. Durch die Kombination physikalischer, chemischer und biologischer Daten in Echtzeit entsteht ein virtuelles Abbild der Meeresumwelt. Dieses ermöglicht nicht nur präzisere Modellierungen von Strömungen und Wellen, sondern liefert auch neue Erkenntnisse über Nährstoffverteilung, Artenvielfalt und Umweltveränderungen.
Institutionen wie IFREMER und das Musée National d’Histoire Naturelle in Paris treiben solche Projekte gemeinsam voran. Für politische Entscheidungsträger, Küstenschutzbehörden oder NGOs eröffnen sich dadurch neue Werkzeuge, um Risiken frühzeitig zu erkennen und Maßnahmen gezielt zu steuern.
Nachhaltiger Umgang mit Daten
Moderne Forschung braucht gewaltige Datenmengen – und damit auch eine nachhaltige Infrastruktur. In Deutschland verbrauchen Rechenzentren bereits rund 16 Milliarden Kilowattstunden Strom jährlich. Prognosen gehen davon aus, dass dieser Wert bis 2037 auf 39 Terawattstunden steigen könnte. Gleichzeitig bestehen bis zu 52 Prozent der gespeicherten Unternehmensdaten aus sogenanntem „Dark Data“ – also Daten ohne klaren Nutzen, die aber Ressourcen binden und Energie kosten.
Intelligente Speicherlösungen helfen, diesen Datenmüll zu reduzieren: Durch automatisiertes Data Tiering werden selten genutzte Informationen auf energieeffizientere Speichermedien verschoben. Ergänzt durch Data Lifecycle Management und gezielte Analyse lassen sich Speicherbedarf und CO₂-Ausstoß signifikant senken. Allein 2020 verursachten weltweit unnötig gespeicherte Daten rund 5,8 Millionen Tonnen CO₂.
Gesetzgebung als Innovationstreiber
Die Politik setzt dabei zunehmend klare Leitplanken. Das neue Energieeffizienzgesetz verpflichtet Rechenzentren in Deutschland ab dem Jahr 2027 zum Betrieb mit vollständig erneuerbaren Energien. Neue Einrichtungen, die ab 2025 ans Netz gehen, müssen eine Power Usage Effectiveness (PUE) von höchstens 1,3 erreichen – also eine besonders energieeffiziente Infrastruktur aufweisen. Zusätzlich werden Umweltmanagementsysteme gesetzlich vorgeschrieben.
Damit wird deutlich: Der Aufbau einer intelligenten, umweltverträglichen Dateninfrastruktur ist längst keine freiwillige Initiative mehr, sondern ein zentraler Baustein der Energiewende – mit messbarem Mehrwert für Umwelt, Wirtschaft und Gesellschaft.
Mehr als Technik: Ein Beitrag zur globalen Verantwortung
Intelligente Dateninfrastruktur ist mehr als nur ein Effizienzfaktor – sie wird zum strategischen Instrument im Kampf gegen die Klimakrise. Supercomputer, KI, digitale Zwillinge und nachhaltige Speicherarchitekturen liefern das Fundament, auf dem Meeresforschung, Umweltschutz und Energiepolitik sinnvoll zusammenwirken können.
Für Unternehmen entsteht daraus eine doppelte Chance: Zum einen, ihre eigene Klimabilanz zu verbessern und regulatorische Anforderungen zu erfüllen. Zum anderen, aktiv an internationalen Zukunftsprojekten mitzuwirken – sei es als Technologiepartner, als Rechenzentrumsbetreiber oder als Innovator für nachhaltige Datennutzung.
NetApp etwa unterstützt mit seinen Lösungen nicht nur wissenschaftliche Institute wie IFREMER, sondern macht Datenmanagement zu einem Hebel für globale Nachhaltigkeit. Intelligente Dateninfrastruktur ist damit nicht nur ein Mittel zum Zweck – sondern ein Schlüssel für den Schutz unseres blauen Planeten.

Marc Kleff, Senior Director Solutions Engineering bei NetApp.



