22.02.2019

Datenflut aus dem All

Systematische Analyse von Archivdaten durch selbstlernende KI-Programme.

Erdbeobachtungs­satelliten liefern uns wichtige Daten, um zum Beispiel Veränderungen in Umwelt und Klima schnell zu erfassen oder Gletscher­bewegungen oder -schwund zu erkennen. Im Fall von Katastrophen wie Über­schwemmungen oder Erdbeben können aktuelle Karten für Rettungs­kräfte bereit­gestellt werden. Doch diese Informationen türmen große Datenberge auf. Die Satelliten des europäischen Copernicus-Programms zählen zu den größten Daten­produzenten weltweit. Sie erzeugen mit ihren hoch­auflösenden Instrumenten aktuell bereits ein tägliches Volumen von etwa zwanzig Terabyte. Hinzu kommen die Datenschätze von nationalen Missionen wie TerraSAR-X und TanDEM-X sowie zunehmend auch von anderen Quellen wie Internet oder Mess­stationen. Verarbeitung und Analyse dieser riesigen und heterogenen Datenmengen stehen als „Big Data“-Aufgaben stell­vertretend für zukünftige Heraus­forderung unserer digitalen Gesellschaft. Um diese zu lösen, trafen sich vom 19. bis 21. Februar in München etwa 650 Experten auf der Konferenz „Big Data from Space“.

Abb.: Ziel des Projekts „Global Urban Footprint“ ist die weltweite...
Abb.: Ziel des Projekts „Global Urban Footprint“ ist die weltweite Kartierung besiedelter Flächen in bislang einzigartiger räumlicher Auflösung. Zu sehen sind hier die Siedlungsmuster im Raum München. (Bild: DLR; CC-BY 3.0)

„Eine immer größere Anzahl von Satelliten, aber auch der Einsatz von neuen Sensoren mit höherer Auflösung liefern uns große Datenmengen – die Auswertung dieser Datenschätze wird zunehmend zu einer techno­logischen Heraus­forderung“, sagt Hansjörg Dittus, DLR-Vorstand für Raumfahrt­forschung und -techno­logie. „Daher forscht das DLR verstärkt an effizienten Methoden und Verfahren wie dem maschinellen Lernen, um so aussage­kräftige Analysen und Handlungs­empfehlungen zur Urbanisierung, zu Veränderungen der Atmosphäre oder auch zur globalen Erwärmung liefern zu können. Zudem plant das DLR, mit einer High Performance Data Analytics Plattform die informations­technologische Infra­struktur dafür zu schaffen.“

„Für Analysen dieser großen Datenmengen ist ein effizienter Zugriff entscheidend, etwa über Online-Plattformen. Die Entwicklung solcher Zugriffs­möglichkeiten und entsprechender Verarbeitungs­modelle wird daher vom DLR Raumfahrt­management gefördert. Neben innovativen wissenschaft­lichen Anwendungen ermöglicht dies auch die Entwicklung neuer Geschäfts­modelle im wachsenden Downstream-Sektor innerhalb der Erdbeobachtung", erklärt Walther Pelzer, DLR-Vorstand zuständig für das Raumfahrt­management.

Um die Datenberge weiter­zu­verarbeiten und in Informationen umwandeln zu können, braucht man neue Ideen und Konzepte. Dabei spielt künstliche Intelligenz eine große Rolle, da diese Verfahren gerade bei großen Datenmengen sehr leistungs­fähig sind. So erforscht DLR-Wissen­schaftlerin Xiaoxiang Zhu an der TU München zum Beispiel den Einsatz solcher Methoden. Zusammen mit ihrem Team entwickelt Zhu explorative Algorithmen aus Signal­verarbeitung und der künstlichen Intelligenz, speziell dem maschinellen Lernen, um die Gewinnung globaler Geo­informationen aus Satelliten­daten wesentlich zu verbessern und um Durchbrüche in Geo- und Umwelt­wissen­schaften zu erzielen. Einen Schritt weiter geht die Fusion von Petabytes komplementärer geo­relevanter Daten­quellen, von Erd­beobachtungs­satelliten bis sozialen Netzwerken, die durch neuartige Data-Science-Algorithmen ermöglicht wird. Die Ergebnisse haben das Potenzial, bisher nicht lösbare große Heraus­forderungen anzugehen, wie die Erfassung und Kartierung der weltweiten Urbani­sierung – eines der wichtigsten Megatrends des globalen Wandels.

Doch nicht nur die Satelliten­fern­erkundung ist mit dieser Heraus­forderung konfrontiert. Auch der umgekehrte Blick von der Erde ins All liefert riesige Datenmengen: Teleskope wie zum Beispiel das Square Kilometer Array in Südafrika und Australien oder auch weltraum­gebundene ESA-Teleskope wie Gaia und Euclid liefern riesige Daten­mengen. Die systematische Analyse von Archiv­daten durch selbst­lernende KI-Programme bekommt daher auch in der astronomischen Arbeit einen immer höheren Stellenwert.

Erdbeobachtungs­satelliten und Teleskope zeigen, dass Methoden aus den Daten­wissen­schaften und der künstliche Intelligenz unverzichtbar sind. Um diese Massen an Daten handhaben und auswerten zu können, braucht man geeignete Speicher- und geschickte Zugriffs­möglichkeiten. Für interessierte Nutzer ist letztlich nur der Zugang entscheidend – heutzutage meist in Form eines Online-Portals wie zum Beispiel der Plattform „Copernicus Data and Exploitation Platform – Deutschland“ des DLR-Raumfahrtmanagements. Sie können dort auf alle Daten zugreifen und direkt vor Ort weiter­verarbeiten. Es steht somit online eine komfortable Arbeits­umgebung für die Satelliten­daten, die im Copernicus-Programm kostenfrei bereitgestellt werden, zur Verfügung. Das spart lokalen Speicherplatz und Rechner­kapazitäten bei den Anwendern.

Aber auch die Datenportale selbst sind Gegenstand der Forschung. Wie sieht die ideale Plattform aus und welche Suchoptionen sollten dem Nutzer zur Verfügung stehen? Nach dem Vorbild von Internet­such­maschinen sollen Bilder entfernter Planeten oder von der Erd­ober­fläche ganz einfach anhand von Informationen gefunden werden. „Auf welchem Himmels­körper ist wahr­scheinlich Wasser vorhanden?" Oder:  „Welche Gebiete sind in Deutschland im Sommer besonders von Dürre betroffen?“ Solche Suchanfragen sollen modernen Portalen die richtigen Datensätze als Antwort liefern. Von hoher Bedeutung ist auch der lang­fristige Bestand dieser globalen Informationen. Ähnlich einer Bibliothek muss sicher­gestellt werden, dass Satelliten­daten über einen langen Zeitraum erhalten bleiben, gefunden werden können und abrufbar sind. Das geschieht etwa im Deutschen Satelliten­daten­archiv des Earth Observation Centers am DLR in Ober­pfaffen­hofen.

Ein großer Vorteil der modernen Erd­beobach­tung sind Zeit­reihen. Vergleicht man zum Beispiel die globale Gletscher­dynamik, lassen sich wertvolle Informationen zum Klimawandel, zur Veränderung des Meerwasser­spiegels und für den regionalen Wasser­haushalt gewinnen. Doch die umfangreichen Zeitreihen gehen mit riesigen Datenmengen einher, die sich kaum mehr bewegen und verarbeiten lassen. Produkte des DLR wie der World Settlement Footprint, eine globale hoch­auf­lösende Kartierung des Städtewachstums über die letzten dreißig Jahre, lassen sich nur mehr durch sehr leistungsstarke Rechen­zentren und automatisierte Auswertungs­verfahren realisieren. Vor wenigen Jahren undenkbar, zeigt dieses Beispiel das Potenzial, dass die heute verfügbaren großen Datenmengen in Kombination mit maschinellen Verfahren bieten. Außerdem arbeiten Wissen­schaftler an einem Werkzeug, das die Informationen aus Zeitreihen­messungen automatisch abgleicht und so diesen „Flaschenhals“ umgeht. So können Zeit und Speicher­platz bei der Auswertung eingespart werden. Doch nicht nur Erd­beobachtungs­experten sollen Satelliten­informationen künftig zur Verfügung stehen. Auch Laien sollen in den Genuss dieser Produkte kommen. Das ist momentan allerdings noch sehr schwierig, da bislang weitgehend unbearbeitete Daten zur Verfügung stehen. IT-Experten wollen das nun ändern und analyse­fertige Daten und Services bereit­stellen.

DLR / RK

Weitere Infos

 

Sonderhefte

Physics' Best und Best of
Sonderausgaben

Physics' Best und Best of

Die Sonder­ausgaben präsentieren kompakt und übersichtlich neue Produkt­informationen und ihre Anwendungen und bieten für Nutzer wie Unternehmen ein zusätzliches Forum.

ContentAd

Kleinste auf dem Markt erhältliche Hochleistungs-Turbopumpe

Kleinste auf dem Markt erhältliche Hochleistungs-Turbopumpe

Die HiPace 10 Neo ist ein effizienter, kompakter Allrounder für den Prüfalltag, der geräuscharm und besonders energieeffizient ist.

Meist gelesen

Themen