Schneller Weg zu synthetischen Daten
Neues Projekt zur Datengewinnung mittels neuronaler Netzwerke.
Neben experimentellen Daten wird in der physikalischen Grundlagenforschung auch mit synthetisch erzeugten Daten gearbeitet. Deren Gewinnung mit aktuell verfügbaren Simulationsmethoden ist jedoch zeitintensiv und bindet immense Rechnerkapazitäten. Ein neues Projekt des Deutschen Elektronen-Synchrotrons Desy in Hamburg, des Helmholtz-Zentrums Dresden-Rossendorf HZDR und des Zentrums für datenintensive Systemforschung CASUS – Center for Advanced Systems Understanding – erprobt einen Ansatz, mit dem Daten zum Verhalten von physikalischen Systemen mittels neuronaler Netze schneller erzeugt werden können. Das Projekt „SynRap“ wurde in einem Wettbewerbsverfahren zur Förderung ausgewählt. Die 15 Gewinnerteams erhalten über Helmholtz AI, der Kooperationseinheit der Helmholtz-Gemeinschaft zum Thema künstliche Intelligenz, in den kommenden Jahren insgesamt 6,2 Millionen Euro.
Synthetische Daten sind am Computer algorithmisch erzeugte Daten. Sie werden zum Beispiel für das Testen von Software oder die Weitergabe von anonymisierten personenbezogenen Daten genutzt. Das Trainieren von Algorithmen des maschinellen Lernens ist ein weiteres wichtiges Einsatzgebiet. Hier werden synthetische Daten insbesondere zum Trainieren jener Algorithmen benötigt, die zu den tiefen neuronalen Netzen zählen. „Diese Algorithmen müssen mit besonders großen Datensätzen angelernt werden, damit bei der Analyse der experimentellen Daten akkurate Ergebnisse erzielt werden“, sagt Isabell Melzer-Pellmann, Gruppenleiterin bei Desy. Aktuell werden diese Trainingsdaten mit komplexen numerischen Simulationsmethoden aus zum Beispiel der Quantenmechanik erzeugt. Dieses Vorgehen ist allerdings rechenintensiv und nimmt viel Zeit in Anspruch.
Eine schnellere Alternative wird nun im Rahmen des Projekts „SynRap – Auf maschinellem Lernen basierende Generierung synthetischer Daten für die schnelle Modellbildung in der Physik“ erforscht. Das Ziel von Melzer-Pellmann und ihren Mitstreitern Dirk Krücker, Attila Cangi und Nico Hoffmann ist es, den Prozess der Erzeugung großer Mengen synthetischer Daten um den Faktor 1000 zu beschleunigen. Dafür will das Team eine Toolbox von für diesen Zweck geeigneten Algorithmen des maschinellen Lernens zusammenstellen. Diese Algorithmen werden aus einer bestimmten Untergruppe der neuronalen Netzwerke stammen. In Abgrenzung zu den tiefen neuronalen Netzwerken wird diese als stellvertretende neuronale Netzwerke beziehungsweise Ersatzmodelle neuronaler Netzwerke – surrogate neural networks – bezeichnet.
Ob die Qualität der derart erzeugten Datensätze stimmt, soll anhand je einem Beispiel aus der Hochenergiedichtephysik und der Hochenergiephysik überprüft werden. Im Bereich der Hochenergiedichtematerie geht es um die Zusammensetzung des Inneren von Planeten und Sternen, aber auch um Fragen angewandter Forschung wie der Bearbeitung von Materialien mit starken Lasern. Die Hochenergiephysik erforscht indes grundlegende Fragen zur Natur unseres Universums: Woraus besteht Materie? Welche Gesetze bestimmen Wechselwirkungen der Bestandteile der Materie? „Die Besonderheit unseres Projektes ist es, dass unser Werkzeugkasten von verschiedenen neuronalen Netzwerken letztendlich in vielen Forschungsgebieten Verwendung finden soll“, erläutert Cangi. Daher wird bei der Entwicklung der Software-Tools der Bedarf anderer Naturwissenschaften berücksichtigt. „Die interdisziplinäre Natur von Casus ermöglicht es uns, unsere Arbeit immer auch an typischen Nutzungsszenarien aus den Umweltwissenschaften oder der Systembiologie zu orientieren“, fährt Cangi fort.
Die Helmholtz-Kooperationseinheit zur Künstlichen Intelligenz – Helmholtz AI – stärkt die Anwendung und Entwicklung von angewandter künstlicher Intelligenz und maschinellem Lernen. Das Expertenpanel wählte insbesondere jene Forschungsprojekte des Wettbewerbs aus, bei denen ein hoher Erkenntnisgewinn in Aussicht steht. Allerdings gelten solche Projekte auch als besonders riskant. Es muss also damit gerechnet werden, auf unlösbare Probleme zu stoßen und das erklärte Projektziel nicht zu erreichen. Im Rahmen der aktuellen Ausschreibungsrunde vergibt die Helmholtz-Gemeinschaft insgesamt 6,2 Millionen Euro. Bei der ersten Ausschreibung der Helmholtz-AI-Projekte vor einem Jahr wurden 19 Vorhaben mit insgesamt 7,2 Millionen Euro bedacht.
HZDR / JOL