19.12.2018

Mit allem rechnen

Verbundprojekt für innovative computer­gestützte Ver­arbeitungs­methoden

Was sind die fundamentalen Bausteine der Natur? Wie ist das Uni­ver­sum ent­standen und wie hat es sich ent­wickelt? Diesen grund­legenden Fragen gehen Wissen­schaftler mit sehr unter­schied­lichen Methoden nach. Am Large Hadron Collider am CERN und beim Belle II-Experi­ment in Japan etwa suchen sie nach neuen elemen­taren Teil­chen in Proton-Proton- beziehungs­weise Elektron-Positron-Kolli­sionen. Am FAIR-Beschleu­niger wollen die Forscher in wenigen Jahren kompri­mierte Neutronen­stern-Materie im Labor her­stellen, die Quelle der schweren Elemente im Kosmos. Am Pierre-Auger-Obser­va­torium in Argen­tinien erlangen die Wissen­schaftler durch den Nach­weis hoch­energe­tischer kosmischer Strah­lung Erkennt­nisse über astro­physi­ka­lische und kosmo­lo­gische Prozesse.

Abb.: Die Komplexität des Daten­sammeln am Beispiel des Belle II-Detektors....
Abb.: Die Komplexität des Daten­sammeln am Beispiel des Belle II-Detektors. (Bild: V. T. Dong, Belle II Coll.)

Trotz unterschiedlicher Methoden und wissenschaftlicher Frage­stel­lungen ver­bindet die Forscher eine Heraus­forde­rung. Die zuneh­mend höhere Auf­lö­sung der Mess­instru­mente und die Leistungs­steige­rung der Beschleu­niger ver­sprechen zwar neue wissen­schaft­liche Erkennt­nisse, aller­dings steigen damit auch die Daten­mengen rasant an. Schon jetzt fallen beispiels­weise bei den Experi­menten am CERN etwa fünfzig Peta­byte Daten jährlich an. „In den kommenden zehn Jahren erwarten wir auf­grund der Weiter­ent­wick­lungen von Detek­toren und Beschleu­nigern eine Zunahme der Daten­mengen um den Faktor 50“, sagt Thomas Kuhr von der Uni München.

Neue Entwicklungen in der Speicher- und Prozessor­techno­logie können dieses Wachs­tum an Speicher­bedarf bei Weitem nicht aus­gleichen. Um auch weiter­hin Forschungs­daten analy­sieren zu können, braucht es daher künftig komplett neue Rechen­konzepte. Um diese zu ent­wickeln, haben sich Wissen­schaftler aus der Teilchen­physik, der Hadronen- und Kern­physik sowie der Astro­teil­chen­physik jetzt zu einem experi­ment- und fach­über­grei­fenden Ver­bund zusammen­ge­schlossen.

Das Bundesministerium für Bildung und Forschung fördert diesen Ver­bund mit dem Namen „Inno­va­tive Digi­tale Techno­logien für die Erfor­schung von Uni­ver­sum und Materie“ mit insge­samt 3,6 Milli­onen Euro über die nächsten drei Jahre. Beteiligt sind Teams der Univer­sitäten Aachen, Bonn, Erlangen-Nürn­berg, Frank­furt am Main, Frei­burg, Göttingen, Hamburg, Mainz, München, Münster, Wupper­tal und des Karls­ruher Instituts für Techno­logie sowie der asso­zi­ierten Partner DESY, CERN, Forschungs­zentrum Jülich, Grid Compu­ting Centre Karls­ruhe, GSI Helm­holtz­zentrum für Schwer­ionen­forschung. Die Verbund­koordi­na­tion über­nimmt Kuhr.

Innerhalb der nächsten drei Jahre entwickelt und testet der Verbund neue Computing-Systeme. Ein viel­ver­spre­chender Ansatz ist dabei der Ein­satz von Virtua­lisie­rungs-Techno­logien, um bisher unzu­gäng­liche Ressourcen zu erschließen. Auch an die Nutzung von neuen Prozessor-Archi­tek­turen, die zum Beispiel in Grafik­karten ein­ge­setzt werden und eine bessere Energie­effi­zienz ver­sprechen, denken die Wissen­schaftler. Eine wich­tige Säule sehen die Forscher in der Ent­wick­lung ver­besserter Algo­rithmen und dem Ein­satz von künst­licher Intelli­genz für Big-Data-Analysen. Dabei sollen inno­va­tive Methoden des maschi­nellen Lernens eine wich­tige Rolle spielen.

„Die riesigen Datenmengen sind für uns eine große Heraus­forde­rung. Inno­va­tive digi­tale Methoden sind künftig unab­ding­bar, um die Grund­lagen­forschung ent­schei­dend voran­zu­bringen“, sagt Kuhr. Aber nicht nur die physi­ka­lische Forschung steht vor der digi­talen Heraus­forde­rung. „Auch andere Wissen­schafts­bereiche benötigen über kurz oder lang leistungs­starke Rechen­um­ge­bungen und werden von den neuen Kompe­tenzen profi­tieren.“ Das Verbund­projekt bietet den betei­ligten Nach­wuchs­wissen­schaftlern eine hervor­ragende Gelegen­heit, sich ein umfas­sendes Wissen in neuen Compu­ting-Techno­logien anzu­eignen. Damit sind sie bestens darauf vor­be­reitet, führende Posi­tionen in Wissen­schaft oder Wirt­schaft zu besetzen, um den digi­talen Wandel voran­zu­treiben. Neben der Koordi­na­tion über­nimmt die Uni München im Ver­bund die Auf­gabe, Simula­tions­rech­nungen, zunächst am Beispiel des Belle II-Experi­ments, durch den Ein­satz tiefer neuro­naler Netze deut­lich zu beschleu­nigen. Außer­dem ent­wickeln Wissen­schaftler der Uni München neue Methoden zum effi­zi­enten Zugriff auf riesige Daten­mengen über große Ent­fer­nungen.

ContentAd

Kleinste auf dem Markt erhältliche Hochleistungs-Turbopumpe

Kleinste auf dem Markt erhältliche Hochleistungs-Turbopumpe

Die HiPace 10 Neo ist ein effizienter, kompakter Allrounder für den Prüfalltag, der geräuscharm und besonders energieeffizient ist.

EnergyViews

EnergyViews
Dossier

EnergyViews

Die neuesten Meldungen zu Energieforschung und -technologie von pro-physik.de und Physik in unserer Zeit.

Meist gelesen

Themen