19.12.2018

Mit allem rechnen

Verbundprojekt für innovative computer­gestützte Ver­arbeitungs­methoden

Was sind die fundamentalen Bausteine der Natur? Wie ist das Uni­ver­sum ent­standen und wie hat es sich ent­wickelt? Diesen grund­legenden Fragen gehen Wissen­schaftler mit sehr unter­schied­lichen Methoden nach. Am Large Hadron Collider am CERN und beim Belle II-Experi­ment in Japan etwa suchen sie nach neuen elemen­taren Teil­chen in Proton-Proton- beziehungs­weise Elektron-Positron-Kolli­sionen. Am FAIR-Beschleu­niger wollen die Forscher in wenigen Jahren kompri­mierte Neutronen­stern-Materie im Labor her­stellen, die Quelle der schweren Elemente im Kosmos. Am Pierre-Auger-Obser­va­torium in Argen­tinien erlangen die Wissen­schaftler durch den Nach­weis hoch­energe­tischer kosmischer Strah­lung Erkennt­nisse über astro­physi­ka­lische und kosmo­lo­gische Prozesse.

Abb.: Die Komplexität des Daten­sammeln am Beispiel des Belle II-Detektors....
Abb.: Die Komplexität des Daten­sammeln am Beispiel des Belle II-Detektors. (Bild: V. T. Dong, Belle II Coll.)

Trotz unterschiedlicher Methoden und wissenschaftlicher Frage­stel­lungen ver­bindet die Forscher eine Heraus­forde­rung. Die zuneh­mend höhere Auf­lö­sung der Mess­instru­mente und die Leistungs­steige­rung der Beschleu­niger ver­sprechen zwar neue wissen­schaft­liche Erkennt­nisse, aller­dings steigen damit auch die Daten­mengen rasant an. Schon jetzt fallen beispiels­weise bei den Experi­menten am CERN etwa fünfzig Peta­byte Daten jährlich an. „In den kommenden zehn Jahren erwarten wir auf­grund der Weiter­ent­wick­lungen von Detek­toren und Beschleu­nigern eine Zunahme der Daten­mengen um den Faktor 50“, sagt Thomas Kuhr von der Uni München.

Neue Entwicklungen in der Speicher- und Prozessor­techno­logie können dieses Wachs­tum an Speicher­bedarf bei Weitem nicht aus­gleichen. Um auch weiter­hin Forschungs­daten analy­sieren zu können, braucht es daher künftig komplett neue Rechen­konzepte. Um diese zu ent­wickeln, haben sich Wissen­schaftler aus der Teilchen­physik, der Hadronen- und Kern­physik sowie der Astro­teil­chen­physik jetzt zu einem experi­ment- und fach­über­grei­fenden Ver­bund zusammen­ge­schlossen.

Das Bundesministerium für Bildung und Forschung fördert diesen Ver­bund mit dem Namen „Inno­va­tive Digi­tale Techno­logien für die Erfor­schung von Uni­ver­sum und Materie“ mit insge­samt 3,6 Milli­onen Euro über die nächsten drei Jahre. Beteiligt sind Teams der Univer­sitäten Aachen, Bonn, Erlangen-Nürn­berg, Frank­furt am Main, Frei­burg, Göttingen, Hamburg, Mainz, München, Münster, Wupper­tal und des Karls­ruher Instituts für Techno­logie sowie der asso­zi­ierten Partner DESY, CERN, Forschungs­zentrum Jülich, Grid Compu­ting Centre Karls­ruhe, GSI Helm­holtz­zentrum für Schwer­ionen­forschung. Die Verbund­koordi­na­tion über­nimmt Kuhr.

Innerhalb der nächsten drei Jahre entwickelt und testet der Verbund neue Computing-Systeme. Ein viel­ver­spre­chender Ansatz ist dabei der Ein­satz von Virtua­lisie­rungs-Techno­logien, um bisher unzu­gäng­liche Ressourcen zu erschließen. Auch an die Nutzung von neuen Prozessor-Archi­tek­turen, die zum Beispiel in Grafik­karten ein­ge­setzt werden und eine bessere Energie­effi­zienz ver­sprechen, denken die Wissen­schaftler. Eine wich­tige Säule sehen die Forscher in der Ent­wick­lung ver­besserter Algo­rithmen und dem Ein­satz von künst­licher Intelli­genz für Big-Data-Analysen. Dabei sollen inno­va­tive Methoden des maschi­nellen Lernens eine wich­tige Rolle spielen.

„Die riesigen Datenmengen sind für uns eine große Heraus­forde­rung. Inno­va­tive digi­tale Methoden sind künftig unab­ding­bar, um die Grund­lagen­forschung ent­schei­dend voran­zu­bringen“, sagt Kuhr. Aber nicht nur die physi­ka­lische Forschung steht vor der digi­talen Heraus­forde­rung. „Auch andere Wissen­schafts­bereiche benötigen über kurz oder lang leistungs­starke Rechen­um­ge­bungen und werden von den neuen Kompe­tenzen profi­tieren.“ Das Verbund­projekt bietet den betei­ligten Nach­wuchs­wissen­schaftlern eine hervor­ragende Gelegen­heit, sich ein umfas­sendes Wissen in neuen Compu­ting-Techno­logien anzu­eignen. Damit sind sie bestens darauf vor­be­reitet, führende Posi­tionen in Wissen­schaft oder Wirt­schaft zu besetzen, um den digi­talen Wandel voran­zu­treiben. Neben der Koordi­na­tion über­nimmt die Uni München im Ver­bund die Auf­gabe, Simula­tions­rech­nungen, zunächst am Beispiel des Belle II-Experi­ments, durch den Ein­satz tiefer neuro­naler Netze deut­lich zu beschleu­nigen. Außer­dem ent­wickeln Wissen­schaftler der Uni München neue Methoden zum effi­zi­enten Zugriff auf riesige Daten­mengen über große Ent­fer­nungen.

ContentAd

Kleinste auf dem Markt erhältliche Hochleistungs-Turbopumpe

Kleinste auf dem Markt erhältliche Hochleistungs-Turbopumpe

Die HiPace 10 Neo ist ein effizienter, kompakter Allrounder für den Prüfalltag, der geräuscharm und besonders energieeffizient ist.

Sonderhefte

Physics' Best und Best of
Sonderausgaben

Physics' Best und Best of

Die Sonder­ausgaben präsentieren kompakt und übersichtlich neue Produkt­informationen und ihre Anwendungen und bieten für Nutzer wie Unternehmen ein zusätzliches Forum.

Meist gelesen

Themen