03.04.2024

Künstliche Intelligenz verbessert hochauflösende Mikroskopie

Algorithmus erhöht die Qualität von Bildern mithilfe von Zufallsdaten.

Generative künstliche Intelligenz ist von Anwendungen zur Texterstellung oder Bilderzeugung wie ChatGPT oder Stable Diffusion bekannt. Darüber hinaus zeigt sich ihr Nutzen in verschiedenen wissenschaftlichen Bereichen. Forscher des Helmholtz-Zentrums Dresden-Rossendorf haben jetzt Zusammenarbeit mit Wissenschaftlern des Imperial College London und des University College London einen neuen Open-Source-Algorithmus namens Conditional Variational Diffusion Model, kurz CVDM, vorgestellt. Dieses Modell basiert auf generativer KI und verbessert die Qualität von Bildern, indem es sie aus Zufallsdaten rekonstruiert. Darüber hinaus ist das CVDM rechnerisch weniger aufwändig als etablierte Diffusionsmodelle und lässt sich leicht an eine Vielzahl von Anwendungen anpassen.

Abb.: Ein Fluoreszenzmikroskopiebild aus dem offen zugängliche BioSR-Datensatz...
Abb.: Ein Fluoreszenzmikroskopiebild aus dem offen zugängliche BioSR-Datensatz für die hochauflösende Mikroskopie.
Quelle: A. Yakimovich, CASUS / C. Qiao & D. Li; CC BY 4.0

Das Aufkommen von Big Data sowie neuer mathematischer und datenwissenschaftlicher Methoden nutzen Forscher, um bisher ungeklärte Phänomene aus Biologie, Medizin oder den Umweltwissenschaften zu entschlüsseln. Meist widmen sie sich dabei inversen Problemen. Bei solchen Problemen geht es darum, die ursächlichen Faktoren zu ermitteln, die zu bestimmten Beobachtungen führen. Ein Beispiel: Man hat eine Graustufenversion eines Bildes und möchte die Farben wiederherstellen. Hier gibt es in der Regel mehrere valide Lösungsvorschläge, da unter anderem hellblau und hellrot im Graustufenbild identisch aussehen. Die Lösung dieses inversen Problems kann somit das Bild mit dem hellblauen oder das mit dem hellroten Hemd sein.

Die Analyse von mikroskopischen Aufnahmen kann ebenfalls ein typisches inverses Problem darstellen. „Die Beobachtung ist die mikroskopische Aufnahme. Mit Hilfe einiger Berechnungen lässt sich sehr viel mehr über die untersuchte Probe herausfinden, als man beim Blick auf diese Aufnahme zunächst vermutet“, sagt Gabriel della Maggiora vom HZDR. Das Ergebnis können Bilder in höherer Auflösung oder besserer Qualität sein. Jedoch ist der Weg von den Beobachtungen, also den mikroskopischen Aufnahmen, zu den „Superbildern“ in der Regel nicht offensichtlich. Hier spielt auch eine Rolle, dass die Beobachtungsdaten oft unvollständig, ungenau oder durch Rauschen beeinträchtigt sind. All dies trägt zur Komplexität der Lösung inverser Probleme bei und macht sie zu spannenden mathematischen Herausforderungen.

Eines der leistungsfähigsten Werkzeuge zur Lösung inverser Probleme ist die generative KI. Ganz allgemein lernen generative KI-Modelle die zugrunde liegende Datenverteilung eines bestimmten Trainingsdatensatzes. Eine typische Anwendung ist beispielsweise die Bilderzeugung. Nach der Trainingsphase erzeugen generative KI-Modelle dann komplett neue Bilder, die mit den Trainingsdaten vereinbar sind.

Unter den verschiedenen generativen KI-Varianten hat in jüngster Zeit die Gruppe der Diffusionsmodelle an Popularität gewonnen. Bei Diffusionsmodellen beginnt ein stufenweiser Datenerstellungsprozess mit einem Grundrauschen. Das ist ein Konzept aus der Informationstheorie, das die Auswirkung der zahlreichen in der Natur vorkommenden Zufallsprozesse imitiert. Diffusionsmodelle zur Bilderzeugung haben gelernt, welche Pixelanordnungen in den Bildern des Trainingsdatensatzes üblich oder unüblich sind. Sie erzeugen nun Bit für Bit das gewünschte neue Bild, bis sich eine Pixelanordnung findet, die bestmöglich mit der zugrunde liegenden Struktur der Trainingsdaten übereinstimmt. Ein gutes Beispiel für die Leistungsfähigkeit von Diffusionsmodellen ist das Text-zu-Video-Modell Sora des US-Softwareunternehmens OpenAI. Durch eine eingebaute Diffusionskomponente ist Sora in der Lage, Videos zu erzeugen, die realistischer erscheinen als alles, was KI-Modelle zuvor erstellt haben.

Allerdings gibt es auch einen Nachteil. „Diffusionsmodelle sind seit Langem für ihren hohen Rechenaufwand im Trainingsprozess bekannt. Einige Wissenschaftler haben sie genau aus diesem Grund wieder aufgegeben“, sagt Artur Yakimovich vom HZDR. „Aber neue Entwicklungen wie unser Conditional Variational Diffusion Model ermöglichen es, die Anzahl der unproduktiven Durchläufe, die nicht zum endgültigen Modell führen, zu minimieren. Durch die erreichte Senkung des Rechenaufwands und somit des Stromverbrauchs hilft dieser Ansatz, das Training von Diffusionsmodellen klimafreundlicher zu gestalten.“

Ein wesentlicher Nachteil der Diffusionsmodelle sind nämlich diese unproduktiven Durchläufe. Einer der Gründe für deren Auftreten ist die empfindliche Reaktion des Modells auf die Wahl des vordefinierten Ablaufplans, der die Dynamik des Diffusionsprozesses steuert. Dieser Ablaufplan bestimmt, wie das Rauschen hinzugefügt wird: zu wenig oder zu viel, am falschen Ort oder zur falschen Zeit – es gibt viele mögliche Szenarien, die in einem misslungenen Training enden. Bislang wurde dieser Ablaufplan als Hyperparameter festgelegt, der für jede einzelne Anwendung neu eingestellt werden muss. Mit anderen Worten: Beim Entwurf des Modells ermitteln die Forscher den entsprechenden Ablaufplan in der Regel nach dem Prinzip „Versuch und Irrtum“. Bei ihrer neuen Methode beziehen die Wissenschaftler den Ablaufplan jedoch bereits in der Trainingsphase mit ein, so dass ihr CVDM in der Lage ist, das optimale Training selbständig zu ermitteln. Das Modell lieferte dann bessere Ergebnisse als andere Modelle, die sich auf einen vordefinierten Ablaufplan stützen.

Unter anderem hat das Team die Anwendbarkeit des CVDM auf ein typisches inverses Problem der Wissenschaft demonstriert: die hochauflösende Mikroskopie. Die hochauflösende Mikroskopie zielt darauf ab, die Beugungsgrenze zu überwinden – eine Grenze, die aufgrund der optischen Eigenschaften des mikroskopischen Systems die maximal mögliche Bildauflösung beschränkt. Um sie algorithmisch zu überqueren, rekonstruieren Datenwissenschaftler Bilder mit höherer Auflösung, indem sie sowohl Unschärfe als auch Rauschen aus den aufgenommenen, niedrig aufgelösten) Bildern eliminieren. In diesem Szenario erzielte der CVDM vergleichbare oder sogar überlegene Ergebnisse im Vergleich zu üblicherweise verwendeten Methoden.

„Natürlich gibt es verschiedene Methoden, um die Aussagekraft mikroskopischer Bilder zu erhöhen – einige von ihnen basieren ebenfalls auf generativen KI-Modellen“, sagt Yakimovich. „Aber wir sind davon überzeugt, dass unser Ansatz einige neue, einzigartige Eigenschaften aufweist, die in der Forschergemeinschaft Eindruck hinterlassen werden. Das wäre zum einen die hohe Flexibilität und Geschwindigkeit bei vergleichbarer oder sogar besserer Qualität im Vergleich zu anderen Diffusionsmodellansätzen. Darüber hinaus liefert unser CVDM Hinweise, wo genau es sich bei der Rekonstruktion nicht sicher ist. Diese äußerst hilfreiche Eigenschaft ebnet den Weg, um diese Unsicherheiten in neuen Experimenten und Simulationen anzugehen.“

HZDR / RK

Virtuelle Jobbörse

Virtuelle Jobbörse
Eine Kooperation von Wiley-VCH und der DPG

Virtuelle Jobbörse

Innovative Unternehmen präsentieren hier Karriere- und Beschäftigungsmöglichkeiten in ihren Berufsfeldern.

Die Teilnahme ist kostenfrei – erforderlich ist lediglich eine kurze Vorab-Registrierung.

Weiterbildung

Weiterbildungen im Bereich Quantentechnologie
TUM INSTITUTE FOR LIFELONG LEARNING

Weiterbildungen im Bereich Quantentechnologie

Vom eintägigen Überblickskurs bis hin zum Deep Dive in die Technologie: für Fach- & Führungskräfte unterschiedlichster Branchen.

Meist gelesen

Themen