Energieeinsparungen durch neuromorphe Hardware
System ist vier- bis sechzehnmal energieeffizienter als AI-Modelle auf herkömmlicher Hardware.
Das Institut für Grundlagen der Informationsverarbeitung der TU Graz und Intel Labs haben erstmals experimentell nachgewiesen, dass ein großes neuronales Netz Sequenzen auf neuromorpher Hardware um das vier- bis sechzehnfache effizienter verarbeiten kann als auf herkömmlicher Hardware. Die neuen Forschungsergebnisse basieren auf dem neuromorphen Forschungschip Loihi der Intel Labs. Loihi nutzt Erkenntnisse der Neurowissenschaften, um Chips nach dem Vorbild des biologischen Gehirns zu schaffen.
Der hohe Energieverbrauch ist ein Haupthindernis auf dem Weg zu einer breiteren Anwendung von AI-Methoden. Einen Schub in die richtige Richtung erhofft man sich von neuromorpher Technologie. Sie hat das menschliche Gehirn zum Vorbild, das Weltmeister in Sachen Energieeffizienz ist: Für das Verarbeiten von Informationen verbrauchen seine hundert Milliarden Neuronen nur etwa zwanzig Watt.
Das Team konzentrierte sich auf Algorithmen, die mit zeitlichen Prozessen arbeiten. So musste das System beispielsweise Fragen zu einer zuvor erzählten Geschichte beantworten und die Beziehungen zwischen Objekten oder Personen aus dem Kontext erfassen. Die getestete Hardware bestand aus 32 Loihi-Chips.
„Unser System ist vier- bis sechzehnmal energieeffizienter als andere AI-Modelle auf herkömmlicher Hardware “, so Philipp Plank von der TU Graz. Der Forscher erwartet weitere Effizienzsteigerungen, wenn diese Modelle auf die nächste Generation der Loihi-Hardware migriert werden, die die Leistung der Chip-zu-Chip-Kommunikation deutlich verbessert.
In ihrem Konzept bildete die Gruppe eine vermutete Methode des menschlichen Gehirns nach, wie Wolfgang Maass von der TU Graz erklärt: „Simulationen lassen darauf schließen, dass ein Ermüdungsmechanismus einer Untergruppe von Neuronen für das Kurzzeit-Gedächtnis wesentlich ist.“ Das Netzwerk muss nur testen, welche Neuronen gerade ermüdet sind, um zu rekonstruieren, welche Informationen es vorher verarbeitet hat. Mit anderen Worten: Vorherige Information wird in Nicht-Aktivität von Neuronen gespeichert, und Nicht-Aktivität verbraucht die geringste Energie.
TU Graz / RK
Weitere Infos
- Originalveröffentlichung
A. Rao et al.: A Long Short-Term Memory for AI Applications in Spike-based Neuromorphic Hardware, Nat. Mach. Intell. 4, 467 (2022); DOI: 10.1038/s42256-022-00480-w - Institut für Grundlagen der Informationsverarbeitung, Technische Universität Graz, Österreich
- Neuromorphic Computing, Intel, Intel Deutschland GmbH, Neubiberg