15.03.2021

Wie eine KI viel Energie sparen kann

Neue Art künstlicher neuronaler Netzwerke ebnet den Weg zu einer energieeffizienten KI-Hardware.

Die meisten neuen Errungen­schaften der künstlichen Intelligenz erfordern sehr große neuronale Netze. Sie bestehen aus hunderten Millionen von Neuronen, die in mehreren hundert Schichten angeordnet sind, also sehr tiefe Netzstrukturen haben. Diese großen, tiefen neuronalen Netze verbrauchen im Computer sehr viel Energie. Besonders energie­intensiv sind jene neuro­nalen Netze, die in der Bildklassi­fizierung eingesetzt werden, da sie in jedem Zeittakt sehr viele Zahlenwerte mit großer Genauigkeit von einer Neuronen­schicht zur nächsten senden müssen. Der Informatiker Wolfgang Maass hat nun gemeinsam mit seinem Doktoranden Christoph Stöckl ;eine Design-Methode für künstliche neuronale Netzwerke gefunden, die den Weg zu einer energie­effizienten leistungs­fähigen KI-Hardware ebnet.

Abb.: Infor­matiker Wolfgang Maass arbeitet an energie­effizienten...
Abb.: Infor­matiker Wolfgang Maass arbeitet an energie­effizienten KI-Anwendungen und lässt sich dabei von der Funktions­weise des mensch­lichen Gehirns inspirieren. (Bild: Lunghammer, TU Graz)

Die beiden Forscher des Instituts für Grundlagen der Informations­verarbeitung der TU Graz haben künstliche neuronale Netzwerke in Computer­simulationen zur Bildklassi­fizierung derart optimiert, dass die Neuronen – ähnlich wie Neurone im Gehirn – nur relativ selten Signale aussenden müssen und eben diese Signale sehr einfach sind. Die nachgewiesene Klassifizierungs­genauigkeit von Bildern mit diesem Design kommt trotzdem sehr nahe an den aktuellen Stand der Technik derzeitiger Methoden zur Bildklassi­fizierung heran.

Maass und Stöckl ließen sich dabei von der Arbeits­weise des menschlichen Gehirns inspirieren. Dieses verarbeitet mehrere Billionen Rechen­operationen in der Sekunde, benötigt dafür aber nur etwa zwanzig Watt. Möglich wird dieser geringe Energie­verbrauch durch die zwischen­neuronale Kommuni­kation mittels sehr einfacher elektrischer Impulse, den Spikes. Die Information wird dabei nicht nur durch die Anzahl der Spikes, sondern auch durch ihre zeitlichen variablen Muster kodiert. „Man kann sich das vorstellen wie einen Morse-Code. Auch die Pausen zwischen den Signalen übertragen Informationen“, erklärt Maass. Dass eine Spike-basierte Hardware den Energie­verbrauch von Anwendungen mit neuronalen Netzen reduzieren kann, ist nicht neu. Dies konnte aber bisher nicht für die sehr tiefen und großen neuronalen Netze realisiert werden die man für wirklich gute Bildklassi­fikation benötigt.

In der Methode von Maass und Stöckl kommt es nun bei der Informations­übertagung nicht nur darauf an, wie viele Spikes ein Neuron aussendet, sondern auch, wann das Neuron diese Spikes aussendet. Die Zeit oder die zeitlichen Abstände zwischen den Spikes kodieren sich praktisch selbst und können daher sehr viel zusätzliche Information übertragen. „Wir zeigen, dass mit wenigen Spikes – in unseren Simulationen sind es durch­schnittlich zwei – genauso viel Informationen zwischen den Prozessoren vermittelt werden können wie in energie­aufwendiger Hardware“, so Maass. Mit den Ergebnissen liefern die beiden Infor­matiker einen neuen Ansatz für Hardware, die wenige Spikes und damit einen geringen Energie­verbrauch mit State-of-the-Art-Performances von KI-Anwendungen verbindet. Die Ergebnisse könnten die Entwicklung von energie­effizienter KI-Anwendungen drastisch beschleunigen.

TU Graz / JOL

Weitere Infos

EnergyViews

EnergyViews
Dossier

EnergyViews

Die neuesten Meldungen zu Energieforschung und -technologie von pro-physik.de und Physik in unserer Zeit.

Weiterbildung

Weiterbildungen im Bereich Quantentechnologie
TUM INSTITUTE FOR LIFELONG LEARNING

Weiterbildungen im Bereich Quantentechnologie

Vom eintägigen Überblickskurs bis hin zum Deep Dive in die Technologie: für Fach- & Führungskräfte unterschiedlichster Branchen.

Meist gelesen

Themen