02.03.2026

Künstliche Intelligenz sicher gestalten

Der AI Impact Summit beschwört die Demokratisierung der Künstlichen Intelligenz, während über 120 Professorinnen und Professoren verbindliche Sicherheitsstandards einfordern.

Alexander Pawlak

Der Status der Künstlichen Intelligenz ist mittlerweile alles andere als eindeutig und reicht vom praktischen Alltagswerkzeug bis zum neuen Kriegsakteur. Trotz jahrzehntelanger Vorarbeiten und Diskursen scheinen die Anwendungen des Maschinellen Lernens die Möglichkeiten von ethischer Reflektion, gesellschaftlicher Steuerung und politischer Regulierung zu überrollen.

Außer Frage steht, dass KI Produktivität steigern und beispielsweise medizinischen Fortschritt vorantreiben – die rasante Entwicklung birgen jedoch auch große Risiken, die keinen Halt vor Ländergrenzen machen. Internationale Initiativen bemühen sich daher darum, die Risiken zu minimieren und dabei das Potential der KI auszuschöpfen.

Die britische Regierung unter Premierminister Rishi Sunak initiierte im November 2023 mit dem AI Safety Summit im englischen Bletchley Park den ersten globalen KI-Sicherheitsgipfel. 2025 folgte der AI Action Summit in Paris. Diesen kritisierte der Kosmologe Max Tegmark vom MIT gegenüber Bletchley als Rückschlag, da das Thema Sicherheit in der Erklärung fehle und dies ein „Rezept für eine Katastrophe“ sei. Tegmark hatte 2014 das Future of Life Institute mitbegründet, das helfen soll existentielle Risiken für die gesamte Menschheit zu verringern, die etwa von Nuklearwaffen oder neuen Technologien wie KI ausgehen.

Am 19. und 20. Februar fand dieses Jahr der AI Impact Summit im Indischen Delhi statt. Bereits im Vorfeld haben über 120 Professorinnen und Professoren die deutsche Delegation aufgefordert sich öffentlich für ein globales Abkommen auszusprechen, das sich in folgenden Prioritäten verankert:

  • (1) Rote Linien: KI birgt das Risiko unvertretbarer globaler Auswirkungen. Es braucht klare Grenzen, die nicht überschritten werden dürfen.
  • (2) Verbindliche Sicherheitsstandards: Der unkontrollierte KI-Wettlauf führt zur Vernachlässigung von Sicherheit. Regulierung mit unabhängiger internationaler Durchsetzung ist erforderlich.

Mit KI erschaffen wir eine neue intelligente Spezies, und wir tun dies häufig nicht mit der nötigen Sorgfalt, sondern in einem Wettlauf darum, wer es am schnellsten schafft.

Andrzej Buras (TU München)

Unter die Unterzeichner:innen mischen sich auch warnende Stimmen aus der Physik, etwa Andrzej Buras, Professor emeritus für theoretische Physik an der TU München und Träger der Max-Planck-Medaille 2020„Mit KI erschaffen wir eine neue intelligente Spezies, und wir tun dies häufig nicht mit der nötigen Sorgfalt, sondern in einem Wettlauf darum, wer es am schnellsten schafft. KI bietet viele Möglichkeiten, aber ohne internationale Sicherheitsstandards riskieren wir, von intellektuell überlegenen KIs verdrängt zu werden.“

„Menschliches Denken und künstliche Intelligenz sind grundlegend verschieden", sagt der theoretische Astrophysiker Matthias Bartelmann von der Universität Heidelberg, „Bevor wir diese Unterschiede nicht verstehen, wissen wir nicht, wohin sich die KI selbst entwickeln wird. Mit ihr füttern wir einen Drachen, dessen langfristiges Verhalten wir nicht einschätzen können.”

Die Abschlusserklärung des AI Impact Summit wurde von Vertreter:innen aus 91 Staaten unterzeichnet, darunter aus Europa Deutschland, Frankreich, Italien, Großbritannien sowie die USA und Indien, aber auch China, Russland und Iran. Sie würdigt den Aspekt einer sicheren und vertrauenswürdigen KI explizit mit einem eigenen Absatz: „Wir sind uns bewusst, dass es nach wie vor wichtig ist, unser Verständnis der potenziellen Sicherheitsaspekte zu vertiefen, und erkennen die Bedeutung der Sicherheit in KI-Systemen, freiwilliger Maßnahmen der Industrie und der Einführung technischer Lösungen sowie geeigneter politischer Rahmenbedingungen an, die Innovationen ermöglichen und gleichzeitig das öffentliche Interesse während des gesamten Lebenszyklus der KI fördern.“

Dies bleibt aber auch im Vergleich zur Bletchley-Erklärung vage. Ebenso die Delhi-Erklärung, welche die „Entwicklung der freiwilligen und unverbindlichen Trusted AI Commons" begrüßt. Dabei handele es sich um „eine Kooperationsplattform, die technische Ressourcen, Tools, Benchmarks und bewährte Verfahren zusammenführt“.

Ein wichtiger Beitrag für vertrauenswürdige KI-Anwendungen könnte den Naturwissenschaften und insbsondere der Physik zukommen. Darauf weis beispielsweise die promovierte Physikerin Savannah Thais vom Columbia University Data Science Institute in New York in einem Meinungsbeitrag in Nature Review Physics hin. Sie betont, dass man mit Daten aus physikalischen Experimenten oder Beobachtungen physikalischer Systeme über ein ziemlich solides mathematisches Verständnis der tatsächlichen datengenerierenden Funktionen sowie der Symmetrien und Erhaltungssätze, denen die Daten unterliegen, verfüge – im Gegensatz zu vielen anderen Arten von Daten, auf die KI derzeit angewendet wird, wie beispielsweise natürliche Sprache oder menschliches Verhalten.

Deshalb plädiert die DPG für eine gute Ausbildung von Physiker:innen im Umgang mit KI-Methoden, die schon seit Längerem etwa in der Teilchenphysik oder der Astronomie zum Einsatz kommen, die besonders hochwertige Datensätze für das Maschinelle Lernen zur Verfügung stellen können.

"Die Kernkompetenzen der Physiker und Physikerinnen sind dringend notwendig, um den Wandel durch die Künstliche Intelligenz (weiterhin) maßgeblich mitzugestalten", betont daher Erich Runge, DPG-Vorstand für Bildung und wissenschaftlichen Nachwuchs sowie Sprecher der Konferenz der Fachbereiche Physik in seinem Meinungsbeitrag im Februar-Heft des Physik Journals.

Die DPG trägt den drängenden Fragen einer vertrauenswürdigen KI im Jahr 2026 durch einen besonderen Themenschwerpunkt Rechnung. Unter dem Titel KI – natürlich mit Physik sollen insbesondere die verschiedenen Aspekte im Wechselspiel von KI und Physik gewürdigt werden.

Anbieter des Monats

RCT Reichelt Chemietechnik GmbH + Co.

RCT Reichelt Chemietechnik GmbH + Co.

Die Reichelt Chemietechnik wurde am 1. September 1978 als Vertriebs- und Produktionsgesellschaft von Dr. Peter Reichelt in Heidelberg gegründet, wobei sich das Unternehmen als „Mailorderhaus“ verstand.

Veranstaltung

AKL – International Laser Technology Congress in Aachen

AKL – International Laser Technology Congress in Aachen

Vom 22. bis 24. April 2026 lädt das Fraunhofer-Institut für Lasertechnik ILT zum AKL’26 ein. Der Photonik-Kongress mit über 500 Teilnehmenden findet zum 15. Mal statt, diesmal mit einem deutlich erweiterten Programm, über 80 Vorträgen und 54 Ausstellerständen.

Meist gelesen

Photo
07.10.2025 • NachrichtPanorama

Makroskopisches Quantentunneln

John Clarke, Michel H. Devoret und John M. Martinis erhalten den Physik-Nobelpreis 2025 für die Entdeckung des makroskopischen quantenmechanischen Tunnelns und der Energiequantisierung in einem elektrischen Schaltkreis.

Photo
27.01.2026 • NachrichtPanorama

Holographisch erinnern

Holographische Projektionstechnik und Künstliche Intelligenz bewahren die Erfahrungsberichte von Holocaust-Überlebenden für kommende Generationen.

Themen