Der Physiknobelpreis geht in diesem Jahr an den 91-jährigen US-Amerikaner John Hopfield und den in Großbritannien geborenen Geoffrey Hinton, 76, der seit Langem an der University of Toronto lehrt. Sie erhalten die Auszeichnung „für bahnbrechende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen“, also für Grundlagen moderner künstlicher Intelligenz (KI). Das hat die Königlich Schwedische Akademie der Wissenschaften am Dienstag verkündet.
Die Wahl ist untypisch. Die rasanten Fortschritte der KI verändern zwar längst grundlegend den Alltag und die Forschung, wie das Nobelkomitee betonte. Aber sie ist kein klassisches Teilgebiet der Physik, einer der Preisträger ist nicht einmal Physiker: Der 76-jährige Hinton, als einer der „Väter der KI“ bekannt, war ursprünglich Psychologe und Kognitionswissenschaftler, heute lehrt er als Informatikprofessor. Viola Priesemann vom Max-Planck-Institut für Dynamik und Selbstorganisation in Göttingen, die selbst neuronale Netze erforscht, sieht diese Arbeit jedoch als Kerngebiet der Physik: „Physik versucht, zu verstehen, warum Dinge so funktionieren, wie sie es tun. Das unterscheidet die Arbeit von Hopfield und Hinton von der Informatik, die Erfolg stark daran misst, welche Netzwerke den größten Nutzen bringen. Hopfield und Hinton haben beide versucht zu verstehen, wie neuronale Netze funktionieren könnten, und dazu ganz grundlegende Methoden der statistischen Physik angewendet.“
Noch etwas macht die Preisentscheidung ungewöhnlich: Zwar sind die grundlegenden Arbeiten der beiden Preisträger wie so oft teils bereits Jahrzehnte her, aber anders als bei anderen Nobelpreisen ist noch lange nicht absehbar, wo die Reise hinführt. Ob sie der Menschheit am Ende wirklich den „größten Nutzen“ bringt, wie es Alfred Nobel in seinem Testament vorgesehen hat, würden Kritiker bezweifeln. Unbestritten ist aber, dass die Arbeiten von Hopfield und Hinton bahnbrechend waren und sind.
Deren Grundlagen gehen auf die 1940er-Jahre zurück. Damals begannen Forscher der Frage nachzugehen, wie das Gehirn funktioniert, mit seinen Nervenzellen, den Neuronen, und den Synapsen, die diese verbinden. Der Neurowissenschaftler Donald Hebb mutmaßte, dass beim Lernen Verbindungen zwischen Neuronen gestärkt werden. Bald versuchte man, diese Prozesse nachzubauen – auch wenn das Gehirn mit seinen rund hundert Milliarden Neuronen, den vielen Billionen Synapsen und seiner komplexen Funktionsweise bislang unerreicht bleibt. Doch künstliche neuronale Netze basieren auf einem ähnlichen Prinzip: Sie arbeiten mit Knoten und Verbindungen. Wenn das Netzwerk „trainiert“ wird, also Dinge lernt, werden die Verbindungen zwischen gleichzeitig aktiven Knoten verstärkt, die anderen geschwächt.
Preisträger Hopfield befasste sich zunächst mit Festkörperphysik – bis ihm die Probleme ausgingen
In den 1960er-Jahren sah es aus, als würden diese künstlichen Netzwerke niemals einen echten Nutzen bringen. John Hopfield war da gerade Professor für Physik an der Princeton University geworden. Seine Laufbahn hatte er nach einer Doktorarbeit in theoretischer Festkörperphysik 1958 bei den legendären Bell Laboratories begonnen (über seinen ersten Tag dort sagte er später: „Ich habe Bleistifte angespitzt.“ So beginnen große Karrieren.) In den ersten Jahren befasste er sich mit Halbleitern. Aber 1968, schrieb er später, war es soweit: „Mir waren die Probleme in der Festkörperphysik ausgegangen, für die meine Talente mir nützlich schienen.“ Er begann sich mit Biophysik zu befassen – und kam schließlich zu biologischen Netzwerken.
1980 wechselte Hopfield ans California Institute of Technology, als Chemie- und Biologieprofessor. Zu der Zeit befasste er sich mit Erinnerungen: Wie macht es das Gehirn, dass es eine Information erst abspeichert, später sucht und schließlich wieder abruft? 1982 ersann er das künstliche Netzwerk, das heute seinen Namen trägt. Das Hopfield-Netzwerk ähnelt einem Netz von Atomen mit Spins, die einander beeinflussen. Zugleich bildet es neuronale Netze nach. Wenn man mehrere Bilder hineingibt, speichert es die Informationen, indem es seine internen Verbindungen anpasst. Wird es dann mit einem neuen Bild konfrontiert, kann es unter allen gespeicherten Mustern jenes finden, das dem neuen am ähnlichsten ist. So kann es etwa aus unvollständigen oder verfälschten Daten wieder ein brauchbares Bild machen.
Als Hopfield seine Arbeit publizierte, arbeitete Hinton an der Carnegie Mellon University in Pittsburgh. Er hatte zuvor mit experimenteller Psychologie und künstlicher Intelligenz gearbeitet, kannte sich aber auch mit statistischer Physik aus. Sie beschreibt zum Beispiel, wie sich die vielen individuellen Bewegungen von Gasmolekülen kollektiv zu Eigenschaften des gesamten Gases aufsummieren. Mit diesen Ideen konnte Hinton das Hopfield-Netzwerk weiterentwickeln zur „Boltzmann-Maschine“.
Diese wird aus dem Hopfield-Netzwerk in mehreren Schichten aufgebaut. Input und Output laufen über sichtbare Knoten, aber dahinter stehen Schichten sogenannter unsichtbarer Knoten – in gewisser Weise die Black Box, wie man sie von moderner KI kennt. Indem es die Information durch diese Schichten laufen lässt, kann das Netzwerk lernen, charakteristische Elemente in Daten oder Bildern zu erkennen. Dieses anfangs sehr ineffiziente Modell haben Hinton und andere weiter entwickelt, letztlich hin zu Sprachmodellen wie Chat-GPT. Auf Hintons später entwickeltem Ansatz der „Rückwärtspropagation“ beruhten viele Fortschritte, die heute gemacht werden, sagt Viola Priesemann.
Sie hält die Entscheidung für die beiden für berechtigt. Es gebe auch andere, aber „das sind wirklich zwei starke Personen, die alle im Feld hoch anerkennen“. Die Physik habe sich immer weiter entwickelt, sagt Priesemann. „An diesem Nobelpreis sieht man die Bedeutung von Transdisziplinarität für die Spitzenforschung.“
Geoffrey Hinton warnt davor, künstliche Intelligenz könne der Menschheit gefährlich werden
Vor allem Hinton hat es schon vor dem Nobelpreis zu Weltruhm gebracht. 2018 erhielt er den Turing Award, die höchste Auszeichnung der Informatik, gemeinsam mit Yann LeCun und Yoshua Bengio. Die drei Informatiker gelten als Paten der modernen KI. Als das Interesse an KI und neuronalen Netzen Ende der 1980er-Jahre abkühlte, blieben sie dran. Im neuen Jahrtausend gab ihnen die Realität recht: Starke Prozessoren und die gigantischen Datenmengen des Internets ermöglichten einen großen Sprung. Seit Programme wie Chat-GPT menschenähnlich mit Nutzern chatten können, hat der KI-Hype endgültig Unternehmenszentralen, Universitäten und den Alltag erfasst.
Zeitweise arbeiteten die drei KI-Paten zusammen, in den vergangenen Jahren wandten sie sich mit unterschiedlichen Ansichten zur KI-Revolution an die Öffentlichkeit. LeCun, mittlerweile KI-Forschungsleiter beim Facebook-Konzern Meta, ruft zu Gelassenheit auf: KI sei ein Werkzeug, nicht mehr, nicht weniger. Hinton dagegen wurde zum Mahner vor einer „Superintelligenz“, die gefährlich werden könnte. Vergangenes Jahr kündigte er bei Google, wo er in hoher Position forschte, nachdem Google 2013 Hintons Start-up DNNresearch gekauft hatte. Der Ausstieg sollte ihm Freiheit geben, vor den Gefahren der KI zu warnen. „Das ist eine völlig andere Form von Intelligenz. Eine neue und bessere Form von Intelligenz“, sagte er dem Magazin MIT Technology Review nach seiner Kündigung. Im Gegensatz zur menschlichen Intelligenz habe sie schon während ihrer Evolution Zugriff auf Atomkraftwerke. Auch bei der Nobel-Pressekonferenz, der Hinton telefonisch zugeschaltet war, warnte er: „Wir müssen uns Sorgen machen über die Bedrohung, wenn KI außer Kontrolle gerät.“
Hunderte Milliarden Dollar sind in Chiphersteller, Rechenzentren und KI-Software-Anbieter geflossen. Technologiekonzerne wie Google oder Amazon werben die besten KI-Forscher an. Aber aus Sicht von Geoffrey Hinton droht viel mehr als die Kommerzialisierung des Gebiets. „Es ist beängstigend, das zu sehen“, sagte er dem MIT Technology Review über den Sprung an Fähigkeiten, den die KI-Modelle hingelegt hätten. „Sie werden in der Zukunft viel intelligenter sein als wir. Wie überleben wir das?“
Viele andere Fachleute glauben nicht, dass KI zu so etwas wie eigenmächtigem, gar bösartigem Handeln fähig wäre. Dass Hinton sich für die neuesten Entwicklungen verantwortlich fühlt, ist jedoch nachvollziehbar: Einer seiner Doktoranden an der Universität von Toronto hieß Ilya Sutskever. Er gründete 2015 das Unternehmen Open AI, das Chat-GPT erfunden hat.