Der Nobelpreis für Physik 2024 geht an den US-Amerikaner John Hopfield und den Briten Geoffrey Hinton. Die beiden KI-Forscher entwickelten die Grundlagen für künstliche neuronale Netzwerke und maschinelles Lernen, die wir heute gemeinhin und verkürzt als „Künstliche Intelligenz“ bezeichnen. Die Physiker legten mit ihrer Arbeit in den 1980er Jahren die Grundsteine für heute alltagstaugliche Chatbots wie ChatGPT, aber auch für spezielle KIs, die bereits seit Langem in der Forschung und Medizin verwendet werden, um Daten zu verarbeiten.
Künstliche Intelligenzen haben in den vergangenen zwei Jahrzehnten viele Aspekte unseres Lebens und Arbeitens revolutioniert. Sie begegnen uns heute beispielsweise als Übersetzungstools oder bei der Gesichtserkennung sowie als Text- und Bildgeneratoren. Manche dieser KIs wie ChatGPT und Co erscheinen uns heute selbstverständlich, doch der Beginn ihrer Entwicklung liegt rund 80 Jahre zurück. Entwickelt wurden sie ursprünglich, um große Datenmengen in der Forschung zu verarbeiten und auszuwerten. In diesem Bereich werden sie heute tatsächlich für vielfältigste Fragestellungen genutzt – etwa um die Struktur von Molekülen zu berechnen. Und auch in der medizinischen Diagnostik kommen KIs zum Einsatz, beispielsweise um bei der Tumorerkennung zu helfen.
Schrittweise Weiterentwicklung der neuronalen Netzwerke
All diese KI-Systeme beruhen auf sogenannten neuronalen Netzwerken – vernetzten Systemen, bei denen Rechenknoten über unterschiedlich starke Verbindungen miteinander verschaltet sind. Als Inspiration solcher Systeme dienten den Forschenden schon in den 1940er Jahren die Verknüpfungen zwischen den Neuronen in unserem Gehirn, die über Synapsen mehr oder weniger dicht und intensiv miteinander verbunden sind. Wenn wir lernen, bilden sich neue Verknüpfungen aus. Ähnliches passiert bei modernen, künstlichen neuronalen Netzwerken, ohne dass sie konkrete Anweisungen haben, wie sie Daten verarbeiten sollen: die Maschine lernt selbstständig. Anders als bei unserem Gehirn optimiert das künstliche neuronale Netz aber nicht Synapsen und funktionelle Nervenbahnen, sondern Signalwege und Korrelationen zwischen Input und Output.
Die diesjährigen Physik-Nobelpreisträger leisteten bei der Entwicklung solcher neuronaler Netzwerke und maschinellem Lernen Pionierarbeit. „Dank ihrer Arbeit ab den 1980er Jahren haben John Hopfield und Geoffrey Hinton dazu beigetragen, den Grundstein für die Revolution des maschinellen Lernens zu legen, die um 2010 begann“, so das Nobelkomitee.
Der US-Physiker John Hopfield entwickelte 1982 als erster ein – heute vergleichsweise simples – Netzwerk, das Informationen verarbeiten konnte: das Hopfield-Netzwerk. Dabei handelt es sich um eine Art künstliches assoziatives Gedächtnis, bei dem Informationen möglichst energiesparend gespeichert und später wieder abgerufen werden. Dieses Netzwerk konnte erstmals Datenmuster mit zuvor gespeicherten Datensets vergleichen und ähnliche Muster einander zuordnen. „Mit dem Hopfield-Netzwerk können Daten wiederhergestellt werden, die Rauschen enthalten oder teilweise gelöscht wurden“, erklärt das Nobelkomitee.
Vom Hopfield-Netzwerk zur Boltzmann-Maschine
Der britische Physiker Geoffrey Hinton entwickelte dieses Hopfield-Netzwerk in den 1990er Jahren weiter und baute daraus mit statistischen Methoden erstmals mehrschichtige neuronale Netzwerke: sogenannte Boltzmann-Maschinen. Die meisten heutigen KI-Systeme arbeiten mit mehreren Ebenen, sie werden daher auch als „Deep Learning“-Systeme bezeichnet. Hinton ergänzte dafür Hopfields Vorarbeit um eine entscheidende Fähigkeit: das Arbeiten auf Basis von Wahrscheinlichkeiten nach einer Gleichung, die der Physiker Ludwig Boltzmann aufgestellt hatte. Demnach sind je nach Energieniveau einige Zustände wahrscheinlicher als andere.
Hinton baute nach diesem Prinzip ein neuronales Netzwerk, dass nicht nur Daten speichern und verarbeiten, sondern auch charakteristische Elemente in Datenbergen erkennen und so interpretieren kann. Aufgrund seiner mehrschichtigen Struktur kann es nicht nur zuvor gelernte, sondern auch unbekannte Muster auf Basis der Wahrscheinlichkeit erkennen und so zum Beispiel beschreiben, was auf einem Bild zu sehen ist. Hintons Modell verdanken heutige künstliche Intelligenzen auch ihre Fähigkeit, Neues zu erschaffen. Wir begegnen ihnen beispielsweise, wenn uns ein Streaming-Dienst neue Serien und Filme empfiehlt, die zu unseren bisherigen Sehgewohnheiten passen, oder wenn uns Online-Shops Produkte empfehlen, die zu unserem Kaufverhalten passen.
„Durch ihre auf den Grundlagen der Physik beruhenden Durchbrüche haben die beiden Preisträger uns einen komplett neuen Weg gezeigt, wie wir Computer einsetzen können“, schreibt das Komitee. „Dank ihrer Arbeit hat die Menschheit nun ein neues Werkzeug zur Verfügung. Das maschinelle Lernen auf Basis solcher neuronaler Netzwerke revolutioniert derzeit die Wissenschaft, Technik und unser tägliches Leben.“
Quelle: Nobelprize.org, Königliche Schwedische Akademie der Wissenschaften, Nobelkomitee für Physik