Anzeige
1 Monat GRATIS testen. Danach zum Jubiläumspreis weiterlesen.
Startseite »

Physik-Nobelpreis für Wegbereiter der künstlichen Intelligenz

Neuronale Netzwerke

Physik-Nobelpreis für Wegbereiter der künstlichen Intelligenz
Symbolbild Künstliche Inzelligenz und Gehirn
Künstliche Intelligenzen beruhen auf neuronalen Netzwerken, die ab den 1980er Jahren nach Vorbild unseres Gehirns entwickelt wurden. © MF3d/iStock

Der Nobelpreis für Physik 2024 geht an den US-Amerikaner John Hopfield und den Briten Geoffrey Hinton. Die beiden KI-Forscher entwickelten die Grundlagen für künstliche neuronale Netzwerke und maschinelles Lernen, die wir heute gemeinhin und verkürzt als „Künstliche Intelligenz“ bezeichnen. Die Physiker legten mit ihrer Arbeit in den 1980er Jahren die Grundsteine für heute alltagstaugliche Chatbots wie ChatGPT, aber auch für spezielle KIs, die bereits seit Langem in der Forschung und Medizin verwendet werden, um Daten zu verarbeiten.

Künstliche Intelligenzen haben in den vergangenen zwei Jahrzehnten viele Aspekte unseres Lebens und Arbeitens revolutioniert. Sie begegnen uns heute beispielsweise als Übersetzungstools oder bei der Gesichtserkennung sowie als Text- und Bildgeneratoren. Manche dieser KIs wie ChatGPT und Co erscheinen uns heute selbstverständlich, doch der Beginn ihrer Entwicklung liegt rund 80 Jahre zurück. Entwickelt wurden sie ursprünglich, um große Datenmengen in der Forschung zu verarbeiten und auszuwerten. In diesem Bereich werden sie heute tatsächlich für vielfältigste Fragestellungen genutzt – etwa um die Struktur von Molekülen zu berechnen. Und auch in der medizinischen Diagnostik kommen KIs zum Einsatz, beispielsweise um bei der Tumorerkennung zu helfen.

Schrittweise Weiterentwicklung der neuronalen Netzwerke

All diese KI-Systeme beruhen auf sogenannten neuronalen Netzwerken – vernetzten Systemen, bei denen Rechenknoten über unterschiedlich starke Verbindungen miteinander verschaltet sind. Als Inspiration solcher Systeme dienten den Forschenden schon in den 1940er Jahren die Verknüpfungen zwischen den Neuronen in unserem Gehirn, die über Synapsen mehr oder weniger dicht und intensiv miteinander verbunden sind. Wenn wir lernen, bilden sich neue Verknüpfungen aus. Ähnliches passiert bei modernen, künstlichen neuronalen Netzwerken, ohne dass sie konkrete Anweisungen haben, wie sie Daten verarbeiten sollen: die Maschine lernt selbstständig. Anders als bei unserem Gehirn optimiert das künstliche neuronale Netz aber nicht Synapsen und funktionelle Nervenbahnen, sondern Signalwege und Korrelationen zwischen Input und Output.

Die diesjährigen Physik-Nobelpreisträger leisteten bei der Entwicklung solcher neuronaler Netzwerke und maschinellem Lernen Pionierarbeit. „Dank ihrer Arbeit ab den 1980er Jahren haben John Hopfield und Geoffrey Hinton dazu beigetragen, den Grundstein für die Revolution des maschinellen Lernens zu legen, die um 2010 begann“, so das Nobelkomitee.

Illustration der verschiedenen neuronalen Netzwerke.
Illustration der verschiedenen neuronalen Netzwerke. © Johan Jarnestad/The Royal Swedish Academy of Sciences

Der US-Physiker John Hopfield entwickelte 1982 als erster ein – heute vergleichsweise simples – Netzwerk, das Informationen verarbeiten konnte: das Hopfield-Netzwerk. Dabei handelt es sich um eine Art künstliches assoziatives Gedächtnis, bei dem Informationen möglichst energiesparend gespeichert und später wieder abgerufen werden. Dieses Netzwerk konnte erstmals Datenmuster mit zuvor gespeicherten Datensets vergleichen und ähnliche Muster einander zuordnen. „Mit dem Hopfield-Netzwerk können Daten wiederhergestellt werden, die Rauschen enthalten oder teilweise gelöscht wurden“, erklärt das Nobelkomitee.

Anzeige

Vom Hopfield-Netzwerk zur Boltzmann-Maschine

Der britische Physiker Geoffrey Hinton entwickelte dieses Hopfield-Netzwerk in den 1990er Jahren weiter und baute daraus mit statistischen Methoden erstmals mehrschichtige neuronale Netzwerke: sogenannte Boltzmann-Maschinen. Die meisten heutigen KI-Systeme arbeiten mit mehreren Ebenen, sie werden daher auch als „Deep Learning“-Systeme bezeichnet. Hinton ergänzte dafür Hopfields Vorarbeit um eine entscheidende Fähigkeit: das Arbeiten auf Basis von Wahrscheinlichkeiten nach einer Gleichung, die der Physiker Ludwig Boltzmann aufgestellt hatte. Demnach sind je nach Energieniveau einige Zustände wahrscheinlicher als andere.

Hinton baute nach diesem Prinzip ein neuronales Netzwerk, dass nicht nur Daten speichern und verarbeiten, sondern auch charakteristische Elemente in Datenbergen erkennen und so interpretieren kann. Aufgrund seiner mehrschichtigen Struktur kann es nicht nur zuvor gelernte, sondern auch unbekannte Muster auf Basis der Wahrscheinlichkeit erkennen und so zum Beispiel beschreiben, was auf einem Bild zu sehen ist. Hintons Modell verdanken heutige künstliche Intelligenzen auch ihre Fähigkeit, Neues zu erschaffen. Wir begegnen ihnen beispielsweise, wenn uns ein Streaming-Dienst neue Serien und Filme empfiehlt, die zu unseren bisherigen Sehgewohnheiten passen, oder wenn uns Online-Shops Produkte empfehlen, die zu unserem Kaufverhalten passen.

„Durch ihre auf den Grundlagen der Physik beruhenden Durchbrüche haben die beiden Preisträger uns einen komplett neuen Weg gezeigt, wie wir Computer einsetzen können“, schreibt das Komitee. „Dank ihrer Arbeit hat die Menschheit nun ein neues Werkzeug zur Verfügung. Das maschinelle Lernen auf Basis solcher neuronaler Netzwerke revolutioniert derzeit die Wissenschaft, Technik und unser tägliches Leben.“

Quelle: Nobelprize.org, Königliche Schwedische Akademie der Wissenschaften, Nobelkomitee für Physik

Anzeige
Wissenschaftsjournalist Tim Schröder im Gespräch mit Forscherinnen und Forschern zu Fragen, die uns bewegen:

  • Wie kann die Wissenschaft helfen, die Herausforderungen unserer Zeit zu meistern?
  • Was werden die nächsten großen Innovationen?
  • Was gibt es auf der Erde und im Universum noch zu entdecken?

Hören Sie hier die aktuelle Episode:

Youtube Music
Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

Ang|ler|fisch  〈m. 1; Bot.〉 essbarer Seefisch mit angelköderartigem Kopfanhängsel zum Anlocken von Beutetieren; Sy Angler ( … mehr

Land|se|er  〈m. 3; Zool.〉 große, langhaarige Hunderasse mit weißem Fell, aber schwarzem Kopf [nach dem Tiermaler Sir Edwin Landseer, … mehr

Ges|es  〈n.; –, –; Mus.〉 Tonbezeichnung, das um zwei halbe Töne erniedrigte G; oV geses … mehr

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige