piwik no script img

Physik-NobelpreisPioniere der KI gewinnen Nobelpreis

Für „Maschinen, die lernen“ erhalten der Physiker John Hopfield und der Informatiker Goeffrey Hinton den Physik-Nobelpreis.

John J. Hopfield (l) und Geoffrey E. Hinton erhalten den Nobelpreis für Physik 2024 Foto: Applewhie, Berger/Princeton University/ap/dpa

Eine Zukunft ohne künstliche Intelligenz scheint heute kaum noch vorstellbar. Das gilt für den Alltag, aber auch für die Wissenschaft. So erhielten am Dienstag den Nobelpreis für Physik der Physiker John Hopfield von der Princeton University in den USA und der Informatiker Goeffrey Hinton, der bis heute noch emeritierter Professor der kanadischen Universität von Toronto ist. Die beiden haben in den 1980ern Grundsteine für künstliche neuronale Netzwerke gelegt. Diese sind die Basis für das, was wir heute als künstliche Intelligenz (KI) kennen.

Dafür haben die Geehrten grundlegende Konzepte der statistischen Physik genutzt. Diese Netzwerke hätten die Physik in verschiedenen Feldern etwa der Teilchen- oder Astrophysik entscheidend vorangebracht, begründet Ellen Moons, Vorsitzende des Nobelkomitees für Physik, die Vergabe.

Vor allem Goeffrey Hinton gilt als der Vater von KI. Als Hinton in den 1980ern an neuronalen Netzwerken arbeitete, war seine Forschung nicht in Mode. Sein wissenschaftlicher Ansatz wurde kritisch betrachtet, andere Modelle erschienen damals als bessere Wege hin zu künstlicher Intelligenz.

Doch Hinton sollte in seinem Ansatz, die Biologie als Inspiration zu nehmen, recht behalten. Die Idee hinter neuronalen Netzen ist denkbar einfach. Menschen sind gut darin, Muster zu erkennen. Das wollte man sich zu eigen machen und hat sich von biologischen Gehirnen inspirieren lassen.

Sinneswandel bei Hinton

Den ersten Schritt ging dafür der Physiker John Hopfield, der 1982 das nach ihm benannten Netzwerk vorstellte. Dieses funktioniert wie eine Art Gedächtnis und beruht in seiner Entwicklung zudem stark auf physikalischen Grundlagen. Die Bolzmann-Maschine, die Goeffrey Hinton kurze Zeit später präsentierte, gilt als statistische Weiterentwicklung des Hopfield-Netzwerks.

Dabei steht Hinton dem, was er geschaffen hat, auch kritisch gegenüber. Deshalb verließ er im vergangenen Jahr seinen Job bei Google. Es schien, als hätte er einen Sinneswandel hinter sich und warne nun vor den möglichen Folgen von KI. Vor allem sorgt er sich vor Missbrauch, wie er 2023 im Magazin Technology Reviewsagte.

Am Morgen der Bekanntgabe sagt er, KI sei vergleichbar sein mit der Industriellen Revolution. Aber statt der körperlichen Kraft würde sie den Menschen intellektuell überfordern. „Wir haben keine Erfahrung damit, wie es ist, wenn etwas intelligenter ist als wir.“

Zwar würde sie viele Vorteile bringen, etwa in der Gesundheitsversorgung und sie könnte vieles effizienter machen. „Aber wir müssen auch über eine Reihe möglicher negativer Folgen nachdenken. Zum Beispiel das Risiko, dass diese Dinge außer Kontrolle geraten könnten.“

Kombination von Informatik und Physik

Den Informatiker Hinton hat der Anruf zum Nobelpreis unerwartet erwischt, erzählt er am Telefon auf der Pressekonferenz. „Das kam aus heiterem Himmel. Ich meine, ich bin in einem billigen Hotel in Kalifornien, das weder eine gute Internet- noch Telefonverbindung hat“, sagt er auf der Pressekonferenz. Dass jemand, der die Grundlagen der Informatik nutzt, ausgerechnet den Physiknobelpreis gewinnt, scheint überraschend.

Holger Hoos, Alexander-von-Humboldt-Professor für KI an der RWTH Aachen, sieht in dem diesjährigen Preis eine größere Entwicklung. Er habe Physik und Informatik zusammengebracht, wie Physik und Mathematik schon lange Hand in Hand gehen. Der Preis sei „die Evidenz, wie Informatik und KI Wissenschaft revolutioniert haben. Und ich glaube, das ist erst der Anfang. In 15, 20 Jahren wird es fast keinen naturwissenschaftlichen Nobelpreis geben, wo KI nicht irgendwie Teil davon war.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

7 Kommentare

 / 
  • Hinton hat zusammen mit seinen Kollegen den Backpropagation Algorithmus in einer Form designed, die maschinell durchführbar ist:

    Rumelhart, D. E., Hinton, G. E., and Williams, R. J. (1986)



    Learning representations by back-propagating errors.



    Nature, 323, 533--536.

    Mir ist keine Arbeit über Teilchen- und Astrophysik von ihm bekannt, wenn es auch Anwendungen dort gibt. Die Hauptanwendung ist jedoch das Trainieren von neuronalen (deep) Netzen. Dafür gebührt den Herren ein dickes Lob.

  • Geoff Hinton ist ein sehr ethisch denkender Mensch. Es gab Ende der 80er Jahre als er aus den USA nach Kanada ging wo Forschungsgelder schwerer zu bekommen war das Gerücht dass er halt nicht fürs Militär arbeiten wollte. Ich selber konnte ihn 1990 mal in Toronto besuchen. Er war damals schon sehr bekannt aber super höflich. Toller Typ!

    • @Marmot:

      Schön, etwas Persönliches zu lesen, das ist eher selten.



      Das Problem der unbegrenzten Möglichkeiten ist vielfach korrekt adressiert worden, auch das Militär haben Sie dankenswerterweise annonciert. Wir sind in der gesellschaftlichen Breite noch nicht ausreichend im Thema, die Gefahr droht, dass auch die Politik Entscheidungen treffen werden muss, wenn Markteinführungen dies erforderlich machen. Noch sind viele Weichen nicht endgültig gestellt. Daher ist der Nobel-Preis an dieser Stelle und zu diesem Zeitpunkt wie ein Türöffner für den zeitnah erforderlichen Diskurs zur KI.



      /



      "Am 20. März 2023 veröffentlicht der Deutsche Ethikrat seine Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“, in der er die Auswirkungen digitaler Technologien auf das menschliche Selbstverständnis und Miteinander umfassend untersucht."



      Quelle ethikrat.org



      Die Vorplanung der Strategien für die kommende Bundestagswahl wird auch an diesem Themenkomplex nicht vorbei kommen und die Bürger:innen werden Grundsätzliches mitentscheiden wollen und müssen, auch im Hinblick auf Sicherheit/Militär und Eingriffe des Staates in unserem Umfeld.

      • @Martin Rees:

        Martin, ihre Erwartung, dass die Bürger über die Anwendungen der KI (mit)entscheiden gehen an der Realität vorbei. Selbst die Politik wird nicht darüber entscheiden: das macht der Markt. Die Politiker - da schlicht zu langsam - hecheln nur hinterher. Dazu kommt, dass die Wenigsten überhaupt verstehen, was da abläuft: technologisch und marktseitig.

        • @Lucas100:

          Wie brauchen eine neue "Realitätstheorie", damit wir uns auch weiter mit KI richtig verstehen (lernen):



          "Internationales Recht



          KI-Gesetz der EU weltweit einmalig



          Die europaweiten Regeln für Künstliche Intelligenz kommen. Können sie den Umgang mit der Technologie sicherer machen?"



          Quelle



          www.forschung-und-...-der-eu-kommt-6304



          13.3.24



          Ich bin als kritischer Optimist zunächst einmal noch zuversichtlich❗

  • Ich verstehe noch nicht, was KI mit Physik zu tun hat. Auch wenn einer der Pioniere Physiker ist.

    • @Francesco:

      Viele neue spannende Felder für Wissenschaft.



      2018 bei spektrum.de



      "Künstliche Intelligenz" sucht nach neuer Physik



      /



      www.spektrum.de/ne...s76sUaAl41EALw_wcB



      Einstein und Schrödinger wären wahrscheinlich nicht überrascht, sondern entzückt, was die unbeschreiblichen Möglichkeiten angeht.