piwik no script img

Google-Programm bringt sich selbst Go beiMaschine braucht keinen Menschen

Erst 2016 bezwang ein Google-Programm einen Meister des Brettspiels „Go“. Nun präsentiert das Google-Team einen noch besseren Nachfolger.

Lernen bald Menschen von Computern? Ein Junge spielt Go, während auf dem Bildschirm das Spiel von AlphaGo gegen Lee Sedol angezeigt wird Foto: dpa

Berlin taz | Im vergangenen Jahr verlor der südkoreanische Go-Champion Lee Sedol gegen die Google-Software AlphaGo. Dass eine Maschine das komplexe Brettspiel erlernen und sogar meistern könnte, galt zuvor als höchst unwahrscheinlich. Doch nun hat das Team von AlphaGo ein noch besseres Computerprogramm präsentiert.

Mithilfe künstlicher Intelligenz hat das neue Programm mit dem Namen AlphaGo Zero seine Vorgänger innerhalb weniger Tage übertroffen. Nach drei Tagen schlug es das Originalprogramm in 100 von 100 Spielen. Neu dabei ist, dass AlphaGo Zero das Spiel nicht mehr anhand menschlicher Erfahrungswerte erlernte. Stattdessen bekam es nur die Spielregeln und ein leeres Spielfeld vorgegeben. In Millionen Spielversuchen gegen sich selbst lernte die Software dann, welche Spielzüge sinnvoller sind als andere.

Die Regeln des ursprünglich aus China stammenden Go sind relativ einfach: Zwei Spieler versuchen auf einem Spielbrett – ein Raster von 19 vertikalen und 19 horizontalen Linien – Gebiete zu erobern. Dafür setzen sie abwechselnd schwarze und weiße Steine. Auf dem Brett mit 361 Feldern ist aber eine gewaltige Zahl von Zügen möglich, was es selbst für einen leistungsstarken Computer schwierig macht, die Entwicklung eines gesamten Spiels durchzurechnen.

Inzwischen kann die Maschine sich offenbar selbst das Spielen beibringen. Die For­sche­r*in­nen hoffen, damit einen enormen Fortschritt in Sachen künstlicher Intelligenz gemacht zu haben. AlphaGo Zero nutze nur noch ein neuronales Netz statt zwei, sodass das Programm effektiver lernen und bewerten könne. Neuronale Netze sind an biologische Neuronennetze angelehnte Programme und können für komplexe Aufgaben, wie beispielsweise Fotoauswertungen, eingesetzt werden.

Anwendbar auf Medikamente-Herstellung?

„Das Bemerkenswerteste ist, dass wir keine menschlichen Daten mehr brauchen“, sagt DeepMind-Geschäftsführer Demis Hassabis im Forschungsmagazin MIT Technology Review. Die Technologie hinter AlphaGo Zero sei stark genug, um auch auf reale Situationen angewandt zu werden, in denen viele Möglichkeiten ausgetestet werden müssen. Zum Beispiel bei der Entwicklung von Medikamenten.

Nicht alle Wis­sen­schaft­le­r*in­nen teilen diesen Enthusiasmus. „Es zeigt sehr gut, welchen Fortschritt Deep Learning in letzter Zeit gemacht hat, aber ich würde es nicht gleich als Zeichen dessen sehen, was Computer ohne menschliches Wissen lernen können“, sagt Pedro Domingos, Professor an der University of Washington, im MIT Technology Review. Das Programm benötige trotz allem noch mehrere Millionen Versuche, um die richtige Strategie zu entwickeln – wesentlich mehr als ein menschlicher Go-Champion.

Dennoch: Die Kürze der Zeit, in der sich das Computerprogramm Wissen aneignet, ist beeindruckend. Und auch Menschen nutzen Vorwissen in Form von Büchern und andere Aufzeichnungen, um das Spiel zu meistern. Wozu Maschinen vielleicht in zehn Jahren fähig sind, lässt sich ohnehin schwer voraussagen. Bis dahin lassen die For­sche­r*in­nen sie gegeneinander im Wrestling antreten. Oder eben Go spielen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • "Wozu Maschinen vielleicht in zehn Jahren fähig sind, lässt sich ohnehin schwer voraussagen."

     

    Hätte ich jetzt nicht gedacht! Bei neun Jahren ist die Vorhersage aber vermutlich leichter, richtig?

  • Kein Grund zum Jubel, das ist eher eine Bedrohung. Berühmte Physiker, darunter auch Nobelpreisträger, warnen schon länger vor dieser Entwicklung. Irgendwann könnten diese Maschinen von Menschen nicht mehr beeinflussbar sein, weil sie auch lernen sich gegen Angriffe von außen zu schützen.

    • @finches:

      Meine Güte. Kaum wittert der Mensch eine potentielle Bedrohung für seinen Platz an der Spitze der geistigen Nahrungskette, muss ein Bedrohungsszenario entwickelt werden. Angst ist schließlich jener natürliche Reflex, der unser Hirn aus- und unseren Überlebenswillen einschaltet. Der Gedanke, dass es sich aber bei dieser zukünftigen Möglichkeit der Schöpfung wahrlich intelligenten Lebens um unsere wahre Daseinsberechtigung handeln könnte, dieser Gedanke scheint den panischen Angstmachern nicht zu kommen. Oder sie sind genau deshalb panisch.