Google-Programm bringt sich selbst Go bei: Maschine braucht keinen Menschen

Erst 2016 bezwang ein Google-Programm einen Meister des Brettspiels „Go“. Nun präsentiert das Google-Team einen noch besseren Nachfolger.

Ein Junge spielt Go vor einem Computer, der ein Go-Spiel anzeigt

Lernen bald Menschen von Computern? Ein Junge spielt Go, während auf dem Bildschirm das Spiel von AlphaGo gegen Lee Sedol angezeigt wird Foto: dpa

BERLIN taz | Im vergangenen Jahr verlor der südkoreanische Go-Champion Lee Sedol gegen die Google-Software AlphaGo. Dass eine Maschine das komplexe Brettspiel erlernen und sogar meistern könnte, galt zuvor als höchst unwahrscheinlich. Doch nun hat das Team von AlphaGo ein noch besseres Computerprogramm präsentiert.

Mithilfe künstlicher Intelligenz hat das neue Programm mit dem Namen AlphaGo Zero seine Vorgänger innerhalb weniger Tage übertroffen. Nach drei Tagen schlug es das Originalprogramm in 100 von 100 Spielen. Neu dabei ist, dass AlphaGo Zero das Spiel nicht mehr anhand menschlicher Erfahrungswerte erlernte. Stattdessen bekam es nur die Spielregeln und ein leeres Spielfeld vorgegeben. In Millionen Spielversuchen gegen sich selbst lernte die Software dann, welche Spielzüge sinnvoller sind als andere.

Die Regeln des ursprünglich aus China stammenden Go sind relativ einfach: Zwei Spieler versuchen auf einem Spielbrett – ein Raster von 19 vertikalen und 19 horizontalen Linien – Gebiete zu erobern. Dafür setzen sie abwechselnd schwarze und weiße Steine. Auf dem Brett mit 361 Feldern ist aber eine gewaltige Zahl von Zügen möglich, was es selbst für einen leistungsstarken Computer schwierig macht, die Entwicklung eines gesamten Spiels durchzurechnen.

Inzwischen kann die Maschine sich offenbar selbst das Spielen beibringen. Die For­sche­r*in­nen hoffen, damit einen enormen Fortschritt in Sachen künstlicher Intelligenz gemacht zu haben. AlphaGo Zero nutze nur noch ein neuronales Netz statt zwei, sodass das Programm effektiver lernen und bewerten könne. Neuronale Netze sind an biologische Neuronennetze angelehnte Programme und können für komplexe Aufgaben, wie beispielsweise Fotoauswertungen, eingesetzt werden.

Anwendbar auf Medikamente-Herstellung?

„Das Bemerkenswerteste ist, dass wir keine menschlichen Daten mehr brauchen“, sagt DeepMind-Geschäftsführer Demis Hassabis im Forschungsmagazin MIT Technology Review. Die Technologie hinter AlphaGo Zero sei stark genug, um auch auf reale Situationen angewandt zu werden, in denen viele Möglichkeiten ausgetestet werden müssen. Zum Beispiel bei der Entwicklung von Medikamenten.

Nicht alle Wis­sen­schaft­le­r*in­nen teilen diesen Enthusiasmus. „Es zeigt sehr gut, welchen Fortschritt Deep Learning in letzter Zeit gemacht hat, aber ich würde es nicht gleich als Zeichen dessen sehen, was Computer ohne menschliches Wissen lernen können“, sagt Pedro Domingos, Professor an der University of Washington, im MIT Technology Review. Das Programm benötige trotz allem noch mehrere Millionen Versuche, um die richtige Strategie zu entwickeln – wesentlich mehr als ein menschlicher Go-Champion.

Dennoch: Die Kürze der Zeit, in der sich das Computerprogramm Wissen aneignet, ist beeindruckend. Und auch Menschen nutzen Vorwissen in Form von Büchern und andere Aufzeichnungen, um das Spiel zu meistern. Wozu Maschinen vielleicht in zehn Jahren fähig sind, lässt sich ohnehin schwer voraussagen. Bis dahin lassen die For­sche­r*in­nen sie gegeneinander im Wrestling antreten. Oder eben Go spielen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.