Google-Programm bringt sich selbst Go bei: Maschine braucht keinen Menschen
Erst 2016 bezwang ein Google-Programm einen Meister des Brettspiels „Go“. Nun präsentiert das Google-Team einen noch besseren Nachfolger.
Mithilfe künstlicher Intelligenz hat das neue Programm mit dem Namen AlphaGo Zero seine Vorgänger innerhalb weniger Tage übertroffen. Nach drei Tagen schlug es das Originalprogramm in 100 von 100 Spielen. Neu dabei ist, dass AlphaGo Zero das Spiel nicht mehr anhand menschlicher Erfahrungswerte erlernte. Stattdessen bekam es nur die Spielregeln und ein leeres Spielfeld vorgegeben. In Millionen Spielversuchen gegen sich selbst lernte die Software dann, welche Spielzüge sinnvoller sind als andere.
Die Regeln des ursprünglich aus China stammenden Go sind relativ einfach: Zwei Spieler versuchen auf einem Spielbrett – ein Raster von 19 vertikalen und 19 horizontalen Linien – Gebiete zu erobern. Dafür setzen sie abwechselnd schwarze und weiße Steine. Auf dem Brett mit 361 Feldern ist aber eine gewaltige Zahl von Zügen möglich, was es selbst für einen leistungsstarken Computer schwierig macht, die Entwicklung eines gesamten Spiels durchzurechnen.
Inzwischen kann die Maschine sich offenbar selbst das Spielen beibringen. Die Forscher*innen hoffen, damit einen enormen Fortschritt in Sachen künstlicher Intelligenz gemacht zu haben. AlphaGo Zero nutze nur noch ein neuronales Netz statt zwei, sodass das Programm effektiver lernen und bewerten könne. Neuronale Netze sind an biologische Neuronennetze angelehnte Programme und können für komplexe Aufgaben, wie beispielsweise Fotoauswertungen, eingesetzt werden.
Anwendbar auf Medikamente-Herstellung?
„Das Bemerkenswerteste ist, dass wir keine menschlichen Daten mehr brauchen“, sagt DeepMind-Geschäftsführer Demis Hassabis im Forschungsmagazin MIT Technology Review. Die Technologie hinter AlphaGo Zero sei stark genug, um auch auf reale Situationen angewandt zu werden, in denen viele Möglichkeiten ausgetestet werden müssen. Zum Beispiel bei der Entwicklung von Medikamenten.
Nicht alle Wissenschaftler*innen teilen diesen Enthusiasmus. „Es zeigt sehr gut, welchen Fortschritt Deep Learning in letzter Zeit gemacht hat, aber ich würde es nicht gleich als Zeichen dessen sehen, was Computer ohne menschliches Wissen lernen können“, sagt Pedro Domingos, Professor an der University of Washington, im MIT Technology Review. Das Programm benötige trotz allem noch mehrere Millionen Versuche, um die richtige Strategie zu entwickeln – wesentlich mehr als ein menschlicher Go-Champion.
Dennoch: Die Kürze der Zeit, in der sich das Computerprogramm Wissen aneignet, ist beeindruckend. Und auch Menschen nutzen Vorwissen in Form von Büchern und andere Aufzeichnungen, um das Spiel zu meistern. Wozu Maschinen vielleicht in zehn Jahren fähig sind, lässt sich ohnehin schwer voraussagen. Bis dahin lassen die Forscher*innen sie gegeneinander im Wrestling antreten. Oder eben Go spielen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Proteste bei Nan Goldin
Logiken des Boykotts
Rekrutierung im Krieg gegen Russland
Von der Straße weg
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Demokratieförderung nach Ende der Ampel
Die Lage ist dramatisch