piwik no script img

Turing-Test zum Turing-JahrZu einem knappen Drittel menschlich

Immer wieder werden Chatbots dem Turing-Test unterzogen. Sie werden dabei zunehmend besser, menschliche Kommunikation nachzuempfinden.

Funfact: Nicht wenige Menschen aus der Kontrollgruppe werden beim Turing-Test für Maschinen gehalten. Bild: trepavica/photocase.com

Ende Juni jährte sich der 100. Geburtstag des Computerpioniers Alan Turing, der unter anderem die Verschlüsselungsmaschine „Enigma“ der Nazis austrickste und 1954 im Alter von nur 41 Jahren Selbstmord beging, weil die britische Regierung ihn aufgrund seiner Homosexualität verfolgte und er mit einer Östrogentherapie entstellt wurde.

Auf den genialen Frühinformatiker geht auch der sogenannte Turing-Test zurück: Mit diesem im Jahre 1950 erdachten Verfahren soll sich prüfen lassen, wie nah ein System der künstlichen Intelligenz menschliches Denkvermögen emulieren kann.

Dabei kommen sogenannte Chatbots zum Einsatz, die möglichst naturgetreu auf ein Frage- und Antwort-Spiel eines menschlichen Gegenübers reagieren sollen. Anschließend muss der Juror bewerten, ob er nun mit einem Menschen oder mit einem Computer kommuniziert hat.

150 Testgespräche

Pünktlich zum Jubiläum fand nun auch der bislang größte Turing-Test statt: An historischem Ort, in Bletchley Park in der Nähe der britischen Stadt Milton Keynes, wo Alan Turing während des Zweiten Weltkrieges den „Enigma“-Code knackte. 30 Juroren um die Forscherin Huma Shah von der University of Reading prüften insgesamt fünf besonders gute Chatbot-Programme in 150 einzelnen Gesprächen.

Zum Vergleich: Beim Loebner Prize, der regelmäßig 5000 US-Dollar und eine Wandermedaille vergibt, nehmen normalerweise nur vier menschliche Juroren an, die vier Chatbots bewerten müssen.

Als Testgruppe nahmen auch noch 25 menschliche Chatpartner teil. Laut Turings Regeln legt eine Maschine den Test erfolgreich ab, wenn es ihr in 30 Prozent der Fälle gelingt, ihrem Gegenüber weiszumachen, dass es sich um einen Menschen handelt. Einem der fünf Chatbots, Eugene Goostman des Anbieters Princeton AI, gelang dies zu erstaunlichen 29 Prozent.

Eine festgelegte Persönlichkeit als Trick

Vermutlich liegt dies an einem Trick, den sein Erfinder Vladimir Veselov aus New Jersey, anwendete: Während andere der teilnehmenden Chatbots sich an dem orientierten, was Menschen früher gesagt haben (einer der Bots durchforstet sogar den Kurznachrichtendienst Twitter), wurde für Eugene Goostman eine genaue Persönlichkeit festgelegt.

Es handelt sich um einen 13jährigen Jungen aus der ukrainischen Stadt Odessa, dessen Vater ein Arzt ist. Diese Rolle gibt dem Chatbot die Möglichkeit, den Nutzer emotional zu packen – ihm wird eine Geschichte erzählt, während das Frage- und Antwort-Spiel läuft. Die beiden zweit- und drittplatzierten Konkurrenten, der Jfred-Chat-Server und der Cleverbot, versuchen dagegen, „alles für alle“ zu sein.

Man mag sich fragen, ob ein Chatbot wirklich „intelligent“ sein kann. Für Turing hatte das stets mit der Fähigkeit zu tun, Menschen davon zu überzeugen, dass „man“ keine Maschine ist. Der IT-Pionier glaubte daran, dass es bis zum Jahr 2000 gelingen könnte, die 30-Prozent-Quote zu erreichen.

Mit 29 Prozent und 12 Jahren Verzögerung lag er knapp daneben. Allerdings muss nun noch getestet werden, wie gut Eugene Goostman abschneiden würde, wenn man dem Chatbot seine Persönlichkeit nähme und er allein anhand der Erkennungs- und Antwortroutinen überprüft würde. Einer der Juroren zeigte sich überzeugt, dass die Persönlichkeit durchaus dabei geholfen habe, die Jury zu überzeugen.

Ein Gewinner des „großen“, also vollständigen, Turing-Tests dürfte unterdessen noch länger auf sich warten lassen. Dabei soll der Computer nicht nur auf Texteingaben korrekt und menschenartig reagieren, sondern auch auf die Mimik und Gesichtszüge des per Videobild zugeschalteteb Gegenübers. Gearbeitet wird schon längst daran: Mittlerweile werden Laborroboter getestet, die Emotionen erkennen und ihr Verhalten der Stimmung des Benutzers anpassen können.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

2 Kommentare

 / 
  • A
    anony
  • F
    flipper

    Gruselig!