KI und Anthropomorphismus: Mensch in der Maschine?

Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen wir zu menschlichen Metaphern. Aber das birgt Probleme.

Zwei künstliche Arme mit Händen

Wir sehen Hände, wo in Wahrheit nur Metalle und Sensoren sind Foto: IMAGO/Marcos Osoric

Bescheiden, kreativ oder schlau soll ChatGPT sein. Es „gesteht“ einem Reporter seine Liebe, „versteht“ Witze, „lügt gerne“ und kann Nut­ze­r:in­nen „austricksen“. Und das ist nur eine winzige Auswahl der Eigenschaften und Fähigkeiten, die in den vergangenen Monaten ChatGPT und anderen Sprachanwendungen mit künstlicher Intelligenz (KI) zugeschrieben wurden.

Das ist erst einmal nicht ungewöhnlich. Denn schon beim Sprechen über Technik, die deutlich schlichter ist als KI, vermenschlichen wir sie. Da „irrt“ sich das Navi bei der Streckenführung. Der Drucker „will“ neue Patronen haben. Der Smartphone-Akku „mag“ zu hohe Temperaturen nicht. Und der Sprachassistent „versteht“ uns falsch. Zuschreibungen von Eigenschaften oder Fähigkeiten, die Technik verständlicherweise nicht mitbringt. Metalle und Leiter, Arbeitsspeicher und Prozessoren, Bildschirme und Sensoren können wirklich eine Menge und vieles auch besser als ihre menschlichen Benutzer:innen. Aber sie haben weder Willen noch Gefühle, Interessen oder Vergleichbares.

Das Phänomen hat einen Namen: Anthropomorphismus. Menschen schreiben allem Möglichen – Pflanzen, Autos, Luftballons in Tierform, dem Licht im Treppenhaus, das immer im ungünstigsten Moment ausgeht – menschliche Eigenschaften zu. Das wiederum ist überaus menschlich. Und in Sachen Empathie ist es ja durchaus auch sympathisch, dass wir in unseren Gegenübern gerne empfindungs- und wahrnehmungsfähige Wesen sehen, auch wenn es sich nur um schick verbaute Metalle und Sensoren handelt.

Doch dass für das Sprechen über Technik meist die passenden Worte fehlen, ist auch ein Problem. Vor allem deshalb, weil die Vermenschlichung die gesellschaftliche Sicht auf Technik prägt.

Der KI-Antropomorphismus ist dabei durchaus gewollt. Die Unternehmen, die die Anwendungen unter die Nut­ze­r:in­nen bringen, setzen einiges daran, die Software möglichst menschlich erscheinen zu lassen. Beispiel ChatGPT: Wer eine Frage abschickt, bekommt die Antwort nicht etwa komplett nach ein paar Millisekunden geliefert wie bei einer Suchmaschine. Stattdessen blinkt zunächst der Cursor, als würde da jemand überlegen. Dann geht es los, Buchstabe um Buchstabe erscheint, mal schneller mal langsamer, mal eine Pause. Als würde jemand tippen.

Am Anfang einer Antwort generiert die Software teilweise Wörter wie „na klar“ oder „gerne“, die nicht der inhaltlichen Beantwortung der Frage dienen, sondern eher der Herstellung einer Verbindung zwischen den vermeintlichen Gesprächspartner:innen. Dazu kommt bei vielen Sprachanwendungen die Verwendung des Wortes „Ich“ – das ist eine Kommunikationsstufe, die selbst Kinder erst mit ein paar Jahren drauf haben. Kein Wunder also, dass etwa Nut­ze­r:in­nen von KI-Assistenzsystemen wie Alexa berichten, sie würden instinktiv höflich mit dem Gerät kommunizieren.

Die Vermenschlichung hat verschiedene problematische Effekte und es ist davon auszugehen, dass die Forschung weitere finden wird. Zwei Beispiele: Menschen schätzen den Wahrheitsgehalt von Inhalten auch an Hand der Form ein. So verraten sich Menschen beim Lügen häufig durch kleine Gesten oder sprachliche Fehler, die wir bewusst gar nicht unbedingt wahrnehmen, die uns aber instinktiv merkwürdig vorkommen.

Tritt uns nun ein – vermeintlich – menschliches Wesen gegenüber und verbreitet sehr überzeugend Quatsch, dann ist es für uns extrem schwierig, bewusst kritisch zu bleiben. Darüber hinaus führt der Technik-Antropomorphismus dazu, dass Menschen der KI ein moralisches Verständnis oder ethisches Handeln unterstellen. Was beides nicht möglich ist bei einer Software, die die nächsten Wörter oder Satzteile lediglich an Hand von Wahrscheinlichkeiten generiert.

Und in Zukunft wird es wahrscheinlich noch komplizierter. Wir werden vermutlich eines Tages unterscheiden müssen zwischen problematischer Vermenschlichung und hilfreicher. Etwa wenn es um Chatbots oder Roboter geht, die explizit als emotionale oder therapeutische Stütze designt werden und wo es genau die Vermenschlichung ist, die den Nut­ze­r:in­nen hilft. So lange sollten wir aber dringend unser Bewusstsein dafür schärfen, dass immer mehr Dienste auf den Markt kommen, deren Verpackung anderes verspricht, als der technische Inhalt hält.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.