KI und Anthropomorphismus: Mensch in der Maschine?
Für das Sprechen über Technik fehlen uns die passenden Worte. Darum greifen wir zu menschlichen Metaphern. Aber das birgt Probleme.
Bescheiden, kreativ oder schlau soll ChatGPT sein. Es „gesteht“ einem Reporter seine Liebe, „versteht“ Witze, „lügt gerne“ und kann Nutzer:innen „austricksen“. Und das ist nur eine winzige Auswahl der Eigenschaften und Fähigkeiten, die in den vergangenen Monaten ChatGPT und anderen Sprachanwendungen mit künstlicher Intelligenz (KI) zugeschrieben wurden.
Das ist erst einmal nicht ungewöhnlich. Denn schon beim Sprechen über Technik, die deutlich schlichter ist als KI, vermenschlichen wir sie. Da „irrt“ sich das Navi bei der Streckenführung. Der Drucker „will“ neue Patronen haben. Der Smartphone-Akku „mag“ zu hohe Temperaturen nicht. Und der Sprachassistent „versteht“ uns falsch. Zuschreibungen von Eigenschaften oder Fähigkeiten, die Technik verständlicherweise nicht mitbringt. Metalle und Leiter, Arbeitsspeicher und Prozessoren, Bildschirme und Sensoren können wirklich eine Menge und vieles auch besser als ihre menschlichen Benutzer:innen. Aber sie haben weder Willen noch Gefühle, Interessen oder Vergleichbares.
Das Phänomen hat einen Namen: Anthropomorphismus. Menschen schreiben allem Möglichen – Pflanzen, Autos, Luftballons in Tierform, dem Licht im Treppenhaus, das immer im ungünstigsten Moment ausgeht – menschliche Eigenschaften zu. Das wiederum ist überaus menschlich. Und in Sachen Empathie ist es ja durchaus auch sympathisch, dass wir in unseren Gegenübern gerne empfindungs- und wahrnehmungsfähige Wesen sehen, auch wenn es sich nur um schick verbaute Metalle und Sensoren handelt.
Doch dass für das Sprechen über Technik meist die passenden Worte fehlen, ist auch ein Problem. Vor allem deshalb, weil die Vermenschlichung die gesellschaftliche Sicht auf Technik prägt.
Der KI-Antropomorphismus ist dabei durchaus gewollt. Die Unternehmen, die die Anwendungen unter die Nutzer:innen bringen, setzen einiges daran, die Software möglichst menschlich erscheinen zu lassen. Beispiel ChatGPT: Wer eine Frage abschickt, bekommt die Antwort nicht etwa komplett nach ein paar Millisekunden geliefert wie bei einer Suchmaschine. Stattdessen blinkt zunächst der Cursor, als würde da jemand überlegen. Dann geht es los, Buchstabe um Buchstabe erscheint, mal schneller mal langsamer, mal eine Pause. Als würde jemand tippen.
Am Anfang einer Antwort generiert die Software teilweise Wörter wie „na klar“ oder „gerne“, die nicht der inhaltlichen Beantwortung der Frage dienen, sondern eher der Herstellung einer Verbindung zwischen den vermeintlichen Gesprächspartner:innen. Dazu kommt bei vielen Sprachanwendungen die Verwendung des Wortes „Ich“ – das ist eine Kommunikationsstufe, die selbst Kinder erst mit ein paar Jahren drauf haben. Kein Wunder also, dass etwa Nutzer:innen von KI-Assistenzsystemen wie Alexa berichten, sie würden instinktiv höflich mit dem Gerät kommunizieren.
Die Vermenschlichung hat verschiedene problematische Effekte und es ist davon auszugehen, dass die Forschung weitere finden wird. Zwei Beispiele: Menschen schätzen den Wahrheitsgehalt von Inhalten auch an Hand der Form ein. So verraten sich Menschen beim Lügen häufig durch kleine Gesten oder sprachliche Fehler, die wir bewusst gar nicht unbedingt wahrnehmen, die uns aber instinktiv merkwürdig vorkommen.
Tritt uns nun ein – vermeintlich – menschliches Wesen gegenüber und verbreitet sehr überzeugend Quatsch, dann ist es für uns extrem schwierig, bewusst kritisch zu bleiben. Darüber hinaus führt der Technik-Antropomorphismus dazu, dass Menschen der KI ein moralisches Verständnis oder ethisches Handeln unterstellen. Was beides nicht möglich ist bei einer Software, die die nächsten Wörter oder Satzteile lediglich an Hand von Wahrscheinlichkeiten generiert.
Und in Zukunft wird es wahrscheinlich noch komplizierter. Wir werden vermutlich eines Tages unterscheiden müssen zwischen problematischer Vermenschlichung und hilfreicher. Etwa wenn es um Chatbots oder Roboter geht, die explizit als emotionale oder therapeutische Stütze designt werden und wo es genau die Vermenschlichung ist, die den Nutzer:innen hilft. So lange sollten wir aber dringend unser Bewusstsein dafür schärfen, dass immer mehr Dienste auf den Markt kommen, deren Verpackung anderes verspricht, als der technische Inhalt hält.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israel, Nan Goldin und die Linke
Politische Spiritualität?
Matheleistungen an Grundschulen
Ein Viertel kann nicht richtig rechnen
Nikotinbeutel Snus
Wie ein Pflaster – aber mit Style
Innenminister zur Migrationspolitik
Härter, immer härter
Prozess gegen Letzte Generation
Wie die Hoffnung auf Klimaschutz stirbt
Börsen-Rekordhoch
Der DAX ist nicht alles