Diskriminierende KIs: „Zeigen den Status quo von gestern“
Queere Menschen werden durch Künstliche Intelligenz oft diskriminiert. Sowohl Technologie an sich, als auch die Entstehungsbedingungen sind schuld.
taz: Wie kann eine KI queer sein, Frau Morais dos Santos Bruss?
Sara Morais dos Santos Bruss: Der Begriff ist entstanden aus einer Frustration über eine sehr enge Vorstellung von künstlicher Intelligenz: die Vorstellung, dass es eine bestimmte Wahrheit gibt und KI eine Art von universell gültigem Wissen produziert. Wir sollten aber verstehen, dass Fragen der Repräsentation oder des Geschlechts ambivalent und im Wandel sind. Im Sinne der Queeren KI wollen wir uns anschauen, wie sich Technologie auf den Körper auswirkt, das heißt auf bestimmte Menschen eben unterschiedlich wirkt.
Haben Sie ein Beispiel?
Sie ist Kultur- und Medienwissenschaftlerin, Autorin und Kuratorin am Haus der Kulturen der Welt in Berlin. In ihrer Arbeit beschäftigt sie sich unter anderem mit digitalen Technologien aus feministischer und antikolonialer Perspektive. Sie ist Mitherausgeberin des Sammelbands „Queere KI. Zum Coming-out smarter Maschinen“, erschienen im transcript Verlag.
Bei einem Software-Unternehmen gab es einen Algorithmus, der Bewerbungen von Frauen schlechter bewertet hat, weil bei diesem Unternehmen sehr viele Männer gearbeitet haben. In Bezug auf queere Identitäten gab es den Fall bei Uber, wo eine Gesichtserkennung-Software eingesetzt wurde, die trans Menschen nicht korrekt identifizieren konnte und damit von deren Arbeit ausgeschlossen hat.
In dem wissenschaftlichen Sammelband „Queere KI“, den Sie mitherausgegeben haben, steht der Satz: „KI wird als Superintelligenz gesehen und mit einem weißen, männlichen, rationalen Subjekt gleichgesetzt.“ Wo macht sich das noch bemerkbar?
Wenn man künstliche Intelligenz in der Bildersuche eingibt, sind die Suchergebnisse sehr einheitlich: Die Bilder zeigen einen weißen Roboter vor blauem Hintergrund. Dadurch wird ein Stereotyp herausgebildet, bei dem das Männliche wieder mit dem Kalten und Rationalen verbunden wird. Oder es wird ein Gehirn mit einem Schaltkreis gezeichnet. Die Bilder von KI sind geprägt von einer sehr vermenschlichten Sci-Fi-Ästhetik. Unsere Vorstellung von KI würde aber sehr konkreter werden, wenn man zum Beispiel einen humanoiden Roboter abbilden würde, der wirklich existiert. Gleichzeitig gibt es KI, die vergeschlechtlicht vermarktet wird, bei Dating-Apps zum Beispiel.
Inwiefern?
Diese Apps sind unterschiedlich codiert, und das hat mit Vorstellungen zu tun, wie Menschen mit einer bestimmten Geschlechtszugehörigkeit agieren. Die Dating-App Grindr, die vor allem von schwulen Männern genutzt wird, funktioniert primär über GPS und ortsbasierten Services – im Gegensatz zu Apps, die eher ein heterosexuelles Publikum ansprechen. Daraus lassen sich bestimmte Vorstellungen von sexuellem Verhalten schlussfolgern, etwa, was das Wichtigste an dem akuten Begehren ist.
Es ist auffällig, dass KI-Stimmen wie Alexa oder Siri weiblich sind. Was ist daran problematisch?
Die beruhen auf einer Vorstellung, die anknüpft an eine Rolle der Bediensteten, die eine Art Servicedienstleistung erbringt. An der Hochschule Merseburg gab es 2020 eine Installation mit der fiktiven Sprachassistenz „Miau Miau“. Das Publikum konnte mit ihr direkt interagieren. Allerdings wurde sie – fürs Publikum unsichtbar – live gesprochen von einer Schauspielerin. „Miau Miau“ war nicht unterwürfig, sondern eher unhöflich und frech. Und doch haben einige männliche Teilnehmer versucht, mit ihr zu flirten und sich ihr anzunähern. Selbst bei KIs und auch bei Gegenständen verfallen wir in vergeschlechtlichte Vorstellungen. Ich habe einen Freund, dessen Fahrrad eine „Sie“ ist, und eine Bekannte, deren Laptop ein „Er“ ist. Das Problem sind natürlich nicht die Geschlechter, sondern die Rollen, die wir damit verknüpfen. Mir war es im Sinne der Queeren KI aber auch wichtig zu überlegen, in welchen Kontexten KI daran beteiligt ist, diese deterministischen Strukturen umzudeuten.
Auf was sind Sie gestoßen?
Gerade in der Kunst gibt es dafür tolle Beispiele. Der Künstler Jake Elwes etwa hat eine Art Deepfake-Dragshow gestaltet. Für seine KI saßen ihm mehrere Dragqueens Modell. Die KI hat daraus eine Performance kreiert, bei der die Körper ineinander morphen und die Identitäten sich ständig verändern. Körperbewegungen oder -formen, die ungewöhnlicher waren, konnte die KI nicht codieren: Sie hat dann Sequenzen produziert, bei denen die Körper teils in etwas Monströses oder Fantastisches gekippt sind. Insofern ist der Begriff Queere KI auch ein Plädoyer dafür, KI fluider und offener zu gestalten.
Aber wie soll das gehen? KI beruht doch immer auf eindeutigen Daten.
Es gibt bereits mehrere Projekte mit queeren Chatbots, vor allem in der Kunst. Die Trainingsdatensätze bestehen dort etwa aus queerer Poesie und feministischer Theorie. Die Künstlerin Sara Ciston hat ein intersektionales KI-Tool kreiert, infolgedessen Google-Ergebnisse keine Stereotype mehr produziert haben, sondern für Fragen zum Thema Queerness hoffnungsstiftende und poetische Vorschläge lieferten. Aus solchen Projekten lassen sich Prinzipien ableiten, zum Beispiel, dass Daten von weißen Männern auch nur auf ebensolche angewendet werden sollten. Oder dass man zulässt, dass Algorithmen auch Ambivalenzen produzieren. Viele Technologieunternehmen finanzieren experimentellere Formen des Umgangs mit KI, etwa durch Fellowships oder Künstler*innen-Residenzen. Das künstlerische Experiment kann also zu realen Technologien beitragen, das sollte man nicht unterschätzen.
Was muss noch passieren im Sinne einer Queeren KI?
Ich plädiere dafür, nicht nur die Technologien selbst zu sehen, sondern auch die Entstehungsbedingungen. Das Clickworking, das Aufbereiten der Daten, passiert, weil Menschen weniger bezahlt werden als die deutsche Norm und unter prekären Bedingungen arbeiten. Da frage ich mich, ob diese Menschen, die an der Schnittstelle zu den Technologien sitzen, mehr Mitspracherecht bekommen könnten. Das Problem einer Queeren KI ist auch, dass KIs in der Regel den Status quo von gestern zeigen, weil dieser auf Daten beruht, die erst mal gesammelt werden müssen. Wir müssen solche Wissenskonstruktionen also stärker hinterfragen, das wäre schon ein erster großer Schritt in Richtung Queere KI.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nach dem Anschlag in Magdeburg
Rechtsextreme instrumentalisieren Gedenken
Bundestagswahl am 23. Februar
An der Wählerschaft vorbei
Erderwärmung und Donald Trump
Kipppunkt für unseren Klimaschutz
Anschlag in Magdeburg
„Eine Schockstarre, die bis jetzt anhält“
EU-Gipfel zur Ukraine-Frage
Am Horizont droht Trump – und die EU ist leider planlos
Wirbel um KI von Apple
BBC kritisiert „Apple Intelligence“