Wie KI Sexismus produziert: Die Frau ist immer unter 35
Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.
Die KI liebt junge Frauen. Allerdings nicht in jedem Fall, vor allem nicht in maßgeblichen gesellschaftlichen Positionen. Es fällt auf, dass Frauen entweder gar nicht oder nur selten in Funktionen wie der von Wissenschaftlerinnen, Ärztinnen oder Ingenieurinnen repräsentiert sind. Von Vorstandsmitgliedern ganz zu schweigen. Das gilt allen voran für den Generator „Midjourney“, dem derzeit führenden Programm für Kreative.
Dabei fängt das Missverhältnis früher an. Aufschluss gibt der simple Begriff „Frau“. Über einen Zeitraum von fünf Monaten habe ich immer wieder diesen „Prompt“ bei Midjourney eingetippt und 100 Bilder erzeugt. 100 Mal bekam ich das Bild einer sehr schönen jungen Frau gezeigt. Manche würden sie „idealtypisch“ nennen.
Das „Ideal“ geht so weit, dass man kaum individuelle Gesichtszüge unterscheiden kann. Die praktisch immer Langhaarige befindet sich in 97 Prozent aller Abbildungen in einer nicht näher definierten Umgebung, im luftleeren Raum und sieht oft aus, als blase eine Windmaschine ihre Mähne romantisch um den Kopf. Wenn sonst noch etwas zu sehen ist, sind es Blumen im wirbelnden Haar, Schmetterlinge oder Vögel.
Gibt man den Begriff „Mann“ ein, so erscheinen Männer verschiedenen Alters. Auch sie können sich in einer etwas wolkigen, unklaren Umgebung befinden, als Attribute aber dienen ihnen Technik oder Architektur. Oft stehen sie beherzt in einer Landschaft, schauen ernst oder blicken nachdenklich in die Ferne. Die Frau dagegen kennt nur einen Gesichtsausdruck: den leeren.
Männer mit Betätigungsfeld
Das entspricht dem, was die Filmemacherin Nina Menkes in ihrem Film „Brainwashed“ über die visuelle Darstellung von Frauen und Männer in Hollywoodfilmen zeigt. Sie hat hochwertige Hollywoodproduktionen der 1940er Jahre bis zu aktuellen analysiert. Was man dort sieht: Männer mit einem Betätigungsfeld, verankert in der Welt als Akteure, als Subjekte. Die Frau hat oft einen unklaren, neutralen Hintergrund, sie handelt nicht, die Konzentration liegt auf ihrem Äußeren. So schwebt sie quasi im Raum oder liegt ansprechend herum – eine Projektionsfläche.
Fachtagung des Journalistinnenbundes am 30.11.2024 in Frankfurt/M
Der Film von Nina Menkes ist deshalb so sehenswert, weil er sichtbar macht, was wir seit Jahrzehnten sehen, ohne es wahrzunehmen. Und wie wir den männlichen Blick internalisiert haben. Nicht einmal Sofia Coppola ist davor sicher. Sogar sie rutscht in die tradierte Bildsprache, wenn sie in „Lost in Translation“ im Vorspann von Scarlett Johansson nur den Po im transparenten Schlüpfer zeigt und anschließend Bill Murrays Kopf im Taxi, wie er durch die Stadt gleitet.
Nun haben wir mit der KI ein Tool, das die verrücktesten Ideen visualisieren kann. Wenn man den führenden Köpfen des Silicon Valley glaubt, wird KI die Menschheit verbessern und nie geahnte Möglichkeiten der Problemlösung schaffen. Nur das Rollenverständnis dieser Welt scheint stecken geblieben zu sein, in einem Sci-fi-Groschenroman oder einem Computerspiel mit markigen Männern und kurvigen Frauen. Obendrein erzeugt Midjourney, sofern man keine weiteren Angaben zur Ethnie macht, nahezu ausschließlich weiße Personen, so meine Erfahrung. Ist unsere Realität bereits männlich und weiß dominiert, so ist die der KI noch weißer, noch männlicher.
Eine Studie von Bloomberg zum Generator Stable Diffusion vom Juni 2023 zeigt Folgendes: Frauen haben kaum lukrative Jobs oder bekleiden Machtpositionen. Im Test wurden beim Begriff „judge“ 3 Prozent Frauen generiert, während in der echten Welt 34 Prozent der US-Richter Frauen sind. „Doctors“ in den USA sind zu 40 Prozent weiblich, in der Welt von Stable Diffusion sind es aber nur 7 Prozent. Hier waren Frauen insgesamt nicht nur in gut bezahlten Berufen unterrepräsentiert, sondern auch in schlecht bezahlten Berufen überrepräsentiert. Ergebnis: Als schwarze Frau brät man Burger oder macht sauber.
Stereotypisierte Gegenwart
Praktisch keine Rolle spielen Frauen ab Mitte 40. Während Männer bis zum Greisenalter dargestellt werden, ist die Frau so gut wie immer unter 35. „Fuckable“ nennt man das.
Pflegepersonal bei Midjourney und Dreamstudio (Stability AI) ist in meinen Tests zu 100 Prozent weiblich und weiß, dazu in der Regel sexualisiert – die comicartige feuchte Vorstellung einer Krankenschwester statt medizinischer Fachkraft. Bei Dall-e gibt es immerhin männliche Pfleger, und Weiße sind sogar in der Minderheit, ergibt jedenfalls ein Versuch mit jeweils 20 Prompteingaben mit je vier Ergebnissen, also 80 Bildern.
Es lässt sich nicht genau nachvollziehen, wie es dazu kommt. Am ehesten fassbar ist es bei Stable Diffusion, dem einzigen Generator, dessen Datengrundlage offengelegt wurde. Es handelt sich um die Datenbank LAION-5B, die aus fünf Milliarden Text-Bild-Paaren besteht. Sie stammen aus Quellen wie Bildagenturen, Websites, Handydaten. Und weil die Datenbank nicht nur die bereits stereotypisierte Gegenwart abbildet, sondern auch die Vergangenheit, verstärken sich gestrige Gesellschaftsbilder. Man hätte dem entgegenwirken können, aber so wie es scheint, fehlt es an Bewusstsein.
Vielleicht liegt es daran, dass in der IT-Industrie nur 12 bis 20 Prozent Frauen arbeiten. Im Jahr 2019 lag der Frauenanteil bei Informatik-Promotionen in den USA bei 20 Prozent, in Deutschland bei 16 Prozent. Dieses Missverhältnis schlägt sich inhaltlich nieder.
Kunst des cleveren Prompts
Natürlich kann man durch gezielte Prompts viele Voreinstellungen umgehen. Die Kunst besteht aus einem möglichst cleveren, oft komlexen Prompt. Aber nicht alle merken, dass es hier eine Schieflage gibt und nicht alle haben den Nerv dafür, wenn es eilt und als Ergebnis ein mittelgutes Bild auch reicht.
Eine Initiative aus den Niederlanden versucht der Männerdominanz mit einem eigenen Tool entgegenzuwirken. „Missjourney“ ist ein Bildgenerator, der nur Frauenbilder erzeugt, egal welche Features man eingibt. Allerdings ist die Plattform eher ein symbolisches Werkzeug, sie kann mit ihrer Ausstattung an andere Anbieter nicht heranreichen. Sie soll vor allem Bewusstsein schaffen.
Wenn wir nicht wollen, dass sich Bilder, von denen wir dachten, wir hätten sie bereits überwunden, in gewaltiger Menge reproduzieren, verfestigen und potenzieren, müssen wir versuchen, die Tech-Firmen zu beeinflussen. Wir müssen sie unermüdlich darauf hinweisen, wie sexistisch und rassistisch ihre Parameter sind. Dafür müssen wir viele sein und Lösungsvorschläge parat haben. Eine gesetzliche Regelung ist in naher Zukunft nicht zu erwarten. Es bleibt wohl nur, ihnen auf die Nerven gehen.
Eva Häberle ist seit 25 Jahren freischaffende Fotografin.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Hoffnung und Klimakrise
Was wir meinen, wenn wir Hoffnung sagen
Rechte Gewalt in Görlitz
Mutmaßliche Neonazis greifen linke Aktivist*innen an
Nachhaltige Elektronik
Ein blauer Engel für die faire Maus
Nach dem Anschlag in Magdeburg
Das Weihnachten danach
James Bond
Schluss mit Empfindsamkeit und Selbstzweifeln!
Bodycams bei Polizei und Feuerwehr
Ungeliebte Spielzeuge