piwik no script img

Wie KI Sexismus produziertDie Frau ist immer unter 35

Bildgeneratoren zeigen nicht die Wirklichkeit, sondern manifestieren ein misogynes Weltbild. Das dürfen wir uns nicht gefallen lassen.

Kann sie auch Führungskraft? Der KI zufolge eher nicht Bild: Midjourney, Prompts: Eva Häberle

Die KI liebt junge Frauen. Allerdings nicht in jedem Fall, vor allem nicht in maßgeblichen gesellschaftlichen Positionen. Es fällt auf, dass Frauen entweder gar nicht oder nur selten in Funktionen wie der von Wissenschaftlerinnen, Ärztinnen oder Ingenieurinnen repräsentiert sind. Von Vorstandsmitgliedern ganz zu schweigen. Das gilt allen voran für den Generator „Midjourney“, dem derzeit führenden Programm für Kreative.

Dabei fängt das Missverhältnis früher an. Aufschluss gibt der simple Begriff „Frau“. Über einen Zeitraum von fünf Monaten habe ich immer wieder diesen „Prompt“ bei Midjourney eingetippt und 100 Bilder erzeugt. 100 Mal bekam ich das Bild einer sehr schönen jungen Frau gezeigt. Manche würden sie „idealtypisch“ nennen.

Das „Ideal“ geht so weit, dass man kaum individuelle Gesichtszüge unterscheiden kann. Die praktisch immer Langhaarige befindet sich in 97 Prozent aller Abbildungen in einer nicht näher definierten Umgebung, im luftleeren Raum und sieht oft aus, als blase eine Windmaschine ihre Mähne romantisch um den Kopf. Wenn sonst noch etwas zu sehen ist, sind es Blumen im wirbelnden Haar, Schmetterlinge oder Vögel.

Gibt man den Begriff „Mann“ ein, so erscheinen Männer verschiedenen Alters. Auch sie können sich in einer etwas wolkigen, unklaren Umgebung befinden, als Attribute aber dienen ihnen Technik oder Architektur. Oft stehen sie beherzt in einer Landschaft, schauen ernst oder blicken nachdenklich in die Ferne. Die Frau dagegen kennt nur einen Gesichtsausdruck: den leeren.

Bild: Midjourney; Prompts: Eva Häberle

Männer mit Betätigungsfeld

Das entspricht dem, was die Filmemacherin Nina Menkes in ihrem Film „Brainwashed“ über die visuelle Darstellung von Frauen und Männer in Hollywoodfilmen zeigt. Sie hat hochwertige Hollywoodproduktionen der 1940er Jahre bis zu aktuellen analysiert. Was man dort sieht: Männer mit einem Betätigungsfeld, verankert in der Welt als Akteure, als Subjekte. Die Frau hat oft einen unklaren, neutralen Hintergrund, sie handelt nicht, die Konzentration liegt auf ihrem Äußeren. So schwebt sie quasi im Raum oder liegt ansprechend herum – eine Projektionsfläche.

Veranstaltung zum Thema

Fachtagung des Journalistinnenbundes am 30.11.2024 in Frankfurt/M

Der Film von Nina Menkes ist deshalb so sehenswert, weil er sichtbar macht, was wir seit Jahrzehnten sehen, ohne es wahrzunehmen. Und wie wir den männlichen Blick internalisiert haben. Nicht einmal Sofia Coppola ist davor sicher. Sogar sie rutscht in die tradierte Bildsprache, wenn sie in „Lost in Translation“ im Vorspann von Scarlett Johansson nur den Po im transparenten Schlüpfer zeigt und anschließend Bill Murrays Kopf im Taxi, wie er durch die Stadt gleitet.

Nun haben wir mit der KI ein Tool, das die verrücktesten Ideen visualisieren kann. Wenn man den führenden Köpfen des Silicon Valley glaubt, wird KI die Menschheit verbessern und nie geahnte Möglichkeiten der Problemlösung schaffen. Nur das Rollenverständnis dieser Welt scheint stecken geblieben zu sein, in einem Sci-fi-Groschenroman oder einem Computerspiel mit markigen Männern und kurvigen Frauen. Obendrein erzeugt Midjourney, sofern man keine weiteren Angaben zur Ethnie macht, nahezu ausschließlich weiße Personen, so meine Erfahrung. Ist unsere Realität bereits männlich und weiß dominiert, so ist die der KI noch weißer, noch männlicher.

Eine Studie von Bloomberg zum Generator Stable Diffusion vom Juni 2023 zeigt Folgendes: Frauen haben kaum lukrative Jobs oder bekleiden Machtpositionen. Im Test wurden beim Begriff „judge“ 3 Prozent Frauen generiert, während in der echten Welt 34 Prozent der US-Richter Frauen sind. „Doctors“ in den USA sind zu 40 Prozent weiblich, in der Welt von Stable Diffusion sind es aber nur 7 Prozent. Hier waren Frauen insgesamt nicht nur in gut bezahlten Berufen unterrepräsentiert, sondern auch in schlecht bezahlten Berufen überrepräsentiert. Ergebnis: Als schwarze Frau brät man Burger oder macht sauber.

Stereotypisierte Gegenwart

Praktisch keine Rolle spielen Frauen ab Mitte 40. Während Männer bis zum Greisenalter dargestellt werden, ist die Frau so gut wie immer unter 35. „Fuckable“ nennt man das.

Pflegepersonal bei Midjourney und Dreamstudio (Stability AI) ist in meinen Tests zu 100 Prozent weiblich und weiß, dazu in der Regel sexualisiert – die comicartige feuchte Vorstellung einer Krankenschwester statt medizinischer Fachkraft. Bei Dall-e gibt es immerhin männliche Pfleger, und Weiße sind sogar in der Minderheit, ergibt jedenfalls ein Versuch mit jeweils 20 Prompteingaben mit je vier Ergebnissen, also 80 Bildern.

Es lässt sich nicht genau nachvollziehen, wie es dazu kommt. Am ehesten fassbar ist es bei Stable Diffusion, dem einzigen Generator, dessen Datengrundlage offengelegt wurde. Es handelt sich um die Datenbank LAION-5B, die aus fünf Milliarden Text-Bild-Paaren besteht. Sie stammen aus Quellen wie Bildagenturen, Websites, Handydaten. Und weil die Datenbank nicht nur die bereits stereotypisierte Gegenwart abbildet, sondern auch die Vergangenheit, verstärken sich gestrige Gesellschaftsbilder. Man hätte dem entgegenwirken können, aber so wie es scheint, fehlt es an Bewusstsein.

Vielleicht liegt es daran, dass in der IT-Industrie nur 12 bis 20 Prozent Frauen arbeiten. Im Jahr 2019 lag der Frauenanteil bei Informatik-Promotionen in den USA bei 20 Prozent, in Deutschland bei 16 Prozent. Dieses Missverhältnis schlägt sich inhaltlich nieder.

Kunst des cleveren Prompts

Natürlich kann man durch gezielte Prompts viele Voreinstellungen umgehen. Die Kunst besteht aus einem möglichst cleveren, oft komlexen Prompt. Aber nicht alle merken, dass es hier eine Schieflage gibt und nicht alle haben den Nerv dafür, wenn es eilt und als Ergebnis ein mittelgutes Bild auch reicht.

Eine Initiative aus den Niederlanden versucht der Männerdominanz mit einem eigenen Tool entgegenzuwirken. „Missjourney“ ist ein Bildgenerator, der nur Frauenbilder erzeugt, egal welche Features man eingibt. Allerdings ist die Plattform eher ein symbolisches Werkzeug, sie kann mit ihrer Ausstattung an andere Anbieter nicht heranreichen. Sie soll vor allem Bewusstsein schaffen.

Wenn wir nicht wollen, dass sich Bilder, von denen wir dachten, wir hätten sie bereits überwunden, in gewaltiger Menge reproduzieren, verfestigen und potenzieren, müssen wir versuchen, die Tech-Firmen zu beeinflussen. Wir müssen sie unermüdlich darauf hinweisen, wie sexistisch und rassistisch ihre Parameter sind. Dafür müssen wir viele sein und Lösungsvorschläge parat haben. Eine gesetzliche Regelung ist in naher Zukunft nicht zu erwarten. Es bleibt wohl nur, ihnen auf die Nerven gehen.

Eva Häberle ist seit 25 Jahren freischaffende Fotografin.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

29 Kommentare

 / 
  • KI bastelt sich ihre Bilder aus den Datenmengen im Netz. Sie selbst hat keine Meinung o.ä.

    Es liegt an uns Frauen, im Netz präsent zu sein und damit die Daten zu verändern. Wird eine ganze Weile dauern, aber jammern hilft definitiv nicht.

    PS: Warum lässt sich jemand Bilder von KI basteln? Die Realität liefert doch viel bessere Bilder aus dem wirklichen Leben. Dazu muss man allerdings vor die Tür gehen...

  • Ich dachte eine KI klaubt auch nur das aus zig Trilliarden Einträgen aus dem dem Netz zusammen was sie dort vorfindet. Evtl.nachbehandelt durch Billigstkräfte des Homo Sapiens. Insofern spräche das Resultat schon für sich.

  • Die KI wird von reproduktionszentrierten, weißen (und gelben) Männern um die 35 gefüttert.

    Wundert mich das Lara Croft mit Cupgröße Doppel D nicht zu sehen ist bei der "Frau" Eingabe.

    KI ist männergemacht, zerstörerisch und menschenfeindlich.

    Lösungsvorschlag: Abschalten!

    • @Goldi:

      Niemand wird sich die Mühe machen, eine KI "von Hand" zu füttern. Das übernimmt völlig geschlechtsblinde Crawler -Software, die einfach aufsaugt, was sie im Netz so findet. Also befüttert die KI wer das Netz befüttert. Dass ist sicher NICHT ausschließlich das von Ihnen genannte Segment. Und sollten die ein Übergewicht haben und das jemanden stören, dann ist das nicht deren Schuld, sondern einfach ein Resultat unterschiedlich stärken Interesses gegenüber anderen Usersegmenten.

      Als logische Reaktion bleibt am Ende, was @Warum_denkt_keiner_nach? weiter oben nüchtern vorschlägt: Selber präsent sein, eigene Inhalte hochladen. Das wäre natürlich nicht so einfach und das Mütchen kühlend autoritär wie Verdammen und Abschalten, aber am Ende wohl die realistischere Variante. KI-Technik ist kein Geist, den irgendeine Gedankenpolizei einfach wieder in die Flasche stecken kann.

  • Schon mitgekriegt, dass Google schon vor Jahren beschlossen hat, dass Ethik bei KI eher stört? Timnit Gebru war der Name, falls sich jemand nicht mehr erinnert.



    Tja, und wenn dieser Aspekt nicht nur gering geschätzt sondern gleich komplett eliminiert wird, kommt man mit Wünsch-Dir-Was nicht mehr weiter.



    Face facts: das sind nicht die Bilder, die "wir überwunden" haben. Das sind genau die Bilder, die die überwiegende Mehrheit zu sehen wünscht. Wenn das ein paar woke Minderheiten nicht so toll finden, ist das so vollständig uninteressant dass es noch nicht mal egal ist.

    • @Brobdignag:

      "...kommt man mit Wünsch-Dir-Was nicht mehr weiter."

      Das ist doch das große Missverständnis: NATÜRLICH kommt man mit Wünsch-Dir-Was weiter. Man muss den Wunsch nur - im Prompt - ÄUSSERN.

      Aber das ist natürlich für die woken Tugendwächter schon wieder ein Stück Arbeit, bzw. Eigenverantwortung zuviel, bzw. ein Stück politisch korrekte Vergewohltätigung zu wenig: Der Pöbel muss das "richtige" Ergebnis automatisch vorgesetzt bekommen - auch wenn er es sich NICHT wünscht.

  • Shit in - shit out: der Computer ist nur so schlau wie die Leute, die ihn mit Daten gefüttert haben. KI ist nur Statistik. Nicht KI ist wichtig, wichtig ist, wer wie woher die KI mit Daten anlernt.



    Öfter mal einen leeren Computer neu befüllen. Dann bekommt man, was man eingegeben hat.

  • "Man hätte dem entgegenwirken können, aber so wie es scheint, fehlt es an Bewusstsein."

    Genau dieser Satz hätte vielleicht etwas mehr Wortreichtum verdient gegabt: WIE hätte man dem entgegenwirken können??

    Ich - kompletter Laie - verstehe heutige KI als eine bemerkenswert lernfähige Software, die aber nichtsdestotrotz nichts weiter macht, als statistisch auszuwerten, was anhand des status quo der für sie zugänglichen Datenbasis die am wahrscheinlichsten gewünschte Antwort auf den Prompt ist. Das ist das Prinzip, und es basiert auf dem möglichst ungefilterten Zugriff auf möglichst viele Daten - die notwendigerweise zum weit überwiegenden Teil aus der Vergangenheit stammen. Erst so entsteht Repräsentativität und damit die hohe Trefferquote.

    In dieses Prinzip so einzugreifen, dass es die Wünsche des Prompters quasi nach vorne extrapoliert, könnte es überfordern oder es außer Kontrolle geraten - "rumspinnen" - lassen. Umgekehrt würde z. B. jede Vorgabe verbindlicher gesellschaftspolutisch gewollter Prämissen sie nur eindämmen.

    Also wäre ich wirklich interessiert, wie das gehen soll.

    • @Normalo:

      Es gibt da Möglichkeiten. Hier ein Paper von Angelica Lim (Simon Fraser University, Vancouver). Das Problem an voreingenommener KI sind mangelhafte Daten. Hier wird versucht, das Problem damit anzugehen, möglichst diverse Trainingsdaten automatisch generieren zu lassen.

      arxiv.org/abs/2208.07472

      • @Der eindimensionale Mensch:

        Das wäre genau das Füttern mit politisch gewollten Prämissen, das die KI letztlich nur einschränkt. Und die ungefilterte (ok - virtuelle) Realität als "mangelhafte Daten" zu bezeichnen, hat schon fast etwas Trumpeskes.

      • @Der eindimensionale Mensch:

        "Hier wird versucht, das Problem damit anzugehen, möglichst diverse Trainingsdaten automatisch generieren zu lassen."

        Schafft man damit aber nicht auch eine künstliche Realität, die die Wirklichkeit nicht abbildet? Nur unter anderen Vorzeichen?

    • @Normalo:

      Stimmt. Für noch problematischer halte ich, dass sogenannte Fake-News verstärkt werden können. Da es allein nach Wahrscheinlichkeit geht, können Fake-News, wenn sie denn in der Mehrheit gepostet wurden, als richtig erkannt werden. Nehmen wir einfach zwei Sätze: "Impfen schützt" und "Impfen führt zu massiven Impfschäden". Lässt man jetzt die KI beantworten, ob impfen hilft, wird sie rein statistisch bewerten. (Ja, ich weiß hat erst Mal nichts mit dem Bildgenerator zu tun, ist aber das gleiche Problem).

      Vermutlich wird es Mechanismen geben, um kopierte Antworten weniger zu gewichten. Aber so ganz einfach, wie: Bitte achte bei Frauen immer darauf, dass diese von 0 bis 100 Jahren berücksichtigt werden, wird dann dazu führen, dass man, wenn man Kindergartenkinder sucht plötzlich 80 jährige Frauen angezeigt bekommt. Ob dies Beeinflussung wünschenswert wäre (selbst wenn es einfach ginge), kann ich adhoc nicht einmal beantworten. Denn dann kann man natürlich auch politische Meinungen, etc. beeinflussen.

  • Alphonse Mucha lässt grüßen. Das alles ist Jugendstilkitsch pur. Die künstliche Intelligenz ist offenbar auf dem Stand von 1895.

  • Dazu brauche ich keine KI: Sandro Botticelli - „Die Geburt der Venus“ gemalt im Jahr: 1485/86

    • @A.S.:

      Wir brauchen eine rote Linie.

  • Genauso produziert KI ein falsches Bild vom alt werden. Bei den sogenannten KI-Künstlern sind gerade vitale, glückliche, hippe, alte Oberschichtsmenschen mit bunten verrückten Designerklamotten angesagt. In Zeiten zunehmender Altersarmut meilenweit von der Realität entfernt.

    • @Andreas J:

      Die aktuelle Rentnergeneration ist die reichste aller Zeiten und verfügt bei Berücksichtigung von Vermögen über ein deutlich höheres Durchschnittseinkommen als die arbeitende Bevölkerung. Die Mehrheit aller weltweiten Millionäre sind im Rentenalter. In den USA ist das sogar noch viel krasser. Die richtige flächendeckende Altersarmut kommt erst wenn unsere Generation in Rente geht.

      • @Šarru-kīnu:

        Zum einem habe ich von zunehmend geschrieben und zum anderen sind das immer Durchschnittswerte die über die Verteilung nichts aussagen. Nur weil einige Rentner Millionäre sind, geht es allen nicht gleich gut. Natürlich wird das noch zunehmen. Ich als Jahrgang 63 müsste theoretisch ordentlich was auf dem Konto haben. In der Realität muss ich aber als kreativer Freiberufler solange weiter arbeiten wie der Körper/Geist mitmacht um über die Runden zu kommen.

        • @Andreas J:

          Stimme komplett zu.

        • @Andreas J:

          Wären Sie im MINT-Bereuch tätig sähe das anders aus. Augen auf bei der Berufswahl. Berufswahl hat auch etwas von "Geld oder Liebe".

          • @Nachtsonne:

            Ich gehöre nun mal zu den Menschen die keinerlei Begabung und somit auch keinerlei Interesse für den MINT-Bereich haben, genauso wie andere null künstlerisch kreativ sind. Das hat weniger mit Augen auf sondern mit den eigenen Fähigkeiten und Talenten zu tun. Ohne uns Kreative oder Kulturschaffende währe die Welt auch für MIND-Berufler ziemlich öde.

  • Das ist der typische Verstärkungseffekt. Man muss sich immer klarmachen, dass KI stets das durchschnittliche Mittelmaß abbildet, oder genauer, dessen Gedanken- und Vorstellungswelt. Das durchschnittliche Mittelmaß der in Amerika herrschenden, in aller Regel weißen Männer stellt sich eben sowas vor, wenn es an "Frau" denkt.

  • Natürlich muss auf die geschilderten Probleme hinweisen. Aber die Ursache ist ja auch benannt. Die KI lernt anhand ihrer Datengrundlage. Dabei reproduziert sie und verstärkt wahrscheinlich auch vorhandene Tendenzen. Da aktiv einzugreifen dürfte deutlich komplexer sein als dem Apparat einfach einen riesigen Datensatz zum Lernen hinzulegen.

    • @LeSti:

      Genau dieser riesige Datensatz ist ja das Problem: Die Schreiberlinge dieser KI-Tools haben sicher keine eigenen Bilder gemacht dafür. Die haben übernommen, was in den Medien bereits vorhanden war, und dafür auch nicht groß gefiltert. Und diese Medien wiederum sind mit dem gefüllt, was für die Fotografen und Redakteure jeweils relevant für das jeweilige Thema war. Die hochsexualisierte Krankenschwester, der muskelbepackte KFZ-Mechaniker, der ein coffeinhaltiges Kaltgetränk runterstürzt, der weise alte Mann, allesamt natürlich so weiß wie möglich.



      Die Bilder der Selbstdarsteller und Selbstoptimierer in den sozialen Netzwerken dürften auch keinen guten Querschnitt durch die Gesellschaft ergeben.

      Der Programmierer nennt das, was da mit den KIs gemacht wurde:



      Garbage In, Garbage Out.

      • @Tetra Mint:

        Das sind die Bilder, die Zeitungen und Redaktionen in der wirklichen Welt tatsächlich verwenden, nicht die von denen sie als Virtue Signalling herumerzählen. Die KI liefert das, was tatsächlich gewünscht und gebraucht wird, nicht das, von dem Idealisten hoffen, daß es gewünscht werden möge. Die Technik ist nicht das Problem, sie zeigt es nur.

        • @Axel Berger:

          Und sie zeigt es ziemlich destilliert, würde ich sagen.

  • Das kann ich sogar für eine Tätigkeit bestätigen, die in der übergroßen Mehrzahl von Frauen ausgeübt wird: Dolmetschen. Interpreter ist auf EN geschlechtsneutral; im Deutschen gibt es immerhin Möglichkeit der geschlechtlichen Kennung ... lasse ich die weg, sind auch bei deutsch geschriebenen Prompts die meisten virtuellen Kolleg:innen Männer.



    Das hängt vielleicht auch mit der öffentlichen Wahrnehmung bzw. dem erkennbaren Geschlecht auf den seltenen Fotos zusammen, auf denen Dolmetschende zu sehen sind. Nach zwei Jahrzehnten Beobachtung im Beruf ist der Anteil der Männer unter den Festangestellten in Wirtschaft, Politik und Diplomatie sehr hoch, in manchen Bereichen bis zu 50, in anderen, kleinen Teams gerne auch mal 100 Prozent. (Und leider entscheiden sich auch weibliche und überwiegend weibliche Entscheidergremien sehr viel öfter für einen Mann, als dies statistisch ausgewogen wäre.)



    In der Freiberuflerwelt gehe ich geschätzt von fünf bis zehn Prozent männlichen Dolmetschern aus.



    Hier funkt immer noch das Bild des "Ernährers" rein — und vom Mann als dem "echtem" Spezialisten ...



    Auf diplomatischem Parkett gibt es nur eine Gruppe, die die noch einsamer ist ist als wir Dolmetscherinnen: hochrangige Diplomatinnen.

  • Eine KI hat keine Vorstellung von Frau und Mann, von jung und alt, und von reich und arm. Sie lernt im Training, das abzuliefern was "gut" oder "richtig" ist und zu vermeiden, was "falsch" oder "schlecht" ist. Einen Unterschied gibt es aber. Das, was die KI für richtig hält, ist das, was sie abliefert. Sie zeigt immer ihre tatsächliche Wahl, die heute so dominante politisch korrekte Heuchelei ist ihr fremd. Damit führt sie klar vor Augen, was die Erzeuger der veröffentlichten Meinung im Inneren wirklich denken.

    • @Axel Berger:

      "Sie zeigt immer ihre tatsächliche Wahl, die heute so dominante politisch korrekte Heuchelei ist ihr fremd."

      Das wurde ja im obigen Artikel nun hinlänglich widerlegt - die Autorin hat den von den KIs ausgegebenen Geschlechterverhältnissen die tatsächlichen gegenübergestellt.

      Was die KI wiedergibt ist das Datenmaterial, mit dem sie trainiert wurde. Sie ist ein Spiegel der Medienwelt, nicht der Wirklichkeit. Im Übrigen, da wo diese Medienwelt politisch korrekt heuchelt, tut es die KI genau so.