piwik no script img

die dritte meinungKünstliche Intelligenz hat ein Sexismusproblem, sagt Alexandra Geese

Alexandra Geese

arbeitet als Dolmetscherin im Europäischen Parlament und kandidiert bei der kommenden Europawahl für Bündnis 90/Die Grünen.

Können Algorithmen sexistisch sein? Eigentlich sind sie mathematische Regeln und als solche geschlechtsneutral. Aber: Algorithmen verknüpfen Informationen, die Entwickler*innen für sie auswählen. Einige Beispiele: 60 Prozent der Medizinstudierenden und 46 Prozent der Ärzt*innen in Deutschland sind Frauen. Wer aber den neutralen Begriff „doctor“ in Google Translate eingibt, bekommt auf Deutsch einen männlichen „Arzt“ übersetzt. Gleiches gilt bei Journalisten, Psychologen und Geschäftsführern. Jahrelang diskriminierte auch das Karrierenetzwerk XING Frauen. Bei der Suche nach Journalisten oder Grafikern wurden nur Männer angezeigt – „mitgemeinte“ Frauen blieben außen vor. In der Google-Bildersuche tauchen zum Stichwort „Mensch“ unter den Top-Suchergebnissen ausschließlich weiße Männer und geschlechtsneutrale Strichmännchen auf. Auch mit solchen Datensätzen wird künstliche Intelligenz trainiert.

Diese Programme bilden bestehende Unterschiede nicht nur ab, sondern verschärfen sie. Angesichts der unzähligen gesellschaftlich sensiblen Einsatzbereiche solcher Programme in der Zukunft müssen wir sicherstellen, dass künstliche Intelligenz Diskriminierung nicht massiv verschärft. Wie lässt sich das Problem lösen?

Erstens müssen Anbieter die aktuellen Missverhältnisse beim Design ihrer Programme mitdenken. Zweitens müssen Unternehmen den Frauenanteil in der Tech-Branche steigern – auch über eine Frauenquote. Drittens muss eine Sensibilisierung für Gender- und Rassismusfragen im Informatikstudium verankert werden. Viertens kann Forschung eine wichtige Rolle bei der Erarbeitung diskriminierungsfreier Daten­sätze und beim Testen von Programmen auf Diskriminierungsfreiheit spielen. Und fünftens muss eine paritätisch besetzte europäische Algorithmenaufsicht eingerichtet werden, die Algorithmen auf Diskriminierungsfreiheit prüft.

Hier liegt Europas Chance. Diskriminierungsfreie künstliche Intelligenz kann unser Alleinstellungsmerkmal werden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen