Diskriminierung in Videochats: Eine KI ist auch nur ein Mensch
Die Klangfilter von „Zoom“ und Co lassen Stimmen von Frauen weniger ausdrucksstark erscheinen – und bewirken eine strukturelle Benachteiligung.
Die Stimmen von Frauen werden in Onlinegesprächen benachteiligt, haben Fortscher*innen herausgefunden. Meldungen wie diese bringen das Bild „nüchterner“ Technologie zum Bröckeln. Doch wenn digitale Anwendungen diskriminieren, liegt das meist an den Menschen, die sie entwickeln.
Empfohlener externer Inhalt
Das Arbeitsmeeting mit den Kolleg*innen via „Teams“, das Universitätsseminar via „Zoom“ oder die Vereinssitzung via „Skype“: In der Coronapandemie sind Videokonferenzen für viele Menschen alltäglich geworden. Umso gewichtiger sind die Erkenntnisse einer kürzlich veröffentlichten Studie der Universität Magdeburg.
In Zusammenarbeit mit der dänischen Universität Sønderborg fanden Wissenschaftler*innen heraus, dass Frauen wegen der Stimmverarbeitung in Onlinegesprächen benachteiligt sind. Nicht alle Anteile der Sprache werden übertragen, gerade höhere Frequenzen werden ausgedünnt, heißt es dort. In der Konsequenz werden weibliche Redebeiträge als weniger ausdrucksstark, kompetent und charismatisch wahrgenommen.
„An der Entwicklung von Informationstechnik sind nun mal vor allem Männer beteiligt. Im Jahr 2018 waren beispielsweise im deutschen IT-Bereich nur knapp 17 Prozent aller Angestellten Frauen“, erklärt Lisa Hanstein und bezieht sich dabei auf eine Untersuchung der auf Tech-Jobs spezialisierten Plattform „Honeypot“. Sie arbeitet zum Einfluss unbewusster Vorurteile (auch engl. „biases“) auf die Entwicklung digitaler Anwendungen an der Europäischen Akademie für Frauen in Politik und Wirtschaft Berlin (EAF Berlin), einer Forschungs- und Beratungsorganisation, die sich für mehr Vielfalt in Führungsebenen in Wirtschaft, Politik und Wissenschaft einsetzt.
Der rassistische Seifenspender
Hanstein war selbst mehrere Jahre als Softwareentwicklerin bei SAP beschäftigt und ist sich der Homogenität der Branche bewusst. Weil Diversität in der Belegschaft fehlt, werden die Belange zahlreicher gesellschaftlicher Gruppen bei der Entwicklung neuer Anwendungen schlicht nicht mitgedacht. Dabei sind die Videochat-Tools nur ein Beispiel für diskriminierende digitale Anwendungen von vielen.
Besondere Aufmerksamkeit erlangten etwa automatische Seifenspender, deren Infrarot-Sensor nur die Hände von weißen Menschen erkennt, nicht aber die von Schwarzen. Ein mehrere Millionen Mal geklicktes Video, in dem ein Schwarzer Mann demonstriert, dass besagte Technologie zwar nicht auf seine Hand, dafür aber ein weißes Papierhandtuch reagiert, führt die teils absurden Auswirkungen des Problems vor Augen.
Hinzu komme, dass die Diskriminierung durch eine algorithmische Voreingenommenheit (auch engl. „Algorithmic Bias“) nicht selten intersektional wirke, wie Hanstein betont: „Wenn wir Gesichtserkennungsmodule nur mit Bildern von weißen Männern trainieren, sind diese Module nun mal sehr gut im Erkennen von weißen Männern, nicht aber von Schwarzen Frauen, beispielsweise.“
Auch wenn beides nicht voneinander zu trennen ist: Es spiele sowohl eine Rolle, welche Daten einer künstlichen Intelligenz für ihre Fortentwicklung zur Verfügung stehen als auch, wer mit welchen unbewussten Denkmustern an der Entwicklung digitaler Anwendungen mitarbeitet. „IT gilt als sehr rational. Dabei vergessen wir, dass sie von Menschen hergestellt wird und diese Menschen in Stereotypen denken, oft ohne böses Zutun oder Absicht. Technik ist wie ein Spiegel der Gesellschaft, der schlicht wiedergibt, was wir als Individuen mitbringen.“
Diskriminierender Algorithmus
Beispiele wie diese illustrieren die Problematik, bilden jedoch noch nicht ihre enorme gesellschaftliche Tragweite ab, die sensiblen Bereiche, die sie tangiert. Eine Studie der Antidiskriminierungsstelle des Bundes aus dem Jahr 2019 umfasst ähnliche Sachverhalte im Gesundheitsbereich, im Kreditwesen oder bei staatlichen Sozialleistungen. Österreich etwa streitet schon seit mehreren Jahren über einen Algorithmus, der die Jobchancen von Arbeitslosen vorhersagen und sie für entsprechende Schulungen den Mitarbeiter*innen des Arbeitsmarktservice (AMS) vorschlagen soll – oder eben nicht.
Weil das System mit bestehenden Daten gefüttert wird, wird Frauen aufgrund schlechterer Jobchancen automatisch ein Punkt abgezogen, ein weiterer, wenn sie Kinder haben. Daraufhin folgt die Einteilung in hohe, mittlere oder niedrige Chancen auf Wiedereingliederung – blind für bereits bestehende Diskriminierung von Frauen am Arbeitsmarkt, die durch den Algorithmus verfestigt wird. Es scheint ein Grundproblem künstlicher Intelligenz zu sein: Ihr Wissen basiert auf dem Status quo der aktuellen Missstände, die sie reproduziert – oder potenziert.
In Deutschland könnte das Onlinezugangsgesetz, wonach ab Ende 2022 die Verwaltungsdienstleistungen von Bund und Ländern online angeboten werden sollen, zu einem ähnlichen Prüfstein werden. Dabei geht es um fast 600 Leistungen, von Führerscheinbeantragung über Namensänderungen und Eheschließungen bis hin zur Einbürgerung, die digitalisiert werden sollen.
„Es sind teilweise kritische Dinge, über die entschieden werden soll und die Tragweite ist ungleich größer: Bei einer diskriminierenden Einzelentscheidung einer Person gegenüber einer anderen, gibt es immerhin eine gewisse Transparenz. Die Entscheidung eines ganzen IT-Systems betrifft im Gegensatz dazu viel mehr Menschen – und sie ist wesentlich weniger sichtbar. Die betroffene Person kann den Vorgang nicht richtig nachvollziehen, weil die Funktionsweise der Anwendung undurchsichtig ist“, so Hanstein.
Die Chancen von KI
Die EU-Kommission hat Ende April einen KI-Gesetzesvorschlag vorgelegt, um derartig große Herausforderungen genauer zu regeln. Darin ist ein generelles Verbot von Massenüberwachung oder Manipulation der Bürger*innen vorgesehen, womit einem „Social Scoring“ nach chinesischem Vorbild vorgebeugt werden soll, das bestimmtes Verhalten mit Vorteilen im Alltag belohnt oder mit zusätzlichen Hürden, etwa höheren Steuern oder Reisebeschränkungen, bestraft.
„Hochrisiko“-Anwendungen, etwa im Bereich der Polizei und im juristischen Kontext, die sensible Infrastruktur betreffen und solche, die Bewerber*innen für einen Job auswählen, sollen in ihrer Entwicklung wiederum gemeinsam mit den verwendeten Daten und ihrer Nutzung dokumentiert, transparent gemacht und von Menschen überwacht werden.
Das geplante System des AMS in Österreich fiele vermutlich in diese Kategorie. Der Gesetzgebungsprozess, in dem sowohl das EU-Parlament als auch die Mitgliedstaaten im Rat dem Entwurf zustimmen müssen, kann bis zu zwei Jahre dauern Bei aller Dringlichkeit, ein Bewusstsein für das Diskriminierungspotenzial von Algorithmen zu schaffen und an den menschlichen Stellschrauben zu drehen, die letztlich dafür verantwortlich sind, betont Hanstein die Bedeutung von künstlicher Intelligenz, die Chancen, die sie im Alltag und der Arbeitswelt eröffnet.
„Sie kann Zusammenhänge erkennen, die wir gar nicht wahrnehmen würden. Der sehr große Vorteil ist: IT-Systeme werden nicht müde, sie haben keinen sinkenden Blutzuckerspiegel und keine Launen. Wir können sie genauso gut dafür einsetzen, bestehende Diskriminierung sichtbar zu machen und fairere Prozesse zu ermöglichen.“
Hassrede identifizieren
Als Beispiel für eine KI, die gesellschaftlichen Problemen ausdrücklich entgegenwirken könnte, nennt sie das Projekt „Decoding Antisemitism“. Die Alfred Landecker Foundation arbeitet unter anderem mit der Technischen Universität Berlin und dem King’s College London an einer Open-Source-Lösung, die implizite Hassrede, beispielsweise in Form von verunglimpfenden Stereotypen oder Verschwörungsmythen in den sozialen Medien, ausfindig machen soll.
Großes Potenzial bergen auch Anwendungen, die die Sprache in Stellenausschreibungen glätten, um sie für Frauen, die ihre eigenen Kompetenzen oftmals unterschätzten und von einer Bewerbung zurückschreckten, attraktiver zu machen, und so einem „Gender Bias“ entgegenwirken. Ob progressive, aber vergleichsweise kleine Initiativen wie diese gegenüber dem Einfluss der „Big Player“ wie der KI in der Google-Suche und dem undurchsichtigen Facebook-Algorithmus etwas entgegensetzen können, ist fraglich.
Doch Hanstein ist sich sicher, dass in der Branche allmählich ein Problembewusstsein einkehrt. Eine Übersetzung in gute Standards und Prozesse gebe es in der Arbeitsrealität derer, die an der Entwicklung digitaler Anwendungen beteiligt sind, allerdings noch nicht.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Proteste bei Nan Goldin
Logiken des Boykotts
Rekrutierung im Krieg gegen Russland
Von der Straße weg
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Schwedens Energiepolitik
Blind für die Gefahren