Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen

Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.

Portrait eines Krankenpflegers und einer Krankenschwester in ihrer Berufskleidung

Bei Google Translate wird „the nurse“ automatisch zur „Krankenschwester“ Foto: David Ryder/reuters

Wer bei Google Translate „the doctor“ eingibt, sieht im Feld nebenan als Übersetzung den Begriff „der Doktor“. „The nurse“ wird zur „Krankenschwester“. Dabei könnte es auch „die Ärztin“ und „der Krankenpfleger“ heißen, denn beide englische Begriffe sind an kein Geschlecht gebunden.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Dass maschinelle Übersetzungsdienste ihre Grenzen haben, was natürlich klingende Übertragungen in eine Zielsprache angeht, haben die meisten von uns bereits selbst erfahren. Weniger bekannt sind die geschlechtsbezogenen Verzerrungseffekte der Programme – man spricht vom sogenannten Gender Bias.

Automatisierte Übersetzungen sind für viele Menschen mittlerweile alltäglich. Wir verwenden sie im Büro, auf Reisen oder in den sozialen Medien. Hat man im Gespräch einen wichtigen Begriff nicht parat oder versteht einen Post auf Facebook nicht, ist das Problem mit einem Klick gelöst. Dabei sollten wir uns jedoch bewusst machen: Maschinelle Übersetzungen sind nicht so neutral, wie sie auf den ersten Blick wirken.

Am deutlichsten illustrieren lässt sich der Gender Bias an Sprachen, die nur ein Pronomen für alle Geschlechter kennen, wie etwa das Finnische. Der Satz „Hän on opettaja“ könnte gleichermaßen „Sie ist Lehrerin“ oder „Er ist Lehrer“ heißen. Die Übersetzungsmaschine hat also zwei Möglichkeiten: Entweder bietet sie beide Optionen als Übersetzung an oder sie entscheidet sich für ein Geschlecht. Aus unserem Beispiel macht sowohl Google als auch das Kölner Unternehmen DeepL, dessen Übersetzungen häufig besser als bei der Konkurrenz funktionieren: „Er ist Lehrer“. Bei einer Aussage über eine Person, die im Kindergarten arbeitet, erscheint hingegen der Satz: „Sie ist Kindergärtnerin.“

Vorurteile werden ständig reproduziert

Was hier geschieht: Die Übersetzungsmaschine spiegelt gesellschaftliche Vorurteile wider. Und das rührt von den Texten her, auf deren Grundlage die Übersetzungen erstellt werden. Automatisierte Systeme basieren auf Daten. Im Falle von Übersetzungen sind das Datenbanken, die Textpaare aus je zwei Sprachen enthalten. Doch Daten sind keine neutralen Informationen aus dem luftleeren Raum. Welche Bilder, Klischees oder Verzerrungen sie enthalten, bestimmt, wie ein Textstück übersetzt wird.

Stichproben zeigen, dass der Gender Bias weit über Berufsklischees hinausgeht. Auch Adjektive werden Subjekten entsprechend gängiger Vorurteile zugewiesen. Beginnen wir erneut einen finnischen Satz mit „Hän on“ und ergänzen Adjektive wie stark, muskulös oder intelligent, bezieht sich der Satz in der Übersetzung bei Google Translate auf eine männliche Person – herauskommt etwa: „Er ist stark.“ Wählt man jedoch Adjektive wie schön oder kinderlieb, wird die Übersetzung weiblich. Dies lässt sich damit erklären, dass das Programm in seinem Lernprozess Wörter in einen Zusammenhang stellt, die in den zugrundeliegenden Texten häufig nahe beieinander stehen. Vorurteile werden so durch die Übersetzungen ständig reproduziert.

Doch nicht immer basiert die Verzerrung allein auf den zugrundeliegenden Paralleltexten. Zusätzlich ins Gewicht fällt, dass für viele seltenere Sprachpaare nicht genügend Referenztexte vorliegen und deshalb ein Umweg über eine dritte Sprache genommen wird: Die Ausgangssprache wird zunächst in die Brückensprache übersetzt und von dort aus weiter in die Zielsprache.

Das weltweite Vorherrschen der englischen Sprache lässt diese zur Brückensprache der Wahl werden. Doch da sich im Englischen viele Begriffe nicht auf ein bestimmtes Geschlecht beziehen, können auf dem Umweg Inhalte verlorengehen. Spricht der Ausgangssatz beispielsweise von einer Ärztin, welche im Englischen zum neutralen Begriff „doctor“ wird, ergibt sich daraus im Zielsatz vermutlich aufgrund der zugrundeliegenden Textkorpora ein „Arzt“. So kann die Fixierung auf die englische Sprache als Standard Übersetzungen verzerren.

Wie wichtig sind Identität und Erfahrung?

Doch bei bloßen Verzerrungen bleibt es nicht. Nehmen wir den deutschen Satz: „Zwei Ärztinnen und zwei Ärzte treffen sich.“ Da sowohl Ärztinnen als auch Ärzte im Englischen unter „doctors“ laufen, nimmt der Übersetzungsdienst eine versehentliche Doppelung an. So wird aus dem Ausgangssatz nicht etwa „Two doctors and two doctors meet“, sondern schlichtweg „Two doctors meet“. Übrig bleiben also nicht vier medizinische Fachkräfte, sondern nur mehr zwei.

Das gleiche falsche Ergebnis erhält man etwa auch bei einer Übersetzung ins Spanische, obwohl hier ein weiblicher Begriff existiert. Im Gegensatz zu Google Translate generiert DeepL allerdings einen Satz mit explizit genannten weiblichen und männlichen Subjekten: „Two female doctors and two male doctors meet.“

Dass die Übertragung von Texten kein neutrales, gänzlich unpolitisches Terrain ist, fällt nicht nur bei maschinellen Übersetzungen auf, sondern war auch Thema kritischer Berichterstattung im Fall des Gedichts der amerikanischen Lyrikerin Amanda Gorman. Nicht nur in Deutschland wurde die Frage gestellt, wer geeignet sei, das Werk der Schwarzen Autorin ins Deutsche zu übertragen und wie wichtig bei der Auswahl Identität und Erfahrung der übersetzenden Person sein sollten.

Die Erfahrung einer Übersetzungsmaschine basiert auf dem, was ihr beigebracht – in sie eingespeist – wurde. Und so tritt nicht nur ein Gender Bias zu Tage, sondern auch andere Machtdimensionen lassen sich ausmachen. Mit dem Begriff „beurette“ werden in Frankreich Frauen bezeichnet, deren familiäre Geschichte man in Nordafrika verortet. Das Wort kann Beleidigung sein, wird aber teils auch von Ak­ti­vis­t:in­nen als Selbstbezeichnung verwendet.

Besonders weitverbreitet ist es allerdings in der Pornoindustrie, wo exotisierende Fantasien über „Araberinnen“ bedient werden sollen. Wie AlgorithmWatch herausfand, kommt der Begriff in den Textkorpora des umfangreichen Datensets ParaCrawl in insgesamt 228 Sätzen vor – 222 davon stammen offenbar von Porno-Websites. Die Maschine lernt also Begriffe in einem Kontext kolonialer, sexistisch-rassistischer Narrative.

Die Datengrundlage

Doch an genau diesem Kontext orientiert sich das Programm, wenn es seine Worte und Kombinationen wählt. Ein Ansatz, den Gender Bias zu reduzieren, ist daher For­sche­r:in­nen zufolge, die Kategorie Gender als Metadaten ins System mit einzuspeisen.

Für eine Studie wurden dafür Sätze in einer großen Textdatenbank durch das jeweilige Geschlecht der Sprechenden ergänzt, was für einige Sprachenpaare zu akkurateren Übersetzungen führte. Auch andere technische Lösungen sind denkbar, etwa eine Duplizierung von Sätzen: Hier werden in den Textdaten zum Beispiel männlich konnotierte Sätze durch den jeweils gleichen Satz in weiblicher Form ergänzt, um die Verzerrung hin zum männlichen Geschlecht auszugleichen. Und nicht zuletzt kommt es auch auf die Auswahl der Datensets selbst an: Diese sind zwar groß, aber niemand überprüft, wie realistisch sie unsere Gesellschaft darstellen. Außerdem bleibt die Frage offen, wie sich die Systeme für andere Geschlechtsidentitäten als männlich und weiblich öffnen ließen.

Einige Verbesserungsmöglichkeiten werden von den Konzernen hinter den Übersetzungsprogrammen bereits erprobt, etwa die Anfertigung von Übersetzungen ohne die Verwendung von Brückensprachen. In einigen wenigen Fällen spucken Programme bei neutralen Begriffen auch heute schon eine weibliche und eine männliche Form aus. Allerdings können selbst kleinste Anpassungen im Ausgangstext – etwa die Verwendung eines Artikels oder Großschreibung – das Ergebnis verändern. Das macht deutlich, wie fehleranfällig die Systeme aktuell noch sind. Aber sollten wir überhaupt in die Abläufe eingreifen? Spiegeln die Übersetzungen nicht schlichtweg die realen Verhältnisse der Welt mit all ihren Ungerechtigkeiten wider?

Nein, denn die genutzten Daten sind zum einen häufig veraltet, zum anderen durch eine Überrepräsentation an Männlichkeit verzerrt. So entstehen neben Ergebnissen, die Vorurteile potenzieren auch schlicht falsche Übersetzungen. Deshalb braucht es für weitreichendere Entschärfungen des Gender Bias in Übersetzungsprogrammen nicht nur Computerspezialist:innen, sondern auch eine engere Zusammenarbeit mit Ex­per­t:in­nen aus anderen Disziplinen wie den Gender Studies. Wenn Übersetzungsmaschinen als vorurteilsfreie Sprachendienstleister auftreten wollen, muss die männlich-weiße Norm in ihren Daten entmachtet werden.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Ein Kopfhörer - das Symbol der Podcasts der taz

NEUE PODCASTS: Couchreport – der Podcast für Gesellschaft, Popkultur und Medien. Der Bundes-Talk zur Bundestagswahl aus dem Parlamentsbüro der taz. Entdecken Sie dazu weitere Podcasts der taz.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben