Gender Bias bei Übersetzungsoftware: Treffen sich zwei Ärztinnen
Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.
Wer bei Google Translate „the doctor“ eingibt, sieht im Feld nebenan als Übersetzung den Begriff „der Doktor“. „The nurse“ wird zur „Krankenschwester“. Dabei könnte es auch „die Ärztin“ und „der Krankenpfleger“ heißen, denn beide englische Begriffe sind an kein Geschlecht gebunden.
Empfohlener externer Inhalt
Dass maschinelle Übersetzungsdienste ihre Grenzen haben, was natürlich klingende Übertragungen in eine Zielsprache angeht, haben die meisten von uns bereits selbst erfahren. Weniger bekannt sind die geschlechtsbezogenen Verzerrungseffekte der Programme – man spricht vom sogenannten Gender Bias.
Automatisierte Übersetzungen sind für viele Menschen mittlerweile alltäglich. Wir verwenden sie im Büro, auf Reisen oder in den sozialen Medien. Hat man im Gespräch einen wichtigen Begriff nicht parat oder versteht einen Post auf Facebook nicht, ist das Problem mit einem Klick gelöst. Dabei sollten wir uns jedoch bewusst machen: Maschinelle Übersetzungen sind nicht so neutral, wie sie auf den ersten Blick wirken.
Am deutlichsten illustrieren lässt sich der Gender Bias an Sprachen, die nur ein Pronomen für alle Geschlechter kennen, wie etwa das Finnische. Der Satz „Hän on opettaja“ könnte gleichermaßen „Sie ist Lehrerin“ oder „Er ist Lehrer“ heißen. Die Übersetzungsmaschine hat also zwei Möglichkeiten: Entweder bietet sie beide Optionen als Übersetzung an oder sie entscheidet sich für ein Geschlecht. Aus unserem Beispiel macht sowohl Google als auch das Kölner Unternehmen DeepL, dessen Übersetzungen häufig besser als bei der Konkurrenz funktionieren: „Er ist Lehrer“. Bei einer Aussage über eine Person, die im Kindergarten arbeitet, erscheint hingegen der Satz: „Sie ist Kindergärtnerin.“
Vorurteile werden ständig reproduziert
Was hier geschieht: Die Übersetzungsmaschine spiegelt gesellschaftliche Vorurteile wider. Und das rührt von den Texten her, auf deren Grundlage die Übersetzungen erstellt werden. Automatisierte Systeme basieren auf Daten. Im Falle von Übersetzungen sind das Datenbanken, die Textpaare aus je zwei Sprachen enthalten. Doch Daten sind keine neutralen Informationen aus dem luftleeren Raum. Welche Bilder, Klischees oder Verzerrungen sie enthalten, bestimmt, wie ein Textstück übersetzt wird.
Stichproben zeigen, dass der Gender Bias weit über Berufsklischees hinausgeht. Auch Adjektive werden Subjekten entsprechend gängiger Vorurteile zugewiesen. Beginnen wir erneut einen finnischen Satz mit „Hän on“ und ergänzen Adjektive wie stark, muskulös oder intelligent, bezieht sich der Satz in der Übersetzung bei Google Translate auf eine männliche Person – herauskommt etwa: „Er ist stark.“ Wählt man jedoch Adjektive wie schön oder kinderlieb, wird die Übersetzung weiblich. Dies lässt sich damit erklären, dass das Programm in seinem Lernprozess Wörter in einen Zusammenhang stellt, die in den zugrundeliegenden Texten häufig nahe beieinander stehen. Vorurteile werden so durch die Übersetzungen ständig reproduziert.
Doch nicht immer basiert die Verzerrung allein auf den zugrundeliegenden Paralleltexten. Zusätzlich ins Gewicht fällt, dass für viele seltenere Sprachpaare nicht genügend Referenztexte vorliegen und deshalb ein Umweg über eine dritte Sprache genommen wird: Die Ausgangssprache wird zunächst in die Brückensprache übersetzt und von dort aus weiter in die Zielsprache.
Das weltweite Vorherrschen der englischen Sprache lässt diese zur Brückensprache der Wahl werden. Doch da sich im Englischen viele Begriffe nicht auf ein bestimmtes Geschlecht beziehen, können auf dem Umweg Inhalte verlorengehen. Spricht der Ausgangssatz beispielsweise von einer Ärztin, welche im Englischen zum neutralen Begriff „doctor“ wird, ergibt sich daraus im Zielsatz vermutlich aufgrund der zugrundeliegenden Textkorpora ein „Arzt“. So kann die Fixierung auf die englische Sprache als Standard Übersetzungen verzerren.
Wie wichtig sind Identität und Erfahrung?
Doch bei bloßen Verzerrungen bleibt es nicht. Nehmen wir den deutschen Satz: „Zwei Ärztinnen und zwei Ärzte treffen sich.“ Da sowohl Ärztinnen als auch Ärzte im Englischen unter „doctors“ laufen, nimmt der Übersetzungsdienst eine versehentliche Doppelung an. So wird aus dem Ausgangssatz nicht etwa „Two doctors and two doctors meet“, sondern schlichtweg „Two doctors meet“. Übrig bleiben also nicht vier medizinische Fachkräfte, sondern nur mehr zwei.
Das gleiche falsche Ergebnis erhält man etwa auch bei einer Übersetzung ins Spanische, obwohl hier ein weiblicher Begriff existiert. Im Gegensatz zu Google Translate generiert DeepL allerdings einen Satz mit explizit genannten weiblichen und männlichen Subjekten: „Two female doctors and two male doctors meet.“
Dass die Übertragung von Texten kein neutrales, gänzlich unpolitisches Terrain ist, fällt nicht nur bei maschinellen Übersetzungen auf, sondern war auch Thema kritischer Berichterstattung im Fall des Gedichts der amerikanischen Lyrikerin Amanda Gorman. Nicht nur in Deutschland wurde die Frage gestellt, wer geeignet sei, das Werk der Schwarzen Autorin ins Deutsche zu übertragen und wie wichtig bei der Auswahl Identität und Erfahrung der übersetzenden Person sein sollten.
Die Erfahrung einer Übersetzungsmaschine basiert auf dem, was ihr beigebracht – in sie eingespeist – wurde. Und so tritt nicht nur ein Gender Bias zu Tage, sondern auch andere Machtdimensionen lassen sich ausmachen. Mit dem Begriff „beurette“ werden in Frankreich Frauen bezeichnet, deren familiäre Geschichte man in Nordafrika verortet. Das Wort kann Beleidigung sein, wird aber teils auch von Aktivist:innen als Selbstbezeichnung verwendet.
Besonders weitverbreitet ist es allerdings in der Pornoindustrie, wo exotisierende Fantasien über „Araberinnen“ bedient werden sollen. Wie AlgorithmWatch herausfand, kommt der Begriff in den Textkorpora des umfangreichen Datensets ParaCrawl in insgesamt 228 Sätzen vor – 222 davon stammen offenbar von Porno-Websites. Die Maschine lernt also Begriffe in einem Kontext kolonialer, sexistisch-rassistischer Narrative.
Die Datengrundlage
Doch an genau diesem Kontext orientiert sich das Programm, wenn es seine Worte und Kombinationen wählt. Ein Ansatz, den Gender Bias zu reduzieren, ist daher Forscher:innen zufolge, die Kategorie Gender als Metadaten ins System mit einzuspeisen.
Für eine Studie wurden dafür Sätze in einer großen Textdatenbank durch das jeweilige Geschlecht der Sprechenden ergänzt, was für einige Sprachenpaare zu akkurateren Übersetzungen führte. Auch andere technische Lösungen sind denkbar, etwa eine Duplizierung von Sätzen: Hier werden in den Textdaten zum Beispiel männlich konnotierte Sätze durch den jeweils gleichen Satz in weiblicher Form ergänzt, um die Verzerrung hin zum männlichen Geschlecht auszugleichen. Und nicht zuletzt kommt es auch auf die Auswahl der Datensets selbst an: Diese sind zwar groß, aber niemand überprüft, wie realistisch sie unsere Gesellschaft darstellen. Außerdem bleibt die Frage offen, wie sich die Systeme für andere Geschlechtsidentitäten als männlich und weiblich öffnen ließen.
Einige Verbesserungsmöglichkeiten werden von den Konzernen hinter den Übersetzungsprogrammen bereits erprobt, etwa die Anfertigung von Übersetzungen ohne die Verwendung von Brückensprachen. In einigen wenigen Fällen spucken Programme bei neutralen Begriffen auch heute schon eine weibliche und eine männliche Form aus. Allerdings können selbst kleinste Anpassungen im Ausgangstext – etwa die Verwendung eines Artikels oder Großschreibung – das Ergebnis verändern. Das macht deutlich, wie fehleranfällig die Systeme aktuell noch sind. Aber sollten wir überhaupt in die Abläufe eingreifen? Spiegeln die Übersetzungen nicht schlichtweg die realen Verhältnisse der Welt mit all ihren Ungerechtigkeiten wider?
Nein, denn die genutzten Daten sind zum einen häufig veraltet, zum anderen durch eine Überrepräsentation an Männlichkeit verzerrt. So entstehen neben Ergebnissen, die Vorurteile potenzieren auch schlicht falsche Übersetzungen. Deshalb braucht es für weitreichendere Entschärfungen des Gender Bias in Übersetzungsprogrammen nicht nur Computerspezialist:innen, sondern auch eine engere Zusammenarbeit mit Expert:innen aus anderen Disziplinen wie den Gender Studies. Wenn Übersetzungsmaschinen als vorurteilsfreie Sprachendienstleister auftreten wollen, muss die männlich-weiße Norm in ihren Daten entmachtet werden.
40.000 mal Danke!
40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen
meistkommentiert
Tabubruch der CDU
Einst eine Partei mit Werten
Jugendliche in Deutschland
Rechtssein zum Dazugehören
Jens Bisky über historische Vergleiche
Wie Weimar ist die Gegenwart?
Krieg und Rüstung
Klingelnde Kassen
Denkwürdige Sicherheitskonferenz
Europa braucht jetzt Alternativen zu den USA
Social-Media-Star im Bundestagswahlkampf
Wie ein Phoenix aus der roten Asche