piwik no script img

Gender Bias bei ÜbersetzungsoftwareTreffen sich zwei Ärztinnen

Maschinelle Übersetzungen sind nicht neutral, sondern geprägt von männlicher Norm. Sie reproduzieren real existierende Zuschreibungen.

Bei Google Translate wird „the nurse“ automatisch zur „Krankenschwester“ Foto: David Ryder/reuters

Wer bei Google Translate „the doctor“ eingibt, sieht im Feld nebenan als Übersetzung den Begriff „der Doktor“. „The nurse“ wird zur „Krankenschwester“. Dabei könnte es auch „die Ärztin“ und „der Krankenpfleger“ heißen, denn beide englische Begriffe sind an kein Geschlecht gebunden.

Empfohlener externer Inhalt

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen:

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

Dass maschinelle Übersetzungsdienste ihre Grenzen haben, was natürlich klingende Übertragungen in eine Zielsprache angeht, haben die meisten von uns bereits selbst erfahren. Weniger bekannt sind die geschlechtsbezogenen Verzerrungseffekte der Programme – man spricht vom sogenannten Gender Bias.

Automatisierte Übersetzungen sind für viele Menschen mittlerweile alltäglich. Wir verwenden sie im Büro, auf Reisen oder in den sozialen Medien. Hat man im Gespräch einen wichtigen Begriff nicht parat oder versteht einen Post auf Facebook nicht, ist das Problem mit einem Klick gelöst. Dabei sollten wir uns jedoch bewusst machen: Maschinelle Übersetzungen sind nicht so neutral, wie sie auf den ersten Blick wirken.

Am deutlichsten illustrieren lässt sich der Gender Bias an Sprachen, die nur ein Pronomen für alle Geschlechter kennen, wie etwa das Finnische. Der Satz „Hän on opettaja“ könnte gleichermaßen „Sie ist Lehrerin“ oder „Er ist Lehrer“ heißen. Die Übersetzungsmaschine hat also zwei Möglichkeiten: Entweder bietet sie beide Optionen als Übersetzung an oder sie entscheidet sich für ein Geschlecht. Aus unserem Beispiel macht sowohl Google als auch das Kölner Unternehmen DeepL, dessen Übersetzungen häufig besser als bei der Konkurrenz funktionieren: „Er ist Lehrer“. Bei einer Aussage über eine Person, die im Kindergarten arbeitet, erscheint hingegen der Satz: „Sie ist Kindergärtnerin.“

Vorurteile werden ständig reproduziert

Was hier geschieht: Die Übersetzungsmaschine spiegelt gesellschaftliche Vorurteile wider. Und das rührt von den Texten her, auf deren Grundlage die Übersetzungen erstellt werden. Automatisierte Systeme basieren auf Daten. Im Falle von Übersetzungen sind das Datenbanken, die Textpaare aus je zwei Sprachen enthalten. Doch Daten sind keine neutralen Informationen aus dem luftleeren Raum. Welche Bilder, Klischees oder Verzerrungen sie enthalten, bestimmt, wie ein Textstück übersetzt wird.

Stichproben zeigen, dass der Gender Bias weit über Berufsklischees hinausgeht. Auch Adjektive werden Subjekten entsprechend gängiger Vorurteile zugewiesen. Beginnen wir erneut einen finnischen Satz mit „Hän on“ und ergänzen Adjektive wie stark, muskulös oder intelligent, bezieht sich der Satz in der Übersetzung bei Google Translate auf eine männliche Person – herauskommt etwa: „Er ist stark.“ Wählt man jedoch Adjektive wie schön oder kinderlieb, wird die Übersetzung weiblich. Dies lässt sich damit erklären, dass das Programm in seinem Lernprozess Wörter in einen Zusammenhang stellt, die in den zugrundeliegenden Texten häufig nahe beieinander stehen. Vorurteile werden so durch die Übersetzungen ständig reproduziert.

Doch nicht immer basiert die Verzerrung allein auf den zugrundeliegenden Paralleltexten. Zusätzlich ins Gewicht fällt, dass für viele seltenere Sprachpaare nicht genügend Referenztexte vorliegen und deshalb ein Umweg über eine dritte Sprache genommen wird: Die Ausgangssprache wird zunächst in die Brückensprache übersetzt und von dort aus weiter in die Zielsprache.

Das weltweite Vorherrschen der englischen Sprache lässt diese zur Brückensprache der Wahl werden. Doch da sich im Englischen viele Begriffe nicht auf ein bestimmtes Geschlecht beziehen, können auf dem Umweg Inhalte verlorengehen. Spricht der Ausgangssatz beispielsweise von einer Ärztin, welche im Englischen zum neutralen Begriff „doctor“ wird, ergibt sich daraus im Zielsatz vermutlich aufgrund der zugrundeliegenden Textkorpora ein „Arzt“. So kann die Fixierung auf die englische Sprache als Standard Übersetzungen verzerren.

Wie wichtig sind Identität und Erfahrung?

Doch bei bloßen Verzerrungen bleibt es nicht. Nehmen wir den deutschen Satz: „Zwei Ärztinnen und zwei Ärzte treffen sich.“ Da sowohl Ärztinnen als auch Ärzte im Englischen unter „doctors“ laufen, nimmt der Übersetzungsdienst eine versehentliche Doppelung an. So wird aus dem Ausgangssatz nicht etwa „Two doctors and two doctors meet“, sondern schlichtweg „Two doctors meet“. Übrig bleiben also nicht vier medizinische Fachkräfte, sondern nur mehr zwei.

Das gleiche falsche Ergebnis erhält man etwa auch bei einer Übersetzung ins Spanische, obwohl hier ein weiblicher Begriff existiert. Im Gegensatz zu Google Translate generiert DeepL allerdings einen Satz mit explizit genannten weiblichen und männlichen Subjekten: „Two female doctors and two male doctors meet.“

Dass die Übertragung von Texten kein neutrales, gänzlich unpolitisches Terrain ist, fällt nicht nur bei maschinellen Übersetzungen auf, sondern war auch Thema kritischer Berichterstattung im Fall des Gedichts der amerikanischen Lyrikerin Amanda Gorman. Nicht nur in Deutschland wurde die Frage gestellt, wer geeignet sei, das Werk der Schwarzen Autorin ins Deutsche zu übertragen und wie wichtig bei der Auswahl Identität und Erfahrung der übersetzenden Person sein sollten.

Die Erfahrung einer Übersetzungsmaschine basiert auf dem, was ihr beigebracht – in sie eingespeist – wurde. Und so tritt nicht nur ein Gender Bias zu Tage, sondern auch andere Machtdimensionen lassen sich ausmachen. Mit dem Begriff „beurette“ werden in Frankreich Frauen bezeichnet, deren familiäre Geschichte man in Nordafrika verortet. Das Wort kann Beleidigung sein, wird aber teils auch von Ak­ti­vis­t:in­nen als Selbstbezeichnung verwendet.

Besonders weitverbreitet ist es allerdings in der Pornoindustrie, wo exotisierende Fantasien über „Araberinnen“ bedient werden sollen. Wie AlgorithmWatch herausfand, kommt der Begriff in den Textkorpora des umfangreichen Datensets ParaCrawl in insgesamt 228 Sätzen vor – 222 davon stammen offenbar von Porno-Websites. Die Maschine lernt also Begriffe in einem Kontext kolonialer, sexistisch-rassistischer Narrative.

Die Datengrundlage

Doch an genau diesem Kontext orientiert sich das Programm, wenn es seine Worte und Kombinationen wählt. Ein Ansatz, den Gender Bias zu reduzieren, ist daher For­sche­r:in­nen zufolge, die Kategorie Gender als Metadaten ins System mit einzuspeisen.

Für eine Studie wurden dafür Sätze in einer großen Textdatenbank durch das jeweilige Geschlecht der Sprechenden ergänzt, was für einige Sprachenpaare zu akkurateren Übersetzungen führte. Auch andere technische Lösungen sind denkbar, etwa eine Duplizierung von Sätzen: Hier werden in den Textdaten zum Beispiel männlich konnotierte Sätze durch den jeweils gleichen Satz in weiblicher Form ergänzt, um die Verzerrung hin zum männlichen Geschlecht auszugleichen. Und nicht zuletzt kommt es auch auf die Auswahl der Datensets selbst an: Diese sind zwar groß, aber niemand überprüft, wie realistisch sie unsere Gesellschaft darstellen. Außerdem bleibt die Frage offen, wie sich die Systeme für andere Geschlechtsidentitäten als männlich und weiblich öffnen ließen.

Einige Verbesserungsmöglichkeiten werden von den Konzernen hinter den Übersetzungsprogrammen bereits erprobt, etwa die Anfertigung von Übersetzungen ohne die Verwendung von Brückensprachen. In einigen wenigen Fällen spucken Programme bei neutralen Begriffen auch heute schon eine weibliche und eine männliche Form aus. Allerdings können selbst kleinste Anpassungen im Ausgangstext – etwa die Verwendung eines Artikels oder Großschreibung – das Ergebnis verändern. Das macht deutlich, wie fehleranfällig die Systeme aktuell noch sind. Aber sollten wir überhaupt in die Abläufe eingreifen? Spiegeln die Übersetzungen nicht schlichtweg die realen Verhältnisse der Welt mit all ihren Ungerechtigkeiten wider?

Nein, denn die genutzten Daten sind zum einen häufig veraltet, zum anderen durch eine Überrepräsentation an Männlichkeit verzerrt. So entstehen neben Ergebnissen, die Vorurteile potenzieren auch schlicht falsche Übersetzungen. Deshalb braucht es für weitreichendere Entschärfungen des Gender Bias in Übersetzungsprogrammen nicht nur Computerspezialist:innen, sondern auch eine engere Zusammenarbeit mit Ex­per­t:in­nen aus anderen Disziplinen wie den Gender Studies. Wenn Übersetzungsmaschinen als vorurteilsfreie Sprachendienstleister auftreten wollen, muss die männlich-weiße Norm in ihren Daten entmachtet werden.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

12 Kommentare

 / 
  • Die Übersetzungen bilden die statistisch wahrscheinliche Wirklichkeit ab.

    Ganz einfach.

  • Wenn KI und deep learning auf Texten basieren, die genderspezifische KLischees enthalten, dann wird das so bleiben, bis diese sich geändert haben.

    Jenseits von Klischees und erst recht Begrifflichkeiten sollten wir vielleicht aber auch immer hinterfragen, ob wir uns über diese Genderklischees nicht vor allem deshalb aufregen, weil wir in ihnen eine Wertigkeit sehen, und überlegen, ob diese Wertigkeit gerechtfertigt ist. Ich persönlich freue mich, wenn mir Eigenschaften zugeschrieben werden, die als "weiblich" gelten, und tradierte männliche Rollenbilder wie das des aggressiven Ellenbogenmenschen und karriereorientierten Vollzeiternährers wird zuviel Allgemeingültigkeit beigemessen, sie werden viel zu oft einfach imitiert und nicht hinterfragt oder gar abgelehnt.

  • Na ja, wenn man's weiß, dann kann man daran und damit arbeiten. Wer z.B. eine Übersetzung aus einer gender-neutralen Sprache braucht, weiß in der Regel, dass diese Neutralität besteht. Probleme tauchen natürlich bei hochkomplexen Zusammenhängen auf, aber warum über diese sprechen wollen, wenn man die Sprache nicht kann? Wie käme man in diese Situation?

  • Die Auswahl der Datensätze ist wahrscheinlich noch eines der Probleme, die sich am leichtesten lösen lässt. Unterschiede in den Grammatiken der Sprachen, durch die beim Übersetzen Informationen wegfallen bzw. aufgrund von Vermutungen neu generiert werden müssen, machen da sicherlich schon mehr Schwierigkeiten.

    Letztlich ist es am besten, wenn man möglichst viele Fremdsprachen beherrscht, um auf Übersetzungen verzichten zu können. Wer Übersetzungen verwendet, muss eben bei der Textqualität (auch, was die enthaltene Information betrifft) immer Abstriche machen. Momentan ist es so, dass diese Abstriche bei maschinengemachten Übersetzungen immer noch gravierender ausfallen als bei solchen, die von Menschen gefertigt werden, weil der hermeneutische Instinkt des Menschen bisher meistens noch der bessere ist. Das gilt aber auch nicht immer: Die Datensätze, die von den Maschinen verwendet werden, sind ja auch menschengemacht, es wird also abgebildet, was Menschen vorgedacht haben. Wobei ein Mensch, der bewusst einen Text übersetzt, natürlich alles stark reflektiert und nicht unbedingt seinem alltäglichen Denkmuster folgt.

    Vielleicht sollten also auch Maschinen nicht nur sprachliche Muster aus mehrsprachig vorliegenden Textsammlungen kopieren, sondern, wie ein Mensch, der eine Fremdsprache lernt, Morphem für Morphem mitsamt allen dazugehörigen Bedeutungen und Funktionen auswendig lernen. Bei Mehrdeutigkeit muss dann freilich immer noch auf eine gewisse, empirisch begründete Wahrscheinlichkeit zurückgegriffen werden. Perfekt wird's also nicht, aber es kann besser werden.

  • Wer kein Problem hat, der klöppelt sich halt eines.

  • Oh nein, bei der Nutzung automatisierter Übersetzungsprogramme kann der Sinn verzerrt werden und man muss nochmals drüberlesen und korrigieren.

    Welch Skandal! Wie konnte das nur bis heute unerkannt bleiben?

  • Und wo liegt jetzt das Problem ? Niemand ist doch gezwungen Übersetzungsprogramme im Internet zu nutzen. Wenn man sich an deren „nicht gendergerechten“ Algorithmen stört, kann man doch jederzeit zum alten anlogen Wörterbuch (liegt sicher daheim noch irgendwo im Bücherschrank) greifen und sich die absolut "genderkorrekte Übersetzung" selbst anfertigen.

    • @ROMIE:

      "Wenn man sich an deren „nicht gendergerechten“ Algorithmen stört, kann man doch jederzeit zum alten anlogen Wörterbuch (liegt sicher daheim noch irgendwo im Bücherschrank) greifen und sich die absolut "genderkorrekte Übersetzung" selbst anfertigen."



      Hilft aber nicht viel, weil auch dort "der Doktor" auftauchen wird... so ist die deutsche Sprache halt.

    • @ROMIE:

      Es ist doch ein Problem, weil vielen™ diese Dinge gar nicht bekannt sind und sie wie selbverständlich maschinelle Übersetzungsprogramme benutzen und - daraus lernen. "Was im Internet steht, stimmt" (Wie früher mal Zeitung/Fernsehen). Und so werden Unzulänglichkeiten von Software zu realen Lebensregeln.

    • @ROMIE:

      Hier geht es ja nicht um "Gendern um jeden Preis", sondern darum, echte Textverfälschungen zu vermeiden. Das kann man doch mal begrüßen.

  • Habe grade mal selbst gecheckt: Der Satz mit den 4 bzw. 2 ÄrztInnen ergibt mit DeepL:



    'Two female doctors and two male doctors meet.'



    Zumindest in diesem Beispiel tritt der erwähnte Gender Bias also nicht auf.

    • @Affi:

      Genau so stehts auch bereits im Artikel