Übersetzung Was bisher nur Science Fiction war, soll 2017 Realität werden: ein Computer im Ohr, der simultan übersetzt
: Der Babelfisch kommt

Von Paul Wrusch

Er ist gelb, sieht aus wie ein Blutegel und soll die Welt ein klein wenig besser machen: der Babelfisch aus Douglas Adams’ Science-Fiction-Romanen „Per Anhalter durch die Galaxis“. Sein Nutzen ist, „dass man mit einem Babelfisch im Ohr augenblicklich alles versteht, was einem in irgendeiner Sprache gesagt wird“, schreibt Adams. Ein Simultanuniversalübersetzer, durch den mittels Telepathie alle Sprachbarrieren fallen.

Wir können heute mit beinahe jedem Menschen auf der Welt in Verbindung treten, aber mit den meisten trotzdem nicht kommunizieren, weil uns die Fremdsprachenkenntnis fehlt. Welch eine Erleichterung ein Babelfisch wäre!

Was jahrzehntelang als unrealisierbare Utopie eines herausragenden Science-Fiction-Autors galt, könnte bald Wirklichkeit werden. So will das US-amerikanische Start-up Wavery Labs im Frühjahr 2017 sein Pilotsystem für rund 300 US-Dollar auf den Markt bringen. Zwei Menschen, die unterschiedliche Sprachen sprechen, sollen damit kommunizieren können. Jeder trägt einen Ohrstöpsel, in dem ein Mikro eingebaut ist. Gesprochene Sätze sollen dann simultan in die jeweils andere Sprache übersetzt werden.

Doch wie funktioniert diese automatische Sprache-zu-Sprache-Übersetzung? Prinzipiell besteht sie aus drei Phasen. Zunächst muss ein Computer gesprochene Sprache erkennen und in Text umwandeln. Diese muss übersetzt und schließlich wieder in gesprochene Sprache verwandelt werden.

Die erste Phase der Spracherkennung ist schon jetzt weit verbreitet. Siri heißt etwa der Sprachassistent bei iPhones, bei Android-Smartphones wird er mit den Worten „OK Google“ aktiviert. Grob gesagt wird gesprochene Sprache in Frequenzbildern, in kleinen phonetischen Einheiten, erfasst. Bei den meisten Systemen entsteht so ein Gitter von Folgen von Buchstaben, später Wörtern und ganzen Sätzen, die gesagt worden sein könnten. Denn Spracherkennung bedarf immer einer Deutung, da vieles nur aus dem Kontext heraus sinnvoll interpretiert werden kann. In modernen Systemen übernehmen neuronale Netze einer Künstlichen Intelligenz, also selbst lernende Computersysteme.

Der nächste Schritt ist die Übersetzung. Auch dies geschieht heute zum Teil schon über neuronale Netze, die mit Regeln gefüttert werden und so basierend auf Wahrscheinlichkeiten Übersetzungen liefern. Das Training dieser Programme bedient sich etwa bei Datensätzen, die bereits von Menschen übersetzt wurden. Protokolle von EU-Parlamentssitzungen, Romanen, Verträgen. Alles, was man kriegen kann. Teils wird nach Sätzen gesucht, teils werden aus den gelernten Regeln Übersetzungen generiert.

Der letzte Schritt der Sprachsynthese ist vergleichsweise simpel. Aus dem zu realisierenden Text werden phonetische Bilder von jedem Vokal und Konsonanten entwickelt und dann in Kombination ausgegeben. Einige Systeme können bei der Sprachausgabe nach kurzer Analyse gar die Stimme des Sprechers imitieren.

Noch sind die Systeme nicht perfekt. Unterschiedliche Wortbedeutungen, undeutliche Aussprache, Dialekte, Hintergrundgeräusche und das Erkennen etwa vom Satzende bereiten Probleme.

Grob gesagt wird gesprochene Sprache in Frequenzbildern, in kleinen phonetischen Einheiten, erfasst

Dennoch werden automatische Sprache-zu-Sprache-Übersetzungen schon jetzt eingesetzt. Für alle zugänglich ist etwa Skype Translate. Seit diesem Jahr ermöglicht der Dienst, Skype-Gespräche simultan zwischen verschiedenen Sprachen zu übersetzen (siehe nächste Seite). Für den Alltagsgebrauch ist auch die App Google Translate hilfreich, vor allem, wenn es um einzelne Sätze, nicht ganze Texte geht. An der Uni Karlsruhe hält Professor Alexander Waibel seit Jahren Vorlesungen über maschinelle Übersetzung, die live auf die Laptops der Studierenden übersetzt werden. Für den Bildungsstandort Deutschland durchaus sinnvoll, können so auch Menschen hier studieren, die keine Zeit oder keine Lust haben, Deutsch zu lernen.

Seit Jahren wird die maschinelle Sprache-zu-Sprache-Übersetzung aber auch für spezielle Bereiche genutzt. Etwa bei humanitären Einsätzen. Die Übersetzungs-App Jibbigo – mittlerweile von Facebook aufgekauft – wurde etwa in Thailand und Honduras eingesetzt und ermöglichte es Ärzten, sich mit einheimischen Patienten zu verständigen – ganz ohne Dolmetscher.

„Automatische Übersetzungen kommen immer dann zum Einsatz, wenn schnelle, unkomplizierte Übersetzung notwendig ist“, sagt Andreas Maletti, Informatik-Professor an der Uni Leipzig. Er geht davon aus, dass in wenigen Jahren diese Systeme massentauglich für den Alltag werden. Dolmetscher werden aber nicht überflüssig. „Es besteht ein schwieriges Verhältnis mit professionellen Übersetzern. Sie fürchten, dass sie uns Daten liefern, um sich selbst überflüssig zu machen“, sagt Maletti. Die Gefahr sieht er nicht. „Die EU wird in absehbarer Zeit nicht auf die Idee kommen, automatische Übersetzungen einzusetzen. Man könnte sich damit grundlegend blamieren.“ Denn perfekt werden die Systeme nicht funktionieren, glaubt er. Andere Experten wie Alexander Waibel sind sicher, dass die Echtzeit-Übersetzung bald flüssig und präzise funktioniert.

Der Babelfisch bei Douglas Adams funktioniert perfekt. So perfekt, dass er alle Sprachbarrieren zwischen unterschiedlichen Völkern und Kulturen niedergerissen hat. Mit fatalen Folgen. Denn er hat – so schreibt Adams – „mehr und blutigere Kriege als jede andere Schöpfung in der Geschichte“ verursacht. Ein Szenario, das in unserer Welt nicht vorstellbar ist, aber auf mögliche Folgen von ausuferndem Technikvertrauen hinweist.