piwik no script img

Synchronisierung in DeutschlandKuck mal, wer da spricht

Deutsche sehen Serien und Filme noch immer oft in der Synchronfassung. Aber kann die Wertschätzung einer Kunst ihre Zukunft sichern?

„Yippie yah Yei Schweinebacke!“: Bruce Willis in „Stirb Langsam“ Foto: united archives/imago

Yippie Yah Yei Schweinebacke!“ Das ruft Synchronsprecher Manfred Lehmann anstelle der Stimme – und Obszönität – von Bruce Willis’ (vergleichsweise veganem) englischem Schlagwort „motherfucker“ im Film „Stirb langsam“ von 1988. Deutsche Fans machten das Zitat schon zum Meme, noch bevor es soziale Medien gab.

Heute ist die deutsche Film- und Fernsehsynchronisation selbst ein Meme geworden: Im Internet parodieren Menschen, wie Wortwahl und Sprechweise die Bedeutung der Sätze so stark verändern, dass sie das Anschauen des Originals zu einem ganz anderen Erlebnis machen. Auch ein Tiktok von Comedian Jonna Groneberg, die in der Synchronindustrie gearbeitet hat, gehört zu diesen Memes. „Ich verwandle englische Filme im Grunde genommen in intensive deutsche Softpornos“, scherzt sie in dem Video von einem Auftritt, das über 43.000-mal aufgerufen wurde. Sie liest eine Zeile aus einem Bewerbungsgespräch auf Englisch vor, ganz seriös. Dann wiederholt sie sie in mädchenhaftem, hauchigem Deutsch.

Auf Uneingeweihte wirkt Synchronisieren vielleicht albern. Literatur und Filme – ja, sogar die synchronisierten – haben uns trainiert, uns nach der „echten“ Stimme zu sehnen. In Disneys „Arielle, die Meerjungfrau“ zwingt eine Meerhexe Arielle, ihre schöne Stimme abzutreten.

In „Du sollst mein Glücksstern sein“ („Singin’ in the Rain“) sind die Stimmbänder von Jean Hagens Figur solche Trommelfellspalter, dass Debbie Reynolds’ Figur hinter einem Vorhang für sie singen muss (was in der deutschen Synchronisation bedeutet, dass Marianne Prenzels Stimme aus Debbie Reynolds kommt, deren Figur von Jean Hagen gesprochen wird, die wiederum von Gertrud Spalke synchronisiert wird). Glänzende, schöne Stars werden durch eine Stimme verständlich gemacht, die einer Person gehört, die wir nie zu Gesicht bekommen. Das kann sich wie Täuschung anfühlen.

Rassistische Stereotypen

In den letzten Jahren wurde die Politik der Synchronisation zunehmend kritisiert: Die deutsche Synchronsprecherin Thelma Buabeng hat die Branche aufgefordert, ernsthafter gegen rassistische Praktiken anzugehen, etwa dagegen, dass einige weiße Syn­chron­spre­che­r:in­nen Schwarzen Charakteren Stimmen geben, die rassistischen Stereotypen nachempfunden sind, gegen Fake-Akzente und gegen Fistelstimmen.

Bereits 2004 stellte der Soziolinguist Robin Queen fest, dass Schwarze Charaktere überproportional oft mit deutschen Arbeiterklassen- und bayerischen Akzenten synchronisiert wurden. Und der US-amerikanische Wissenschaftler Patrick Ploschnitzki untersuchte in seiner Studie „Seit wann ist Steve Urkel weiß?“ aus dem Jahr 2023, wie bei der Einstellung von Syn­chron­spre­che­r:in­nen und bei deren Darbietungen rassistische Vorurteile außer Acht gelassen werden.

Insbesondere für junge Menschen und diejenigen, die privilegiert genug sind, fließend Englisch zu sprechen, erscheint das gesamte Unterfangen der Synchronisation wie etwas, das man hinter sich lässt, sobald man Untertitel lesen kann. In einer Zeit, in der wir zögern, Kunst von Künst­le­r:in zu trennen, warum sollten wir dann die Stimme vom Filmstar entfernen?

Genau das wird in „Du sollst mein Glücksstern sein“ gemacht, dem Film über Hollywoods Übergang vom Stummfilm zum Tonfilm: Weil die Stimme eines Stummfilmstars so nervig ist, dass sie das Publikum abschrecken würde (wie die von Fran Drescher in „The Nanny“, deren Nasal der deutschen Synchronisation „Die Nanny“ leider fehlt), braucht sie eine Synchronsprecherin. Als Filme in den 1920er Jahren begannen, Tonaufnahmen zu verwenden, gab es statt der bisherigen Zwischentitel, die für Auslandsveröffentlichungen leicht zu übersetzen waren, nun Monologe und schnelle, sich überschneidende Dialoge.

Untertitel als Lösung

Anfangs ließen einige Re­gis­seu­r:in­nen ihre Stars die Zeilen in der Übersetzung neu aufnehmen – auch wenn sie die Sprache gar nicht beherrschten. Das Endergebnis war unverständlich. Untertitel waren eine Lösung. Eine andere: Synchronsprecher:innen. Eine Milliarden-Dollar-Indus­trie war geboren. Gut für die faschistischen Länder – Deutschland, Spanien und Italien –, die die neue Technik in den 1930er Jahren am eifrigsten einsetzten. So konnten die Regime andere Sprachen aus fremdenfeindlichen Gründen entfernen und die Dialoge gleichzeitig ideologisch zensieren.

Nach dem Krieg erlebte die deutsche Synchronisation einen Boom, als die Ame­ri­ka­ne­r:in­nen ihre Filme nach Deutschland importierten. Der Filmverleih passte sie beim Synchronisieren dem Geschmack des Publikums an – so wurden beispielsweise Nazi-Anspielungen aus „Casablanca“ und Hitchcocks „Notorious“ entfernt. Selbst Jahrzehnte später wurden die deutschen Bösewichte aus „Stirb langsam“ in der deutschen Synchronfassung zu Briten.

Jonna Groneberg vom bereits erwähnten Tiktok erklärte gegenüber der taz, dass deutsche Synchronisationen viele Vorteile haben. Mit Synchronisationen kann man beim Teekochen zuhören. Synchronisationen bieten verständliche Dialoge, in einer Zeit, in der schlechte Tonqualität als Grund dafür angesehen wird, dass viele englische Mut­ter­sprach­le­r:in­nen glauben, sie benötigten Untertitel für englischsprachige Medien.

Groneberg vermutet jedoch, dass die Entscheidung für eine deutsche Synchronisation ­weniger technischer als vielmehr persönlicher Natur ist. Dass sie darin begründet liegt, warum wir überhaupt ins Kino gehen. „Synchronisation ist mehr als nur ‚Oh, ich spreche kein Englisch‘“, sagte sie. „Es ist eher: ‚Ich möchte die Emotionen wirklich in meiner Sprache spüren.‘“

Groneberg arbeitete hauptsächlich als Studio-Koordinatorin und war nur gelegentlich als Synchronsprecherin tätig. Aber sie spricht sehr detailliert über die technischen Details des Handwerks: Der rote Punkt, der sich auf dem Bildschirm bewegt, „fast wie bei Karaoke“, zeigt ihr an, wie viel Zeit sie hat, damit ihr Dialog mit den Lippen der Schauspielerin auf dem Bildschirm übereinstimmt. Wie sie innerhalb dieses roten Punktes schauspielern, schreien, rufen, ihre Hand küssen oder so tun muss, als würde sie rennen – und das alles, ohne zu nahe an das Mikrofon zu kommen.

Passend zu den Lippenbewegungen

Und natürlich passend zu den Lippenbewegungen des Originals. Die Ps, Bs und Ms der Originalsprache und der Übersetzung werden berücksichtigt, damit das Publikum keine störenden Dissonanzen wahrnimmt, die den Drang zum Umschalten auslösen, wenn der Ton um einen Sekundenbruchteil verzögert ist.

Cédric Cavatore arbeitet seit fünf Jahren als professioneller Sprecher und Synchronschauspieler, er war unter anderem der deutsche Erzähler in der beliebten Kinderserie „Peppa Wutz“ und die Stimme des roten Power Rangers. Eine andere Rolle, die Cavatore gesprochen hat, wurde mal von einer Biene gestochen, wodurch Gesicht und Zunge anschwollen. Um diesen Effekt nachzuahmen, steckte Cavatore sich Taschentücher in den Mund und sprach, während er mit den Händen auf seine Wangen drückte. „Das hat wirklich gut funktioniert. Es war aber auch ein bisschen anstrengend“, erzählt er der taz.

Cavatore ist Vorstandsmitglied und stellvertretender Vorsitzender des Verbands Deutscher Spre­che­r:in­nen e.V. (VDS), wo er sich gegen den unregulierten Einsatz generativer KI in der Synchronisationsbranche einsetzt. Das Versprechen der KI-Industrie, Hollywoodstars so klingen zu lassen, als würden sie deutsch sprechen, zeugt laut Cavatore von mangelnder Kenntnis darüber, wie Sprache funktioniert. Jede Sprache stelle andere Anforderungen an den Sprechapparat, sagt er, nutze andere Resonanzräume oder Zungenbewegungen und lasse so auch die Stimme anders klingen. Es gibt zudem unzählige in jeder Sprache anders klingende Füllwörter und Soziallaute. Ähs, Auas, Hähs.

„Die Stimmfarbe ist nur ein kleiner Teil der Stimmidentität. Sie wird auch von vielen weiteren Aspekten geprägt“, so Cavatore. „Meine Sprachmelodie, meine Modulation, meine Pausen, meine Atmung. Wo und wie ich aufgewachsen bin. All das spielt eine Rolle.“

KI-Stimmen klingen leblos

Dass KI-Stimmen so monoton und leblos klingen, führt Cavatore auf ihre Funktionsweise zurück. Auf Basis von Trainingsdaten errechnet ein Sprachmodell die wahrscheinlichste Betonung eines Textes. Aber das Naheliegendste sei meist langweilig, meint er. „Sprecher:innen mit ihrer ganzen Individualität bringen dagegen eine Lebendigkeit mit, die man mit synthetischen Stimmen nicht herstellen kann. Menschlichkeit ist nicht berechenbar.“

Viele namhafte Unternehmen aus Big-Tech, Streaming oder der Videospielindus­trie trainieren deswegen ihre Sprachmodelle mit Stimmen echter Menschen. „Und das meist ohne deren Zustimmung zu erfragen oder dafür zu zahlen“, vermutet Cavatore. Dies verstoße gegen Persönlichkeits- und Urheberrecht. Immer wieder würden sie daher versuchen, Spre­che­r:in­nen dazu zu bringen, Arbeitsverträge zu unterschreiben, mit denen sie sämtliche Rechte an ihren Stimmen abtreten, so Cavatore. Eine Methode, die stark an die Meerhexe in „Arielle“ erinnert.

Aber es gibt Grund zur Hoffnung. In diesem Monat entschied das Landgericht Berlin, dass die kommerzielle Nutzung von KI-Stimmen, die realen Stimmen nachempfunden sind, eine Urheberrechtsverletzung darstellen kann. Der Kläger? Bruce Willis’ Synchronsprecher Manfred Lehmann. Er hat also ein Recht auf die eigene Stimme. Zumindest vorerst ist das ein „Yippie Yah Yei.“

Übersetzt aus dem Englischen von Johannes Drosdowski

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

0 Kommentare