piwik no script img

„Deepfakes“ – gefälschte VideosHat er das gerade wirklich gesagt?

Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.

Ist er's? Ist er's nicht? In diesem Fall ist er's: Barack Obama. Foto: ap

„Es beginnt eine Ära, in der unsere Feinde es so aussehen lassen können, als habe irgendjemand irgendetwas zu einem beliebigen Zeitpunkt gesagt“, sagt der ehemalige US-Präsident Barack Obama in einem Video, das Buzzfeed veröffentlicht hat. Beziehungsweise: Es sieht aus, als sage Barack Obama das. Tatsächlich ist es der Schauspieler und Regisseur Jordan Peele, der da spricht – und der seine Worte und seine Mimik von einem Computer zu denen Obamas machen ließ.

„Deepfake“ heißt diese Art der Bewegtbildmanipulation – eine Wortschöpfung aus „Deep Learning“, einem Begriff aus der Künstlichen Intelligenz“, und „Fake“ – also Fälschung.

Was vor wenigen Jahren noch aufwendig und kostspielig war, lässt sich heute mit einer App leicht bewerkstelligen. Alles, was es braucht, sind Video- und Tonaufnahmen des Menschen, den man imitieren möchte. Mit diesen füttert man den Computer. Und der lernt, wie die Stimme dieses Menschen klingt und wie seine Mimik funktioniert. Je mehr Daten, um so besser.

Das klingt nach lustigem Schabernack. Face-Swap-Apps auf dem Handy mit denen sich die Gesichter zweier gleichzeitig fotografierter Wesen tauschen lassen, bereiten Nutzer*innen schon länger großen Spaß. Mit solcher Technik sind aber auch Fakes möglich, deren Auswirkungen kaum zum Lachen sind.

Denn gerade von Schauspieler*innen oder Politiker*innen gibt es die nötigen Daten zuhauf. So montierten Leute etwa die Gesichter von Wonder-Woman-Darstellerin Gal Gadot und anderen Schauspielerinnen in Pornos. An Bildmaterial von Obama, Trump oder Merkel zu kommen, ist ein Leichtes. Wenn schon Tweets von Trump fast den Dritten Weltkrieg auslösen, was soll dann erst passieren, wenn er in einer gefakten Videobotschaft Bedrohliches erklärt?

Bildmanipulation ist nichts Neues. Man denke an Lenins Rede vor Rotarmisten im Jahr 1920 und den aus dem Bild retuschierten Trotzki. Trotzdem glauben Menschen an Bilder. Und an bewegte Bilder erst recht. Einige der Fakes sind noch leicht zu erkennen – bei anderen ist es schon heute mit bloßem Auge schwierig. In kurzer Zeit wird es unmöglich sein. Keine beruhigende Aussicht in einer Zeit, in der viele Menschen nur zu gerne glauben, was sie glauben wollen.

40.000 mal Danke!

40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!