„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?

Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.

Ein Mann, Barack Obama

Ist er's? Ist er's nicht? In diesem Fall ist er's: Barack Obama. Foto: ap

„Es beginnt eine Ära, in der unsere Feinde es so aussehen lassen können, als habe irgendjemand irgendetwas zu einem beliebigen Zeitpunkt gesagt“, sagt der ehemalige US-Präsident Barack Obama in einem Video, das Buzzfeed veröffentlicht hat. Beziehungsweise: Es sieht aus, als sage Barack Obama das. Tatsächlich ist es der Schauspieler und Regisseur Jordan Peele, der da spricht – und der seine Worte und seine Mimik von einem Computer zu denen Obamas machen ließ.

„Deepfake“ heißt diese Art der Bewegtbildmanipulation – eine Wortschöpfung aus „Deep Learning“, einem Begriff aus der Künstlichen Intelligenz“, und „Fake“ – also Fälschung.

Was vor wenigen Jahren noch aufwendig und kostspielig war, lässt sich heute mit einer App leicht bewerkstelligen. Alles, was es braucht, sind Video- und Tonaufnahmen des Menschen, den man imitieren möchte. Mit diesen füttert man den Computer. Und der lernt, wie die Stimme dieses Menschen klingt und wie seine Mimik funktioniert. Je mehr Daten, um so besser.

Das klingt nach lustigem Schabernack. Face-Swap-Apps auf dem Handy mit denen sich die Gesichter zweier gleichzeitig fotografierter Wesen tauschen lassen, bereiten Nutzer*innen schon länger großen Spaß. Mit solcher Technik sind aber auch Fakes möglich, deren Auswirkungen kaum zum Lachen sind.

Denn gerade von Schauspieler*innen oder Politiker*innen gibt es die nötigen Daten zuhauf. So montierten Leute etwa die Gesichter von Wonder-Woman-Darstellerin Gal Gadot und anderen Schauspielerinnen in Pornos. An Bildmaterial von Obama, Trump oder Merkel zu kommen, ist ein Leichtes. Wenn schon Tweets von Trump fast den Dritten Weltkrieg auslösen, was soll dann erst passieren, wenn er in einer gefakten Videobotschaft Bedrohliches erklärt?

Bildmanipulation ist nichts Neues. Man denke an Lenins Rede vor Rotarmisten im Jahr 1920 und den aus dem Bild retuschierten Trotzki. Trotzdem glauben Menschen an Bilder. Und an bewegte Bilder erst recht. Einige der Fakes sind noch leicht zu erkennen – bei anderen ist es schon heute mit bloßem Auge schwierig. In kurzer Zeit wird es unmöglich sein. Keine beruhigende Aussicht in einer Zeit, in der viele Menschen nur zu gerne glauben, was sie glauben wollen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.