„Deepfakes“ – gefälschte Videos: Hat er das gerade wirklich gesagt?
Ein Video zeigt einen Politiker bei einer Rede, die er nie gehalten hat. Oder eine Schauspielerin in einem Porno, an dem sie nie beteiligt war.
„Es beginnt eine Ära, in der unsere Feinde es so aussehen lassen können, als habe irgendjemand irgendetwas zu einem beliebigen Zeitpunkt gesagt“, sagt der ehemalige US-Präsident Barack Obama in einem Video, das Buzzfeed veröffentlicht hat. Beziehungsweise: Es sieht aus, als sage Barack Obama das. Tatsächlich ist es der Schauspieler und Regisseur Jordan Peele, der da spricht – und der seine Worte und seine Mimik von einem Computer zu denen Obamas machen ließ.
„Deepfake“ heißt diese Art der Bewegtbildmanipulation – eine Wortschöpfung aus „Deep Learning“, einem Begriff aus der Künstlichen Intelligenz“, und „Fake“ – also Fälschung.
Was vor wenigen Jahren noch aufwendig und kostspielig war, lässt sich heute mit einer App leicht bewerkstelligen. Alles, was es braucht, sind Video- und Tonaufnahmen des Menschen, den man imitieren möchte. Mit diesen füttert man den Computer. Und der lernt, wie die Stimme dieses Menschen klingt und wie seine Mimik funktioniert. Je mehr Daten, um so besser.
Das klingt nach lustigem Schabernack. Face-Swap-Apps auf dem Handy mit denen sich die Gesichter zweier gleichzeitig fotografierter Wesen tauschen lassen, bereiten Nutzer*innen schon länger großen Spaß. Mit solcher Technik sind aber auch Fakes möglich, deren Auswirkungen kaum zum Lachen sind.
Denn gerade von Schauspieler*innen oder Politiker*innen gibt es die nötigen Daten zuhauf. So montierten Leute etwa die Gesichter von Wonder-Woman-Darstellerin Gal Gadot und anderen Schauspielerinnen in Pornos. An Bildmaterial von Obama, Trump oder Merkel zu kommen, ist ein Leichtes. Wenn schon Tweets von Trump fast den Dritten Weltkrieg auslösen, was soll dann erst passieren, wenn er in einer gefakten Videobotschaft Bedrohliches erklärt?
Bildmanipulation ist nichts Neues. Man denke an Lenins Rede vor Rotarmisten im Jahr 1920 und den aus dem Bild retuschierten Trotzki. Trotzdem glauben Menschen an Bilder. Und an bewegte Bilder erst recht. Einige der Fakes sind noch leicht zu erkennen – bei anderen ist es schon heute mit bloßem Auge schwierig. In kurzer Zeit wird es unmöglich sein. Keine beruhigende Aussicht in einer Zeit, in der viele Menschen nur zu gerne glauben, was sie glauben wollen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!