Regulierung von KI-generierten Inhalten: Der Mensch hinkt hinterher

Das Geschäft mit computergenerierten In­flu­en­ce­r*in­nen boomt. Das ruft rechtliche und ethische Probleme hervor.

Ami und Aya Suzuki auf einer Nina Ricci Herbst-Winter Modenschau

Bald werden Bilder wie dieses mit künstlicher Intelligenz produziert Foto: abacapress/imago

Künstlich geschaffene Persönlichkeiten gibt es seit einigen Jahren. Sie haben im Netz Tausende Fans und verdienen für ihre Er­schaf­fe­r:in­nen viel Geld. Da wären zum Beispiel Sika Moon und Aitana Lopez, Influencerinnen im sexy Outfit mit pinken Haaren, ins virtuelle Leben gerufen vom spanischen Designer Rubén Cruz. Oder Shudu, ein Schwarzes Model, die ein Konstrukt des Modefotografs Cameron-James Wilson ist. Oder auch Lil Miquela, Instagram-Star und Musikerin, die einem Start-up aus Los Angeles entstammt.

Besonders in der Schönheitsindustrie revolutioniert künstliche Intelligenz das Geschäft. Das liegt daran, dass die KI inzwischen auch Bildbearbeitung kann. Sie hübscht vorhandene Fotos mit Filtern und Montagen zu Beautyshots auf oder generiert gänzlich neue Optiken, ohne dass es je ein Original gegeben hätte.

KI ist überall dort im Einsatz, wo zahlende Kun­d*in­nen vor ihren Bildschirmen von neuen Inhalten überflutet werden wollen – und sich oft insgeheim nach Idealen sehnen, denen kein echter Mensch gerecht werden kann. Dort, wo In­flu­en­ce­r*in­nen ihr Publikum und ihre Spon­so­r*in­nen mit außergewöhnlichen Bildern und Videos bei Laune halten; immer gut gelaunt, immer gut aussehend, immer aktiv und unterwegs, auf Reisen, beim Sport, beim Kochen, beim Tanzen, auf dem Sofa mit der Katze.

Je mehr Follower*innen, also je größer das Publikum, desto mehr zahlen die Werbekund*innen. Sie machen das Influencerleben überhaupt erst möglich. Micro-Influencer mit ein paar Tausend Fol­lo­wer*­in­nen verdienen um die 50 Euro pro Post, Mega-Influencer mit Millionen Fans bekommen dafür 15.000 Euro.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Authentizität und Illusion

Das Modelmachen mit dem Einsatz künstlicher Intelligenz funktioniert so: Ein gutes Bild braucht einen guten Prompt, also eine gute Anweisung. Dann ist die KI dran. Je genauer sie das Verhältnis zwischen Wort und Bild definieren kann, desto besser wird das Ergebnis. Etliche Firmen trainieren ihre Programme genau darauf. Unmengen an Bilddaten brauchen sie dafür. Sie nutzen vor allem die, die öffentlich zugänglich sind. Also die Fotos und Clips, die wir täglich auf Instagram und Tiktok zeigen. Die KI lernt schnell, die Grenzen zwischen menschen- und computergenerierten Inhalten verschwimmen.

Während die einen In­flu­en­ce­r*in­nen Produkte, Orte und Events bewerben, bewerben andere sich selbst. Jugendfreie Inhalte landen auf gängigen sozialen Netzwerken wie Instagram und Tiktok, Expliziteres auf Onlyfans oder Fanvue. Dort sind auch pornografische Inhalte erlaubt. Kun­d*in­nen legen sich einen Account an und bezahlen für die Abos der Anbieter*innen. Knapp zehn Euro im Monat kostet es, zum Beispiel mit Sika Moon zu chatten oder ihre Bilder und Videos sehen zu dürfen.

Wie authentisch menschlich oder illusorisch künstlich die Inhalte sein sollen, kann je­de*r für sich entscheiden. Noch lässt sich halbwegs erkennen, wo und wie viel KI dahintersteckt. Wo das nicht mehr möglich ist, könnten verpflichtende Kennzeichnungen helfen. Kamerahersteller wie Canon und Nikon werden künftig die von ihren Kameras geschossenen Bilder mit digitalen Wasserzeichen versehen. Doch es wird auch nötig sein, dass KI-gestützte Programme im Nachhinein erkennen, welche Inhalte von KI erstellt sind.

Denn die nächste Revolution des Pornoangebots steht schon bevor: Bald werden KI-generierte Videos gut genug sein, um mit „echten“ Pornoclips konkurrieren zu können. KI-generierte Bewegtbilder gibt es zwar längst. Es sieht aber noch etwas gruselig aus, wenn ein KI-Will-Smith KI-Pasta verschlingt oder fünfbeinige Hundewelpen aus anderen Hunden heraussprudeln.

Damit eine KI Videos erschafft, die aussehen wie von einer Filmkamera aufgenommen, muss sie etliche Faktoren berücksichtigen: Physikalische Eigenschaften müssen ebenso stimmen wie Licht und Farbe, ein Bild muss logisch dem vorherigen folgen. Das erfordert größere Datenmengen, als die KI für Texte braucht. Open AI, die Firma, die uns mit ChatGPT ins Staunen versetzt hat, ist schon dran: Ihre Video-KI Sora soll in den nächsten Monaten für alle nutzbar sein. Die ersten Promovideos sehen erschreckend echt aus.

Angst vor Deepfakes

Auch wenn die KI noch keine perfekten Videos erstellen kann, gibt es bereits Probleme: hinreichend echt wirkende Deep­fakes. Dabei werden etwa Gesichter von realen Personen in bestehende Bilder hineinmontiert. Technisch gesehen ist das für alle Videos möglich. Nach Angaben der Cybersecurity-Firma Deeptrace jedoch sind 96 Prozent aller Deepfakes im Netz Porno.

Erst wurden reihenweise Schauspielerinnen und Sängerinnen Opfer der ruf­schädigenden Manipulation. Nach Scarlett Johansson und Taylor Swift traf es dann Privatpersonen, Exfreundinnen, Kollegen. Bei den ersten Deepfakes von 2017 etwa konnte man die Täuschung noch leicht erkennen. Sieben Jahre später ist das schon schwerer.

Der Schutz der Persönlichkeit gilt im Netz de jure, aber nicht de facto. Verantwortliche sitzen im Ausland oder es stehen technische Hürden im Weg, um Gesetze und Strafen geltend zu machen. Vor Kurzem hat das EU-Parlament den „AI-Act“ beschlossen. Die darin enthaltenen Richtlinien sollen vor Gefahren schützen, auch vor täuschend echt gefälschten Bildern. Europa reagiert damit schneller als andere Kontinente der Welt. Schneller als die künstliche Intelligenz kann der Apparat der Bürokratie aber nicht sein. Sie muss den Nebenwirkungen ihrer Evolution folgen.

Der große Unterschied zwischen menschengemachter und KI-generierter Pornografie werde der sein, dass die beteiligten Menschen den entstehenden Bildern im besten Fall zustimmen müssen, sagt Lori Watson von der Washington University. Bei einer KI ohne Bewusstsein sei das nicht nötig. In ihrem Text über Ethik in Pornografie und Sexarbeit schreibt die Philosophieprofessorin, dass die KI eine Dynamik schaffen werde, in der wir genau den Sex bekommen, nach dem wir fragen – und zwar schneller, als wir ein ethisches Verständnis dafür entwickeln würden.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.