TÜV für Künstliche Intelligenz: Die Neuen im Newsroom
Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz. Auch der Journalismus muss seine Grundsätze mal wieder updaten.
Auch wenn die Berichte über Massenpaniken stark übertrieben waren: Als der „Krieg der Welten“ 1938 im US-Radio ausgestrahlt worden ist, haben es einige Zuhörer*innen mit der Angst zu tun bekommen.
Waren wirklich Außerirdische, wie im Hörspiel dargestellt, auf der Erde gelandet und hatten die Macht an sich gerissen? Nein. Doch auch Jahre nach der Ausstrahlung des als nachrichtliche Radiosendung getarnten Hörspiels in Ecuador 1949 und in Deutschland 1977 glaubten manche Menschen daran, dass es doch wahr sein könnte. Beim WDR riefen mehrere besorgte Hörer*innen an, obwohl der Sender mehrfach darauf hingewiesen hatte, dass es sich um eine fiktive Geschichte handelt. Das hatten sie von Ecuador gelernt, denn dort kam es – als den Menschen klar geworden war, dass das Radio sie für dumm verkauft hatte und alles nur erfunden war – zu wütenden Aufständen. Das Gebäude, in dem der Radiosender untergebracht war, wurde angezündet. Sechs Menschen starben. Niemand wird gerne von „Nachrichten“ belogen.
Der „Krieg der Welten“ und der aktuell diskutierte Einsatz von sogenannter künstlicher Intelligenz (KI) im Medienbetrieb haben ein paar Gemeinsamkeiten: Beide durchbrechen Mauern, die man für sicher gehalten hatte. Und beide verlangen, dass wir unsere Medienkompetenz erweitern.
Mockumentarys und Vlogs
Damals war es eine Mauer, die die fiktive Welt eines Romans von der realen Welt der Nachrichten trennte. Inzwischen sind wir daran gewöhnt, dass journalistische Formen auch für erfundene Geschichten genutzt werden können, etwa in Mockumentarys. Ebenso neue Formen wie etwa Vlogs, die ständig zwischen Realität und Fiktion, Abbildung und Darstellung balancieren.
Heute ist die bröckelnde Mauer eine zwischen Mensch und Maschine. Mauerbrüche können gefährlich sein, aber auch bereichernd. Die Menschen, adaptive Wesen, die wir sind, gewöhnen sich an neue Situationen. Wir gehen mit ihnen um, nutzen sie für uns – auch die Medien. Mit der Veröffentlichung diverser, immer besser funktionierender KIs in Bild-, Ton- und Textproduktion wächst die Angst: „Wir können Fakes nicht mehr erkennen“, hieß es, als ein Foto vom Papst in weißer Daunenjacke auftauchte.
Als das US-Online-Medium Cnet im Herbst 2022 KI-generierte, vor Fehlern strotzende Texte veröffentlichte, als im April 2023 Die Aktuelle ein KI-generiertes, frei erfundenes Interview mit Michael Schumacher druckte, fragten einige warnend: Können wir Medien noch vertrauen, wenn sie in diesem Stil Maschinen einsetzen?
Diese Warnungen sind wichtig, damit wir uns individuell auf die möglichen Gefahren einstellen, uns mit ihnen auseinandersetzen und auch unsere Gemeinschaften in dieser Hinsicht stärken. Wie Höhlenmenschen sitzen wir bei Nacht an unseren Feuern und raunen uns Gruselgeschichten über die nicht mehr erkennbare KI zu, damit wir wachsam bleiben. Diese Wachsamkeit ist ein wichtiger Baustein für unsere Medienkompetenz. Sie hilft uns, bewusst mit Fake News, Verschwörungserzählungen und Propaganda umzugehen (auch wenn wir immer wieder an unsere und anderer Menschen Grenzen stoßen). Wir werden uns also auch daran gewöhnen, dass Medien mithilfe von KI erstellt werden.
Medienkompetenz hat viele Komponenten. Da wäre zum einen: nicht an der immensen Flut an Nachrichten und Informationen verzweifeln, die durch den Einsatz von KI noch weiter steigen wird. Was ist wichtig (für mich)? Was kann ich ignorieren? Gerade hier kann KI helfen. Newsaggregatoren wie das von Springer entwickelte „Upday“, die Beiträge aus unterschiedlichen Nachrichtenmedien bündeln und Menschen direkt auf ihre Smartphones oder ihren Browser senden, arbeiten bereits mit KI. Bei „Upday“ ist eine KI damit beschäftigt, die Inhalte der Nachrichten zu analysieren. Und dann werden sie entsprechend der Interessen, die die Nutzer*innen angegeben haben, ausgespielt. Niemand muss Schalke-News lesen, wenn er*sie doch eigentlich das Feuilleton liebt.
Um das aber nutzen zu können, muss ein grundlegendes Verständnis über die Mechanismen vorhanden sein.
Diese „Informationstechnische Kompetenz“, wie Kommunikationswissenschaftler und Mathematiker Friedrich Krotz sie schon in den 1990er Jahren nannte, bedeutet heute nicht nur: „Passt auf eure Daten auf!“ Sie bedeutet auch: „Verstehe, warum man dir manche Nachrichten NICHT zeigt. Und denk darüber nach, ob du dadurch nicht vielleicht doch nur einseitig informiert bist.“
Diese Kompetenz erfordert auch, dass wir einen Ausweg erhalten, Filter zurücksetzen können. Wir müssen sehen und verstehen, wie wir den Stecker ziehen und uns aus unseren eigenen Rabbit Holes ziehen können. Das erfordert, dass Unternehmen offen damit umgehen und die Lösungen dafür nicht verstecken. Und: dass wir selbst nach ihnen suchen.
Nachricht oder Kommentar?
Wenn diese beiden Kompetenzen bestehen, kommen wir zur nächsten, und sind wir ehrlich: auch hier hapert es auf beiden Seiten. Es geht um das Erkennen, ob ein Beitrag eine Nachricht oder ein Kommentar ist. Wütende Leser*innen beschweren sich über mangelnde Objektivität im Kommentar. Und oft genug ist das Wort „Kommentar“ über einem Beitrag verdammt klein und übersehbar. Damit wären wir beim momentan relevantesten Punkt in Sachen Medienkompetenz.
Wir müssen als Nutzer*innen einschätzen können, ob eine Nachricht Qualität hat, ob sie wichtig ist und auch richtig und welche Konsequenz sie hat. Dazu gehört, zu erkennen, ob sie von oder mit Hilfe einer KI verfasst wurde. Denn auch das ist eine Qualität – ganz wertungsfrei. Es bedeutet schlicht, dass hinter dieser Information nicht nur ein Mensch steckt.
Sondern dass ein Mensch einer KI aufgetragen hat. Zum Beispiel die Aufgabe, einen Absatz über Gesetzgebungsverfahren zu schreiben. Im Idealfall hat er auch noch eine Quelle angegeben, die die KI einfach auswerten muss. Der Mensch muss am Ende dann noch einen Kontrollgang machen. Diese Schritte zu erkennen, ohne eine Kenntlichmachung: unmöglich angesichts dessen, welche Fortschritte generative KI in den letzten Monaten gemacht hat in Bild-, Ton- und Texterstellung.
Besonders beim Erstellen von datengetriebenen Beiträgen, wie einfachen Formen von Spiel- oder Börsenberichten, bietet sich KI an. Man könnte zwar einfach auch Tabellen veröffentlichen. Die KI aber kann aus den Daten flugs einen Text machen, der sich in Aufbau und Duktus immer sehr ähnelt. So wie stinknormale Tabellen auch.
KI wird inzwischen allerdings auch auf ganz anderen Gebieten eingesetzt. Im Mai 2023 veröffentlichte die Zeitschrift Lisa Kochen & Backen eine Ausgabe mit beinahe hundert von einer KI erstellten Rezepten ohne einen Hinweis darauf, dass eine KI genutzt wurde. Auch „Ippen Digital“ lässt KI beim Schreiben helfen, erklärt aber unter den Texten, sie seien „mithilfe maschineller Unterstützung erstellt und von der Redaktion geprüft“ worden. Aber um welche Abschnitte geht es genau? Wie viel davon ist von Menschen geschrieben, wie viel von einer Maschine? Wäre es nicht besser, die entsprechenden Absätze genau zu markieren, einzufärben, mit Wasserzeichen zu versehen?
Der Deutsche Journalistenverband DJV hat ein Positionspapier verabschiedet, in dem es heißt: „Die Kennzeichnung muss in unmittelbarer Nähe zum Inhalt erfolgen und hinsichtlich Größe und Gestaltung klar erkennbar sein.“ Das ist wichtig, nicht nur, um das Vertrauen der Leser*innen zu behalten oder auch mal: zu gewinnen. Es geht auch um die Grundsätze von Journalismus: Wahrheit und Transparenz.
Die Markierung alleine kann deswegen nicht ausreichen. Es bräuchte eine zusätzliche Erklärung, wie die KI funktioniert, wie sie trainiert wurde, welche ethischen Maßstäbe die Redaktion an ihre KI ansetzt, wie das KI-Erschaffene danach menschlich kontrolliert wird. Denn zu Journalismus gehört es, die Welt zu erklären, möglichst verständlich, auch die eigene.
Wir brauchen einen KI-TÜV
Die Gesellschaft darf sich aber nicht darauf verlassen. Selbst ohne den Faktor KI kommt es immer wieder zu gezielten Falschmeldungen und Klickbaiting in Medien, zu Abhörskandalen und Verletzung von Persönlichkeitsrechten. Wir brauchen, so schwer die Forderung fallen mag, gesetzliche Regelungen.
Und eine Art TÜV, der nicht Autos prüft, sondern in regelmäßigen Abständen die Technik und die Ethik hinter jeder einzelnen von Medien genutzten KI. Auch der Presserat sollte aktiv werden und KI in den Pressekodex aufnehmen. Das wurde zwar Anfang 2022 schon diskutiert, aber man konnte keine gemeinsame Linie finden.
Besonders problematisch ist der Einsatz von KI-generierten Bildern, wie etwa auch eines für diesen Artikel genutzt wird. Bilder haben eine andere Macht als Texte – selbst für Menschen, die über viel Medienkompetenz verfügen. Das Bild spricht zu uns, ist im Idealfall sofort verständlich und geht dabei über reinen Inhalt hinaus, weil es eine Szene und damit Emotionen transportiert, die wir im Regelfall ohne große Reflexion begreifen.
Lesen allerdings erfordert den Beschluss, zu lesen, erfordert Energie und kognitive, bewusste Leistung. Das Nachdenken über Bilder ist vielen von uns aber nicht so beigebracht worden, wie das Nachdenken über Texte. Im Deutschunterricht analysieren Schüler*innen zig Texte, hinterfragen Erzählperspektive, Motivationen, Lügen. Die Bildanalyse kommt viel seltener im Unterricht vor.
Generierte Bilder zu nutzen, ohne dies klar als KI-generiert auszuweisen, etwa durch Wasserzeichen, hat ganz andere Auswirkungen als ein schlecht kenntlich gemachter KI-Text. Bilder emotionalisieren augenblicklich und sind schwerer zu hinterfragen. Ein Bild muss ich nicht erst anklicken, um es sehen zu können, einen Text schon. Manche Medien wie etwa Kuwait News arbeiten schon jetzt mit Avataren als Nachrichtensprecher. Die sehen zwar menschlich aus, sind es aber nicht.
Erst wenn Medienhäuser einen vernünftigen Umgang mit KI gefunden haben, können auch alle anderen einen vernünftigen Umgang mit eben diesen Medien finden. Und das wäre überaus wichtig und richtig.
Denn neben all den Ängsten und Sorgen wird oft vergessen, wie stark KI helfen kann: Beim Verfassen von Bildunterschriften, bei leichterem Schnitt, bei der Auswertung von großen Datenmengen für Investigativrecherchen und bei stupiden Arbeiten, wie der Erstellung eines Fernsehprogramms. Damit Menschen ihre Energie, Zeit, Kreativität und emotionale Intelligenz endlich in andere Medienbereiche stecken können.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
Juso-Chef über Bundestagswahlkampf
„Das ist unsere Bedingung“
Verein „Hand in Hand für unser Land“
Wenig Menschen und Traktoren bei Rechtspopulisten-Demo
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen
taz-Recherche zu Gewalt gegen Frauen
Eine ganz normale Woche in Deutschland