TÜV für Künstliche Intelligenz: Die Neuen im Newsroom

Gegen die Angst vor der künstlichen Intelligenz hilft nur Medienkompetenz. Auch der Journalismus muss seine Grundsätze mal wieder updaten.

Ein Roboter sitzt am Schreibtisch vor einem Bildschirm und tippt auf der Tastatur, die vor ihm auf dem Tisch liegt

Neu­e*r Kolleg*in: Mensch oder Maschine? KI-generiertes Bild Foto: Paul Hartl/imago

Auch wenn die Berichte über Massenpaniken stark übertrieben waren: Als der „Krieg der Welten“ 1938 im US-Radio ausgestrahlt worden ist, haben es einige Zu­hö­re­r*in­nen mit der Angst zu tun bekommen.

Waren wirklich Außerirdische, wie im Hörspiel dargestellt, auf der Erde gelandet und hatten die Macht an sich gerissen? Nein. Doch auch Jahre nach der Ausstrahlung des als nachrichtliche Radiosendung getarnten Hörspiels in Ecuador 1949 und in Deutschland 1977 glaubten manche Menschen daran, dass es doch wahr sein könnte. Beim WDR riefen mehrere besorgte Hö­re­r*in­nen an, obwohl der Sender mehrfach darauf hingewiesen hatte, dass es sich um eine fiktive Geschichte handelt. Das hatten sie von Ecuador gelernt, denn dort kam es – als den Menschen klar geworden war, dass das Radio sie für dumm verkauft hatte und alles nur erfunden war – zu wütenden Aufständen. Das Gebäude, in dem der Radiosender untergebracht war, wurde angezündet. Sechs Menschen starben. Niemand wird gerne von „Nachrichten“ belogen.

Der „Krieg der Welten“ und der aktuell diskutierte Einsatz von sogenannter künstlicher Intelligenz (KI) im Medienbetrieb haben ein paar Gemeinsamkeiten: Beide durchbrechen Mauern, die man für sicher gehalten hatte. Und beide verlangen, dass wir unsere Medienkompetenz erweitern.

Mockumentarys und Vlogs

Damals war es eine Mauer, die die fiktive Welt eines Romans von der realen Welt der Nachrichten trennte. Inzwischen sind wir daran gewöhnt, dass journalistische Formen auch für erfundene Geschichten genutzt werden können, etwa in Mockumentarys. Ebenso neue Formen wie etwa Vlogs, die ständig zwischen Realität und Fiktion, Abbildung und Darstellung balancieren.

Heute ist die bröckelnde Mauer eine zwischen Mensch und Maschine. Mauerbrüche können gefährlich sein, aber auch bereichernd. Die Menschen, adaptive Wesen, die wir sind, gewöhnen sich an neue Situationen. Wir gehen mit ihnen um, nutzen sie für uns – auch die Medien. Mit der Veröffentlichung diverser, immer besser funktionierender KIs in Bild-, Ton- und Textproduktion wächst die Angst: „Wir können Fakes nicht mehr erkennen“, hieß es, als ein Foto vom Papst in weißer Daunenjacke auftauchte.

Als das US-Online-Medium Cnet im Herbst 2022 KI-generierte, vor Fehlern strotzende Texte veröffentlichte, als im April 2023 Die Aktuelle ein KI-generiertes, frei erfundenes Interview mit Michael Schumacher druckte, fragten einige warnend: Können wir Medien noch vertrauen, wenn sie in diesem Stil Maschinen einsetzen?

Diese Warnungen sind wichtig, damit wir uns individuell auf die möglichen Gefahren einstellen, uns mit ihnen auseinandersetzen und auch unsere Gemeinschaften in dieser Hinsicht stärken. Wie Höhlenmenschen sitzen wir bei Nacht an unseren Feuern und raunen uns Gruselgeschichten über die nicht mehr erkennbare KI zu, damit wir wachsam bleiben. Diese Wachsamkeit ist ein wichtiger Baustein für unsere Medienkompetenz. Sie hilft uns, bewusst mit Fake News, Verschwörungserzählungen und Propaganda umzugehen (auch wenn wir immer wieder an unsere und anderer Menschen Grenzen stoßen). Wir werden uns also auch daran gewöhnen, dass Medien mithilfe von KI erstellt werden.

Medienkompetenz hat viele Komponenten. Da wäre zum einen: nicht an der immensen Flut an Nachrichten und Informationen verzweifeln, die durch den Einsatz von KI noch weiter steigen wird. Was ist wichtig (für mich)? Was kann ich ignorieren? Gerade hier kann KI helfen. Newsaggregatoren wie das von Springer entwickelte „Upday“, die Beiträge aus unterschiedlichen Nachrichtenmedien bündeln und Menschen direkt auf ihre Smartphones oder ihren Browser senden, arbeiten bereits mit KI. Bei „Upday“ ist eine KI damit beschäftigt, die Inhalte der Nachrichten zu analysieren. Und dann werden sie entsprechend der Interessen, die die Nut­ze­r*in­nen angegeben haben, ausgespielt. Niemand muss Schalke-News lesen, wenn er*­sie doch eigentlich das Feuilleton liebt.

Um das aber nutzen zu können, muss ein grundlegendes Verständnis über die Mechanismen vorhanden sein.

Diese „Informationstechnische Kompetenz“, wie Kommunikationswissenschaftler und Mathematiker Friedrich Krotz sie schon in den 1990er Jahren nannte, bedeutet heute nicht nur: „Passt auf eure Daten auf!“ Sie bedeutet auch: „Verstehe, warum man dir manche Nachrichten NICHT zeigt. Und denk darüber nach, ob du dadurch nicht vielleicht doch nur einseitig informiert bist.“

Diese Kompetenz erfordert auch, dass wir einen Ausweg erhalten, Filter zurücksetzen können. Wir müssen sehen und verstehen, wie wir den Stecker ziehen und uns aus unseren eigenen Rabbit Holes ziehen können. Das erfordert, dass Unternehmen offen damit umgehen und die Lösungen dafür nicht verstecken. Und: dass wir selbst nach ihnen suchen.

Nachricht oder Kommentar?

Wenn diese beiden Kompetenzen bestehen, kommen wir zur nächsten, und sind wir ehrlich: auch hier hapert es auf beiden Seiten. Es geht um das Erkennen, ob ein Beitrag eine Nachricht oder ein Kommentar ist. Wütende Le­se­r*in­nen beschweren sich über mangelnde Objektivität im Kommentar. Und oft genug ist das Wort „Kommentar“ über einem Beitrag verdammt klein und übersehbar. Damit wären wir beim momentan relevantesten Punkt in Sachen Medienkompetenz.

Wir müssen als Nut­ze­r*in­nen einschätzen können, ob eine Nachricht Qualität hat, ob sie wichtig ist und auch richtig und welche Konsequenz sie hat. Dazu gehört, zu erkennen, ob sie von oder mit Hilfe einer KI verfasst wurde. Denn auch das ist eine Qualität – ganz wertungsfrei. Es bedeutet schlicht, dass hinter dieser Information nicht nur ein Mensch steckt.

Sondern dass ein Mensch einer KI aufgetragen hat. Zum Beispiel die Aufgabe, einen Absatz über Gesetzgebungsverfahren zu schrei­ben. Im Idealfall hat er auch noch eine Quelle angegeben, die die KI einfach auswerten muss. Der Mensch muss am Ende dann noch einen Kontrollgang machen. Diese Schritte zu erkennen, ohne eine Kenntlichmachung: unmöglich angesichts dessen, welche Fortschritte generative KI in den letzten Monaten gemacht hat in Bild-, Ton- und Texterstellung.

Besonders beim Erstellen von datengetriebenen Beiträgen, wie einfachen Formen von Spiel- oder Börsenberichten, bietet sich KI an. Man könnte zwar einfach auch Tabellen veröffentlichen. Die KI aber kann aus den Daten flugs einen Text machen, der sich in Aufbau und Duktus immer sehr ähnelt. So wie stinknormale Tabellen auch.

KI wird inzwischen allerdings auch auf ganz anderen Gebieten eingesetzt. Im Mai 2023 veröffentlichte die Zeitschrift Lisa Kochen & Backen eine Ausgabe mit beinahe hundert von einer KI erstellten Rezepten ohne einen Hinweis darauf, dass eine KI genutzt wurde. Auch „Ippen Digital“ lässt KI beim Schreiben helfen, erklärt aber unter den Texten, sie seien „mithilfe maschineller Unterstützung erstellt und von der Redaktion geprüft“ worden. Aber um welche Abschnitte geht es genau? Wie viel davon ist von Menschen geschrieben, wie viel von einer Maschine? Wäre es nicht besser, die entsprechenden Absätze genau zu markieren, einzufärben, mit Wasserzeichen zu versehen?

Der Deutsche Journalistenverband DJV hat ein Positionspapier verabschiedet, in dem es heißt: „Die Kennzeichnung muss in unmittelbarer Nähe zum Inhalt erfolgen und hinsichtlich Größe und Gestaltung klar erkennbar sein.“ Das ist wichtig, nicht nur, um das Vertrauen der Le­se­r*in­nen zu behalten oder auch mal: zu gewinnen. Es geht auch um die Grundsätze von Journalismus: Wahrheit und Transparenz.

Die Markierung alleine kann deswegen nicht ausreichen. Es bräuchte eine zusätzliche Erklärung, wie die KI funktioniert, wie sie trainiert wurde, welche ethischen Maßstäbe die Redaktion an ihre KI ansetzt, wie das KI-Erschaffene danach menschlich kontrolliert wird. Denn zu Journalismus gehört es, die Welt zu erklären, möglichst verständlich, auch die eigene.

Wir brauchen einen KI-TÜV

Die Gesellschaft darf sich aber nicht darauf verlassen. Selbst ohne den Faktor KI kommt es immer wieder zu gezielten Falschmeldungen und Klickbaiting in Medien, zu Abhörskandalen und Verletzung von Persönlichkeitsrechten. Wir brauchen, so schwer die Forderung fallen mag, gesetzliche Regelungen.

Und eine Art TÜV, der nicht Autos prüft, sondern in regelmäßigen Abständen die Technik und die Ethik hinter jeder einzelnen von Medien genutzten KI. Auch der Presserat sollte aktiv werden und KI in den Pressekodex aufnehmen. Das wurde zwar Anfang 2022 schon diskutiert, aber man konnte keine gemeinsame Linie finden.

Besonders problematisch ist der Einsatz von KI-generierten Bildern, wie etwa auch eines für diesen Artikel genutzt wird. Bilder haben eine andere Macht als Texte – selbst für Menschen, die über viel Medienkompetenz verfügen. Das Bild spricht zu uns, ist im Idealfall sofort verständlich und geht dabei über reinen Inhalt hinaus, weil es eine Szene und damit Emotionen transportiert, die wir im Regelfall ohne große Reflexion begreifen.

Lesen allerdings erfordert den Beschluss, zu lesen, erfordert Energie und kognitive, bewusste Leistung. Das Nachdenken über Bilder ist vielen von uns aber nicht so beigebracht worden, wie das Nachdenken über Texte. Im Deutschunterricht analysieren Schü­le­r*in­nen zig Texte, hinterfragen Erzählperspektive, Motivationen, Lügen. Die Bildanalyse kommt viel seltener im Unterricht vor.

Generierte Bilder zu nutzen, ohne dies klar als KI-generiert auszuweisen, etwa durch Wasserzeichen, hat ganz andere Auswirkungen als ein schlecht kenntlich gemachter KI-Text. Bilder emotionalisieren augenblicklich und sind schwerer zu hinterfragen. Ein Bild muss ich nicht erst anklicken, um es sehen zu können, einen Text schon. Manche Medien wie etwa Kuwait News arbeiten schon jetzt mit Avataren als Nachrichtensprecher. Die sehen zwar menschlich aus, sind es aber nicht.

Erst wenn Medienhäuser einen vernünftigen Umgang mit KI gefunden haben, können auch alle anderen einen vernünftigen Umgang mit eben diesen Medien finden. Und das wäre überaus wichtig und richtig.

Denn neben all den Ängsten und Sorgen wird oft vergessen, wie stark KI helfen kann: Beim Verfassen von Bildunterschriften, bei leichterem Schnitt, bei der Auswertung von großen Datenmengen für Investigativrecherchen und bei stupiden Arbeiten, wie der Erstellung eines Fernsehprogramms. Damit Menschen ihre Energie, Zeit, Kreativität und emotionale Intelligenz endlich in andere Medienbereiche stecken können.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.