piwik no script img

KI und JournalismusEin Monster namens Künstliche Intelligenz

Medienschaffende schaufeln sich mit der Nutzung von KI selbst ein Grab. Rette, wer kann, kritisches Urteilsvermögen und Glaubwürdigkeit.

ährend soziale Medien die Öffentlichkeit zersplitterten, beginnen KI-Systeme sie allmählich zu synthetisieren Illustration: Katja Gendikova

A ls Jürgen Habermas im Jahr 2022 noch einmal zur Feder griff, um über den Zustand der Öffentlichkeit nachzudenken, tat er etwas Ungewöhnliches: Ein Denker, der sein Lebenswerk längst geschrieben hatte, kehrt zu seinem zentralen Thema zurück – als wolle er prüfen, ob die Grundlagen demokratischer Öffentlichkeit noch tragen. Sein berühmtes Buch über den „Strukturwandel der Öffentlichkeit“ erschien bereits 1962 und beschrieb die Entstehung eines bürgerlichen Diskursraums, in dem private Menschen über politische Fragen stritten.

60 Jahre später klingt dieser Ton verhaltener. In seinem Essay „Ein neuer Strukturwandel der Öffentlichkeit“ analysierte Habermas eine Kommunikationsordnung, in der sich Öffentlichkeit in Plattformen, Algorithmen und personalisierte Informationsströme auflöst – und damit jene gemeinsame Aufmerksamkeit verliert, auf der demokratische Verständigung einst beruhte. Ihn beunruhigten diese Phänomene in einer Zeit, in der soziale Netzwerke noch als zunehmend toxisches Gefüge öffentlicher Kommunikation galten.

Nur wenige Jahre später verschiebt sich seine Gegenwartsdiagnose erneut. Denn inzwischen greift eine schillernde Technologie in diese krisenanfällige Architektur ein: die künstliche Intelligenz. Während soziale Medien die Öffentlichkeit zersplitterten, beginnen KI-Systeme sie allmählich zu synthetisieren. Texte, Bilder und Antworten entstehen zunehmend in maschinellen Dialogfenstern die Informationen verdichten und rekombinieren.

Das Logo der taz: Weißer Schriftzung t a z und weiße Tatze auf rotem Grund.
taz debatte

Die taz ist eine unabhängige, linke und meinungsstarke Tageszeitung. In unseren Kommentaren, Essays und Debattentexten streiten wir seit der Gründung der taz im Jahr 1979. Oft können und wollen wir uns nicht auf eine Meinung einigen. Deshalb finden sich hier teils komplett gegenläufige Positionen – allesamt Teil des sehr breiten linken Meinungsspektrums.

Der Öffentlichkeitsbegriff, von dem Habermas ausging, beruhte bekanntlich auf gemeinsamen Wirklichkeitszuschreibungen. Zeitungen, Rundfunk und später auch digitale Medien bildeten dafür ein verlässliches Ordnungssystem, das zumindest grundsätzlich nachvollziehbar blieb. Man konnte erkennen, wer eine Information recherchiert hatte, wer für ihre Veröffentlichung verantwortlich war und in welchem institutionellen Kontext sie steht.

Intransparente Quelle

Genau diese Zuordnung beginnt in der KI-vermittelten Kommunikationsordnung unkenntlich zu werden. Nachrichten erscheinen heute immer häufiger nicht mehr als Artikel oder Sendung, sondern als Antwort in einem Chatfenster. Diese Outputs wirken plausibel und vollständig, doch ihr Ursprung bleibt intransparent. Meist bestehen sie aus Fragmenten journalistischer, wissenschaftlicher oder politischer Inhalte, die von algorithmischen Systemen neu zusammengepuzzelt werden.

Diese Verlagerung hat eine paradoxe Folge. Während Redaktionen generative KI-Systeme einsetzen, verlieren sie gleichzeitig an Sichtbarkeit. Reichweite entsteht immer seltener im Austausch zwischen Redaktion und Publikum, sondern über Plattformen und KI-Interfaces. Gerade jene journalistischen Leistungen, die Zeit, Präsenz und Präzision erfordern – Recherche vor Ort oder investigative Arbeit –, geraten dadurch unter Druck.

Bild: UdK
Stephan Weichert

ist Medienwissenschaftler. Seit 2020 leitet er das unabhängige VOCER-Institut für Digitale Resilienz, ein gemeinnütziger Think & Do Tank, der sich für den souveränen Umgang mit KI-Technologie einsetzt. Er arbeitet seit rund 25 Jahren als Lehrbeauftragter und Professor (u. a. Universität der Künste, FH Graz, City University of New York, Hamburg Media School). Am 15. März 2026 erscheint das von ihm und Leif Kramp verfasste Whitepaper „KI-Resilienz im Journalismus. Frameworks und Handlungsempfehlungen für mehr Vertrauen, Verantwortung und digitale Souveränität“.

Wie tief dieser Wandel inzwischen in den Redaktionsalltag hineinreicht, zeigte ein Vorfall beim ZDF: In einem Beitrag des „heute journals“ wurden KI-generierte Bilder und falsch kontextualisiertes Material verwendet – ohne Kennzeichnung. Die Redaktion entschuldigte sich, die verantwortliche Korrespondentin wurde abgezogen. Der Vorgang wurde schnell als „Medienpanne“ definiert, als handwerklicher Fehler, der durch strengere Kontrollmechanismen künftig verhindert werden solle.

Das große Fressen beginnt in dem Moment, wo die KI-Systeme aus journalistischer Arbeit lernen, um sie anschließend ohne menschliche Journalisten weiterzuführen

Man könnte solche Vorfälle – jüngst auch beim Spiegel oder im Ippen-Verlag – als eine Serie unglücklicher Einzelfälle abtun. Doch genau das wäre fatal. Sie markieren vielmehr den Beginn eines Musters, das sich in den kommenden Monaten immer häufiger im Redaktionsalltag zeigen dürfte. Denn sichtbar wird hier weniger ein technisches als ein kulturelles Problem: Der Journalismus hat sich über Jahrzehnte daran gewöhnt, technologische Umbrüche vor allem als Effizienzfragen zu behandeln.

Die KI nutzt jeden Prompt

Neue Software, neue Plattformen, neue Distributionswege – all das wurde meist als pragmatische Anverwandlung an eine sich transformierende Medienökonomie interpretiert. Mit der KI funktioniert diese Methode nun nicht mehr. Denn LLMs (Large Language Models für sehr lange Texte) sind keine weitere Produktionsstufe in der Redaktionsroutine: Mit jedem Prompt studieren KI-Sprachmodelle journalistische Texte, Interviewtranskripte, Analysen, Kommentare oder Reportagen.

Sie lernen schleichend das Metier des Journalismus – und das mit einer Akribie und Geschwindigkeit, die kein Mensch je erreichen könnte. Ironischerweise beteiligt sich die Branche ganz freiwillig an diesem Prozess. Journalisten, PR-Leute und Mediennutzer füttern KI-Systeme täglich mit teils vertraulichen Fragen, Dokumenten und Texten. Jeder Prompt wird Teil eines Trainingsprozesses, in dem die Maschinen lernen, wie journalistische Argumentation funktioniert – und beginnen, journalistische Denkweisen zu modellieren.

Der österreichische Publizist A. H. Kober sprach vor rund 100 Jahren von der „Seele des Journalisten“ – jener gesunden Mischung aus Skepsis, Erfahrung und Urteilskraft, die sich im Laufe eines Berufslebens bildet. Genau diese Seele steht nun zur Disposition, wenn Recherche, Strukturierung und Formulierung zunehmend automatisiert werden. Die Reaktion vieler Medienhäuser darauf wirkt verblüffend unentschlossen.

Einerseits wird KI enthusiastisch als Produktionsbooster gefeiert, andererseits rhetorisch verharmlost – als „Assistent“, „Sparringspartner“ oder „Tool“. Diese Beschwichtigungsrhetorik lässt eine Digitaltechnologie harmlos erscheinen, deren strukturelle Folgen gerade für Öffentlichkeit und Demokratie heute schon erheblich ist.

Expertise wird wichtiger

Besonders sichtbar wird diese Zögerlichkeit im Umgang mit Big Tech. Denn während Journalisten endlich darüber diskutieren, ob sie ihre Inhalte weiterhin auf dysfunktionalen und süchtig machenden Plattformen wie Tiktok, LinkedIn oder Instagram schaufeln sollten, etabliert sich mit der KI längst die nächste Suchtschnittstelle: In der neuen Vertrauensökonomie entsteht Bindung zunehmend dort, wo individuelle Chatverläufe generiert werden – nicht mehr dort, wo redaktionelle Artikel oder Fernsehnachrichten erscheinen.

Ein Blick auf die strategischen Debatten in den USA zeigt, wohin diese Entwicklung führen könnte. Der Gründer Jim VandeHei des US-Nachrichtenportals Axios formulierte das kürzlich ungewöhnlich offen: In einer Welt voller KI-generierter Inhalte werde sich jener Journalismus durchsetzen, den Maschinen nicht ersetzen können: Während KI den Durchschnittsjournalismus zunehmend automatisiere, steige der Wert derjenigen, die über Expertise, Quellenkenntnis und Glaubwürdigkeit verfügten.

In dieser Stringenz führt das zu einer radikalen Zweiteilung des Marktes. Auf der einen Seite entsteht eine unausweichliche Flut seelenloser Inhalte – schnell produziert, billig, blutleer. Auf der anderen Seite bleibt ein kleiner Kern journalistischer Arbeit übrig, der sich durch Exzellenz und persönliche Autorität von der Masse abhebt. Für viele Medienhäuser bedeutet das, sich einer unbequemen Wahrheit zu stellen: Die eigentliche Konkurrenz für Journalismus ist nicht die generative KI. Es ist der mittelmäßige Journalismus, den die Maschinen problemlos ersetzen können.

Zwei Jahrzehnte lang dominierte der Trugschluss, Journalismus müsse auf Social-Media-Plattformen erfolgreich performen, um junge Zielgruppen an ihren digitalen Kontaktpunkten zu erreichen. Der Preis dieser Anbiederungstaktik ist inzwischen offenkundig: Medienhäuser produzierten unablässig Inhalte für Plattformen, deren Algorithmen permanenten Narzissmus belohnen, während sie die publizistische Autorität systematisch untergraben.

Journalismus als Rohstofflieferant

Was lange als notwendige Anpassung in der Plattformökonomie galt, erscheint im Rückblick eher wie kollektiver Selbstmord – oder zumindest wie ein reichlich missglücktes Experiment der professionellen Selbstentstellung. Während der Journalismus noch zaghaft versucht, seine Rolle zwischen Influencertum und Creator-Economy auszubalancieren, verschiebt sich die Konfliktlinie bereits weiter: Mit KI entsteht eine neue Ebene öffentlicher Kommunikation.

Damit schiebt sich ein neuer Gatekeeper öffentlicher Kommunikation dazwischen - und verschiebt damit auch die Verantwortungslücke weiter. Wenn Inhalte zunehmend automatisiert vorbereitet, strukturiert und verbreitet werden, stellt sich zwangsläufig die Frage: Wer entscheidet, welche Bilder verwendet werden? Wer überprüft Quellen? Wer trägt die letzte Verantwortung?

Die Antwort auf diese Fragen ist keine technische, sondern vielmehr eine institutionelle. Kennzeichnungspflichten und Leitlinien sind wichtige Schritte, greifen aber oft zu kurz: Viele Redaktionen berufen sich auf realitätsferne KI-Kodizes, die zwar hübsch klingende Prinzipien formulieren, ohne aber verbindlich zu klären, wie Verantwortung im konkreten Produktionsprozess tatsächlich organisiert wird. Der Journalismus steht damit vor einer Entscheidung, die größer ist als jede philosophische KI-Debatte.

Er kann versuchen, KI-Technologie innerhalb bestehender Produktionsabläufe einzubinden – und riskiert damit erneut, sich tiefer in die Logik der Algorithmen zu verstricken. Oder er begreift generative KI als das, was inzwischen aus ihr geworden ist: eine wirkmächtige Maschinerie der Wirklichkeitsproduktion, die grundlegende Reformen institutioneller Rechenschaft erzwingt – manche, wie der US-Politiker Bernie Sanders, plädieren sogar für ein Moratorium der globalen KI-Entwicklung.

Klar ist: Der Journalismus arbeitet an einer kommunikativen Architektur mit, die immer besser darin wird, seine Denk- und Arbeitsweisen zu imitieren. Das große Fressen beginnt also nicht erst dann, wenn ganze Redaktionen demnächst aus Effizienzgründen verschwinden. Es beginnt viel früher – nämlich in dem Moment, in dem die Leitplanken öffentlicher Kommunikation ihre Konturen verlieren, weil die KI-Systeme aus journalistischer Arbeit lernen, um sie anschließend ohne menschliche Journalisten weiterzuführen.

Vermutlich wird Journalismus trotz dieser eigenwilligen Dynamik noch lange seinen Job erledigen. Aber er ist dann nicht mehr die Referenzgröße demokratischer Erwartungen der Bürger, sondern ein Residuum – eine Rohstoffquelle unter vielen. Vielleicht besteht die Ironie dieser Entwicklung darin, dass der Journalismus an einer Infrastruktur mitbaut, die ihn am Ende selbst verschlingt. Nach Jahren digitaler Entfremdung wäre dies der letzte Wandlungsakt eines Metiers, das lange glaubte, schrille Selbstinszenierungen gegen kritisches Urteilsvermögen eintauschen zu können.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

20 Kommentare

 / 
  • Es gibt Experimente, bei denen zwei KIs Ihre Kommunikation so verbessern, dass Wissenschaftler diese nicht mehr verstehen können. Man könnte denken, so what? Halb so wild.

    Nur, das Selbe wird unweigerlich passieren, wenn KI Schaltkreise und Hardwarekomponenten entwickelt und dazu die passende Software sowie die Protokolle, mit denen die Komponenten anschließend untereinander kommunizieren.

    Zeit und Ressourcen sind gerade bei KI so teuer, dass eine umfassende Kontrolle schon aus Kostengründen unterbleiben muss.

    Herzlichen Glückwunsch!

  • Eine interessante Analyse.



    David Gerard sieht das ähnlich - die Firmen nutzen die Technologien aus dem Silicon Valley in der Hoffnung selbst etwas vom großen Kuchen abzubekommen und schaden sich im Endeffekt selbst bzw. bereichern halt die entsprechenden Konzerne.



    Ich denke, es könnte tatsächlich so werden, aber, und das scheinen komischerweise alle zu vergessen, so wie wir unseren Tod jeden Tag verdrängen, es gibt da einen Haken: Die natürlichen Ressourcen sind endlich.



    KI verbraucht Unmengen an Wasser und Strom (wodurch der CO2-Ausstoß sich vergrößert ...).



    Ich befürchte, selbst wenn die KI alles übernimmt, es wird nur von kurzer Dauer sein, denn danach ersticken, verhungern oder verdursten wir.



    Aber ja, machen wir doch einfach weiter wie bisher - sterben tun ja nur die anderen.

  • Sehr, sehr gute Analyse!

    Habe dabei allerdings eine Angstträne vergossen.

    • @AugenhöheStattTribalismus:

      Die Träne ist durchaus verständlich. KI trifft u. a. auf menschliche Niedertracht - die Reaktionen sind schon weltweit spürbar.

  • Interessant ist wohl auch, dass wir schon heute ohne KI einen zum Teil tendenziösen Journalismus haben, der eine gesunde Portion Reflektion und Recherche und damit Bildung beim werten Konsumenten vorraussetzt.



    Auch das weite Feld von Socialmedia und den dortigen Akteuren erfordert dies.



    Die "Zeitenwende" der Desinformation, auch ohne KI, setzte als schon weit früher ein als es dieser Artikel als Dystopie malt.

    Die Frage ist doch, wohin führt das alles, insbesondere wer steht dahinter mit welcher Intention. Cui bono...

    Ein sehr interessanter Podcast dazu auf Spotify über den reichsten Mann der Welt und seinen Zielen, garantiert ohne KI erzeugt:



    open.spotify.com/e...i=f0cbb4d3c5ee47cc

    • @Stefan Schmitt:

      Bildung würde auch der KI gut tun.



      Tipp- und Rechtschreibfehler, die sich stundenlang in Laufzeilen unter Nachrichten halten, deuten nicht auf eine hohe Qualität hin.



      Vielleicht bin ich aber einfach nur zu pingelig....

  • Ein gelungener Text, nichtsdestotrotz drei kurze Anmerkungen dazu:

    1. Die KI-Welle wird unter Umständen durchaus nicht nur die medienschaffende Branche erfassen, sondern im Grunde alle Bereiche, die sich mittels LLMs in Daten und anschließend wieder in Sprache transformieren lassen, also Bereiche, die weniger mit harter Logik zu tun haben, vorausgesetzt, es findet „keine entsprechende Gegenwehr“ statt.



    2. Die meisten dieser "KIs" stammen nicht aus Europa. Diejenigen, die hier vorhanden sind, sind entweder ihren Benutzern gegenüber zu restriktiv, bremsen sich dadurch selbst aus und werden letztendlich das Rennen verlieren, oder ihre Fähigkeiten sind nicht breit genug aufgestellt.



    3. Theoretisch existiert ein recht einfacher Ausweg aus einer durch KIs entstehenden, denkbaren Krise. Es wundert mich, dass man nahezu keine Beiträge darüber findet, denn Schlagworte wie „data poisoning“, „adversarial data injection“, „backdoor attacks“ oder „anti-scraping defenses“ könnten in Kreisen, in denen man sich mit einem Wissensgebiet auseinandersetzt, durchaus bekannt sein.

    • @Neo Joker:

      Zu Punkt 1: Wieso nur die Medienbranche? Ich hatte gehofft, damit könnte man mal die SW-Entwicklung aufräumen, das Potential dazu ist riesig. Es gibt jede Menge nützliche Anwendungen. Aber die gefährlichen Seiten - über die Klimafolgen hinaus - ist kaum vorhersehbar, und gerade im Bereich Medien ist die Sprengkraft für die Gesellschaft jetzt schon enorm.



      Zu Punkt 3: Auch deshalb wird es wohl so gut wie unmöglich, Pandoras Dose rechtzeitig wieder zuzukriegen. Weiteres Beispiel: Im Moment kommen KI-Fähigkeiten durch intensives dedicated development bei Cyber-Kriminellen gerade wie ein Tsunami auf uns zu. Das könnte bewirken, dass bald genügend Leute das Problem durch Selbsterfahrung begreifen, aber es wird sich dann wahrscheinlich auch zeigen, dass es für die ausreichende Verstärkung von Gegenmaßnahmen zumindestens sehr spät ist.



      Generell müsste ja auch erst mal ein gesellschaftlicher Konsens für einen angemessenen Umgang mit KI entwickelt werden. Fachleute warnen jedenfalls schon lange genug.

    • @Neo Joker:

      Als an KI-Sicherheit forschender Wissenschaftler kann ich Ihnen sagen, dass der einzige "einfache Ausweg aus einer durch KI entstehenden Krise" darin besteht, KI ab einer bestimmten Fähigkeitsstufe durch ein globales Abkommen zu verbieten. Technische Lösungen sind seit Langer Zeit bekanntermaßen nicht nur nicht "recht einfach" sondern möglicherweise unmöglich.

  • Es braucht einen Europäischen Schutz vor den rechten Tech Bros + eine Erweiterung der öffentlich - rechtlichen durch öffentlich-rechtliche Plattformen, die der demokratische Öffentlichkeit wieder Raum geben können, sie aber auch schützen vor der Überflutung durch rechte Algorathmen und KI Bots, dazu aber wäre noch weitere unabhängige reale Presse zu unterstützen wichtig, etwa indem die Leute von " tax me now!" ihre freiwillige Reichensteuer dafür abführen, dass die Medien für free speach, auch weiter global free speach ermöglichen : etwa entgegen den Aufkäufen durch rechte Billionäre, wie nun in den USA droht, denen wir immerhin nach dem NS danbar waren, dass sie uns solche Ideen als Ideale recht praktisch nache brachten und trotz der imperialen Widersprüchlicheit, doch auch halbwegs ermöglichten, zeitweise und eben aus der demokratischen Eigendynamik her, die nicht so leicht zu unterdrücken ist, wie wir an Democracy Now ! sehen. Was wird aus denen, falls Trump seine Faschisierung tatsächlich weiter durchziehen kann ?

  • Persönliche bisherige Erfahrungen:



    Im Bereich von Routinearbeiten (Übersetzungen, Analysen, Mustererkennung etc. gut und sinnvoll.) Schon im Bereich von Interpretationen entstehen irrwitzige Aussagen der sogenannten KI.



    Kreativität? Wer bin ich, dass ich da den „Output“ einer Maschine verwenden würde? Das soll mal der Sacha LobOh machen.

    • @Mondschaf26:

      Wenn Sie bisher keine besseren Ergebnisse erzielen konnten, würde ich mal eine Fortbildung in KI-Nutzung machen oder statt denn Umsonst-Modellen die Bezahl-Produkte verwenden.

      • @Jobst Heitzig:

        😂 Jung - wat höbt wie lacht!

        & btw



        Der Journalismus hat dazu noch lang vor 🤖 vorgemuckt!



        Indem längst der Worthülsensalat zum Hauptgericht mutierte.



        a ☕️☕️ “Ja wie? So schnell?!



        Sie haben die Süddeutsche schon durch?“



        “Ach was! Ich les die Artikel doch nur an, unverdaulicher Worthülsensalat!“



        “So schlimm?!“ “Ja leider! Ich unterrichte von Zürich bis Hamburg an Journalistenschulen. Es ist ein Elend. Ihr Interesse ist nur darauf gerichtet - “zündende“. Sätze Phrasen usw für ihren Pc zu sammeln. Wenn ich ihnen sage - so können sie keine lesbaren Artikel schreiben: interessiert sie nicht!“

        “An einer Seite Prosa arbeiten - wie an einer Säule! So siehste aus!“ Tucho

  • Die künstliche Intelligenz (KI) nützt vor allen Dingen den großen Konzernen, die mit diesem Geschäftsmodell riesige Gewinne einfahren. Der Normalo wird eher nicht profitieren, KI verdrängt Arbeitskräfte, alles muß zukünftig wohl noch schneller gehen und der Wissensgewinn ist nur noch marginal. Fake von Wahrheit zu unterscheiden kostet enorm viel Zeit oder ist gar nicht mehr möglich. In einigen Jahren werden die meisten Menschen wesentlich kritischer über KI denken, genauso wie sie es jetzt über social media schon tun.

    • @KLaus Hartmann:

      Hoffentlich denken die meisten Menschen in einigen Jahren überhaupt noch selbst. Zur Zeit denken meiner Meinung nach bei weitem nicht die meisten Menschen kritisch über "social" media, zumindest sind die Auswirkungen kaum oder nicht spürbar.

  • McLuhan hat ja häufig was passendes auf Lager, hier:



    „ ...die Technologie des suspendierten Urteils...“

  • wenn auch mal über die Sonnenseiten gesprochen würde... Durch KI ist im Journalismus tiefergehende Recherche, besseres Quellenstudium, mehr Kontext, mehr Involvement und schnelleres Editing möglich. Die Serie in Spiegel und Zeit: "wer in meiner Familie war in der Partei" wäre ohne KI nicht zu Stande gekommen. Ich glaube da eröffnen sich gerade Horizonte

    • @konsul-weyer:

      ganz recht, wenn es nicht so nützlich wäre, wäre es ja auch nicht so gefährlich.

      • @Jobst Heitzig:

        als ich 1986 nach Kreuzberg kam, fragte ich nen Passanten nach nem Geldautomaten. Er: det weeß ick schon, aber sagn tu ichs nicht

    • @konsul-weyer:

      „Die Serie in Spiegel und Zeit: ,wer in meiner Familie war in der Partei' wäre ohne KI nicht zu Stande gekommen."



      Und das wäre gut.