piwik no script img

Es gibt keine künstliche Intelligenz

Die KI-Debatte pendelt zwischen Heilsversprechen und der Sorge vor Kontrollverlust. Sie offenbart viel über unsere Ängste und Sehnsüchte. Doch es gibt ein Leben nach der KI

Illustration: Alona Horkova/iStockphoto/getty images

Von Stephan Weichert

Es ist gerade zwei Jahrzehnte her, da verblüffte das US-Prognosegenie Ray Kurzweil mit einer für die damaligen Verhältnisse waghalsigen These: In „The singularity is near“, verkündete er, bis spätestens 2045 werde der große „Showdown“ stattfinden – ein gesellschaftlicher Wendepunkt, an dem eine synthetisch erzeugte Intelligenz milliardenfach klüger sein würde als ihre biologischen Schöpfer. Für Kurzweil war das keine New-Age-Spinnerei, sondern schlicht Ergebnis exponentiellen Wachstums von Rechenleistung, Nanotechnologie und Robotik. „Wir werden uns mit nichtbiologischer Intelligenz vermischen“, sagte er damals dem Spiegel.

Dass diese „Singularität“ im Valley längst als gängige Praxis gilt und einen realen geistespolitischen Nährboden liefert, zeigt sich nicht nur an Kurzweils Büchern: Bereits 2008 gründete er mit Peter Diamandis im Nasa Ames Research Park, nahe der Alphabet-Zentrale „Googleplex“, die „Singularity University“, einen gewaltigen Campus aus Glas, Stahl und Beton, der von Weitem wie ein gestrandetes Spaceship aus einem Christopher-Nolan-Film wirkt. Die von der Tech-Industrie gesponserte Bildungsstätte verleiht keine akademischen Abschlüsse, bietet aber Führungskräfteseminare mit einwöchigen Kursen für 15.900 Dollar an.

Auf dieser Kathedrale des kalifornischen Transhumanismus baut nun die internationale Geldaristokratie ihren Technikaltar – und zelebriert die Weltenrettung. Sie steht sinnbildlich für das Grundmuster des überhitzten KI-Diskurses. In diesem Kulturkampf spiegeln sich weniger der technologische Fortschritt als vielmehr unsere kollektiven Sehnsüchte und Urängste. Wer die Debatte um KI verstehen will, muss in diese Scheinwelt zwischen institutionalisierten Erlösungsfantasien und Technohysterie eintauchen.

Seit geraumer Zeit geistert die Idee einer „Menschheit 2.0“ – jenseits von Sterblichkeit, Schmerz und geistiger Begrenztheit – umher, viele aus der Gründerriege des US-Tech-Imperialismus benutzen sie als Glaubensdogma. Der frühere Google-Chef Eric Schmidt etwa lässt keine Gelegenheit verstreichen, um zu betonen, dass KI „underhyped“ sei: Er hält das künftige Leben mit KI für genauso selbstverständlich wie das menschliche Dasein selbst.

Parallel dazu preisen die Big-Tech-Bosse ihre KI-Produkte als Alleskönner, nur um im gleichen Atemzug vor deren Risiken zu warnen. Sam Altman (OpenAI) spricht von Seelenheil und beschwört im nächsten Satz den Untergang der Schöpfung. Tim Cook (Apple) inszeniert „Apple Intelligence“ als digitale Erlösung, warnt jedoch vor einem globalen Datenschutz-Desaster. Mark Zuckerberg (Meta) lässt seine neuesten KI-Sprachmodelle auf die Menschheit los, nur um sie anderntags als trojanische Pferde zu brandmarken. Und Mustafa Suleyman (Microsoft) hat mit „The Coming Wave“ einen Branchenbestseller verfasst, der sich liest wie das Drehbuch einer postapokalyptischen Netflix-Serie – eine Erde bevölkert von Menschen, die sich wie willenlose Zombies dem übermächtigen KI-Kult unterwerfen.

Diese schizophren anmutenden Narrative sind längst zum einträglichen Geschäftsmodell geworden: Die KI-Industrie verkauft Angst und Erlösung im Doppelpack und verwandelt den Countdown zur eigenen Gottwerdung in ein Spektakel globaler Selbstvermarktung. Dazwischen bleibt kaum Raum für Nüchternheit, nämlich dort, wo unsere Fähigkeit zur Selbstbehauptung im digitalen Zeitalter verläuft: entlang der Grauzone zwischen Euphorie und Dystopie.

Spätestens hier lohnt der Blick auf die eigene Handlungsfähigkeit, auf ein Konzept, das ich KI-Resilienz nenne: eine Haltung, die weder in Technikgläubigkeit noch in Zukunftsangst gipfelt. Sie beschreibt die Fähigkeit, inmitten digitaler Umbrüche handlungsfähig, kritisch und menschlich zu bleiben.

Wir erleben eine Epoche, in der sich gesellschaftliche Macht, ökonomische Interessen und existenzielle Sinnsuche aufs Merkwürdigste überlagern. KI ist aber nicht allmächtige Technologie, sondern vielmehr Projektionsfläche – für die einen mit der Hoffnung auf Unsterblichkeit verbunden, für die anderen mit der Furcht vor dem Ende unserer Existenz. In dieser emotional aufgeladenen Gemengelage verschwimmt, was real ist, mit dem, was wir zu glauben hoffen oder zu fürchten gelernt haben. Damit wir ins Handeln kommen, sollten wir uns schleunigst aus dieser Schockstarre befreien.

Das sind keine unbilligen Wünsche. Vieles, was die Schattenseiten des KI-Zeitalters betrifft, spielt sich in den USA ab, in jenem Land, das technologische Heilslehren so routiniert abspult wie Fast Food. So kämpft die New York Times, einst Flaggschiff des Liberalismus, heute an vorderster Front gegen die Vereinnahmung durch KI. Ende 2023 verklagte sie OpenAI wegen Urheberrechtsverletzungen – ein symbolträchtiger Versuch, ihren Journalismus gegen die Ausbeutung durch maschinelles Lernen zu verteidigen.

Dieser noch andauernde Rechtsstreit ist Beweis dafür, wo die Grenze zwischen öffentlicher Hysterie und politischer Einflussnahme verläuft: KI wirkt wie ein Brandbeschleuniger in einer ohnehin überhitzten Medienökologie, in der Macht und Meinung, Kontrolle und Anarchie zum ­toxischen Amalgam werden. Generative KI, so hat es der Medienforscher Martin Andree formuliert, sei „nur die letzte Stufe einer in sich konsistenten Entwicklung, die durch unsere massive Fehlregulierung des digitalen Raums überhaupt erst möglich wurde – und die nun die Grundpfeiler von Journalismus und Demokratie infrage stellt“.

Was auf dem Spiel steht, ist also nicht weniger als die Resilienz unserer Demokratie. Während in Washington die freiheitliche Presse im Gerichtssaal verhandelt wird, entlarvt Karen Hao, Ex-Journalistin des Wall Street Journal, das wahre Machtzentrum im Silicon Valley: die KI-Industrie selbst. In ihrem Buch „Empire of AI“ rechnet sie schonungslos mit den Big-Tech-Eliten ab: KI, so Hao, sei weder künstlich noch intelligent, sondern ein „imperiales Projekt“, vorangetrieben von einer kleinen, einflussreichen Clique. Sie beschreibt bis ins Detail, wie OpenAI und andere KI-Player Ressourcen und Daten ausbeuten, Content-Moderation in den Globalen Süden auslagern und mit Serverfarmen gewaltige ökologische Verwerfungen verursachen.

Foto: Martin Kunze/Vocer Institut

Stephan Weichert

ist Medienwissenschaftler und Dozent an der TU Dortmund, der FH Graz und der New Yorker City University. Er leitet das gemeinnützige Vocer-Institut für digitale Resilienz.

Doch fangen wir im Kleinen an: Immer mehr Menschen fragen ChatGPT, statt verlässliche journalistische Quellen zu konsultieren. Es sieht so aus, als würden wir in wenigen Jahren eine digitale Gesellschaft erleben, die sich grundlegend von der heutigen unterscheidet. Aber was bedeutet das für Redaktionen und Medien? Dass es umso wichtiger ist, journalistische Qualitätsarbeit sicht­barer, resilienter zu machen – damit sie nicht verschwindet. Denn aus der opaken Funktionsweise von KI erwachsen Folgen, die unsere demokratischen Grundfesten erschüttern.

Dabei entstehen auch neue Abhängigkeiten, mentale wie professionelle. Generative KI schafft kognitive Bequemlichkeitszonen, in denen das mühsame Geschäft der Recherche und Reflexion zunehmend ausgelagert wird. Zwischen Mensch und Maschine entsteht ein paradoxes Vertrauensverhältnis: Weil die Systeme schnell, höflich und scheinbar neutral reagieren, entwickeln wir emotionale Bindungen, die im Moment technischer Fehler in Frustration oder Hilflosigkeit umschlagen.

Die Logik der Plattformen verschiebt sich von Eyeball-Attention zu emotionaler Vereinnahmung. Das Wettrennen um Engagement ist längst ein „Wettrennen um Intimität (Technologie-Ethiker Tristan Harris), bei dem der eigentliche Gegner nicht mehr andere Medien sind, sondern unser Schlaf, der Zweifel, die menschlichen Freunde. „KI-Freundinnen“ und sogar „KI-Liebe“ sind inzwischen so real wie „KI-Therapeuten“ – und gefährlich: Sie trösten, verstärken aber auch Einsamkeit und Suizidalität. KI ahmt parasoziale Beziehungen so gut nach, dass Vertrauen zum knappen Gut digitaler Selbstbespiegelung wird.

Der Konflikt um das Für und Wider von KI ist also kein Exotenthema von Techno-Nerds. Sondern Projektionsraum für Ängste, Sehnsüchte und Hoffnungen. Die Sprengkraft der KI liegt nicht in den düsteren Visionen der „Tech-Bros“, sondern darin, dass die KI schleichend in unsere Mediennutzung einsickert. Während Kurzweil, Altman und Co den übermenschlichen Cyborg propagieren, sieht die Realität in deutschen Medien­häusern, auf die es jetzt ankäme, vergleichsweise bieder aus: Wer bekommt Zugang zur KI? Wer darf experimentieren, mit welchen Daten? Utopien zerbröseln schnell an Sicherheitsprotokollen, Betriebsratsvereinbarungen, unübersichtlichen Regelwerken. In manchen Redaktionen werden Prompts wie Geheimrezepte gehütet, als ginge es um Betriebsgeheimnisse; anderswo sperrt man die Tools gleich ganz weg, aus Angst vor Datenlecks oder Urheberrechtsverstößen.

Was auf dem Spiel steht, ist nicht weniger als die Resilienz unserer Demokratie

So entstehen Informationsasymmetrien im Inneren der Organisationen. Während das Management die goldene Zukunft beschwört, stolpern die unteren Etagen durch halbgare Experimente – desorientiert, ängstlich vor dem Verlust des eigenen Jobs. Wer von „Superintelligenz“ träumt, verwechselt technologische Beschleunigung mit einer Projektion tiefsitzender Urängste und Sehnsüchte in eine Maschine, die weder Bewusstsein hat noch Gefühle kennt. Man könnte sagen: Es gibt eigentlich keine „künstliche Intelligenz“, solange sie auf statistischer Wahrscheinlichkeit, menschlicher Kreativität, Daten und Energie beruht. KI ist nur ein Werkzeug, das unsere gesellschaftlichen Stärken und Schwächen schamlos ausnutzt.

KI-Resilienz heißt daher keinesfalls, möglichst viele Tools bedienen zu können, sondern die Kompetenz des Zweifelns zu stärken: Was zeigt mir die Maschine, und was verschweigt sie? Wo endet Statistik, wo beginnt Interpretation? Wer den kritischen Umgang mit KI einübt, verteidigt nicht nur journalistische Standards, sondern stärkt auch digitale Souveränität. Für eine „Responsible AI“ sollten wir nicht einen neuen Relotius-Skandal unter KI-Vorzeichen abwarten. Wir müssen jetzt rote Linien formulieren nach dem Motto: Journalismus first, KI second.

Gibt es ein Leben nach der KI? Ja aber nur, wenn wir uns von der Illusion lösen, KI sei eine Naturgewalt. Denn die durch sie erzeugten Assoziations­tsunamis spiegeln politische Interessen und Kapitalströme­. Das Leben nach der KI beginnt dort, wo wir sie als das begreifen, was sie ist und was nicht: weder Heilsversprechen noch Weltuntergang, sondern ein Kampfplatz um Deutungs­hoheit, Öffentlichkeit und Demokratie. Dorthin gehört die KI-Debatte – dorthin sollten wir sie jetzt führen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen