piwik no script img

Angst vor künstlicher IntelligenzSchluss mit der KI-Panik

Horrormeldungen über KI sind zum journalistischen Genre geworden. Aber das ist unangebracht. Denn: Fake News verbreiten wir auch ohne sie.

Bitte nicht schreien, es ist doch nur künstliche Intelligenz Foto: Saul Herrera/getty images

Haben Sie noch Angst vor der Atombombe? Oder bunkern Sie den Dosenfisch und die Wasseraufbereitungstabletten längst gar nicht mehr wegen eines möglichen Störfalls mit Strahlenbelastung, sondern für den Fall, dass die KI die Kontrolle übernimmt?

Angesichts der täglichen Ration KI-Hysterie scheint es jedenfalls so, dass der größte anzunehmende Unfall gar nicht mehr im Atompilz, sondern in der künstlichen Intelligenz gesehen wird. Während der 104-fache Mil­liar­där Warren Buffett im Frühjahr die KI noch mit der Atombombe gleichsetzte, scheint angesichts der Schlagzeilenfülle, in der „KI“ vorkommt, dass die Eintrittswahrscheinlichkeit der feindlichen KI-Übernahme weit höher liegt als die Austrittswahrscheinlichkeit von Kühlmitteln in einem Atomreaktor: „Experte: 2031 übernimmt die Künstliche Intelligenz die Kontrolle“ (t-online), „KI-Singularität: Überholt künstliche Intelligenz die Menschen schon in drei Jahren?“ (t3n) „Kann KI mit Tieren reden?“ (BR) „KI soll Schauspieler nicht ersetzen dürfen“ (pcgameshardware).

Eigentlich verwunderlich, dass nicht jeden Morgen das Handy vor sich hinbrummt und grausliche Warntöne von sich gibt wie neulich beim Katastrophenalarmtesttag, weil wieder irgendwer irgendwas mit KI ausprobiert hat, was schiefgelaufen ist. Medien, Kulturbetriebe und andere beeilen sich klarzustellen, dass sie KI-frei sind beziehungsweise deren Einsatz garantiert(!) nur unter Aufsicht stattfinde, wenn es wirklich nachweislich um Arbeitserleichterung gehe.

Insbesondere bei den Medien steht die KI im Verdacht, zu verwirrenden Zwecken eingesetzt zu werden, sodass Fakten von Fake News nicht mehr unterscheidbar würden. Sicher, mit der KI wird reichlich Schabernack getrieben: Neulich traf es einen Moderator des ZDF, jetzt bekannte Kollegen aus der ARD. Der öffentlich-rechtliche Sender sah sich am Dienstag gezwungen, eine Nachricht in eigener Sache zu verbreiten, um vor gefälschten, angeblich KI-generierten ARD-Inhalten zu warnen. Es seien Audiodateien im Umlauf und auf Demonstrationen abgespielt worden, in denen sich ARD-Nachrichtensprecher für „einseitige Berichterstattung“, „bewusste Manipulation“ und die „Denunzierung unserer Mitmenschen“ im Namen des öffentlich-rechtlichen Rundfunks entschuldigten.

Fehlt nur noch: „KI ist schlimmer als Nazis“

Sicher kann man sich jetzt darüber aufregen, dass die taz die Verbreitung von Fake News „Schabernack“ nennt. Aber wir müssen auch nicht so tun, als lebten wir zu Zeiten, als die Dampflok noch nicht auf die Schiene gesetzt war. So wie mit jeder technischen Neuerung lässt sich auch mit künstlicher Intelligenz Lustiges und Hilfreiches, Schlimmes und Schreckliches tun.

Und ja, klar glauben die Leute alles, aber eben auch nur das, was sie glauben wollen. Und deswegen wurde der Journalismus erfunden. Um Zweifel am Glauben zu säen. Das Überprüfen von Aussagen ist eine der Kernaufgaben des Journalismus und jedes vernünftigen Menschen sowieso. Ob das Aussagen von Kanzlern, Kranfahrerinnen oder KIs sind, ist dabei erst mal unerheblich.

Hier aber entsteht so langsam das Bild, alles Böse, was die Menschheit je verbrochen hat, würde von der feindlichen Übernahme durch die KI in den Schatten gestellt. Fehlt nur noch, dass jemand auf die Idee kommt zu sagen: Die KI ist schlimmer als die Nazis, weil die haben das Böse wenigstens noch handgemacht.

Apropos: In den letzten Tagen teilten und feierten deutsche Spitzenpolitiker, Wirtschaftsexpertinnen und Journalisten ein Interview, in dem ein britischer Journalist unter anderem sagte, dass die Hamas schlimmer sei als die Nazis. Letzteren wären ihre Gräueltaten wenigstens irgendwie noch peinlich gewesen. Die Nazis hätten wenigstens noch versucht, ihre Taten zu vertuschen, während die Hamas ihre barbarischen Taten heroisch feiere.

Ich bin der festen Überzeugung, hätte man vor dem öffentlichen Abfeiern des Interviews eine vernünftig programmierte KI gefragt, was sie von den Aussagen des Reporters hält, hätte sie davor gewarnt, Falschaussagen zu verbreiten. Denn sie hätte sicher erkannt, dass das Geschwätz des Reporters von der Wahrheit, dem historischen Forschungsstand und dem angemessenen Vergleich unendlich weit entfernt liegt.

Sparen wir uns also die Panik vor der künstlichen Intelligenz. Fake News verbreiten können wir nämlich auch ganz ohne sie.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

5 Kommentare

 / 
  • Die Gefahren von KI herunterzuspielen halte ich für grob fahrlässig. Millionen von Menschen fallen tagtäglich auf dreiste Fake-News herein. Wenn also schon der Umgang mit den (a)sozialen Netzwerken die Menschen überfordert und zunehmend zur Spaltung beiträgt, was passiert denn dann, wenn KI täuschend echte Stimmen und Videos kreiert die von einem außenstehenden ohne intensive Recherche nicht mehr entlarvt werden können?



    Und Missbrauch von KI wird in absehbarer Zeit Dimensionen erreichen, die potentiell Homo Sapiens als Spitze der Evolution in frage stellen. Die Entmündigung des Menschen als Entscheidungsträger ist der Anfang vom Ende.

  • Seltsam, mein Eindruck ist ein ganz anderer:



    Während Experten (wie der geniale Stephen Hawking noch bis kurz vor seinem Tod) vor KI warnen, werden die Gefahren durch Journalisten eher heruntergespielt.

    Tragisch auch, dass man dann auch sofort auf andere Meinungen (in diesem Fall die von Experten) Etiketten wie "Fake news" draufklebt oder das alles via Strohmann-Argumenten irgendwie im Links-Rechts Schema verorten möchte.

    In meinen Augen ein Musterbeispiel, wie eine politisch harmlose Debatte in politische Polemik vom feinsten hineingezogen wird, gemäß dem Motto "Kein Respekt vor anderen Meinungen". Fehlt nur noch von "KI-Leugnern" zu reden.



    Insgesamt ein Musterbeispiel, was mich über den Stil vieler heutiger Artikel sehr traurig macht.

  • Tja so ist das mit neuen, die gesellschaftverändernden Erfindungen. Die einen stürzen sich in voreilige Panik, die Anderen in totale Ignoranz. Und während der massive Impact des Internets und der sozialen Medien noch gar nicht abschließend einschätzbar ist und ein Großteil der Menschen jetzt schon aufgrund von Blasenbildung und mangelnder Medienkompetenz überfordert ist, erklären wir die Warnungen vor Ki als "unangebracht".



    Über die immense soziale Bedeutung menschengemachter Kunst, über Urheber- und Persönlichkeitsrechte muss man da gar nicht anfangen.

  • Ich habe eher Angst vor der (natürlichen) Dummheit der Menschen.

    "KI" ist ein Marketingbegriff, das derzeit für large language models (und Verwandte) verwendet wird (Ende der 1960ern war es was anderes). Es soll nur als Staubsauger für Risikokapital dienen.

    Dass die "Fach"presse und alle anderen das glauben: das macht mir eher Sorge.

    • @tomás zerolo:

      Sorry, aber Ihr Kommentar ist ziemlich ignorant! LLM sind tatsächlich extrem wirkmächtig, genauso wie die dahinterstehenden Deep Learning Modelle (supervised L., reinforcement L.). Wir können damit im Unternehmen extrem gut Optimierungsprobleme lösen und den Wissenstransfer sicherstellen.



      Innovationsfeindliche Kit macht die Welt kein Stück gerechter.