piwik no script img

Nutzen und Gefahren von KIKeine Angst, aber Regeln

Kommentar von Svenja Bergt

KI ist nicht mehr wegzudenken. Doch was es braucht, sind klare Regeln. Die EU ist auf dem richtigen Weg.

KI kann auch bei der Auswertung von Röntgenbilder nützlich sein Foto: Westend61/imago

S chon gehört? Hollywoodstar Scarlett Johansson geht gegen OpenAI vor, das derzeit wohl wichtigste Unternehmen bei der Entwicklung künstlicher Intelligenz (KI). OpenAI habe seinem KI-Chatbot eine Stimme verpasst, die der von Johansson so ähnlich sei, dass nicht einmal ihr nahestehende Menschen einen Unterschied bemerkt hätten. Ein Konflikt mit Pointe: Schließlich verlieh Johansson in dem Film „Her“ einer KI ihre Stimme.

Der Film lief vor gut zehn Jahren in den Kinos. Und was damals noch nach Science-Fiction klang – eine menschlich sprechende KI –, ist heute Stand der Technik. Dass die EU ihre KI-Regeln nun verabschiedet hat, ist höchste Zeit. Denn die Technologie steckt schon jetzt in viel mehr, als auf den ersten Blick sichtbar ist: in der Bildbearbeitung von Smartphone-Apps, in Autos, und sie hält längst auch Einzug in die Medizin. Was also tun?

Den Rest des Lebens in einer möglichst abgelegenen Höhle verbringen, aus Angst davor, dass irgendwann ein KI-System aus dem Ruder läuft, die Weltherrschaft übernimmt und die Menschheit auslöscht? Es sind diese Angstbilder, die manche Menschen davon abhalten, sich mit KI auseinanderzusetzen, praktisch oder erst einmal gedanklich. Doch das ist ein Fehler.

Die bedrohlichen Erzählungen werden nicht zufällig von Protagonisten aus der Branche gepflegt, die damit die Mächtigkeit ihrer Technologie groß machen wollen – und von den realen Problemen ablenken. Denn die sind längst da und sie sind zahlreich. Ein kleiner Auszug: Fake News und Propaganda sind schnell und in großen Mengen produzierbar.

Die Qualität dessen, was Dienste wie ChatGPT liefern, ist durchwachsen, doch selbst wenn das System wiederholt Falsches über reale Personen generiert – der Hersteller kann es nicht korrigieren. Die neuen Auswertungstechniken etwa von Bildern, die Personen zeigen, wecken Überwachungsbegehrlichkeiten. Und wenn die medizinische Diagnose-KI eine Fehlentscheidung trifft – wer haftet denn dann?

Doch KI kann, richtig eingesetzt, Nützliches: Immer wieder zeigen Studien, dass KI-Systeme etwa bei der Analyse bildgebender Verfahren besser abschneiden als Menschen. Kein Wunder, Mustererkennung ist eine ihrer leichteren Übungen, Langeweile oder Erschöpfung nach dem x-ten Röntgenbild oder die Müdigkeit einer Nachtschicht gibt es hier nicht.

Und wenn der Einsatz von KI dazu führt, dass Extremwetter besser vorhergesagt oder Lebensmittelverschwendung reduziert wird – warum sollte man sie nicht nutzen? Die Zukunft ist nicht KI ohne Mensch. Aber auch nicht Mensch ohne KI. Sondern beide zusammen. Und zwar bitte eingesetzt im vollen Bewusstsein der jeweiligen Stärken und Schwächen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Redakteurin für Wirtschaft und Umwelt
schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.
Mehr zum Thema

4 Kommentare

 / 
  • Eine zutreffende Überschrift: Die großen Missbraucher haben keine Angst vor den Regeln. Papier ist geduldig...

  • "Die bedrohlichen Erzählungen werden nicht zufällig von Protagonisten aus der Branche gepflegt, die damit die Mächtigkeit ihrer Technologie groß machen wollen..."

    Das ist wohl der Kernsatz. Die Nummer mit OpenAI (eigentlich Microsoft, aber die haben sich dahinter versteckt, um den Schaden zu begrenzen, falls es schiefgeht) war in erster Linie ein Marketingcoup.

    Jetzt schreibt die Presse überall aufgeregt "KI", "KI"! -- es scheint geklappt zu haben.

    Cory Doctorow übrigens, der nicht gerade doof ist, meint, das sei eine Blase [1]. Vielleicht hat er Recht -- wir hatten das ja schon in den Achtzigern [2].

    [1] locusmag.com/2023/...d-of-bubble-is-ai/



    [2] en.wikipedia.org/wiki/AI_Winter

  • Das wird bei "KI", absichtlich in Anführungszeichen, so laufen wie bei den Cryptowährungen. Klar haben die anderen großen Player Google, Microsoft, die ganze Riege, gar keine andere Wahl, als da aufzuspringen. Das ist ein Multi-Milliardenmarkt, und wer sich da durchsetzt, hat für lange Zeit eine komfortable Position. Das erklärt auch den Hype. Ein großer Vorteil für Betreiber ist auch, dass dann niemand mehr verantwortlich gemacht werden kann. Wer nur an Profit interessiert ist, kann hier nicht widerstehen. Irgendwann platzt diese Blase.

    Den weltweiten Datenhandel befeuert der grenzenlose Bedarf an Trainingsdaten außerdem, denn jetzt kann jede Bude, die Daten gesammelt hat oder Content hat, an "KI"-Läden verkaufen, und die zahlen gut, na klar. Der Springer Verlag macht es bspw bereits, Wordpress macht es, die Autoindustrie, die Hersteller von Smart-TVs. Fragt sich noch jemand, wozu damals Sprachassistenten eingeführt wurden, Alexa und Co Nein, sie schneiden die Daten nicht mit und verkaufen sie nicht weiter, ist klar.

    Es nützt nichts, wenn man Abläufe mit "KI" automatisiert und 20% Fehlerquote hat, nach keinem erkennbaren Muster verteilt, denn dann müssen weiterhin Menschen die Qualitätskontrolle machen. Sofern es nicht egal ist, was dabei rauskommt, wie etwa bei Marketingtexten.

    Anomalien und Häufigkeiten lassen sich statistisch erkennen, das ist nicht mit "KI" zu verwechseln.

  • Weshalb muss man eigentlich immer die langfristigen extremen Risiken einer Technologie leugnen, wenn man auf die kurzfristigen hinweisen will? Beide sind gleichermaßen bedenklich und beide können mit ähnlichen Maßnahmen eingedämmt werden. Auf der Arbeitsebene arbeiten Forschende deshalb längst an beiden Risikoklassen gleichermaßen und gemeinsam, ungeachtet der öffentlichen Scheingefechte zwischen "AI Ethics" und "AI Alignment" Vertretern. Wäre man z.B. der Kerntechnik gerecht geworden, wenn man sich nur um Arbeitsplatzverluste im Kohlebergbau gesorgt und die Risiken eines Atomkriegs geleugnet hätte?