piwik no script img

Nutzen und Gefahren von KIKeine Angst, aber Regeln

Kommentar von Svenja Bergt

KI ist nicht mehr wegzudenken. Doch was es braucht, sind klare Regeln. Die EU ist auf dem richtigen Weg.

KI kann auch bei der Auswertung von Röntgenbilder nützlich sein Foto: Westend61/imago

S chon gehört? Hollywoodstar Scarlett Johansson geht gegen OpenAI vor, das derzeit wohl wichtigste Unternehmen bei der Entwicklung künstlicher Intelligenz (KI). OpenAI habe seinem KI-Chatbot eine Stimme verpasst, die der von Johansson so ähnlich sei, dass nicht einmal ihr nahestehende Menschen einen Unterschied bemerkt hätten. Ein Konflikt mit Pointe: Schließlich verlieh Johansson in dem Film „Her“ einer KI ihre Stimme.

Der Film lief vor gut zehn Jahren in den Kinos. Und was damals noch nach Science-Fiction klang – eine menschlich sprechende KI –, ist heute Stand der Technik. Dass die EU ihre KI-Regeln nun verabschiedet hat, ist höchste Zeit. Denn die Technologie steckt schon jetzt in viel mehr, als auf den ersten Blick sichtbar ist: in der Bildbearbeitung von Smartphone-Apps, in Autos, und sie hält längst auch Einzug in die Medizin. Was also tun?

Den Rest des Lebens in einer möglichst abgelegenen Höhle verbringen, aus Angst davor, dass irgendwann ein KI-System aus dem Ruder läuft, die Weltherrschaft übernimmt und die Menschheit auslöscht? Es sind diese Angstbilder, die manche Menschen davon abhalten, sich mit KI auseinanderzusetzen, praktisch oder erst einmal gedanklich. Doch das ist ein Fehler.

Die bedrohlichen Erzählungen werden nicht zufällig von Protagonisten aus der Branche gepflegt, die damit die Mächtigkeit ihrer Technologie groß machen wollen – und von den realen Problemen ablenken. Denn die sind längst da und sie sind zahlreich. Ein kleiner Auszug: Fake News und Propaganda sind schnell und in großen Mengen produzierbar.

Die Qualität dessen, was Dienste wie ChatGPT liefern, ist durchwachsen, doch selbst wenn das System wiederholt Falsches über reale Personen generiert – der Hersteller kann es nicht korrigieren. Die neuen Auswertungstechniken etwa von Bildern, die Personen zeigen, wecken Überwachungsbegehrlichkeiten. Und wenn die medizinische Diagnose-KI eine Fehlentscheidung trifft – wer haftet denn dann?

Doch KI kann, richtig eingesetzt, Nützliches: Immer wieder zeigen Studien, dass KI-Systeme etwa bei der Analyse bildgebender Verfahren besser abschneiden als Menschen. Kein Wunder, Mustererkennung ist eine ihrer leichteren Übungen, Langeweile oder Erschöpfung nach dem x-ten Röntgenbild oder die Müdigkeit einer Nachtschicht gibt es hier nicht.

Und wenn der Einsatz von KI dazu führt, dass Extremwetter besser vorhergesagt oder Lebensmittelverschwendung reduziert wird – warum sollte man sie nicht nutzen? Die Zukunft ist nicht KI ohne Mensch. Aber auch nicht Mensch ohne KI. Sondern beide zusammen. Und zwar bitte eingesetzt im vollen Bewusstsein der jeweiligen Stärken und Schwächen.

40.000 mal Danke!

40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen

Redakteurin für Wirtschaft und Umwelt
schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.
Mehr zum Thema

4 Kommentare

 / 
  • Eine zutreffende Überschrift: Die großen Missbraucher haben keine Angst vor den Regeln. Papier ist geduldig...

  • "Die bedrohlichen Erzählungen werden nicht zufällig von Protagonisten aus der Branche gepflegt, die damit die Mächtigkeit ihrer Technologie groß machen wollen..."

    Das ist wohl der Kernsatz. Die Nummer mit OpenAI (eigentlich Microsoft, aber die haben sich dahinter versteckt, um den Schaden zu begrenzen, falls es schiefgeht) war in erster Linie ein Marketingcoup.

    Jetzt schreibt die Presse überall aufgeregt "KI", "KI"! -- es scheint geklappt zu haben.

    Cory Doctorow übrigens, der nicht gerade doof ist, meint, das sei eine Blase [1]. Vielleicht hat er Recht -- wir hatten das ja schon in den Achtzigern [2].

    [1] locusmag.com/2023/...d-of-bubble-is-ai/



    [2] en.wikipedia.org/wiki/AI_Winter

  • Das wird bei "KI", absichtlich in Anführungszeichen, so laufen wie bei den Cryptowährungen. Klar haben die anderen großen Player Google, Microsoft, die ganze Riege, gar keine andere Wahl, als da aufzuspringen. Das ist ein Multi-Milliardenmarkt, und wer sich da durchsetzt, hat für lange Zeit eine komfortable Position. Das erklärt auch den Hype. Ein großer Vorteil für Betreiber ist auch, dass dann niemand mehr verantwortlich gemacht werden kann. Wer nur an Profit interessiert ist, kann hier nicht widerstehen. Irgendwann platzt diese Blase.

    Den weltweiten Datenhandel befeuert der grenzenlose Bedarf an Trainingsdaten außerdem, denn jetzt kann jede Bude, die Daten gesammelt hat oder Content hat, an "KI"-Läden verkaufen, und die zahlen gut, na klar. Der Springer Verlag macht es bspw bereits, Wordpress macht es, die Autoindustrie, die Hersteller von Smart-TVs. Fragt sich noch jemand, wozu damals Sprachassistenten eingeführt wurden, Alexa und Co Nein, sie schneiden die Daten nicht mit und verkaufen sie nicht weiter, ist klar.

    Es nützt nichts, wenn man Abläufe mit "KI" automatisiert und 20% Fehlerquote hat, nach keinem erkennbaren Muster verteilt, denn dann müssen weiterhin Menschen die Qualitätskontrolle machen. Sofern es nicht egal ist, was dabei rauskommt, wie etwa bei Marketingtexten.

    Anomalien und Häufigkeiten lassen sich statistisch erkennen, das ist nicht mit "KI" zu verwechseln.

  • Weshalb muss man eigentlich immer die langfristigen extremen Risiken einer Technologie leugnen, wenn man auf die kurzfristigen hinweisen will? Beide sind gleichermaßen bedenklich und beide können mit ähnlichen Maßnahmen eingedämmt werden. Auf der Arbeitsebene arbeiten Forschende deshalb längst an beiden Risikoklassen gleichermaßen und gemeinsam, ungeachtet der öffentlichen Scheingefechte zwischen "AI Ethics" und "AI Alignment" Vertretern. Wäre man z.B. der Kerntechnik gerecht geworden, wenn man sich nur um Arbeitsplatzverluste im Kohlebergbau gesorgt und die Risiken eines Atomkriegs geleugnet hätte?