piwik no script img

Geplante EU-Regulierung von KIApokalyptische Ablenkung

Kommentar von Svenja Bergt

Bedrohungsszenarien zu künstlicher Intelligenz kommen meist aus der Branche selbst. Die Panikmache nutzt ihr. Besser wäre, jetzt überlegt zu handeln.

Könnte nicht nur Teil des Problems, sondern auch Teil der Lösung sein: OpenAI-Chef Sam Altman Foto: Elizabeth Frantz/reuters

D ie Warnungen, die in den vergangenen Wochen Schlagzeilen machten, waren zahlreich und sie waren laut: Künstliche Intelligenz könne zu einer Gefahr für die Menschheit werden, sie sei in eine Reihe zu stellen mit den Szenarien Pandemien und Atomkrieg. Das Ironische an den Warnungen ist: Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen Bedrohungsszenarios – und könnten dementsprechend nicht nur Teil des Problems, sondern auch Teil der Lösung sein.

Das sollte man im Hinterkopf behalten, wenn das EU-Parlament diese Woche seinen Entwurf für eine Regulierung von künstlicher Intelligenz (KI) beschließt. Denn Ideen für Lösungsansätze werden in den alarmistischen Szenarien nicht angeboten. Und das hat mehrere Gründe. Der wohl wichtigste: Die Warnungen sind gar nicht darauf ausgelegt, einen sachlichen und konstruktiven Prozess über Umgang und Regulierung der neuen Technologie in Gang zu bringen. Vielmehr dienen sie einerseits der eigenen Machtbeschwörung und andererseits der Ablenkung. Denn sie machen die Probleme klein, die es bei KI schon jetzt gibt und die durch Regeln gelöst oder zumindest auf vertretbare Größe geschrumpft werden müssen.

Eine unvollständige Liste: Fake News und Propaganda, die sich durch Bild- und Textgeneratoren einfach und in großem Stil erzeugen lassen. Das Bias-Problem, also Verzerrungen durch unausgewogene Trainingsdaten, wodurch einzelne Bevölkerungsgruppen benachteiligt werden. Das Black-Box-Problem, also die Schwierigkeit, dass häufig nicht einmal die Ent­wick­le­r:in­nen selbst durchschauen können, wie ihre KI zu einem Ergebnis kommt. Die zahlreichen ungeklärten Haftungsfragen, die sich ergeben, wenn KI an einem Entscheidungsprozess beteiligt ist – sei es bei einer Kreditvergabe oder bei einer medizinischen Diagnostik. Die Frage, wie man global zu einer menschenrechtszentrierten Regulierung von KI kommt. Und wie sich verhindern lässt, dass die großen Tech-Konzerne ihre Marktmacht mit der neuen Technologie noch weiter ausbauen, als es derzeit schon der Fall ist.

Und natürlich gehört auch die ungeliebte Frage nach den Verboten dazu: Wo wollen wir als Gesellschaft KI komplett raushalten, weil die potenziellen Schäden größer wären als der reale oder möglicherweise zu erwartende Nutzen?

Diese Debatten sind unbequem für die Unternehmen. Denn sie bedeuten am Ende, dass sie manches nicht oder nicht in der Form auf den Markt bringen können, wie sie es gerne hätten, und ihre Profitinteressen beschnitten werden. Aber es sind diese Fragen, die jetzt debattiert, diese Probleme, die jetzt gelöst werden müssen – und zwar ohne sich von Weltuntergangsszenarien lähmen zu lassen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Redakteurin für Wirtschaft und Umwelt
schreibt über vernetzte Welten, digitale Wirtschaft und lange Wörter (Datenschutz-Grundverordnung, Plattformökonomie, Nutzungsbedingungen). Manchmal und wenn es die Saison zulässt, auch über alte Apfelsorten. Bevor sie zur taz kam, hat sie unter anderem für den MDR als Multimedia-Redakteurin gearbeitet. Autorin der Kolumne Digitalozän.
Mehr zum Thema

6 Kommentare

 / 
  • Zur Frage, wer für Entscheidungen, die mit Hilfe von KI getriffen werden, haftet, schlage ich vor: JedeR der/die sie verwendet bzws. in sein Produkt (sei es Hardware - z.B. ein selbstfahrendes Auto; oder eine Dienstleistung - z.B. ein Kredit oder Versicherungsvertrag) einbaut bzws. zur Herstellung dieser Produkte verwendet.

  • Ja, nur neben der Empörung, Schwurbelei und den ernsthaften Diskussionen wird weiter an Anwendungen geschraubt die KI Elemente enthalten. In der IT Branche macht das im Moment fast jeder. Da rollt die Welle. Wie immer gibt es jede Menge praktischer Anwendungsfälle die Prozesse einfacher machen aber auch die Qualität kurzfristig enorm steigern können. Aber wie immer sind es die praktischen Sachen die uns auf subtile Weise anbinden und fast unmerklich den Spieß umdrehen. Kontrolle über Technologien ist nur noch technologisch zu lösen...

  • Das was jetzt als die große Gefahr bezeichnet wird ist ein zufälliger nach Wahrscheinlichkeiten arbeitender "Abschreiber". Deshalb kann ChatGPT auch das Bayerische Abitur bestehen. Aber: Bei der Suche nach einem billigen Flug wirds nach einer Weile teurer. Zufall? Schufa, wie kommen die zum Ergebnis? => KI gibst schon lange und wir haben uns dran gewöhnt!

    • 3G
      31841 (Profil gelöscht)
      @A.S.:

      Gewohnheit ist die Voraussetzung für die Steigerung des Risikos der Verblödung. Ihr (A.S.) Beispiel zeigt eine vergelichsweise "harmlose" praktische Anwendung, wie Menschen mit Hilfe von KI vera..... werden. Da bleibt kein Ausweg als sich dran zu gewöhnen. Aber uns an etwas zu gewöhnen, sind wir ja schon gewohnt. Das haben wir mit KI gemeinsam: Übung macht alles besser .;-(

  • "Das Ironische an den Warnungen ist: Diejenigen, die sie äußerten, kommen häufig selbst aus der Branche, wie etwa OpenAI-Chef Sam Altman. Sie sind also selbst Teil des beschworenen Bedrohungsszenarios"



    Nein, das ist kein bisschen ironisch. Gerade Fachleute verstehen von ihrer ureigensten Materie wohl am meisten. Und wenn man Gewissen hat, muss dann eben gewarnt werden, bevor wieder einmal die Argumentation greift "Wenn es nicht wir tun, tun es die anderen"

    Es geht hier weder um Weltuntergangsszenarien noch um Technikfeindlichkeit oder sonst etwas. Es geht darum, dass hier Experten zurecht warnen. Einige der wichtigen Aspekte werden ja in diesem Text gut aufgezaehlt.

    Nebenbei, hat bereits Stephen Hawkings kurz vor seinem Tod in dasselbe Horn gestossen und diesselben Warnungen ausgesprochen.

    • @Werner2:

      So sieht es aus. Zum einen ist es der Wunsch nach Rechtssicherheit: "bevor wieder einmal die Argumentation greift "Wenn es nicht wir tun, tun es die anderen"



      Zum anderen ist es das Verständnis, dass wir gerade am Anfang einer exponentiell wachsenden Revolution stehen.



      Diese Situation kann durchaus Sorgen bereiten bei maximal linearer Bearbeitungsgeschwindigkeit der Regulatoren und Ethiker.



      Dass sie Situation auch von Investoren als milde gesagt vielversprechend eingeschätzt wird lässt sich gut anhand der Entwicklung der Nvidia Aktie seit Ende Mai sehen: Kurz nach Vorstellung ihrer neuesten Entwicklungen im Bereich generativer AI Systeme. Chatgpt ist eben nur eine Text zu Text Generator. Die Mechanismen sind gut uebertragbar auf Bild, Video, Animationen und sogar Moleküle. Alles was auf Daten beruht, kann durch diese Modelle generiert werden. Und das ist heutzutage eben fast alles.