piwik no script img

Moratorium über Umgang mit KIPause mit Problemen

Hilft ein temporärer Entwicklungsstopp, KI in Bahnen zu lenken? Ex­per­t:in­nen finden, die Forderung gehe an den echten Gefahren vorbei.

Reichen sechs Monate Entwicklungsstopp, um die Gefahren einer KI vorzubeugen? Foto: Nathan Frandino/ reuters

Berlin taz | Nach dem offenen Brief, in dem zahlreiche Tech-Expert:innen ein Moratorium für die Entwicklung Künstlicher Intelligenz (KI) forderten, drängen nun auch die Vereinten Nationen die Gesetzgeber weltweit zu Maßnahmen. Die Organisation der Vereinten Nationen für Bildung, Wissenschaft und Kultur (Unesco) forderte, ihre Empfehlungen zum ethischen Umgang mit KI umzusetzen.

Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten. Alle Staaten weltweit sollten daher die Empfehlungen zum ethischen Umgang zügig in nationales Recht übersetzen.

Die Ex­per­t:in­nen aus der Tech-Branche hatten diese Woche in ihrem offenen Brief einen sechsmonatigen Entwicklungsstopp für fortgeschrittene KI-Systeme gefordert. „In den letzten Monaten haben sich die KI-Labors einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“, heißt es in dem Schreiben.

Vorstoß für Moratorium ist umstritten

Eine sechsmonatige Pause solle genutzt werden, um einen regulatorischen Umgang mit der neuen Technologie zu finden und beispielsweise Aufsichtsbehörden, Prüfungs- und Zertifizierungssysteme aufzubauen. Stand Freitagnachmittag haben rund 1.800 Personen den Brief unterzeichnet.

Unterdessen melden sich auch kritische Stimmen zu dem offenen Brief zu Wort: „Er beschreibt eine Phantasiewelt, in der bisherige KI bis auf ein paar technische Updates problemfrei ist und sechs Monate Entwicklungsstopp genügen, um geeignete regulatorische Rahmenbedingungen für die angeblich unausweichliche Superintelligenz zu schaffen“, kritisierte Anna Jobin, KI-Forscherin und Vorsitzende der Eidgenössischen Medienkommission.

Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme von der Otto-Friedrich-Universität Bamberg, ist eine der Unterzeichnerinnen. Sie glaube zwar nicht, dass eine sechsmonatige Pause hilfreich sei. „Aber ich stimme mit den Verfassern des Briefs überein, dass es unabdingbar ist, auf die Risiken beim Einsatz großer Sprachmodelle und anderer aktueller KI-Technologien hinzuweisen und zu versuchen, in einen breiten demokratischen Diskurs zu treten, an dem sich die KI-Expertinnen und -Experten aus den Forschungsinstituten und den großen Tech-Unternehmen aktiv beteiligen.“

Am Problem vorbei

KI-Forscherin Jobin kritisiert, dass der offene Brief die Probleme aktueller Systeme verharmlose. „Seltsamerweise wird keine Einschränkung beim Einsatz gefordert, obwohl bei KI der Kontext der Anwendung mindestens genauso wichtig ist wie die Entstehung.“ Zwar würden die Un­ter­zeich­ne­r:in­nen des Briefs auch sinnvolle Maßnahmen wie Prüfverfahren oder Kennzeichnungen fordern – allerdings seien unter den Erstunterzeichnenden auch Akteure, die solche Schritte für die eigenen Unternehmen nie genommen hätten. Zu den Erstunterzeichnenden gehört unter anderem Milliardär Elon Musk.

Auch der Rechtswissenschaftler Matthias Kettemann vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) kritisiert: „Nicht alle, die unterschrieben haben, sind ganz unschuldig an einer unkritischen Nutzung von KI in ihren jeweiligen Unternehmen.“ Er spricht sich dafür aus, bestehende ethische Empfehlungen wie die der Unesco schnell umzusetzen. „Wir wissen nämlich schon, wie man mit KI gut umgeht. Bislang fehlt aber der politische Wille, hier klare Regeln aufzustellen, um Menschenrechte zu schützen, KI-basierte Diskriminierung zu beenden und globale Entwicklungsziele zu erreichen.“

„Ein Moratorium würde den Vorteil bringen, dass sich proaktiv Regulierungen beschließen ließen, bevor die Forschung weiter voranschreitet“, sagt Thilo Hagendorff, Forschungsgruppenleiter Interchange Forum for Reflecting on Intelligent Systems an der Universität Stuttgart.

Gleichzeitig sei das Moratorium selbst ein Risiko: Niemand könne beurteilen, ob es weniger riskant ist, Sprachmodelle vorerst nicht zu verbessern, als sie weiter zu verbessern. „Das Moratorium dient letztlich genau denjenigen Institutionen, deren Tätigkeit eigentlich problematisiert werden soll.“ Es suggeriere „völlig übertriebene Fähigkeiten von KI-Systemen“ – lenke aber dadurch von den tatsächlichen Problemen ab.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

16 Kommentare

 / 
  • Sehr guter Artikel. Dankeschön.

    Und wie in dem Artikel von der KI Forscherin Jobin erwähnt, wird die KI immer noch vollkommen verharmlost.

    Warum? Weil das Militär ein sehr großes Interesse an KI hat.

    Künstliche Intelligenz könnte (beim jetzigen eher unintelligentem Bewußtseinsstand der Menschheit) ein wesentlich größeres Problem in einigen Jahren werden als jeder Mensch sich das momentan auch nur im entferntesten vorstellen kann.

    Einige, recht erfolgreiche Hollywood Filme mit einem Muskelprotz aus Österreich haben da bereits angedeutet, worauf es hinaus laufen könnte, wenn es besonders blöd läuft für die Menschheit.

    Hasta la vista baby!

  • KI könnte gerade bei Kommentar-Bots eine Gefahr werden.



    Wenn eine KI den Bericht "lesen" kann und eine "Antwort" in Form eines Leserkommentars schreiben kann, dann ist die Gefahr eines Missbrauchs durch KI Tür und Tor geöffnet.



    Dann kann z.B. zu jeder Nachricht über die Atomkraft ein schlau verfasster Gegenartikel getarnt als Leserkommentar das Meinungsbild verzerren. Sicher nicht bei einem, aber bei 60% gefälschter Leserbriefe schon. Und schon meint der Leser "Was, das sind ja 2/3 aller Leser für Atomkraft, denke ich falsch?"

  • Es ist zu spät. Der stochastische Papagei ist auf der Welt. Wir müssen lernen mit ihm zu leben.

  • "Die Unesco warnte etwa davor, dass KI-Systeme Diskriminierung verstärken könnten. Weitere Gefahren durch eine unregulierte Entwicklung seien Desinformation und die Verletzung von Persönlichkeits- und Menschenrechten."



    Haben wir Menschen bisher doch immer selber am besten geschafft.Um da mithalten zu können oder gar besser zu sein, muß sich KI aber noch weiter entwickeln.

  • Manipulation von Meinung, Selbstständiges (oder initiiertes) Hacken in sensible Infrastruktur / Waffensysteme sind ein paar Vorstellungen, die ich (als Fachfremde) extrem beängstigend finde. Eine Manipulation von Meinung durch ai-autonome Texte ist ja bereits aktiv.

    • @Anidni :

      "Selbstständiges (oder initiiertes) Hacken" ist meiner Einschätzung nach kein allzu plausibler Use Case für KI, weil diese zwar sehr gut darin ist gelerntes Wissen zu reproduzieren, es beim Hacking aber gerade darauf ankommt Technik/IT-Systeme auf eine derart unkonventionelle Art zu bedienen, dass sich daraus unbeabsichtige Nutzungsmöglichkeiten (=Sicherheitslücken) ergeben. Gerade für dieses chaotisch-kreative Out-of-the-Box-Denken sind die Neuronalen Netzwerke aber wenig brauchbar.

      • @Ingo Bernable:

        Gern mal ins Paper "Sparks of Artificial General Intelligence: Early experiments with GPT-4" reinschauen. Unter 5.1.1 findet sich auch ein Abschnitt zum Thema Hacking. Anscheinend stellt sich GPT-4 dabei nicht all zu ungeschickt an.

        Das Paper ist auch ganz spannend in Bezug auf die These, dass solche Systeme nur gelerntes Wissen reproduzieren können. Offenbar besitzen sie schon jetzt einiges an Abstraktionsvermögen auch was Lösungsansätze für Probleme betrifft. Bisher skalierte die Leistungsfähigkeit der Modelle erstaunlich gut mit ihrer Größe. Ich würde also davon ausgehen, dass zukünftige Modelle diesbezüglich immer besser werden. Ein systematisches Vorgehen der Form "Analyse des Zielsystems, Nachschlagen bekannter Schwachstellen in einschlägigen Datenbanken, Suchen und Anwenden möglicher Exploits" scheint mir alles andere als wir hergeholt.

      • @Ingo Bernable:

        "...es beim Hacking aber gerade darauf ankommt Technik/IT-Systeme auf eine derart unkonventionelle Art zu bedienen..."

        Das stimmt nur insofern, als dass man den größten Teil der Angriffsvektoren tatsächlich stattfindender Angriffe ignoriert; nämlich seit langem bekannte aber aus Bequemlichkeit ignorierte Lücken in Systemen.

        Erstbestes Beispiel:



        "Weltweit lag unter den Windows-Betriebssystemen der Marktanteil von Windows 8/8.1 im Dezember 2022 bei nur knapp 3,3 Prozent, während der des Vorgängers Windows 7 noch 11,2 Prozent betrug." (wikipedia)

        Das bedeutet, dass mindestens 15 % aller Systeme schon auf Grund der Tatsache angreifbar sind, dass sie nicht mehr aktuell gehalten werden können. Da reinzukommen schafft sogar eine KI...

        • @Hannes Hegel:

          Aber welchen Vorteile sollte eine KI beim Ausnutzen bekannter Angriffsvektoren bieten? Dazu genügen konventionelle Exploits und Root-Kits vollkommen und sind dabei vermutlich sogar noch effizienter und weniger auffällig.

  • Bewusst falsch programmierte und mit falschen Daten gefütterte KI können die Meinung der Leser manipulieren - BILD auch!

  • Aber in dem Aufruf findet sich der Begriff Superintelligenz so gar nicht, geschweige denn etwas von einem Determinismus dahingehend. Damit aktiviert sie hier umgekehrt erst unnötige Ängste und Alarmstimmung, aus denen der Hype sich nicht zuletzt nährt. Ich kann damit so auch nichts anfangen, klingelt am ehesten aus der Science Fiction. Ein Gedankenexperiment über Super- bzw. Hypercomputation gibt's, aber das ist was völlig anderes. Bin nicht so glücklich damit wie Techies (und das sind sie alle) nun gedankenlos mit so Begriffen aus der Menschenvermessung rumwerfen, nichts anderes ist ja psychometrische Skalierung, die wie ihr alle wisst einen schweren Stand hat - schon im Bezug auf uns Menschen! - und auch m.E. nicht ganz zu Unrecht in Verdacht steht ein zumindest Vehikel zu sein für auch rassistische Lesarten mancher ihrer "Erkenntnisse". Ganz interessante Tendenz für alle, denen die sog. Sokal-Affäre was sagt? Damals wurde Sozial- v.a. Geisteswissenschaftlern sehr öffentlichkeitswirksam vorgeworfen, mit vornehml. techn. oder naturwiss. Begriffen zu hantieren oder zu vernebeln, die gar nicht ihre wären und sie auch nicht kapierten, und dann noch ohne die Chefetage zu fragen. Heute geht das genau andersrum. Werden als "KI-Forscher" eingeführt aber anstatt dass es sie dann über ihre Algorithmen sprechen, Frameworks oder Gradient-Descent-Loops, nein: Superintelligenz. Das ist etwas peinlich und kontraproduktiv, die Vorstellung eines Moratoriums find ich andererseits selbst naiv. Italien hat GPT jetzt mal gesperrt, zack; ich kann's verstehen denn offene Antworten - nicht Briefe - sollte zunächst mal der Entwickler liefern und zwar ganz konkrete. Anders auch den Empfehlungen der Unesco kaum nachzukommen, die vglw. minimalistisch sind und daher deutlich hilfreicher.

    • @Tanz in den Mai:

      "Aber in dem Aufruf findet sich der Begriff Superintelligenz so gar nicht"



      Was sonst beschreiben die düsster raunenden Fragen "Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?"



      Bei der Sokal-Affäre ging es um zweierlei; zum Einen die berechtigte und notwendige Kritik an qualitativ allzu dürftigen Qualitäts- und Peer-Review-Standards nach dem Poststructuralist Turn, zum Anderen weniger berechtigt darum die (teils wenig methodische) Methodik dieser Richtung insgesamt zu diskreditieren indem man positivistische Maßstäbe an sie anlegte, dabei aber übersah, dass diese ihre Erkenntnisse eben gerade deshalb gewannnen weil sie sich davon abgewendet hatten. Der Vorwurf die Poststrukturalisten hätten ebendies gerade dadurch herausgefordert, indem sie sich Begrifflichkeiten anderer Disziplinen aneigneten, ignoriert dann aber doch den Umstand, dass derartige Transfers von Begriffen zwischen ganz unterschiedlichen Fachrichtungen und auch der Alltagssprache ziemlich häufig stattfinden und fast immer auch mit Bedeutungsverschiebungen oder -verlusten einhergehen. Ständig wird heute etwa über Diskurse und Narrative gesprochen, die soziologischen Theorien eines Foucault oder Lyotard haben dabei dennoch die wenigsten im Sinn.

  • Nun scheinen selbst jene die es eigentlich wissen müssten dem KI-Hype zu erliegen. Diese Angst vor dem Computer ist doch inzwischen so alt wie dieser selbst, etwa in Form der Befürchtung alle wesentlichen Entscheidungen würden demnächst von Eleketronengehirnen gefällt und zwar unwiderruflich und unangreifbar weil diese ja unfehlbar gelten könnten und man deshalb ein menschliches Korrektiv gar nicht erst vorsehen würde. Mit ELIZA sah man dann das Ende eigenständiger menschlicher Intelligenz recht schnell ein weiteres Mal heraufdämmern, die daran anschließende Suche der Informatik nach dem Heiligen Gral eines General-Problem-Solver indess blieb bis heute ergebnislos und auch die derzeit boomenden DNN-Algorithmen bieten in dieser Hinsicht wenig Hoffnung weil sie eben lediglich trainiertes Wissen reproduzieren können. Mit dem Sieg Deep Blues über Kasparov brach das Zeitalter der intelligenten Maschinen dann ein weiteres Mal an, oft übersehen dabei allerdings der Umstand, dass brute force Rechenpower eigentlich nicht wirklich in engerem Sinne intelligent ist.



    Nun also Neuronale Netzwerke und Fragen wie "Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization?" Bislang ist noch vollkommen unklar ob und wie gut sich die derzeit vielfältig zeigenden Probleme der NN wie das 'Halluzinieren' falscher Fakten überhaupt in den Griff werden kriegen lassen weil sie eben keine typischen Bugs, sonder in der Funktionsweise dieser Algorithmen angelegt sind. Und wenn das nicht der Fall sein sollte, was gar nicht so unwahrscheinlich sein dürfte, dürfte sich deren Anwendbarkeit in sehr vielen Bereichen und damit auch der aktuelle Hype erledigt haben. Und in dieser Ausgangslage nun also die Warnung vor einem Szenario in dem wir demnächst von rachsüchtigen Staubsaugerrobotern in Nährstofftanks gesteckt werden um die Matrix anzutreiben? Ernsthaft?

    • @Ingo Bernable:

      Der Blick auf frühere KI-Hype-Wellen liegt nahe. Ein wesentlicher Unterschied besteht jedoch: heute dürfte ausreichend Rechenleistung zur Verfügung stehen. Das menschliche Gehirn hat ca. 100 Billionen Synapsen. GPT 3.5 liegt mit seiner Parameteranzahl noch drei Größenordnungen davon entfernt. Aber schaut man sich die derzeit leistungsfähigsten Supercomputer an, kann man davon ausgehen, dass das Überbrücken dieser Lücke nur ein finanzielles und kein technisches Problem mehr darstellt. Die zunehmende Weiterentwicklung und Skalierung von Hardware speziell für KI-Anwendungen dürfte auch das in einigen Jahren lösen -- nicht zuletzt weil es von den Tech-Giganten mit Milliardeninvestitionen getrieben wird.

      > und auch die derzeit boomenden DNN-Algorithmen bieten in dieser Hinsicht wenig Hoffnung weil sie eben lediglich trainiertes Wissen reproduzieren können

      Die Aussage ist so vereinfacht auf jeden Fall falsch. Die Modelle können auch Wissen rekombinieren. Sie erzeugen aus einer Eingabe und Gelerntem eine Ausgabe. Der Unterschied zum menschlichen Gehirn ist nur, dass dieses kontinuierlich von seinen Ein- und Ausgaben weiter lernt. Das machen die aktuellen Sprachmodelle (gewollt noch) nicht. Ich denke, es ist nur eine Frage der Zeit, bis sich jemand daran versucht.

      • @Trollator:

        "Die Aussage ist so vereinfacht auf jeden Fall falsch. Die Modelle können auch Wissen rekombinieren."



        Ich würde da gar nicht groß unterscheiden ob nur Fakt A oder die Fakten A und B in einer Ausgabe wiedergegben werden. Entscheidend ist, dass beide zuvor in den Trainingsdaten enthalten waren und tatsächlich entstehet bei solchen Kombinationen ja auch noch oft genug Unsinn. Was aber völlig außerhalb der Fähigkeiten dieser Systeme liegt sind Dinge wie Abstraktion, die kreative Synthese von Lösungen für ein unbekanntes Problem. GPT würde komplett an einem Problem wie dem mit einem Stock nach den leckeren Ameisen zu angeln scheitern, wenn man es nicht zuvor mit TB an geeigneten Trainingsdaten vollgepumpt hätte. Streng genommen sollte man deshalb eher von künstlichem Erinnerungsvermögen, als von künstlicher Intelligenz sprechen.

    • @Ingo Bernable:

      Andere Befürchtungen wie die vor der Manipulation der öffentlichen Meinung sind wohl berechtigter. Nur wer glaubt, dass sich all die Trollfabriken und Hackergruppen in Diensten fragwürdiger Regierungen und Lobbygruppen an ein Moratorium oder irgendwelche Ethikstandards halten würden?