piwik no script img

Offener Brief von KI-Forscher:innenSchutz vor Vergeltung gefordert

Ent­wick­le­r:in­nen wollen vor den Risiken künstlicher Intelligenz warnen dürfen. Viele fürchten die Reaktion der Konzerne auf interne Kritik.

OpenAI-Chef Sam Altman Foto: Jack Gruber USA Today/imago

San Francisco dpa | Eine Gruppe von KI-Forscher:innen, darunter mehrere ehemalige Angestellte der ChatGPT-Firma OpenAI, fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle Schutz für Whistleblower reiche nicht aus, betonten die Ex­per­t:in­nen in einem am Dienstag veröffentlichten offenen Brief.

Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet – aber bei künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben. „Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab.“

Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige OpenAI-Forscher Leopold Aschenbrenner sagte dem Dwarkesh Podcast, er sei gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über KI-Sicherheit besorgt gezeigt habe.

Die For­sche­r:in­nen riefen die Unternehmen mit fortgeschrittenen KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den Mit­ar­bei­te­r:in­nen nicht negative Äußerungen über ihre Arbeitgeber zu verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitenden mit dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma „verunglimpfen“ sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie angewendet worden.

Schon lange Warnungen vor künstlicher Intelligenz

Eine weitere Forderung in dem Brief ist ein Verfahren, mit dem Mit­ar­bei­te­r:in­nen anonym die Verwaltungsräte von Unternehmen sowie Regulierer über aus ihrer Sicht bestehende Risiken bei KI-Software informieren können. Die müssten auch die Freiheit haben, an die Öffentlichkeit zu gehen, solange es keine internen Wege gebe.

Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab

offener Brief von KI-Forscher:innen

Einige KI-Expert:innen warnen schon lange, die rasante Entwicklung künstlicher Intelligenz könne zu autonomer Software führen, die sich der Kontrolle der Menschen entziehe. Die Folgen könnten von der Verbreitung von Falschinformation und Jobverlusten in großem Stil bis hin zur Vernichtung der Menschen reichen, heißt es oft. Regierungen arbeiten auch deswegen daran, Regeln für die Entwicklung von KI-Software aufzustellen. OpenAI gilt mit der Software hinter ChatGPT als ein Vorreiter in dem Bereich.

Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an eine „wissenschaftliche Herangehensweise an Risiken der Technologie“. Mit­ar­bei­te­r:in­nen stehe frei, auch anonym ihre Sorgen zu teilen. Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich gemacht werden, die dadurch in die falschen Hände geraten könnten.

Vier aktuelle und zwei frühere Mitarbeitende von OpenAI schlossen sich dem Brief nur anonym an. Unter den sieben Unterzeichnern, die ihre Namen öffentlich machten, sind fünf ehemalige Beschäftigte von OpenAI und ein früherer Mitarbeiter der Google-Tochter DeepMind. Neel Nanda, der derzeit bei DeepMind arbeitet und zuvor beim KI-Start-up Anthropic war, betonte zugleich, dass ihm bei seinem aktuellen und früheren Arbeitgebern nichts untergekommen sei, wovor er warnen wolle.

Gerangel um OpenAI-Chef Altman

Altman war im November vom Verwaltungsrat von OpenAI überraschend unter Verweis auf einen Vertrauensverlust herausgedrängt worden. Nur wenige Tage später kehrte Altman wieder auf den Posten zurück, nachdem sich zahlreiche Mit­ar­bei­te­r:in­nen und der Großaktionär Microsoft hinter ihn gestellt hatten.

Später sagte das damalige Verwaltungsratsmitglied Helen Toner zur Begründung für den Rauswurf unter anderem, das Gremium habe erst aus den Medien davon erfahren, dass ChatGPT veröffentlicht wurde. Der Schritt löste Sorgen aus, dass die Firma die Technologie ohne nötige Sicherheitsvorkehrungen für alle verfügbar gemacht haben könnte.

Zuletzt geriet OpenAI unter Druck, nachdem Schauspielerin Scarlett Johansson von der Firma wissen wollte, wieso eine Stimme von ChatGPT ihrer eigenen sehr ähnlich geklungen habe, obwohl sie das Angebot ausgeschlagen habe, Sprachdaten dafür zu liefern.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Fast noch interessanter ist doch, welche Barrieren in die KI-Systeme eingezogen werden und welche Risiken völlig unbeachtet bleiben. Schlussendlich handelt es sich doch nur, um statistische Systeme, welche vorgefasste Haltungen replizieren. Es gibt nicht nur einen diskriminierenden Bias, es gibt auch einen politischen Bias, welcher durch die eingezogenen Barrieren sogar noch verstärkt wird.

    Hinzu kommt die große Gefahr, dass KI mit der Zunahme KI-generierter Texte in eine selbstreferenzielle Schleife gerät, in welcher der gleiche Mist immer wieder repliziert und im schlimmsten Fall auch noch verstärkt wird. Hierfür wäre es zwingend erforderlich, dass teilweise oder gänzlich von Maschinen generierte Texte kenntlich gemacht werden, damit diese nicht zu Trainingsdaten anderer KI Systeme werden.

    Generell dürfte es aber ohnehin darauf hinauslaufen, dass die Menschheit mit diesen Systemen noch weiter verblödet.

  • LLMs werden die Herrschaft nicht übernehmen.

    Sie werden eher dafür sorgen, dass wir alle nicht mehr Kompetent genug sind, um zu bewerten, ob ein (generierter) Text nur elaborierter Quatsch ist oder nicht.

    Die "Experten" warnen vor Horrorszenarien, aber nicht den negativen Folgen, die uns wirklich drohen.

  • Eine Gruppe von KI-Forscher:innen,(...)fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen.



    ----



    Stimme voll & ganz zu!



    Wenn nocht offen über das FÜR & WIDER von KI diskutiert werden kann, besteht auch mMn. die Gefahr, das diese Technik aus dem Ruder läuft.



    Das "Netz" ist schon durch "brutale, fast totale" Kommerzialisierung kaputt & unbenutzbar geworden.



    Wenn wir bei KI/AI den gleichen Fehler machen, landen wir demnächst wieder beim Fax, Print aus Holz-Produkten.



    An Technikfolgeabschätzung MÜSSEN die offen mitreden können, die solche Technik übersehen. Politiker sind dazu nicht sehr geeignet.



    Mach weiter, meine uneingeschränkte Unterstützung, ideell & soweit möglich auch finanziell, habt ihr!



    Gr. Sikasuu

    • @Sikasuu:

      Natürlich werden die gleichen Fehler gemacht, siehe Hannes Jaenicke bei Maischberger im September 2018.



      Und seitdem war viel Zeit, die Dummheit noch wachsen zu lassen.