Risiken von KI: „Alles geht zu schnell“

Judith Simon ist Mitglied des Deutschen Ethikrates. Was müssen wir im Umgang mit künstlicher Intelligenz beachten? Und gehört ChatGPT verboten?

Grafische Darstellung einer Platine in Blautönen in der Form eines Gehirns

Künstliche Intelligenz wirft viele Fragen auf Foto: AerialPerspective Images/getty images

wochentaz: Frau Simon, was unterscheidet die Maschine aus philosophischer Sicht vom Menschen?

Judith Simon: Das ist eine Frage, die viele Bücher füllen kann und auch gefüllt hat. Vielleicht fangen wir damit an, dass der Mensch ein Bewusstsein hat und Maschinen nicht. Maschinen haben auch kein Verständnis von Sprache. Sie können es nur simulieren, indem sie Muster in der Sprache erkennen und reproduzieren. Auch ChatGPT ist also im Grunde nur Statistik.

Sie sind Mitglied des Deutschen Ethikrats und haben kürzlich eine Stellungnahme zum Thema „Herausforderungen durch Künstliche Intelligenz“ veröffentlicht. Womit haben Sie sich da befasst?

45, ist Professorin für Ethik in der Informationstechnologie an der Universität Hamburg. Seit 2018 ist sie Mitglied des Deutschen Ethikrats und war Sprecherin der Arbeitsgruppe „Mensch und Maschine“. Von 2018 bis 2019 war sie Mitglied der Datenethikkommission der Bundesregierung.

Wir haben uns den Einsatz von KI in vier Anwendungsbereichen angeschaut: Medizin, Bildung, öffentliche Kommunikation und öffentliche Verwaltung. Eine Leitfrage dabei war: Wessen Handlungsmöglichkeiten werden durch die Nutzung von KI erweitert oder vermindert?

Welche Potenziale und Chancen haben Sie erkannt?

KI-gestützte Systeme sind vor allem gut darin, Muster in Daten zu erkennen. Dies kann in ganz unterschiedlichen Bereichen verwendet werden, zum Beispiel in der Krebsdiagnostik bei der Analyse von Gewebeproben. In den sozialen Medien kommt KI zum Einsatz, um Inhalte auszuwählen oder zu sortieren. In der Bildung kann KI personalisiertes Lernen unterstützen. KI wird auch im Sozial- und Polizeiwesen verwendet, um Entscheidungen zu unterstützen, etwa um die Gefährdung von Kindern zu bewerten, Betrug aufzudecken oder Vorhersagen über zukünftige Einbrüche zu machen. Im Idealfall hilft die KI, effizienter zu arbeiten, Fehler zu verringern und bessere Entscheidungen zu treffen.

Und wo ist der Haken?

Zu den generellen Problemen von KI-Systemen zählt deren mangelnde Transparenz und Nachvollziehbarkeit. Ein zweites verbreitetes Problem ist Diskriminierung durch sogenannte systemische Verzerrungen. Ursache sind oftmals die Daten, welche entweder nicht repräsentativ sind oder strukturelle Ungleichheiten unserer Gesellschaft widerspiegeln. Die KI lernt diese Strukturen und reproduziert sie. Auch der Schutz der Privatsphäre ist ein wichtiges Thema. Wenn Entscheidungen an Software delegiert werden, stellen sich zudem Fragen rund um Autonomie und Verantwortung. Und letztlich funktionieren diese Systeme nicht von selbst, sondern hängen davon ab, dass Menschen Daten für sie aufbereiten. Diese arbeiten oft unter prekären Arbeitsbedingungen im Globalen Süden.

Was ist ChatGPT?

GPT steht für Generative Pre-trained Transformer. Der Chat-Bot generiert durch sogenanntes prompten – also die Eingabe von Fragen oder Arbeitsaufträgen – ausformulierte Texte. Die Anwendung greift dabei aktuell auf Daten zurück, die von Menschen aufbereitet wurden. Bald könnte der Chat-Bot seine Daten direkt aus dem Internet ziehen und somit auch über aktuelle Ereignisse schreiben.

Wer steckt dahinter?

Entwickelt und auf den Markt gebracht hat den Bot das kalifornische Unternehmen OpenAI unter der Leitung von Greg Brockman und Sam Altman. Elon Musk ist Mitgründer und neben Microsoft zentraler Investor. OpenAI hat knapp 400 Mitarbeitende und über 100 Millionen monatliche User. Bis 2024 erwartet OpenAI eine Milliarde Dollar Umsatz.

Wie kann diesen Problemen begegnet werden?

Gremien wie die Enquete-Kommission des Bundestags für KI oder die Datenethikkommission der Bundesregierung haben bereits umfassende Empfehlungen an die Politik gegeben. Beide haben einen Ansatz vorgeschlagen, um im Entwicklungsprozess von KI-Systemen sowohl die Risiken als auch Möglichkeiten der Kontrolle und Regulierung mitzudenken. Das spiegelt sich auch auf EU-Ebene im sogenannten KI-Act wider. Dieser soll gemeinsam mit anderen Verordnungen, wie etwa dem Digital Services Act, dafür sorgen, dass solche Systeme nicht mit massiven Nebenwirkungen auf den Markt kommen.

Im Fall der sprachbasierten KI ChatGPT wurde jüngst vor eben solchen Nebenwirkungen gewarnt. In einem offenen Brief, unterzeichnet von über 1.000 Tech-Expert:innen, darunter Unternehmer wie Elon Musk und Apple-Mitgründer Steve Wozniak, hieß es: „In den letzten Monaten haben sich die KI-Labore einen unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe geliefert, die niemand – nicht mal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“.

Die Entwicklungen haben zuletzt viele etwas überrollt – mich auch. Das Besondere an ChatGPT ist, dass es zum einen mächtig, und zum anderen so einfach nutzbar und frei zugänglich ist. So sind die Nutzerzahlen innerhalb kürzester Zeit durch die Decke gegangen. Und dann wurde GPT4 veröffentlicht, das Text mit Bildeingabe kombiniert. Die angekündigte Anbindung an das Internet ist der nächste große Schritt, welcher neue Risiken für eine rasante, massenhafte Verbreitung von Fehlinformationen mit sich bringt.

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Viele haben auch Angst, ihren Arbeitsplatz zu verlieren.

Ja, davon werden sicher einige Branchen betroffen sein. Besonders jene, in denen mit standardisierten Texten gearbeitet wird, die nach klaren Mustern aufgebaut sind. So braucht man in naher Zukunft vielleicht nur noch ein paar Journalist:innen, um die von der sprachbasierten KI produzierten Texte zu überprüfen. Das Gleiche gilt für Über­set­ze­r:innen oder Gra­fik­de­si­gne­r:in­nen wegen bildgenerierenden Anwendungen wie Dall-E.

Ist diese Entwicklung noch aufzuhalten?

Zumindest können wir die technologischen Entwicklungen und ökonomischen Rahmenbedingungen beeinflussen. Ich bitte meine Informatik-Studierenden häufig, sich vorzustellen, die Technologie, die sie entwickeln, würde von mehreren Millionen oder gar Milliarden Menschen verwendet werden. Dann wird ihnen oft bewusst, dass die Folgen ihrer Design­entscheidungen vielleicht viel massiver sein könnten, als sie sich das zunächst ausgemalt hatten.

Die Un­ter­zeich­ne­r:in­nen des offenen Briefes fordern ein halbjähriges Moratorium für die Entwicklung von KI-Systemen, die leistungsfähiger sind als die Sprachanwendung GPT4 der Firma OpenAI. Sie wollen Zeit gewinnen, um solche Gedankenexperimente durchzuführen. Ist das realistisch?

Nein, ich denke nicht. Der Wettbewerbsdruck zwischen den Unternehmen dürfte zu groß sein.

Teilen Sie denn die Forderung?

Ich teile bestimmte Punkte des Briefes. Zum Beispiel den Eindruck, dass gerade alles zu schnell geht und dass es sinnvoll wäre, sich mit den Auswirkungen von sogenannten High-Risk-Technologien – zu denen ich ChatGPT zählen würde – zu beschäftigen, und zwar bevor sie frei zugänglich gemacht werden. Auch werden einige Vorschläge zur Überprüfbarkeit und Kontrolle von KI-Systemen gemacht, zu deren Sicherheit, Robustheit usw. Die sind sinnvoll, wurden aber auch schon von vielen anderen zuvor vorgeschlagen.

Und was teilen Sie nicht?

Zum einen den großen Fokus auf die langfristigen Risiken durch eine sogenannte „generelle künstliche Intelligenz“ (artificial general intelligence), also eine KI, die menschliche Intelligenz perfekt simuliert, sie in allen Bereichen übertrifft oder gar über Bewusstsein oder ähnliches verfügt. Kri­ti­ke­r:in­nen des Briefes haben zu Recht darauf hingewiesen, dass so reale Probleme bereits aktuell verwendeter KI-Systeme aus dem Blick verloren werden.

Wer trägt die Verantwortung dafür, Schäden durch KI-Systeme abzuwenden oder zu begleichen?

Es gibt eine einfache Daumenregel: Je mehr Macht ich habe, umso mehr Verantwortung trage ich. Die größte Verantwortung tragen die Unternehmer selbst, die Systeme entwickeln und auf den Markt werfen. Darüber hinaus ist die Politik in der Pflicht, einen gesetzgeberischen Rahmen zu schaffen, der Risiken minimiert und Chancen nutzbar macht. Aber auch die Nut­ze­r:in­nen tragen die Verantwortung zu überlegen, wozu sie diese Tools verwenden und wozu nicht. Ob sie also ChatGPT verwenden, um zu lernen oder um zu betrügen und zu manipulieren.

Italien und Kanada haben im Fall von ChatGPT wegen Verstößen gegen den Datenschutz rechtliche Schritte eingeleitet, Italien ließ die Anwendung sogar vorerst sperren. In Aus­tralien will ein Bürgermeister wegen Verleumdung gegen die Entwickler vorgehen. Sind Verbote die Lösung?

Verbote sind sicher immer nur das letzte Mittel. Ich bin keine Juristin, aber es scheint hier auch eher so zu sein, dass es keinen wirklich geeigneten Rechtsrahmen gibt, mit dem man den Herausforderungen von ChatGPT begegnen kann. Und da hat man eben existierende Datenschutzgesetze verwendet. Nun ist ChatGPT allerdings bereits in der Welt und die Frage ist, wie man es wieder eingefangen kriegt.

Haben Sie eine Idee?

Einerseits werden wir lernen müssen, damit verantwortungsbewusst umzugehen. Das ist nicht einfach, weil ChatGPT so leicht zu verwenden und zu missbrauchen ist. Es stellt sich die Frage, welche Möglichkeiten der geltende Rechtsrahmen bietet, etwa das Datenschutz- oder Urheberrecht, um bestimmte Probleme einzuhegen. Und ob in den neuen Verordnungen auf EU-Ebene solche Technologien bereits ausreichend berücksichtigt wurden oder ob Anpassungen notwendig sind.

Und die Unternehmer, wie erreicht man die?

Ganz ehrlich: Ich glaube nicht, dass man Unternehmer „erreichen“ muss. Jeder Mensch ist verantwortlich für die Entscheidungen, die er trifft – und deren Folgen. Und wenn ich Entscheidungen treffe, die hohe Auswirkungen für viele Menschen haben können, dann muss ich eben auch entsprechend verantwortungsbewusst handeln. Dass das im Falle von ChatGPT nicht passiert ist, fällt also allein in die Verantwortung der Unternehmer selbst.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.