Forscherin über Künstliche Intelligenz: „KI kann Dinge schlecht verbessern“
Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.
wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben beeinflusst?
Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich verwende. Daher wird sie immer besser darin, das, was ich sage, auch richtig aufzuschreiben.
ist Professorin für Technologie und Regulierung an der Universität Oxford und forscht unter anderem zu den rechtlichen und ethischen Folgen von Big Data, Robotik und künstlicher Intelligenz.
Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst?
Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist diese Software eine große Hilfe für mich. Aber es gibt auch unzählige unerfreuliche oder problematische Anwendungen.
An welche denken Sie da vor allem?
Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand ins Gefängnis gehen muss oder welche medizinische Diagnose gestellt wird. Das ist auch deshalb problematisch, weil KI aus den Daten der Vergangenheit lernt.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die Benachteiligung fort.
Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg?
Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift, bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist – zum Beispiel in der Arbeitswelt oder in der Rechtsprechung.
Was ist nicht gut am Gesetzesvorhaben?
Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu minimieren.
Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen wurde: Die Informatikerin Timnit Gebru etwa musste Google verlassen, nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich eingestampft, etwa bei Twitter.
Wie ginge es besser?
Es müssten externe Audits vorgeschrieben werden, von Institutionen, die nichts mit den Herstellern selbst zu tun haben.
Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die Gesellschaft?
Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich lernt KI aus Daten, die es schon gibt.
Ist KI strukturkonservativ?
Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken verabschieden, dass KI irgendetwas objektiver machen würde als Menschen. Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum Menschen den Anschein von Objektivität.
Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden, einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl sie ebenso geeignet sind für den Job.
Wie lässt sich diesem Bias entgegenwirken?
Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel um eine Gesichtserkennung geht – was sind denn für Gesichter drin in den Trainingsdaten, wie sehen die aus? Der zweite Schritt ist ein aktives Entgegenwirken.
Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum Bias-Testen und eines zum Bias-Reduzieren.
Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt?
Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch schon im Einsatz, zum Beispiel bei Amazon.
In den vergangenen Wochen gab es zahlreiche Warnungen vor KI. Der Politologe Ian Bremmer hält sie für eine der großen Gefahren für die Demokratie.
Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich etwa Bilder oder Texte generieren lassen. Und die sind wahnsinnig gut darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind. Es lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt haben.
Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen sein könnten, dann ist das eine Gefahr für die Demokratie.
Wie lässt sich dem entgegenwirken?
Das Verbreiten von Falschinformation, um den politischen Diskurs zu beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit, ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen.
Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten ansetzen: Zum einen müssen wir herausfinden, warum heute so viel Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf fruchtbaren Boden fallen lässt, und wie wir das ändern können.
Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen. Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch verpflichtende Wasserzeichen für KI-generierte Inhalte.
Aber daran werden sich nicht alle halten.
Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und anderen, die sie erstellen.
Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten und Zeitaufwand verursachen.
Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil eine schlecht durchdachte und unzureichend getestete KI viel Schaden anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten Fall die Gelegenheit gibt, Strukturen zu überdenken.
Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen? Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden schlechter bewertet werden.
Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gut“ für einen Jungen entspricht, dann kann ich das bei der Auswahl von Mitarbeiter:innen in den Algorithmus einbauen und kriege am Ende gute Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir die Wirklichkeit. Und diese Chance, die müssen wir nutzen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen
Krieg in der Ukraine
Geschenk mit Eskalation
Umgang mit der AfD
Sollen wir AfD-Stimmen im Blatt wiedergeben?
Krieg in der Ukraine
Kein Frieden mit Putin
Warnung vor „bestimmten Quartieren“
Eine alarmistische Debatte in Berlin
Haftbefehl gegen Netanjahu
Begründeter Verdacht für Kriegsverbrechen