piwik no script img

Forscherin über Künstliche Intelligenz„KI kann Dinge schlecht verbessern“

Das EU-Parlament will Regeln für künstliche Intelligenz. Die Professorin Sandra Wachter spricht über Nutzen, Risiken und den Konservatismus von KI.

Lernfähig: In der Kunst-Performance „La Classe“ agieren KI-gesteuerte Roboter als Schü­le­r:in­nen Foto: viennaslide/imago
Interview von Svenja Bergt

wochentaz: Frau Wachter, wo hat künstliche Intelligenz zuletzt Ihr Leben beeinflusst?

Sandra Wachter: Ich benutze für meine wissenschaftliche Arbeit eine Diktiersoftware. Die lernt mit der Zeit immer genauer, wie meine Stimme klingt, welche Formulierungen ich einsetze und welche Fachbegriffe ich verwende. Daher wird sie immer besser darin, das, was ich sage, auch richtig aufzuschreiben.

Im Interview: Sandra Wachter

ist Professorin für Technologie und ­Regulierung an der Universität Oxford und forscht unter anderem zu den rechtlichen und ethischen Folgen von Big Data, Robotik und künstlicher Intelligenz.

Ist das ein Beispiel dafür, wie KI das Leben positiv beeinflusst?

Absolut. Ich habe meine Gedanken sehr strukturiert im Kopf, aber um sie aufzuschreiben, brauche ich viel länger als für das Sprechen. Daher ist diese Software eine große Hilfe für mich. Aber es gibt auch unzählige unerfreuliche oder problematische Anwendungen.

An welche denken Sie da vor allem?

Sehr problematisch sind Bereiche, in denen KI wichtige Entscheidungen über Menschen trifft. Zum Beispiel, ob jemand einen Job bekommt oder ob jemand ins Gefängnis gehen muss oder welche medizinische Diagnose gestellt wird. Das ist auch deshalb problematisch, weil KI aus den Daten der Vergangenheit lernt.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Wenn also beispielsweise Banken eine Personengruppe in der Vergangenheit bei der Vergabe von Krediten benachteiligt haben, dann findet sich das auch in den Trainingsdaten wieder, aus denen die KI lernt. Dadurch führt sie die Benachteiligung fort.

Diesen Problemen widmet sich der sogenannte AI Act, das bislang weltweit umfangreichste Regelwerk zu KI. In der kommenden Woche stimmt das EU-Parlament darüber ab. Ist Europa auf dem richtigen Weg?

Es ist richtig, dass Europa hier vorangeht und die Initiative ergreift, bevor die technische Entwicklung uns alle überrollt. Auch inhaltlich macht die EU einiges richtig: So hat man sich etwa für bestimmte Lebensbereiche Risikokategorien überlegt und definiert, wo besonders viel Schutz nötig ist – zum Beispiel in der Arbeitswelt oder in der Rechtsprechung.

Was ist nicht gut am Gesetzesvorhaben?

Ein großes Problem ist das Conformity Assessment. Das bedeutet, dass Entwickler selbst bewerten, ob ihre KI-Produkte dem AI Act und dessen Standards entsprechen. Die Entwicklung dieser Standards wird aber ebenfalls vor allem von der Industrie beeinflusst. Und sie schätzt auch das Risiko der eigenen Anwendung ab und soll Maßnahmen ergreifen, um diese zu minimieren.

Das ist zwar grundsätzlich gut, aber man muss sich auch erinnern, wie in der Vergangenheit in der Branche mit kritischen internen Stimmen umgegangen wurde: Die Informatikerin Timnit Gebru etwa musste Google verlassen, nachdem sie auf Probleme von KI hingewiesen hatte. Und bei mehreren großen Tech-Unternehmen werden Ethikabteilungen verkleinert oder gleich eingestampft, etwa bei Twitter.

Wie ginge es besser?

Es müssten externe Audits vorgeschrieben werden, von Institutionen, die nichts mit den Herstellern selbst zu tun haben.

Wie viel Macht dürfen wir KI geben, ohne dass es zum Problem wird für die Gesellschaft?

Die Frage muss vor allem sein: Wo setzen wir KI ein? Es gibt Dinge, die kann KI großartig. Rechnen zum Beispiel, Muster erkennen oder Prozesse, die bereits optimiert sind, automatisieren. Aber worin sie immer schlecht sein wird: Dinge zu verbessern. Das liegt in der Natur der Sache, schließlich lernt KI aus Daten, die es schon gibt.

Ist KI strukturkonservativ?

Ja, auf alle Fälle. Deshalb muss man sich auch von dem Gedanken verabschieden, dass KI irgendetwas objektiver machen würde als Menschen. Nein, sie führt einfach nur das fort, was sie aus den Trainingsdaten gelernt hat. Aber – und das ist die Falle – sie erweckt im Gegensatz zum Menschen den Anschein von Objektivität.

Wer KI einsetzt, sollte daher immer davon ausgehen, dass sie einen Bias hat, also eine Verzerrung, die sie aus den Trainingsdaten gelernt hat. Ein Beispiel: wenn im Personalauswahlprozess Frauen benachteiligt werden, einfach weil die in der Vergangenheit seltener eingestellt wurden, obwohl sie ebenso geeignet sind für den Job.

Wie lässt sich diesem Bias entgegenwirken?

Der erste Schritt ist Transparenz. Man muss wissen und offenlegen, wie der Datensatz aussieht, mit dem eine KI trainiert wurde. Wenn es zum Beispiel um eine Gesichtserkennung geht – was sind denn für Gesichter drin in den Trainingsdaten, wie sehen die aus? Der zweite Schritt ist ein aktives Entgegenwirken.

Wenn ich feststelle, dass nur weiße oder nur männliche Gesichter in den Trainingsdaten sind, dann muss ich nachbessern. Man kann und sollte solche Systeme auch immer auf Bias testen. Zusammen mit zwei Kollegen habe ich dafür zwei Tests entwickelt, die jeder nutzen kann. Ein Tool zum Bias-Testen und eines zum Bias-Reduzieren.

Was passiert, wenn jemand so einen Test über eine KI rüberlaufen lässt?

Wenn zum Beispiel ein Start-up eine KI zur Personalauswahl entwickelt hat und die einen starken Genderbias hat, dann weist der Test darauf hin. Dann muss der Hersteller entscheiden, ob es tatsächlich Absicht ist, dass die KI Bewerberinnen aussortiert – und falls nicht, die Ursache herausfinden und beheben. Den Test haben wir als Open-Source- und Open-Access-Anwendung bereitgestellt, sodass tatsächlich alle ihn nutzen können, und er ist auch schon im Einsatz, zum Beispiel bei Amazon.

In den vergangenen Wochen gab es zahlreiche Warnungen vor KI. Der Politologe Ian Bremmer hält sie für eine der großen Gefahren für die Demokratie.

Es gibt auf alle Fälle klare Risiken. Momentan sehen wir vor allem Neuerungen im Bereich generative KI. Das sind Programme, mit denen sich etwa Bilder oder Texte generieren lassen. Und die sind wahnsinnig gut darin, Inhalte zu erstellen, die real aussehen – aber nicht real sind. Es lassen sich Bilder von Szenen erzeugen, die es nie gegeben hat, man kann Menschen in Videos täuschend echt etwas sagen lassen, das sie nie gesagt haben.

Damit lässt sich eine große Unsicherheit erzeugen. Und wenn wir uns vorstellen, dass eines Tages im demokratischen Diskurs vor allem Lügen verbreitet werden oder Inhalte, von denen man annehmen muss, dass es Lügen sein könnten, dann ist das eine Gefahr für die Demokratie.

Wie lässt sich dem entgegenwirken?

Das Verbreiten von Falschinformation, um den politischen Diskurs zu beeinflussen, hat ja nicht erst gestern angefangen, das gibt es seit Jahrhunderten. Was sich nun verändert, sind Qualität, Quantität und Verbreitungswege von Falschinformation. Allein die ständige Ungewissheit, ob ein Bild, ein Video oder ein Text echt ist, kann für Misstrauen sorgen.

Besonders Menschen, die in einem Bereich noch keine gefestigte Meinung haben und denen es vielleicht an Wissen fehlt, werden sich dann sehr leicht verunsichern und beeinflussen lassen. Wir müssen also an beiden Seiten ansetzen: Zum einen müssen wir herausfinden, warum heute so viel Unzufriedenheit in der Gesellschaft ist, die Falschinformation auf fruchtbaren Boden fallen lässt, und wie wir das ändern können.

Zum anderen müssen wir uns um die Technik kümmern, sie sicherer machen. Dazu gehören Bias-Tests und Transparenz, aber zum Beispiel auch verpflichtende Wasserzeichen für KI-generierte Inhalte.

Aber daran werden sich nicht alle halten.

Natürlich nicht. Es halten sich auch nicht alle an rote Ampeln. Ist das ein Grund, sie abzuschaffen? Nein. Natürlich wird es auch Katz-und-Maus-Spiele geben, von Anwendungen, die KI-generierte Inhalte erkennen sollen, und anderen, die sie erstellen.

Bias-Tests, Offenlegen von Trainingsdaten, Wasserzeichen – aus der Wirtschaft gibt es zu solchen Vorschlägen häufig Kritik, weil sie Kosten und Zeitaufwand verursachen.

Eine gute KI zu entwickeln ist tatsächlich viel Arbeit. Aber das sollten wir nicht als Kosten sehen, sondern als gute Investition. Nicht nur, weil eine schlecht durchdachte und unzureichend getestete KI viel Schaden anrichten kann. Sondern auch, weil uns der Entwicklungsprozess im besten Fall die Gelegenheit gibt, Strukturen zu überdenken.

Warum zum Beispiel bekommen Mädchen schlechtere Mathenoten als Jungen? Nicht, weil sie schlechter wären, sondern weil sie von vielen Lehrenden schlechter bewertet werden.

Wenn ich also weiß, dass die Note „gut“ für ein Mädchen einem „sehr gut“ für einen Jungen entspricht, dann kann ich das bei der Auswahl von Mit­ar­bei­te­r:in­nen in den Algorithmus einbauen und kriege am Ende gute Leute, die mir sonst entgangen wären. Mit solchen Ansätzen verändern wir die Wirklichkeit. Und diese Chance, die müssen wir nutzen.

Links lesen, Rechts bekämpfen

Gerade jetzt, wo der Rechtsextremismus weiter erstarkt, braucht es Zusammenhalt und Solidarität. Auch und vor allem mit den Menschen, die sich vor Ort für eine starke Zivilgesellschaft einsetzen. Die taz kooperiert deshalb mit Polylux. Das Netzwerk engagiert sich seit 2018 gegen den Rechtsruck in Ostdeutschland und unterstützt Projekte, die sich für Demokratie und Toleranz einsetzen. Eine offene Gesellschaft braucht guten, frei zugänglichen Journalismus – und zivilgesellschaftliches Engagement. Finden Sie auch? Dann machen Sie mit und unterstützen Sie unsere Aktion. Noch bis zum 31. Oktober gehen 50 Prozent aller Einnahmen aus den Anmeldungen bei taz zahl ich an das Netzwerk gegen Rechts. In Zeiten wie diesen brauchen alle, die für eine offene Gesellschaft eintreten, unsere Unterstützung. Sind Sie dabei? Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • "Aber – und das ist die Falle – sie erweckt im Gegensatz zum Menschen den Anschein von Objektivität."



    Absolut korrekt!



    Danke fuer dieses Interview!

  • Hätten wir in den letzten 10 Jahren eine intensive gesellschaftliche Debatte über die Möglichkeiten von KI gehabt (was nicht der Fall war), könnten wir heute besser über eine angemessene Regulierung debattieren. Da dies nicht der Fall war läuft es wie üblich in Europa und Deutschland bei disruptiven Technologien auf eine emotional durch Ängste gesteuerte Überregulierung hinaus. Die disruptiven Technolgien wie jetzt KI werden dann woanders entwickelt.

    • @Pi-circle:

      Dann sollten wir wohl heute schon mal die Debatte über die nächste Disruption starten die irgendwann in 10 Jahren auf uns zukommen wird.



      Und was ist an Ängsten wie etwa der vor der Möglichkeit der sehr effizienten Manipulation von Medien und öffentlicher Meinung oder der Entwicklung extrem wirksamer biologischer oder chemischer Waffen, nicht nur durch Regierungen, sondern auch durch allerlei Fanatiker und Terrorgruppen, ... rein emotional und unbegründet?

  • Wenn diese KI denn wenigtens ansatzweise brauchbar wäre. Ich habe z.B. einem gewissen Chatbot schon unzählige fachliche Fragen im IT-Umfeld gestellt. Ergebnis: Nahezu 100% aller Antworten waren vollkommen falsch bzw. nicht verwertbar.



    Ich hätte auch den Hausmeister fragen können, rein statistisch wären da mehr Treffer gekommen, selbst wenn er völlig frei geraten hätte.

  • Das Bias-Problem habe ich schon als Student Anfang der 80er kennengelernt: ich war damals Werkstudent am Institut für Elektroakustik der TU München und einer der Doktoranden entwickelte eine Spracherkennung (für Zahlen). Bei der ersten öffentlichen Vorführung fiel auf, dass die Fehlerquote bei Sprechern mit schwäbischem Akzent/Dialekt viel geringer war wie bei allen anderen - unser Prof. fand dann die Erklärung: am Institut waren durch Zufall sehr viele Personen mit schwäbischer Herkunft und wir alle vom Institut hatten die Trainingsdaten geliefert...

  • Ist es nicht völlig unpassend, einen Begriff wie "strukturkonservativ" auf KI anzuwenden? Konservatismus impliziert (theoretisch) eine Wertehaltung, über die ein auf reinen Daten basierendes System doch gar nicht verfügen kann.