piwik no script img

GesellschaftRechtsruck der Technik

In Zeiten des weltweiten Rechtsrucks und des steigenden Einflusses von Tech-Firmen unter Donald Trump bereitet die Technik der Zukunft Sorgen: Die Künstliche Intelligenz ist gespickt mit menschlichen Vorurteilen. Aber Politik, Unternehmen und Nutzer:innen können das ändern, sagt die Wissenschaftlerin Eva Gengler.

„Erfolgreiche Menschen“, KI-generiert: vor allem Männer, fast alle weiß. Bild: DALL-E/ChatGPT

Von Silvana El Sayegh Frau Gengler, Sie forschen zum Thema KI-Bias, also zu Vorurteilen, die durch Künstliche Intelligenz reproduziert werden. Welche Erkenntnisse konnten Sie zur Diskriminierung durch KI-Tools gewinnen?

KI basiert auf sehr detaillierten und komplexen statistischen Berechnungen mit sehr vielen Daten. Wenn wir über KI-Bias sprechen, sind die Daten, die zum Training verwendet werden, entscheidend, weil das, was in den Daten steckt, am Ende ähnlich in den Ergebnissen sichtbar wird. Ich habe mir sechs Text-zu-Bild-KI-Tools angeschaut und wie Personen in den Kontexten von Macht, Erfolg und Schönheit dargestellt werden. Ich habe festgestellt, dass Männer mehr repräsentiert sind, insbesondere wenn es um Macht und Erfolg geht. Frauen werden eher jünger dargestellt und sehr viel mehr sexualisiert. Diverse Ethnien, People of Color, waren insgesamt unterrepräsentiert.

Ist das nur ein Problem bei generativen KI-Werkzeugen oder auch bei Vorhersage-Tools, die etwa beim Filtern von Bewerbungen Menschenleben beeinflussen können?

Ich habe mich früher mit KI im Recruiting beschäftigt, unter anderem dem Recruiting bei Amazon mit einem KI-Tool, für die Auswertung von Lebensläufen von Bewerber:innen. Es wurde festgestellt, dass Lebensläufe von Frauen systematisch aussortiert werden. Die KI wurde mit Daten vergangener menschlicher Entscheidungen und auf Basis der letzten Jahre trainiert, in denen vor allem Männer eingestellt worden sind – wie es typisch im IT-Sektor ist. KI könnte Recruiting fairer machen, wenn wir explizit versuchen, ungerechte Strukturen mit Hilfe von KI zu verändern.

Ist es ethisch vertretbar, die Daten zu manipulieren?

Auf jeden Fall dürfen wir in die Daten eingreifen. Es ist sogar geboten. Die bestehenden Ungerechtigkeiten in Bezug auf Gender, Herkunft, Ethnie und sozioökonomischen Hintergrund werden durch KI reproduziert und verstärkt. Die Daten, mit der die KI trainiert, werden sowieso erstmal bereinigt – es sind eher privilegierte Personen in Tech-Firmen, die sie bearbeiten. Das bedeutet, dass die Daten, die dem System gefüttert werden, nicht neutral, sondern sowieso verzerrt sind. Man muss auch berücksichtigen, dass wir von historischen Daten lernen, die nicht unbedingt unsere aktuelle Gesellschaft und ihre Werte widerspiegeln. Frauenrechte sind ein Beispiel: Vergewaltigung in der Ehe wurde erst Ende der 1990er-Jahre in Deutschland strafbar, Frauen haben lange kaum Kredite bekommen und bezahlte Arbeit war für Frauen in der BRD bis 1977 illegal ohne Zustimmung des Ehemannes.

Zu den Rahmenbedingungen gehört die KI-Verordnung der EU, die 2026 vollständig in Kraft treten soll und Transparenzpflichten für KI-Anwendungen reguliert. Wird das helfen, KI fairer zu machen und Anwendungen mit hohen Risiken zu begrenzen?

Der EU AI Act ist ein guter erster Schritt. Versucht wird ein Spagat zwischen Werten und Innovation. Er setzt ein Zeichen, dass KI unseren Werten entsprechen soll. Was aber noch nicht so stark priorisiert ist, sind Themen wie Diversität, Transparenz über den ökologischen Fußabdruck oder Barrierefreiheit. Deutschland hat große Fördertöpfe für KI-Projekte und da sollte in Ausschreibungen unter anderem die Qualität der Daten und deren Diskriminierungsfreiheit festgehalten werden. Wenn zu wenig Frauen im Datensatz sind oder zu wenig diverse Ethnien, dann kann man synthetisch nachgenerieren.

Die KI-Verordnung der EU

Die im Dezember 2023 vom EU-Parlament verabschiedete Verordnung soll Grundrechte vor Hochrisiko-KI schützen, gleichzeitig Innovation fördern und Europas Führungsrolle im KI-Bereich stärken. Verboten sind KI-Anwendungen, die Bürgerrechte gefährden, wie emotionale Überwachung und manipulative KI. Die Verordnung soll im August 2026 vollständig in Kraft treten.

Was ist KI?

KI wurde bereits 1956 definiert und wird seit vielen Jahren in unterschiedlichen Bereichen eingesetzt. Der jüngste Aufschwung ist vor allem auf die gestiegene Rechen- und Speicherkapazität von Computern zurückzuführen, die es ermöglicht, riesige Datenmengen aus dem Internet und Sozialen Medien zum Training von KI-Modellen zu nutzen. Durch maschinelles Lernen werden diese Daten verarbeitet, angelehnt ans menschliche Gehirn. Es ist kein Denken oder „Intelligenz“, sondern eine komplexe statistische Berechnung. Die derzeitigen Hauptanwendungsbereiche:

Vorhersage-Tools treffen Prognosen, etwa bei der Kreditvergabe oder im Recruiting, indem sie auf Basis vorhandener Daten vorhersagen, welche Personen am besten geeignet sind.

Generative KI-Systeme erzeugen eigenständig Inhalte, wie zum Beispiel Texte (ChatGPT) und Bilder (Midjourney, DALL-E/ChatGPT). (ses)

Wie können Unternehmen mit KI gerechter umgehen?

KI wird meistens eingesetzt, um Bestehendes zu automatisieren und effizienter, schneller zu gestalten. Da wir aber wissen, dass viele Prozesse extrem ungerecht sind – im Recruiting, in der Kreditvergabe, in der Medizin – sollten wir eigentlich eher überlegen, wie wir KI nutzen könnten, um Prozesse und Strukturen gerechter zu gestalten.

Es ist auch wichtig, dass es mehr Diversität in den Entwicklungsteams und vor allem auch auf Entscheidungsebenen gibt. Eine Möglichkeit wäre ein „Gremium der Vielfalt“, in dem verschiedene diverse Personen, die von KI-Bias betroffen sind, Vetorechte oder eine beratende Funktion bekommen. Wenn es um Design von KI geht, kann mit Open-Source Anwendungen eine Demokratisierung geschaffen werden, indem ein breiter Zugang zu KI geschaffen und offenlegt wird, welche Daten genutzt wurden.

Die EU plant große Investitionen für die KI-Branche. Kann man auf eine Verbesserung der KI-Tools hoffen?

Ich würde mir wünschen, dass die EU versucht, Marktführerin in verantwortungsvoller KI zu werden – im Bereich großer Sprachmodelle werden wir vermutlich nicht dominieren, weil diese sehr teuer sind. Wir könnten aber führend darin sein, KI mit ethischen Werten zu gestalten. Das unterscheidet uns klar von den USA, die stark auf Wachstum und Kapitalismus setzen, und China, das auf Parteitreue und Autorität ausgerichtet ist. Beides entspricht nicht den Werten der EU.

Welche Rolle spielen die Nutzer:innen selbst, haben sie eine Chance gegen die Macht der KI-Anbieter zu wirken? Nutzer:innen haben als Einzelne nur wenig Macht, das System zu verändern. Wir können aber gemeinsam Macht ausüben, wenn viele Menschen mitmachen. Es geht in erster Linie darum, dass wir selbst mit KI verantwortungsvoll umgehen. Zum Beispiel hilft ChatGPT, Texte zu generieren oder zu kürzen, aber es ist nicht das richtige Tool, um die Wahrheit zu erfragen. Auf jeden Fall hilft es, gute und schlechte KI-Ergebnisse zu teilen und auf Fehler hinzuweisen.

Heutzutage nutzen hauptsächlich Männer mit bestimmten sozioökonomischen Hintergründen Künstliche Intelligenz. Hier haben wir auch die Verantwortung, andere zu ermächtigen, KI zu nutzen und auf negative Ergebnisse zu reagieren, damit die Maschine lernt.

Wie können Menschen beweisen, dass sie von KI-betriebenen Systemen diskriminiert oder ausgeschlossen werden?

Betroffene müssen erstmal wissen, dass KI im Prozess involviert war. Die Beweisführung wird bei KI eventuell sogar einfacher, als wenn Menschen diskriminieren. Ich glaube, in dem Fall werden eher Sammelklagen, die Medien und größere zivilgesellschaftlichen Organisationen helfen, Bias zu entdecken. Zum Beispiel hat die Kindergeldaffäre in den Niederlanden gezeigt, wie eine solche Allianz erfolgreich war und den Einsatz einer diskriminierenden KI stoppen konnte. Dort war eine KI-Anwendung im Einsatz, um staatlichen Behörden zu helfen Sozialhilfebetrug festzustellen. Das Tool hatte aber Personen mit Migrationshintergrund und alleinerziehende Mütter benachteiligt. Nach Medienrecherchen haben NGOs geklagt und Recht bekommen. Die Regierung musste ein Bußgeld in Millionenhöhe zahlen.

Eva Gengler forscht an der Schnittstelle von Macht und KI mit intersektional-feministischer Perspektive an der Friedrich-Alexander-Universität Erlangen-Nürnberg. Foto: Helena Henkel

werken viele KI-generierte Bilder von der AfD, die nicht gekennzeichnet waren, obwohl es im AI Act der EU zukünftig verbindlich vorgeschrieben ist die Ergebnisse ordentlich prüfen.

Welche Folgen hat es für Künstliche Intelligenz, wenn die Politik nach rechts rückt? KI-Systeme sind grundsätzlich eher konservativ und wenn die Gesellschaft und die Politik immer mehr nach rechts rückt, werden sicherlich auch KI-Systeme in diese Richtung gehen oder mindestens gewisse Einschränkungen aufgehoben, weil es dagegen einfach keinen Aufschrei mehr gibt. Femizide in Deutschland verursachen fast nie einen Aufschrei in den Medien, Verbrechen durch Personen mit Migrationshintergrund schon. Das wird KI auch lernen, weil es viel mehr Berichterstattung vom einen gibt und zum anderen. Und wenn es keinen Aufschrei gegen diese Diskriminierung gibt, müssen Firmen weniger stark nachbessern. ChatGPT soll künftig „neutraler“ werden und verschiedene „Meinungen“ abbilden. Das könnte zwar eine Chance sein, um künftig auch marginalisierte Perspektiven stärker in den Ergebnissen sichtbar zu machen, aber je nachdem wie diese Änderung umgesetzt wird, könnte sie auch mehr Desinformation und diskriminierenden Content als eine Art Alternativangebot neben fundierten wissenschaftlichen Erkenntnissen darstellen. Durch die weitverbreitete Nutzung dieser Tools könnten solche Änderungen massive Folgen für unsere Demokratien mit sich bringen.

Im Gazakrieg hat Israel Ziele durch KI definiert. Häuser wurden markiert und die Soldaten hatten sehr wenig Zeit zu entscheiden, ob sie die Ziele bombardieren. Welche Gefahren birgt das für Zivilist:innen, wenn wir schon wissen, dass KI diskriminierend ist?

Solche Tools sind extrem kritisch zu betrachten. In Bezug auf Bias sind sicherlich Personen mit gewissen Namen und Aussehen mehr gefährdet als andere. Im Krieg kann es auch Menschen passieren, dass sie Ziele falsch identifizieren. KI macht das aber leichter.

Durch KI-Anwendungen wie diese geben wir die Macht nicht nur der Maschine, sondern den Unternehmen, die diese KI-Systeme prägen. Wir geben ihnen die Macht über unser Leben, obwohl wir nicht wissen, welche politischen und eigenen Interessen sie verfolgen. Eigentlich geht es ihnen auch nur darum, Geld zu machen. Sie haben kein Interesse das System zu verändern.

Gemeinsam für freie Presse

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen