Diskriminierung durch KI: Der Algorithmus sagt Nein
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter anderem durch KI – und zeigt auf, was sich besser machen ließe.
„Wir sind nicht gut vorbereitet auf die Probleme, die algorithmische Entscheidungssysteme machen können“, sagte Ataman. Menschen sollten darauf vertrauen könnten, dass sie durch KI nicht diskriminiert werden – und sich wehren können, wenn es doch passiere.
Algorithmische Entscheidungssysteme sind aktuell besonders im Zusammenhang mit künstlicher Intelligenz (KI) in der Diskussion. So gibt es etwa KI-Software, die Unternehmen bei der Auswahl geeigneter Bewerber:innen oder bei der Betrugserkennung von Versicherungsfällen helfen soll. Doch algorithmische Entscheidungen müssen nicht immer etwas mit KI zu tun haben, wie etwa das Scoring, also die Beurteilung der Bonität durch Auskunfteien wie die Schufa, zeigt.
Der Einsatz von algorithmischen Entscheidungssystemen im Allgemeinen und KI im Speziellen wird absehbar in den kommenden Jahren zunehmen: Die in Arbeit befindliche EU-Regelung erwähnt etwa Bereiche wie Strafverfolgung, Grenzkontrollen und medizinische Anwendungen.
Mehr Möglichkeiten für Betroffene
In Fällen von Diskriminierung durch Menschen greift in Deutschland das Allgemeine Gleichbehandlungsgestz (AGG). Die am Mittwoch vorgestellte Studie kommt jedoch zu dem Ergebnis: Beim Schutz vor Diskriminierung durch algorithmische und KI-Systeme gibt es hier Lücken.
„Diese Systeme sind Black Boxen, wir wissen nicht, welche Daten dort zugrunde liegen und wie die Algorithmen Korrelationen finden“, sagte der Rechtsprofessor Emanuel V. Towfigh, einer der beiden Autor:innen der Studie. Es brauche daher Auskunftsrechte für die Betroffenen und Offenlegungspflichten für die Betreiber solcher Systeme.
Außerdem schlagen die beiden Autor:innen vor, in das AGG auch den Diskriminierungsgrund „Beziehungen“ aufzunehmen. Bislang ist unter anderem eine Diskriminierung wegen des Geschlechts oder der Religion verboten. Mit dem Faktor „Beziehungen“ wäre es etwa untersagt, eine Person in eine schlechte Bonitätsklasse einzuteilen, weil auch die Menschen in deren Nachbarschaft eine schlechtere Bonität haben.
Algorithmen mit Diskreminierungspotenzial
Darüber hinaus sprechen sich die Autor:innen für eine Beweislastumkehr aus: Hätten Betroffene den Verdacht, von einem System diskriminiert worden zu sein, müsse dessen Betreiber beweisen, dass das nicht der Fall sei. Auch ein Verbandsklagerecht könne die Rechte von Betroffenen verbessern.
„Algorithmen haben ein besonderes Diskriminierungspotenzial“, sagt die Rechtsprofessorin Indra Spiecker genannt Döhmann, die zweite Autorin der Studie. Das liege daran, dass sie auf Statistiken basieren. Diese ziehen zum einen Daten aus der Vergangenheit heran, um basierend darauf über die Zukunft zu entscheiden. Und zum anderen würden sie häufig nur Korrelationen und keine Kausalitäten, also Ursache-Wirkungs-Beziehungen abbilden. Dazu kämen unklare Verantwortlichkeiten darüber, wer für den Einsatz eines algorithmischen Systems einstehen muss – das mache es leicht, Haftungsfragen abzuwehren.
Die Expertin warnte auch davor, sich in Sachen Schutz vor algorithmischer Diskriminierung auf die in Arbeit befindliche EU-Regulierung zu verlassen. Denn die sehe keinerlei Individualrechte, also etwa Klage- und Auskunftsrechte für Betroffene, vor. Die EU-Gremien arbeiten derzeit an einer Gesetzgebung, die den Einsatz von KI regeln soll. Bis Ende dieses Jahres soll es eine Einigung geben. Es wäre die erste umfassende transnationale und verbindliche Reglementierung der Technologie.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!