Mensch und Maschine: Haben Sie Angst vor Algorithmen?

Vieles in unserem Alltag wird von Algorithmen geregelt. Wir vertrauen auf ihre Neutralität. Dabei entscheiden sie nicht immer fair.

Pappmachee-Krake mit Aufschrift aus Nullen und Einsen

Manche behaupten, sie kenne uns besser als wir selbst: die Datenkrake Foto: dpa

Stellen Sie sich vor, Sie googlen sich selbst. Rechts neben den Suchtreffern zu Ihrem Namen poppt eine Werbespalte auf. „Miriam Meister“ – mal angenommen Sie heißen so – „im Gefängnis?“, steht da. Sie klicken auf die Werbung und landen auf einer Homepage, auf der man recherchieren kann, ob jemand vorbestraft ist, inklusive Gerichtsakten, Adressen und Alter.

Irgendetwas hat Ihren Namen mit einer möglichen Haftstrafe in Verbindung gebracht. Ein Algorithmus.

Es ist unwahrscheinlich, dass Ihnen, Miriam Meister, so etwas passiert. Sie leben in Deutschland, die Homepage ist amerikanisch. Latanya Sweeney aus Boston ging es aber so.

Die Harvard-Professorin wollte verstehen, warum. Sie googelte weiter, suchte nach Namen, bei denen die gleiche Werbung geschaltet wird. Mit einer Studie, die diese Werbeeinblendungen analysiert, konnte die Computerwissenschaftlerin belegen: Personen, deren Name mit schwarzer Hautfarbe assoziiert wird, bekommen eine Werbung, die nahelegt, dass sie im Gefängnis sitzen, bis zu 25 Prozent häufiger angezeigt, als Menschen mit „weißem Namen“.

Fünf Jahre Grün-Rot in Baden-Württemberg. Läuft der Laden weiter? Wie sich das „Ländle“ nach dem Machtwechsel entwickelt hat – und von wem die Menschen repräsentiert werden möchten. Zehn Sonderseiten zur Landtagswahl in der taz.am wochenende vom 5./6. März. Außerdem: Unser Leben wird immer mehr von Algorithmen beeinflusst. Müssen wir anfangen, ihnen Ethik beizubringen? Und: Vor fünf Jahren explodierte das Kernkraftwerk Fukushima. Die Anwohner wurden evakuiert. Wie ist es, zurückzukehren? Am Kiosk, eKiosk oder gleich im praktischen Wochenendabo.

Der Algorithmus rechnete also rassistisch.

Ein weiteres Beispiel: Zwei US-Forscher wollten wissen, ob Algorithmen auch etwas damit zu tun haben könnten, dass Frauen seltener in Führungspositionen sind und oft schlechter bezahlt werden als männliche Kollegen. Sie entwickelten ein Programm, das automatisierte Werbeanzeigen im Internet analysiert. Das Ergebnis: Hoch dotierte Arbeitsangebote werden Männern fast sechs Mal so häufig angezeigt wie Frauen.

Algorithmen sind nicht per se schlecht oder gefährlich. Sie sind aber auch nicht so objektiv, wie viele denken. Weil sie immer von Menschen entwickelt und mit Daten gefüttert werden. Fälle, in denen Algorithmen unfair entscheiden, finden sich also immer wieder. Und Algorithmen entscheiden über sehr vieles: Kreditvergabe, Versicherungstarife, Terrorlisten und mit darüber, wer einen Job kriegt und wer nicht.

Sie rechnen auf Basis vorhandener Datensätze. Vereinfacht sieht das so aus: Wenn in der Vergangenheit meist weiße Mittelschichtsmänner eingestellt wurden, dann lernt der Algorithmus aus diesen Daten und reproduziert die vorhandenen Entscheidungsmuster. Er wählt also auch weiterhin hauptsächlich weiße Männer aus der Mittelschicht aus.

In der taz.am wochenende vom 5./6. März 2016 geht unsere Autorin Meike Laaff der Frage nach, ob man Algorithmen dazu bringen kann, ethische Entscheidungen zu treffen. Sie erzählt unter anderem von einem Forschungsteam, das an einem Antidiskriminierungs-Algorithmus feilt und besucht Menschen, die daran arbeiten, die digitale Welt gerechter zu machen. Aber geht das überhaupt?

Was meinen Sie? Müssen wir Angst vor Algorithmen haben? Sind wir machtlos und werden von Maschinen beherrscht? Oder ist das nur fortschrittsfeindliche Panik? Wem vertrauen Sie, Mensch oder Computer?

Diskutieren Sie mit!

Die ganze Geschichte „Kann ein Computer Ethik lernen?“ lesen Sie in der taz.am wochenende vom 5./6. März 2016.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.