Algorithmen im Internet: „Die Maschinen entscheiden für uns“
Sie regulieren immer mehr Bereiche unseres Lebens – ohne dass wir verstehen, was genau Algorithmen tun. Nicht gut, sagt Techniksoziologin Zeynep Tufekci.
taz: Frau Tufekci, nach den Unruhen von Ferguson waren Posts darüber auf Ihrer Facebook-Timeline lange nicht sichtbar. Was ist da passiert?
Zeynep Tufekci: Facebook hat einen Algorithmus eingesetzt, und der bevorzugt Dinge, die gelikt werden. Dadurch werden negative Nachrichten als weniger wichtig behandelt. Facebook bietet keine Möglichkeit an, auszudrücken, dass man etwas wichtig findet oder etwas nicht mag. Dafür gibt es keinen Button. So hat Facebook Regeln aufgestellt. Und die diskriminieren eine bestimmte Art von Geschichten und pushen eine andere. Während der Ferguson-Proteste war das zum Beispiel die Icebucketchallenge – an sich nichts Schlechtes, aber sie begrub alle anderen Nachrichten. In den USA bekommen 30 Prozent der Menschen ihre Informationen über Facebook. Bei den Jungen sind es vielleicht noch mehr. Facebook hat eine neue publizistische Funktion. Sie stellen die Regeln auf, wie Inhalte kuratiert werden.
Abstrakt gefragt: Kann Algorithmen eine Ethik innewohnen?
Ja, und zwar insofern, als sie Konsequenzen für unser tägliches Leben haben – und diese Konsequenzen können wir als unethisch empfinden. Die Maschinen agieren selbstständig. Sie sind zwar nicht lebendig, aber sie sind handlungsmächtig. Das ist etwas Neues: Eine Maschine, die agiert, so als wäre sie eine Art Lebewesen. Es ist schwer, einen Begriff dafür zu finden. So etwas gab es in der Geschichte bislang noch nicht.
Gedöns ist Umwelt, ist, was wir essen, wie wir reden, uns kleiden. Wie wir wohnen, lernen, lieben, arbeiten. Kinder sind Gedöns, Homos, Ausländer, Alte. Tiere sowieso. Alles also jenseits der „harten Themen“. Die taz macht drei Wochen Gedöns, jeden Tag vier Seiten. Am Kiosk, eKiosk oder direkt im Probe-Abo. Und der Höhepunkt folgt dann am 25. April: der große Gedöns-Kongress in Berlin, das taz.lab 2015.
Welche Konsequenzen hat das?
Wir übertragen unsere Handlungsmacht auf Maschinen. In manchen Fällen kann das nützlich sein. Aber häufig gehören die Algorithmen großen Unternehmen – und deren Ziel ist es nicht zwangsläufig, unser Leben einfacher oder besser zu machen. Meist wollen sie Profite erzielen oder Entscheidungshilfen für Regierungen bereitstellen. Darum stellt sich die Frage, wie wir Algorithmen für ethische Zwecke anwenden können.
Hört sich an, als würden Sie Algorithmen generell kritisch gegenüberstehen.
Es mag legitime Anwendungen geben. Selbst bei großen Unternehmen. Aber wenn wir so viel Handlungsmacht übertragen, müssen wir mal einen frischen Blick auf die Folgen werfen, gerade in Verbindung mit all den Daten, die über uns gesammelt werden. Diese Daten werden genutzt, um Entscheidungen über uns zu treffen, von denen wir vielleicht noch nicht einmal wissen. Und von denen wir nicht verstehen, warum sie getroffen werden.
Noch mal zurück zu den Facebook-Nachrichten über Ferguson: Was hätte Facebook danach tun können?
Sie hätten sich die Konsequenzen ansehen und Fragen stellen können. Wollen wir das? Wollen unsere Nutzer das? Auch könnte Facebook den Nutzern mehr Macht über ihren Newsfeed geben. Facebook gibt viel Geld aus, um neue Produkte zu entwickeln, besonders im Bereich Werbung. Es gibt viel, was man tun kann. Das ist eine Frage der Prioritätensetzung. Wenn Unternehmen nur einen Bruchteil ihrer Ressourcen, die sie dafür ausgeben, diese Systeme zu erschaffen, investieren, um zu hinterfragen, was diese Systeme tun, könnte man viel tun.
Die Frau: Zeynep Tufekci ist Assistenzprofessorin an der University of North Carolina und beschäftigt sich seit Jahren mit den Folgen von Technologie für die Gesellschaft.
Die Karriere: Zuvor forschte die ehemalige Programmiererin in Princeton, Harvard und an der University of Maryland. Sie schreibt auf der Blogging-Plattform Medium.com.
Verstehen Programmierer heute noch, warum ihre Algorithmen auf eine bestimmte Weise reagieren?
Nein. Besonders dann nicht, wenn es sich um maschinelles Lernen handelt. Man setzt den Algorithmus auf einen Datensatz an und befiehlt ihm, sich einen Reim darauf zu machen. Man sagt ihm nicht, wie genau er das tun soll, sondern gibt ihm einfach jede Menge Daten und verlangt einen Output. Den schaut man sich dann an – und gibt der Maschine dann Feedback, wo sie richtig gelegen hat. So trainiert man sie. Man kann vermuten, wie sie zu dem Ergebnis gekommen ist. Aber wenn das Problem komplex ist, weiß man das nicht genau.
Wie können Algorithmen dann gezähmt werden? Muss die Politik eingreifen?
Nicht unbedingt. Wir unterziehen Autos Sicherheitstests – da stecken wir auch Ressourcen rein. Die Frage ist, ob die Firmen das zu einer Priorität machen. Man sollte einfach mal anfangen und dann überlegen, wie man weitermacht, wenn man auf heikle Fragen stößt.
Das Thema wird immer drängender. Schließlich spielen Algorithmen in immer mehr Lebensbereichen eine Rolle: bei der Polizei, manchmal sogar in Prozessen …
… in der Personalpolitik, im Städtebau, bei der Suche nach Terroristen – all das überlassen wir mehr und mehr algorithmengestützten Systemen. Und das passiert sehr schnell. Aber es gibt sehr wenige Menschen, die das tatsächlich wahrnehmen. Das finde ich sehr verwunderlich, weil diese Systeme alles beeinflussen werden – von der Frage, wer einen Job bekommt, bis zu der, wer als Terrorist eingestuft wird. Facebook ist ein Beispiel dafür. Damit können die Menschen etwas anfangen. Aber das ist nur ein kleines System in einem riesigen Ökosystem von computergestützten Entscheidungsfindungsprozessen, die einen gigantischen Einfluss haben. Wo sind die Mechanismen, um Algorithmen zu überprüfen oder sie zu kontrollieren? Wo macht man sich Gedanken über die Auswirkungen, wenn Algorithmen Fehler machen?
Wie lernen wir, mit Fehlern umzugehen, die Maschinen machen?
Algorithmen liegen richtig und sie liegen falsch. Beides ist ein Problem. Wenn sie identifizieren, wer emotional verletzlich oder deprimiert ist, dann ist das ein Problem, zum Beispiel wenn Gesichtserkennung von Werbern dafür genutzt wird, uns mithilfe dieser Analyse Produkte zu verkaufen. Ebenso, wenn sie die sexuelle Orientierung berechnen oder die Tatsache, dass jemand schwanger sein könnte und man ihn deshalb besser nicht einstellt. Wenn die Maschinen das richtig erkennen, ist das ein Problem, weil sie einen dann auf dieser Basis diskriminieren können. Und wenn sie etwas falsch identifizieren, ist das auch ein Problem. Darum müssen wir überlegen, wie akkurat solche Prognosen sind. Entstehen Nachteile, wenn der Algorithmus korrekt identifiziert, dass jemand schwul ist? In vielen Ländern gibt es solche Nachteile. Man stelle sich nur mal vor, die Regierung von Uganda hätte die Analyse von Facebook vorliegen, wer schwul sein könnte.
Nehmen wir doch mal das Beispiel von Marketing per algorithmengestützte Gesichtserkennung. Wie könnte man dagegen vorgehen?
Die Leute in der Wissenschaftscommunity könnten sich weigern, daran zu arbeiten. Unternehmen können sich selbst regulieren und Verhaltenskodizes entwickeln, so wie im Bereich Nukleartechnologie. Regierungen können Gesetze erlassen, die besagen, dass man nichts verkauft bekommt, wenn automatische Erfassung stattfindet. Wenn wir den Maschinen Entscheidungen mit so weitreichenden Konsequenzen anvertrauen, dann brauchen wir irgendeine Form von Zugang, von Überprüfung und von Transparenz. Das sind schwierige Fragen. Aber so war das auch bei Nuklearwaffen. Und da haben wir auch nicht gesagt: Dann baut halt jeder eine Atombombe, und wir schauen, was passiert.
Sollen wir komplett aufhören, Algorithmen zu nutzen?
Die Katze ist aus dem Sack. Ich glaube nicht, dass man das aufhalten kann. Aber es gibt viele Möglichkeiten, wie sich das entwickeln kann. Und es gibt keinen Grund, warum Algorithmen nur für Anwendungen genutzt werden sollten, die uns stören oder schaden.
Stehen wir mit all diesen Versuchen unter Zeitdruck?
Ja. Das muss jetzt passieren. Und wir müssen sehr schnell sein, weil diese Technologien sehr schnell angewendet werden. Darum glaube ich, dass Industrie und Wissenschaft in der Community gerade in der besten Position sind, jetzt zu handeln. Denn die Politik wird noch eine Weile brauchen, um aufzuholen.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
taz-Recherche zu Gewalt gegen Frauen
Weil sie weiblich sind
Verein „Hand in Hand für unser Land“
Wenig Menschen und Traktoren bei Rechtspopulisten-Demo
Scholz und Pistorius
Journalismus oder Pferdewette?
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen