Informatikprofessorin über Algorithmen: Kabelbündel fürs Grobe
Für das Überprüfen unerwünschter Inhalte wollen Firmen künstliche Intelligenz einsetzen. Informatikprofessorin Joanna Bryson erklärt, warum das gut ist.
taz: Frau Bryson, immer mehr Unternehmen wollen in ihrer Arbeit vermehrt auf künstliche Intelligenz setzen: Facebook und Google, um extremistische Inhalte einzudämmen, die New York Times, um ihre Kommentarfunktion zu moderieren. Was ist damit gemeint?
Joanna Bryson: Manche Dinge, die im Internet geteilt werden, sind so schrecklich, dass sie nie ein Mensch zu Gesicht bekommen sollte. Irgendjemand muss diese Inhalte aber prüfen und entfernen. Künstliche Intelligenz ist sehr gut darin, große Mengen von Inhalten zu durchsuchen – die Suchmaschine Google tut schließlich nichts anderes. Maschinen für diese Aufgabe zu benutzen hat also zwei Vorteile: Erstens sind sie schnell und effektiv. Zweitens ersparen sie Menschen eine schreckliche Aufgabe.
Wie kann die künstliche Intelligenz erkennen, welche Inhalte unerwünscht sind?
Sie kann ziemlich gut raten, um was für eine Art von Post es sich handelt. Bei Kommentaren kann sie prüfen, ob Schimpfwörter enthalten sind. Oder – was für die New York Times wichtig sein könnte, bei der Masse an Kommentaren –, wie qualitativ hochwertig ein Beitrag ist. Es gibt schon Programme, die mit Hilfe von Machine-Learning-Methoden Highschool-Aufsätze benoten können.
Beim Machine Learning identifiziert die Maschine anhand vieler Beispiele komplexe Regeln, die sie dann auf neue Inhalte anwenden kann. Für Google und Facebook geht es zum Beispiel darum, terroristische Videos zu finden.
Genau, mit Videos funktioniert das sehr gut, vor allem bei Terrorismus: Denn der ist eine einzige riesige Propagandamaschine. Die Terroristen wollen Menschen überzeugen, sich ihnen anzuschließen, also dreht sich in ihren Videos viel um Identifikation mit einer Gruppe. Diese wird wiederum gestärkt durch bestimmte Stilmittel, Sprüche, Symbole, die sich ständig wiederholen. Das macht es einer Maschine ziemlich leicht, sie zu erkennen. Trotzdem machen die Maschinen Fehler. Es sollte also immer die Möglichkeit geben, Einspruch gegen die Entscheidung einzulegen.
Joanna Bryson ist Informatikprofessorin an den Universitäten Princeton und Bath. Sie beschäftigt sich mit natürlicher und Künstlicher Intelligenz (KI) und deren ethischen und gesellschaftlichen Auswirkungen.
Die meistens sozialen Netzwerke haben bereits solche Revisionsmechanismen. Die New York Times betont außerdem, dass die Maschinen nur beim groben Vorsortieren helfen sollen. In einem zweiten Schritt soll ein Mensch die Entscheidung prüfen.
Auch Menschen sind nicht perfekt. So oder so ist es eine gruselige Vorstellung: Einerseits sollen die Betreiber der Plattformen Verantwortung für die Inhalte übernehmen. Andererseits: Möchte man wirklich, dass ein soziales Netzwerk entscheiden kann, was gesagt werden darf und was nicht? Sollte die Regierung das entscheiden? Wir müssen uns als internationale Gemeinschaft überlegen, wer in welchem Ausmaß diese Kontrollfunktion übernehmen soll.
Forscherinnen von Google und Microsoft haben gerade eine Initiative gegründet, um diskriminierender künstlicher Intelligenz auf die Schliche zu kommen. Ist es nicht eigentlich besser, wenn solche Entscheidungen von Algorithmen getroffen werden, weil sie objektiver sind?
Sie stellen die Frage genau falsch herum. Sie dürfen sich die Maschine nicht als objektiv vorstellen, nicht einmal als Akteur. Die Maschine ist nichts als ein Werkzeug. Jemand schreibt ein Programm und damit auch Regeln, die die Maschine anwendet. Und wenn die Maschine anhand menschlicher Entscheidungen lernt, übernimmt sie die Vorurteile. Mein Team und ich haben in einem Aufsatz in der Science gezeigt, dass Algorithmen die selben Vorurteile reproduzieren wie Menschen. Sie benachteiligen etwa Menschen mit fremd klingenden Namen. Der Unterschied zum Menschen ist: Die Mechanismen sind leichter zu überprüfen.
Es gibt aber ExpertInnen, die die Prüfbarkeit mancher Algorithmen in Frage stellen. Gerade wenn eine Maschine selbstständig lernt, sind die Regeln, die sie identifiziert, oft so komplex, dass sie für Menschen schwer zugänglich sind.
In gewisser Weise ist das richtig, aber die große Aufregung darüber ist nicht gerechtfertigt. Es stimmt, dass bei manchen Lernverfahren viele Details zusammenspielen, die für Menschen nicht immer zugänglich sind. In diesen Fällen kann die Entscheidung der Maschine etwa so undurchschaubar werden wie die eines Menschen. Das heißt aber nicht, dass man die Maschine nicht prüfen kann. Man kann ihre Arbeit beobachten und ihre Ergebnisse überprüfen. Und man kann den zugrunde liegenden Programmcode betrachten und gewisse Einstellungen verändern, um sich anzusehen, wie das die Resultate beeinflusst. Das kann man bei menschlichen Entscheidungen nicht.
Der deutsche Justizminister Heiko Maas hat ein Transparenzgebot für Algorithmen vorgeschlagen. Halten Sie es für sinnvoll, dass Unternehmen ihre Algorithmen offenlegen?
Europa ist definitiv ein Vorreiter, was die Gesetzgebung im Technikbereich angeht, und ich halte es für sehr wichtig, sich darüber Gedanken zu machen. Ob man die Algorithmen für alle zugänglich machen sollte, ist eine andere Frage. Schließlich sind sie für viele Firmen so etwas wie Geheimrezepte, die sie von anderen Wettbewerbern abheben. Aber das heißt nicht, dass man sie nicht regulieren sollte. Ich stelle mir eher einen Verifizierungsprozess wie im Medizinbereich vor. Auch Medikamente brauchen eine Zulassung, bevor sie auf den Markt kommen. Künstliche Intelligenz hat auf unsere Gesellschaft einen Einfluss, der mindestens so groß ist wie der von Medikamenten.
Halten Sie künstliche Intelligenz für eine Bedrohung?
Die Menschen verwechseln Technologie mit Mathematik. Mathematik ist etwas, das perfekt und unendlich sein kann, eine Abstraktion wie in Platons Höhlengleichnis. Technologie ist ein physischer Prozess in der echten Welt, sie braucht Zeit, sie braucht Energie, sie braucht Platz, Serverkapazität, Arbeitsspeicher für die Berechnungen. Deswegen werden wir nie eine perfekte künstliche Intelligenz haben. Es gibt in der Evolution ja auch nicht das perfekte Tier.
Einige bekannte UnternehmerInnen, darunter Elon Musk und Stephen Hawking, warnen vor einer „Singularität“, davor, dass der Moment kommen wird, ab dem Maschinen klüger werden als der Mensch und selbst noch schlauere Maschinen erschaffen können, womit ihre Intelligenz exponentiell ansteigt.
Ja, es gibt ein paar wirklich kluge Menschen, die davon total überzeugt sind. Ich weiß nicht, was da los ist, vielleicht ist es nur ein guter Weg, Aufmerksamkeit zu erzeugen. Ich glaube jedenfalls nicht, dass eine übermächtige künstliche Intelligenz entstehen wird, die uns alle umbringen will. Aber es gibt natürlich Gefahren: Vielleicht muss ein Computer einmal eine Aufgabe lösen, und die Lösung scheint uns völlig akzeptabel zu sein; aber der Lösungsweg, den er errechnet, beinhaltet Zwischenschritte, deren Risiko wir gar nicht abschätzen können. Das ist übrigens eine ziemlich akkurate Beschreibung dessen, was auf der Erde geschehen ist, seit wir Menschen aufgetaucht sind.
Wie meinen Sie das?
Sehen Sie sich die letzten zehntausend Jahre der Menschheitsgeschichte an. Bis zu dem Zeitpunkt, als die Schrift erfunden wurde, gab es mehr Makaken als Hominiden auf dem Planeten. Jetzt haben wir dieses exponentielle Wachstum, plötzlich sind wir sieben Milliarden Menschen. Das ist eigentlich großartig, denn es zeigt, dass wir sehr gut darin sind, zusammenzuarbeiten. Das Problem ist nur: Niemand hat sich je hingesetzt und gesagt: „Hey, lasst uns alle anderen Säugetiere ausrotten.“
Aber genau das tun wir, und für die längste Zeit wussten wir es nicht einmal. Künstliche Intelligenz ist nicht das Problem, wir sind das Problem. Es gibt auch keinen Kampf zwischen Mensch und Maschine, denn Maschinen sind ein Teil von uns. Wir müssen einfach lernen, uns über unser Handeln bewusst zu werden. Von daher: Die Argumentationslinie, dass Intelligenz immer gefährlicher wird, ist richtig. Aber die Singularität ist schon vor zehntausend Jahren passiert.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Nan Goldin in Neuer Nationalgalerie
Claudia Roth entsetzt über Proteste
Politikwissenschaftlerin über Ukraine
„Land gegen Frieden funktioniert nicht“
taz-Recherche zu Gewalt gegen Frauen
Weil sie weiblich sind
Verein „Hand in Hand für unser Land“
Wenig Menschen und Traktoren bei Rechtspopulisten-Demo
Scholz und Pistorius
Journalismus oder Pferdewette?
Internationaler Strafgerichtshof
Ein Haftbefehl und seine Folgen