piwik no script img

Filter bei Facebook und MicrosoftBeim Livetest versagt

Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – zeigen zwei im „Guardian“ dokumentierte Fälle.

Mehrfach gelöschtes Foto: Aborigines im australischen Roebourne Gaol um 1896 Foto: State Library of Western Australia/the guardian

Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer Netzkonzerne offenzulegen.

Ein Bericht auf der australischen Seite des Guardian befasste sich mit der Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am ­australischen Premier Scott Morrison mit einem historischen Foto von Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit unter schwersten Bedingungen verursachte diese Aussage heftige Debatten.

Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden anderer Nutzer*innen als unangemessen eingestuft worden: Die Analysesoftware von Facebook hatte die Abbildung der lediglich mit Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert und automatisch gesperrt.

Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild war wiederum das historische Bild der angeketteten Aborigines. Mit derselben Illustration berichtet der Guardian weiter über den Fall und unterzieht so die Resilienz des Facebook-Content-Filters einer Livetestreihe.

Redaktion gefeuert

Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt. So berichtete der Guardian Ende Mai, dass das Webportal Microsoft News (MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung relevanter Nachrichten verschiedener Medien für die Nutzer*innen des Portals sei in der Entwicklung so weit fortgeschritten, dass auf menschliche Mitarbeit verzichtet werden könne.

Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN: „Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei Women of Color nicht auseinanderhalten könnt.“

Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus diesen prominent platzierte. Nach Information des Guardian sollten nun die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen den Beitrag entfernen, der dann wiederholt vom Algorithmus nach oben gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus schlicht nicht.

Offenbart werden in diesen Fällen die Schwächen automatischer Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision menschlicher Wahrnehmung und Bewertung. Auch die unzähligen Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben.

Schwerere Aufgaben wie Gesichtserkennung werden dabei besonders oft falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung bestehender und zumeist unbedacht in die Algorithmen programmierter menschlicher Vorurteile zusätzlich ins Gewicht, weshalb Frauen und nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran, das gesichtete Material zu kontextualisieren.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

3 Kommentare

 / 
  • Das ganze Gerede über fehlerhafte Algorithmen ist natürlich totaler Quatsch.



    Es geht einzig und allein darum, dass diese Konzerne die Meinungs- und Deutungshoheit haben (bzw. behalten) wollen.

    Dazu braucht man ja nicht die eigene Meinung zu äußern (und somit zu offenbaren) - man läßt halt die einen Meinungen durch und die anderen nicht.



    Zeitungsleser werden sich daran erinnern, dass einige Redaktionen schon immer gerne die Leserbriefe "kanalisiert" haben um Meinungen zu machen.

    Und man darf nicht vergessen, dass es den Anbietern nicht um Informationen oder gar Nachrichten geht sondern darum, die Nutzer möglichst lange zu beschäftigen, zu binden und nach Möglichkeit in den eigenen Dienst "einzusperren".

  • KI-Marketing gibt es schon seit den 50ern des letzten Jahrhunderts, schon damals wurde das Blaue vom Himmel versprochen, um Gelder zu akquirieren. Das ist zum größten Teil Blabla.

    Letzlich beruhte KI bisher immer auf Simulation von Intelligenz. Dass zu Intelligenz wesentlich mehr gehört als Mustererkennung oder schnelle Suche in großen Datenbeständen oder Gewichtung nach gemessenen Häufigkeiten und dass die Geschichte Größenordnungen komplexer ist als verkündet, spricht sich allmählich rum. Speziell die Sache mit dem Kontext ist durch Materialschlacht und statistisch nicht zu lösen.

    Diesem Intelligenz-simulierenden Gefrickel sollen außerdem Aufgaben übertragen werden, die ein Mensch nicht entscheiden kann, die aber ganz selbstverständlich von Machinen geregelt werden sollen wie bspw wer wird im Zweifelsfall überfahren, die Pfarrerin oder der Klempner? Oder doch vorher die Kiste sprengen, dann geht halt der Fahrgast drauf?

    Hindert die Vermarkter aber nicht daran, so zu tun, als hätten sie das alles im Kasten. Das ist gelogen, sie haben es nicht mal ansatzweise im Griff. Alexa, erzähl einen Witz.

  • „Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten“

    Natürlich können sie das nicht! Die Frage ist nur, wie solches überhaupt jemals ernsthaft erwartet werden konnte? Man wird jetzt kurzerhand nach einem Workaround suchen und dann weiterhin so tun, als wären algorithmische Verfahren hier ein geeignetes Mittel. Es läuft letztlich auf die Frage hinaus, wem man mehr vertraut - einem Menschen, oder einem Automaten?

    btw.: Selbst, wenn ich das Geld hätte für ein selbstfahrendes Auto hätte, würde ich mich freiwillig in sowas niemals reinsetzen. Aus meiner Sicht ist das komplett sinnlose Technik.