Filter bei Facebook und Microsoft: Beim Livetest versagt
Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – zeigen zwei im „Guardian“ dokumentierte Fälle.
![historisches Foto von angeketteten Aboriginals historisches Foto von angeketteten Aboriginals](https://taz.de/picture/4204152/14/Scott_Morrison_Aboriginals_Sklaverei_Australien-1.jpeg)
Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer Netzkonzerne offenzulegen.
Ein Bericht auf der australischen Seite des Guardian befasste sich mit der Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am australischen Premier Scott Morrison mit einem historischen Foto von Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit unter schwersten Bedingungen verursachte diese Aussage heftige Debatten.
Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden anderer Nutzer*innen als unangemessen eingestuft worden: Die Analysesoftware von Facebook hatte die Abbildung der lediglich mit Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert und automatisch gesperrt.
Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild war wiederum das historische Bild der angeketteten Aborigines. Mit derselben Illustration berichtet der Guardian weiter über den Fall und unterzieht so die Resilienz des Facebook-Content-Filters einer Livetestreihe.
Redaktion gefeuert
Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt. So berichtete der Guardian Ende Mai, dass das Webportal Microsoft News (MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung relevanter Nachrichten verschiedener Medien für die Nutzer*innen des Portals sei in der Entwicklung so weit fortgeschritten, dass auf menschliche Mitarbeit verzichtet werden könne.
Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN: „Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei Women of Color nicht auseinanderhalten könnt.“
Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus diesen prominent platzierte. Nach Information des Guardian sollten nun die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen den Beitrag entfernen, der dann wiederholt vom Algorithmus nach oben gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus schlicht nicht.
Offenbart werden in diesen Fällen die Schwächen automatischer Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision menschlicher Wahrnehmung und Bewertung. Auch die unzähligen Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben.
Schwerere Aufgaben wie Gesichtserkennung werden dabei besonders oft falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung bestehender und zumeist unbedacht in die Algorithmen programmierter menschlicher Vorurteile zusätzlich ins Gewicht, weshalb Frauen und nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran, das gesichtete Material zu kontextualisieren.
40.000 mal Danke!
40.000 Menschen beteiligen sich bei taz zahl ich – weil unabhängiger, kritischer Journalismus in diesen Zeiten gebraucht wird. Weil es die taz braucht. Dafür möchten wir uns herzlich bedanken! Ihre Solidarität sorgt dafür, dass taz.de für alle frei zugänglich bleibt. Denn wir verstehen Journalismus nicht nur als Ware, sondern als öffentliches Gut. Was uns besonders macht? Sie, unsere Leser*innen. Sie wissen: Zahlen muss niemand, aber guter Journalismus hat seinen Preis. Und immer mehr machen mit und entscheiden sich für eine freiwillige Unterstützung der taz! Dieser Schub trägt uns gemeinsam in die Zukunft. Wir suchen auch weiterhin Unterstützung: suchen wir auch weiterhin Ihre Unterstützung. Setzen auch Sie jetzt ein Zeichen für kritischen Journalismus – schon mit 5 Euro im Monat! Jetzt unterstützen
meistkommentiert
„Edgy sein“ im Wahlkampf
Wenn eine Wahl als Tanz am Abgrund verkauft wird
Denkwürdige Sicherheitskonferenz
Europa braucht jetzt Alternativen zu den USA
Tabubruch der CDU
Einst eine Partei mit Werten
Tod von Gerhart Baum
Einsamer Rufer in der FDP-Wüste
Mitarbeiter des Monats
Wenn’s gut werden muss
Jens Bisky über historische Vergleiche
Wie Weimar ist die Gegenwart?