Filter bei Facebook und Microsoft: Beim Livetest versagt

Algorithmische Verfahren können mit humaner Wahrnehmung nicht mithalten – zeigen zwei im „Guardian“ dokumentierte Fälle.

historisches Foto von angeketteten Aboriginals

Mehrfach gelöschtes Foto: Aborigines im australischen Roebourne Gaol um 1896 Foto: State Library of Western Australia/the guardian

Dem britischen Guardian ist es im Verlaufe einer Woche gelungen, wenn auch unabsichtlich, interessante Schwachstellen in den Algorithmen zweier großer Netzkonzerne offenzulegen.

Ein Bericht auf der australischen Seite des Guardian befasste sich mit der Sperrung eines Facebook-Posts. Ein privater Nutzer hatte Kritik am ­australischen Premier Scott Morrison mit einem historischen Foto von Aborigines in schweren Ketten illustriert. Morrison hatte behauptet, dass es in Australien nie Sklaverei gegeben hätte. Angesichts von Zwangsarbeit unter schwersten Bedingungen verursachte diese Aussage heftige Debatten.

Das Bild des gesperrten Posts war aber nicht aufgrund von Beschwerden anderer Nutzer*innen als unangemessen eingestuft worden: Die Analysesoftware von Facebook hatte die Abbildung der lediglich mit Lendenschurzen bekleideten Zwangsarbeiter als Nacktbild markiert und automatisch gesperrt.

Nach der Berichterstattung des Guardian korrigierte Facebook den Fehler und entschuldigte sich beim Nutzer. Am Samstag jedoch schlug der Algorithmus der Plattform erneut zu. Diesmal wurden automatisch Posts von Nutzer*innen entfernt, die den Beitrag des Guardian teilen wollten. Dessen Artikelbild war wiederum das historische Bild der angeketteten Aborigines. Mit derselben Illustration berichtet der Guardian weiter über den Fall und unterzieht so die Resilienz des Facebook-Content-Filters einer Livetestreihe.

Redaktion gefeuert

Dem algorithmischen Filter von Microsoft hatte die Zeitung bereits in den Tagen zuvor, ebenfalls eher zufällig, seine technischen Grenzen aufgezeigt. So berichtete der Guardian Ende Mai, dass das Webportal Microsoft News (MSN) Dutzenden bei einem externen Dienstleister angestellten menschlichen Redakteur*innen kündigen würde. Der Algorithmus für die Zusammenstellung relevanter Nachrichten verschiedener Medien für die Nutzer*innen des Portals sei in der Entwicklung so weit fortgeschritten, dass auf menschliche Mitarbeit verzichtet werden könne.

Kurz darauf bebilderte der Algorithmus einen Beitrag des britischen Independent über Jade Thirlwall, Sängerin der Band Little Mix, mit ihrer Kollegin Leigh-Anne Pinnock. In dem Stück ging es um Thirlwalls Erfahrung mit Rassismus. Entsprechend verärgert kommentierte sie den Fehler bei MSN: „Es beleidigt mich, dass ihr in einer Gruppe mit vier Mitgliedern zwei Women of Color nicht auseinanderhalten könnt.“

Der Guardian ließ es sich nicht nehmen, über diese unmittelbare Folge der vollautomatisierten Kontrolle des Newsfeeds zu berichten. Die weite Verbreitung dieses Beitrags trug dann dazu bei, dass der MSN-Algorithmus diesen prominent platzierte. Nach Information des Guardian sollten nun die bereits gekündigten, aber noch für Microsoft tätigen Journalist*innen den Beitrag entfernen, der dann wiederholt vom Algorithmus nach oben gespült wurde. Durch diverse Berichte weiterer Medien, deren Texte von MSN aggregiert werden, stieg der Relevanzfaktor der Geschichte für die Maschine nur noch. Schlechte Publicity für Microsoft erkennt der Algorithmus schlicht nicht.

Offenbart werden in diesen Fällen die Schwächen automatischer Bilderkennung. Trotz bereits jahrelanger weltweiter Entwicklung erreichen algorithmische Verfahren weiterhin nicht einmal annähernd die Präzision menschlicher Wahrnehmung und Bewertung. Auch die unzähligen Trainingseinheiten, wie die Captchas, in denen Nutzer*innen nachweisen müssen, dass sie keine Maschinen sind, ändern bislang nichts daran, dass Maschinen bereits mit der Syntax eines Bildes so ihre Probleme haben.

Schwerere Aufgaben wie Gesichtserkennung werden dabei besonders oft falsch gelöst. Neben technischen Begrenzungen fällt hier die Verstärkung bestehender und zumeist unbedacht in die Algorithmen programmierter menschlicher Vorurteile zusätzlich ins Gewicht, weshalb Frauen und nichtweiße Menschen häufiger falsch identifiziert werden. Selbst wenn die Hürden niedriger gesetzt sind, wie bei der Facebook-Erkennung des Parameters „nackte Haut“, scheitert die Technologie dazu regelmäßig daran, das gesichtete Material zu kontextualisieren.

Einmal zahlen
.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de

Ihren Kommentar hier eingeben