Facebook-Algorithmen sollen Leben retten: Geht es dir gut?
Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz werden Posts überprüft. Nebenbei greift das Unternehmen sehr private Daten ab.
Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine 18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Facebook Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu spät. Allein im Jahr 2017 berichteten englischsprachige Medien über mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen Trend“; genaue Zahlen sind nicht bekannt.
Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen, ist für das Unternehmen vor allem eines: ein Imageschaden. Im November letzten Jahres hat Facebook deswegen eine neue Technologie eingeführt, die mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der Nutzer*innen frühzeitig erkennen und Suizide verhindern soll.
Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt Facebook nicht nur gute PR, sondern auch viele neue Daten über seine Nutzer*innen. Nur ein böser Vorwurf? Oder kann diese neue Technologie wirklich Menschenleben retten?
Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten. Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauchen diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder das Video wird an ein Team aus geschulten Moderator*innen weitergeleitet. Diese können mit der möglicherweise suizidgefährdeten Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freund*innen, Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook noch viel mehr über uns als ohnehin schon.
Facebook fürchtet wohl die EU-Datenschutzverordnung
Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur Suizidvorbeugung. Bisher konnten Nutzer*innen suizidgefährdete Freund*innen melden, und Facebook sendete dann verschiedene Hilfsangebote. Nun soll KI die Präventionsarbeit übernehmen. Nach monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt werden – außer in der EU. Auf Anfrage der taz antwortete Facebook vage, ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle.
Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet. „Facebook weiß aus der Vergangenheit, dass nicht nur der europäische Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Facebook schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten wurde es in der EU und in Kanada wieder abgeschafft.
Wenn Sie Suizidgedanken haben, sprechen Sie darüber mit jemandem.
Sie können sich rund um die Uhr an die Telefonseelsorge wenden, (08 00) 111 0 111 oder (08 00) 111 0 222), oder www.telefonseelsorge.de besuchen
Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch Nachahmungstaten verhindert werden könnten?
Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“
Tool könnte das Thema Suizid enttabuisieren
10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25], einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema Suizid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein Helfender über Facebook eine Person anspricht, kann das dazu führen, dass Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber Hilfe suchen, stellt gleichzeitig eine große Gefahr dar.
Wenn Facebook eine als suizidgefährdet eingestufte Person nicht erreichen kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die Polizei vor der Haustür. Vor allem, wenn die Person gar nicht suizidgefährdet ist, kann das folgenschwere Auswirkungen für die Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“, sagt Spielkamp.
Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr. „Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu teilen, befürchtet Brockerhoff.
Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25] speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das verschafft uns das Vertrauen der Klienten.“
Selbst der Schutz hat seinen Preis
Mark Zuckerberg postete auf Facebook, dass allein im ersten Monat Kontakt mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt werden.
Die Wissenschaftler Christopher Danforth und Andrew Reece von den Universitäten Harvard und Vermont fanden im Rahmen ihrer Studie heraus, dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven fälschlicherweise als psychisch krank markiert.
Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So funktioniert das soziale Netzwerk. Facebook verfolgt das Verhalten seiner Nutzer*innen sehr genau und will nun daraus auf Suizidgefährdung schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp.
Ähnlich wie der Umgang mit Hate Speech stellt der Umgang mit Suiziden Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden Nutzer*innen und den Unmengen gesammelter Daten hat das soziale Netzwerk viel Macht. Spielkamp wünscht sich, dass sich Facebook mit Wissenschaftler*innen für eine Begleitforschung zusammentut. Diese könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert und welche positiven, aber auch negativen Effekte sie hat. „Dann kann Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder eingestellt werden“, meint Spielkamp.
Too big to fail?
Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den eigenen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche Schutz Einzelner auf Kosten vieler. Die Frage des Datenschutzes rückt in den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum Vorschein: Wie viel ist ein Menschenleben wert?
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Israelische Drohnen in Gaza
Testlabor des Grauens
Rekrutierung im Krieg gegen Russland
Von der Straße weg
Proteste bei Nan Goldin
Logiken des Boykotts
Bundeskongress der Jusos
Was Scholz von Esken lernen kann
Bündnis Sahra Wagenknecht
Ein Bestsellerautor will in den Bundestag
Demokratieförderung nach Ende der Ampel
Die Lage ist dramatisch