piwik no script img

Facebook-Algorithmen sollen Leben rettenGeht es dir gut?

Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz werden Posts überprüft. Nebenbei greift das Unternehmen sehr private Daten ab.

Die Farben trüb, das Motiv heiter – das könnte den Algorithmus verwirren Foto: ap

Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine 18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Face­book Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu spät. Allein im Jahr 2017 berichteten englischsprachige Medien über mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen Trend“; genaue Zahlen sind nicht bekannt.

Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen, ist für das Unternehmen vor allem eines: ein Imageschaden. Im November letzten Jahres hat Face­book deswegen eine neue Technologie eingeführt, die mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der Nutzer*innen frühzeitig erkennen und Suizide verhindern soll.

Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt Facebook nicht nur gute PR, sondern auch viele neue Daten über seine Nut­ze­r*in­nen. Nur ein böser Vorwurf? Oder kann diese neue Technologie wirklich Menschenleben retten?

Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten. Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauchen diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder das Video wird an ein Team aus geschulten Mo­de­rator*in­nen weitergeleitet. Diese können mit der möglicherweise sui­zid­gefähr­deten Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freun­d*in­nen, Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook noch viel mehr über uns als ohnehin schon.

Facebook fürchtet wohl die EU-Datenschutzverordnung

Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur Suizidvorbeugung. Bisher konnten Nut­ze­r*innen suizidgefährdete Freun­d*in­nen melden, und Facebook sendete dann verschiedene Hilfsangebote. Nun soll KI die Präventionsar­beit übernehmen. Nach monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt werden – außer in der EU. Auf Anfrage der taz antwortete Face­book vage, ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle.

Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet. „Face­book weiß aus der Vergangenheit, dass nicht nur der europäische Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Face­book schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten wurde es in der EU und in Kanada wieder abgeschafft.

Hinweis

Wenn Sie Suizidgedanken haben, sprechen Sie da­rüber mit jemandem.

Sie können sich rund um die Uhr an die Telefonseelsorge wenden, (08 00) 111 0 111 oder (08 00) 111 0 222), oder www.telefonseelsorge.de besuchen

Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch Nachahmungstaten verhindert werden könnten?

Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“

Tool könnte das Thema Suizid enttabuisieren

10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25], ­einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema Sui­zid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein Helfender über Facebook eine Person anspricht, kann das dazu führen, dass Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber Hilfe suchen, stellt gleichzeitig eine große Gefahr dar.

Wenn Facebook eine als suizid­gefährdet eingestufte Person nicht erreichen kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die Polizei vor der Haustür. Vor allem, wenn die Person gar nicht sui­zidgefährdet ist, kann das folgenschwere Auswirkungen für die Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“, sagt Spielkamp.

Bei einer Untersuchung zu Instagram wurden 50Prozent der Nichtdepressiven anhand ihrer Fotos fälschlicherweise als psychisch krank markiert

Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr. „Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu teilen, befürchtet Brockerhoff.

Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die ­Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25] speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das verschafft uns das Vertrauen der Klienten.“

Selbst der Schutz hat seinen Preis

Mark Zuckerberg postete auf Face­book, dass allein im ersten Monat Kontakt mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt werden.

Die Wissenschaftler Christopher Danforth und Andrew Reece von den Universitäten Harvard und Vermont fanden im ­Rahmen ihrer Studie heraus, dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven fälschlicherweise als psychisch krank markiert.

Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So funktioniert das soziale Netzwerk. Face­book verfolgt das Verhalten seiner Nut­ze­r*in­nen sehr genau und will nun daraus auf Suizidgefährdung schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp.

Ähnlich wie der Umgang mit ­Hate Speech stellt der Umgang mit Suiziden Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden Nut­zer*in­nen und den Unmengen gesammelter Daten hat das so­ziale Netzwerk viel Macht. Spielkamp wünscht sich, dass sich Facebook mit Wis­sen­schaft­le­r*innen für eine Begleitforschung zusammentut. Diese könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert und welche positiven, aber auch negativen Effekte sie hat. „Dann kann Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder eingestellt werden“, meint Spielkamp.

Too big to fail?

Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den ei­genen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche Schutz Einzelner auf Kosten vieler. Die Frage des ­Datenschutzes rückt in den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum Vorschein: Wie viel ist ein Menschenleben wert?

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Na super! Win-Win soll wohl heißen, dass sich Facebook-Nutzer ab sofort nicht nur vorm Datenklau fürchten müssen, sondern auch vor therapeutischen Kunstfehlern. Weil es den Machern nicht genügt, nur einmal zu profitieren von ihrer Arg- und Wehrlosigkeit, sodass sie gleich zweimal zugreifen müssen.

     

    Gut, dass ich immer noch nicht angemeldet bin, obwohl heute (fast) jeder follower akquiriert. Jetzt, wo die taz berichtet hat, müsste ich mich sonst nicht nur vor der natürlichen Dummheit von Menschen fürchten, die ihren eigenen Gefühlshaushalt streicheln wollen, indem sie anderen ungebeten „Gutes“ tun. Ich müsste mich zusätzlich auch vor der künstlichen Dummheit solcher Tools gruseln, die natürlich-dumme Menschen sich zur Unterstützung ihre Privatziele haben häkeln lassen für fremdes Geld.

     

    Ob facebook dauerhaft gewinnt mit seinem Coup? Ich glaube nicht. Facebooknutzer sehen schließlich auch fern, hören Radio und lesen Zeitungen – oder habe das doch wenigstens getan. Sie haben sich – überwiegend leider unbewusst – prägen lassen von der Vierten Gewalt und ihren Heldenmythen.

     

    Schon heute wird Facebook nicht nur von Verschwörungstheoretikern genutzt, sondern auch von Praktikern des Widerstandes, die sich organisieren wollen (Arabischer Frühling, Maidan-Bewegung, Trump-Gegner etc.). Diese Leute glauben nicht mehr an das Gute. Zumindest nicht an Gutes, das sie nicht selbst geschnitzt haben. Es wird also nicht lange dauern, bis Leute twittern, die unter der Dummheit übergriffiger Hilfs-Psychologen zu leiden hatten: #meetoo. Dann wird es Facebook gar nicht helfen, dass es angeblich helfen wollte – und vielleicht sogar ab und an geholfen hat.

     

    Die Dynamik, die entstehen kann, wenn sie den Zauberlehrling geben, machen sich (auch) die Facebook-Verantwortlichen noch gar nicht bewusst, denke ich. Mit (Selbst-)Kritik ist man da nicht vertraut. Aber wenn's schief geht, können die Helden ja immer noch sagen: „Ich war das nicht!“ oder „Ich hab das nicht gewollt!“ - und sich verpissen.