piwik no script img

Depressionsdiagnose per ProfilbildRorschachtest mit Instagram

Ein Algorithmus will anhand von Instagram-Fotos erkennen können, ob Menschen depressiv sind. Wieder so eine Big-Data-Phantasie!

Sieht Justin hier traurig aus? Das entscheiden nicht Sie, sondern Algorithmen Foto: ap

Depressive Menschen posten also grauere und blauere Fotos auf Instagram? Sie bevorzugen dunklere Farben und werden seltener geliket? Thanks, Captain Obvious, will man den Machern dieser neuen Studie der Universitäten Cambridge und Vermont zurufen. Doch die sind von ihren Untersuchungen zum Zusammenhang von geposteten Instagram-Bildern und Depressionen so überzeugt, dass sie sie als Frühwarnmechanismus für psychische Erkrankungen empfehlen.

Das wär ja was. Schon allein für die Werbewirtschaft – die nach der Dokumentation eines verregneten Ostsee-Urlaubs auf Instagram gleich wüsste: der User ist Zielgruppe für Glückstee. Wenn nicht gleich für die Suizid-Präventionsstelle.

Zusammenhänge, die auch Versicherer brennend interessieren dürften. Yay: Als kratzten nicht oder wenig gelikete Fotos nicht schon genug am Ego, müsste man bei zu geringer Popularität auch noch befürchten, als Depressionsrisikogruppe saftige Tarifaufschläge abzudrücken.

Neu sind solche Big-Data-Analysen nicht. Sexuelle Orientierung, Wahlverhalten, Schwangerschaften – all das erkennen Algorithmen erstaunlich treffsicher. Doch: Je mehr wir uns darauf verlassen, desto mehr unterwerfen wir uns der Diktatur des Durchschnitts. Algorithmen spucken Wahrscheinlichkeiten aus. Statistik, basierend auf Zusammenhängen der Vergangenheit. Was phantastisch sein kann – aber anzweifelbar bleiben muss.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

6 Kommentare

 / 
  • "Der Computer ist dazu da, Probleme zu lösen, die man ohne den Computer gar nicht hätte".

     

    Ernsthaft: Heute ist Depression so weit verbreitet wie nie zuvor. Wir konzentrieren uns so sehr auf Leistung, darauf zu funktionieren, dass niemand mehr in sich hineinhört. Unsere Kinder können keine Stille mehr ertragen.

     

    Und anstatt hier anzusetzen und dafür zu sorgen, dass sich die Seele regenerieren kann, wird nun der Computer herangezogen, um zu messen, wie es um unser Seelenheil bestellt ist. Alleine der Denkansatz ist doch grotesk...

  • Individuelle Aussagen sind mit sowas unmöglich, aber für statistische Aussagen z.B. für Werbung ist das gut genug. Wie so vieles.

     

    Ich weiß manchmal nicht, was ich schlimmer finden soll: Big Data oder Big Unbewusstheit. Denn ganz ehrlich: Genau so machen Menschen das auch, nämlich blitzschnelles Urteilen über andere Menschen nach solchen Kriterien, wenn auch unbewusst. Zu erforschen, wie man da genau was erkennt, ist einfach nur ein weiteres Element der Aufklärung. Die allerdings neuerdings schlechte Presse hat.

     

    "Ich will nicht wissen" ist der moderne Gegen-Hype zum Big Data Hype.

    • @Mustardman:

      Sie finden "Big Unbewusstsein" schlimm? Da sind wir ja schon zwei. Fragt sich nur: Sind Sie sich eigentlich bewusst, wie wenig sich gewisse Formen der professionellen Beeinflussung von Menschen von alltäglicher Manipulation unterscheidet – und wie groß dabei die Gefahr des Machtmissbrauchs ist?

       

      Nur für den Fall, dass es da Unklarheiten gab: Manipulation ist fast immer mit einer Täter-Opfer-Konstellation verbunden. Dabei kennzeichnet "die Verminderung der Handlungsfreiheit beziehungsweise Kontrolle" das Opfer und die "Wahl unfairer, intransparenter oder täuschender Mittel, welche eine Gegenwehr erschweren" den Täter.

       

      Des einen Aufklärung ist also des anderen Entmündigung. Und zwar vor allem dann, wenn der besonders Aufgeklärte zugleich besonders gestört ist. Nicht unbedingt intellektuell, eher so emotional-seelisch. Arschlöcher können leider verdammt clever sein. "Manipulatives Verhalten [ist häufig] Teil von Persönlichkeitsstörungen", weiß denn auch das Lexikon. Das müsste also so was wie ein Konsens sein.

       

      Im Klartext: Wer "erforsch[t], wie man da genau was erkennt", kann andere im Anschluss manipulieren – und wird das immer dann auch ziemlich sicher tun, wenn er einen sogenannten Dachschaden hat. Nun sagen Sie doch bitte selbst, verehrter MUSTARDMAN: Ist unsre Welt nicht längst schon so kaputt, dass wir (fast) alle einen an der Waffel haben (müssen)?

      • @mowgli:

        Ja, schöne Fragen, aber was ist die Antwort? Forschung verbieten und alles wird gut? Glauben statt wissen? Und nein, irgendwie haben nicht fast alle einen an der Waffel. Ob man intuitiv oder mit Algorithmen verarscht wird, macht keinen so großen Unterschied, zumal bei Unternehmen und Maschinen das Element "Bosheit" in der Regel immerhin fehlt, die sind da recht rational und wollen nur mein Geld, damit kann ich umgehen.

         

        Den Umkehrschluss, das weniger Aufklärung weniger Entmündigung bedeutet, halte ich jedenfalls für falsch. Manipuliert wurde schon immer.

  • Manche erkennen in einem Tintenklex einen Schmetterling. Und manche erkennen in geposteten Instagram-Bildern ein Frühwarnsystem für psychische Erkrankungen. Was sagt das über die Leute aus? Eigentlich nur, dass sie nicht nein sagen konnten, als jemand ihnen eine Aufgabe gestellt hat. Vermutlich, weil sie zu neugierig waren.