piwik no script img

Archiv-Artikel

Der menschliche Faktor

BIG DATA Behörden und Wirtschaft spähen unsere digitalen Daten aus. Fast alles soll man mit ihrer Hilfe vorhersehen können. Von wegen. Denn das unberechenbare Verhalten des Menschen wird das verhindern

Das Big-Data-Prinzip heißt: Korrelation ersetzt Kausalität. Wer braucht ein Studium generale, wenn es Informatik und Datenverarbeitung auch tun?

VON MAIK SÖHLER

Von je einem Ende der Welt flogen sie aufeinander zu und trafen sich in der Mitte. Zeus’ Adler bestimmten das neue Zentrum der Welt. So entstand dem Mythos zufolge die wichtigste Kultstätte der hellenistischen Welt: das Orakel von Delphi.

Enden des Internets sind heute nicht bekannt. Auch eine Mitte fehlt. Und doch, so will es der moderne Mythos, sind die Algorithmen eines Datengottes aufgestiegen und haben sich im Zentrum des Netzes getroffen. Es soll alle Eigenschaften besitzen, um die wichtigste Kultstätte der digitalen und nichtdigitalen Welt der näheren Zukunft zu werden: das Orakel von Big Data.

Krankheitsdiagnosen, Kindererziehung, Logistikplanung, Verbrechensbekämpfung, Kreditwesen – wenn man sich den vielen Berichten, Analysen und Büchern zum Thema ausliefert, gibt es nur weniges, was Big Data bald angeblich nicht vorhersagen kann. Gemeint ist mit dem Begriff: all jene verfügbaren Daten maschinell zu verarbeiten, die bisher überwiegend wegen ihrer schieren Menge so gut wie unbearbeitet blieben.

„Unternehmen, Regierungen und auch Individuen werden alles, was möglich ist, erfassen, messen und optimieren“, schreiben der Forscher Viktor Mayer-Schönberger und der Datenjournalist Kenneth Cukier in ihrem Buch „Big Data“. Damit bringen sie auf den Punkt, was Unternehmen begeistert und Datenschützer ängstigt.

Angst? Ja, erst mal zu Recht: Messen. Erfassen. Optimieren. Alles. Big Data. Wie das klingt. Da erodiert das Private schon beim Zuhören. Big Brother is optimizing you.

Aber das ist noch der Mensch. Für Programmierer, Datenanalytiker und Hardwareentwickler verkörpert dieser einen Albtraum, eine stete Quelle von Fehlern und Unvorhersehbarkeiten in ihren sonst so berechenbaren Welten. Im Slang dieser Computerexperten taucht der Mensch oft als Dümmster Anzunehmender User auf, kurz DAU. Wird der das Ausrechnen seines Lebens einfach so über sich ergehen lassen? Viele DAU zwangen gerade erst Microsoft, wieder einen Startbutton ins neue Betriebssystem einzufügen. Nicht etwa, weil man ihn braucht. Sondern weil er immer da gewesen war.

Überraschung „Prism“

Erste Auswirkungen von Big Data gibt es schon heute, aber Großprojekte, etwa ein vollautomatisierter Hamburger Hafen, sind erst noch in Planung – und werden erst in „naher Zukunft“ über uns kommen. So zumindest glaubte man bislang. Doch die Realität war schneller als die Vorstellung: Der US-Geheimdienst NSA hat bereits Daten aus der gesamten vernetzten Welt gefischt. Britische Suchanfragen, deutscher E-Mail-Verkehr, US-Chats, finnische Internettelefonie – alles ist in eine gigantische Rasterfahndung namens „Prism“ der US-Terrorabwehr eingeflossen.

Der Geheimdienst sagt, es seien nur Metadaten gesammelt worden, Barack Obama betont, niemand höre Telefonate direkt ab. Die US-Bürgerrechtsorganisation EFF schlägt den Bogen zu Big Data und spottet: „Sie wissen, dass du die Suizidpräventionshilfe von der Golden Gate Bridge aus angerufen hast, aber sie wissen nicht, was gesprochen wurde.“ Metadaten sagen manchmal genügend aus.

Das US-Magazin Slate.com gibt einen richtigen Hinweis: Wenn die NSA beim Auslesen von Facebook-Seiten auch die Freunde einer Zielperson und die Freunde der Freunde einbezieht, um Personenprofile und Verbindungen sichtbar zu machen, dann sind statt einer schnell 226.000 Personen zu untersuchen. 226.000 Personen aber sind nicht einfach 226.000 Datensätze, es sind 226.000 potenzielle Dümmste Anzunehmende User.

Und sonst? Einer der mächtigsten Geheimdienste der Welt übt sich in Big Data. Das Ganze fliegt auf, weil eine einzige Person nicht mehr mitmachen will. Hier wird deutlich, warum sich Big-Data-Analytiker vor dem menschlichen Faktor fürchten: der Mensch als Summe seiner Unberechenbarkeit, Launen und Widerspenstigkeit. Freundlicher gesagt: Willkommen seist du, Mensch, mit deinen Stärken und Schwächen, deinen Eitelkeiten, deinem Misstrauen und deiner radikalen Ich-Bezogenheit. Aber auch mit deiner Leidenschaft, viele Daten im Netz zu hinterlassen.

Wir legen Profile auf Facebook, Twitter und Google+ an, posten Statusmeldung um Statusmeldung, suchen mit Google, Yahoo und Bing, kaufen ein bei Ebay und Zalando, machen Onlinebanking, speichern unsere Daten in der Cloud, während mit den Eltern geskypt und mit den Kindern gechattet wird.

Der Grippe-Trend

Sind wir selber schuld, wenn nun all diese Daten auf uns zurückfallen? Falsche Frage, finden die Autoren Mayer-Schönberger und Cukier. Die richtige laute: Wie können Daten helfen, die Welt zu verstehen? Wie nützlich sei doch Google und sein Umgang mit Daten. Lange bevor die Grippe ausbricht, gibt es schon die „Google-Flu-Trends“.

Chris Anderson, einst Chefredakteur beim US-Tech-Magazin Wired, fragt: „Was kann die Menschheit von Google lernen?“ Das Internet sei angewandte Mathematik, eine Mischung aus Forschung und Ingenieurswissen. Die Genentschlüsselung des Menschen wird bei ihm zur ersten großen Leistung von Big Data. Wir müssten, so Anderson weiter, auch nicht alles messen, erfassen, optimieren – schließlich gelte der Satz des Statistikers George Box: „Alle Modelle sind falsch, aber einige sind nützlich.“ Google-Manager Peter Norvig springt ihm bei und ändert Box’ Zitat: „Alle Modelle sind falsch, aber ohne sie wird man kaum noch Erfolg haben.“

Was also kann der Mensch von Google lernen? Das Big-Data-Prinzip heißt: Korrelation ersetzt Kausalität. In welcher Beziehung X zu Y steht, hat Vorrang vor den Gründen, warum X so ist, wie es ist. Wer braucht ein Studium generale, wenn es Informatik und Datenverarbeitung auch tun? Da lacht sie, die dekontextualisierte, entsozialisierte, unsemantische und an Logik nicht interessierte Welt der reinen Datenanalyse.

Lob der Schwäche

Wir kennen Big Data schon länger, als es diesen Begriff überhaupt gibt. Wir Deutschen kennen ihn vom Zensus 2011, nach dem plötzlich 1,5 Millionen Bürger im ganzen Land fehlten, vom Berliner Großflughafen, der nicht fertig werden will, von Stuttgart 21. Wir Weltbürger verfolgen einen Drohnenkrieg, der trotz Milliarden Dollar und immer neuer Technologie in den Bergen Afghanistans nur selten Erfolg hat.

Genüsslich breiten Mayer-Schönberger und Cukier aus, wie der Zahlenfetischist Robert McNamara einst auf solider Datengrundlage den Vietnamkrieg verlor. Realistische Beurteilungen, sagte der damalige US-Verteidigungsminister, seien nur auf der Grundlage verlässlicher Statistiken möglich. Die Datenmengen standen der US-Armee zur Verfügung, doch es gewann der Vietcong. „Wir lagen falsch, furchtbar falsch“, bekannte McNamara in seinen Memoiren.

Danah Boyd, Social-Media-Forscherin aus den USA, meint: „In unserer Ära sind Daten billig, aber Sinn daraus zu ziehen ist es nicht.“ Nur weil große Mengen an Daten verfügbar seien, müssten sie noch lange nicht viel wert sein.

Zu viele Daten, fehlerhafte Daten, sinnlose Daten, zu wenige Daten – schön ist die Vorstellung, wie ein US-Geheimdienst versucht, mit einer digitalen Übersetzungshilfe die Kommentare im taz.de-Forum zu verstehen. Menschen machen im Netz Fehler um Fehler. Für Maschinen, die mit Maschinen kommunizieren sollen, um fehlerfrei Metadaten zu messen, zu erfassen und zu optimieren, ist der Mensch ein Metafehler.

Das ist gut für uns und schlecht für Big Data. Beim Orakel von Delphi brauchte es noch ein Edikt des Kaisers, um der Wahrsagerei ein Ende zu bereiten. Beim Orakel von Big Data sollte menschliches Alltagsverhalten reichen.