piwik no script img

Chinas Social Scoring beim #35C3Eine gute Portion Unübersichtlichkeit

Chinas geplantes System für soziale Überwachung ist nicht so ausgefeilt, wie es scheint. Eine Forscherin klärt beim #35C3 über die Schwächen auf.

Überwachung ist auf dem CCC traditionell ein wichtiges Thema: Szene vom Kongress 2017 Foto: dpa

Leipzig taz | „In China ist Vertrauen ein seltenes Gut“, erzählt Antonia Hmaidi im Saal „Borg“ auf dem 35. Chaos Communication Congress (#35C3) in Leipzig. Menschen vertrauen einander nicht, sie vertrauen Firmen nicht und sie vertrauen dem Staat nicht. Als Beispiel nennt sie die immer wiederkehrenden Milchpulver-Skandale in China: Weil chinesisches Milchpulver oft verseucht ist, wird in Deutschland großflächig das Pulver aufgekauft und nach China verkauft.

Der gesellschaftliche Vertrauensmangel ist – so wird es zumindest offiziell in China behauptet – einer der wichtigsten Gründe für ein bisher beispielloses Überwachungsprojekt: Ab 2020 will die chinesische Regierung alle BürgerInnen überwachen und ihnen Punkte nach Vertrauenswürdigkeit vergeben. So sollen BürgerInnen wissen, wem sie Vertrauen können und wem nicht. Kontrolle ist eben besser als Vertrauen.

Das System soll Daten aus verschiedenen Lebensbereichen bündeln und in einer einzigen Kennziffer ausdrücken: Hat jemand Steuern hinterzogen oder einen Kredit nicht beglichen? Respektiert jemand seine Eltern nicht? Läuft jemand bei rot über eine Straße? Die Zahl soll künftig beeinflussen, welchen Zugang zu Schulen und Ausbildungen Menschen haben, ob, wohin und wie schnell sie reisen können und wer mit ihnen Handel treibt. Die erklärten Ziele: effizientere Ressourcenverteilung, mehr Vertrauen und BürgerInnen, die „gute Menschen“ im Sinne der Regierung sind.

Die Wirtschaftswissenschaftlerin Hmaidi von der Uni Duisburg-Essen hat sich diesen Plan genauer angeschaut und ist zum Schluss gekommen: „Es gibt vor allem viele Dinge, die nicht bekannt sind.“ Nachdem sie mehrere Simulationen zu drei der rund 70 verschiedenen Modellen durchgeführt hat, kommt Hmaidi zu dem Schluss, dass der Erfolg oder Misserfolg des Systems von dessen genauer Ausgestaltung abhängen wird: „Dieses System ist sehr komplex und schon kleine Veränderungen können zu großen Auswirkungen führen.“

Kein großes Überwachungssystem

Grundsätzlich ist das für die Regierung wohl vielversprechendste System, das derzeit in China als Modellprojekt läuft, weit weniger ausgefeilt, als in der Berichterstattung im Westen dargestellt. Statt eines großen allumfassenden algorithmischen Überwachungssystems gibt es vor allem ein vielschichtiges System, das regional je unterschiedlich ausgeprägt ist, abhängig von Einzelpersonen als BerichterstatterInnen und – gerade deshalb – durchsetzt von vielen gegenteiligen Interessen.

Wenn das Problem ist, dass Menschen bei rot über die Straße laufen, obwohl das schon illegal ist, würde ich am Rechtssystem ansetzen, statt ein neues System einzuführen.

Die Regionalität kann dazu führen, dass es einen Wettlauf zum niedrigsten Standard gebe, sagt Hmaidi: Also dass Menschen dorthin ziehen, wo sie am wenigsten überwacht werden und am einfachsten Punkte bekommen. Die Abhängigkeit von Einzelpersonen bedeutet, dass diese ein Interesse daran haben, Regeln zu entwerfen, von denen sie möglichst profitieren. Auch korrelieren viele erhobene Werte gar nicht mit dem erwünschen Verhalten: In Zukunft könnten viele ChinesInnen also Kredite erhalten, weil sie einen guten Score haben – obwohl sie gar nicht verlässliche RückzahlerInnen sind.

Und letztlich führe auch das übergroße Interesse der Regierung an der Ermittlung und Bestrafung von „Vertrauensbrechern“ dazu, dass wenig getan werde, um zu vermeiden, dass Menschen fälschlicherweise als nicht-vertrauenswürdig eingestuft werden. Nebenbei gebe es viel offensichtlichere Probleme, beispielsweise, dass mit Spenden an die Kommunistische Partei, der eigene Score verbessert werden könne: „Das heißt, Menschen können für einen guten Score zahlen und sich dann verhalten, wie es ihnen passt.“

Langfristig könne all dies dazu führen, dass das Vertrauen in das Social Scoring erodiert und sich alternative, inoffizielle Systeme etablieren, wie sie auch heute schon in China gängig sind. Und auch Hmaidi hat eine klare Empfehlung: „Wenn das Problem ist, dass Menschen bei rot über die Straße laufen, obwohl das schon illegal ist, würde ich am Rechtssystem ansetzen, statt ein neues System einzuführen.“ Vertrauen ist eben ein seltenes Gut in China – und offenbar leicht zu verlieren.

Empfohlener externer Inhalt

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen:

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

3 Kommentare

 / 
  • Das neue Social-Scoring-System in China

    weltnetzTV



    Am 23.04.2019 veröffentlicht

    Soziale und ökologische Verhaltensanreize und/oder Überwachungs-Albtraum im weltweiten kapital-faschistischen und imperialistischen 21. Jahrhundert?

    »Zur Steuerung einer sozial verträglichen Entwicklung experimentieren die chinesischen Behörden mit neuartigen Kredit-Punkte-Systemn, die eine prosoziale Rücksichtnahme und ökologisches Verhalten fördern sollen. Diese Tests, zur Zeit wird mit 40 unterschiedlichen Systemen experimentiert, lösen - vor allem in den westlichen Medien - heftige Diskussionen aus, beruhen die Systeme doch zum Teil auf gleichen oder ähnlichen technischen Grundlagen (Big-Data, Mustererkennung, Künstliche Intelligenz, Datenintegration) wie die polizeilichen und geheimdienstlichen Überwachungstechniken, die hierzulande entwickelt werden. Das Thema ist ein ideologisches Minenfeld {...}«

    Vgl. www.youtube.com/watch?v=Xd65AlXWKhA

    24.04.2019, R.S.

  • Also Leute, entspannt Euch. Alles nicht so schlimm. Nicht in China und hier sowieso nicht. Stellt Euch nicht so an. Wenn das eine Forscherin aus Duisburg-Essen herausgefunden hat, sollte man dem mal ausnahmsweise vertrauen. Auch ohne Kenntnis Ihres Scores.

  • 9G
    97088 (Profil gelöscht)

    Ich ich finde Ideen wie „Social Scoring“ und Verwantes schlicht pervers.



    Vertrauen ist doch eine urmenschliche Eigenschaft, die ein Zusammenleben grundsätzlich ermöglicht. Das spricht nicht gegen allgemein gültige Regeln (10 Gebote, 7 Todsünden, soziale Kodizes, staatliche Gesetze) aber gegen eine Individualbewertung.



    Nehme ich eine Skala von 0 (kein Vertrauen) - 10 (maximales Vertrauen) an: Wie verhalte ich mich bei einem 6-er und dann -anders- bei einem 7-ner?



    Und wer stellt bitteschön fest, dass ich vielleicht ein 4,5-er bin - oder ein 10+-er? Tja?