piwik no script img
taz logo

Big Data für die ForschungBringschuld für Datenspenden

Bei Big Data sieht der Deutsche Ethikrat Chancen für die Wissenschaft. Die Mehrheit des Rats möchte möglichst freien Zugang für Forscher.

Forscherwünsche: Genetische Informationen aus der Biobank gekoppelt mit Daten aus dem Alltag Foto: reuters

Mit dem Wearable am Arm in den Supermarkt joggen, dort mit der Payback-Karte einkaufen, zu Hause am Computer ein Buch bei Amazon bestellen und zwischendurch schnell noch online ein Formular von der Krankenkasse ausfüllen. Am Abend dann in die U-Bahn mit ihren Überwachungskameras. Selbst Daten-Puristen, die auf einiges aus dieser Aufzählung verzichten und Facebook meiden, ist es heutzutage nicht mehr möglich, keine digitalen Spuren zu hinterlassen. Es gibt kaum eine Bewegung, die nicht aufgezeichnet würde, auch ohne Sensor auf der Haut und der Google Cloud am Bett.

Was vielen aber nicht klar ist: Es gibt keine Daten mehr ohne Gesundheitsbezug. Darauf machte der Deutsche Ethik­rat Ende vergangenen Jahres mit einer umfangreichen Stellungnahme aufmerksam, Ergebnis eines mehrjährigen Arbeitsprozesses unterschiedlich zusammengesetzter Arbeitsgruppen. Unter Big Data kann nämlich alles gesundheitsrelevant werden: Nicht nur die an die App freiwillig abgegebenen Vitalinformationen, auch der Einkauf im Supermarkt (Alkohol, Zigaretten oder Bio-Food?), das bestellte Buch oder, na, sagen wir mal, der abendliche Trip ins Bordell. Von den ganz normalen Informationen, die unter anderem Versicherungsträger oder Behörden speichern, ganz abgesehen.

Big Data bedeutet, dass riesige Datenmengen unterschiedlichster Provenienz in sensationell schneller Zeit verarbeitet werden können, 80 Prozent davon sind unstrukturiert, der Datenmüll also, den wir täglich per Telefon, E-Mail und Ähnlichem hinterlassen.

Die Spur dieser Daten ist unauslöschlich, denn es gibt keine sicheren Vergessmethoden, und was die bestehenden Datenschutzgesetze auf Grundlage des Grundgesetzes fordern, Ano­nymität, ist im Zeitalter hochautomatischer Datenverarbeitung und lernender Systeme, längst Makulatur. Entlegenste Daten können korreliert und rekombiniert werden und lassen Musteraussagen über den Gesundheitsstatus oder Lebensstil einer Person zu.

Was in Alltagszusammenhängen mitunter nur ­skurril erscheint, kann in der medizinischen Forschung, darauf machte Gerd Ante, Vorkämpfer der evidenzbasierten Medizin und Direktor des Cochrane-Zentrums, kürzlich nachdrücklich aufmerksam, fatale Folgen haben. Statt aufgrund reproduzierbarer Experimente Kausalitäten aufzufinden, werden zufällige statistische Zusammenhänge, die blind sind für Fehler, für „evident“ erklärt. Das berge beträchtliche Risiken für die Patienten, etwa durch falsch-positive Ergebnisse, wie sie aus der Brustkrebsdiagnose bekannt sind. Gesundheitsforschung unter der Ägide von Big Data, so Ante, bedeute den Abschied von einer evidenzbasierten Medizin.

„Gold des 21. Jahrhunderts“

Dass dieser „Gold des 21. Jahrhunderts“ genannte Rohstoff Begehrlichkeiten weckt, liegt auf der Hand. Die Werbeindustrie schürft schon längst in den Bergwerken der Datengiganten Google, Facebook oder Amazon. Inzwischen treten diese selbst als Dienstleister auf, auch auf dem Gesundheitsmarkt (zum Beispiel Google Fit) oder sie kooperieren mit medizinischen Einrichtungen, Krankenhäusern oder Forschungseinrichtungen (Cloud Computing).

Aber auch die Forschenden selbst fordern den Zugang zu den Datenminen. Sie spekulieren auf ein besseres Verständnis von Krankheiten. Die klinische Forschung versucht etwa durch Gruppenbildung von Patienten (Stratifizierung) passgenauere Therapien zu entwickeln. Aus nachvollziehbaren Gründen sind auch Versicherer und Arbeitgeber an solchen „Risikoprofilen“ interessiert.

Doch wem gehören eigentlich die Daten? Wer kontrolliert sie? Wer schützt sie vor Manipulation und Missbrauch? Die Datenskandale der letzten Jahre haben das Misstrauen gegenüber dem Datenabgriff noch verstärkt. In Großbritannien etwa – in Sachen Datenschutz nicht unbedingt ein Vorreiter – hat die unabhängige Datenschutzbehörde gegen einen Deal zwischen Google und dem Nationalen Gesundheitsdienst interveniert, nachdem Deep Mind (eine Tochtergesellschaft von Google Alphabet) mit den Daten von 1,6 Millionen Patienten nebenbei auch ihre Medizin App trainiert hat. Ein deutsches Apothekenzentrum soll in großem Stil unverschlüsselte Pa­tien­ten­daten an ein französisches Pharmaunternehmen verkauft haben. Und Datenschützer warnen immer wieder davor, dass bei der Erhebung von Fitness­daten, die etwa im Home-Office registriert werden, der Chef mitliest.

Aber auch die Forschenden selbst fordern den Zugang zu den Datenminen

Gegenüber den Missbrauchsmöglichkeiten und Entsolidarisierungseffekten von Big Data – im Versicherungsbereich beispielsweise durch Gewährung von Boni, wenn Vitaldaten weitergegeben werden –, die in der Stellungnahme des Ethikrats durchaus nicht unterschlagen werden, machen die Räte aber vor allem die „ Chancen“ für den medizinischen Bereich stark, die mit Big Data verbunden sind, insbesondere unter Einbeziehung von genetischen Patientendaten.

Unkritisch gegenüber der prospektiven Sammelleidenschaft von Bio-Banken oder na­tio­nalen Gesundheitsstudien wie der Nationalen Kohorte, unterstellen sie nicht nur, dass diese Großprojekte unmittelbare und positive Effekte für die Gesundheitsversorgung haben, sie bringen vielmehr auch die Bürger in eine „Bringschuld“: Es sei, formuliert es ihr Vorsitzender Peter Dabrock, „gegenüber den vielen Menschen, denen signifikante Gesundheitsverbesserungen winken, unverantwortlich, wenn man diese Chancen gesellschaftlich wegen der alten Datenschutzprinzipien verbieten wollte.“

Ein Plädoyer für „Datenspenden“

Um dem grundrechtlichen Gebot der „Wohltätigkeit“ und „Solidarität“ Genüge zu tun, sollen Gesunde und Patienten vermehrt zur „Datenspende“ bestärkt werden. Um ihnen das schmackhaft zu machen, schlägt der Rat in seiner Stellungnahme, der nur von Christiane Fischer mit einem Sondervotum widersprochen wurde, ein sogenanntes Kaskadenmodell vor, das von umfassender Zustimmung ohne Zweckbindung der Datenverwendung bis hin zu enger und zweckbezogenem Einverständnis reichen kann und von „elektronischen Agenten“ unterstützt werden soll. Den „legitimierten Akteuren“ soll ein „möglichst umfassender Zugang zu Forschungs- und Versorgungsdaten“ und „geeigneten gesundheitsrelevanten Big-Data-Anwendungen“ eingeräumt werden, nicht zuletzt, um die „internationale Wettbewerbsfähigkeit“ zu fördern.

Das Zauberwort, das Stefan Augs­berg, Leiter der Arbeitsgruppe, in Anschlag bringt, ist „Datensouveränität, die, so das Versprechen, das Konzept der informationellen Selbstbestimmung unter den Bedingungen einer vernetzten Welt und unter Wahrung der Privatsphäre weiterentwickele.

Der Schutz personenbezogener Daten soll mit „der Realisierung von Potenzialen“ verknüpft und deren „kollektive Dimension“ hinsichtlich der gesundheitsrelevanten – man könnte auch sagen fremdnützigen – Forschung verstanden werden. Da sind die Räte ganz auf der Linie der Kanzlerin, die schon 2016 auf dem Nationalen IT-Gipfel verkündete, dass das „Prinzip der Datensparsamkeit heute nicht (mehr) die generelle Leitschnur sein kann für die Entwicklung neuer Produkte.“

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

2 Kommentare

 / 
  • Der Ethikrat als Lobbyvertretung ...

  • Diese Entwicklung ist in gleich zweierlei Hinsicht bedenklich: die Big Data-Ideologie – eine Rückentwicklung in das mechanizistische Denken des Dampfmaschinenzeitalters – trifft sich mit der Wissenschaft, die in den Physikalismus abzugleiten droht. Und als Versuchskaninchen dienen hier Menschen mit ihrem Privatleben.

     

    Viel eher sollte dringend neu nachgedacht werden, weshalb die versprochenen Wunder der Hirnforschung ausbleiben, und weshalb KI inzwischen ein Synonym für Unterdrückung und Faschismus zu werden droht.

     

    Homo oeconomicus jedenfalls ist nur ein anderes Wort für Psychopath. Und darauf “Wissenschaft” aufbauen zu wollen, wäre absolut lächerlich, wenn es nicht derart brandgefährlich wäre.

     

    Bildung täte so not – nein, nicht “Ausbildung”.