piwik no script img

Kommentar Digitale GesundheitsakteKeine Angst vor Algorithmen

Tanja Tricarico
Kommentar von Tanja Tricarico

Digitale Angebote im Gesundheitswesen können Leben retten. Die Datenhoheit über die sensiblen Informationen muss aber bei den PatientInnen liegen.

Mit dem Tablet bei der OP: Digitalisierung und medizinischer Fortschritt gehören zusammen Foto: reuters

A lgorithmen können Leben retten. In Sekundenschnelle verarbeiten sie Daten aus den unterschiedlichsten Fachrichtungen, bringen die HausärztInnen mit den InternistInnen, mit den KardiologInnen, mit den KinderspezialistInnen zusammen. Sie checken die letzte Impfung, die Ergebnisse der Vorsorgeuntersuchung und erinnern daran, Medikamente einzunehmen, die eine Krankheit verlangsamen, stoppen, Leben erhalten. Im besten Fall buchen sie uns direkt noch einen der rar gesäten Termine bei einem Spezialisten.

Die Digitalisierung und der medizinische Fortschritt – sie passen also gut zusammen. Und dennoch lässt sich ein Unbehagen darüber nicht leugnen. Daten sind der Rohstoff des 21. Jahrhunderts, vor allem Informationen zu unserem Wohlbefinden, dem Zustand unseres Körpers. Sie wecken nicht nur die Hoffnung, ein Gegenmittel gegen jegliche Krankheit schnell und unkompliziert zu finden, sondern sie bringen auch etliche Geschäftsleute auf den Plan.

Google, Microsoft, Amazon – sie sind längst in das Geschäft mit der Gesundheit eingestiegen. In den USA bietet der Onlinehändler sogar eine eigene Krankenversicherung an. Das Modell liegt nicht nur im Interesse der KundInnen. Jeff Bezos erhofft sich dadurch offenbar mehr Informationen über die Bedürfnisse seiner NutzerInnen. Wenn er die kennt, kann Amazon das Angebot anpassen – und neue Begehrlichkeiten wecken.

Der gläserne Körper kann uns gesund machen. Das Gesundheitswesen muss also endlich das analoge Zeitalter hinter sich lassen. Damit der Preis für den Fortschritt nicht zu hoch ist, braucht es allerdings strikte Regeln. Hier ist der Gesetzgeber gefragt. Im Moment haben die Krankenversicherungen die digitalen Angebote in die Hand genommen – nicht ohne Grund. Schließlich erhoffen auch sie sich, mehr über ihre Versicherten zu wissen.

Informationen über unseren Körper, über unsere Gesundheit zählen zu den sensibelsten Daten, die wir zu bieten haben. Nicht auszudenken, wenn ChefInnen künftig nicht nach Leistung und Qualifikation schauen, sondern von einer Anstellung absehen, wenn ein Bewerber wegen seines Raucherhustens behandelt wird. Oder die Schulabgängerin keine Ausbildungsstelle bekommt, weil sie wegen einer Depression in einer Klinik war.

Die Daten müssen sicher sein, die Datenhoheit bei den PatientInnen bleiben. Nicht bei demjenigen, der die Software programmiert hat, oder bei dem, der aus den Daten ein gesundmachendes Angebot basteln kann. Nur dann können wir unsere gesundheitlichen Daten guten Gewissens dem Algorithmus überlassen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Tanja Tricarico
wochentaz
Schreibt seit 2016 für die taz. Themen: Außen- und Sicherheitspolitik, Entwicklungszusammenarbeit, früher auch Digitalisierung. Leitet derzeit das Politik-Team der wochentaz. Privat im Einsatz für www.geschichte-hat-zukunft.org
Mehr zum Thema

2 Kommentare

 / 
  • Eine nette Idee.



    Nur: Um die Algorithmen zu trainien und zu optiieren benötigt es jede Menge Daten.



    Diese Daten müssen anonymisierte sein - was an sich schon eine Herausforderung darstellt. Dann darf später in der Anwendung der Algorithmus zwar eine Empfehlung abgeben, aber ein Rückschluss zur konkreten Person darf nicht gezogen werden können.



    Es ist sehr unwahrscheinlich, dass das Geschäftspotenzial, das eine personifizierte Gesundheitsversorgung zweifellos hat, auf solche Dinge Rücksicht nehmen will. Im Gegenteil, die totale Überwachung mit Gesundheitssensorik wird uns allen als persönlicher Fortschritt und Einsparung von Kosten verkauft werden. Um es mit etwas Nudging zu verbinden, wird die KV für alle ohne Sensorik teurer und schlussendlich wird die Berufshaftpflicht für Ärzte teuerer, wenn sie Menschen ohne Sensorik behandeln, da das Risiko steigt.



    Der Datenschutz wird in die sogenannte Datensouveränität verwandelt, bei der ich "freiwillig" unter Nudging meinen Consent geben soll.



    Ach ja, wer Grundsicherung erhält bekommt natürlich Abzüge, wenn er sozialschädlich den Consent verweigert.

  • Neulich beim Arzt in Berlin. Die Sprechstundenhilfe meint: "Ich habe Ihnen ja auf Band gesprochen, dass der Termin heute ausfällt". Ich so: "Ich hab nur Handy, und hier ist kein Anruf von Ihnen, welche Nummer haben Sie denn angerufen". Sie nannte mir darauf hin eine Nummer, die mir bekannt vorkam. Es war meine erste Telefonnummer in Berlin aus den Jahren 1994 und 95! Jetzt 24 (!) Jahre später taucht die beim Arzt wieder auf! Aus dem Internet hat sie die nicht. Dafür hat sie bei meiner Nachmieterin auf Band gesprochen...Ich glaube, im Ärzte-Daten-System ist viel mehr gespeichert, als man denkt...