piwik no script img

Künstliche Intelligenz in der MedizinHatschi? KI!

Künstliche Intelligenz hält zunehmend Einzug in die Medizin. Das ist kein Problem. Richtig eingesetzt kann sie Pa­ti­en­t:in­nen wie Ärz­t:in­nen helfen.

Mit KI können wir tief in unsere Körper blicken – Ärz­t:in­nen braucht es trotzdem Foto: Science Photo Library/imago

Jetzt also auch hier: Eine Anwendung mit künstlicher Intelligenz (KI) schneidet bei der Überprüfung der Herzfunktion besser ab als der Mensch. Konkret geht es bei der in der Fachzeitschrift Nature veröffentlichten Studie um die Bestimmung der linksventrikulären Ejektionsfraktion.

Die ist ein Indikator dafür, wie gut das Herz Blut in den Körper pumpt. Für die Studie bekamen KI und menschliche Fachkräfte die Bilder einer Ultraschalluntersuchung vorgelegt und sollten auf der Basis den entsprechenden Wert bestimmen. Die Kardiolog:innen, die die Ergebnisse von Mensch und Maschine überprüften, mussten bei Ersteren deutlich öfter korrigieren.

Es ist nicht das erste Mal, dass eine KI bei der Analyse eines bildgebenden Verfahrens besser abschneidet als der Mensch. Und auch sonst hält KI langsam Einzug in medizinische Fragen. Bei Ärz­t:in­nen sorgt das nicht nur für Begeisterung. Schon jetzt ist in der Branche Dr. Google eher unbeliebt – dass also Menschen im Kontext eines Leidens gerne mal eine Suchmaschine befragen in der Hoffnung auf eine schnelle Diagnose.

Auf der Suche nach der Mitte

Dr. KI wird das Ärzt:innen-Patient:innen-Verhältnis nicht einfacher machen. Wenn also der Patient in der HNO-Praxis sitzt und erklärt, dass seine starken Ohrenschmerzen ganz sicher auf eine Mittelohrentzündung zurückgehen, weil ChatGPT das als erste Option genannt hat. Oder wenn die Hausärztin erklärt bekommt, dass die Smartwatch ein erhöhtes Risiko für Herzrhythmusstörungen ermittelt hat und sie dem bitte nachgehen möge.

Die Medizin steht daher der gleichen Herausforderung gegenüber wie alle anderen Bereiche der Gesellschaft: Wie umgehen mit den immer vielfältiger und besser werdenden Anwendungen mit künstlicher Intelligenz? Blockieren, akzeptieren oder umarmen? Und wenn es, wie absehbar, die Mitte wird, dann bleibt die Frage: Wie sieht diese Mitte aus?

Es ist dafür wichtig zu akzeptieren, dass Computer im Allgemeinen und KI im Speziellen manches besser können als der Mensch. Das Rechnen gehört beispielsweise dazu, die Auswertung großer Datenmengen, das Erkennen von Mustern. Kein Wunder, dass KI gerade bei der Analyse von bildgebenden Verfahren wie MRT- und Röntgenbildern punkten kann. Zum Beispiel bei der Erkennung von minimalen Hirnveränderungen, die auf Multiple Sklerose schließen lassen, von Knochenbrüchen, Lungenmetastasen und Meniskusrissen.

Menschen lassen bei der Weitersuche nach

Den Stärken der KI stehen dabei ganz menschliche Schwächen gegenüber: zum Beispiel, dass Menschen dazu tendieren, wenn sie bei einer Suche erfolgreich waren – sei es nach einem Rechtschreibfehler oder einem auffälligen Muster im MRT –, beim Weitersuchen nachzulassen in ihrer Aufmerksamkeit. Oder dass es für einen Menschen unverhältnismäßig lange dauern würde, die mehreren hundert Bilder eines Lungenscreenings auszuwerten.

Aber KI kann im medizinischen Bereich noch etwas anderes und damit werden sich vor allem die niedergelassenen Ärz­t:in­nen auseinandersetzen müssen: Sie wird im Alltag von Pa­ti­en­t:in­nen zunehmend eine Rolle spielen. Etwa bei der KI-basierten App, die Menschen mit Diabetes dabei helfen soll, ihren Blutzuckerspiegel im Griff zu behalten.

Oder bei der Auswertung von EKG-Daten aus der Smartwatch. Diese Anwendungen wirken einerseits selbstermächtigend für die Menschen, weil sie es ermöglichen, ein größeres Bewusstsein für und einen aktiveren Umgang mit der eigenen Krankheit – oder Gesundheit – zu entwickeln. Andererseits sind die Entscheidungen der KI für die Nut­ze­r:in­nen eben nicht nachzuvollziehen – in der Arztpraxis lässt sich zumindest noch mal nachfragen.

Technologie als Werkzeug betrachten

Ein sinnvoller Ansatz wäre es daher, die Technologie als Werkzeug zu betrachten. Genau wie kaum jemand einen Nagel mit der Hand in die Wand schlagen will, einen digitalen Brief wegschickt, ohne ein Rechtschreibprogramm drüberlaufen zu lassen, ein Foto für einen Kalender auswählt, ohne die roten Blitzaugen mal schnell per Bildbearbeitungsprogramm zu entfernen.

Die Voraussetzung: KI ernst nehmen und sich ihrer Stärken bewusst sein – und ihrer Schwächen. Das gilt nicht nur für Patient:innen, sondern auch für die Mediziner:innen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Ein anderer Kritikpunkt ist halt ein bekannter. Wir haben hier wenige Riesenkonzerne auf wenigen Quadratkilometern zentriert im SV. Und nur die haben die Daten sowie die Rechenzentren und Serverfarmen. Das ist unkontrollierbar geworden, eine technische Autokratie.

  • Moin

    es ist klar, das Werkzeug, die Technologie ist da. Sie ist aus der Datensammelwut hervorgegangen, gegen welche die Gesetzgebung nicht gewappnet war. Juristisches Neuland. Und neben den Daten sind die Computer halt stark genug, um die Daten auch in der Weise auszuwerten, die wir in Teilen erleben.

    Ein Gewaltiges Problem neben dem juristischen Neuland ist jedoch das generelle Design:



    * Vorklassifizierte Daten egal welcher Art gehen in eine State of the Art Archtektur. Unklassifzierte eingabe Daten und auch das Erwartete Ergebnis, die Klassifikation.



    * Das nennt man das Training. Da geht es darum, das sich die Architektur so "konfiguriert", dass sie möglichst nah an die vorgegebenen Klassifikations Daten herankommt.



    * Sind die Eingabe Daten Käse, ist es das Ergebnis auch.

    Ein weiteres Problem ist damit die Datenqualität. Amnesty International berichtet in diesem zu empfehlenden Vortrag über rasstische Fehlschläge der letzen Jahre:

    * POC sitzt hinter Gittern in den USA für einen Monat, von AI als schuldig selektiert. Danach wird er erst freigesprochen. Grund: POC Menschen wurden in der Vergangenheit dank racial profiling eher verurteilt. Und die Vergangenen Gerichtsbeschlüsse waren halt die vorklassifizierten Trainingsdaten in dem Falle.



    * Medizin: Trainingsdaten waren Ärztediagnosen. POC Menschen in den USA haben immer im Schnitt weniger Geld gehabt als nicht POC. Deswegen haben in der Vergangenheit POC Menschen billigere Behandlungen verschrieben bekommen. Aufgrund ihrer finanziellen Lage.

    Aufgearbeitet hier:

    media.ccc.de/v/rc3...ining_future#t=760

    Im Informatik KI Breich hat sich eine Schnittstelle zur Ethik auf Grund solcher Vorkomnisse gebildet. Und eben diese Vorreiter wurden massenhalf gefeuert die Monate vor dem Release von Chat GPT im gesamten, aber gesamten Silikon Valley.



    Rechtzeitig bevor der AI War losging. Alphabet hat trotzdem im AI War über Nacht 100 Milliarden an Wert verloren.

  • Der Fortschritt ist ohnehin nicht aufzuhalten. Der Mensch wird alles tun, gerade beim Thema Früherkennung. Man stelle sich mal vor, KI könnte früheste Krebsformen zum Beispiel erriechen, das wäre sofort Standard. Die Therapie wäre ein individuell zugeschnittenes Medikament, dessen Wirkung in Echtzeit überprüft würde. Kein Mensch wird mehr krank, weil man sich ständig überwachen lässt. Wer will darauf verzichten? Wer kann darauf verzichten?

  • Ganz wichtig ist die Erkenntnis: auch KI macht Fehler, gerade im Kontext Medizin

    Was ist denn KI überhaupt? Welche Methoden nutzt sie? Im Kontext Medizin geht es um "Machine learning" bzw um "Deep learning". Und hierbei geht es darum, dass versucht wird, Muster zu erkennen. Diese Mustererkennung ist aber nie perfekt, sondern ebenso mit Wahrscheinlichkeiten verbunden wie die Aussage jedes menschlichen Mediziners. Diese Wahrscheinlichkeiten kann man mit Validierungen sogar angeben (wenn man möchte). Leider macht man das selten. Stattdessen nimmt man Aussagen von KI, wie Gottgegeben.



    Damit ist wohl das nächste Kapitel des "Halbgottes in Weiss" eingeläutet, dessen Aussagen sich nun auf die (angeblich) unangreifbaren Aussagen von KI berufen.

    Ich selbst habe eine Odysee von einem halben Jahr hinter mir, bis die Aussage einer KI Anwendung "Grüner Star" von einem wirklich guten Facharzt widerlegt wurde. Ebenso bleibtt meine Anfrage bei der KI Firma, die für diese Fehldiagnose verantwortlich war, bis dato unbeantwortet.

    Zusammenfassung: so mächtig KI auch sein mag, sie bleibt fehlerbehaftet und ist bei einer medizinischen Diagnose in wirklich wichtigen Fällen nicht durch einen menschlichen Experten zu ersetzen.