piwik no script img

Künstliche Intelligenz in der MedizinAlgorithmus auf Rezept

Künstliche Intelligenz wird Ärz­t:in­nen nicht ersetzen. Die Technologie kann sie aber entscheidend entlasten, sagt die Medizinethikerin Alena Buyx.

Direkte Kommunikation zwischen Arzt und Patient Illustration: Adobe Stock
Adefunmi Olanigan
Interview von Adefunmi Olanigan

wochentaz: Frau Buyx, wie wichtig ist es für Menschen, dass sie nicht von einem Computersystem, sondern von einem anderen Menschen behandelt werden?

Alena Buyx: Das ist sehr individuell. Menschen stehen Technik sehr unterschiedlich offen gegenüber. Die einen fühlen sich wohler damit, vermeintlich peinliche Sachen einer Maschine zu erzählen. Andere erwarten von ihr mehr Präzision. Wieder andere wollen unbedingt den Kontakt zu Menschen und von KI gar nichts hören. Viele stehen dem Einsatz von künstlicher Intelligenz in diagnostischen Anwendungen offener gegenüber als in der eigentlichen Behandlung. Es wird eine große Herausforderung, auf diese verschiedenen Bedürfnisse einzugehen.

M. Popow/imago
Im Interview: Alena Buyx

46, ist Medizinethikerin und Ärztin. Sie war acht Jahre lang Teil des Deutschen Ethikrats, von 2020 bis 2024 auch als dessen Vorsitzende. Zudem ist Buyx Professorin für Ethik der Medizin und Gesundheitstechnologien sowie Direktorin des Instituts für Geschichte und Ethik der Medizin an der Technischen Universität München.

Wie kann das gelingen?

Die Medizin ist grundsätzlich gut darin, mit verschiedenen Optionen zu arbeiten, vor allem in der Behandlung. Um den Menschen Vorbehalte zu nehmen, muss Patientinnen und Patienten gegenüber viel erklärt werden.

KI ist erst mal ein Werkzeug, das sich überall anwenden lässt. Was macht sie besonders in der Medizin?

Künstliche Intelligenz ist ein Instrument, nicht mehr, nicht weniger. Diese aktuelle Über­höhung ist problematisch. Für die Anwendung haben wir im Ethik­rat eine ethische Faustregel entwickelt: KI muss die Handlungs- und Entfaltungsmöglichkeiten des Menschen erweitern und nicht verringern, und sie darf den Menschen nicht ersetzen. Diese Aspekte sind sehr relevant für die Medizin. Wenn man KI sinnvoll einsetzt, kann das Verhältnis von Nutzen und Risiko in der Medizin aber positiv sein, weil die Möglichkeiten vor allem der prädiktiven Mustererkennung so hoch sind. Das hilft in der Forschung oder auch der Diagnostik und Prävention.

Welche Rolle spielt KI heute schon in der Medizin?

In der medizinischen Praxis in Deutschland ist der Einsatz noch nicht etabliert. Sehr gut funktioniert KI aber beispielsweise schon in der Medikamentenentwicklung.

In welchem Bereich könnte der Einsatz am besten wirken?

Menschen in Gesundheitsberufen verbringen bis zu vierzig Prozent ihrer Arbeitszeit mit Verwaltungsaufgaben am Computer. Ich wünsche mir, dass KI die Leute freispielt. Es ist eine falsche Zielsetzung, direkt in den Kern des Arzt-Patienten-Verhältnisses reinzugehen. Dieser Aspekt der Behandlung ist zentral und zu Recht stark geschützt. Eine viel weniger problematische, echte Erleichterung wäre es, wenn die KI-Modelle etwa Arztbriefe vorschreiben, Akten vorauswerten, Dokumentation vorbereiten.

Es gibt auch Anwendungsbeispiele bei der Diagnose und Behandlungsempfehlungen. Wo ist da das Potenzial?

Hier geht es ins Arzt-Patien­ten-Verhältnis, also müssen wir vorsichtig sein. Bei diagnostischen Befundungssystemen, etwa in der Bildgebung von Röntgen- oder CT-Aufnahmen, können Algorithmen ­helfen, Muster zu erkennen, und auf veränderte Strukturen hinweisen. Und im Bereich der Vorhersage ist irre viel Musik drin. Zum Beispiel in der frühen Erkennung von akutem Nierenversagen auf der Intensivstation, das sehr gefährlich sein kann. Eine KI konnte diese Komplikation in 48 Stunden mit guter Präzision vorhersagen, zeigte zuletzt ein wissenschaftliches Paper. Der Datensatz war allerdings verzerrt, er stammte zum Großteil von männlichen Patienten. Das ist ein wichtiges Problem beim Training von KI-Systemen, so was muss vermieden werden.

Künstliche Intelligenz darf keine Menschen ersetzen, sagten Sie. Wie viel Macht dürfen solche Systeme haben? Braucht es dafür bestimmte Regeln, die etwa festlegen, dass die letzte Entscheidung immer ein*e Ärz­t*in treffen muss?

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Die Letztverantwortung eines gesamten Behandlungsprozesses muss bei der Ärztin, dem Arzt liegen. Dennoch kann es in bestimmten Bereichen eine Art geteilter Verantwortung ­geben. Dort, wo es angemessen machbar ist, können Algorithmen einzelne Entscheidungsaspekte überlassen werden – aber nur eingebettet in den gesamten Prozess.

Selbst wenn Ärz­t*in­nen die letzte Entscheidung treffen, beeinflusst ihr Vertrauen in Technik sie. Dieses darf nicht blind sein. Wie können sie beim Einsatz von KI mit diesem Problem, dem sogenannten Automation Bias, umgehen?

Menschen haben die Tendenz, stark an Technologie zu glauben. In Kliniken fehlt außerdem oft die Zeit, das verstärkt die Gefahr, dass Ergebnisse eines Algorithmus nicht hinterfragt werden. Bei der Etablierung von KI im medizinischen Alltag sollte daher sowohl daran geforscht werden, wie gut die Methode funktioniert, als auch daran, wie sie Ärztinnen und Ärzte beeinflusst und wie ein Automation Bias vermieden werden kann.

Es gibt Studien, die einen Unterschied bei Automation Bias zeigen, je nachdem, wann Me­di­zi­ne­r*in­nen Informationen von der KI bekommen, abhängig davon, ob sie sich erst ein eigenes Bild gemacht haben.

Genau. Wann und wie sie Informationen erhalten, sollte miterforscht werden. Ansätze, dem zu begegnen, liegen etwa im Design der Benutzeroberflächen und wie dabei Unsicherheiten im Ergebnis kommuniziert werden. Oder man baut Zwischenchecks ein, die Ärztinnen und Ärzte auffordern, Ergebnisse noch mal zu überprüfen. Ein Thema, das sich dem direkt anschließt, ist zudem das De-skilling.

Was heißt das?

Menschen verlernen bestimmte Dinge, wenn sie sich immer auf ein System verlassen können. An sich ist das keine Katastrophe. Die Medizin kennt solche Prozesse. Früher hat man beispielsweise viel mehr offen operiert, dann kam die minimalinvasive Chirurgie. Es folgt eine Übergangsphase, heute operiert man bei vielen Indikationen standardmäßig minimalinvasiv. Die Fähigkeiten verschieben sich und das ist okay. Die Regeln dafür, welche Fähigkeiten wie erhalten werden müssen, sollten von der medizinischen Community selbst entwickelt werden.

Wo wird KI bereits in der Praxis eingesetzt?

Es gibt schon länger Assistenzsysteme, die auf Algorithmen basieren, etwa in der Vorbefundung von Lungen-Röntgenaufnahmen. Auch in der Psychotherapie wird KI im Ausland bereits teils breit angewendet. In der Verhaltenstherapie gibt es Chatbots, mit denen Patienten alleine arbeiten können. Solche Tools sollten aber von Therapeuten als Instrument in einem professionellen therapeutischen Kontext eingesetzt werden. Der Behandler bleibt verantwortlich für den gesamten Prozess.

Damit sind also nicht Psychotherapie-Apps aus dem App-Store gemeint. Inwieweit sind diese positiv zu sehen?

Nun, es gibt die sozusagen in besser. Die Software, die es im App-Store frei oder für 3,50 Euro gibt, sind am ehesten Beta-Versionen. Sie sind dort, um Daten zu sammeln für ihr Training. Später verlassen sie den Store wieder und werden spezifisch trainiert, verbessert und dann teils als professionelle, medizinische Anwendung angeboten. Um als Medizintechnik zugelassen zu werden, müssen sie ohnehin einen entsprechenden Zulassungsprozess durchlaufen. In Deutschland sind nur wenige KI-basierte Medizin-Apps im Gebrauch. In den USA etwa gibt es aber einzelne Krankenhäuser, die nur noch technologisierte Psychotherapien anbieten. Da gibt es keine Psychotherapeuten mehr.

Das klingt dystopisch.

Genau so darf es eben nicht passieren, selbst mit spezifischen, gut trainierten Systemen. Deshalb sollte vor allem die medizinische Community sich genau überlegen, was sie entwickeln wollen.

Das heißt?

Entwickler sehen oft mal einen Datensatz und fragen sich: Was kann ich damit Tolles machen? Sinnvoll wäre es andersherum. Was brauchen wir in der Medizin wirklich? Was wollen wir der KI gegebenenfalls teilweise überlassen? Deswegen ist es hochproblematisch, wenn nur noch Algorithmen Psychotherapie abwickeln. Das sind die vier Schritte zu weit.

Aktuell sprechen viele Forschende davon, dass sie sich in einer Zwischenphase befinden. KI-Systeme sind teils noch nicht gut genug und es ist unklar, welche Regeln es genau braucht. Ist das auch eine politische Frage?

Auch, aber selbst Fachpolitikerinnen und Fachpolitiker wissen teilweise nicht genau, was die Bedarfe auf Station sind. Wo brauchen wir die Leute am meisten? Welche Handlungsbereiche wollen wir wirklich schützen? Das wissen die Menschen aus der Praxis am besten. Sie sollten entsprechend die internen Standards jedenfalls mit­entwickeln. Die Politik kann ja nicht vorgeben, wann und wie etwa Informationen an einen Arzt kommuniziert werden sollen. Das wäre etwas absurd. Politik ist für die Leitplanken da, die Fachcommunitys für die internen Standards von Entwicklung und Anwendung.

Ein politisches Thema ist aber die Nutzung von Daten, von denen künstliche Intelligenz sehr viele braucht. Dazu traten im März erst das Digitalgesetz und das Gesundheitsdatennutzungsgesetz in Kraft. Sie sehen vor, dass künftig eine Widerspruchslösung für die Datennutzung ausgearbeitet wird. Wie sinnvoll könnte das sein?

Das ist sehr sinnvoll, wenn es verantwortlich gemacht wird. Wenn man diese Technologie in ihrer besten Ausprägung haben will, braucht man unbedingt gute, eigene Daten. Wir sind in Deutschland diesbezüglich bisher sehr restriktiv gewesen. Das zu korrigieren halte ich für sehr wichtig. Wir brauchen unsere ­eigenen Daten.

China oder die USA sind in der Erforschung von künstlicher Intelligenz schon viel weiter. Ihre Systeme können wir hier aber nicht nutzen?

Es braucht Daten von Menschen und Verwaltungen in Deutschland, das ist ein anderer Kontext und sind andere Patienten. Plakative Berichte über eine KI, die in irgendeinem Bereich besser als ein Facharzt war, zeigen lediglich das Potenzial der Technologie auf. Und tatsächlich ist ja eine prinzi­piell bessere Diagnose oder Behandlung auch das Mindeste, was wir von KI erwarten – wir würden ja nicht etwas einführen, was schlechter ist. Die Systeme müssen sich dann aber auch noch in der echten Situation, in der echten Praxis bewähren. Und das sicher zu gewährleisten ist die große Hürde, die in meiner Wahrnehmung noch nicht wirklich genommen ist.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 40.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

1 Kommentar

 / 
  • Die Diagnostik wird mit KI in den nächsten Jahren enorme Fortschritte machen können. Besonders die Erkennung seltener Krankheiten und die zuverlässigere Bewertung unklarer Befunde wird dabei eine große Rolle spielen. KI kann perspektivisch auf wesentlich größere Vergleichsdatensätze zugreifen als jeder menschliche Mediziner, wenn sie entsprechend trainiert wird.