Von ärztlicher Kunst mit künstlicher Intelligenz

Wie kann künstliche Intelligenz (KI) das Gesundheitssystem verbessern? Welche Rolle spielen KI-Systeme in Diagnostik und Therapie? Und wie steht es um die ethische Dimension? Darüber diskutierten am 19. Oktober 2023 Expert:innen aus Politik, Medizin und Ethik zum Auftakt einer Veranstaltungsreihe der Bundesärztekammer (BÄK), die Chancen und Risiken von KI-Anwendungen in der Medizin thematisiert.

BÄK im Dialog: "Von ärztlicher Kunst mit künstlicher Intelligenz"

Podiumsdiskussion bei der Veranstaltung BÄK im Dialog: „Von ärztlicher Kunst mit künstlicher Intelligenz“

Große Erwartungen und neue ethische Fragen

KI-Anwendungen könnten dabei helfen, das Gesundheitssystem trotz Fachkräftemangels aufrechtzuerhalten und die Qualität der Medizin zu verbessern, so Dr. med. Klaus Reinhardt (I), Präsident der Bundesärztekammer. Gleichzeitig warnte er in seiner Begrüßung vor dem Einfluss von IT-Konzernen wie Amazon und Google, die bereits heute in das Versorgungsgeschehen eingreifen, und betonte die Wichtigkeit der ethischen Dimension in Bezug auf die Sicherheit von Daten und Verantwortlichkeit. Gleichzeitig forderte er transparente und ethisch bewertbare Entscheidungsalgorithmen von KI-Systemen.

KI-Systeme in der Radiologie, Krebsbehandlung und bei Operationen

Die Radiologin Prof. Dr. med. Ulrike I. Attenberger sah die Möglichkeiten von KI-Systemen in der Medizin ähnlich pragmatisch: „Wir haben weniger Fachkräfte und eine überalterte Gesellschaft. Dieses Problem können wir mithilfe von KI-Systemen lösen“, so die Direktorin der Klinik für Diagnostische und Interventionelle Radiologie, Universitätsklinik Bonn, und Leiterin des KI.NRW-Flagship-Projekts „Innovative Secure Medical Campus UKB“. Am Beispiel des Universitätsklinikums Bonn zeigte sie, in welchen Bereichen KI-Systeme von Nutzen sein könnten: bei der Behandlungsplanung, Krebsbehandlung – beispielsweise durch einen digitalen Zwilling – oder in der Chirurgie mithilfe von Robotik-gestützten Operationen. Die letzte Entscheidung und Verantwortung solle dabei immer beim Menschen liegen. Digitalisierung und KI seien aber notwendig, um in Zukunft überhaupt Präzisionsmedizin leisten zu können. Im Moment hätten allerdings sehr wenige KI-Werkzeuge überhaupt konkreten klinischen Einfluss, so Attenberger, und viele KI-basierte Anwendungen in der Medizin befänden sich noch in den Kinderschuhen.

Macht der KI über gute und schlechte medizinische Entscheidungen

Heute wird der größte Teil der KI-Anwendungen – etwa 70 Prozent – in den Bereichen Diagnostik und Bilderkennung eingesetzt, und zwar vor allem bei Retina-Scans, Knochendichtemessungen oder der Melanom-Früherkennung. Dies berichtete Prof. Dr. med. Dr. phil. Eva Winkler, Vorsitzende der Zentralen Ethikkommission bei der Bundesärztekammer, Leiterin der Sektion für Translationale Medizinethik an der Universität Heidelberg und geschäftsführende Direktorin am Nationalen Centrum für Tumorerkrankungen Heidelberg. Dennoch bliebe die Letztentscheidung und -verantwortung immer bei den Ärzt:innen. Wenn diese ihr Wissen mit Algorithmen kombinierten, könnten sie in einigen Fällen bereits jetzt mit größerer Sicherheit Erkrankungen diagnostizieren, als ohne diese Unterstützung – das zeigten Untersuchungen aus der Radiologie. Andererseits steige mit KI-gestützten Systemen auch das Risiko für eine geringere Qualität, insbesondere wenn die KI-Modelle sehr fehlerhaft seien, wie eine Auswertung aus dem Jahr 2020 deutlich mache: Die Verunsicherung sei groß, wenn unerfahrene Mediziner:innen eine falsche KI-Einschätzung erhielten. In Folge ist die Wahrscheinlichkeit einer korrekten Einschätzung für Diagnose und Therapie nur noch halb so groß. Bei den erfahrenen ärztlichen Kolleg:innen hatte die falsche KI-Einschätzung der Auswertung zufolge einen weniger großen Einfluss, aber auch sie ließen sich so weit irritieren, dass die Wahrscheinlichkeit einer korrekten Behandlung von 90 auf 70 Prozent sank.

Algorithmen verstehen – vergessen Sie es!

Irritiert oder vielleicht sogar überfordert von KI-Systemen wären vermutlich auch die meisten Menschen, wenn es darum geht, zugrundeliegende Algorithmen zu verstehen. Der Philosoph und stellvertretende Vorsitzende des Deutschen Ethikrates, Prof. Dr. phil. Dr. h.c. Julian Nida-Rümelin, stellte deshalb infrage, ob die Algorithmen von KI-Systemen wirklich so transparent sein müssten, wie Reinhardt dies in seinem Grußwort forderte. „Schließlich kann mir hier im Saal gewiss kaum jemand erklären, wie ein Otto-Motor funktioniert, obwohl sicher die meisten ein Auto benutzen, oder?“, fragte Nida-Rümelin provokant. Und tatsächlich fühlte sich im Publikum nur ein Teilnehmer zu der Erklärung des Otto-Motors in der Lage. „Wir müssen nicht die Algorithmen verstehen, vergessen Sie es!“, riet der ehemalige Inhaber des Lehrstuhls für Philosophie und politische Theorie an der LMU München.

Statt die Algorithmen zu kennen, braucht es berechtigtes Systemvertrauen

Auch Eva Winkler zweifelte an, ob Algorithmen von allen verstanden werden müssten. Viel wichtiger sei es aus ihrer Sicht zu begreifen, dass KI-Systeme anders zu einem Ergebnis kämen als Menschen. Eine Studie aus der Psychiatrie über die Auswahl von Antidepressiva zeige sogar, dass die Zusammenarbeit mit KI-Systemen, deren Algorithmen nachvollziehbar waren, zu schlechteren Ergebnissen führte als die Zusammenarbeit von KI-Systemen mit unklarer Ergebnisfindung. Die Medizinethikerin ist überzeugt: „Nicht die Erklärbarkeit von Algorithmen muss besser werden, sondern der kontrollierte Einsatz und damit das berechtigte Vertrauen in KI-Systeme.“ Dazu brauche es aber Daten von hoher Qualität und diese Daten müssten repräsentativ sein. Die Zentrale Ethikkommission bei der BÄK (ZEKO) hat diesbezüglich Empfehlungen für die Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intelligenz formuliert. In diesen Empfehlungen wird auch eine Qualitätssicherung der KI-Systeme durch ein Zulassungsverfahren und eine Plausibilitätsprüfung gefordert.

Sichere Datennutzung durch Gesundheitsdatennutzungsgesetz

Zum Systemvertrauen in KI-Systeme – von Seiten der Ärzteschaft, aber auch der Patient:innen – gehört auch eine sichere Nutzung der Gesundheitsdaten. Die Basis dafür könnte das neue Gesundheitsdatennutzungsgesetz bieten, dessen Möglichkeiten der Bundesgesundheitsminister Dr. med. Klaus Lauterbach umriss. Das neue Gesetz soll sichere Datenbewegungen ermöglichen und gleichzeitig Daten über europäische Landesgrenzen hinweg erforschbar machen. Dass die USA in der Entwicklung von KI-Anwendungen weiter seien, müsse nicht unbedingt ein Nachteil für Deutschland sein, so Lauterbach. „Denn dadurch können wir hier aus den Problemen des zerklüfteten amerikanischen Datennetzes lernen und diese im neuen Gesundheitsdatennutzungsgesetz umgehen“, verdeutlichte er seinen optimistischen Ansatz. „Damit können wir hier etwas aufbauen, was die USA nicht hat!“ Aber Deutschland müsse sich ranhalten, um den weltweiten Anschluss in diesem Bereich nicht zu verpassen.

Lauterbach nutzte seinen Redebeitrag wohl auch dazu, um die angespannte Stimmung zwischen Ärzteschaft und Bundespolitik zu befrieden: Er würdigte den Beitrag der Ärzteschaft zum Entstehen der Beitragsstabilität, rechtfertigte sich für die Abschaffung der Neupatientenregelung und bat um Entschuldigung für die misslungene Kommunikation im Zusammenhang mit dem Screeningverfahren zu Hypertonie und Hyperlipidämie in Apotheken. Abschließend verkündete er, dass die Entbudgetierung für die Hausärzt:innen kommen soll und dass jährlich 5.000 zusätzliche Studienplätze für Humanmedizin auf den Weg gebracht werden sollen, um die Gesundheitsversorgung zu verbessern.

Immer auf dem Laufenden bleiben. Melden Sie sich hier für unseren Newsletter an.

Die vertrauensvolle Arzt-Patient-Beziehung bleibt ärztliche Kernkompetenz

In der abschließenden Podiumsdiskussion positionierte sich PD Dr. med. Peter Bobbert, Präsident der Ärztekammer Berlin und Vorsitzender des Ausschusses „Digitalisierung in der Gesundheitsversorgung“ der Bundesärztekammer, klar positiv zur digitalen Umgestaltung der Medizin. Bedenken des Publikums, ob die Kernkompetenzen der Ärzteschaft neben der KI bestehen blieben, beantwortete er pragmatisch: „Das Wissen im Arztberuf verändert sich und das Berufsbild verändert sich auch.“ Aber die Rolle von Ärzt:innen, den Patient:innen vertrauensvoll, unabhängig von ökonomischen Interessen und individuell zugeschnitten dabei zu helfen, Antworten auf medizinische Fragen zu finden, bliebe erhalten.

Auch Winkler widersprach Ängsten, die Ärzteschaft sei irgendwann durch KI-Anwendungen komplett ersetzbar: „Medizinische Entscheidungen sind wertebasiert, diese lassen sich oft erst im Gespräch erkunden. Auch die konkrete Lebenssituation im biografischen Kontext ist für die Therapie- und Diagnoseentscheidung wichtig“, führte Winkler aus. In diesem Sinne könne es keine automatisierte Behandlungsentscheidung durch KI-Systeme geben.

Nida-Rümelin brachte für seine Begründung, dass die ärztliche Tätigkeit nicht durch KI ersetzt werden könne, den wichtigsten Baustein einer Arzt-Patient-Beziehung ins Spiel – Vertrauen. KI-basierte Programme und Maschinen seien gigantische Plagiatsmaschinen, so der Philosoph. Zu Maschinen könne man kein Vertrauen aufbauen, sondern nur zu Menschen. „Deshalb braucht es für eine vertrauensvolle Arzt-Patient-Beziehung vor allem eines: eine reelle Person.“

Hat Ihnen dieser Artikel gefallen?

Wir freuen uns über Ihr Feedback!

Ja
Nein

Vielen Dank!

Zur Ärztekammer Berlin