Vorlesen
Spezial

Ärztliche Kunst mit KI

21.11.2023 Seite 16
RAE Ausgabe 12/2023

Rheinisches Ärzteblatt

Heft 12/2023

Seite 16

  • Der Präsident der Bundesärztekammer Dr. Klaus Reinhardt spricht sich dafür aus, die Chancen von KI in der Medizin zu nutzen. Aber: „Die Nutzung von KI-Technologien erfordert eine sorgfältige Abwägung von Datenschutz und -sicherheit und auch von Verantwortlichkeit. © mindscapephotos/stock.adobe.com
  • Wir müssen unter anderem sicherstellen, dass der Schutz der Privatsphäre und der Patientendaten stets gewährleistet ist. Wesentlich ist, dass die den automatisierten KI-Systemen zugrundeliegenden Entscheidungenalgorithmen transparent sind und bewertet werden können.“ © Georg J. Lopata
Kaum mehr überschaubar scheint das Spektrum der Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) in der Medizin. Ärztinnen und Ärzte müssen den Umgang mit KI-gesteuerten Prozessen lernen, sollten sich aber stets der ärztlichen Letztverantwortung bewusst sein.  

von Thomas Gerst

Kaum ein Tag vergeht, an dem nicht über neue Anwendungen und Anwendungsmöglichkeiten der KI in der Medizin berichtet wird. Mit schier explodierenden Rechnerkapazitäten können Unmengen an Daten erfasst und ausgewertet werden. KI-Anwendungen in der Patientenversorgung sind heute bereits zugelassen und haben beispielweise in der Dermatologie bei der Erkennung von Melanomen, in der Diabetologie bei der Steuerung des Blutglukosespiegels auf Intensivstationen, in der Ophthalmologie bei der diabetischen Retinopathie oder in der Nephrologie bei der Vorhersage des postoperativen Risikos einer Nierenschädigung eine hohe Treffergenauigkeit oder Zuverlässigkeit. Allein ein knapper Überblick über derzeit laufende Forschungsprojekte zum Einsatz von Künstlicher Intelligenz in der Medizin würde den Rahmen eines Artikels sprengen.

Bei der Bewertung des Potenzials von KI in der Medizin gibt es allerdings deutliche Unterschiede. Wenig überraschend ist die Vision, die KI für sich selbst in der Medizin entwickelt. ChatGPT beispielsweise hat zusammenfassend Folgendes zu „KI in der Medizin“ zu sagen: Die Rolle von KI in der Medizin wird immer wichtiger, da sie die Diagnosegenauigkeit, die Medikamentenentwicklung und die Patientenversorgung revolutioniert. Trotz der Herausforderungen und ethischen Fragen bietet KI das Potenzial, die Gesundheitsversorgung weltweit zu verbessern und Leben zu retten.

Lauterbach: Explosion von Möglichkeiten

Zu einer ähnlich positiven Einschätzung kommt Bundesgesundheitsminister Professor Dr. Karl Lauterbach. An dem Thema KI in der Medizin sei er persönlich brennend interessiert, betonte er vor Kurzem bei der Veranstaltung der Bundesärztekammer (BÄK) „Von ärztlicher Kunst mit künstlicher Intelligenz“. KI werde zum Beispiel künftig Wirkungsweisen von Proteinen im menschlichen Körper erkennen lassen; so ließen sich aus der Proteinstruktur genetische Informationen ableiten, die für die Entwicklung von Arzneimitteln oder Vakzinen genutzt werden könnten, so der Minister: „Deep Learning ist eine Methode der KI, mit der Mensch und Maschine in Zukunft besser sein werden und übrigens auch schneller.“ Bei den neuen Systemen der generativen KI sieht Lauterbach „eine Explosion von Möglichkeiten“; generative KI habe das Vermögen, über die Zusammenfassung von Sachverhalten hinaus zu neuen Ableitungen zu kommen. „Große Sprachmodelle haben ganz klar Zeichen von richtiger Intelligenz“, erklärte der Minister. Mit dem Gesundheitsdatennutzungsgesetz werde nun hierzulande bis 2025 eine Struktur geschaffen, in der KI – unter Berücksichtigung des Datenschutzes – auf einen aus verschiedenen Quellen gespeisten Datenpool zugreifen könne, darunter geschätzt 70 Millionen elektronische Patientenakten. 
 
KI erkennt komplexe Strukturen

Ganz anders blickt dagegen Professor Dr. phil. Julian Nida-Rümelin auf die Eigenschaften Künstlicher Intelligenz. „Bei den aktuellen Sprachproduktionssystemen kann man nicht von genuiner Intelligenz sprechen, auf keinen Fall“, betonte der ehemalige Kulturstaatsminister und Inhaber des Lehrstuhls für Philosophie und politische Theorie an der LMU München auf der BÄK-Veranstaltung. Bereits in den 1950er Jahren habe es Szenarien einer Steuerung durch die damals erstmals eingesetzten Großrechner gegeben. Jeder Taschenrechner übertreffe die menschliche Intelligenz bei Weitem, trotzdem bezeichne man dies aber nicht als künstliche Intelligenz. Das Leistungsvermögen der generativen Sprachsysteme sei zwar beeindruckend, gleichwohl arbeiteten diese auf der Grundlage von Milliarden von Texten und Datensätzen, mit denen sie gefüttert worden seien. Sollten sich alle tatsächlich in Zukunft dieser generativen Sprachsysteme bedienen, „dann würden wir uns auf ewig im Kreis drehen“.
 
Nida-Rümelin zufolge bietet die generative KI hilfreiche Tools auch in der Medizin, eignet sich aber nicht als intelligentes Gegenüber. Zentral in der medizinischen Versorgung sei für ihn das Vertrauensverhältnis zwischen behandelnder Person und behandelter Person. In diesem unverzichtbaren interpersonalen Vertrauensverhältnis werde sich bezüglich KI stets aufs Neue erweisen müssen, wo sich die Diagnosen oder Entscheidungen über Behandlungsoptionen verbessern. Nida-Rümelin empfiehlt ein instrumentelles Verhältnis zu Künstlicher Intelligenz und eine große Offenheit gegenüber dem, was alles möglich ist. „Ich bin aber sehr pessimistisch, was die ideologische Begleitung dieses Prozesses angeht mit der Tendenz, menschliche Verantwortung zu diffundieren – das heißt, am Ende wissen wir nicht mehr, wer an welcher Stelle welche Verantwortung trägt – und die Softwaresysteme zu personalisieren, als wären sie im Stande, die Verantwortung zu übernehmen. Das können sie nicht, weil sie keine Personen sind“, erklärte der Philosoph.
Wie anspruchsvoll es sein dürfte, diese notwendige Transparenz tatsächlich herzustellen, zeigt sich am Beispiel der Intensivmedizin. Pro Stunde und pro Patient gebe es hier – ohne Bilddaten – rund 1.000 Datenpunkte, auf die KI zugreifen könne, um Krankheiten oder Ereignisse vorherzusagen oder um komplexe Zusammenhänge aufzubereiten, erläuterte Professor Dr. Gernot Marx von der Aachener Universitätsklinik für Operative Intensivmedizin und Intermediate Care Mitte Oktober bei einer Fortbildungsveranstaltung der Ärztlichen Akademie für medizinische Fort- und Weiterbildung in Nordrhein. Für den einzelnen Arzt werde es zunehmend unmöglich, das vorliegende evidenzbasierte Wissen in Verbindung mit den jeweils vorliegenden Daten in die Versorgung der Patienten einzubringen. Daher sei beispielsweise an seiner Klinik ein KI-Algorithmus entwickelt worden, der in der Zusammenschau der Daten das Risiko von Intensivpatienten vorhersagt, einen septischen Schock zu erleiden. Betroffene könnten dann früher antibiotisch therapiert oder stabilisiert werden. Im Ergebnis führe dies zu einer deutlich verringerten Sterberate. „Hier haben wir ein Riesenpotenzial, viele Menschen zurück ins Leben zu bringen.“ Auch beim frühzeitigen Erkennen von ARDS könne KI sinnvoll zum Einsatz kommen, sagte Marx bei der Veranstaltung in Bonn; dies zeige ein aktuelles Forschungsprojekt unter Einschluss von fast 15.000 Patientinnen und Patienten. „Es ist gelungen, das akute Lungenversagen rund 48 Stunden früher vorherzusagen.“ Dies gebe den behandelnden Ärzten eine Möglichkeit zum rechtzeitigen präventiven Eingreifen. Marx berichtete außerdem von einem internationalen Forschungsprojekt mit dem Ziel, die invasive Beatmung von Patienten zu verbessern; dabei finde ein KI-Entscheidungshilfesystem Verwendung, das auf der Grundlage der vorliegenden Daten kontinuierlich Empfehlungen zur Einstellung der Beatmung geben soll. Vorstellbar sei, dass künftig KI-Interventionen in der Weise implementiert werden, dass den Ärzten aus dem System heraus Vorschläge zur Therapieänderung unterbreitet werden. „Die Maschine würde das nicht selber machen, aber sie würde uns das vorschlagen“, führte Marx aus.
 
Aber ist tatsächlich vorstellbar, dass Ärzten, die etwa der Sepsis-Prädiktion durch das KI-System vertrauen und entsprechend handeln, auch zukünftig noch eine Bewertung der zugrundeliegenden Algorithmen möglich sein wird? ChatGBT gibt auf die Frage nach ethischen Problemen im Zusammenhang mit KI in der Medizin unter anderem Folgendes zu bedenken: Wenn Ärzte zu stark auf KI-Systeme vertrauen, könnten sie ihre eigenen Fähigkeiten und ihr klinisches Urteilsvermögen vernachlässigen. Die Balance zwischen menschlichem Fachwissen und maschinellem Lernen ist entscheidend.  

Ärztliche Letztverantwortung

Diese Einschätzung teilt ChatGPT mit Professorin Dr. Dr. phil. Eva Winkler, der Vorsitzenden der Zentralen Ethikkommission bei der Bundesärztekammer. Bei der BÄK-Veranstaltung verwies sie auf Forschungsergebnisse, die das Potenzial für eine bessere Qualität in der Medizin im Zusammenwirken von Arzt – und hier insbesondere dem erfahrenen Facharzt – und Maschine zeigten. Es habe aber auch nachgewiesen werden können, dass bei Entscheidungsunterstützung durch fehlerhafte KI selbst erfahrene Ärzte vulnerabel seien für fasche Informationen, unerfahrene Ärzte umso mehr. Validierung und Qualitätssicherung im Umgang mit KI seien deshalb äußerst wichtig. Ganz zentral für Winkler: Die ärztliche Letztverantwortung dürfe nicht abgegeben werden. Aus diesem Grund müssten Ärztinnen und Ärzte im Umgang mit KI geschult werden, auch um einem Automatisierungs-Bias oder einer „alert fatigue“ entgegenzuwirken. Winkler sieht in KI keinen Ersatz, sondern Unterstützung der ärztlichen Entscheidung. „Es kann keine automatisierte Behandlungsentscheidung geben“, betonte sie. Auch müsse sichergestellt werden, dass das ärztliche Erfahrungswissen durch den Einsatz von KI nicht verloren geht.
 
Auch wenn die mit dem Einsatz von KI in der Medizin verbundenen ethischen Probleme stets beachtet werden sollten, blickt BÄK-Präsident Dr. Klaus Reinhardt mit Zuversicht auf deren weiteren Einsatz: „Ärztliche Kunst und künstliche Intelligenz sind für uns keine Gegensätze.“ Er sieht für die Zukunft eine Vielzahl von Anwendungsmöglichkeiten der KI in Diagnostik und Therapie, aber auch bei Routineaufgaben, wie etwa der Dokumentation. „Und damit bleibt im Idealfall Ärztinnen und Ärzten mehr Zeit für den direkten Patientenkontakt.“ 

Autonomiebezogene Risiken

Die Zentrale Ethikkommission bei der Bundesärztekammer weist in ihrer Stellungnahme zur „Entscheidungsunterstützung ärztlicher Tätigkeit durch Künstliche Intel­ligenz“ auf autonomiebezogene Risiken beim Einsatz von KI hin:

Zu den konkreten Risiken, die mit der Mensch-Maschine-Interaktion beim klinischen Einsatz von „Clinical Decision Support Systems“ verbunden sind, zählen insbesondere 

  • die Übernahme von Diagnosevorschlägen durch Ärzte ohne weitere eigene Prüfung („automation bias“, „automation-induced complacency“);
  • abnehmende oder inadäquate Reaktionen auf Warnsignale des Systems („alert fatigue”); 
  • sich selbst erfüllende Vorher­sagen: Wenn ein System, das auf Ergebnisdaten zum Beispiel von Krebspatienten trainiert ist, eine schlechte Prognose vorhersagt, wird palliativ statt kurativ behandelt und damit die Empfehlung der CDSS verstärkt; 
  • die Gefahr einer Überdiagnostik und -behandlung, etwa wenn durch KI mögliche Anzeichen für eine Erkrankung aufgespürt werden, deren Manifestation aber statistisch gesehen sehr unwahrscheinlich und/oder sehr unplausibel ist, von Ärzten aber eine entsprechende invasive Diagnostik oder Therapie vorsichtshalber, etwa auch zur eigenen Absicherung, veranlasst wird. 

Insgesamt birgt das Überschreiten der Grenze zwischen Entscheidungsassistenz und Entscheidungsübernahme die Gefahr der Unachtsamkeit oder sogar des Kontrollverlusts. Ärzte müssen weiterhin in der Lage sein, die Aufsicht über den Gesamtprozess von Diagnostik, Therapie, Prog­nostik und Prädiktion zu über­nehmen, in den zunehmend auch Vorschläge von maschinenlernenden Systemen eingebunden sind. Diese Aufgabe ist nicht delegierbar.