Neues Modell für die Anwendung von KI in der Medizin
Der Einsatz von künstlicher Intelligenz in der Medizin gewinnt an Bedeutung. Doch gibt es bisher keine Leitlinien, die den ethischen und rechtlichen Rahmen für die Entwicklung neuer KI-Tools umfassend regeln. Forschende des Bosch Health Campus und der Universitäten Bayreuth und Bristol schlagen jetzt im Nature-Journal „npj Digital Medicine“ ein Modell vor, dass das Vertrauen zwischen Mediziner:innen und Patient:innen erhalten und einen verlässlichen und sicheren Umgang mit medizinischer KI ermöglichen soll.
Stuttgart, 9. Oktober 2024 – Künstliche Intelligenz (KI) hat längst Einzug in die medizinische Versorgung gehalten. Sie unterstützt Ärzt:innen bei der Hautkrebsdiagnostik, hilft, personalisierte Therapien zu entwickeln und erleichtert Patient:innen die Überwachung ihrer chronischen Erkrankungen. Stetig wird an weiteren Lernalgorithmen für die Medizin gearbeitet. Allerdings gibt es bisher keine verbindlichen ethischen und rechtlichen Regularien für die Entwicklung von medizinischer KI.
Forschende des Bosch Health Campus, der Universität Bayreuth und der Universität Bristol haben daher jetzt im Nature-Journal „npj Digital Medicine“ ein Modell veröffentlicht, das dafür sorgen soll, dass bei der Entwicklung von medizinischer KI die Interessen von Patient:innen und medizinischen Fachkräften im Fokus stehen. Dabei haben sie als zentralen Faktor den Erhalt des Vertrauens zwischen Patient:innen und Mediziner:innen definiert. „Vertrauen ist ein wichtiger Parameter für Behandlungserfolg und Patientenzufriedenheit und damit Voraussetzung für die Nutzung der Potenziale von KI in der Medizin“, betont Prof. Dr. mult. Eckhard Nagel vom Institut für Medizinmanagement und Gesundheitswissenschaften an der Universität Bayreuth.
Statt dem bisherigen Zweierverhältnis Arzt – Patient besteht seit dem Einzug von KI-Anwendungen in die Medizin immer häufiger eine Dreieckskonstellation. „Wir wollen mit unserem Modell dazu beitragen, dass das Vertrauen zwischen Ärzt:innen und Patient:innen auch mit dem Einsatz von medizinischer KI erhalten bleibt und sich beide Gruppen zudem auf die einwandfreie Funktionalität der KI verlassen können“, sagt Dr. med. Matthias Zuchowski vom Bosch Health Campus, Gesundheitsökonom und Habilitand am Institut für Medizinmanagement und Gesundheitswissenschaften der Universität Bayreuth. Zwischen dem Bosch Health Campus und der Universität Bayreuth besteht eine Kooperation zur Entwicklung und Umsetzung von Forschungsvorhaben zu Medizinmanagement, Leadership und Digitalisierung.
Acht Komponenten für die Entwicklung medizinischer KI
Die Autor:innen des Papers schlagen acht Komponenten vor, die das Vertrauensverhältnis zwischen Patient:innen und Ärzt:innen unterstützen, stärken und bewahren sollen. Besonders wichtig ist, dass medizinische Fachkräfte und Patient:innen am Entwicklungsprozess beteiligt werden, um mehr Transparenz zu schaffen und Diskriminierungen und Anwendungsgefahren zu vermeiden. Die acht Rahmenbedingungen für die Entwicklung von medizinischer KI sind im Einzelnen
– damit sich Mediziner:innen auf KI verlassen können:
1. die Einbeziehung von verantwortlichen medizinischen Fachkräften vor der Entwicklung der KI
2. ein standardisiertes Datenblatt, ausgerichtet auf den Informationsbedarf professioneller Anwender:innen
3. eine (berufs-)ethische Bewertung der KI auf institutioneller Ebene
– um das Vertrauen von Patient:innen in medizinisches Personal zu erhalten:
1. die Einbeziehung von Patientvertreter:innen in der Entwicklungsphase der KI
2. Leitlinien für die Integration von medizinischer KI in den klinischen Beratungs- und Behandlungsprozess
– damit sich Patient:innen auf KI verlassen können:
1. die Dokumentation der Datensicherheit für jede medizinische KI
2. die haftungsrechtliche und regulatorische Dokumentation für jede medizinische KI
3. verbindliche Sicherheitsvorkehrungen und Absprungpunkte für die gesicherte Beteiligung von medizinischen Fachkräften
Die Forschenden erläutern genau, wann und wie die genannten Komponenten im Produktionszyklus einer KI-Anwendung berücksichtigt werden sollten. Sie halten eine Beteiligung von Gesundheitsdienstleister:innen, medizinischen Fachkräften, Entwickler:innen und Hersteller:innen sowie Patientenvertretungsgruppen in jeder Phase des Lebenszyklus einer medizinischen KI für unabdingbar. „Wir wollen mit dem Modell eine Diskussion anstoßen, damit entsprechende Regularien möglichst bald Einzug in die Praxis halten und von Start-Ups und Entwickler:innen angewendet werden können“ sagt Dr. Dr. Lena Zuchowski, Senior Lecturer für Wissenschaftsphilosophie an der Universität Bristol. Letztlich fordern die Forschenden, dass der Erfolg und die Zuverlässigkeit von medizinischer KI genauso streng wie andere Behandlungsmethoden mit klinischen Experimenten und Studien belegt werden müssen.