Verbund

VUKIM - Verantwortungsvoller Umgang mit KI in der Medizin

Die Digitalisierung wird in absehbarer Zeit weite Teile der Gesundheitsforschung und Gesundheitsversorgung nachhaltig verändern. Eine wesentliche Voraussetzung für eine sachgerechte Information und reflektierte Auseinandersetzung der Gesellschaft mit der Digitalisierung, Big Data-Anwendungen, Künstlicher Intelligenz und der Medizininformatik in Forschung und Versorgung ist die sorgfältige Analyse von Chancen und Risiken für den weiteren Umgang.

Das Verbundprojekt VUKIM ist Teil der BMBF-Fördermaßnahme „Forschung zu ethischen, rechtlichen und sozialen Aspekten (ELSA) der Digitalisierung, von Big Data und Künstlicher Intelligenz in der Gesundheitsforschung und -versorgung“. Ziel dieser Maßnahme ist es, die Auswirkungen der neuen Technologien auf Wissenschaft und Gesellschaft zu untersuchen und auf einen gesellschaftlich akzeptierten und verantworteten Rahmen für ihren Einsatz hinzuwirken. Ziel des Verbundes VUKIM ist, den verantwortungsvollen Umgang mit künstlicher Intelligenz (KI) in der Medizin aus verschiedenen Perspektiven zu untersuchen. Dazu werden potentielle Risiken von zukünftigen KI-Anwendungen und die geltende Regulierung kritisch analysiert. Zudem werden Beschäftigte im Gesundheitswesen und Laien eingehend zum Einsatz von KI befragt und Experten-Workshops durchgeführt.

Die Forschenden gehen dabei Fragen nach wie: Wie verändert KI unser (Arbeits-) Leben? Können KI-basierte Technologien unser Wertegefühl beeinflussen? Wie gehen Beschäftigte in Gesundheitsberufen mit KI-basierten Empfehlungsvorschlägen um, die der eigenen klinischen Erfahrung widersprechen? Wie kann KI aufgebaut sein, damit ein verantwortungsvoller Umgang mit ihr sichergestellt und vereinfacht wird?

Die Ergebnisse des Verbundvorhabens liefern die Grundlage für Leitlinien als Orientierungs- und Entscheidungshilfe für verschiedene Interessensgruppen.

Teilprojekte

Bioethische Aspekte und Koordination

Förderkennzeichen: 01GP2114A
Gesamte Fördersumme: 268.417 EUR
Förderzeitraum: 2021 - 2025
Projektleitung: Dr. Martin Hähnel
Adresse: Universität Bremen, Fachbereich 09 Kulturwissenschaften, Institut für Philosophie
Enrique-Schmidt-Str. 7
28359 Bremen

Bioethische Aspekte und Koordination

Ziel des Verbundprojektes ist es, aus erkenntnis- und medizintheoretischer, soziologischer, bioethischer und rechtswissenschaftlicher Perspektive Formen des verantwortungsvollen Umgangs mit künstlicher Intelligenz in der Medizin zu untersuchen. Das Teilprojekt versucht aus ethisch-normativer Perspektive die verschiedenen Anwendungsmöglichkeiten von Künstlicher Intelligenz im Gesundheitsbereich zu erfassen und neu zu bewerten. Vorrangiges Ziel ist es dabei, einen ethischen Evaluationsrahmen bzw. Kodex für eine kontextsensitive und in normativer Hinsicht multikriterial gewichtete KI-Medizinethik zu entwickeln. Dieser Rahmen umfasst allerdings nicht nur die Eruierung, Formulierung, Selektion und Kommentierung normativer Standards für neuartige KI-Systeme in der Medizin, sondern auch deren anwendungsorientierte Einbettung in einen weiteren Bewertungskontext und Handlungshorizont ("embedded ethics approach"). Neben wegweisender philosophisch-ethischer Grundlagenforschung zur Künstlichen Intelligenz, aus welcher Leitlinien als Orientierungs- und Entscheidungshilfe für Stakeholder hervorgehen sollten, möchte das Teilprojekt insbesondere auch einen aktiven Beitrag zur empirischen Ethik und deren praktischer Implementierung leisten.

Soziale Aspekte

Förderkennzeichen: 01GP2114B
Gesamte Fördersumme: 301.861 EUR
Förderzeitraum: 2021 - 2025
Projektleitung: Prof. Dr. Sabine Pfeiffer
Adresse: Friedrich-Alexander-Universität Erlangen-Nürnberg, Lehrstuhl für Soziologie (Technik – Arbeit – Gesellschaft) am Nuremberg Campus of Technology (NCT)
Fürther Str. 246 c
90429 Nürnberg

Soziale Aspekte

Ziel des Verbundprojektes ist es, aus erkenntnis- und medizintheoretischer, soziologischer, bioethischer und rechtswissenschaftlicher Perspektive Formen des verantwortungsvollen Umgangs mit künstlicher Intelligenz (KI) in der Medizin zu untersuchen. Das Teilprojekt blickt aus einer soziologischen und sozio-technischen Perspektive auf die Anwendung von KI im Gesundheitswesen und den sozialen Folgen und Voraussetzungen. Ziel ist es zu untersuchen, wie und unter welchen Bedingungen ethische Prinzipien in der Gestaltung von KI-Systemen und in ihrem Umgang im diagnostischen und klinischen Alltag gelebt werden (können). Dies wird auf den beiden Ebenen der Organisation und der konkreten Arbeitsbedingungen untersucht und modellhaft beschrieben, wie eine Anwendung der ELSA-Prinzipien im Kontext von KI selbst in einem hektischen Klinikalltag gelingen kann.

Rechtliche Aspekte

Förderkennzeichen: 01GP2114C
Gesamte Fördersumme: 299.842 EUR
Förderzeitraum: 2021 - 2025
Projektleitung: Prof. Dr. Timo Rademacher
Adresse: Leibniz Universität Hannover, Juristische Fakultät, Juniorprofessur für Öffentliches Recht und das Recht der neuen Technologien
Königsworther Platz 1
30167 Hannover

Rechtliche Aspekte

Ziel des Verbundprojektes ist es, aus erkenntnis- und medizintheoretischer, soziologischer, bioethischer und rechtswissenschaftlicher Perspektive Formen des verantwortungsvollen Umgangs mit künstlicher Intelligenz in der Medizin zu untersuchen. Das Ziel des rechtlichen Teilprojekts VUKIM-R ist es, in einem ersten Teil den bestehenden und voraussichtlich alsbald um wichtige neue Komponenten ergänzten Regulierungsrahmen von KI in der Medizin rechtswissenschaftlich so gründlich zu vermessen, dass für die beteiligten Akteure (Krankenhäuser, Ärzte und Ärztinnen, Patieninnen und Patienten) nachvollziehbare Leitlinien für den verantwortungsvollen Einsatz von Medizin-KI formuliert werden können. Der zweite Teil des Projekts baut dazu komplementär auf der Erkenntnis auf, dass medizinische Entscheidungen nicht nur zunehmend durch den Einsatz von Technologie beeinflusst werden und deshalb (neu) regulierungsbedürftig sind, sondern dass sie angesichts der grundrechtlichen Sensibilität der Fragestellungen unter ständigem normativem Bewertungs- und Rechtfertigungsdruck stehen, verbunden mit der Erwartung, dass die zahlreichen gesetzlichen Vorgaben eingehalten werden. Maschinen könnten auch insoweit helfen: d. h. nicht nur – beispielsweise – bessere Diagnosen liefern, sondern zugleich daran mitwirken, dass die in den hybriden Entscheidungsystemen getroffenen Entscheidungen auch rechtmäßig sind. In anderen Sektoren, besonders im Datenschutzrecht, ist eine solche Architektur als Law by Design bekannt und eng verwandt mit Legal Tech-Ansätzen. Die hier interessierende Frage ist, ob dieses Konzept einer Rechtmäßigkeit und Compliance sichernden Technologie auch auf Medizin-KI übertragbar ist.

Erkenntnis und medizintheoretische Aspekte

Förderkennzeichen: 01GP2114D
Gesamte Fördersumme: 283.753 EUR
Förderzeitraum: 2021 - 2024
Projektleitung: Dr. Rico Hauswald
Adresse: Technische Hochschule Dresden, Philosophische Fakultät, Institut für Philosophie, Professur für Theoretische Philosophie
Helmholtzstr. 10
01069 Dresden

Erkenntnis und medizintheoretische Aspekte

Ziel des Verbundprojektes ist es, aus erkenntnis- und medizintheoretischer, soziologischer, bioethischer und rechtswissenschaftlicher Perspektive Formen des verantwortungsvollen Umgangs mit künstlicher Intelligenz in der Medizin zu untersuchen. Der Schwerpunkt des an der TU Dresden angesiedelten erkenntnis- und medizintheoretischen Teilvorhabens liegt speziell auf Fragen der epistemischen Normativität, die durch medizinische KI-Systeme aufgeworfen werden. Ein Forschungsdesiderat besteht darin, dass die normativen Beziehungen zwischen medizinischen Expertinnen und Experten, Patientinnen und Patienten, anderen Stakeholdern und den seit einiger Zeit zunehmend als weitere relevante Akteure im medizinischen Feld in Erscheinung tretenden KI-Systemen in epistemischer Hinsicht erst sehr unzureichend verstanden sind. Das Projekt möchte dazu beitragen, dieses Desiderat zu beheben. Mit den Mitteln der normativen und sozialen Erkenntnistheorie sowie der Medizintheorie zielt das Projekt im ersten Projektbereich insbesondere darauf ab zu analysieren, welcher Art das epistemische Vertrauen ist, das medizinischen KI-Systemen gegenüber angemessen ist, welche epistemischen Verhaltensweisen angesichts epistemischer Herausforderungen (wie dem Black-Box-Charakter von KI-Systemen und dem Problem verzerrter Trainingsdatensätze) im Umgang mit ihnen geboten sind und wie medizinische KI-Systeme designt werden sollten, um einen epistemisch tugendhaften Umgang mit ihnen zu ermöglichen. Im zweiten Projektbereich sollen die Ergebnisse des ersten Bereichs dann zum einen auf solche KI-Systeme, die zur Unterstützung der Arbeit medizinischer Expertinnen und Experten konzipiert sind, zum anderen auch auf solche Systeme, die direkt für die Nutzung durch medizinische Laien bestimmt sind, angewandt werden. Das Projekt möchte damit einen Beitrag dazu leisten, die Rolle besser zu verstehen, die medizinische KI-Systeme als neue Elemente in unserer arbeitsteiligen epistemischen Praxis einnehmen und einnehmen sollten.