RöKo 2018 – Aktuelles Recht passt nicht zu Diagnosesystemen mit Künstlicher Intelligenz
Lernende Systeme sollen die Diagnostik verbessern. Doch was passiert, wenn die richtige Diagnose so selten ist, dass sie vom System wegen Unwahrscheinlichkeit nicht ausgewählt wird?
-
Präsentationstag:09.05.2018 0 Kommentare
-
Autor:ch/ktg
-
Sprecher:Susanne Beck, Universität Hannover
-
Quelle:Deutscher Röntgenkongress 2018
„Ich möchten Ihnen anhand eines Beispiels verdeutlichen, mit welchen Problemen wir hier konfrontiert sind“, sagte Susanne Beck von der juristischen Fakultät der Leibniz Universität in Hannover.
Beispielfall
Ein Patient mit einer seltenen Erkrankung kommt zur Erstdiagnostik in die Radiologie. Der dortige Befunder ist sehr erfahren und hat ausreichend Zusatzwissen, um diese seltene Erkrankung als Differentialdiagnose in Betracht zu ziehen.
Die Abteilung nutzt bei der Befundung ein Diagnose-System mit künstlicher Intelligenz (KI). Dieses bietet dem Radiologen die seltene Erkrankung nicht als Differentialdiagnose an. Der Radiologe folgt bei der weiteren Diagnostik der Auswahl des KI-Systems. Dann bleibt die Erkrankung des Patienten unerkannt. „Studien haben gezeigt, dass es sehr schwer ist, sich einer maschinellen Vorentscheidung zu widersetzen.“
Das KI-System entscheidet nach erlerntem Standardwissen. Soll das radiologische Zusatzwissen berücksichtigt werden, muss der Befunder es selbst einbringen.
Eine Zuhörerin wollte wissen, ob man nicht sogar haften müsse, wenn kein KI-System eingesetzt werde. Aus Studien sei ja bekannt, dass die Diagnostik durch KI besser werde. „Das ist grundsätzlich denkbar“, antwortete Beck.
Herausforderungen
Unterstützen KI-Systeme bei der Diagnostik, greifen traditionelle Lösungen nicht mehr: Die Verantwortung liegt nicht mehr beim Befunder allein. Der klassische Datenschutz setzt den Rahmen zu eng, damit die enormen Datenmengen in ein lernendes System rechtsicher eingebracht und verarbeitet werden können.
Verantwortung tragen auch die Kliniken. Sie entscheiden, welches System gekauft wird. Darüber hinaus beruhen die Ergebnisse der KI-Systeme auf den eingespeisten Daten, je mehr, umso besser wird die Auswertung. Aber: Das gilt nur, wenn die Programmierung auch stimmt. KI-Maschinen sind komplex, eine fehlerhafte Programmierung durchaus möglich. „Das müssen Sie aber erst einmal nachweisen können“, so Beck.
Lösungsansätze für die Haftung
Die Verantwortlichkeit für Fehldiagnosen verteilt sich bei KI-Systemen auf viele Schultern: Klinikleitung, ProgrammiererInnen, befundende RadiologInnen und die TechnikerInnen, die die Maschinen gebaut haben. Rechtlich gibt es unterschiedliche Möglichkeiten damit umzugehen.
Erlaubtes Risiko: „Wer von neuen Entwicklungen profitieren will, muss auch bereit sein Risiken in Kauf zu nehmen“, erklärte Beck. Das erlaubte Risiko könne kollektiv von der Gesellschaft getragen werden, wenn KI-Systeme als allgemeine Bereicherung angesehen werden. Die Verantwortung für Schäden läge dann nicht mehr bei einer/em einzelnen BefunderIn, sondern allen.
Klinik- oder Produkthaftung: Bei diesen Haftungsarten müssten das Verschulden beziehungsweise der Produktfehler erst nachgewiesen werden, sonst greift die Haftung nicht.
Gefährdungshaftung: Grundsätzlich wäre auch eine Versicherung denkbar, die alle an der Diagnostik beteiligten Personen und Geräte absichert.
Human in the loop
Zwar war Beck überzeugt: „Wir brauchen immer auch einen Menschen im System, der Verantwortung übernimmt“, räumte aber ein, dass die KI-Systeme so komplex seien, dass kein Radiologe sie im Detail durchdringen könne. Der/die Verantwortliche werde zum „Haftungsknecht“.
Vom Auditorium kam die Anmerkung, dass nur wer Verantwortung trage auch bereit sei zu lernen und sich Zusatzwissen anzueignen. „Das ist sehr wahr. Wir müssen uns genau überlegen, ob wir auf die individuelle Verantwortung verzichten wollen“, bestätigte Beck.