Röko 2021 – Zum Rechtsrahmen der Künstlichen Intelligenz

Röko 2021 – Zum Rechtsrahmen der Künstlichen Intelligenz

Was ist, juristisch gesehen, wirklich KI? Welche Daten liegen den Algorithmen zugrunde? Und wer haftet bei Fehlentscheidungen? Wichtige Fragen, für deren Antworten auch engagierte RadiologInnen gebraucht werden.

  • Präsentationstag:
    13.05.2021 0 Kommentare
  • Autor:
    biho/ktg
  • Sprecher:
    Urs Fabian Frigger, Universitätsklinikum Mannheim
  • Quelle:
    RöKo 2021

Urs Fabian Frigger vom Universitätsklinikum Mannheim, diskutierte beim RöKo 2021 aktuelle juristische Fragen rund um die KI in der Radiologie.

Begriffsbestimmung KI

Zahlreiche KI-basierte Tools finden sich mittlerweile in der Radiologie. „KI ist ein Modewort“, stellte Moderator Benjamin Fritz, Rheinlandärzte Radiologie, fest: „Wann ist es nur Massendatenverwaltung, wann ist es wirklich KI?“ – „Juristisch gesehen steht nicht die KI an sich im Fokus, sondern das ‚Maschinelle Lernen‘“, stellte Frigger klar (Hacker NJW 2020 S.2142 f). Die juristische Literatur schaut vorwiegend auf die Unvorhersehbarkeit und Intransparenz der KI.

Die Ethikleitlinien der EU stellen hohe Ansprüche an eine KI: Die mit KI entwickelten Algorithmen sollen sicher, verlässlich und robust sein. Privatsphäre und Datenqualitätsmanagement müssen gewährleistet sein. Doch noch fehlen die Normen, nach denen man sich richten kann.

Datenqualität: Verbindliche Normierung durch Fachgesellschaften

Nicht nur die programmierten Algorithmen, sondern auch die Daten, mit denen sie trainiert werden, müssen juristisch betrachtet werden:

  1. Wenn die Daten aus internationalen Quellen stammen, ist ihre Qualität vergleichbar mit Daten aus Deutschland?
  2. Ist die Qualität der Trainings- und Validierungsdaten dokumentiert?

Eine Normierung der Daten ist daher auch im Hinblick auf künftige politische Entscheidungen zwingend. Frigger sagte klar: „Die Normierung sollte von radiologischer Seite kommen. Es geht um die ärztliche Selbstverwaltung. Ärztekammer und Krankenkassenvereinigungen sind wichtige Player. Auf die hört die Politik. Engagieren Sie sich!“ Als gutes Beispiel nannte Frigger die Internationale Radiomics-Plattform. „Hier finden sich klare Vorgaben zur Datennutzungsqualität.“

Medizinischer Datenschutz

Die zentralen Grundsätze des Datenschutzrechts, wie Zweckbindung, Datensparsamkeit, Einwilligung und Transparenz ist bei den riesigen Datenmengen kaum einzuhalten. In Deutschland ist die Verarbeitung personenbezogener Gesundheitsdaten grundsätzlich untersagt. „Eventuell stellt der Artikel 89 der DSGO eine Lösung dar“, sagte Frigger. „Demnach können personenbezogene Daten zu wissenschaftlichen Forschungszwecken herangezogen werden.“ Insgesamt sei die Lage aber sehr unübersichtlich. Hinzu kommen Fragen wie: Ist eine Anonymisierung der Daten möglich? Was ist mit dem „Recht aufs Vergessenwerden“, von dem PatientInnen in Bezug auf ihre Daten Gebrauch machen können?

Produzent oder AnwenderIn: Wer haftet wann?

KI-Systeme, die strukturierte Befundungsberichte erstellen, den Workflow erleichtern, oder die technische Durchführung unterstützen, sind wenig haftungsträchtig. Ein relativ klassisches Haftungssystem stellt hingegen eine die ärztliche Entscheidung unterstützende KI dar: Bei Fehlentscheidungen haften am ehesten die ÄrztInnen. Anders sieht es bei einer Alleinentscheidung der KI aus: Hier entfiele die Arzthaftung. „Man könnte also sagen: Je mehr die KI den Ärztinnen und Ärzten abnimmt, umso eher haftet der Hersteller,“ sagte Frigger.

Die Produzenten haften üblicherweise bei mangelhafter Fertigung oder einem fehlerhaften Produkt (ProdHaft-RL 85/374 EWG). Ein Fehler der selbstlernenden Prozesse wird durch die Haftung aber bisher nicht erfasst – es sei denn, es liegt eine fehlerhafte Programmierung zugrunde.

Beim Instruktionsfehler – wenn also die AnwenderInnen nicht ausreichend über die Nutzung des Produktes informiert wurden – liegt die Beweislast beim Geschädigten. Das könnte problematisch werden, denn: Mit einer selbstlernenden KI ändern sich Funktionsweisen und Anwendungsprofil fortlaufend. Die Selbstlernprozesse sind jedoch nicht ausreichend analysiert; sie finden in einer Black Box statt. Für den Geschädigten ergeben sich hier möglicherweise Beweislastprobleme.

„Die haftungsrechtlichen Regelungen der EU sind schon älter, und ihre Anwendung auf KI ist umstritten“, sagte Frigger. „Die Europäische Kommission stellt hier aber klarstellende Regelungen in Aussicht.“

Fazit: Wer gestalten will, muss sich engagieren

Frigger stellte klar: Noch gibt es viele Unsicherheiten, aber auch Raum zur Gestaltung in Bezug auf KI und die künftige Gesetzgebung. Die Definition einer KI ist noch nicht in Stein gemeißelt; die Haftungsfrage noch nicht reguliert; die Normierung der Daten steht erst am Anfang. Hier können RadiologInnen mitgestalten und Einfluss auf Entscheidungsträger nehmen.

Referenzen

Hacker P. Europäische und nationale Regulierung von Künstlicher Intelligenz NJW 2020 S. 2142 f.

Ethikleitlinien für eine vertrauenswürdige KI. Veröffentlicht am 18.11.2019 vom Amt für Veröffentlichungen der Europäischen Union.

Overhoff D et al. The International Radiomics Platform - An Initiative of the German and Austrian Radiological Societies - First Application Examples. Rofo 2021;193(3):276-288. English, German.

Sie müssen sich einloggen, um Kommentare zu verfassen.

Ihr direkter Draht zu uns