RöKo 2019 – Soll ein Fotobuchhersteller den Gesundheitszustand seiner Kunden kennen?
Ranga Yogeshwar erläuterte in seiner Key Note zu Künstlicher Intelligenz, warum diese Frage nicht abwegig ist – und warum es weiter Radiologen geben wird.
-
Präsentationstag:30.05.2019 0 Kommentare
-
Autor:kf/ktg
-
Sprecher:Ranga Yogeshwar, Hennef
-
Quelle:100. Deutscher Röntgenkongress 2019
„Radiologen werden ein neues Tool bekommen, der Umgang mit diesem Tool ist das Entscheidende“, sagte Yogeshwar nach einem Parforceritt durch die Höhen und Täler der Künstlichen Intelligenz.
Die Entwicklungshelfer
„Sie tragen in Ihrer Hosentasche mehr Rechenkapazität mit sich herum, als die Riesenrechenzentren in den 1980er Jahren“, so Yogeshwar mit dem Bild eines Handys im Hintergrund. Er benannte damit die Innovation, die Künstliche Intelligenz überhaupt erst ermöglicht hat: die immer leistungsfähigere Elektronik.
Faktor 2 sei, dass die Entwicklung synchron weltweit geschehe. „Wir haben ein globales Phänomen“, sagte Yogeshwar.
Außerdem sei man inzwischen in der Lage neuronale Netze zu simulieren. Lange habe man zusammengehörende, aber sehr unterschiedlich aussehende Strukturen nicht zuordnen können. „Jetzt kann man’s“, so Yogeshwar.
Fortschritt durch Fachfremde
Yogeshwar erläuterte Forschungsansätze, die zeigen, dass die KI-Diagnostik zum Teil besser funktioniert als die des Arztes. Ein Stanford-Projekt dazu hatte das KI-System mit über 200.000 Bildern gefüttert. Einer der beteiligten Wissenschaftler des Stanford Computer Science Center, Pranav Rajpurar, sei so alt wie Yogeshwars Sohn. „Im Moment findet Fortschritt der Medizin durch Fachfremde statt“, stellte Yogeshwar fest. Sie teilen nicht unbedingt die Grundsätze von MedizinerInnen.
Es sei von einer Unsicherheit der Gesellschaft gegenüber dem Umgang mit KI in den kommenden Jahren auszugehen. „Dieses Moment, dass wir nicht wissen, kommt etwas von einem Menschen oder einer Maschine, dass werden wir in den nächsten Jahren haben – wir werden nicht genau wissen, wo wir sind“, so Yogeshwar.
Leben in der Echozone
Ein Riesenthema der KI sei Personalisierung. Dies führe einerseits dazu, dass Menschen nur noch mit Themen in Berührung kämen, die sie ohnehin interessierten – also in ihrer Echozone blieben. Andererseits könne KI aber auch direkt in ihre Leben eingreifen. Yogeshwar nannte als Beispiel ein eBook mit integrierten Kameras, die Augenbewegungen ihrer LeserInnen auswerten. Das Buch könne selbst umblättern. Es könne aber auch dem Verlag rückspiegeln, an welcher Stelle LeserInnen aussteigen. Die Konsequenz könnte ein Umschreiben sein. In Verknüpfung mit anderen LeserInnendaten könnte sich das Buch weiter personalisieren lassen. „Irgendwann ruft sie ihr Buch vielleicht an und sagt ‚Wir haben Auffälligkeiten entdeckt und bitten Sie zum Neurologen zu gehen – den Termin haben wir bereits gemacht’“. Im Kalender stehe der Termin dann schon.
Zukunftsmusik? „Nein“, sagte Yogeshwar. Die Parkinson Voice Initiative nutze bereits die Bewegungssensoren von Smartphones, um am Gang einer Person zu erkennen, ob sie von Parkinson betroffen sei. Das Programm könne Parkinson bereits vor den ersten klinisch ermittelbaren Symptomen festmachen, berichtete Yogeshwar mit Bezug auf den Oxford-Wissenschaftler und Initiator des Projekts Max Little. Auch die radiologischen Daten würden in Zukunft mit vielen anderen Daten kombiniert werden.
Datenkombinationen
Die großen datennutzenden Unternehmen wie Goodle oder Amazon seien längst auf diesen Zug aufgesprungen und verwendeten Userdaten in diversen Kombinationen. User machen mit, implizierte Yogeshwar mit Blick auf Siri und Alexa: „Wir sind hier ja in Leipzig – wenn Sie der Stasi vor 30 Jahren gesagt hätten, ‚Du musst nur lange genug warten, denn installieren die Leute ihre Mikrophone von selbst’, das hätte keiner geglaubt“.
Google habe ein Patent angemeldet, dass Messungen betrifft, wie lange Menschen ihre Zähne putzen. Amazon will aus Sprachdaten „sniffer words“ identifizieren, die beispielsweise auf Streit in einer Familie hinweisen.
Die Menge an Daten schafft einen Wettbewerbsvorteil. Google könne beispielsweise eine Versicherung anbieten, die günstiger ist, weil sie das Risiko jedes einzelnen Versicherten erkennt und individuell bepreist. Führen könne das ganze zu Behavioral Policy Pricing, also einer Preisgestaltung je nach Lebensführung. Yogeshwar charakterisierte die möglichen normativen Kräfte dieses Ansatzes. Menschen würden dauern beobachtet und wüssten darum: „Wenn Sie jemand beim Joggen aufs gute Wetter ansprechen, kann es sein, dass er sagt ‚Ich muss joggen, sonst gehen meine Krankenversicherungspunkte hoch’“.
Privatheit (und das Fotobuch)
Yogeshwar befürwortet die Nutzung von Daten. „Das kann man schaffen und trotzdem Privatheit halten“, unterstrich er. Man müsse sich aber mit dem Thema beschäftigen. Er berichtete von einem Fotobuchhersteller, der sich mit dem Thema auseinandersetzt. Eine Nature Medicine Publikation zeigt, dass sich Zustände wie Depressionen, Alkoholprobleme oder bestimmte genetische Eigenschaften anhand des Gesichtsphänotyps erkennen lassen (Gurovich 2019). Der Fotobuchhersteller könnte die Daten seiner Kunden also grundsätzlich danach auswerten. „Soll der Fotobuchhersteller den Gesundheitszustand seiner Kunden kennen oder nicht?“, damit müsse man sich beschäftigen.
In China gebe es „Smile-to-Pay“, also Bezahlvorgänge durch Gesichtserkennung der (lächelnden) Zahlenden. Die chinesische Firma Face++ ermöglicht es zu erkennen, ob Schüler konzentriert zuhören.
Man könnte perspektivisch anhand der Blickrichtung eines Piloten erkennen, ob er alle relevanten Instrumente im Blick hat und Flugschüler daraufhin trainieren.
„Es hängt immer von der Anwendung ab – das ist eine sehr spannende Debatte, die wir gerade erleben“, so Yogeshwar.
Data Bias
Völlig intransparent sei, mit welchen Daten die Systeme angelernt werden. „Wir haben bis heute keine solide Datenvalidierung“, kritisierte Yogeshwar. Google habe beispielsweise Afroamerikaner als „Gorillas“ identifiziert – aus dem einfachen Grund, weil sie das System in der Lernphase mit zu vielen weißen amerikanischen Gesichtern gefüttert hatte. Daraufhin habe Google alle Gorillas aus dem System entfernt. Warum? Weil selbst Google nicht klar war, wie die KI-Systeme im Detail funktionieren. „Wir müssen unsere KI-Systeme unbedingt evaluieren“, forderte Yogeshwar.
Verantwortung und Ethik
Schließlich sei zu klären, wer die Verantwortung für die Fehlinterpretation von Daten trage: Mensch oder Maschine. „Die Regeln müssen wir setzen – der Mensch muss das letzte Wort haben!“, so Yogeshwar. Ansonsten komme man in eine Welt des digitalen Orakels, in der er nicht sein möchte.
Schließlich müssten Menschen diejenigen sein, die wählen, was sie beispielsweise über ihren Gesundheitszustand wissen möchten und sich klar werden, was die Information mit ihnen machen könne. „Was machen wir, wenn wir im Zug der Dauerdiagnostik in rauschende Angst verfallen?“, fragte Yogeshwar. Die Gesellschaft müsse auch über diese ethischen Fragen nachdenken.
Insgesamt sprach sich Yogeshwar klar für die Nutzung von KI aus – sie berge großes Potential. „Die hohe Kunst ist, den Weg dahin stabil hinzubekommen“, so Yogeshwar abschließend. Radiologen biete die KI ein neues Tool – der Umgang damit sei das Entscheidende.
Referenz
Gurovich Y et al.
Identifying facial phenotypes of genetic disorders using deep learning.
Nat Med. 2019;25:60-64