Maschinelles Lernen braucht den menschlichen Blick

Maschinelles Lernen braucht den menschlichen Blick

Bei der künstlichen Intelligenz (AI) spielt die händische Dateneingabe keine Rolle. Die Maschinen lernen von eingespeisten Datensätzen. Das Erkennen prognostischer Marker erfordert dagegen weiterhin die Fachkompetenz der RadiologInnen.

  • Präsentationstag:
    17.01.2019 0 Kommentare
  • Autor:
    ch/ktg
  • Sprecher:
    Georg Langs, Medizinische Universität AHK, Wien
  • Quelle:
    Internationales MRT Symposium 2019

„Wir verstehen die Technik der AI immer besser“, führte Georg Langs von der Medizinischen Universität in Wien in das Thema ein. Der Computer werde mit Datensätzen von Erkrankungs-Beispielen gefüttert. „Das ist besser als bestimmte Informationen händisch einzugeben.“ Die Maschine ordnet dann jedes neu eingegebene Beispiel anhand der bereits vorhandenen Daten ein.

Der Entwicklung bei den Computerspielen habe man es zu verdanken, dass Grafikkarten so ausgereift sind, dass sie auch für die medizinische Anwendung geeignet sind. Die Datenverarbeitung der Lernbeispiele dauert so nur noch Tage bis wenige Wochen. Die hinterlegten Algorithmen erlauben eine optimale Darstellung.

Aktuelle Schwachpunkte

Maschinelles Lernen braucht die Fachkompetenz der RadiologInnen. Sie müssen die relevanten Marker erkennen und ihr Vokabular entsprechend erweitern.

Geeignete Marker finden: Die Diagnostik fokussiert nicht allein auf den Status Quo einer Erkrankung. Aussagen zum Krankheitsverlauf helfen den Behandlungsprozess zu optimieren. AI liefert eine Fülle an Merkmalen, die als Muster dienen können. Hier ist es entscheidend die für die Diagnostik relevanten Marker zu extrahieren. „Wenn wir das hinbekommen, ist das ein guter Fortschritt“, so Langs.

Mit Hilfe von AI lässt sich Arbeitszeit einsparen, da man sich schneller auf die relevanten Daten fokussieren kann. Die Einbindung von Daten aus der Klinik, z.B. Laborbefunde, ist eine Herausforderung. Hier sind die RadiologInnen gefordert nicht nur Marker und Muster aus den AI-Datensätzen zu erkennen, sondern diese auch mit den klinischen Befunden zusammenzubringen.

Vokabular erweitern: Die maschinellen Datensätze detektieren Auffälligkeiten, die relevant sind, aber bisher noch nicht in der Diagnostik berücksichtigt wurden. RadiologInnen müssen eine standardisierte Sprache finden, um die Veränderungen verständlich zu beschreiben und einzuordnen.

Glioblastom

Zudem darf man sich nicht auf die Läsion allein fokussieren. Bei der zerebralen Bildgebung riet Langs beispielsweise: „Schauen Sie sich nicht nur die Tumor-Läsion an, sondern das gesamte neuronale Netzwerk.“

Bei Glioblastomen sind Rezidive häufig. Mit AI lassen sich bereits Monate vorher Anomalien im neuronalen Netzwerk detektieren. „Diese müssen wir in den zeitlichen Kontext einbetten“, so Langs. Der Zeitfokus müsse auch berücksichtigen, dass nicht nur Krankheiten neuronale Muster verändern können, sondern auch normale Alterungsprozesse. Wie das aussehen kann, demonstrierten Jakab et al. 2014 mit fMRT-Datensätzen der fetalen Gehirnentwicklung. Merkmale der normalen Entwicklung können als Vergleichsset für die Beurteilung von Krankheiten dienen, erklärte Langs.

Retinales Tracking

Als weiteres Beispiel nannte der Referent die retinale Bildgebung. Manche Augenerkrankungen gingen mit einer Schwellung einher. Dies führe häufig dazu, dass Betroffene regelmäßig Medikamente ins Auge gespritzt bekommen. Die Therapie ist teuer und wird von vielen PatientInnen als unangenehm empfunden. „Da wäre es gut, wenn wir Responder früher erkennen, um unnötige Therapien zu vermeiden.“

Fazit

Artificial Intelligence hilft Erkrankungen schneller und genauer einzuordnen. „AI zeigt uns, dass eine Krankheit in viele Subtypen unterteilt werden kann.“ Mit AI lassen sich Phänotypen besser identifizieren, Behandlungsprozesse können optimiert und neue Medikamente passgenauer entwickelt werden.

Sie müssen sich einloggen, um Kommentare zu verfassen.