ETIM 2018: Ist es möglich, dass Algorithmen radiologische Bilder mit übermenschlicher Präzision interpretieren?

ETIM 2018: Ist es möglich, dass Algorithmen radiologische Bilder mit übermenschlicher Präzision interpretieren?

Algorithmen können auf der Basis von Deep Learning hochpräzise Vorhersagen liefern. Aktuell sind diese Algorithmen jedoch noch sehr von der Qualität der Daten und der Annotationen abhängig.

  • Datum:
    23.03.2018
  • Autor:
    ska/aca
  • Sprecher:
    Dr. Ben Glocker
  • Quelle:
    ETIM 2018

Ben Glocker, Senior Lecturer am Imperial College in London, erläuterte in seinem Vortrag auf dem ETIM-Kongress zunächst grundlegende Informationen zum Begriff der künstlichen Intelligenz (KI). Die Technologien, die als KI bezeichnet werden, basieren derzeit fast alle auf maschinellem Lernen. Dabei werden Daten durch medizinische Experten erhoben und in eine Blackbox gegeben. Das Ergebnis davon ist eine automatische Mustererkennung. Die Frage, die sich laut Glocker stellt, ist diejenige nach der Technologie in der Blackbox.

Vorhersage durch Entscheidungsbäume

In der Vergangenheit sind beim maschinellen Lernen hauptsächlich Entscheidungsbäume zum Einsatz gekommen, wie Glocker ausführt. Die Entscheidungsfindung anhand eines Entscheidungsbaums entspricht zum Großteil menschlichen Entscheidungsprozessen. Je tiefer der Baum dabei ist, desto besser sind die Vorhersagen, die durch diesen Baum generiert werden können. Noch präziser können Vorhersagen werden, wenn verschiedene Entscheidungsbäume kombiniert werden. Man spricht dann von sogenannten Random Forests, zu Deutsch in etwa „Zufallswälder“. In einem Prozess, der als Training bezeichnet wird, werden diese Entscheidungsbäume dann mit Rohdaten gefüttert, wobei die richtige Lösung, die „ground truth“, stets bekannt ist. Dadurch wird der Algorithmus darauf getrimmt, jeweils die gewünschte Antwort hervorzubringen.

Mehr Präzision durch Deep Learning

In der aktuellen Forschung wird die Technologie der Entscheidungsbäume immer mehr durch die Technologie des Deep Learning auf der Basis künstlicher neuronaler Netzwerke verdrängt. Solche Netzwerke bestehen aus einer bestimmten Anzahl an Neuronen, die die Breite des Netzwerkes festlegen, sowie aus einer bestimmten Anzahl an Schichten, die die Tiefe des Netzwerkes darstellen. Jeder Entscheidungsbaum kann in ein neuronales Netzwerk umgewandelt werden. Tiefere Entscheidungsbäume ergeben dabei breitere Netzwerke. Die Tiefe des Entscheidungsbaumes hängt allerdings nicht mit der Tiefe des neuronalen Netzwerkes zusammen.

Semantische Segmentierung mittels Deep Learning

In seiner Arbeitsgruppe hat Glocker den auf Deep Learning basierenden Algorithmus DeepMedic zur semantischen Segmentierung von radiologischen Aufnahmen entwickelt. Bei der semantischen Segmentierung geht es darum, verschiedene Bereiche eines Tumors zu identifizieren, um beispielsweise nekrotische Anteile von infiltrierenden Anteilen des Tumors abzugrenzen. Im Gegensatz zur reinen Detektion von Abnormitäten gibt die semantische Segmentierung den Abnormitäten eine Bedeutung. Mithilfe des Algorithmus lassen sich laut Glocker neben der semantischen Segmentierung von Tumoren auch andere Pathologien detektieren. Beispielsweise sei eine automatisierte Detektion von Schädel-Hirn-Traumata möglich.

Mittlerweile gibt es zahlreiche Beispiele für die Anwendung künstlicher neuronaler Netzwerke für die medizinische Bilderkennung. Für die kardiale Bildgebung ist gezeigt worden, dass die automatisierte Detektion genauso gute Ergebnisse liefert wie manuelle Methoden. Bei Ganzkörperaufnahmen können eine automatische Segmentierung und eine Annotation der Organe vorgenommen werden. Ebenso kann in Ganzkörperaufnahmen eine Detektion von Lymphknoten durchgeführt werden, was insbesondere für die Bildgebung bei onkologischen Erkrankungen relevant ist.

Große Bedeutung der Datenqualität

Ein Problem der gegenwärtig verfügbaren Algorithmen ist Glocker zufolge, dass sich die Ergebnisse der Vorhersagen verschlechtern, sobald sich die Quelle der Bilddaten ändert. Dies demonstriert eindrücklich, dass die Qualität der Daten einen maßgeblichen Einfluss auf die Qualität der Vorhersagen habe, so Glocker. Verschiedene Algorithmen sind in etwa ähnlich präzise, was ihre Vorhersagekraft angeht. Sie machen dabei jedoch nicht die gleichen Fehler.

Maschinelles Lernen nimmt zudem immer den einfachsten Weg, um zu einer Vorhersage zu gelangen. Glocker wies darauf hin, dass dies dazu führen kann, dass ein Algorithmus zur Erkennung bestimmter Strukturen nicht die gewünschten Merkmale heranzieht. Das heißt, der Algorithmus kann zwar Bilder annehmbar genau erkennen, macht seine Entscheidung aber nicht an anerkannten Merkmalen fest.

Fehler erkennen

Eine wichtige Fähigkeit von Algorithmen ist es, dem Untersucher mitzuteilen, wenn keine gute Aussage getroffen werden kann. Hierfür hat Glocker mit seiner Gruppe eine Untersuchung zur sogenannten „reverse classification accuracy“ durchgeführt. Dabei wird ein weiterer Algorithmus darauf trainiert, aus der vorhergesagten Segmentierung des Bildes die Trainingsdaten wiederherzustellen. Gelingt dies nicht, so ist es wahrscheinlich, dass die Segmentierung fehlerhaft ist, so Glocker.

FAZIT

Algorithmen sind schon heute in der Lage, eine Leistung auf dem Level menschlicher Untersucher zu erreichen. Allerdings läuft das Training der Algorithmen derzeit fast ausschließlich mit von Menschen annotierten Ausgangsdaten ab. Enthalten diese Fehler, schmälert dies die Leistung des Algorithmus. Eine Lösung für dieses Problem ist laut Glocker das Training von Algorithmen mit nichtannotierten Daten. „Dabei muss der Algorithmus die Trainingsdaten selbst klassifizieren“, so Glocker. Diese Technik befindet sich aktuell noch in ihrem Anfangsstadium.

Eine noch größere Herausforderung stellt Glocker zufolge momentan aber noch die Detektion von Normalbefunden dar, da es hier eine große Streuweite der Befunde gibt. Diese Abweichung von einem Durchschnittswert ist für die Algorithmen schwer zu verarbeiten.