RöKo 2024 – Deep-Learning-basierte Bildrekonstruktion in CT und MRT

RöKo 2024 – Deep-Learning-basierte Bildrekonstruktion in CT und MRT

Eine KI-basierte Bildrekonstruktion liefert schnell eine bessere Bildqualität als klassische Bildrekonstruktionsmethoden. Allerdings sind diverse Trainingsdaten für die Zuverlässigkeit der KI-basierten Rekonstruktion entscheidend.

  • Präsentationstag:
    10.05.2024 0 Kommentare
  • Autor:
    biho/ktg
  • Sprecher:
    Reinhard Heckel, TU München
  • Quelle:
    RöKo 2024

Hochaufgelöste Scans mit niedrigen Scanzeiten – das ist heute mit KI-basierten Bildrekonstruktionsmethoden möglich. Die KI rechnet das durch die schnellere Akquisition vermehrte Rauschen aus den Bildern heraus und liefert so diagnostische Aufnahmen.

Reinhard Heckel, TU München, erklärte, wie die Algorithmen lernen, nannte mögliche Fehler und verglich die Performance mit dem Compressed Sensing ohne KI-Unterstützung.

Supervised Learning

Die meisten kommerziellen Deep Networks zur Bildrekonstruktion basieren auf supervised Learning: Der Algorithmus lernt anhand der Messdaten und des zugehörigen Zielbilds (Messung vs. Output).

Ein Problem: Bei 3D oder 4D-Daten wird es mit den Zielbildern schwierig. Hier arbeitet man mit simulierten Daten bzw. mit einem Diffusion Model. Dabei werden MRT-Daten aus dem k-space zu einem Bild modelliert, das dem gewünschten Zielbild entspricht. Eine solche generative KI – also eine KI, die Bilder rekonstruiert, die nicht aus Trainingsdaten stammen – wird auch von den OpenSource-Programmen DALL-E und StableDiffusion genutzt. Diese können aus Textbeschreibungen fotorealistische Bilder erzeugen.

Mögliche Fehler

Datenverlust durch zu hohen Beschleunigungsfaktor

Ein mit wenigen Daten aufgenommenes Bild lässt sich nicht beliebig zu diagnostischer Bildqualität hochrechnen. Wie groß die Unterschiede sein können, zeigte Heckel anhand eines Scans eines Knieknorpelschadens mit 4- und 8-fachem Beschleunigungsfaktor.

Ein upgesampeltes Bild mit Knorpelschaden ist mit 4-fach Compressed Sensing schlechter aufgelöst als das Original (das Zielbild); mit einem DeepNetwork ist es diagnostisch brauchbar (Hammernik 2018). Bei einem mit CompressedSensing 8-fach beschleunigtem Bild ist das Ergebnis nicht mehr diagnostisch. Ein DeepNetwork rekonstruiert das Bild nur scheinbar gut – denn der Knorpelschaden ist verschwunden.

„Wenn bei der Bildaufnahme zu wenige Daten gesammelt werden, können bei der Rekonstruktion Informationen verloren gehen“, erklärte Heckel.

Falschinformationen: Halluzinationen/Hallucinations

„Hallucinations“ beschreibt die Erzeugung falscher, realistisch aussehender Merkmale, die in den tatsächlichen Daten nicht vorhanden sind. Das Phänomen entsteht, wenn zu wenige Bildinformationen vorhanden sind oder wenn die Trainingsdaten sich stark von der Anwendung unterscheiden.

Informationsverlust durch Unterschiede zwischen Trainings- und Testdaten

Die Trainingsdaten sind zentral für die Funktionalität der KI. Sind Trainings- und Testdaten ähnlich, rechnet die KI sehr gut und ist sogar besser als Radiolog:innen. Gibt es jedoch eine hohe Variabilität der Daten oder andere Unterschiede, wird es schwierig für die KI. Eine hohe Variabilität – andere Scanner, andere Protokolle – entspricht jedoch der der realen klinischen Situation.

KI-Performance verbessern

Mit diversen Trainings- und Testdaten kann die KI besser werden.

Heckel stellte ein Beispiel aus seiner Forschung vor: Drei DeepNetworks werden auf ihre Perfomance mit unterschiedlichen Datensets getestet:

  1. KneeNet (auf Knieaufnahmen trainiert)
  2. BrainNet (auf Hirnaufnahmen trainiert)
  3. DivNet (auf Knie- und Hirnaufnahmen trainiert)

Ergebnis: DivNet liefert für Knie- und Hirnaufnahmen verschiedener Datensets eine gleich gute Performance. KneeNet und BrainNet funktionieren nur auf ihren trainierten Indikationen gut, und dort am besten auf den Datensets der Institution, mit der sie trainiert wurden (Lin, Heckel 2024).

Fazit: Die Verwendung diverser Datensets zum KI-Training führt zu einer verbesserten Performance.

Self-Supervised Learning

Neuere DeepLearning-Applikationen arbeiten self-supervised: Hier trainiert sich die KI selbst anhand weniger vorgegebener Daten. In Large Language Models (LLM) wie ChatGPT lernt die KI beispielsweise, Lückentexte selbstständig zu füllen oder unvollständige Sätze sinnvoll zu beenden. In der Bildgebung lernt die KI, künstlich hinzugefügtes Bildrauschen zu entfernen. Die KI kann dann auch Bewegungsartefakte entfernen.

Self-supervised Learning mit vielen und diversen Daten hat ein großes Potenzial für 3D, 4D und bewegungskorrigierte Bilder.

Fazit

Bei der MRT und der CT sorgt eine KI-basierte Bildrekonstruktion für eine bessere Bildqualität oder -auflösung und eine beschleunigte Bildgebung (MRT) bzw. geringere Strahlung (CT). Die heute kommerziell erhältlichen KI-basierten Rekonstruktionsmethoden wurden überwiegend mit supervised Learning trainiert. Dabei gilt: Je mehr und diverser die Trainingsdaten, desto besser die Performance der KI. Mittlerweile reichen auch weniger Trainingsdaten: „Die heutigen self-supervised Deep Networks sind erst der Anfang der KI in der Bildgebung“, schloss Heckel.

Referenzen

Hammernik K et al. Learning a variational network for reconstruction of accelerated MRI data. Magn Reson Med. 2018 Jun;79(6):3055-3071.

Darestani MZ, Chaudhari A, Heckel R. Measuring Robustness in Deep Learning Based Compressive Sensing ICML (International Conference on Machine Learning) 2021. https://icml.cc/virtual/2021/poster/9951

Lin K, Heckel R. Robustness of Deep Learning for Accelerated MRI: Benefits of Diverse Training Data. Diversity. 23 Sept 2023 (modified: 11 Feb 2024). ICML (International Conference on Machine Learning ) 2024. https://openreview.net/forum?id=KJYIgEteHX&noteId=bEuL073qDL

Sie müssen sich einloggen, um Kommentare zu verfassen.

Ihr direkter Draht zu uns