neuroRAD 2018 – Datenmanagement in Zeiten von Big Data

neuroRAD 2018 – Datenmanagement in Zeiten von Big Data

Datenqualität und Standards sind wichtige Themen, wenn Deep Learning die Befundung unterstützen.

  • Präsentationstag:
    05.10.2018 0 Kommentare
  • Autor:
    ch/ktg
  • Sprecher:
    Karl Egger, Universitätsklinikum Freiburg
  • Quelle:
    neuroRAD 2018

„Wir haben in den letzten Jahren viel analysiert, aber kaum die Datenqualität hinterfragt“, sagte Karl Egger vom Universitätsklinikum Freiburg.


Das Datenmanagement umfasst alle Verfahren, mit denen Daten bearbeitet werden, um den maximalen Nutzen zu erbringen. Es besteht aus diesen einzelnen Schritten:

  • Datenakquirierung
  • Datenspeicherung
  • Zugang zu den Daten
  • Datenanalyse
  • Datenpräsentation

Jeder einzelne Schritt im Datenmanagement muss stimmen, damit die Maschine bessere Ergebnisse liefert als das menschliche Auge.

Die Bildgebung kann manche Erkrankungen bereits in der präklinischen Phase detektieren. Egger nannte als Beispiel den asymptomatischen Normaldruckhydrozephalus (NPH). Bereits drei Jahre vor den ersten Symptomen können über den Evan-Index erweiterte Liquorräume diagnostiziert werden (Engel DC et al. Fluids Barriers CNS. 2018). „Wenn Sie im MRT Aspekte einer NPH sehen, ist es egal, ob Sie eine Klinik haben.“

Neuerungen

Die Verwendung multipler Prozessoren (CPUs) vereinfacht die Vorbereitung der Daten.

Die Trainingsphase künstlicher neuronaler Netzwerke lässt sich durch Zuordnung der Daten zur Normalverteilung, der so genannten Batch Normalisierung (BN), deutlich beschleunigen. Der Einsatz von BN erhöht die Lesegeschwindigkeit.

Es gibt noch viel zu tun

„Wenn Sie beispielsweise keine guten Daten akquirieren oder der Speicherort nicht für alle zugänglich ist, dann funktionieren auch die anderen Schritte nicht“, erklärte Egger.

Der Referent sieht folgende wichtige Punkte, damit Datenmanagement auch funktioniert:

  1. Standardisierung der Protokolle: „Da muss wahrscheinlich der Gesetzgeber ran.“
  2. Qualitätskontrolle: „Wir müssen den Output kontinuierlich überprüfen, das machen wir noch nicht konsequent.“
  3. Bildnachverarbeitung: „Wir brauchen einen gemeinsamen Algorithmus.“
  4. Standardisierte Befundung: „Die Eingabe von Freitext ist dafür nicht geeignet.“ Egger nannte als Beispiel ‚für sein Alter normales Gehirn‘ – „Ein Unding, wir wissen ja gar nicht, was normal ist.“

„Die Datenspeicherung ist ein Riesenproblem. Wenn die nicht funktioniert, kann ich auch nichts analysieren“, so Egger. Er nannte hier als vielversprechende Initiative das europäische Verbundprojekt „Human Brain Project“. Das Projekt und bietet allen beteiligten WissenschaftlerInnen Forschungsinfrastruktur in Form einer High Performance Analytics and Computing (HPAC) Plattform zur Analyse und Verarbeitung von zerebralen Bilddaten zur Verfügung.

Diskussion

Gefragt, ob für einen Algorithmus nicht auch wenige qualitative Daten ausreichend seien, antwortete Egger: „Wir machen das über die Masse und behalten im Hinterkopf: Wenn die Maschine etwas als nicht normal klassifiziert, dann ist das nicht gleichbedeutend mit pathologisch.“

Ein Zuhörer wollte wissen, wer beim Machine Learning haftet. „Das ist für mich vergleichbar mit der Diskussion beim autonomen Fahren. Ich bin überzeugt, dass die Versicherungen bezahlen werden. Sie kassieren die gleichen Prämien und freuen sich, dass weniger passiert.“

Sie müssen sich einloggen, um Kommentare zu verfassen.