RöKo 2019 – Was ist eigentlich KI?

RöKo 2019 – Was ist eigentlich KI?

Hinter dem Begriff Künstliche Intelligenz (KI) stecken viele unterschiedliche Techniken. Felix Nensa, Uniklinik Essen, erläuterte zentrale Funktionsweisen und anschauliche Beispiele.

  • Präsentationstag:
    29.05.2019 0 Kommentare
  • Autor:
    mh/ktg
  • Sprecher:
    Felix Nensa, Uniklinik Essen
  • Quelle:
    100. Deutscher Röntgenkongress 2019

Der Durchbruch der KI-basierten Anwendungen sei vor allem dem Deep Learning (DL) geschuldet, so Felix Nensa, Uniklinik Essen. Um genauere Einblicke ins DL zu gewinnen, empfahl er die Lektüre des auch für KI-Anfänger gut zu lesenden Artikels „Deep Learning“ von Y. LeCun, Y. Bengio und G. Hinton (Nature 2015).

Neuronale Netzwerke als Werkzeuge für DL

Nensa zeigte Parallelen so genannter Neuronaler Netzwerke (NN) mit biologischen Neuronen auf. Beide verfügen über eine Inputfunktion (in der Biologie: Dendriten), einen „Zellkörper“ (im NN oft als „Black Box“ bezeichnet; hier werden die eingehenden Signale unter Zuhilfenahme von Gewichtungen verarbeitet) und einen Output.

Der anhand dieser Funktionen mögliche Prozess verlaufe noch linear, sagte Nensa. Um Nicht-Linearität und somit mehr Komplexität in den Prozess zu bringen, werden in vielen Anwendungsfällen Rectifier (Rectified Linear Unit, ReLU) eingesetzt. Sie basierten auf einem relativ einfachen Modell und übernähmen die Aktivierungsfunktion der NN.

Ein klassisches NN besteht aus mehreren oder vielen hintereinander geschalteten Layers. Aufgrund des wiederholten Prozessierens der Input-Daten Layer für Layer spricht man von Deep Learning.

Wie „lernt“ ein Neuronales Netzwerk?

„Anders als beim Lernen in der Biologie kommt es beim DL nicht zum Verknüpfen von Synapsen“, so Nensa. Der Lernprozess sei vielmehr so aufgebaut, dass die Loss Function über den Output eine Ja/Nein-Entscheidung trifft, anhand derer die Gewichtungen für die Signalverarbeitung (im „Zellkörper“) verändert wird. Ziel des Lernprozesses: Die Loss Function auf ein Minimum zu bringen.

„Problematisch ist dabei allerdings, dass es nicht nur ein klar definiertes Minimum der Loss Function gibt, sondern meist mehrere lokale Minima“, so Nensa.

Validierung

Um ein NN-basiertes System zu einem zuverlässigen und leistungsfähigen Tool zu machen, braucht es eine gute Validierungsstrategie. „Wenn Sie tausend Datensätze haben, das System daran trainieren und dann mit denselben Daten testen, erhalten Sie eine Genauigkeit von einhundert Prozent“, sagte Nensa, „denn das System hat bisher nicht anderes gemacht als auswendig zu lernen.“ Wenn man es dann auf den 1001. Datensatz ansetze, gebe es Probleme.

Methode #1: Daten splitten

Eine häufig verwendete Methode zur Validierung ist das Aufteilen der Daten in ein Set von Trainingsdaten (zum Beispiel 80% der verfügbaren Datensätze), anhand derer das System geschult wird, und ein Set zum Testen (die restlichen 20%), ob das Gelernte sinnvoll ist und auf Fälle anwendbar ist, die dem System noch nicht bekannt sind.

Methode #2: Kreuzvalidierung (K-fold)

Alternativ kann die Aufteilung der verfügbaren Datensätze in ein Trainingsset und ein Test-Set mehrfach mit unterschiedlicher Selektion erfolgen, so dass das System anhand wechselnder Trainingsdatensätze mehrere Lernschritte durchlaufen kann und auch die Tests wiederholt mit wechselnden Daten erfolgen.

NN-Typen

Die bis hierher erläuterten Prinzipien bezögen sich alle auf „fully connected NN“, in denen jedes Neuron mit jedem anderen verknüpft sei, so Nensa. Im Gegensatz dazu fokussierten sich Convolutional NN (CNN) auf die räumliche Nähe von Neuronen und würden deren Verknüpfung bevorzugen. Räumliche Nähe sei extrem bedeutsam, so Nensa; indem CNN auf die Verknüpfung weit voneinander entfernter Neuronen verzichte, sparen sie Rechenzeit und gewinnen an Effizienz.

Dass beide NN-Typen ihre Bedeutung haben, verdeutlichte Nensa an einer PET-CT: CNN dienten der „Feature Extraction“, also der Erkennung einer Läsion oder Auffälligkeit. Die Klassifizierung der Auffälligkeit übernehme dann ein fully connected NN.

Pooling: Nur relevanteste Daten weitergeben

Ein zusätzlicher Rechenschritt kann das „Pooling“ sein: Im Pooling werden mehrere Signale, die aus den CNN Layers resultieren, zu einem zusammengefasst, indem etwa nur das jeweils stärkste Signal weitergegeben wird. Pooling Layer aggregiert die Ergebnisse von Convolutional Layern, indem er nur das jeweils stärkste Signal weiter gibt. So sorgt es dafür, dass ausschließlich die relevantesten Signale an die nächsten Layers weitergereicht werden.

Softmax: Summe aller Wahrscheinlichkeiten gleich Eins

Um für jede mögliche Outputklasse (beispielsweise unterschiedliche Läsionstypen) eine Wahrscheinlichkeit zu anzugeben, dient die „Softmax-Aktivierung“. Der Output aller Neuronen addiert sich zum Wert 1 und gibt jeweils die Wahrscheinlichkeit eines Outputs an.

GAN: Virtuelle STIR-Bilder

Generative Adversarial Network (GAN) bedeutet übersetzt etwa „produktives gegnerisches Netzwerk“. Sie sind in der Lage, Fakebilder von echten Bildern zu unterscheiden. Aufgrund dieser Fähigkeit können sie auch selbst Fakebilder erzeugen und in wiederholten Lernschritten diese so weit perfektionieren, bis sie von den „echten“ Bildern nicht mehr unterscheidbar seien.

Nensa veranschaulichte das an virtuellen STIR-Darstellungen, die ausschließlich auf Grundlage T1- und T2-gewichteter Datenakquisitionen erzeugt worden waren und von echten STIR-Darstellungen kaum unterscheidbar waren.

Unsupervised Deep Learning

Während die bis hierher beschriebenen DL-Ansätze alle mit gelabelten Daten arbeiteten und man deswegen von „Supervised Learning“ spreche, gehe das Unsupervised Learning einen Schritt weiter. Aus Zeitgründen ging Nensa auf die zugrundeliegenden Techniken nicht weiter ein.

Reinforced Learning: Selbständig Pfannkuchen wenden

Noch smarter sind Systeme des Reinforced Learnings (reinforced = verstärkt). Sie sind in der Lage aus eigenen Fehlern zu lernen, indem sie mit der Umwelt interagieren. Im Gegensatz zu den bisher beschriebenen Ansätzen sind sie nicht mehr rein datengetrieben, sondern gewinnen selbständig zusätzliche Daten, die sie zum Lernen einsetzen.

Ein bekanntes Beispiel für Reinforced Learing ist die Software Alpha Go, die das Brettspiel Go beherrscht und sich durch eigenständiges Lernen in die Lage gebracht hat, selbst meisterhafte Go-Spieler zu schlagen.

Anschaulich machte Nensa das Reinforced Learning anhand von Videoaufnahmen, in denen ein Roboterarm lernte, eine Pfanne so zu schwenken, dass der darin enthaltene Pfannkuchen erfolgreich auf die andere Seite gedreht wurde. Voraussetzung dafür ist eine Sensorik (zum Beispiel Kameras), die es dem System erlaubt, Informationen aus seiner Umwelt aufzunehmen.

Nensa betonte, dass sich diese Techniken nicht nur in der Robotik bewährten, sondern auch schon in der Radiologie, beispielsweise in der Tumorsegmentierung. „Die Systeme, die auf Reinforced Learning fußen, kommen unserem Begriff von Intelligenz am nächsten“, so Nensa.

„AI Future Lab“: Mitarbeit erwünscht

Abschließend wies er auf das jüngst an der Uni Essen gegründete „AI Future Lab“ hin, für das mehrere Professuren neu ausgeschrieben wurden und ihrer Besetzung harren.

Sie müssen sich einloggen, um Kommentare zu verfassen.