Ein Neuronales Netz besteht aus vielen Neuronen (engl: units). Ein Neuron hat mehrere gerichtete gewichtete Eingänge von Vorgängerneuronen und einen Ausgang. Übersteigt die Summe der Werte der Eingangsgewichte einen gewissen Schwellwert, so wird das Neuron aktiviert - es feuert - und gibt ein Signal an seinen Ausgang weiter [#!denken!#]. Die Hauptaufgabe eines Neuronalen Netzes besteht darin zu lernen. Dieses wird durch Änderungen in den Gewichten der Neuronen möglich.
Es gibt drei mögliche Arten, wie ein Neuronales Netz lernen kann [#!denken!#]:
Die SOM, auch Self-Organizing Feature Map oder selbstorganisierende Karte genannt, ist ein Vertreter des unüberwachten Lernens. Das Konzept der SOM stammt von Teuvo Kohonen [#!KOH_81!#]. Bei der SOM sind die Neuronen in einem zweidimensionalen Gitter, der Karte (engl: map), angeordnet. Jedes Neuron besitzt einen so genannten Gewichtsvektor (engl: weight vector). Da sich die Neuronen nicht im Gitter bewegen können, werden durch den Lernvorgang die Gewichte der Gewichtsvektoren verändert. Die der SOM zugrunde liegende Motivation beschreibt Kohonen selbst folgendermaßen [#!KOH_81!#]:
According to the views acquired by many physiologists and psychologists, the most important task of the brain, in addition to the control of autonomous functions, is to form various kinds of modles or maps of the environment, sensory experiences, as well as even more abstract occurrences. Such an ability would already account for the majority of cognitive and memory processes.
Abbildung zeigt die Architektur einer SOM. Jedes Neuron (Kreis) besitzt einen 4-dimensionalen Gewichtsvektor, dargestellt durch ein Rechteck. Jedes Neuron ist mit seinen direkten Nachbarn verbunden, dadurch bleiben nachbarschaftliche Beziehungen durch den Lernvorgang (engl: training)erhalten. Die Gewichtsvektoren der SOM und die Eingabevektoren (engl: feature vectors)haben dieselbe Dimension (in Abbildung beträgt die Dimension 4). Die Dimension der SOM beträgt 2, da jedes Neuron durch Angabe der Spalte und Zeile eindeutig identifiziert werden kann. Dadurch, dass die Eingabevektordimension viel größer sein kann als die des Netzes, ist das Ergebnis eine Abbildung des -dimensionalen Eingaberaumes auf eine 2-dimensionale Karte [#!denken!#].
Lernalgorithmus der SOM
[#!bayer!#,#!mer_icnn95.pdf!#,#!mer_softir00.pdf!#,#!denken!#]:
Abbildung zeigt das Training eines Eingabevektors aus dem -dimensionalen Eingaberaum (engl: input space) auf eine SOM (engl: output space). Das Neuron mit Gewichtsvektor wird zum Winner, d.h. der Gewichtsvektor liegt dem Eingabevektor am nächsten. Der Gewichtsvektor wird nun um die Lernrate in Richtung des Eingabevektors verschoben und resultiert im neuen Gewichtsvektor . Ist die Lernrate ungleich eins, stimmt der Eingabevektor mit dem adaptierten Gewichtsvektor nicht überein. Der Abstand des Eingabevektors zum adaptierten Gewichtsvektor wird daher berechnet. Diese Größe heißt QF (engl: quantisationerror) [#!dit_ijcnn2000.pdf!#] des Vektors auf Neuron . Zusätzlich zum Gewinnerneuron (dunkelgrau) werden durch die Nachbarschaftsfunktion angrenzende Neuronen (hellgrau) adaptiert. Durch diese Änderung bilden sich Bereiche (engl: cluster)und die Karte bekommt eine Ausrichtung im Ganzen. Durch diese Adaption der Nachbarn ist die SOM Topologie erhaltend.
Abbildung zeigt beispielhaft das Ergebnis eines SOM Trainings. Die Abbildung zeigt eine Karte einer SOM. Im Hintergrund ist die gesamte Karte sichtbar, während am rechten und linken Bildrand drei Cluster vergrößert dargestellt sind. Kapitel enthält die Karten zu den in dieser Arbeit präsentiertem Verfahren.
Es existieren eine ganze Fülle verwandter Lernalgorithmen. LVQ [#!kohonen!#] besitzt keine Nachbarschaftsfunktion und die Neuronen gehören vorher festgelegten, während des Trainings nicht mehr änderbaren, Klassen an. Da Klasseninformationen in dem hier behandelten Fall allerdings vorher nicht bekannt sind, ist dieser Ansatz hier nicht anzuwenden [#!bayer!#]. Es existieren auch eine ganze Anzahl an Erweiterungen für den eigentlichen SOM Algorithmus. Beim GG [#!blackMiik!#] wird nach einer fixen Anzahl von Trainingsschritten ein neues Neuron hinzugefügt bzw. entfernt. Da Daten oftmalig Hierarchien enthalten, gibt es die HFM um diese abzubilden. Hier werden unabhängige SOMs auf einer Hierarchie trainiert. Da bei der HFM sowohl die Tiefe der Hierarchie als auch die Ausmaße der SOM vor Trainingsbeginn festgelegt werden müssen, wurde die GHSOM entwickelt [#!dit_ijcnn2000.pdf!#]. Die GHSOM unterliegt keiner der beiden Einschränkungen und kann sowohl in die Breite (GG) als auch in die Tiefe (HFM) wachsen.