Information Technology Reference
In-Depth Information
7.3 Nachbarschaft der Ausgabeneuronen
Bisher haben wir die Nachbarschaftsbeziehung der Ausgabeneuronen vernachläs-
sigt, so dass sich die Referenzvektoren i.W. unabhängig voneinander bewegen konn-
ten. Deshalb kann man bei der lernenden Vektorquantisierung aus der (relativen)
Lage der Ausgabeneuronen i.A. nichts über die (relative) Lage der zugehörigen Refe-
renzvektoren ablesen. Um eine topologieerhaltende Abbildung zu erlernen, bei der
die Lage der Ausgabeneuronen die Lage der Referenzvektoren (wenigstens nähe-
rungsweise) widerspiegelt, muss man die Nachbarschaftsbeziehung der Ausgabe-
neuronen in den Lernprozess einbeziehen. Erst in diesem Fall spricht man von selbst-
organisierenden Karten [Kohonen 1982, 1995].
Selbstorganisierende Karten werden — wie die Vektorquantisierung —mit Wett-
bewerbslernen trainiert. D. h., die Lernmuster werden der Reihe nach durchlaufen und
zu jedem Lernmuster wird dasjenige Neuron bestimmt, das zu diesem Lernmuster
die höchste Aktivierung liefert. Nun ist es bei selbstorganisierenden Karten zwin-
gend, dass alle Ausgabeneuronen die gleiche Abstands- und Aktivierungsfunktion
besitzen. Deshalb können wir hier auf jeden Fall äquivalent sagen: Es wird dasjeni-
ge Ausgabeneuron bestimmt, dessen Referenzvektor dem Lernmuster am nächsten
liegt. Dieses Neuron ist der „Gewinner“ des Wettbewerbs um das Lernmuster.
Im Unterschied zur lernenden Vektorquantisierung wird jedoch nicht nur der
Referenzvektor des Gewinnerneurons angepasst. Da ja die Referenzvektoren seiner
Nachbarneuronen später in der Nähe seines Referenzvektors liegen sollen, werden
auch diese Referenzvektoren angepasst, wenn auch u.U. weniger stark als der Refe-
renzvektor des Gewinnerneurons. Auf diese Weise wird erreicht, dass sich die Refe-
renzvektoren benachbarter Neuronen nicht beliebig voneinander entfernen können,
da sie ja analog angepasst werden. Es ist daher zu erwarten, dass im Lernergebnis be-
nachbarte Ausgabeneuronen Referenzvektoren besitzen, die im Eingaberaum nahe
beieinander liegen.
Ein weiterer wichtiger Unterschied zur lernenden Vektorquantisierung ist, dass
sich selbstorganisierende Karten nur für freie Lernaufgaben eignen. Denn da über
die relative Lage verschiedener Klassen von Lernmustern vor dem Training i. Allg.
gar nichts bekannt ist, können den Referenzvektoren kaum sinnvoll Klassen zuge-
ordnet werden. Man kann zwar den Ausgabeneuronen nach dem Training Klassen
zuordnen, indem man jeweils die Klasse zuweist, die unter den Lernmustern am
häufigsten ist, für die das Ausgabeneurons die höchste Aktivierung liefert. Doch da
in diesem Fall die Klasseninformation keinen Einfluss auf das Training der Karte
und damit die Lage der Referenzvektoren hat, ist eine Klassifikation mit Hilfe einer
so erweiterten selbstorganisierenden Karten nicht unbedingt empfehlenswert. Eine
solche Klassenzuordnung kann allerdings einen guten Eindruck von der Verteilung
und relativen Lage verschiedener Klassen im Eingaberaum vermitteln.
Da nur freie Lernaufgaben behandelt werden können, folglich beim Training kei-
ne Klasseninformation berücksichtigt wird, gibt es nur eine Anpassungsregel für die
Referenzvektoren, die der im vorangehenden Abschnitt betrachteten Anziehungsre-
gel analog ist. Diese Regel lautet
p
r (neu)
= r (alt u + ( t ) ·
r (alt)
f nb
d neurons ( u , u ) , ( t )
·
,
u
u
Search WWH ::




Custom Search