Information Technology Reference
In-Depth Information
Bisher haben wir als Lernrate eine Konstante verwendet und lediglich 0 < <
1gefordert.SpeziellbeimOnline-TrainingkanneinefesteLernratejedochzuProble-
men führen, wie Abbildung 7.7 links zeigt. Hier wird ein Referenzvektor wiederholt
mit vier Datenpunkten angepasst, was zu einer zyklischen Bewegung des Referenz-
vektor führt. Das Zentrum der vier Datenpunkte, das man sich als Ergebnis wünscht,
wird nie erreicht. Um dieses Problem zu beheben, wählt man eine zeitabhängige Lern-
rate ,z.B.
( t )= 0 t , 0 < < 1,
( t )= 0 t ,
oder
< 0.
Durch die mit der Zeit kleiner werdende Lernrate wird aus der Kreisbewegung eine
Spirale, die ins Zentrum führt, siehe Abbildung 7.7 rechts.
Auch wenn eine zeitabhängig Lernrate garantiert, dass das Verfahren konver-
giert, sollte man dennoch beachten, dass die Lernrate auch nicht zu schnell abneh-
men darf, denn sonst kann es zu einem “Verhungern” (“starvation”) kommen. D. h.
die Aktualisierungsschritte werden sehr schnell sehr klein, so dass die Referenze-
vektoren ihre natürliche Zielpunkte nicht erreichen, ihnen u.U. nicht einmal nahe
kommen können. Andererseits sollte die Lernrate auch nicht zu langsam abnehmen,
da der Lernprozeß sonst gegebenenfalls sehr langsam konvergiert. Wie wir auch
schon bei anderen Netztypen gesehen haben, ist die richtige Wahl der Lernrate ein
schwieriges Problem.
Obwohl ihr wesentlicher Zweck das Finden von Gruppen von Datenpunkten
ist, kann die lernende Vektorquantisierung nicht nur zu einfachem Clustering, also
zum Lösen einer freien Lernaufgabe, verwendet werden. Man kann sie so erweitern,
dass den Datenpunkten zugeordnete Klassen berücksichtigt werden. So können fe-
ste Lernaufgaben gelöst werden, jedenfalls solche, bei denen die vorgegebenen Aus-
gaben aus einer endlichen Menge von Werten (Klassen) stammen. Dazu werden den
Ausgabeneuronen — und damit den Referenzvektoren — Klassen zugeordnet, und
die Anpassungsregel wird unterteilt. Stimmen die Klasse des Datenpunktes und des
Referenzvektors des Gewinnerneurons überein, so kommt die Anziehungsregel zum
Einsatz, die mit der oben angegebenen Regel identisch ist:
r (neu) = r (alt) +
r (alt)
p
.
D. h., der Referenzvektor wird auf das Lernmuster zubewegt (er wird vom Lern-
muster „angezogen“). Sind die Klassen des Datenpunktes und des Referenzvektors
dagegen verschieden, so wird die Abstoßungsregel angewandt:
r (neu) = r (alt)
r (alt)
p
.
D. h., der Referenzvektor wird vom Lernmuster wegbewegt (er wird vom Lernmu-
ster „abgestoßen“), siehe Abbildung 7.5. Auf diese Weise bewegen sich die Referenz-
vektoren zu Gruppen von Datenpunkten, die die gleiche Klasse tragen wie sie selbst.
Von e i ne r t r a i n i e r t en Ve k t o rquan t i s i e rung wi rd zu e i ne r neuen , zu k l a s s i fiz i e r enden
Eingabe die Klasse geliefert, die dem Ausgabeneuron mit der höchsten Aktivierung
zugeordnet ist (Nächster-Nachbar-Klassifikator).
Ve r b e s s e r t e Ve r s i onen de r l e r nenden Ve k t o rquan t i s i e rung f ü r f e s t e Le r nau f ga b en
passen nicht nur den einen Referenzvektor an, der dem aktuellen Datenpunkt am
Search WWH ::




Custom Search