Information Technology Reference
In-Depth Information
wobei p das betrachtete Lernmuster, r u der Referenzvektor zumNeuron u , u das Ge-
winnerneuron, ( t ) eine zeitabhängige Lernrate und ( t ) ein zeitabhängiger Nach-
barschaftsradius ist. d neurons misst den Abstand von Ausgabeneuronen (vergleiche
Definition 7.1 auf Seite 101), hier speziell den Abstand des anzupassenden Neurons
vomGewinnerneuron. Denn da bei selbstorganisierenden Karten auch die Nachbarn
des Gewinnerneurons angepasst werden, können wir die Anpassungsregel nicht
mehr auf das Gewinnerneuron beschränken. Wie stark die Referenzvektoren ande-
rer Ausgabeneuronen angepasst werden, hängt nach dieser Regel über eine Funkti-
on f nb (nb für Nachbar oder neighbor) vom Abstand des Neurons vom Gewinner-
neuron und einem die Größe der Nachbarschaft bestimmenden Radius ( t ) ab.
Die Funktion f nb ist eine radiale Funktion, also von der gleichen Art wie die Funk-
tionen, die wir zur Berechnung der Aktivierung eines Neurons in Abhängigkeit vom
Abstand eines Lernmusters zumReferenzvektor benutzen (vergleiche Abbildung 6.2
auf Seite 81). Sie ordnet jedemAusgabeneuron in Abhängigkeit von seinemAbstand
zum Gewinnerneuron 1 eine Zahl zwischen 0 und 1 zu, die die Stärke der Anpas-
sung seines Referenzvektors relativ zur Stärke der Anpassung des Referenzvektors
des Gewinnerneurons beschreibt. Ist die Funktion f nb z. B. eine Rechteckfunktion, so
werden alle Ausgabeneuronen in einem bestimmten Radius um das Gewinnerneu-
ron mit voller Stärke angepasst, während alle anderen Ausgabeneuronen unverän-
dert bleiben. Am häufigsten verwendet man jedoch eine Gaußsche Nachbarschafts-
funktion, so dass die Stärke der Anpassung der Referenzvektoren mit dem Abstand
vom Gewinnerneuron exponentiell abnimmt.
Eine zeitabhängige Lernrate wird aus den gleichen Gründen verwendet wie bei der
lernenden Vektorquantisierung, nämlich um Zyklen zu vermeiden. Sie kann folglich
auch auf die gleiche Weise definiert werden, z. B.
( t )= 0 t , 0 < < 1,
( t )= 0 t ,
oder
< 0.
Analog wird der zeitabhängige Nachbarschaftsradius definiert, z. B.
( t )= 0 t , 0 < < 1,
( t )= 0 t ,
oder
< 0.
Ein mit der Zeit abnehmender Nachbarschaftsradius ist sinnvoll, damit sich die
selbstorganisierende Karte in den ersten Lernschritten (große Nachbarschaft) sau-
ber „entfaltet“, während in späteren Lernschritten (kleinere Nachbarschaft) die Lage
der Referenzvektoren genauer an die Lage der Lernmuster angepasst wird.
Als Beispiel für das Trainingmit Hilfe der angegebenen Regel betrachtenwir eine
selbstorganisierende Karte mit 100 Ausgabeneuronen, die in einem quadratischen
10 10 Gitter angeordnet sind. Diese Karte wird mit zufällig gewählten Punkten
aus dem Quadrat [ 1, 1 ] [ 1, 1 ] trainiert. Den Ablauf des Trainings zeigt Abbil-
dung 7.8. Alle Diagramme zeigen den Eingaberaum, wobei der Rahmen das Qua-
drat [ 1, 1 ] [ 1, 1 ] darstellt. In diesen Eingaberaum ist das Gitter der Ausgabe-
neuronen projiziert, indem jeder Referenzvektor eines Ausgabeneurons mit den Re-
ferenzvektoren seiner direkten Nachbarn durch Linien verbunden ist. Oben links
ist die Situation direkt nach der Initialisierung mit zufälligen Gewichten aus dem
1 Man beachte, dass dieser Abstand auf der Gitterstruktur berechnet wird, in der die Ausgabeneuronen
angeordnet sind, und nicht von der Lage der zugehörigen Referenzvektoren oder dem Abstandsmaß im
Eingaberaum abhängt.
Search WWH ::




Custom Search