Information Technology Reference
In-Depth Information
wobei o i der output des sendenden Neurons ist und T j ein Verbindungsgewicht zu einem Ein-
gabevektor.
Als Aktivierungsfunktion wird in diesem Fall die so schon erwähnte sigmoide Funktion ver-
wendet
1
1 exp net j
a j F j
net j
(4.20)
(exp (x) ist die Exponentialfunktion, siehe oben Kapitel 3.5).
Die Ausgabefunktion ist die Identitätsfunktion.
Zunächst muss gemäß dem oben dargestellten Winner-take-all-Prinzip ein „Gewinnerneuron“
bestimmt werden, indem das Neuron z gesucht wird, dessen Gewichtsvektor W z dem Eingabe-
vektor X am ähnlichsten ist
X W z min
j
X W j
(4.21)
,
wobei X = (x 1 ,......,x n ) und W j = (w 1 j ,.....,w nj ). Im nächsten Schritt wird das Erregungszentrum
bestimmt:
¦
¦
w
o
max
w
o , wobei gilt:
iz
i
ij
i
j
i
i
(4.22)
1
2
§
·
2
¦
xw
¨
x w
¸
.
ij
i
ij
¨
¸
©
¹
i
Für die Beeinflussung der Verbindungen, die näher am Erregungszentrum z sind, wird die
„Mexican-Hat-Funktion“ h iz verwendet:
2
§
·
jz
¨
¸
h p
.
(4.23)
iz
z
¨
¸
2
V
©
¹
j-z ist der Abstand vom Neuron j zum Erregungszentrum z und
V z
ist der Radius, innerhalb dessen die Einheiten verändert werden.
Die endgültige Anpassung der Gewichtswerte erfolgt entsprechend:
w j (t+1) = w j (t)+K(t) * h iz (x(t) - w j (t)); j V z
w j (t+1) = w j (t) sonst
(4.24)
K(t) ist eine zeitlich veränderliche Lernrate, eine monoton fallende Funktion mit
0 < K(t) < 1. (4.25)
Es sei darauf verwiesen, dass es sich hier lediglich um eine Möglichkeit handelt, SOM zu kon-
struieren. Eine Übersicht über verschiedene SOM findet sich bei Ritter u. a. (1991). Für prakti-
sche Anwendungen ist ein SOM gewöhnlich noch mit einem Visualisierungsalgorithmus ver-
sehen (vgl. die Anwendungsbeispiele in 4.5).
Search WWH ::




Custom Search