Information Technology Reference
In-Depth Information
wobei o
i
der output des sendenden Neurons ist und T
j
ein Verbindungsgewicht zu einem Ein-
gabevektor.
Als Aktivierungsfunktion wird in diesem Fall die so schon erwähnte sigmoide Funktion ver-
wendet
1
1 exp net
j
a
j
F
j
net
j
(4.20)
(exp (x) ist die Exponentialfunktion, siehe oben Kapitel 3.5).
Die Ausgabefunktion ist die Identitätsfunktion.
Zunächst muss gemäß dem oben dargestellten Winner-take-all-Prinzip ein „Gewinnerneuron“
bestimmt werden, indem das Neuron z gesucht wird, dessen Gewichtsvektor W
z
dem Eingabe-
vektor X am ähnlichsten ist
X W
z
min
j
X W
j
(4.21)
,
wobei X = (x
1
,......,x
n
) und W
j
= (w
1
j
,.....,w
nj
). Im nächsten Schritt wird das Erregungszentrum
bestimmt:
¦
¦
w
o
max
w
o , wobei gilt:
iz
i
ij
i
j
i
i
(4.22)
1
2
§
·
2
¦
xw
¨
x w
¸
.
ij
i
ij
¨
¸
©
¹
i
Für die Beeinflussung der Verbindungen, die näher am Erregungszentrum z sind, wird die
„Mexican-Hat-Funktion“ h
iz
verwendet:
2
§
·
jz
¨
¸
h p
.
(4.23)
iz
z
¨
¸
2
V
©
¹
j-z ist der Abstand vom Neuron j zum Erregungszentrum z und
V
z
ist der Radius, innerhalb dessen die Einheiten verändert werden.
Die endgültige Anpassung der Gewichtswerte erfolgt entsprechend:
w
j
(t+1) = w
j
(t)+K(t)
*
h
iz
(x(t) - w
j
(t)); j V
z
w
j
(t+1) = w
j
(t) sonst
(4.24)
K(t) ist eine zeitlich veränderliche Lernrate, eine monoton fallende Funktion mit
0 < K(t) < 1. (4.25)
Es sei darauf verwiesen, dass es sich hier lediglich um eine Möglichkeit handelt, SOM zu kon-
struieren. Eine Übersicht über verschiedene SOM findet sich bei Ritter u. a. (1991). Für prakti-
sche Anwendungen ist ein SOM gewöhnlich noch mit einem Visualisierungsalgorithmus ver-
sehen (vgl. die Anwendungsbeispiele in 4.5).
Search WWH ::
Custom Search