Information Technology Reference
In-Depth Information
in ( l ) v =( out ( l )
p 1 ,...,out ( l )
p n ) ab. Folglich können wir die Kettenregel anwenden und
erhalten analog zu Abschnitt 5.5:
net ( l )
w v e ( l ) = e ( l )
e ( l )
net ( l )
v
w v
w v =
.
v
Zur Berechnung des ersten Faktors betrachten wir den Fehler e ( l ) für das Lernmuster
l =
ı ( l ) , o ( l )
.DieserFehlerist
e ( l u =
u U out
o ( l )
out ( l )
2 ,
e ( l ) =
u U out
u
u
also die Fehlersumme über alle Ausgabeneuronen. Folglich haben wir
o ( l )
out ( l )
2
o ( l )
out ( l )
2
e ( l )
net ( l )
= u U out
u
u
u
u
=
u U out
.
net ( l )
net ( l )
v
v
v
Da nur die tatsächliche Ausgabe out ( l )
eines Ausgabeneurons u von der Netzeinga-
u
be net ( l )
des von uns betrachteten Neurons v abhängt, ist
v
out ( l )
e ( l )
net ( l )
( o ( l )
out ( l )
u
net ( l )
= 2
u U out
.
u
u
v
v
Seien die Neuronen succ( v )={ s U out | ( v , s ) C } die Nachfolger (Ausgabe-
neuronen) des von uns betrachteten Neurons v .DieAusgabeout ( l u eines Ausgabe-
neurons u wird von der Netzeingabe net ( l v des von uns betrachteten Neurons v nur
beeinflusst, wenn es eine Verbindung von v zu u gibt, d. h., wenn u unter den Nach-
folgern succ( v ) von v ist. Wir können daher die Summe über die Ausgabeneuronen
auf die Nachfolger von v beschränken. Weiter hängt die Ausgabe out ( l )
eines Nach-
s
folgers s von v nur über die Netzeingabe net ( l )
dieses Nachfolgers von der Netzein-
s
gabe net ( l )
des von uns betrachteten Neurons v ab. Also ist mit der Kettenregel
v
out ( l )
net ( l )
e ( l )
net ( l )
( o ( l )
out ( l )
s
net ( l )
s
net ( l )
s succ( v )
= 2
.
s
s
v
s
v
Da die Nachfolger s succ ( v ) Ausgabeneuronen sind, können wir (wie oben bei der
Betrachtung der Ausgabeneuronen)
out ( l )
s
net ( l )
s
= 1
einsetzen. Es bleibt uns noch die partielle Ableitung der Netzeingabe zu bestimmen.
Da die Neuronen s Ausgabeneuronen sind, ist
net ( l s = w s in ( l )
w sp out ( l )
p pred( s )
s =
s ,
s
p
Search WWH ::




Custom Search