Information Technology Reference
In-Depth Information
Hier tritt auf der rechten Seite wieder eine Ableitung der Ausgabe eines Neurons
p
nach der Ausgabe des Eingabeneurons
u
auf, so dass wir die schichtenweise Rekur-
sionsformel
out
p
out
u
out
u
=
out
v
out
v
out
u
=
out
v
net
v
p
pred(
v
)
w
vp
net
v
net
v
aufstellen können. In der ersten versteckten Schicht (oder für ein zweischichtiges
Perzeptron) erhalten wir dagegen
net
v
out
u
=
w
vu
,
out
u
=
out
v
out
v
also
w
vu
,
net
v
da alle Summanden außer demmit
p
=
u
verschwinden. Diese Formel definiert den
Rekursionsanfang. Ausgehend von diesem Startpunkt können wir die oben angege-
bene Rekursionsformel anwenden, bis wir die Ausgabeschicht erreichen, wo wir den
zu einem Lernmuster
l
gehörenden Term des Wertes
s
(
u
) schließlich durch Summa-
tion über die Ausgabeneuronen berechnen können.
Wie bei der Ableitung der Fehlerrückpropagation betrachten wir auch hier wie-
der den Spezialfall der logistischen Aktivierungsfunktion und der Identität als Aus-
gabefunktion. In diesem Fall erhält man die besonders einfache Rekursionsformel
out
v
out
u
=
out
v
(
1
out
v
)
w
vp
out
p
out
u
p
pred
(
v
)
und den Rekursionsanfang (
v
in erster versteckter Schicht)
out
v
out
u
=
out
v
(
1
out
v
)
w
vu
.
Die Kommandozeilenprogramme, auf die wir am Ende des letzten Abschnitts hinge-
wiesen haben, erlauben eine Sensitivitätsanalyse eines mehrschichtigen Perzeptrons
unter Verwendung dieser Formeln.