Information Technology Reference
In-Depth Information
Hier tritt auf der rechten Seite wieder eine Ableitung der Ausgabe eines Neurons p
nach der Ausgabe des Eingabeneurons u auf, so dass wir die schichtenweise Rekur-
sionsformel
out p
out u
out u = out v
out v
out u = out v
net v
p pred( v )
w vp
net v
net v
aufstellen können. In der ersten versteckten Schicht (oder für ein zweischichtiges
Perzeptron) erhalten wir dagegen
net v
out u = w vu ,
out u = out v
out v
also
w vu ,
net v
da alle Summanden außer demmit p = u verschwinden. Diese Formel definiert den
Rekursionsanfang. Ausgehend von diesem Startpunkt können wir die oben angege-
bene Rekursionsformel anwenden, bis wir die Ausgabeschicht erreichen, wo wir den
zu einem Lernmuster l gehörenden Term des Wertes s ( u ) schließlich durch Summa-
tion über die Ausgabeneuronen berechnen können.
Wie bei der Ableitung der Fehlerrückpropagation betrachten wir auch hier wie-
der den Spezialfall der logistischen Aktivierungsfunktion und der Identität als Aus-
gabefunktion. In diesem Fall erhält man die besonders einfache Rekursionsformel
out v
out u = out v ( 1 out v )
w vp out p
out u
p pred ( v )
und den Rekursionsanfang ( v in erster versteckter Schicht)
out v
out u = out v ( 1 out v ) w vu .
Die Kommandozeilenprogramme, auf die wir am Ende des letzten Abschnitts hinge-
wiesen haben, erlauben eine Sensitivitätsanalyse eines mehrschichtigen Perzeptrons
unter Verwendung dieser Formeln.
Search WWH ::




Custom Search