Information Technology Reference
In-Depth Information
wobei i für alle Einheiten, die mit Einheit j verknüpft sind, verstanden wird und die Akti-
vierungsfunktion lautet:
(sum
)
=+−
11
e um
j
j
In der Implementierungsvariante kommt die S-förmige sigmoide oder logistische Funk-
tion für ∫ zum Einsatz. Wie leicht zu zeigen ist, erhält man bei einem Bereich von Sum-
men zwischen − 5 bis + 5 einen y-Wert im Bereich von 0 bis 1. Extrem hohe positive oder
negative Summen werden in den gleichen Wertebereich gezwängt. Die Auswirkung des
Schwellenwerts Φ besteht nun darin, die S-förmige Kurve links oder rechts anzuheben.
Wenn die Schwelle beispielsweise bei + 5 liegt, müsste die Summe − 5 betragen, damit ein
Ausgabewert von 0,5 erzeugt werden kann. Die Formel zu Berechnung der Gewichtsver-
änderungen lautet:
∆w
= ης
y
ij
jji
wobei w ij das Gewicht ist, das Einheit i mit der Einheit j verbindet, ή der Parameter für die
Lernrate, ς j das Fehlersignal für diese Einheit und y i der Ausgabe- oder Aktivierungswert
der Einheit i. Für Einheiten der Ausgabeschicht entspricht das Fehlersignal der Differenz
zwischen der Soll-Ausgabe t j und der Ist-Ausgabe y i , multipliziert mit der Ableitung der
logistischen Aktivierungsfunktion:
,
ς j
=− =− −
(
t y sumt yy y
)
*
(
)
(
)
(
1
)
j
j
j
j
j
j
j
j
Für jede Einheit der verborgenen Schicht entspricht das Fehlersignal der Ableitung der
Aktivierungsfunktion, multipliziert mit der Summe der Produkte der ausgehenden Verbin-
dungsgewichte und der dazugehörigen Fehlersignale. Also ergibt sich für die verborgene
Einheit j folgender mathematischer Zusammenhang:
,
=
ς
(
sum
)*
ς
w
j
j
j
jk
j
wobei k über alle Indizes der Einheiten betrachtet wird, die das Ausgabesignal von der
Einheit j empfangen. Eine gebräuchliche Modifikation der Gewichtsaktualisierungsregel
ist der Einsatz eines Faktors α zur Verringerung von Gewichtsschwankungen. Die Ge-
wichtsveränderung wird also zu einer Kombination aus der aktuellen Gewichtsverände-
rung, die wie zuvor berechnet wird und einem Bruchteil der letzten Gewichtsveränderung.
Eine weitere Implementierungsvariante stellt die sogenannte Kohonen-Karte dar, die
als einschichtiges neuronales Netz aus einer Eingabe- und Ausgabeschicht besteht. Im
Gegensatz zu Backpropagation, bei der überwachtes Lernen stattfindet, vollzieht sich in
Merkmalskarten ein selbstorganisiertes Lernen. Jedes Mal, wenn dem Netz ein Einga-
Search WWH ::




Custom Search