Information Technology Reference
In-Depth Information
Epoche
x
1
x
2
o
xw y
e
w
1
w
2
w
1
w
2
0
0
0
1
0
0
1
0
1
0
0
0
0
0
0
0
1
1
1
0
1
0
0
1
1
0
1
0
1
1
1
0
0
0
0
0
0
0
1
0
2
1
1
1
1
0
1
1
1
0
1
0
2
0
0
1
0
1
0
0
0
0
0
1
0
1
1
1
0
1
0
0
1
1
0
1
1
1
1
1
1
0
0
0
1
1
0
2
0
3
1
1
1
1
0
1
1
1
1
1
0
3
0
0
1
0
1
0
0
0
0
0
1
0
1
1
1
0
1
0
0
1
1
0
1
1
1
1
1
1
0
0
0
1
1
0
2
0
3
1
1
1
1
0
1
1
1
1
1
0
Tabe l l e 3 . 5 : Tr a i ni ng e i ne s Schwe l l enwe r t e l ement e s für d i e B i imp l i ka t i on .
Da die Algorithmen nur terminieren, wenn der Fehler verschwindet, ist klar, dass
die berechneten Werte für die Gewichte und den Schwellenwert eine Lösung des
Lernproblems sind.
3.6 Varianten
Alle Beispiele, die wir bisher betrachtet haben, bezogen sich auf logische Funktionen,
wobei wir
falsch
durch 0 und
wahr
durch 1 dargestellt haben. Diese Kodierung hat
jedoch den Nachteil, dass bei einer Eingabe von
falsch
das zugehörige Gewicht nicht
verändert wird, denn die Formel für die Gewichtsänderung enthält ja die Eingabe
als Faktor (siehe Definition 3.2 auf Seite 25). Dieser Nachteil kann das Lernen unnö-
tig verlangsamen, da nur bei Eingabe von
wahr
das zugehörige Gewicht angepasst
werden kann.
ImADALINE-Modell (ADAptive LINear Element) verwendet man daher die Ko-
dierung
falsch
=
1und
wahr
=
1, wodurch auch eine Eingabe von
falsch
bei fehler-
hafter Ausgabe zu einer Gewichtsanpassung führt. In der Tat wurde die Delta-Regel
ursprünglich für das ADALINE-Modell angegeben [Widrow u. Hoff 1960], so dass
man eigentlich nur bei Verwendung dieser Kodierung von der
Delta-Regel
oder dem
Widrow-Hoff-Verfahren
sprechen kann. Das Verfahren lässt sich zwar genauso anwen-
den, wenn als Kodierung
falsch
=
0und
wahr
=
1verwendetwird(siehedenvoran-
gehenden Abschnitt), doch findet man es zur Unterscheidung dann manchmal als
Fehlerkorrekturverfahren
(error correction procedure) bezeichnet [Nilsson 1965, 1998].
Wir sehen hier von dieser Unterscheidung ab, da sie mehr auf historischen als auf
inhaltlichen Gründen beruht.