Information Technology Reference
In-Depth Information
Epoche
x 1
x 2
o
xw y
e
w 1 w 2
w 1 w 2
0
0
0
1
0
0
0
0
1
1
1
0
0
1
0
0
0
1
0
1
0
0
0
0
0
1
0
0
1
0
0
1
0
0
0
0
0
1
0
0
1
1
1
1
0
1
1
1
1
0
1
1
2
0
0
0
0
1
1
1
0
0
1
1
1
0
1
0
0
1
1
1
0
1
2
1
0
1
0
0
1
0
0
0
0
0
2
1
0
1
1
1
1
0
1
1
1
1
1
2
1
3
0
0
0
1
0
0
0
0
0
1
2
1
0
1
0
0
1
1
1
0
1
2
2
0
1
0
0
0
1
1
1
1
0
3
1
0
1
1
1
2
0
1
1
1
1
2
2
1
4
0
0
0
2
0
0
0
0
0
2
2
1
0
1
0
1
0
0
0
0
0
2
2
1
1
0
0
0
1
1
1
1
0
3
1
1
1
1
1
1
0
1
1
1
1
2
2
2
5
0
0
0
2
0
0
0
0
0
2
2
2
0
1
0
0
1
1
1
0
1
3
2
1
1
0
0
1
0
0
0
0
0
3
2
1
1
1
1
0
1
0
0
0
0
3
2
1
6
0
0
0
3
0
0
0
0
0
3
2
1
0
1
0
2
0
0
0
0
0
3
2
1
1
0
0
1
0
0
0
0
0
3
2
1
1
1
1
0
1
0
0
0
0
3
2
1
Tabe l l e 3 . 4 : Tr a i ni ng e i ne s Schwe l l enwe r t e l ement e s für d i e Kon j unk t i on .
Für linear separable Funktionen, also solche, die tatsächlich von einem Schwel-
lenwertelement berechnet werden können, ist dagegen sichergestellt, dass die Algo-
rithmen eine Lösung finden. D. h., es gilt der folgende Satz:
Satz 3.1 (Konvergenzsatz für die Delta-Regel)
Sei L = {( x 1 , o 1 ) ,... ( x m , o m )} eine Menge von Trainingsbeispielen, jeweils bestehend aus
einem Eingabevektor x i IR n und der zu diesem Eingabevektor gewünschten Ausgabe o i
{ 0, 1 } .WeiterseiL 0 = {( x , o ) L | o = 0 } und L 1 = {( x , o ) L | o = 1 } .WennL 0
und L 1 linear separabel sind, d. h., wenn w IR n und IR existieren, so dass
( x ,0 ) L 0 :
wx <
und
( x ,1 ) L 1 :
wx ,
dann terminieren die Algorithmen 3.2 und 3.3.
Beweis: Den Beweis, den wir hier nicht ausführen wollen, findet man z. B. in [Rojas
1996] oder in [Nauck u. a. 1997].
Search WWH ::




Custom Search