Information Technology Reference
In-Depth Information
Epoche
x
1
x
2
o
xw y
e
w
1
w
2
w
1
w
2
0
0
0
1
0
0
0
0
1
1
1
0
0
1
0
0
0
1
0
1
0
0
0
0
0
1
0
0
1
0
0
1
0
0
0
0
0
1
0
0
1
1
1
1
0
1
1
1
1
0
1
1
2
0
0
0
0
1
1
1
0
0
1
1
1
0
1
0
0
1
1
1
0
1
2
1
0
1
0
0
1
0
0
0
0
0
2
1
0
1
1
1
1
0
1
1
1
1
1
2
1
3
0
0
0
1
0
0
0
0
0
1
2
1
0
1
0
0
1
1
1
0
1
2
2
0
1
0
0
0
1
1
1
1
0
3
1
0
1
1
1
2
0
1
1
1
1
2
2
1
4
0
0
0
2
0
0
0
0
0
2
2
1
0
1
0
1
0
0
0
0
0
2
2
1
1
0
0
0
1
1
1
1
0
3
1
1
1
1
1
1
0
1
1
1
1
2
2
2
5
0
0
0
2
0
0
0
0
0
2
2
2
0
1
0
0
1
1
1
0
1
3
2
1
1
0
0
1
0
0
0
0
0
3
2
1
1
1
1
0
1
0
0
0
0
3
2
1
6
0
0
0
3
0
0
0
0
0
3
2
1
0
1
0
2
0
0
0
0
0
3
2
1
1
0
0
1
0
0
0
0
0
3
2
1
1
1
1
0
1
0
0
0
0
3
2
1
Tabe l l e 3 . 4 : Tr a i ni ng e i ne s Schwe l l enwe r t e l ement e s für d i e Kon j unk t i on .
Für linear separable Funktionen, also solche, die tatsächlich von einem Schwel-
lenwertelement berechnet werden können, ist dagegen sichergestellt, dass die Algo-
rithmen eine Lösung finden. D. h., es gilt der folgende Satz:
Satz 3.1 (Konvergenzsatz für die Delta-Regel)
Sei L
= {(
x
1
,
o
1
)
,...
(
x
m
,
o
m
)}
eine Menge von Trainingsbeispielen, jeweils bestehend aus
einem Eingabevektor x
i
IR
n
und der zu diesem Eingabevektor gewünschten Ausgabe o
i
{
0, 1
}
.WeiterseiL
0
= {(
x
,
o
)
L
|
o
=
0
}
und L
1
= {(
x
,
o
)
L
|
o
=
1
}
.WennL
0
und L
1
linear separabel sind, d. h., wenn w
IR
n
und
IR
existieren, so dass
(
x
,0
)
L
0
:
wx
<
und
(
x
,1
)
L
1
:
wx
,
dann terminieren die Algorithmen 3.2 und 3.3.
Beweis:
Den Beweis, den wir hier nicht ausführen wollen, findet man z. B. in [Rojas
1996] oder in [Nauck u. a. 1997].