Information Technology Reference
In-Depth Information
Rechteckfunktion:
Dreieckfunktion:
0, wenn net
>
,
1, sonst.
0, wenn net
>
,
1
net
,sonst.
f
act
(
net,
)=
f
act
(
net,
)=
1
1
net
net
0
0
0
0
Kosinus bis Null:
Gaußsche Funktion:
0, wenn net
>
2
,
cos
(
2
net
)
+1
2
net
2
2
2
f
act
(
net,
)=
f
act
(
net,
)=
e
,sonst.
1
1
e
2
1
2
e
2
net
net
0
0
0
2
0
2
Abbildung 6.2: Verschiedene radiale Aktivierungsfunktionen.
Die Aktivierungsfunktion eines versteckten Neurons und ihre Parameter bestim-
men die „Größe“ des Einzugsgebietes des Neurons. Wir nennen diese Aktivierungs-
funktion eine
radiale Funktion
,dasieentlangeinesStrahles(lat.
radius
:Strahl)von
dem Zentrum, das durch den Gewichtsvektor beschrieben wird, definiert ist und
so jedem Radius (jedem Abstand vom Zentrum) eine Aktivierung zuordnet. Bei-
spiele für radiale Aktivierungsfunktionen, die alle einen Parameter, nämlich einen
(Referenz-)Radius
,besitzen,zeigtAbbildung6.2(vergleicheauchAbbildung5.2auf
Seite 45).
Man beachte, dass nicht alle dieser radialen Aktivierungsfunktionen den Ein-
zugsbereich scharf begrenzen. D. h., nicht für alle Funktionen gibt es einen Radius,
ab dem die Aktivierung 0 ist. Bei der Gaußschen Funktion etwa liefert auch ein be-
liebig weit vom Zentrum entfernter Eingabevektor noch eine positive Aktivierung,
wenn diese auch wegen des exponentiellen Abfallens der Gaußschen Funktion ver-
schwindend klein ist.
Die Ausgabeschicht eines Radiale-Basisfunktionen-Netzes dient dazu, die Akti-
vierungen der versteckten Neuronen zu der Ausgabe des Netzes zu verknüpfen (ge-
wichtete Summe als Netzeingabefunktion) — ähnlich wie in einem mehrschichtigen
Perzeptron. Man beachte allerdings, dass in einemRadiale-Basisfunktionen-Netz die
Aktivierungsfunktion der Ausgabeneuronen eine lineare Funktion ist. Der Grund