Information Technology Reference
In-Depth Information
Rechteckfunktion:
Dreieckfunktion:
0, wenn net > ,
1, sonst.
0, wenn net > ,
1 net ,sonst.
f act ( net, )=
f act ( net, )=
1
1
net
net
0
0
0
0
Kosinus bis Null:
Gaußsche Funktion:
0, wenn net > 2 ,
cos ( 2 net ) +1
2
net 2
2 2
f act ( net, )=
f act ( net, )= e
,sonst.
1
1
e 2
1
2
e 2
net
net
0
0
0
2
0
2
Abbildung 6.2: Verschiedene radiale Aktivierungsfunktionen.
Die Aktivierungsfunktion eines versteckten Neurons und ihre Parameter bestim-
men die „Größe“ des Einzugsgebietes des Neurons. Wir nennen diese Aktivierungs-
funktion eine radiale Funktion ,dasieentlangeinesStrahles(lat. radius :Strahl)von
dem Zentrum, das durch den Gewichtsvektor beschrieben wird, definiert ist und
so jedem Radius (jedem Abstand vom Zentrum) eine Aktivierung zuordnet. Bei-
spiele für radiale Aktivierungsfunktionen, die alle einen Parameter, nämlich einen
(Referenz-)Radius ,besitzen,zeigtAbbildung6.2(vergleicheauchAbbildung5.2auf
Seite 45).
Man beachte, dass nicht alle dieser radialen Aktivierungsfunktionen den Ein-
zugsbereich scharf begrenzen. D. h., nicht für alle Funktionen gibt es einen Radius,
ab dem die Aktivierung 0 ist. Bei der Gaußschen Funktion etwa liefert auch ein be-
liebig weit vom Zentrum entfernter Eingabevektor noch eine positive Aktivierung,
wenn diese auch wegen des exponentiellen Abfallens der Gaußschen Funktion ver-
schwindend klein ist.
Die Ausgabeschicht eines Radiale-Basisfunktionen-Netzes dient dazu, die Akti-
vierungen der versteckten Neuronen zu der Ausgabe des Netzes zu verknüpfen (ge-
wichtete Summe als Netzeingabefunktion) — ähnlich wie in einem mehrschichtigen
Perzeptron. Man beachte allerdings, dass in einemRadiale-Basisfunktionen-Netz die
Aktivierungsfunktion der Ausgabeneuronen eine lineare Funktion ist. Der Grund
Search WWH ::




Custom Search