Information Technology Reference
In-Depth Information
y
y
y 4
y 4
y 3
y 3
y 2
y 2
y 1
y 1
x
x
x 1
x 2
x 3
x 4
x 1
x 2
x 3
x 4
· y 4
· y 3
· y 2
· y 1
0
0
0
0
Abbildung 6.8: Darstellung einer stückweise linearen Funktion durch eine gewichte-
te Summe von Dreieckfunktionen (mit Zentren x i ).
stellten Funktion durch eine gewichtete Summe von drei Gaußglocken (siehe Abbil-
dung 6.9 rechts). Das zugehörige Radiale-Basisfunktionen-Netz ist in Abbildung 6.10
gezeigt.
Es dürfte klar sein, dass das Prinzip der Annäherung einer reellwertigen Funkti-
on, das wir in diesemAbschnitt benutzt haben, nicht auf einparametrige Funktionen
beschränkt ist, sondern sich direkt auf mehrparametrige übertragen lässt. Im Unter-
schied zumehrschichtigen Perzeptren sieht man hier jedoch unmittelbar, dass immer
drei Schichten ausreichend sind, da die Basisfunktionen stets nur lokal die Ausgabe
des Netzes beeinflussen.
6.3
Initialisierung der Parameter
Bei mehrschichtigen Perzeptren haben wir die Initialisierung der Parameter (d. h.
der Verbindungsgewichte und Biaswerte) nur beiläufig behandelt, denn sie ist trivi-
al: Man wähle einfach zufällige, betragsmäßig nicht zu große Werte. Im Prinzip ist
ein solches Vorgehen zwar auch bei Radiale-Basisfunktionen-Netzen möglich, doch
führt es meist zu sehr schlechten Ergebnissen. Außerdem unterscheiden sich in ei-
nem Radiale-Basisfunktionen-Netz die versteckte Schicht und die Ausgabeschicht
stark, da sie verschiedene Netzeingabe- und Aktivierungsfunktionen verwenden —
im Gegensatz zu einem mehrschichtigen Perzeptron, in dem die versteckten Schich-
ten und die Ausgabeschicht gleichartig sind. Folglich sollten diese beiden Schichten
getrennt behandelt werden. Wir widmen daher der Initialisierung der Parameter ei-
nes Radiale-Basisfunktionen-Netzes einen eigenen Abschnitt.
Um die Darstellung möglichst verständlich zu halten, beginnen wir mit dem
Spezialfall der sogenannten einfachen Radiale-Basisfunktionen-Netze ,beidenenjedes
Tra iningsbe i spi e l durch e ine e igene radia l e Bas i s funkt ion abgedeckt wi rd. D. h. , es
gibt in der versteckten Schicht genau so viele Neuronen wie Trainingsbeispiele. Die
Search WWH ::




Custom Search