Information Technology Reference
In-Depth Information
Das Self Enforcing Network (SEN)
Nicht zuletzt aufgrund der relativen Kompliziertheit der SOM-Algorithmen entwickelten wir
das SEN, dessen wesentliche Lernregel aus dem in 4.2.5 dargestellten allgemeinen Lern-
paradigma abgeleitet ist. Es handelt sich also um eine Lernregel, die ohne die Berücksichtigung
der verschiedenen Outputwerte auskommt (im Gegensatz zum SOM). Das SEN ist prinzipiell
für Klassifikationszwecke sowie die Ordnung von Daten entwickelt worden, was in einem
Anwendungsbeispiel in Kapitel 4.5 deutlich werden wird.
Ein SEN besteht aus drei gekoppelten Teilen:
a) Es gibt eine sog. semantische Matrix, in der logisch-semantische Beziehungen zwischen
den verschiedenen Objekten enthalten sind, die vom SEN geordnet werden sollen. Wenn man
z. B. als inhaltliche Basis für die semantische Matrix eine übliche Datenbank verwendet, dann
sind in der Matrix insbesondere die Beziehungen zwischen Objekten und Attributen enthalten,
also die Information darüber, ob ein spezielles Objekt A über ein Attribut X verfügt. Wenn es
nur darum geht, ob ein Attribut vorliegt oder nicht, reicht eine binäre Codierung aus - 1 für
„liegt vor“, 0 für „liegt nicht vor“. Will man zusätzlich ausdrücken in welchem Maße ein Attri-
but vorliegt - stark, mittel, schwach etc. . -, dann wird die Matrix reell codiert, gewöhnlich mit
Werten zwischen 0 und 1. Ein Beispiel für eine binär codierte Matrix, das von Ritter und
Kohonen (1989) stammt, zeigt die folgende Graphik. Ritter und Kohonen haben diese Technik
für selbstorganisiert lernende Netze, nämlich SOM, u. W. zuerst verwendet; der Begriff der
semantischen Matrix ist von uns eingeführt worden.
Adler
Kuh
Löwe
fliegt
1
0
0
Fleischfresser
1
0
1
Säugetier
0
1
1
b) Der zweite Teil eines SEN ist das eigentliche Netzwerk. Es handelt sich, ähnlich wie die
sog. Hopfield-Netze, um ein einschichtiges „rekurrentes Netzwerk“, bei dem prinzipiell alle
Neuronen miteinander verbunden sein können. Die unten dargestellte Lernregel operiert aller-
dings so, dass nur bestimmte Neuronen Verbindungen mit Gewichtswerten ungleich Null ha-
ben können.
Die Gewichtsmatrix enthält vor Beginn des eigentlichen Lernvorgangs nur Werte w = 0. Die
Neuronen des Netzwerks repräsentieren die Objekte, in diesem kleinen Beispiel also die Be-
griffe für die drei Tiere, sowie die Attribute. Das Netz hat demnach in diesem extrem einfachen
Beispiel sechs Einheiten (das Originalbeispiel von Ritter und Kohonen ist wesentlich größer,
aber wir bringen hier nur einen Ausschnitt).
Die Aktivierungsfunktion eines SEN kann optional eingestellt werden. Man kann die einfache
lineare Aktivierungsfunktion wählen:
(4.26)
wobei A j der Aktivierungswert des „empfangenen“ Neurons j ist, A i die Aktivierungswerte der
„sendenden“ Neuronen i und w ij die Gewichtswerte zwischen den Neuronen i und j. Diese sehr
einfache Funktion ist vermutlich die biologisch plausibelste und hat wegen ihrer Einfachheit
den Vorzug, dass sie das Verständnis der Netzwerkprozesse wesentlich erleichtert. Bei großen
und insbesondere rekurrenten Netzwerken, in denen viele Neuronen miteinander direkt verbun-
den sind, hat sie jedoch den Nachteil, dass wegen der Linearität die Aktivierungswerte schnell
sehr groß werden können. Dann ist man gezwungen, zusätzliche „Dämpfungsparameter“ einzu-
A ¦ w ij ,
A j
Search WWH ::




Custom Search