Information Technology Reference
In-Depth Information
der Größenordnung von 0.1 oder 0.2. Das Netzwerk erreicht dann einen Attraktor, meistens
einen Punktattraktor, der die endgültigen Aktivierungswerte für alle Neuronen festlegt. Bei
Klassifizierungsaufgaben werden meistens die Neuronen extern aktiviert, die die Attribute
eines Objekts repräsentieren, das in Bezug auf bereits vorhandene Objekte eingeordnet werden
soll. Wenn also beispielsweise in das obige einfache Netz eine neue Eingabe eingefügt und
durch das Netz eingeordnet werden soll, etwa „Eule“ mit den Attributen „fliegt“, „nicht Säuge-
tier“, „Fleischfresser“, dann wird das Neuron „Eule“ zusätzlich in das Netz eingegeben und die
Neuronen „fliegt“ sowie „Fleischfresser“ werden extern aktiviert.
c) Der dritte Teil eines SEN ist ein Visualisierungsteil. Dieser besteht darin, dass die Stärke der
Endaktivierungen das Maß dafür ist, wie ähnlich die verschiedenen Objekte einander sind.
Haben zwei Objekte eine annähernd gleiche oder nur gering verschiedene Endaktivierung,
dann gelten sie als ähnlich und umgekehrt. Der Visualisierungsalgorithmus transformiert die
Ähnlichkeiten in geometrische Distanzen, wobei räumliche Nähe eine semantische Ähnlichkeit
ausdrückt und größere räumliche Distanzen ein hohes Maß an Unähnlichkeit. Wenn man etwa
sich räumlich vorstellen will, wohin „Eule“ relativ zu den anderen drei Tieren gehört, dann
wird vom Visualisierungsalgorithmus das Neuron „Eule“ ins Zentrum des Gitters platziert, das
auf dem Monitor erzeugt wird; die anderen Tiere, d. h. natürlich ihre Repräsentationen durch
Neuronen, werden dann von „Eule“ gewissermaßen in ihre Richtung gezogen. Am Ende plat-
zieren sich die Neuronen um die „Eule“ herum, wobei in diesem Fall „Adler“ ganz nahe an
„Eule“ sein dürfte und „Kuh“ relativ entfernt.
Es ist noch darauf zu verweisen, dass ein SEN bei praktischen Anwendungen gewöhnlich mit
sog. Referenztypen arbeitet. Dies bedeutet, dass bestimmte Objekte jeweils fest vorgegeben
sind, an denen sich die vom Benutzer erstellten Eingaben orientieren. Das wird am Beispiel in
4.5.2 noch verdeutlicht werden; in einem SOM Beispiel wird ebenfalls nach dieser Methode
vorgegangen.
Die Formel für die Berechnung der Distanz zwischen zwei Objektneuronen ist übrigens einfach
durch die Berechnung der Differenz zwischen den Endaktivierungswerten der beiden Neuronen
definiert.
4.4 Zusammenfassung und „Neurogenerator“
Wie in der Einleitung zu diesem Subkapitel bereits erwähnt, gibt es unterschiedliche Modelle
neuronaler Netze, die aus der Wahl der jeweiligen Topologie, Lernregeln, Funktionen, Anwen-
dungen etc. resultieren. In der Literatur gibt es keine einheitliche Klassifizierung der unter-
schiedlichen Modelle, daher gehen wir von den wesentlichen Eigenschaften neuronaler Netze
aus, um zu zeigen, nach welchen Gesichtspunkten Klassifizierungen vorgenommen werden
können.
1. Die wesentlichen Eigenschaften im Sinne einer Anwendung sind:
a)
Musterassoziation (z. B. Heteroassoziative Speicher, feed forward Netze)
b)
Mustererkennung (z. B. Hopfield und wieder feed forward Netze)
c)
Optimierung (z. B. Hopfield, Selbstorganisierende Karte bzw. Kohonen-Karte
(SOM))
d)
Ordnung implizit vorgegebener Daten (z. B. SOM und Self Enforcing Network (SEN)
e)
Klassifizierung (SOM und SEN)
f)
Prognose (z. B. Boltzmann-Maschine und feed forward Netze)
Search WWH ::




Custom Search