Information Technology Reference
In-Depth Information
ner“ in so genannten Clustern, d. h. topologisch angeordneten Gruppen bzw. Anhäufungen,
gruppiert. Etwas genauer: Nach jeweils einem Eingabesignal wird das Neuron ausgewählt, das
den höchsten Aktivierungszustand hat; dies ergibt bei mehreren Eingabesignalen gewöhnlich
auch mehrere selektierte Neuronen. Diese Neuronen bilden dann die Clusterzentren. Dadurch
wird insbesondere gewährleistet, dass nach erfolgter Lernphase neue Signale, die einem bereits
eingegebenen Signal ähnlich sind, auch wieder den entsprechenden Cluster aktivieren. Derarti-
ge „Clusterungen“ von Einheiten lassen sich auch bei Zellularautomaten und Booleschen Net-
zen finden; wir hatten im 2. Kapitel dafür ein Beispiel gegeben, wie lokale Attraktoren in Clus-
tern von Zellen eines stochastischen ZA entstehen.
Bei dem Winner-take-all-Prinzip gilt, dass die jeweiligen Entfernungen der nicht selektierten
Neuronen zu ihren Clusterzentren minimiert werden sollen. Damit ist gemeint, dass die Ge-
wichtsverbindungen zwischen den entsprechenden Einheiten vergrößert werden - eine Varian-
te des Prinzips von Hebb. Ein Attraktor ist erreicht, wenn sich die Entfernungen in den Clus-
tern zwischen den Zentren und den anderen Neuronen nicht mehr verändern. Man verwendet
also gewissermaßen die Geometrie der Netzwerke als Bewertungsdimension.
Technisch heißt das also, dass alle nicht selektierten Neuronen gemäß ihren eigenen Aktivie-
rungszuständen den jeweiligen selektierten Neuronen (den Clusterzentren) zugeordnet werden,
also den selektierten Neuronen, deren Aktivierungszustände ihnen am ähnlichsten sind. An-
schließend werden die Gewichtswerte der Verbindungen zwischen den einzelnen Neuronen
und ihren Zentren systematisch erhöht und die Gewichtswerte der Verbindungen zu den ande-
ren Clusterzentren sowie den nicht zum eigenen Cluster gehörigen Neuronen reduziert.
Für die Veränderung der Gewichtswerte gilt entsprechend:
w ij (t+1) = w ij (t) + K(o i - w ij (t)),
(4.10)
wobei die Lernrate K einen Wert > 0 hat; ansonsten entsprechen die Symbole denen bei der
Hebbschen Lernregel. Es sei jedoch auf den Unterschied hingewiesen, dass in diesem Fall das
Ergebnis der Multiplikation der Gewichtswerte w ij mit der Lernrate zusätzlich zu dem Ge-
wichtswert addiert wird.
Es sei der Vollständigkeit halber erwähnt, dass zusätzlich das verstärkende Lernen (reinfor-
cement learning) als Regel verwendet wird, die praktisch zwischen dem überwachtem und
nicht überwachtem Lernen anzusiedeln ist: Der Lehrer gibt in diesem Fall nicht das Ziel vor,
sondern lediglich die Meldung, ob das Ergebnis besser als bisher geworden ist oder nicht (Zell,
2000). Dies entspricht im Prinzip dem bereits bekannten Lern- bzw. Optimierungsverfahren bei
den evolutionären Algorithmen und beim Simulated Annealing, wo das System ebenfalls ledig-
lich die Rückmeldung bekommen kann, ob die bewerteten Vektoren besser oder schlechter
geworden sind, gemessen am jeweiligen Fitnesswert (siehe Kapitel 3). Daher ist es nicht ver-
wunderlich, dass häufig genetische Algorithmen bzw. Simulated Annealing verwendet werden,
um die Parameter neuronaler Netze zu verändern (Braun, 1997). Eine andere Möglichkeit,
verstärkendes Lernen zu realisieren, besteht darin, dass sich das System ein „Bild“ von dem
erwünschten Ergebnis macht. Entsprechend werden die tatsächlichen Ergebnisse verglichen, ob
sie besser oder schlechter als das Bild sind. Die genaue Beschreibung zu diesem Verfahren
findet sich bei Jordan und Rumelhart (2002) unter dem Stichwort „distal learning“. Es muss
jedoch darauf - wieder einmal - verwiesen werden, dass häufig nur die eine oder die andere
Möglichkeit zur Definition des verstärkenden Lernens verwendet wird, was das Verständnis
nicht unbedingt erleichtert.
Search WWH ::




Custom Search