Information Technology Reference
In-Depth Information
Hopfield-Netz über keine direkten Rückkopplungen verfügt, d. h. Rückkopplungen von
Neuronen mit sich selbst. Die Informationsverarbeitung innerhalb der Neuronen erfolgt
über ein einheitliches Neuronen-Modell, wobei die Eingangsfunktion als Summenfunkti-
on und die Ausgangsfunktion als Identitätsfunktion gestaltet ist, die somit keinen weiteren
Einfluss mehr auf die Signale nimmt. Als Aktivierungsfunktion kommt in den meisten
Fällen die Treppenfunktion zum Einsatz, die binäre Eingabe- und Ausgabedaten bedingt.
Theoretisch ist auch die Verwendung kontinuierlicher Aktivierungsfunktionen mit den
entsprechenden kontinuierlichen Ein- und Ausgabedaten denkbar. Der Lernalgorithmus
des Hopfield-Netzes ist bestrebt, die sogenannte Energiefunktion, die den Netzzustand
beschreibt, zu minimieren. Damit sind Hopfield-Netze grundsätzlich auch für Optimie-
rungsprobleme geeignet, sofern sich die zu optimierende Funktion als derartige Energie-
funktion formulieren lässt.
Im Gegensatz zu Backpropagation- und Hopfield-Netzen, bei denen überwachtes Ler-
nen zum Einsatz kommt, verwendet das nach seinem Entwickler benannte Kohonen-Netz
ein unüberwachtes Lernverfahren, dem beim Lernen ausschließlich Eingabemuster, also
keine gewünschten Ausgabemuster, zur Verfügung stehen. Es erkennt selbständig Ähn-
lichkeiten, Häufigkeiten oder Regelmäßigkeiten in den Eingabemustern und wandelt
sie in eine topologische Anordnung um. Das Kohonen-Netz, auch self-organizing map
oder Modell selbstorganisierender Karten genannt, hat eine wesentlich stärkere biologi-
sche Orientierung als das Backpropagation- und das Hopfield-Netz. Es basiert auf der
Erkenntnis neurologischer Forschung, dass die räumliche Anordnung der Neuronen im
Gehirn oft in Relation zu bestimmten Merkmalen der Eingabemuster steht. Die Neuro-
nen des Kohonen-Netzes sind in zwei Schichten angeordnet, einer Eingabeschicht und
einer Kohonen-Schicht, die auch als Wettbewerbs- oder Kartenschicht bezeichnet wird.
Alle Eingabe-Neuronen sind dabei über einen gerichteten Informationsfluss vollständig
mit den Neuronen der Kohonen-Schicht verbunden, so dass eine Feed-forward-Architek-
tur entsteht. Darüber hinaus bestehen in der Kohonen-Schicht laterale Verbindungen, die
eine zweidimensionale Neuronen-Fläche, auch Karte genannt, aufspannen. Die den zwei
Schichten zugrunde gelegten Neuronen-Modelle sind sehr verschiedenartig ausgelegt. Die
Informationsverarbeitung in den Neuronen der Eingabeschicht erfolgt, wie beim Backpro-
pagation-Netz, über die Summenfunktion als Eingangsfunktion, eine lineare, unbegrenz-
te Aktivierungsfunktion und die Identitätsfunktion als Ausgangsfunktion. Die Neuronen
der Kohonen-Schicht hingegen verwenden als Eingangsfunktion eine Summenfunktion,
die neben den Ausgabewerten der Eingabe-Neuronen, auch die Ausgabewerte der lateral
verbundenen Neuronen berücksichtigt. Als Aktivierungsfunktion kommt eine Sigmoid-
funktion zum Einsatz. Die Ausgangsfunktion schließlich bezieht die Aktivitätspegel aller
anderen Neuronen in die Berechnung des Ausgabe-Signals ein, wobei nur das Neuron mit
dem höchsten Aktivierungspegel sein Signal weiterleiten darf, ein Vorgehen, das auch
als Winner-takes-all-Prinzip oder Wettbewerbslernen bezeichnet wird. Entsprechend dem
Kohonen-Lernalgorithmus werden zunächst alle Gewichte mit Zufallswerten initialisiert.
Das Neuron mit der größten Ähnlichkeit des Gewichtsvektors zum Eingabevektor er-
hält den höchsten Aktivitätspegel und hemmt die anderen Neuronen, d. h., ausschließ-
Search WWH ::




Custom Search