Information Technology Reference
In-Depth Information
Dieses Verhalten wird durch stochastische Aktivierungsfunktionen erreicht, wobei diese
Funktion nicht die Aktivierung direkt berechnet, sondern nur die Wahrscheinlichkeit der
Zustandsänderung beeinflusst: falls
netk/T
Zufallswert
<=
11
/(
+
(
e
)
dann onst
1
,
0
.
Ist die Netzeingabe positiv, dann wird das Neuron aktiviert. Mit einer gewissen Wahr-
scheinlichkeit sollte es jedoch deaktiviert werden. Ein positives net k führt in Abhängigkeit
von T zu einem Wert nahe 1 und somit zu einer hohen Wahrscheinlichkeit des Aktivie-
rens. Analog ergibt sich hieraus unmittelbar das Verhalten für eine negative Netzeingabe.
Mit dem Temperatur-Parameter T wird das Verhalten gesteuert. Ein sehr großes T führt
zu einem wahrscheinlichen An- bzw. Ausschalten des Neurons. Für das Einschwingen
kommt ein Abkühlungsplan zum Einsatz, der den Temperatur-Parameter schrittweise ver-
ringert, so dass Aktivierungsänderungen von Neuronen immer seltener auftreten, sofern
damit Energieerhöhungen verbunden sind.
ALGORITHMUS : Boltzmann Netz
Wähle genügend großen Temperatur-Parameter T.
WIEDERHOLE
WIEDERHOLE
Wähle zufällig Neuron k aus
Bestimme neuen Ausgabewert ok
SOLANGE Energieniveau im Mittel konstant
Verringere Temperatur.
SOLANGE Stabiler Zustand
ENDE-ALGORITHMUS
Alle bisher betrachteten Neuronalen Netze können so trainiert werden, dass sie in der
Lage sind, auf neue, unbekannte Eingaben zu reagieren. Allerdings ist die mögliche Re-
aktion auf die vorher antrainierte Reaktion beschränkt. Das selbstständige, autonome Re-
agieren auf bis dato unbekannte Situationen stellt somit eine Aufgabenstellung dar, die
einen hierfür speziellen Ansatz erfordert. Es gilt also ein Netz zu entwerfen, das autonom
erkennt, ob ein Muster vorliegt, welches nicht zu den bekannten Klassen zugeordnet wer-
den kann. Dieses neue Muster sollte dann zusätzlich zu den bereits gelernten Mustern
gemerkt werden (Plastizität) und die vorher bekannten Muster müssen auch weiterhin
ordnungsgemäß erkannt werden (Stabilität). Die Forderung nach Stabilität und Plastizi-
tät birgt ein Dilemma in sich, da nicht immer klar ist, ob ein Muster tatsächlich ein neues
Muster ist oder ob dieses Muster ein etwas verrauschtes Exemplar aus einer bereits be-
kannten Klasse darstellt. Dieses Dilemma lässt sich nur unter Beachtung eines Maßes für
die Ähnlichkeit von Mustern, einem sogenannten Ähnlichkeitsmaß auflösen. Nach der
Adaptive-Resonanz-Theorie (ART) werden neue Muster bearbeitet und in das Gedächtnis
aufgenommen, ohne dass das vorher gelernte Muster einfach vergessen wird. Alle Muster,
deren Abstand zueinander kleiner sind als zu einem eigens eingeführten Ähnlichkeits-
parameter, werden einer gemeinsamen Klasse zugeordnet. Der Kern eines ART-Netzes
besteht aus zwei Schichten. Die Vergleichsschicht speichert für jede Klasse das Referenz-
muster der Klasse. Die Erkennungsschicht besteht aus Neuronen, die die Erkennung einer
Search WWH ::




Custom Search