Information Technology Reference
In-Depth Information
Bei der synchronen Aktivierung werden die Aktivierungszustände aller Neuronen des
Netzes zur gleichen Zeit berechnet. In einem weiteren Schritt werden ebenfalls gleichzei-
tig ihre Ausgaben berechnet. Diese Form der Aktivierung ist bei rekurrenten Netzen von
Vorteil, da die Berechnung der Aktivierungszustände einzelner Neuronen nachvollzieh-
bar bleibt und kein Datenchaos entsteht. Bei feedforward-Netzen ist die synchrone Akti-
vierung allerdings nachteilig, da sie im Vergleich zu anderen Aktivierungsarten langsam
arbeitet.
Bei der asynchronen Aktivierung werden die Werte einzelner Zellen zu unterschied-
lichen Zeitpunkten berechnet. Damit ist die asynchrone Aktivierung dem biologischen
Vorbild näher als die synchrone. Je nach Reihenfolge, in der die Neuronen angesprochen
werden, lassen sie sich in vier Modi aufteilen:
Feste Ordnung (fixed order): Bei einer festen Ordnung errechnen die Zellen in einer
vorher festgelegten Reihenfolge ihre Werte. Jede Zelle wird dabei einmal angespro-
chen. Entspricht die Reihenfolge der Netztopologie, ist dieses Verfahren für feedfor-
ward-Netze das schnellste Verfahren.
Zufällige Ordnung (random order): Die Reihenfolge der angesprochenen Neuronen
unterliegt bei der zufälligen Ordnung dem Zufall. Es errechnet dann sowohl seinen
Aktivierungszustand, wie auch seine Ausgabe. Ein Lebenszyklus für ein Netz mit n
Neuronen ist dann beendet, wenn n Neuronen angesprochen wurden. Dabei kann es
sein, dass eine Zelle mehrfach, andere gar nicht angesprochen werden. Sie findet daher
nur selten Verwendung bei der Modellierung künstlicher neuronaler Netze.
Zufällige Permutation (random permutation): Dieser Modus funktioniert ähnlich wie
der Zufallsmodus. Die Reihenfolge der angesprochenen Neuronen ändert sich jedoch
von Zyklus zu Zyklus. Außerdem wird sichergestellt, dass jedes Neuron genau einmal
angesprochen wird. Die Berechnung der zufälligen Permutation ist allerdings zeitauf-
wendig.
Topologische Ordnung (topological order): Diese Ordnung ist bestimmt durch die To-
pologie eines Netzes. Das bedeutet, dass zuerst alle Werte der Neuronen, die in der Ein-
gabeschicht vorkommen, berechnet werden, dann die der versteckten Schichten. Der
Zyklus ist abgeschlossen, nachdem zuletzt die Werte der Zellen der Ausgabeschicht
berechnet wurden. Dieser Modus ist für feedforward-Netze besonders günstig.
Neuronale Netze zeichnen sich dadurch aus, dass sie lernfähig sind. Zum Lernen bedarf
es einer Kontrollinstanz, die die Netzausgabe mit der gewünschten Ausgabe vergleicht. Je
nachdem, wo diese Kontrollinstanz in den Ablauf der Berechnung eingreift, lässt sich das
Lernen klassifizieren. Es gibt drei verschiedene Arten des systemischen Lernens durch
neuronale Netze.
Überwachtes Lernen (supervised learning): Beim überwachten Lernen wird dem Netz
neben dem Eingabemuster auch die erwünschte Ausgabe angegeben. Das Netz ver-
gleicht sie mit der errechneten Ausgabe und modifiziert die verwendeten Rechenkom-
Search WWH ::




Custom Search