Information Technology Reference
In-Depth Information
Dies ist eine lineare Propagierungsfunktion, die sehr häufig verwendet wird und die offenbar
der Grundidee von McCulloch und Pitts entspricht. Es sei jedoch darauf hingewiesen, dass es
auch andere Propagierungsfunktionen gibt, die hier allerdings nicht weiter dargestellt werden.
Bei BN wird der Zustand einer sendenden Einheit einfach weitergegeben und nach den Interak-
tionsregeln von der Empfängereinheit verarbeitet, d. h., der Zustand der Empfängereinheit geht
in einen anderen über. Bei NN, die auch in dieser Hinsicht eine Generalisierung der BN sind,
muss das nicht so einfach sein. Entsprechend legen die Aktivierungsfunktionen F j (auch Trans-
ferfunktionen genannt) fest, wie der Zustand einer Empfängereinheit durch Signale der Sende-
einheiten, die ggf. diese Signale modifiziert haben, neu bestimmt wird. Je nach Architektur
jedoch wird häufig auf die Unterscheidung zwischen Propagierungs- und Aktivierungsfunktio-
nen verzichtet und nur mit Aktivierungsfunktionen gearbeitet; die sendenden Neuronen geben
dann ihren Zustand als Signal weiter wie es bei den BN geschieht. Bei künstlichen Neuronen
spricht man ebenfalls in Orientierung am biologischen Modell von Aktivierungszuständen.
Eine sehr häufig verwendete lineare Aktivierungsfunktion ist die folgende: Es seien a i die Ak-
tivierungszustände der Neuronen i, die auf ein bestimmtes Neuron j einwirken, und w ij seien
die „Gewichte“ der Verbindungen zwischen den Neuronen i und dem Neuron j, also die Maße
für die Stärke der Interaktionen. Dann ergibt sich der Zustand a j des empfangenden Neurons
als
a j = a i * w ij .
(4.2)
Die Zustände der sendenden Einheiten werden mit den jeweiligen Gewichtswerten multipli-
ziert, die die Verbindungen zum empfangenden Neuron charakterisieren, und anschließend
aufsummiert. Man erkennt sofort die Parallele zur obigen linearen Propagierungsfunktion. Es
sind auch andere Aktivierungsfunktionen denkbar und gebräuchlich; man kann z. B. mit logi-
schen Funktionen (BF) arbeiten wie in einem gewöhnlichen BN.
Genau betrachtet handelt es sich also um eine andere Darstellung der Propagierungsfunktion
und somit des Nettoinputs; in diesem Fall wird auf eine Unterscheidung verzichtet:
a j = net j .
(4.3)
Wird der Zeitpunkt mit einbezogen, bei dem jeweils ein bestimmter Zustand vorliegt, lautet die
allgemeine Funktion:
a j (t+1) = F j (a j (t), net j (t+1)),
(4.4)
wobei F j die jeweilige Aktivierungsfunktion ist, a j (t+1) den neuen und a j (t) den alten Aktivie-
rungszustand beschreiben; dies gilt entsprechend für den Nettoinput. Auch hier gilt, dass unter-
schiedliche Aktivierungsfunktionen möglich sind (daher die allgemeine Bezeichnung F j ), auf
die wir hier vorerst nicht näher eingehen. Mit anderen Worten: Der Zustand eines Neurons zu
einem neuen Zeitpunkt t + 1 ergibt sich a) aus der Aktivierungsfunktion F und zwar aus dem
Zustand zum Zeitpunkt t sowie b) aus dem Nettoinput zum Zeitpunkt t +1.
Ein weiterer wesentlicher Aspekt für die Konstruktion von NN ist die Einführung von Schwel-
lenwerten (auch Schwellwertfunktion genannt) . Die Schwellenwerte bestimmen, ob ein Neuron
(oder Neuronenverbund) die Aktivität an andere weiter gibt oder nicht, operieren also als eine
Art logischer Schalter. Wird ein bestimmter Schwellenwert nicht überschritten, passiert prak-
tisch nichts. In den verschiedenen NN-Modellen spielen die Schwellenwerte insbesondere bei
der Ausgabefunktion (siehe unten) eine Rolle; die Schwellenwerte werden meistens durch ein
T (gesprochen theta, der griechische Buchstabe für das th) dargestellt:
Search WWH ::




Custom Search