Information Technology Reference
In-Depth Information
So besteht das einfachste neuronale Netz aus einem einzigen Neuron. Eine derart simple neuronale
Einheit bezeichnet man als Linear Treshold Unit (LTU) oder als adaptives lineares Element (adap-
tive lineare element, ADALINE). Trotz dieser Einfachheit lassen sich mit Hilfe solcher Neuronen
einige basale Funktionen realisieren. Um beispielsweise die logische UND-Funktion zu realisieren,
genügt ein solches Neuron, das zwei Eingabewerte entgegen nehmen kann. Dann genügt die all-
gemeine Summenfunktion als eine Schwellenwertfunktion als Aktivierungsfunktion und die Iden-
titätsfunktion als Ausgabefunktion. Mit den angegebenen Gewichten w 1 = 1 und w 2 = 1 und dem
Schwellenwert Φ=1.
lässt sich das gewünschte Verhalten erzielen.
Die einzelnen Verbindungsgewichte lassen sich in einer Matrix darstellen. Zum Vergleich
der einzelnen Architekturen lässt sich neben dem Matrix-Muster der Verbindungen auch
die Darstellung des Netzes als gerichteter Graph angeben. Als gerichteten Graphen be-
zeichnet man in der Graphentheorie einen Graphen, dessen Kantenmenge eine zweistel-
lige Relation über die Knoten ist. Gerichtete Graphen können dabei von azyklischer oder
zyklischer Natur sein. Azyklische Graphen wiederum kann man topologisch sortieren, sie
können zusammenhängend oder unzusammenhängend sein. Darüber hinaus können sie
endlich oder aber unendlich viele Knoten besitzen.
Neben dieser intrinsischen Topologie entscheidet die extrinsische Topologie darüber,
welche Neuronen auf die externe Umwelt direkt reagieren (Eingabeschicht), welche nur
indirekt über andere Neuronen (Zwischenschichten) und welche Neuronen das Ergeb-
nis (Output) nach außen repräsentieren bzw. weitergeben (Ausgabeschicht). Insofern hat
jedes Netz aus Neuronen einen Ein- und einen Ausgang. Die Eingabeneuronen (input
units) in einem künstlichen neuronalen Netz entsprechen den Neuronen des biologischen
Vorbildes und bilden gemeinsam die Eingabeschicht (input layer). Die Ausgabeneuronen
(output units) sind die Neuronen, die die verarbeiteten Informationen wieder aus dem
Netz ausgeben. Sie bilden zusammengenommen die Ausgabeschicht eines Netzes (output
layer). Sie entsprechen den Neuronen im biologischen Vorbild, die beispielsweise ihre
Impulse an die Muskeln weitergeben, die diese Impulse dann wiederum in motorische Im-
pulse umwandeln. Die Schichten von Neuronen, die zwischen der Eingabe- und der Aus-
gabeschicht liegen, werden verdeckte Schichten (hidden layers) genannt. Sie tragen diesen
Namen, weil nach einer Eingabe in das Netz die Ausgabe erfolgt, ohne dass der Betrachter
immer weiß, wie viele Neuronenschichten an der Informationsverarbeitung beteiligt und
wie sie untereinander verschaltet sind.
Neuronale Netze lassen sich auch bezüglich der Richtung der Aktivierungsprozesse
entsprechend der Gliederung in Schichten unterscheiden. Man spricht dabei von einem
Feedforward-Netz , wenn ein solches Netz einen externen Input enthält, diesen verarbeitet
und damit eine Aktivierung in der Ausgabeschicht bedingt. Dieser Aktivierungswert wird
gegebenenfalls als neuer Input an die Eingabeschicht eingereicht, was einen weiteren Ver-
arbeitungsprozess in Richtung Ausgabeschicht indiziert. Dieser Prozess wird solange fort-
gesetzt, bis eine Lösung gefunden ist.
Beim Feedback-Netz senden hingegen die Neurone der Ausgabeschicht ihre Aktivie-
rungen über die Neuronen der Zwischenschichten zur Eingabeschicht, die daraufhin mit
einer einschlägigen Veränderung ihrer Zustandswerte reagieren, um die Aktivierungen
Search WWH ::




Custom Search