Information Technology Reference
In-Depth Information
logik von NN erzeugt worden ist. Allerdings fehlt noch eine, vielleicht sogar die wesentliche
Komponente: NN werden schließlich vor allem konstruiert, um lernende bzw. adaptive Algo-
rithmen zu erhalten.
Im ersten Kapitel über komplexe Systemdynamiken wurde gezeigt, dass lernende bzw. adapti-
ve Systeme neben Topologie und Interaktionsregeln zusätzlich Metaregeln zur Modifizierung
der Interaktionsregeln und/oder der Topologie erfordern und außerdem eine Bewertungsfunkti-
on: Nur wenn lernende Systeme ständig Rückmeldungen hinsichtlich ihres Entwicklungserfol-
ges erhalten, können sie gezielte Korrekturen in Bezug auf ihre eigene Struktur vornehmen.
Das ist bei neuronalen Netzen nicht anders als bei individuell lernenden Menschen oder bei
sich evolutionär entwickelnden biologischen Gattungen, wo die Selektion die entsprechende
Rückmeldung übernimmt. Man muss demnach die bisher betrachteten NN also noch durch
Einfügung von Metaregeln hybridisieren, obwohl man das bei NN gewöhnlich nicht so nennt,
und es müssen außerdem Bewertungsfunktionen vorgesehen werden.
Da man bei NN aufgrund des neurobiologischen Vorbildes meistens nicht von Adaptation
sondern von Lernen spricht, nennt man die erforderlichen Metaregeln üblicherweise Lernre-
geln. Diese bestehen gewöhnlich darin, dass sie die Gewichtsmatrix in Abhängigkeit vom Lern-
erfolg modifizieren, bis der gewünschte Erfolg - die Problemlösung, das Optimum, das Mini-
mum bzw. der Attraktor im Lösungsraum - erreicht ist. Es gibt freilich auch Formen des Ler-
nens, die ohne ständige Rückmeldungen auskommen. Diese werden wir ebenfalls betrachten.
Man kann hier erneut sehen, wie vorteilhaft die oben dargestellte Erweiterung der Codierung in
der ursprünglichen Adjazenzmatrix ist: Man braucht gewöhnlich die Interaktionsregeln nicht
zu modifizieren, sondern es genügt eine zielgerichtete Variierung der Topologie. Einige Stan-
dardlernregeln werden wir bei der Darstellung von verschiedenen Grundtypen neuronaler Net-
ze vorstellen; zur Beschleunigung des Konvergenzverhaltens, d. h. des Erreichens einer Prob-
lemlösung bzw. eines Lernerfolges, werden häufig noch zusätzliche Algorithmen ad hoc einge-
führt.
Die einfachste Lernregel ist die Lernregel von Donald Hebb, die in der Einleitung zu diesem
Kapitel bereits kurz erwähnt worden ist. Zur Erinnerung sei kurz noch einmal darauf hingewie-
sen: Ist ein Axon der Zelle A nahe genug an einer Zelle B, um diese immer wieder zu erregen,
dann findet eine metabolische Veränderung in einer der beiden Zellen (oder in beiden) statt, so
dass die Effektivität der Zelle A gesteigert wird, um die Zelle B zu erregen. Entsprechend gilt
umgekehrt, dass Verbindungen zwischen A und B abgebaut werden, wenn keine Aktivierung
von B durch A erfolgt (falls vorher Verbindungen bestanden haben).
Formal wird die Größe der Veränderung mit 'w ij dargestellt und damit die Veränderung des
Gewichtswerts w von der Einheit i zur Einheit j:
'w ij =K a j o i ,
(4.7)
wobei K die so genannte Lernrate ist, a j der Aktivierungswert des empfangenden Neurons und
o i der Ausgang (Output) des sendenden Neurons. Unter dem Begriff der Lernrate, die hier als
numerischer Wert erscheint, kann man sich einen Faktor vorstellen, der die individuellen Lern-
prozesse steuert, z. B. individuelle Fähigkeiten bzw. Begabungen. Die Lernrate wird je nach
Problem festgelegt, meistens handelt es sich um einen reellen Wert 0 < K < 1.
Die Bewertungsfunktionen richten sich danach, wie schon im Kapitel über evolutionäre Algo-
rithmen erwähnt, ob es sich um überwachtes Lernen oder nicht überwachtes Lernen handelt.
Beim überwachten Lernen wird das zu erreichende Ziel normalerweise in Form eines Zielvek-
tors dargestellt; die Aufgabe eines überwacht lernenden NN besteht dann darin, die Distanz
Search WWH ::




Custom Search