Information Technology Reference
In-Depth Information
Die Vorgehensweise bei der Realisierung eines überwacht lernenden Netzwerkes kann in Form
eines Pseudocodes für die üblichen Standardfälle wie folgt beschrieben werden:
(a) bestimme einen Vektor, der als Lehrmuster interpretiert wird (der Einfachheit halber binä-
re Werte);
(b) bestimme die Inputeinheiten (ebenfalls der Einfachheit halber binäre Werte);
(c) gehe von einem feed-forward Netzwerk aus mit einer Eingabeschicht, ggf. einer Zwi-
schenschicht und einer Ausgabeschicht;
(d) bestimme die Schwellenwerte;
(e) bestimme die Lernregel;
(f) generiere zufällig reelle Gewichtswerte;
(g) wähle die lineare Aktivierungsfunktion und als Ausgabefunktion die Identitätsfunktion;
(h) überprüfe das Ergebnis (output) anhand des Lehrmusters;
(i) ist das Ergebnis ungleich dem Lehrmuster, verändere die Gewichtswerte solange bis Er-
gebnis = Lehrmuster bzw. die Differenz hinreichend klein ist.
Da der Prozess der Veränderung von Gewichtswerten unter Umständen nicht unmittelbar nach-
vollziehbar ist, seien noch einige zusätzliche Hinweise gegeben: Um relativ schnell ein zufrie-
den stellendes Ergebnis zu erreichen, muss überprüft werden, ob das Ergebnis einer Netzwerk-
komponente (output) größer oder kleiner ist als die entsprechende Komponente im Lehrmuster.
Sollte das Ergebnis der Netzwerkkomponente 0 sein, das erwünschte Ergebnis im Lehrmuster
ist aber 1, dann sollte der Gewichtswert um einen bestimmten Wert (den angegebenen Wert der
Lernrate) vergrößert werden. Entsprechend muss der Gewichtswert verkleinert werden, falls
das erwünschte Ergebnis 0 sein sollte, jedoch 1 als Ergebnis des Outputs vorliegt. Ist das aktu-
elle Ergebnis mit dem erwünschten identisch, wird der Gewichtswert natürlich nicht verändert.
Entsprechend kann auch der Schwellenwert automatisch variiert werden: Je nach Differenz
kann dieser minimal vergrößert oder verkleinert werden.
Mit den Festlegungen der Topologie (= Gewichtsmatrix), der extern orientierten Topologie
(Schichten), der Interaktionsregeln (= Propagierungs-, Aktivierungs- und Ausgabefunktion),
der Architektur der Metaregeln (= Lernregel) und der Bewertungsfunktion (nicht überwacht
oder überwacht) ist die Grundstruktur eines lernenden NN determiniert.
Es sei noch einmal betont, dass die obigen Unterscheidungen zwischen Richtungskonstanz
(feed forward) und Richtungsänderung (feed back) sich auch bei einfachen BN realisieren
lassen; das Gleiche gilt für die anderen Zusätze hinsichtlich Lernregeln, Bewertungsfunktionen
und Schichtengliederungen. Damit ist auch schon experimentiert worden (Patterson 1995). Wir
weisen nur deswegen noch einmal darauf hin, um festzuhalten: NN sind praktisch eigentlich
nichts anderes als generalisierte BN mit den erwähnten Zusätzen zur Ermöglichung von Lern-
fähigkeit. In beiden Fällen wird ausgenützt, dass zum Teil sehr unterschiedliche Probleme sich
darstellen lassen als „Vernetzung“ von bestimmten Einheiten und dass damit bei aller mögli-
chen Verschiedenheit der jeweiligen inhaltlichen Probleme diese sich auf eine gleichartige
Weise bearbeiten lassen.
4.2.5 Ein allgemeines Lernparadigma
Wenn man sich die hier behandelten etablierten Lernregeln betrachtet, dann fallen bei aller
Leistungsfähigkeit dieser Regeln gewissermaßen zwei Schönheitsfehler auf. Zum einen sind
die Regeln vor allem für die Fälle des überwachten Lernens einerseits und die des nicht über-
wachten bzw. selbstorganisierten Lernens andererseits nicht sehr einheitlich, obwohl sich alle
Search WWH ::




Custom Search