Information Technology Reference
In-Depth Information
Aktivierungszustände der vier Output-Neuronen in eine Binärzahl wird mit Hilfe einer Schwel-
lenwert-Funktion vorgenommen: Wenn der Aktivierungswert des Output-Neurons > 0.5 ist,
dann ist die Ausgabe = 1, sonst 0. Die Binärzahl wird anschließend für die Ausgabe an den
Benutzer in eine Dezimalzahl gewandelt.
Das Programm ermöglicht die Eingabe folgender Parameter:
x Anzahl der Inputneuronen (wahlweise 7, 14, 21, 28, 35, 42 oder 49),
x Anzahl der Neuronen in der Zwischenschicht,
x Anzahl der Zwischenschichten,
x Lernrate,
x Momentum,
x maximal zulässige Abweichung vom Zielwert über alle Musterpaare (erlaubter Fehler),
x Initialisierung der Gewichtsmatrix.
Die Lernrate, das Momentum, ein zusätzlicher Parameter sowie die maximal zulässige Abwei-
chung vom Zielwert (erlaubter Fehler) können ebenfalls durch den Benutzer festgelegt werden.
Eine Initialisierung der Gewichtsmatrix kann per Zufall erfolgen oder durch die Vergabe eines
Seed-Wertes, der eine konstante Zahlenfolge für die Gewichtswerte vorsieht. Dies ermöglicht
das Experimentieren mit verschiedenen Eingabeparametern, bei einer gleich bleibenden An-
fangsbelegung der Verbindungsgewichte.
Das Training des neuronalen Netzes erfolgt mit Hilfe des Backpropagation-Verfahrens. Dazu
werden in jedem Lernschritt alle Trainingsdaten, bestehend aus den Aktivierungen der Seg-
mente für die Zahlen von 0 bis 9, als Eingabemuster an das Netz angelegt. Die zugehörigen
Ziel- bzw. Ausgabemuster entsprechen den jeweils vierstelligen Binärzahlen, welche durch die
Aktivierungen der LED-Segmente als Dezimalzahl repräsentiert werden. Das Training an den
entsprechenden Binärzahlen erfolgt deshalb, um eine hinreichende Unterschiedlichkeit der
Zielmuster zu gewährleisten. Anschließend wird die Binärzahl in die entsprechende Dezimal-
ziffer umgewandelt.
Tabelle 4-2 Trainingsdaten einer 7-Segment-LED
Eingabemuster
Zielmuster
Dezimalzahl
(1,0,1,1,1,1,1)
(0,0,0,0)
0
Eine mögliche Umsetzung des Pro-
gramms, von Sascha Geeren entwickelt,
finden Sie unter:
http://www.rebask.de/qr/sc1_2/4-1.html
(1,1,1,0,1,0,1)
(0,0,1,1)
3
(1,1,1,1,1,1,1)
(1,0,0,0)
8
Durch das Training lernt das neuronale Netz, die vorgegebene Menge der Eingabemuster mög-
lichst fehlerfrei auf die Zielmuster abzubilden. Zur Berechnung der Abbildungsfähigkeit wird
in jedem Lernschritt der mittlere quadratische Fehler für alle Trainingsdaten berechnet.
Als Beispiel zeigen wir in Bild 4-10 das Testen der Erkennungsleistung bei Verrauschungen:
Wie aus der Abbildung ersichtlich wird, ist das trainierte Netz in der Lage, aus der LED-
Aktivierung eine „8“ zu erkennen, obwohl diese zu 50 % verrauscht ist. Unterhalb der LED-
Anzeige sind die drei besten Übereinstimmungen der Netzausgabe mit den Zielmustern der
Zahlen von 0 bis 9 ersichtlich.
Search WWH ::




Custom Search