Information Technology Reference
In-Depth Information
Monitor monitor = nnet.getMonitor();
monitor.setLearningRate(0.8);
monitor.setMomentum(0.3);
monitor.addNeuralNetListener(this);
monitor.setTrainingPatterns(4);
monitor.setTotCicles(10000);
monitor.setLearning(true);
nnet.go();
Gemäß der Parametrisierung wird das neuronale Netz nun 10.000 Trainingszyklen durch-
laufen. Nach diesem Training sollte sich der Fehler soweit minimiert haben, dass eine
Fehlerrate unterhalb von 10 % erreicht und als akzeptabel angenommen werden kann.
Nachdem das neuonale Netz trainiert wurde, gilt es in den folgenden Implementie-
rungsequenzen zu zeigen, dass es seine Aufgabe der Mustererkennung ordnungsgemäß
erfüllen kann. Bis zu dieser Stelle des Buches befindet sich das neuronale Netz im Trai-
nings- bzw. Lernmodus. Um diesen Modus zu verlassen, entfernt man den Trainer bzw.
ersetzt diesen durch eine FileOutputSynapse , um darüber die Ausgabe des Netzes
aufzeichnen zu können. Daran anschließend muss das Netz auf die entsprechende Eingabe
ausgerichtet werden, wobei in diesem Fall die gleiche Datei wie im Training verwendet
wird.
output.removeOutputSynapse(trainer);
FileOutputSynapse results = new FileOutputSynapse();
results.setFileName(outputFile);
inputStream.resetInput();
samples.resetInput();
results.setMonitor(monitor);
output.addOutputSynapse(results);
Nach dieser Neuausrichtung müssen alle Threads neu gestartet werden. Ebenfalls muss
die Konfiguration für den produktiven Betrieb des neuronalen Netzes festgelegt werden.
Dazu wird zunächst die Anzahl der zu validierenden Muster aufgesetzt, wobei bekannt-
lich vier Muster zur Verfügung stehen. Zuletzt wird der Trainingmodus durch false
ausgeschaltet.
input.start();
hidden.start();
output.start();
monitor.setValidationPatterns(4);
monitor.setTotCicles(1);
monitor.setLearning(false);
Search WWH ::




Custom Search