Information Technology Reference
In-Depth Information
ferenzenquotienten der zu optimierenden Systemfunktionen arbeitet. Wie bei allen determinis-
tischen Verfahren geht es dabei stets um die gleiche Anwendung bestimmter algorithmischer
Schritte, ohne dass Zufälligkeit irgendeine Rolle spielt. Die Gradientenstrategie liegt übrigens
auch der sog. Backpropagation-Regel zugrunde, mit der bestimmte neuronale Netze operieren
(siehe Kapitel 4).
Deterministische Verfahren sind in zahlreichen Fällen gut verwendbar, sie haben jedoch einen
entscheidenden Nachteil: Wenn man nicht weiß, wo im „Suchraum“ das jeweilige Optimum
liegt und wenn man auch nicht annähernd weiß, wie dieses aussehen könnte, dann kann die
Anwendung deterministischer Verfahren häufig völlig in die Irre führen und jedenfalls kein
sinnvolles Ergebnis erbringen. In der Praxis von Optimierungsproblemen ist dies sehr häufig
der Fall. Deterministische Verfahren sind immer stark davon abhängig, mit welchem Anfang
die jeweilige Optimierung gestartet wird - das Gleiche gilt ja generell für die Trajektorien
deterministischer Systeme, wie wir mehrfach hervorgehoben haben. Weiß man über „sinnvol-
le“ bzw. Erfolg versprechende Anfänge nichts oder nichts Genaues, dann erweisen sich rein
deterministische Verfahren als nicht sehr praktikabel und Verfahren, die mit Zufallsmöglich-
keiten arbeiten, also stochastische Verfahren, sind hier häufig effektiver. Der Grund dafür
besteht darin, dass Zufallsprozeduren es häufig ermöglichen, „schlechte“ Gebiete im Suchraum
zu verlassen und auf „gute“ Gebiete zu kommen, was rein deterministische Verfahren gewöhn-
lich nicht leisten.
Rein zufallsgesteuerte Verfahren sind z. B. die berühmten Monte-Carlo-Methoden. Diese ba-
sieren auf der Verwendung von Zufallsstichproben, die, vereinfacht gesagt, in „gute“ und
„schlechte“ Fälle eingeteilt werden. Das Verhältnis der guten Fälle zur Gesamtzahl der Stich-
proben gibt dann Aufschluss darüber, welche Näherungen an das gesuchte Optimum erreicht
worden sind. Dabei ist natürlich die - häufig nur scheinbar triviale - Voraussetzung, dass es
Kriterien dafür gibt, welche Fälle besser sind als andere.
Monte-Carlo-Verfahren arbeiten gewöhnlich mit statistischen Gleichverteilungen, d. h., die
jeweils nächsten Stichproben werden unabhängig von den vorherigen Ergebnissen mit jeweils
gleichen Wahrscheinlichkeiten gezogen. Das ist, um es gleich zu betonen, nicht das Prinzip,
nach dem die biologische Evolution vorgeht. Die rein stochastischen und mit statistischen
Gleichverteilungen arbeitenden Verfahren haben zwar den erwähnten Vorteil, dass sie nicht in
ungeeigneten Suchbereichen stecken bleiben, aber sie sind gewöhnlich sehr zeitaufwändig, da
sie keine direkte Steuerung haben und in gewisser Weise nichts aus ihrer Vergangenheit lernen
können, d. h. aus ihren Fehlschlägen. Sie fangen sozusagen immer wieder von vorne an.
Das ist bei der biologischen Evolution offensichtlich anders und erklärt deren Effizienz. Die
wesentlichen Prinzipien der biologischen Evolution, und damit der ihnen nachgebildeten evo-
lutionären Algorithmen generell, seien hier tabellarisch dargestellt:
(a) Vorgegeben ist eine Population mit verschiedenen Chromosomen, d. h. Trägern der ein-
zelnen Gene.
(b) Die Gene werden nach Zufallsprinzipien mutiert, d. h. einzeln verändert.
(c) Durch heterosexuelle Reproduktion werden die Gene rekombiniert, d. h., es entstehen
Chromosome mit veränderten Genkombinationen.
(d) Durch Umweltselektion werden die Ergebnisse der Variation bewertet, d. h., die Ergebnis-
se erhalten einen unterschiedlich hohen Fitness-Wert. Bei monosexueller Reproduktion
wird gleich das Ergebnis der Mutationen bewertet, da es dabei natürlich keine Rekombina-
tion gibt.
Search WWH ::




Custom Search