Information Technology Reference
In-Depth Information
bei einem vierdimensionalen Vektor, und dass zum Mittelwert 0 pro Komponente Zufallszah-
len generiert werden, die innerhalb der jeweiligen Standardabweichung liegen müssen. Diese
werden dann zu den Komponenten des Elternduplikats addiert.
Nehmen wir als Beispiel einen Elternvektor E mit E = (1, 3, 2, 1) sowie die obige Standardab-
weichung s = (0.5, 0.2, 0.3, 0.4). Die Zufallszahlen seien dann - innerhalb der jeweiligen Stan-
dardabweichung - (0.3, 0.1, -0.1, 0.2). Der neue Vektor ist dann offensichtlich (1.3, 3.1, 1.9,
1.2).
Man sieht hier wieder das Grundprinzip der ES, nämlich die punktuelle Variation von Teilen
der Gesamtheit, die mit nicht allzu großen Veränderungen operiert. Natürlich hängt das Aus-
maß der durch Mutation erzielbaren Veränderungen von der Größe von s ab. Abgesehen da-
von, dass für ES noch stärker gilt als beim GA, die Größe von Mutationsveränderungen nur
sehr vorsichtig einzustellen, ist die Definition von s „komponentenweise“, d. h. prinzipiell
unterschiedlich für jede einzelne Komponenten, ein wesentliches Steuerungsmittel für sehr
detaillierte Variationen.
Die Frage ist, ob es Regeln für die Größe von s - pro Komponente oder vielleicht auch pro
Gesamtvektor - gibt. Rechenberg (loc. cit.) hat aufgrund von Experimenten mit einfachen
Bewertungsfunktionen eine heuristische Faustregel angegeben, die sich grob so formulieren
lässt:
Der Quotient aus erfolgreichen und nicht erfolgreichen Mutationen sollte mindestens 1/5 be-
tragen. Ist er kleiner, sollte die Streuung der Mutationen, also die Standardabweichung, verrin-
gert werden und umgekehrt.
Das besagt noch nicht viel und ebenso wie beim GA wird man hier praktische Erfahrungen
selbst machen müssen. Ein nahe liegender Gedanke besteht darin, die Standardabweichung
selbst von der Entwicklung des Optimierungsprozesses abhängig zu machen. Genauer heißt
das, dass nicht nur die Vektoren der Eltern den Mutations- und ggf. Rekombinations-
mechanismen unterworfen werden, sondern auch der Vektor der Standardabweichungen. Als
Basis für die Operationen einer ES ergibt sich dann ein Vektor H aus dem Hyperraum über
dem üblichen Vektorraum der zu optimierenden Vektoren mit
H = (V, s), (3.13)
wenn V der zu optimierende Vektor und s der zugehörige Vektor der Standardabweichungen
sind. In gewisser Weise steuert damit die ES sich selbst, d. h., sie variiert in Abhängigkeit von
den durch sie variierten Vektoren. Ein derartiges Selbststeuerungsprinzip ist selbstverständlich
auch bei GA möglich, was unsere Arbeitsgruppe bereits durchgeführt hat (Klüver 2000): Dabei
wird die Größe der Distanz zu einem Zielvektor als Maß für die Größe der Mutationsrate und
die Anzahl der beim Crossover berücksichtigten Komponenten genommen. Je größer die Dis-
tanz ist, desto größer sind Mutationsraten sowie Komponentenzahlen (innerhalb vorgegebener
Intervalle natürlich) und umgekehrt. Dies wird noch unter dem Stichwort der so genannten
Metaparameter eine Rolle spielen.
Man kann schon aus dem Konvergenzbeweis von Michalewicz erkennen, der ja nur in be-
stimmten Fällen gültig ist, dass bei beiden evolutionären Algorithmen sehr viel mit praktischen
Faustformeln gearbeitet werden muss, da ihre prinzipiellen Eigenschaften noch nicht sehr weit
theoretisch erfasst worden sind. Ähnliches gilt, wie wir gesehen haben, auch für Zellularauto-
maten und Boolesche Netze, die zwar grundsätzlich durch die Ordnungsparameter erfasst und
durch die Wolfram-Klassen klassifiziert werden können, in praktischen Anwendungen jedoch
auch häufig nur mit ad hoc Regeln anzuwenden sind. Dies ist, wie bemerkt, charakteristisch für
Soft-Computing-Modelle generell: An theoretischer Grundlagenforschung ist hier noch viel zu
leisten.
Search WWH ::




Custom Search