Information Technology Reference
In-Depth Information
f
f
(a)
(b)
Abbildung 11.6: Beispiel eines abnehmenden Selektionsdrucks. Die Punkte zeigen
die Individuen der Generation in einer frühe Generation (a) und in einer späteren (b).
Blau dargestellt ist die durchschnittliche Fitness.
Da ein evolutionärer Algorithmus die (durchschnittliche) Fitness der Individuen
tendenziell von Generation zu Generation steigert, erzeugt er u. U. selbst das Pro-
blem des verschwindenden Selektionsdrucks. Aufgrund der eher zufälligen Vertei-
lung der Fitnesswerte wird anfangs ein höherer Selektionsdruck, in späteren Genera-
tionen ein geringerer Selektionsdruck erzeugt. Natürlich wäre ein exakt umgekehr-
tes Verhalten besser. Abbildung 11.6 zeigt ein Beispiel eines abnehmenden Selekti-
onsdrucks.
11.2.2 Anpassung der Fitnessfunktion
Ein Lösungsansatz für die gerade eben angesprochenen Probleme ist eine Skalierung
der Fitnessfunktion .Beider linear dynamische Skalierung
f ( s
) | s pop( t )
f lds ( s )= ·
f ( s ) min
,
> 0
wird das Minimum der aktuellen Population pop ( t ) vom gewichteten Fitnesswert
abgezogen. Das Gewicht bestimmt die Stärke der Skalierung und ist für gewöhn-
lich größer als 1. Statt des Minimums von pop ( t ) kann man auch das Minimum
der letzten k Generationen benutzen. Alternativ zur linear dynamischen Skalierung
kann man auch die -Skalierung anwenden:
f ( s )= f ( s ) ( µ f ( t ) · f ( t )),
> 0
wobei µ f ( t )= 1 / µ s pop( t )
1 / ( µ 1) s pop( t ) ( f ( s ) µ f ( t )) 2 der
Mittelwert bzw. die Standardabweichung aller Fitnesswerte sind. Ein Problem bei
beiden Ansätzen ist die Wahl der Parameter und .
Eine Möglichkeit, die Parameter dieser Skalierungen zu schätzen, liegt in der Be-
trachtung des Variationskoeffizienten v der Fitnessfunktion
f ( s ) und f ( t )=
2
1
||1 s
f ( s ) 1
|| s f ( s )
v ( t )= f ( t )
µ f ( t )
v = f
µ f =
, zw.
.
1
|| s f ( s )
Search WWH ::




Custom Search