Information Technology Reference
In-Depth Information
Es gibt noch zahlreiche Varianten, aber in der Praxis empfiehlt es sich meistens, mit dem se-
lektiven Standardschema zu arbeiten. Zu rasche Konvergenz lässt sich, wie bemerkt, auch
durch Erhöhung der Mutationsrate verhindern.
Prinzipiell können bei einem Einsatz eines GA zwei mögliche Fälle vorliegen:
(a) Das gewünschte Optimum - lokal oder global - ist bekannt, aber es ist unklar, wie das zu
optimierende System dies Optimum erreichen kann. Dieser Fall entspricht dem in dem Bereich
der künstlichen neuronalen Netze bekannten Prinzip des überwachten Lernens (siehe Kapi-
tel 4) und er kann insbesondere beim Einsatz hybrider Systeme (siehe Kapitel 6) auftreten, d. h.
bei der Koppelung eines GA mit anderen formalen Systemen. Praktisch bedeutet dies gewöhn-
lich, dass man zwar weiß, wie eine günstige Lösung aussehen kann , dass man also die Kriterien
für gute Lösungen kennt, dass jedoch das jeweilige System sich auf noch unbekannte Weise
selbst optimieren muss, um die gewünschten Verhaltensweisen zu produzieren. Dies kann z. B.
bei technischen Systemen der Fall sein. In diesem Fall wird die Bewertungsfunktion häufig
über die Differenz der Zustände eines Systems zum Optimalzustand definiert. Bei binären
Codierungen der Systemzustände, wie im ersten Beispiel, wird die Differenz meistens in Form
der Hamming-Distanz zwischen zwei Vektoren berechnet. Diese misst die Anzahl der gleichen
Komponenten in den Vektoren, also für zwei Vektoren V = (v i ) und W = (w i ) ist die
Hamming-Distanz
H = ¦v i
(3.8)
für alle v i = w i .
Bei reell codierten Vektoren arbeitet man häufig mit der Euklidischen Distanz
2 .
¦
d
v i w i
(3.9)
Nicht numerisch codierte Vektoren können entweder über die Hamming-Distanz verglichen
werden oder über die so genannte Levenshtein-Distanz. Diese misst die Distanz zwischen zwei
Vektoren durch die Anzahl von Transformationen, mit denen ein Vektor in den anderen über-
führt werden kann, wobei definiert sein muss, was zulässige „Transformationen“ sind. Sind
also V und W zwei Vektoren, ist T eine Transformation mit T(v i ) = w i und gilt, dass
T n (V) = W,
(3.10)
dann ist offensichtlich die Levenshtein-Distanz Ld
Ld(V,W) = n. (3.11)
(b) Bei praktischen Optimierungsaufgaben ist es jedoch nicht selten so, dass man weder den
Optimierungsweg noch die Lösung selbst annähernd kennt. Man hat lediglich „Gütekriterien“,
d. h., man weiß, ob eine Lösung besser ist als andere. Bei neuronalen Netzen spricht man dann
vom verstärkenden Lernen (siehe unten) und meint damit, dass das zu optimierende System
sich sowohl den Weg als auch die Lösung in Form einer bestimmten Selbstorganisation selbst
suchen muss. Eine Bewertungsfunktion kann in diesem Fall immer nur die relative Verbesse-
rung der neuen Lösungen bzw. Systemzustände in Bezug auf die bisherigen feststellen. Bei
problemadäquaten Bewertungsfunktionen kann allerdings der GA gerade hier seine besonderen
Vorteile ausspielen, da die „genetischen Operatoren“ von Mutation und Crossover genau dies
hervorragend leisten: Durch eine adaptive Selbstorganisation sucht er den Weg durch den Lö-
sungsraum und findet ein Optimum.
Search WWH ::




Custom Search