Information Technology Reference
In-Depth Information
Maß des Umfangs der Regelveränderungen - „r-Parameter“
Wenn man annimmt, dass ein Basissystem insgesamt über n lokale Interaktionsregeln verfügt
und wenn davon bei Anwendungen der Metaregeln k Regeln variiert werden können, dann ist
r = k/n. (6.1)
In anderen Worten, r legt fest, wie viele Regeln - nicht unbedingt welche - vom Metasystem
überhaupt verändert werden können.
Als Parameter wirkt sich r gemäß unseren Untersuchungen folgendermaßen aus, wobei die
verschiedenen Werte von r daran gemessen werden, wie schnell ein vertikal gekoppeltes Sys-
tem hinreichende Optimierungswerte erreicht: Entgegen intuitiven Vermutungen ist hier
„mehr“ im Allgemeinen durchaus nicht besser. Es ist einsichtig, dass zu geringe Werte von r es
dem System sehr erschweren, überhaupt befriedigende Optimierungsergebnisse zu erzielen;
entsprechend zeigten unsere Experimente, dass Werte 0 d r < 0.5 nur relativ schlechte
Optimierungen ergaben. Allerdings ist es auch nicht sinnvoll, r wesentlich zu erhöhen. Die
besten Optimierungsergebnisse wurden erreicht mit 0.5 d r d 0.65; höhere Werte verschlechter-
ten die Ergebnisse deutlich.
Die Experimente wurden von uns durchgeführt mit hybriden Zellularautomaten einerseits, d. h.
stochastische ZA gekoppelt mit einem genetischen Algorithmus (Klüver 2000), sowie hybriden
interaktiven Netzen andererseits (Stoica 2000); diese Netze wurden ebenfalls mit einem GA
gekoppelt. Bei den hybriden ZA operierte der GA auf der W-Matrix, d. h., eine W-Matrix wird
als Vektor dargestellt und eine entsprechende Population von W-Vektoren wird den gene-
tischen Operatoren von Mutation und Crossover unterzogen. Analog wird bei den hybriden IN
die Gewichtsmatrix als Vektor geschrieben und variiert. Trotz der Unterschiedlichkeit der
jeweiligen Basissysteme waren die Ergebnisse überwiegend vergleichbar. Darüber hinaus zeig-
ten entsprechende Untersuchungen von Carley (1997) mit Simulated Annealing, dass auch
damit Ergebnisse erreicht wurden, die mit unseren weitgehend übereinstimmen. Man kann also
davon ausgehen, dass die Ergebnisse keine „Artefakte“ sind, die aus besonderen Eigenschaften
von z. B. GA resultieren. Außerdem ist aus der Praxis überwacht lernender neuronaler Netze
bekannt, dass die jeweiligen Lernregeln dann am besten operieren, wenn nur ein Teil der Ge-
wichtsmatrix zur Variation freigegeben wird. Wir haben es bei r offenbar mit einer universellen
Eigenschaft adaptiver Systeme zu tun: Man verändere so viel wie nötig und so wenig wie mög-
lich .
Die Erklärung für diese auf einen ersten Blick eher kontraintuitiven Ergebnisse lässt sich rela-
tiv einfach geben. Wenn ein System zu wenige Variationsmöglichkeiten hat, dann ist es nur in
geringem Maße zu erfolgreichem adaptiven Verhalten fähig. Das ist, wie bereits bemerkt, un-
mittelbar einsichtig. Hat ein System jedoch sehr viele Variationsmöglichkeiten, die sämtlich
eingesetzt werden, dann braucht es viel zu lange, um die vielen Modifikationen zu testen, die
sich aus den radikalen Variationen ergeben. Aus der Evolutionsbiologie ist bekannt, dass die
meisten Mutationen ungünstig sind, dass also Mutationen eines sehr großen Teils des Genoms
sich in den meisten Fällen für die Art negativ auswirken. Zu radikale Variationen also generie-
ren sehr viele Veränderungen im Verhalten des Basissystems, von denen viele ungünstig sind
und die in längeren Zeiträumen wieder verworfen werden müssen. „Große“ Basissysteme, d. h.
Systeme mit sehr vielen Regeln, können sich in vertretbaren Zeiträumen nur ein bestimmtes
Maß an Variationsradikalität leisten.
Experimente, die unsererseits mit hybriden ZA mit maximal 10 Regeln durchgeführt wurden,
bestätigten diese Überlegung indirekt: In diesem Sinne „kleine“ Systeme müssen ein hohes
r-Maß haben (0.9 d r d ), um überhaupt erfolgreiche Optimierungsresultate zu erzielen. In
dem Fall müssen regelrecht alle Möglichkeiten getestet werden, da sonst die Veränderungen zu
Search WWH ::




Custom Search