Information Technology Reference
In-Depth Information
nächsten liegt, sondern die beiden nächsten Referenzvektoren [Kohonen 1990, 1995].
Seien r j and r k diese beiden nächsten Referenzvektoren. Dann werden diese beiden
Referenzvektoren angepaßt, wenn die ihnen zugeordneten Klassen c j und c k ver-
schieden sind, aber eine von ihnen mit der Klasse z des Datenpunktes p überein-
stimmt. Ohne Beschränkung der Allgemeinheit nehmen wir c k = z an. Die Anpas-
sungsregeln lauten dann
p
r (neu)
r (alt)
r (alt)
=
+
und
j
j
j
p
.
r (neu)
r (alt)
r (alt)
=
k
k
k
Alle anderen Referenzvektoren bleiben unverändert. Stimmen dagegen die Klassen
c j und c k der beiden nächsten Referenzvektoren überein, und zwar unabhängig da-
von, ob sie mit der Klasse z des Datenpunktes übereinstimmen oder nicht, wird
kein Referenzvektor angepaßt. Diese Anpassungsregeln liefern oft gute Nächste-
Nachbar-Klassifikatoren [Kohonen 1990].
Allerdings wurde in praktischen Tests auch festgestellt, dass diese Version der
lernenden Vektorquantisierung dazu tendiert, in bestimmten Fällen die Referenzvek-
toren weiter und weiter auseinanderzutreiben, statt zu einer stabilen Konvergenz
zu führen. Um diesem offenbar unerwünschten Verhalten entgegenzuwirken, führte
Kohonen [1990] eine sogenannte Fensterregel (window rule) in die Anpassung ein:
Die Referenzvektoren werden nur dann angepaßt, wenn der Datenpunkt p nahe
der Klassifikationsgrenze liegt, d. h. nahe der (Hyper-)Fläche, die Gebiete mit un-
terschiedlicher Klassenzuordnung voneinander trennt. Der unscharfe Begriff “nahe”
wird präzisiert, indem man
d ( p , r j )
d ( p , r k ) , d ( p , r j )
1
1 +
=
min
> , it
d ( p , r k )
fordert. Hierbei ist ein Parameter, der vom Benutzer gewählt werden muß. Intuitiv
beschreibt die “Breite” des Fensters um die Klassifikationsgrenze, in dem der Da-
tenpunkt p liegen muß, um eine Anpassung hervorzurufen. Die Verwendung dieser
Regel verhindert eine sonst mögliche Divergenz der Referenzvektoren, da die durch
einen Datenpunkt verursachten Anpassungen aufhören, sobald die Klassifikations-
grenze weit genug entfernt ist.
Man muß allerdings zugeben, dass diese Fensterregel nicht sehr intuitiv ist und
es daher wünschenswert wäre, wenn man ohne sie auskommen könnte. Dies ist tat-
sächlich möglich, indem man die Anpassungsregel für die Referenzvektoren aus ei-
nem Gradientenabstieg für eine bestimmte Zielfunktion ableitet [Seo u. Obermayer
2003]. Dieser Ansatz geht von der Annahme aus, das die Wahrscheinlichkeitsvertei-
lung der Datenpunkte für jede Klasse gut durch eine Mischung von (mehrdimensio-
nalen) Normalverteilungen beschrieben werden kann. D. h. jede Klasse besteht aus
mehreren Clustern, die jeweils durch eine Normalverteilung abgedeckt werden. Wei-
ter wird angenommen, dass alle diese Normalverteilungen feste und gleiche Stan-
dardabweichungen besitzen. Anschaulich bedeutet dies, dass die Cluster gleiche
Größe und (Hyper-)Kugelform haben. Außerdem wird angenommen, dass alle Clu-
ster gleich wahrscheinlich sind, also alle (in etwa) die gleiche Anzahl Datenpunkte
umfassen. Mit diesen Einschränkungen entscheidet allein der Abstand eines Daten-
punktes von einem Referenzvektor darüber, wie er klassifiziert wird.
Search WWH ::




Custom Search