Information Technology Reference
In-Depth Information
Abstände zwischen Punkten auf der Erdoberfläche nicht immer korrekt wieder. Den-
noch erhält man einen recht guten Eindruck der relativen Lage von Städten, Ländern
und Kontinenten.
Übertragen auf selbstorganisierende Karten könnten die Schnittpunkte der Git-
terlinien auf der Kugel die Lage der Referenzvektoren im Eingaberaum, die Schnitt-
punkte der Gitterlinien in der Projektion die Lage der Ausgabeneuronen bezüglich
der Nachbarschaftsbeziehung angeben. In diesem Fall ist die Abbildung indes quan-
tisiert, da die Punkte innerhalb der Gitterzellen nur diskret über die Referenzvekto-
ren zugeordnet werden.
Der Vorteil topologieerhaltender Abbildungen ist, dass man mit ihnen hochdi-
mensionale Strukturen in niedrigdimensionale Räume abbilden kann. Speziell eine
Abbildung in einen Raum mit nur zwei oder höchstens drei Dimensionen ist inter-
essant, da man dann das Bild der hochdimensionalen Struktur graphisch darstellen
kann. Dazu benutzt man die Zellenstruktur, die in Abbildung 7.1 durch die grau-
en Linien angegeben ist. Diese Zellenstruktur entspricht offenbar einem Voronoi-
Diagramm im Raum der Ausgabeneuronen. Über den zu einem Ausgabeneuron
gehörenden Referenzvektor ist jeder dieser (zweidimensionalen) Neuron-Voronoi-
Zellen eine (i.A. höherdimensionale) Referenzvektor-Voronoi-Zelle im Eingaberaum
zugeordnet. Folglich kann man sich die relative Lage von Punkten im Eingaberaum
veranschaulichen, indem man die Referenzvektor-Voronoi-Zellen bestimmt, in de-
nen sie liegen, und die zugehörigen Neuron-Voronoi-Zellen z. B. einfärbt. Einen noch
besseren Eindruck erhält man, wenn man für jeden dargestellten Punkt eine andere
Farbe wählt und nicht nur die Neuron-Voronoi-Zelle einfärbt, in deren zugehöriger
Referenzvektor-Voronoi-Zelle der Punkt liegt, sondern alle Neuron-Voronoi-Zellen
so einfärbt, dass die Farbintensität der Aktivierung des zugehörigen Neurons ent-
spricht. Ein Beispiel für diese Visualisierungsmöglichkeit zeigen wir in Abschnitt 7.3.
7.2 Lernende Vektorquantisierung
Um das Training selbstorganisierender Karten zu erläutern, vernachlässigen wir zu-
nächst die Nachbarschaftsbeziehung der Ausgabeneuronen, beschränken uns also
auf die sogenannte lernende Vektorquantisierung [Kohonen 1986]. Aufgabe der lernen-
den Vektorquantisierung ist eine Clustereinteilung der Daten, wie wir sie bereits zur
Initialisierung von Radiale-Basisfunktionen-Netzen in Abschnitt 6.3 auf Seite 93 be-
trachtet haben: Mit Hilfe des c -Means-Clustering haben wir dort versucht, gute Start-
punkte für die Zentren der radialen Basisfunktionen zu finden, und haben auch er-
wähnt, dass die lernende Vektorquantisierung eine Alternative darstellt.
Sowohl beim c -Means-Clustering als auch bei der lernenden Vektorquantisierung
werden die einzelnen Cluster durch ein Zentrum (bzw. einen Referenzvektor) dar-
gestellt. Dieses Zentrum soll so positioniert werden, dass es etwa in der Mitte der
Datenpunktwolke liegt, die den Cluster ausmacht. Ein Beispiel zeigt Abbildung 7.4:
Jeder Gruppe von Datenpunkten (durch dargestellt) ist ein Referenzvektor (durch
dargestellt) zugeordnet. Dadurch wird der Eingaberaum so unterteilt (durch die
Linien angedeutet), dass jede Punktwolke in einer eigenen Voronoi-Zelle liegt.
Der Unterschied der beiden Verfahren besteht i.W. darin, wie die Clusterzentren
bzw. Referenzvektoren angepasst werden. Während sich beim c -Means-Clustering
Search WWH ::




Custom Search