Information Technology Reference
In-Depth Information
modifizierter Distanzfunktionen finden sich in Bock [1979], Bezdek [1981], Klawonn
u. Keller [2000], Keller u. Klawonn [2003]. Selbst Cluster, die nicht als Punktwolken,
sondern als Teile von Rändern von Kreisen, Ellipsen oder anderen Quadriken vorlie-
gen, lassen sich mit sogenannten Shell-Clustering-Verfahren finden. Einen Überblick
dazu gibt Klawonn u. a. [1997].
Man muss bei den modifizierten Clusterformen nicht notwendigerweise Fuzzy-
Clustering anwenden. Man könnte im Prinzip die eindeutige Zuordnung zu den
Clustern wie beim klassischen c -Means-Algorithmus beibehalten. Allerdings scheint
die Verwendung der Zugehörigkeitsgrade beim Clustering den Algorithmus die
Wahr s che i n l i chke i t , i n e i nem l oka l en Mi n imum de r Zi e l f unk t i on s t e cken zu b l e i ben ,
zu verringern [Klawonn 2004]. Gerade bei komplexeren Clusterformen erhöht sich
meist die Anzahl der lokalen Minima und die Anwendung von Fuzzy-Clustering
kann von Vorteil sein. Dieser Vorteil kann sich jedoch bei hochdimensionalen Daten
in das Gegenteil verkehren [Winkler u. a. 2011].
Neben der Verallgemeinerung der Distanzfunktion und damit der Clusterformen
beim Fuzzy- c -Means-Algorithmus lässt sich auch die Berechnung der Zugehörig-
keitsgrade erweitern. Das probabilistische Clustern mit der Nebenbedingung (21.3)
hat den Nachteil, dass die Zugehörigkeitsgrade allein aufgrund der relativen Distan-
zen berechnet werden. Das hat zur Folge, dass die Zugehörigkeitsfunktionen zu den
Clustern zum Teil unerwünschte Eigenschaften aufweisen. Im Clusterzentrum ist
der Zugehörigkeitsgrad eins und mit steigendem Abstand fällt der Zugehörigkeits-
grad zunächst ab. Trotzdem kann der Zugehörigkeitsgrad später wieder ansteigen
wie es auch in Abbildung 21.2 auf Seite 343 zu sehen ist. Beispielsweise ergibt sich
für Ausreisserdaten, die sehr weit von allen Clustern entfernt sind, ein Zugehörig-
keitsgrad von ca. 1/ c zu allen Clustern.
Das Noise-Clustering [Davé 1991] vermeidet diesen Effekt, indem zwar die
probabilistische Nebenbedingung (21.3) beibehalten wird, aber ein zusätzliches
Rausch(Noise)-Cluster eingeführt wird, dem die Ausreisserdaten mit hohem Zuge-
hörigkeitsgrad zugeordnet werden sollen. Alle Daten haben eine vorher festgeleg-
te und im Verlauf der Clusteranalyse unveränderte (große) Distanz zum Rausch-
Cluster. Auf diese Weise erhalten Daten, die sehr weit von allen anderen Clustern
entfernt liegen, einen hohen Zugehörigkeitsgrad zum Rausch-Cluster. Das Noise-
Clustering kann auch unabhängig von dem Ziel, gute Cluster zu finden, zur Erken-
nung von Ausreißern eingesetzt werden [Rehm u. a. 2007, Klawonn u. Rehm 2009].
Das possibilistische Clustern [Krishnapuram u. Keller 1993] läßt die probabilisti-
sche Nebenbedingung gänzlich fallen und führt zusätzlich einen Term in die Ziel-
funktion ein, der Zugehörigkeitsgrade nahe Null bestraft. Nachteil des possibilisti-
schen Clustern ist, dass jedes Cluster unabhängig von den anderen berechnet wird,
so dass eine gute Initialisierung (z. B. mit dem Ergebnis einer probabilistischen Clu-
steranalyse) erforderlich ist. Eine allerdings mit mehr Rechenaufwand verbundene
Ve r b e s s e rung de s po s s i b i l i s t i s c hen C l us t e r i ng wi rd i n Timm u . Krus e [ 2 0 0 2 ] b e s c h r i e -
ben.
Eine Verallgemeinerung des Fuzzifiers wird in Klawonn u. Höppner [2003b,a]
vorgeschlagen, mit dem sich die Vorteile des klassischen und des Fuzzy-Clustering
kombinieren lassen, beispielsweise durch die Verwendung einer Konvexkombinati-
on der Zielfunktionen des klassischen und des Fuzzy- c -Means-Algorithmus.
Search WWH ::




Custom Search