Database Reference
In-Depth Information
Der schwierigste Teil besteht in der Suche nach einer “besten” Struktur. Hat man
erst einmal eine passende Struktur gefunden, so lassen sich die Parameter durch
Erwartungswerte geeignet bestimmen (vgl. [94]). Als Gutekriterium fur Bayessche
Strukturen wird ublicherweise die maximum likelihood verwendet, d. h., man wahlt
diejenige Struktur
B s aus, die bei gegebener Datenbasis
D
am wahrscheinlichsten
ist:
maximiere
Prob (
B s |D
)
Sind
B si und
B sj zwei verschiedene Bayessche Strukturen, so gilt
Prob (
B s i ,
D
)
Prob (
B s i |D
)
Prob (D)
Prob (
Prob (
B s i ,
D
)
) =
=
B s j ,
D
)
Prob (
B sj |D
Prob (
B sj ,
D
)
Prob (
D
)
Zu berechnen ist also Prob (
B s .Damanes
hier mit einem immensen Suchraum zu tun hat, trifft man einige Annahmen, um
die Komplexitat der Berechnungen zu reduzieren. Typischerweise nimmt man z. B.
an, dass die Falle der Datenbasis alle bei gegebener Struktur bedingt unabhangig
voneinander sind, d.h.
B s ,
D
)fur alle moglichen Strukturen
D|B s )=
c∈D
Prob (
Prob (c
|B s )
und dass die betrachteten Falle alle vollstandig durch die Variablen beschrieben
sind. In der Realitat hat man es allerdings oft mit unvollstandigen Datensatzen zu
tun, so dass auch Vorkehrungen zu treffen sind, wie man solche Datenlucken behan-
delt. Unter idealisierten Bedingungen lasst sich Prob (
) jedoch in geschlossener
Form berechnen und abschatzen. Ein entsprechendes Verfahren stellen Cooper und
Herskovits in [44] vor. Eine Einfuhrung in die Problematik, Bayessche Netzwerke
aus Daten zu berechnen, findet man in [93, 94]. Einen Uberblick uber das Lernen
allgemeiner probabilistischer Netzwerke aus Daten mit ausfuhrlichen Literaturan-
gaben gibt [32].
B s ,
D
13.6
Probabilistische Inferenz unter informationstheoreti-
schen Aspekten
Probabilistische Netzwerke, insbesondere Bayessche Netze, gehoren zu den attrak-
tivsten Methoden des quantitativen Schließens. Sie gestatten eine e ziente Berech-
nung von Wahrscheinlichkeiten durch lokale Berechnungen auf passenden margi-
nalen Verteilungen. Dabei ist die bedingte Unabhangigkeit das fundamentale und
entscheidende Prinzip der probabilistischen Netze. Mit einem Bayes- oder Markov-
Netz modelliert man also in erster Linie Unabhangigkeiten. Diese jedoch sind in
der Realitat oft gar nicht so einfach zu verifizieren. In vielen Fallen ist es so, dass
die bedingte Unabhangigkeit nicht fur alle Auspragungen der Variablen vorliegt,
sondern nur fur einige Auspragungen sinnvoll ist. So bewirkt die Information, dass
Search WWH ::




Custom Search