Database Reference
In-Depth Information
Eltern(knoten),
de
(A
i
)
⊆
V
die
Menge aller Nicht-Nachkommen von A
i
(siehe Definitionen B.6 und B.7 in Anhang
B.1).
B
⊆
V
die Menge aller Nachkommen und
nd
(A
i
)
wird
Bayessches Netzwerk (Bayesian network)
genannt, wenn
fur jede Variable A
i
gilt
=
V
,
E
,P
A
i
P
nd
(A
i
)
|
pa
(A
i
)
(13.15)
wenn also jede Variable A
i
bedingt unabhangig ist von ihren Nicht-Nachkommen
nd
(A
i
) bei gegebenen Werten ihrer Elternknoten
pa
(A
i
).
Statt
Bayesschem Netzwerk
findet man manchmal auch die Bezeichnung
kau-
sales Netzwerk
.Tatsachlich werden gerichtete Netzwerke gerne zur Modellierung
kausaler Beziehungen eingesetzt, wahrend ungerichtete Netze eher der Reprasenta-
tion allgemeinerer Beziehungen dienen. Es muss angemerkt werden, dass gerichtete
probabilistische Netzwerke zwar fur zahlreiche Anwendungen besser geeignet sind
als ungerichtete, jedoch im Allgemeinen nicht unbedingt ausdrucksstarker sind. So
lassen sich die bedingten Unabhangigkeiten in Beispiel 13.19 nicht durch ein DAG
perfekt modellieren.
Wir werden im Folgenden aus technischen Grunden voraussetzen, dass die ei-
nem Bayesschen Netz zugeordnete Verteilung P positiv ist, d.h. P (
v
) > 0fur alle
v
uber
V
. Auf diese Weise umgehen wir langwierige Fallunterscheidungen, die nichts
zum Verstandnis des Vorgehens beitragen.
Die Unabhangigkeitsvoraussetzungen (13.15) eines Bayesschen Netzes besagen,
dass jeder Knoten nur direkt von seinen Elternknoten beeinflusst werden kann, diese
ihn also gegen die anderen Knoten im Netz abschirmen, sofern es sich dabei nicht
um Nachkommen des betrachteten Knotens handelt. Bei gerichteten Netzwerken
ubernehmen also die Elternknoten eine ahnliche Funktion wie die Markov-Rander
bei ungerichteten Graphen (vgl. Theorem 13.10). Die Bedingung (13.15) wird da-
her auch
lokale gerichtete Markov-Bedingung
genannt. Die dazu passende
globale
gerichtete Markov-Bedingung
ist die folgende:
Wenn
CA
und
B
d-separiert, so gilt
A
P
B
|
C
(13.16)
fur disjunkte Teilmengen
A
,
B
,
C
von
V
(vgl. Definition B.30). Beide gerichteten
Markov-Bedingungen sind in DAG's aquivalent.
Wendet man auf P die Kettenregel (Proposition A.21 in Anhang A) an und lasst
in sie die Unabhangigkeitsannahmen (13.15) einfließen, so zerfallt die gemeinsame
Verteilung P in ein handliches Produkt
lokaler Wahrscheinlichkeiten
.
Proposition 13.26
Sei
B
=
V
,
E
,P
ein Bayessches Netz. Dann lasst sich die
gemeinsame Verteilung
P
wie folgt berechnen:
P (
V
)=
V ∈
V
P (V
|
pa
(V ))
(13.17)
Ein
Beweis
dieses
Satzes
findet
sich
z. B.
in
[168].
Beachten
Sie,
dass
P (
V
|∅
)=P (
V
) ist (siehe auch Anhang A.5).