Database Reference
In-Depth Information
Eltern(knoten), de (A i )
V die
Menge aller Nicht-Nachkommen von A i (siehe Definitionen B.6 und B.7 in Anhang
B.1).
B
V die Menge aller Nachkommen und nd (A i )
wird Bayessches Netzwerk (Bayesian network) genannt, wenn
fur jede Variable A i gilt
=
V ,
E
,P
A i
P nd (A i )
|
pa (A i )
(13.15)
wenn also jede Variable A i bedingt unabhangig ist von ihren Nicht-Nachkommen
nd (A i ) bei gegebenen Werten ihrer Elternknoten pa (A i ).
Statt Bayesschem Netzwerk findet man manchmal auch die Bezeichnung kau-
sales Netzwerk .Tatsachlich werden gerichtete Netzwerke gerne zur Modellierung
kausaler Beziehungen eingesetzt, wahrend ungerichtete Netze eher der Reprasenta-
tion allgemeinerer Beziehungen dienen. Es muss angemerkt werden, dass gerichtete
probabilistische Netzwerke zwar fur zahlreiche Anwendungen besser geeignet sind
als ungerichtete, jedoch im Allgemeinen nicht unbedingt ausdrucksstarker sind. So
lassen sich die bedingten Unabhangigkeiten in Beispiel 13.19 nicht durch ein DAG
perfekt modellieren.
Wir werden im Folgenden aus technischen Grunden voraussetzen, dass die ei-
nem Bayesschen Netz zugeordnete Verteilung P positiv ist, d.h. P ( v ) > 0fur alle v
uber V . Auf diese Weise umgehen wir langwierige Fallunterscheidungen, die nichts
zum Verstandnis des Vorgehens beitragen.
Die Unabhangigkeitsvoraussetzungen (13.15) eines Bayesschen Netzes besagen,
dass jeder Knoten nur direkt von seinen Elternknoten beeinflusst werden kann, diese
ihn also gegen die anderen Knoten im Netz abschirmen, sofern es sich dabei nicht
um Nachkommen des betrachteten Knotens handelt. Bei gerichteten Netzwerken
ubernehmen also die Elternknoten eine ahnliche Funktion wie die Markov-Rander
bei ungerichteten Graphen (vgl. Theorem 13.10). Die Bedingung (13.15) wird da-
her auch lokale gerichtete Markov-Bedingung genannt. Die dazu passende globale
gerichtete Markov-Bedingung ist die folgende:
Wenn CA und B d-separiert, so gilt A
P B
|
C
(13.16)
fur disjunkte Teilmengen A , B , C von V (vgl. Definition B.30). Beide gerichteten
Markov-Bedingungen sind in DAG's aquivalent.
Wendet man auf P die Kettenregel (Proposition A.21 in Anhang A) an und lasst
in sie die Unabhangigkeitsannahmen (13.15) einfließen, so zerfallt die gemeinsame
Verteilung P in ein handliches Produkt lokaler Wahrscheinlichkeiten .
Proposition 13.26 Sei
B
=
V ,
E
,P
ein Bayessches Netz. Dann lasst sich die
gemeinsame Verteilung P wie folgt berechnen:
P ( V )=
V ∈ V
P (V
|
pa (V ))
(13.17)
Ein
Beweis
dieses
Satzes
findet
sich
z. B.
in
[168].
Beachten
Sie,
dass
P ( V
|∅
)=P ( V ) ist (siehe auch Anhang A.5).
Search WWH ::




Custom Search