Database Reference
In-Depth Information
S 3 =
{
C
}⊂ C 2
Dann ist ( C 1 , C 2 (1) ) eine Potentialdarstellung der Randverteilung von P auf
C 1
,wobeiψ (1) in der folgenden Form gegeben ist:
C 2 =
{
A, B, C, D
}
ψ (1) ( C 1 )=ψ( C 1 )
also
ψ (1) (A, B, C)=P (A)P (B
|
A)P (C
|
A)
und
ψ (1) ( C 2 )=ψ( C 2 )
R 3
ψ( C 3 )
ψ(B, C, D)
E
=
ψ(C, E)
also
B, C)
E
ψ (1) (B, C, D)=P (D
|
P (E
|
C)
=
P (D
|
B, C)
Damit lasst sich nun sukzessive eine Darstellung der gemeinsamen Verteilung
P mittels bedingter Wahrscheinlichkeiten gewinnen:
Proposition 13.39 Sei V eine (endliche) Menge von Aussagenvariablen, und sei
P eine gemeinsame Verteilung uber V mit Potentialdarstellung
.
Wir nehmen weiterhin an, dass die Ordnung ( W 1 ,..., W p ) der fortlaufenden
Schnitteigenschaft RIP genugt. Dann gilt
{
W 1 ,..., W p ; ψ
}
p
P ( V )=P ( W 1 )
P ( R i |
S i )
(13.26)
i=2
wobei die Mengen R i , S i wie in Proposition 13.33 definiert sind.
Ein Beweis hierzu findet sich in [168], S. 256.
13.3.2
Der permanente Cliquenbaum als Wissensbasis
Durch Proposition 13.39 haben wir eine handliche Darstellung der gemeinsamen
Verteilung gewonnen. Die Rolle des Teilmengensystems W 1 ,..., W p ubernimmt
bei Bayesschen Netzwerken die Menge der Cliquen. Wir fassen im Folgenden kurz
das Verfahren zusammen, das zu einem Bayesschen Netzwerk einen Cliquenbaum ei-
nes ungerichteten, triangulierten Graphen konstruiert und eine Potentialdarstellung
von P auf den Cliquen bereitstellt (vgl. Anhang B.2). Cliquenbaum und Potenti-
aldarstellung bilden zusammen die Wissensbasis (entspricht dem regelhaften Wissen
in Abbildung 2.3).
Search WWH ::




Custom Search