Database Reference
In-Depth Information
S
3
=
{
C
}⊂
C
2
Dann ist (
C
1
,
C
2
,ψ
(1)
) eine Potentialdarstellung der Randverteilung von P auf
C
1
∪
,wobeiψ
(1)
in der folgenden Form gegeben ist:
C
2
=
{
A, B, C, D
}
ψ
(1)
(
C
1
)=ψ(
C
1
)
also
ψ
(1)
(A, B, C)=P (A)P (B
|
A)P (C
|
A)
und
ψ
(1)
(
C
2
)=ψ(
C
2
)
R
3
ψ(
C
3
)
ψ(B, C, D)
E
=
ψ(C, E)
also
B, C)
E
ψ
(1)
(B, C, D)=P (D
|
P (E
|
C)
=
P (D
|
B, C)
Damit lasst sich nun sukzessive eine Darstellung der gemeinsamen Verteilung
P mittels bedingter Wahrscheinlichkeiten gewinnen:
Proposition 13.39
Sei
V
eine (endliche) Menge von Aussagenvariablen, und sei
P
eine gemeinsame Verteilung uber
V
mit Potentialdarstellung
.
Wir nehmen weiterhin an, dass die Ordnung
(
W
1
,...,
W
p
)
der fortlaufenden
Schnitteigenschaft RIP genugt. Dann gilt
{
W
1
,...,
W
p
; ψ
}
p
P (
V
)=P (
W
1
)
P (
R
i
|
S
i
)
(13.26)
i=2
wobei die Mengen
R
i
,
S
i
wie in Proposition 13.33 definiert sind.
Ein Beweis hierzu findet sich in [168], S. 256.
13.3.2
Der permanente Cliquenbaum als Wissensbasis
Durch Proposition 13.39 haben wir eine handliche Darstellung der gemeinsamen
Verteilung gewonnen. Die Rolle des Teilmengensystems
W
1
,...,
W
p
ubernimmt
bei Bayesschen Netzwerken die Menge der Cliquen. Wir fassen im Folgenden kurz
das Verfahren zusammen, das zu einem Bayesschen Netzwerk einen
Cliquenbaum
ei-
nes ungerichteten, triangulierten Graphen konstruiert und eine Potentialdarstellung
von P auf den Cliquen bereitstellt (vgl. Anhang B.2). Cliquenbaum und Potenti-
aldarstellung bilden zusammen die Wissensbasis (entspricht dem regelhaften Wissen
in Abbildung 2.3).