Database Reference
In-Depth Information
C 1 =
{
A, B, C
}
{
B, C
}
C 2 =
{
B, C, D
}
{
C
}
C 3 =
{
C, E
}
Abbildung 13.9 Cliquenbaum zu Beispiel 13.40; die Kanten tragen die Separatoren als
Label
C 1 ist also Elternclique von C 2 , und diese ist wiederum Elternclique von C 3 .Wir
erhalten damit den Cliquenbaum in Abbildung 13.9.
Der Cliquenbaum und die dazu gehorige Potentialdarstellung der gemeinsamen
Verteilung stellen einen permanenten Teil der Wissensbasis dar. Zu jedem Knoten
des Baumes werden die entsprechenden Mengen C i , S i , R i und die Funktion ψ( C i )
gespeichert. Das ursprungliche Bayessche Netzwerk wird nun nicht mehr benotigt.
In der schematischen Darstellung in Abbildung 2.3 entsprechen Cliquenbaum
und Potentialdarstellung also den Regeln in der Wissensbasis eines wissensbasierten
Systems. Die Wissensverarbeitung erfolgt z.B. nach dem Propagationsalgorithmus
von Lauritzen und Spiegelhalter, den wir im nachsten Abschnitt 13.3.3 vorstellen
werden. Die Berucksichtigung fallspezifischer Fakten (vgl. Abbildung 2.3) entspricht
der Instantiierung einzelner Variablen zu konkreten Werten (Abschnitt 13.3.4).
Selbsttestaufgabe 13.41 (Cliquenbaum) Wir betrachten den DAG G aus dem
Los Angeles-Beispiel 13.24 (vgl. Abbildung 13.6). Die Wahrscheinlichkeiten fur R
und S seien gegeben durch
P (r)=0.2
und
P (s)=0.1
und die bedingten Verteilungen P (W r
|
R) und P (H r
|
R, S) liegen in der folgenden
Form vor:
 
Search WWH ::




Custom Search