Database Reference
In-Depth Information
Die grundlegende Idee dabei ist, fehlende Information “informationstheoretisch op-
timal” aufzufullen.
Die Wissensbasis besteht zunachst aus einer Menge probabilistischer Regeln,
mit denen der Experte wichtige Zusammenhange des zu behandelnden Problembe-
reichs beschreibt. Unter einer
probabilistischen Regel
versteht man dabei ein Kon-
strukt der Form
A
B [x],
A, Baussagenlogische Formeln,x
∈
[0, 1]
mit der Bedeutung “
Wenn
A
wahr ist, dann ist auch
B
wahr mit Wahrscheinlichkeit
x”oder“
Ein
A
ist zu
x
100
%ein
B”. Interpretiert werden solche probabilisti-
schen Regeln mittels bedingter Wahrscheinlichkeiten: Eine Verteilung P
erfullt eine
probabilistische Regel
A
·
B [x],
P
|
= A
B [x]gdw.P (B
|
A)=x
Meistens fordert man, dass P (A) > 0 ist. Die vom Experten spezifizierte Wissens-
basis hat dann also die Form einer Regelmenge
R
=
{
A
1
B
1
[x
1
],...,A
n
B
n
[x
n
]
}
Im Allgemeinen wird durch
nicht eindeutig eine Wahrscheinlichkeitsverteilung
bestimmt. Vielmehr wird es eine unubersehbar große Zahl von Verteilungen ge-
ben, die R erfullen (d. h. jede Regel aus R), und aus denen es nun eine be-
stimmte “beste” auszuwahlen gilt. Die Philosophie ist hier, diejenige Verteilung
P
∗
R
und seine probabilistischen Konsequen-
zen darstellt
und sonst keine Information hinzufugt
. Dies geschieht durch ein
Maximieren der zulassigen probabilistischen Unbestimmtheit, d. h. der
Entropie
H(P )=
zu nehmen, die nur das Wissen in
R
−
ω
P (ω)log
2
P (ω), wobei log
2
den dualen Logarithmus bezeichnet (vgl.
Anhang A.8). Man wahlt dann diejenige Verteilung, die die Entropie H(P )maxi-
miert unter der Nebenbedingung, dass P
|
=
R
gilt:
arg max
P
H(P )=
−
P (ω)log
2
P (ω)
(13.30)
|= R
ω
Diese klassische Optimierungsaufgabe ist fur jede Regelmenge
,fur die es uber-
haupt eine darstellende Wahrscheinlichkeitsverteilung gibt, eindeutig losbar (siehe
z. B. [46]). Ihre Losung P
∗
bezeichnen wir mit
ME
(
R
R
),
P
∗
=
ME
(
R
)
wobei
ME maximale Entropie
abkurzt.
Beispiel 13.50 (Grippe)
Die Zusammenhange zwischen G =
Grippe
, K =
Krank-
sein
und S =
Kopfschmerzen
konnten in der folgenden Weise beschrieben sein:
R
=
{
g
k [1],g
s [0.9],s
k [0.8]
}
Die
ME
-Verteilung P
∗
zu
ist die in Abbildung 13.13 angegebene (die Werte sind
gerundet). Man rechnet nun leicht nach, dass P (k
R
|
g)
≈
0.57 und P (k
|
gs)
≈
0.64
gilt. Damit ist tatsachlich P (k
|
g) <P(k
|
gs), was auch der Intuition entspricht.