Database Reference
In-Depth Information
Die grundlegende Idee dabei ist, fehlende Information “informationstheoretisch op-
timal” aufzufullen.
Die Wissensbasis besteht zunachst aus einer Menge probabilistischer Regeln,
mit denen der Experte wichtige Zusammenhange des zu behandelnden Problembe-
reichs beschreibt. Unter einer probabilistischen Regel versteht man dabei ein Kon-
strukt der Form
A
B [x],
A, Baussagenlogische Formeln,x
[0, 1]
mit der Bedeutung “ Wenn A wahr ist, dann ist auch B wahr mit Wahrscheinlichkeit
x”oder“ Ein A ist zu x
100 %ein B”. Interpretiert werden solche probabilisti-
schen Regeln mittels bedingter Wahrscheinlichkeiten: Eine Verteilung P erfullt eine
probabilistische Regel A
·
B [x],
P
|
= A
B [x]gdw.P (B
|
A)=x
Meistens fordert man, dass P (A) > 0 ist. Die vom Experten spezifizierte Wissens-
basis hat dann also die Form einer Regelmenge
R
=
{
A 1
B 1 [x 1 ],...,A n
B n [x n ]
}
Im Allgemeinen wird durch
nicht eindeutig eine Wahrscheinlichkeitsverteilung
bestimmt. Vielmehr wird es eine unubersehbar große Zahl von Verteilungen ge-
ben, die R erfullen (d. h. jede Regel aus R), und aus denen es nun eine be-
stimmte “beste” auszuwahlen gilt. Die Philosophie ist hier, diejenige Verteilung
P
R
und seine probabilistischen Konsequen-
zen darstellt und sonst keine Information hinzufugt . Dies geschieht durch ein
Maximieren der zulassigen probabilistischen Unbestimmtheit, d. h. der Entropie
H(P )=
zu nehmen, die nur das Wissen in
R
ω P (ω)log 2 P (ω), wobei log 2 den dualen Logarithmus bezeichnet (vgl.
Anhang A.8). Man wahlt dann diejenige Verteilung, die die Entropie H(P )maxi-
miert unter der Nebenbedingung, dass P
|
=
R
gilt:
arg max
P
H(P )=
P (ω)log 2 P (ω)
(13.30)
|= R
ω
Diese klassische Optimierungsaufgabe ist fur jede Regelmenge
,fur die es uber-
haupt eine darstellende Wahrscheinlichkeitsverteilung gibt, eindeutig losbar (siehe
z. B. [46]). Ihre Losung P bezeichnen wir mit ME (
R
R
),
P = ME (
R
)
wobei ME maximale Entropie abkurzt.
Beispiel 13.50 (Grippe) Die Zusammenhange zwischen G = Grippe , K = Krank-
sein und S = Kopfschmerzen konnten in der folgenden Weise beschrieben sein:
R
=
{
g
k [1],g
s [0.9],s
k [0.8]
}
Die ME -Verteilung P zu
ist die in Abbildung 13.13 angegebene (die Werte sind
gerundet). Man rechnet nun leicht nach, dass P (k
R
|
g)
0.57 und P (k
|
gs)
0.64
gilt. Damit ist tatsachlich P (k
|
g) <P(k
|
gs), was auch der Intuition entspricht.
Search WWH ::




Custom Search