Information Technology Reference
In-Depth Information
die beiden niederdimensionalen Verteilungen jener Attribute nötig, die durch eine
Kante verbunden sind:
P
(
B
=
b
1
|
G
=
g
4
)=
1
P
(
g
4
,
m
) ·
P
(
m
,
b
1
)
P
(
m
)
·
m
dom(
M
)
P
(
g
4
)
1000
280
18
·
180
360
·
1000
+
102
·
40
240
·
1000
+
160
·
20
400
·
1000
=
·
34
280
=
0.122
Man macht sich leicht klar, dass bei einer realen (großen) Anzahl von Attribu-
ten nur unter dieser eben skizzierten Ausnutzung von bedingten Unabhängigkeiten
eine Propagation von Wissen überhaupt möglich ist. Zusammenfassend lassen sich
folgende Fragestellungen ableiten, die in den folgenden Kapiteln beantwortet wer-
den:
1. Wie kann (Experten-)Wissen über komplexe Anwendungsbereiche effizient re-
präsentiert werden? Hier werden wir die weiter oben abgesprochenen Reprä-
sentationsformen durch gerichtete und ungerichtete Graphen als Bayes- und
Markov-Netze kennenlernen.
2. Wie können Schlussfolgerungen innerhalb dieser Repräsentationen durchge-
führt werden? Die Graphenstrukturen werden uns helfen, bekannt gewordene
Informationen effizient durch das jeweilige (Bayes- oder Markov-)Netz zu pro-
pagieren.
3. Wie können solche Repräsentationen (automatisch) aus gesammelten Daten
extrahiert werden? Hier wird das Lernen von Bayes- oder Markov-Netzen be-
sprochen und ausführlich an einem Beispiel für Bayes-Netze erläutert.