Information Technology Reference
In-Depth Information
die beiden niederdimensionalen Verteilungen jener Attribute nötig, die durch eine
Kante verbunden sind:
P ( B = b 1 | G = g 4 )= 1
P ( g 4 , m ) · P ( m , b 1 )
P ( m )
·
m dom( M )
P ( g 4 )
1000
280
18 · 180
360 · 1000 +
102 · 40
240 · 1000 +
160 · 20
400 · 1000
=
·
34
280
=
0.122
Man macht sich leicht klar, dass bei einer realen (großen) Anzahl von Attribu-
ten nur unter dieser eben skizzierten Ausnutzung von bedingten Unabhängigkeiten
eine Propagation von Wissen überhaupt möglich ist. Zusammenfassend lassen sich
folgende Fragestellungen ableiten, die in den folgenden Kapiteln beantwortet wer-
den:
1. Wie kann (Experten-)Wissen über komplexe Anwendungsbereiche effizient re-
präsentiert werden? Hier werden wir die weiter oben abgesprochenen Reprä-
sentationsformen durch gerichtete und ungerichtete Graphen als Bayes- und
Markov-Netze kennenlernen.
2. Wie können Schlussfolgerungen innerhalb dieser Repräsentationen durchge-
führt werden? Die Graphenstrukturen werden uns helfen, bekannt gewordene
Informationen effizient durch das jeweilige (Bayes- oder Markov-)Netz zu pro-
pagieren.
3. Wie können solche Repräsentationen (automatisch) aus gesammelten Daten
extrahiert werden? Hier wird das Lernen von Bayes- oder Markov-Netzen be-
sprochen und ausführlich an einem Beispiel für Bayes-Netze erläutert.
Search WWH ::




Custom Search