Database Reference
In-Depth Information
gilt aber
P (fh
|
s)
= P (f
|
s)
·
P (h
|
s)
Damit sind G und H bedingt abhangig bei gegebenem S,obwohlG und H (statis-
tisch) unabhangige Variable sind.
Selbsttestaufgabe A.35 (Satz von Bayes) Berechnen Sie mit dem Satz von
Bayes im Beispiel A.34 die bedingte Wahrscheinlichkeit P (r
|
f ).
Selbsttestaufgabe A.36 (bedingte Unabhangigkeit) Sind im Beispiel A.34
die Variablen G und R bedingt unabhangig bei gegebenem S, d.h. gilt G
P R
|
S?
Selbsttestaufgabe A.37 (Wahrscheinlichkeitsverteilungen) Es sei die in fol-
gender Tabelle aufgelistete Wahrscheinlichkeitsverteilung uber die 3 (binaren) Aus-
sagevariablen X, Y, Z gegeben:
xyzP(x, y, z)
xyzP(x, y, z)
1
26
4
13
000
100
1
52
1
13
001
101
1
52
2
13
010
110
1
13
4
13
011
111
1. Berechnen Sie die Randverteilung uber X und Y , P (X, Y ).
2. Berechnen Sie die bedingten Wahrscheinlichkeiten P (X
Y ).
3. Zeigen Sie, dass X und Y bedingt unabhangig sind bei gegebenem Z.
|
A.7
Der Begriff der Information
Information ist einer der modernen Schlusselbegriffe. Um richtige Entscheidungen
zu treffen und Fehler zu vermeiden, ist es entscheidend, uber “gute” Informationen
zu verfugen. Verglichen mit dem eher statischen Begriff des Wissens hat Information
eine starke dynamische Komponente - sie ist die Neuigkeit ,diewir(ausBuchern,
aus dem Internet oder von Freunden) erfahren und an andere weitergeben. Dement-
sprechend handelt dann auch die mathematische Informationstheorie von informa-
tionsemittierenden Quellen und informationstransportierenden Kanalen (vgl. z. B.
[96]). Information wird dort allerdings in einem ganz formalen Rahmen gesehen. Im
Folgenden wollen wir diesen abstrakten Informationsbegriff entwickeln und zeigen,
wie sich mit Hilfe von Wahrscheinlichkeiten Information quantitativ messen lasst.
Search WWH ::




Custom Search