Cryptography Reference
In-Depth Information
In den weiteren Ausführungen werden wir voraussetzen, dass die Übergangs-
wahrscheinlichkeiten p ( y j |x i ) bekannt sind, ganz gleich auf welche Weise sie
ermittelt wurden.
Beschreiben lassen sich die Komponenten dieses Übertragungssystems durch
die Vektoren der Zeichenwahrscheinlichkeiten p ( x i ) bzw. p ( y j ) und die Matri-
zen der Übergangswahrscheinlichkeiten p ( y j |x i ) und p ( x i |y j ) :
( p ( x i )) = ( p ( x 0 ) ,p ( x 1 ) , ..., p ( x N− 1 )) ,
( p ( y j )) = ( p ( y 0 ) ,p ( y 1 ) , ..., p ( y M− 1 )) ,
p ( y 0 |x 0 )
p ( y 1 |x 0 )
... p ( y M− 1 |x 0 )
p ( y j |x i ) =
x 1 )
......................................
p ( y 0 |x N− 1 ) p ( y 1 |x N− 1 ) ...p ( y M− 1 |x N− 1 )
p ( y 0 |
x 1 )
p ( y 1 |
x 1 )
... p ( y M− 1 |
,
p ( x 0 |y 0 )
p ( x 0 |y 1 )
... p ( x 0 |y M− 1 )
p ( x i |y j ) =
y M− 1 )
......................................
p ( x N− 1 |
p ( x 1 |
y 0 )
p ( x 1 |
y 1 )
... p ( x 1 |
.
y 0 ) p ( x N− 1 |
y 1 ) ...p ( x N− 1 |
y M− 1 )
Mit diesen Werten lässt sich die Transinformation entsprechend den Gln. (4.4)
und (4.6) leicht berechnen. Es sind
H ( X )=
p ( x i ) ld p ( x i )
bzw.
H ( Y )=
p ( y j ) ld p ( y j )
i
j
und
p ( x i )
j
H ( Y |X )=
p ( y j |x i ) ld p ( y j |x i )
bzw.
i
p ( y j )
i
H ( X|Y )=
p ( x i |y j ) ld p ( x i |y j ) .
j
Beispiel 5.1.1
Gegeben seien eine Quelle X = {
x 0 ,x 1 ,x 2 }
mit ( p ( x i )) = (0 , 10 , 30 , 6) und
eine Senke Y = {
. Der diskrete Kanal wird durch die Matrix seiner
Übergangswahrscheinlichkeiten ( p ( y j |x i )) beschrieben:
y 0 ,y 1 ,y 2 }
0 , 70 0 , 20 0 , 10
0 , 05 0 , 80 0 , 15
0 , 10 0 , 10 0 , 80
p ( y j |x i ) =
.
Die Transinformation ist zu bestimmen.
Search WWH ::




Custom Search