Cryptography Reference
In-Depth Information
3.3
Koderedundanz und erstes SHANNONsches
Kodierungstheorem
Die Anwendung eines gleichmäßigen oder ungleichmäßigen Kodes hängt na-
türlich vom Wissen über meine Quelle ab. Aus den Betrachtungen im Abschn.
2.2 ist klar geworden, dass sich dieses Wissen in der Größe der Entropie wi-
derspiegelt. Dieses Wissen gilt es jetzt auch geeignet in die Quellenkodierung
einzubeziehen, um damit die Koderedundanz minimal zu gestalten.
Zur Ermittlung der Koderedundanz entsprechend Definition 3.1.3 müssen wir
zunächst die Kodewortlänge bestimmen. Sie ergibt sich aus der Beziehung
l =
ld N
für gleichmäßige Kodes .
(3.2)
Bei ungleichmäßigen Kodes kann nur der Mittelwert der Kodewortlängen l i
( i =1 , 2 , ..., N ) gebildet werden, der von den Auftrittswahrscheinlichkeiten p i
der einzelnen Kodewörter, d. h. von der Statistik der zu kodierenden Quelle,
abhängt. Danach ergibt sich eine mittlere Kodewortlänge
N
l m =
p i l i
für ungleichmäßige Kodes .
(3.3)
i =1
Jedes Kodewort ist eine Folge von Binärzeichen ( Bit [binary digit]) bzw. Ka-
nalzeichen ( KZ ). Demnach kann die Kodewortlänge in
Bit
QZ bzw. KZ
QZ
(bezogen auf ein Quellenzeichen ( QZ )) angegeben werden.
Aus praktisch einleuchtenden Gründen (weniger Speicherplatz, kürzere Über-
tragungszeiten der Information) werden generell möglichst kleine Kodewort-
längen angestrebt. Da jedoch die Kodewortlänge den mittleren Informationsge-
halt je Quellenzeichen verkörpert, gilt für einen dekodierbaren (binären) Kode
offensichtlich die untere Schranke
l m
H m .
Beweis: H m − l m 0 .
Wir gehen von den Gln. (2.2) und (3.3) aus:
p i ld p i
p i l i ld 2 0 ,
i
i
p i ld p i +
i
p i ld 2 −l i =
i
p i ld 2 −l i
p i 0 .
i
Search WWH ::




Custom Search