Cryptography Reference
In-Depth Information
gleicher Einflusslänge
K
die größte Distanz
d
f
besitzen. Deshalb sind auch bei
Anwendung von Punktierung experimentelle Untersuchungen durchzuführen
oder man greift auf bereits bestehende Tabellen zurück, z. B. [BOS 98].
8.6.3
Dekodierung
Bisherige Betrachtungen basierten auf einer hard-decision Dekodierung, d. h.,
seitens des Demodulators erfolgte eine harte Quantisierung mit einer Ent-
scheiderschwelle. Dem Kanaldekodierer wurden nur 0 und 1 zugestellt, be-
dingt durch die nur harte Werte verarbeitenden Dekodierungsalgorithmen. Ei-
ne Möglichkeit von soft-input stellen die Auslöschung und Punktierung dar.
In die Dekodierung werden bereits bekannte Fehlerstellen einbezogen, sei es in
Form des Auslöschungsvektors
U
oder einer Punktierungsmatrix
P
.
Informationstheoretische Überlegungen zeigen, dass die SHANNON-Grenze
leichter erreicht werden kann, wenn die am Ausgang des Demodulators ver-
fügbare (Zuverlässigkeits-)Information in den Dekodierungsprozess einbezogen
wird
und
darüber hinaus Zuverlässigkeitsinformation für die rekonstruierten
(geschätzten) Informationsbits erzeugt und weiterverarbeitet werden kann.
Das erfordert, in den weiteren Betrachtungen die Möglichkeiten des Demodu-
lators/Detektors mit einzubeziehen.
y
[..]
u
v
x
y
u
,L
()
U
KK
Demod.
KD
Modulator
ÜŦWeg
Detektor
P
P
Übertragungskanal
Bild 8.6.1
Übertragungsmodell mit Realisierungen zum Zeitpunkt
t
∈{
0
,
1
}
∈{
+1
, −
1
}
Die Kodebits
abgebildet.
Ausgangsseitig werden kontinuierliche Signale empfangen. Das Vorzeichen des
Signals zum Zeitpunkt
t
bringt die harte Entscheidung, 0 oder 1. Eine weiche
Entscheidung, die Zuverlässigkeitsinformation, stellt eine Quantisierung mit
mehr als einer Entscheiderschwelle oder den Signalwert selbst dar.
Im Folgenden sind in der Reihenfolge des Übertragungsablaufs die Zusammen-
hänge zum Zeitpunkt
t
gezeigt (vgl. mit Bild 8.6.1):
u
(
t
)
∈{
0
,
1
}→
werden auf die Signalzustände
m
m
v
(
t
)
∈{
0
,
1
}
→
x
(
t
)
∈{
+1
,
−
1
}
−→
⎨
⎬
⎭
→
m
, hard-input
y
h
(
t
)
∈{
0
,
1
}
m
Q
m
y
(
t
)
∈
R
→
y
q
(
t
)
∈
, soft-input
u
(
t
)
∈{
0
,
1
}
,L
(
u
(
t
))
.
⎩
m
y
(
t
)
∈
R
, soft-input
Mit
L
(
u
(
t
))
wird die Zuverlässigkeit für das geschätzte Informationsbit
u
(
t
)
ausgegeben (soft-output).