Image Processing Reference
In-Depth Information
. Der zugehörige Raum sei mit
R
N×M
bezeichnet
(
)
Funktionswert im Gitterpunkt
ih
,
jh
und mit dem Skalarprodukt
h
2
N
M
j
=1
u
i
,
j
v
i
,
j
i
=1
(
u
,
v
)=
versehen. Für die Bildung des Gradienten werden weiterhin mehrere Komponenten
benötigt, wir bezeichnen daher mit
R
N×M×K
den Raum der
K
-komponentigen Bilder.
Für
u
,
v
R
N
×
M
×
K
sei ein punktweises und ein globales Skalarprodukt definiert
∈
K
k
=1
u
i
,
j
,
k
v
i
,
j
,
k
,
h
2
N
M
j
=1
u
i
,
j
·
v
i
,
j
.
i
=1
u
i
,
j
·
v
i
,
j
=
(
u
,
v
)=
u
i
,
j
|
=
√
u
i
,
j
·
Diese Definitionen g
eben a
uch einen punktweisen Absolutbetrag
|
u
i
,
j
und
=
(
)
eine Norm
.
Dadurch vorbereitet können wir
L
p
-Normen einfach durch punktweise Summation
darstellen: Ist
u
u
u
,
u
R
N×M×K
, so sei für
p
∈
∈
[
∞[
1,
h
2
N
p
M
j
=
1
|u
i
,
j
|
p
i
=
1
p
=
∞
=
1,...,
M
|
|
u
,
u
max
max
u
i
,
j
.
i
=
1,...,
N
j
=
Um nun auch Sobolew-Halbnormen diskret zu schreiben, brauchen wir eine Diskreti-
sierung von
. Wir nehmen, wie bereits zuvor, die Finite-Differenzen-Approximation
mit konstanter Fortsetzung am Rand
∇
⎧
⎨
⎩
⎧
⎨
⎩
−
−
u
i
+
1,
j
u
i
,
j
u
i
,
j
+
1
u
i
,
j
<
<
falls
i
N
falls
j
M
(
∂
1
u
)
i
,
j
=
h
,
(
∂
2
u
)
i
,
j
=
h
0
sonst
0
sonst.
∇
h
u
ist dann in
R
N×M×
2
und gegeben durch
Der diskrete Gradient
(
∇
h
u
)
i
,
j
,
k
=(
∂
k
u
)
i
,
j
.
(6.97)
:
R
N×M
R
N×M×
2
=
∇
h
in der Methode (6.89) verwenden wollen, sind wir sowohl an der Adjungierten als
auch an der Norm interessiert. Für ersteres führen wir den diskreten Divergenzoperator
div
h
:
R
N×M×
2
∇
h
→
Als linearer Operator bildet
ab. Da wir ihn als Operator
A
R
N×M
mit Nullrandwerten ein:
→
⎧
⎨
⎧
⎨
v
1,
j
,1
h
v
i
,1,2
h
falls
i
=
1
falls
j
=
1
v
i
,
j
,1
−
v
i−
1,
j
,1
h
v
i
,
j
,2
−
v
i
,
j−
1,2
h
(
div
h
v
)
i
,
j
=
<
<
+
<
<
falls 1
i
N
falls 1
j
M
⎩
⎩
−
v
N
−
1,
j
,1
h
−
v
i
,
M
−
1,2
h
falls
j
=
M
.
(6.98)
falls
i
=
N