Image Processing Reference
In-Depth Information
auf dem affinen Unterraum
u
0
L
q
v
+
=
{
∈
(Ω)
|
Ω
=
}
X
1
,
X
1
v
0
stetig ist. Ebenso gilt
die Stetigkeit von
(Ω)
v|
Ω
\
Ω
=
u
0
(
)=
|
Ω
\
Ω
}
(
)
F
2
u
I
u
.
{v∈L
q
(Ω)
v
auf dem affinen Unterraum
u
0
L
q
+
=
{
∈
|
Ω
\
Ω
=
}
X
2
,
X
2
v
0
. Die Einschränkun-
gen
P
1
:
u
χ
Ω
sind stetig und ergeben addiert
die Identität, es lässt sich also das Ergebnis aus Übungsaufgabe 6.14 verwenden. Wir
erhalten damit
→
u
χ
Ω
\
Ω
beziehungsweise
P
2
:
u
→
u
∂
(
F
1
+
F
2
)=
∂
F
1
+
∂
F
2
.
Bezeichnen wir mit
A
:
L
q
L
q
(Ω
)
Ω
und mit
E
:
(Ω)
→
die Einschränkung auf
(
Ω
,
R
d
L
p
L
p
,
R
d
)
→
(
Ω
)
die Nullfortsetzung, so gilt
p
p
1
p
=
·
◦
◦
◦∇
0
◦
◦
F
1
T
E
A
T
−
u
0
.
u
0
∇
Die Abbildung
A
ist surjektiv; nach den Ergebnissen der Übungsaufgaben 6.11 und 6.12
für jeweils
A
und
∇
0
sowie Satz 6.51 für
T
u
0
,
E
und
T
u
0
erfüllt der Subgradient
−
∇
A
∗
∇
0
E
∗
J
p
∇
)
|
Ω
falls
H
1,
p
0
u
0
u
0
u
0
+
∇
(
u
−
(
u
−
)
|
Ω
∈
(
Ω
)
,
(
)=
∂
F
1
u
∅
sonst
. Es ist leicht zu sehen, dass
E
∗
, in den entspre-
chenden Räumen, der Einschränkung auf
p
−
2
L
p
,
R
d
(
)=
|
|
∈
(Ω
)
mit
J
p
w
w
w
für
w
Ω
entspricht, genauso stellt
A
∗
eine Null-
L
p
∗
∇
0
∇
0
⊂
(Ω
)
∈
fortsetzung dar. Rechnen wir noch
aus: Ist
w
dom
, so gilt für alle
∈D
(
Ω
)
u
:
Ω
(
∇
0
w
w
·∇
u
d
x
=
w
·∇
0
u
d
x
=
)
u
d
x
,
Ω
Ω
∇
0
w
das heißt,
=
−
div
w
im Sinne der schwachen Divergenz. Andersherum sei
L
p
∗
L
q
∗
(
Ω
,
R
d
(
Ω
)
w
∈
)
derart, dass
−
div
w
∈
. Dann können wir nach Definition
von
H
1,
p
0
H
1,
p
0
(
Ω
)
(
Ω
)
u
n
D
(
Ω
)
wählen mit
u
n
für jedes
u
∈
eine Folge
(
)
in
→
u
in
(
Ω
)
(
Ω
,
R
d
L
p
u
n
u
in
L
p
sowie
∇
→∇
)
. Es folgt also
u
n
d
x
u
n
d
x
w
·∇
u
d
x
=
lim
n
w
·∇
=
−
lim
n
Ω
(
div
w
)
=
−
Ω
(
div
w
)
u
d
x
,
→
∞
→
∞
Ω
Ω
∇
0
∇
0
=
−
demnach ist
w
∈
dom
und
div
w
. Wir haben gezeigt:
div
w
L
p
∗
L
q
∗
∇
0
=
−
∇
0
=
{
(
Ω
,
R
d
(
Ω
)
}
div,
dom
w
∈
)
∈
,
mit anderen Worten: Die Adjungierte zum Gradienten mit Nullrandbedingungen ent-
spricht der schwachen Divergenz. Im Gegensatz zu
∇
0
auf allen Vektorfel-
dern deren schwache Divergenz im entsprechenden Raum existiert und nicht nur auf
denen mit verschwindender Normalenspur am Rand (vergleiche auch Satz 6.88 und
Bemerkung 6.89).
Für den Subgradienten von
F
1
folgt, mit der Konvention, dass Gradient und Diver-
genz auf
∇
∗
operiert
Ω
genommen und die Divergenz anschließend mit Null fortgesetzt wird,
div
2
falls
H
1,
p
0
−
(
Ω
)
p
u
0
−
∇
(
u
|
Ω
)
|∇
(
u
|
Ω
)
|
(
u
−
)
|
Ω
∈
(
)=
∂
F
1
u
∅
sonst.