Image Processing Reference
In-Depth Information
L
(
L
(
))
X
,
X
,
Y
welcher bekanntermaßen genau den stetigen bilinearen Abbildungen
G
:
X
Y
entspricht [145]. Mit dem Begriff der
k
-Linearität oder Multilinearität lässt
sich Analoges für
k
×
X
→
≥
1 sagen:
Y
Gk
-linear und stetig
k
L
(
X
,...
L
(
X
,
Y
)
···
)
∼L
(
X
,
Y
)=
{
G
:
X
X
k
-mal
×
...
×
→
}
,
k
-fach
inf
M
0
X
k
k
i
=
1
x
i
X
für alle
=
>
(
)
Y
≤
(
)
∈
G
G
x
1
,...,
x
k
M
x
1
,...,
x
k
wobei diese Norm mit der entsprechenden Operatornorm übereinstimmt. Üblicherwei-
se fasst man die
k
-te Ableitung als Element von
k
L
(
)
(dem Raum der
k
-linearen
stetigen Abbildungen) beziehungsweise als Abbildung D
k
F
:
U
X
,
Y
k
→L
(
X
,
Y
)
auf. Exis-
U
und ist sie dort stetig, so ist D
k
F
∈
(
)
tiert eine derartige Ableitung in
x
x
symmetrisch.
Beispiel 2.10
(Differenzierbare Abbildungen)
•
Eine lineare und stetige Abbildung
F
ist beliebig differenzierbar mit
sich selbst als 1. Ableitung und 0 als jede höhere Ableitung.
∈L
(
X
,
Y
)
Auf dem
K
N
ist jedes Polynom beliebig oft differenzierbar.
•
K
N
, die stetige partielle Ableitungen besitzen, sind ebenfalls
stetig differenzierbar.
•
Funktionen auf
U
⊂
R
N
und
Y
=
=
Im Fall von Funktionen, also
X
K
, sind die Schreibweisen
⎛
⎞
2
F
∂
2
F
∂
∂
···
x
1
∂
x
1
∂
x
N
∂
F
∂
x
N
,
⎝
⎠
.
.
.
.
.
∂
F
2
F
∇
F
=
···
∇
=
x
1
∂
2
F
2
F
∂
∂
···
∂
x
N
∂
x
1
x
2
N
∂
gebräuchlich, da unter der Voraussetzung, dass die entsprechenden partiellen Ablei-
tungen stetig sind, die Fréchet-Ableitungen durch Matrix-Vektor-Multiplikationen dar-
gestellt werden können
2
F
z
T
2
F
D
F
(
x
)
y
=
∇
F
(
x
)
y
,
(
x
)(
y
,
z
)=
∇
(
x
)
y
.
Für die höheren Ableitungen gibt es ähnliche Summationsnotationen. Das Vektorfeld
∇
2
F
leicht missbräuchlich als
Hesse-Matrix
bezeichnet wird. Es hat sich in der Literatur ein-
gebürgert, dass beim Gradienten nicht zwischen Zeilen- und Spaltenvektor unterschie-
den wird, insofern man den Gradienten in einem Punkt auch von links mit einer Matrix
multiplizieren kann. Wir werden, sofern Mehrdeutigkeiten ausgeschlossen sind, eben-
falls davon Gebrauch machen, aber an geeigneten Stellen noch einmal darauf hinwei-
sen. Schließlich sei noch für
U
F
heißt in dieser Situation
Gradient
von
F
während die matrixwertige Abbildung
∇
K
M
der Begriff der
Jacobi-Matrix
erwähnt, für die, im Falle der Stetigkeit der partiellen Ableitungen, gilt:
R
N
und
F
:
U
⊂
→
⎛
⎞
∂
F
1
∂
F
1
···
∂
x
1
∂
x
N
⎝
⎠
.
.
.
.
.
∇
F
=
,
F
(
x
)
y
=
∇
F
(
x
)
y
.
∂
F
M
∂
∂
F
M
···
x
1
∂
x
N