Information Technology Reference
In-Depth Information
gilt. So ergibt sich das System der Normalgleichungen [Heuser 1988]
n
i
=
1
x
i
n
i
=
1
x
i
n
i
=
1
y
i
na
0
+
a
1
+ ...+
a
m
=
n
i
=1
x
i
n
i
=1
x
i
n
i
=1
x
m
+1
n
i
=1
x
i
y
i
a
0
+
a
1
+ ...+
a
m
=
i
.
.
n
i
=
1
x
i
n
i
=
1
x
m
+
1
n
i
=
1
x
2
m
n
i
=
1
x
i
y
i
,
a
0
+
a
1
+ ...+
a
m
=
i
i
aus dem sich die Parameter
a
0
bis
a
m
mit den üblichen Methoden der linearen Al-
gebra (z. B. Gaußsches Eliminationsverfahren, Cramersche Regel, Bildung der In-
versen der Koeffizientenmatrix etc.) berechnen lassen. Das so bestimmte Polynom
p
(
x
)=
a
0
+
a
1
x
+
a
2
x
2
+ ...+
a
m
x
m
heißt
Ausgleichspolynom
oder
Regressionspoly-
nom m
-ter Ordnung für den Datensatz (
x
1
,
y
1
),...,(
x
n
,
y
n
).
We i t e r l ä s s t s i ch d i e Me t hode de r k l e i ns t en Quadr a t e n i cht nur ve rwenden , um,
wie bisher betrachtet, Ausgleichspolynome zu bestimmen, sondern kann auch für
Funktionen mit mehr als einem Argument eingesetzt werden. In diesem Fall spricht
man von
multipler
oder
multivariater Regression
.Wiruntersuchenhierbeispielhaftnur
den Spezialfall der
multilinearen Regression
und beschränken uns außerdem auf eine
Funktion mit zwei Argumenten. D. h., wir betrachten, wie man zu einem gegebenen
Datensatz (
x
1
,
y
1
,
z
1
),...,(
x
n
,
y
n
,
z
n
) eine Ausgleichsfunktion der Form
z
=
f
(
x
,
y
)=
a
+
bx
+
cy
so bestimmen kann, dass die Summe der Abweichungsquadrate minimal wird. Die
Ableitung der Normalgleichungen für diesen Fall ist zu der Ableitung für Aus-
gleichspolynome völlig analog. Wir müssen
n
i
=1
(
f
(
x
i
,
y
i
)
z
i
)
2
=
n
i
=1
(
a
+
bx
i
+
cy
i
z
i
)
2
F
(
a
,
b
,
c
)=
minimieren. Notwendige Bedingungen für ein Minimum sind
n
i
=
1
2
(
a
+
bx
i
+
cy
i
z
i
) =
0,
F
a
=
n
i
=1
2(
a
+
bx
i
+
cy
i
z
i
)
x
i
=
F
b
=
0,
n
i
=1
2
(
a
+
bx
i
+
cy
i
z
i
)
y
i
=
F
c
=
0.