Information Technology Reference
In-Depth Information
gilt. So ergibt sich das System der Normalgleichungen [Heuser 1988]
n
i = 1 x i
n
i = 1 x i
n
i = 1 y i
na 0 +
a 1 + ...+
a m =
n
i =1 x i
n
i =1 x i
n
i =1 x m +1
n
i =1 x i y i
a 0 +
a 1 + ...+
a m =
i
.
.
n
i = 1 x i
n
i = 1 x m + 1
n
i = 1 x 2 m
n
i = 1 x i y i ,
a 0 +
a 1 + ...+
a m =
i
i
aus dem sich die Parameter a 0 bis a m mit den üblichen Methoden der linearen Al-
gebra (z. B. Gaußsches Eliminationsverfahren, Cramersche Regel, Bildung der In-
versen der Koeffizientenmatrix etc.) berechnen lassen. Das so bestimmte Polynom
p ( x )= a 0 + a 1 x + a 2 x 2 + ...+ a m x m heißt Ausgleichspolynom oder Regressionspoly-
nom m -ter Ordnung für den Datensatz ( x 1 , y 1 ),...,( x n , y n ).
We i t e r l ä s s t s i ch d i e Me t hode de r k l e i ns t en Quadr a t e n i cht nur ve rwenden , um,
wie bisher betrachtet, Ausgleichspolynome zu bestimmen, sondern kann auch für
Funktionen mit mehr als einem Argument eingesetzt werden. In diesem Fall spricht
man von multipler oder multivariater Regression .Wiruntersuchenhierbeispielhaftnur
den Spezialfall der multilinearen Regression und beschränken uns außerdem auf eine
Funktion mit zwei Argumenten. D. h., wir betrachten, wie man zu einem gegebenen
Datensatz ( x 1 , y 1 , z 1 ),...,( x n , y n , z n ) eine Ausgleichsfunktion der Form
z = f ( x , y )= a + bx + cy
so bestimmen kann, dass die Summe der Abweichungsquadrate minimal wird. Die
Ableitung der Normalgleichungen für diesen Fall ist zu der Ableitung für Aus-
gleichspolynome völlig analog. Wir müssen
n
i =1 ( f ( x i , y i ) z i ) 2 =
n
i =1 ( a + bx i + cy i z i ) 2
F ( a , b , c )=
minimieren. Notwendige Bedingungen für ein Minimum sind
n
i = 1 2 ( a + bx i + cy i z i ) = 0,
F
a
=
n
i =1 2( a + bx i + cy i z i ) x i =
F
b
=
0,
n
i =1 2 ( a + bx i + cy i z i ) y i =
F
c
=
0.
Search WWH ::




Custom Search