Metoda Najmniejszych Kwadratów (MNK)
y = a0 + aiXi + a2x2 + ... + akxk + e y = a0 + aiXn + a2X2t + ... + akXk, + £«, gdzie t=1,...,n y = Xa + c
Metoda regresji liniowej polega na obliczeniu oceny (wartości) estymatora a takiej, która minimalizuje odległość euklidesową między wektorami {punktami) y i y w N-wymiarowej przestrzeni euklidesowej EN, tzn. minimalizuje tzw. sumę resztową, która w zapisie skalarnym jest postaci:
S(a)= v (y„- y„)2= t e„2
a w zapisie macierzowym jest postaci:
S(a) = (y - X a)T (y-Xa)
Z tego równania wynika:
S(a) = yTy - aTXTy - yTXa + aTXTXa = yTy - 2yTXa + aTXTXa
a z warunku wyznaczenia minimum dla funkcji S(a) wynika:
dS/da = -2XTy + 2XTXa = 0
Czyli układ równań normalnych ma postać:
XTXa= XTy
skąd ostatecznie otrzymuje się następujący wzór na wektor estymatorów regresji liniowej:
a = (XTX)*1XTy
Warunkiem istnienia rozwiązania zadania regresji liniowej jest nieosobliwość macierzy XTX, tzn. spełnienie warunku:
det(XTX) , 0
Wartości teoretyczne:
Pt = a0 + aiXn + a2x2t+-.+akxkt, t = 1,2, _,n y = Xa
Reszty:
€( — yf pt, t — 1,2.....n
e = y - y = y - Xa a = (XTX)‘1 XTy
2