gdzie sx i sy- są odchyleniami standardowymi odpowiednio zmiennej X i zmiennej F. Ponadto
(70)
P(X’Y) = / „ o n ==i '
Prosta regresja liniowa Zakładać będziemy, że obserwujemy w pewnym doświadczeniu pary (xi, Fi), (x-2, Fj), ... (xn, F„). Zmienną x będziemy nazywać zmienną niezależną (objaśniającą), a Y - zmienną zależną (objaśnianą). Model analizy regresji zapisać możemy jako
(71)
F — b\x + bo 4- £ ,
gdzie e jest nieobserwowalnym przez nas błędem losowym, zmienna x - obserwowaną przez nas, deterministyczną zmienną, F - obserwowaną przez nas zmienną losową, bo, ii - nieznanymi parametrami funkcji regresji.
Funkcję
y = bix + ba (72)
nazywamy prostą regresji.
W celu znalezienia wartości parametrów, musimy skonstruować ich estymatory. Wykorzystujemy do tego metodę najmniejszych kwadratów, która polega na minimalizacji wartości
(73)
SSE = (F - bin - b0f
względem poszukiwanych wartości bo i b\. Prowadzi to do następujących wzorów na estymatory
(74)
czyli
Si = C°V(2x,y) , S0 = ? - Six . (75)
sx
Niech
F{ = Sili + S0 . (76)
Wartość Fi nazywać będziemy przewidywaną wartością zmiennej objaśnianej (zależnej).
Wielkości
i, = Yi - Yi = Yt - b,Xi - b0 (77)
nazywamy resztami.
Równanie (76) może w prosty sposób posłużyć do predykcji (czyli prognozowania) wartości zmiennej zależnej. Wystarczy obliczyć
(78)
F0 — 61X0 -b b o
Podstawowa tożsamość analizy wariancji i jej interpretacja Zachodzi E (Yi - Y)2 = ± (Fi - F)2 + £ (Fi - Fi)2 , (79)
i=l i= 1 :=1
10