112 Janusz Buga, Helena Kassyk-Rokicka
Ocena siły związku korelacyjnego jest zgodna z oceną, jaką uzyskaliśmy opierając się na wskaźniku siły zależności e^. Liczbowe wartości obu miar są bardzo zbliżone. Wynika to z faktu, że badana zależność korelacyjna jest liniowa (por. rys. 3). Potwierdzeniem tego faktu jest wysokość miernika stopnia nieliniowości (inaczej mówiąc, stopnia krzywoliniowości) regresji empirycznej Y względem X:
= e2yx - 4 = 0,7562 - 0,7412 = 0,022.
Miernik m^ może przyjmować wartości z przedziału <0,1>. Otrzymana z przykładu bardzo niska wartość potwierdza bardzo niski stopień nieliniowości (krzywoliniowości) regresji empirycznej Y względem X. Wówczas - a ma to miejsce w naszym przykładzie - do oceny siły i kierunku zależności lepiej przyjąć współczynnik korelacji liniowej r(xy). W przypadku odwrotnym, tzn. gdyby przyjęło wysoką wartość do oceny siły badanego związku należy przyjąć wskaźnik siły korelacji e^.
4.3. Analiza regresji prostej
Przez analizę regresji rozumiemy badanie wpływu zmiennych uznanych w badaniu za niezależne (przyczyny) na zmienną uznaną za zależną (skutek). Jeżeli przedmiotem badania statystycznego jest tylko jedna zmienna niezależna (X) i tylko jedna zmienna zależna (Y), a zależność ta ma przebieg liniowy, to regresję Y względem X nazwiemy regresją prostą. Dla badanej empirycznie n-elementowej próby, ogólny model regresji zapiszemy w następujący sposób:
yi = f[xO + z; gdzie i = 1, 2,..., n. (4.19)
W przypadku liniowej zależności mamy:
y{ = ayXi + by + z-, gdzie h[xO « y-, = ayxs + by (4.20)
jest funkcją regresji Y względem X i stanowi główny składnik modelu;
Z[ = yi - yi jest składnikiem resztowym modelu, który mieści w sobie:
- efekt łącznego oddziaływania na zmienną Y (zależną) wszystkich innych czynników poza czynnikiem przyjętym jako zmienna X;
- efekt działania składnika czysto losowego;
- błędy wynikające z przyjęcia niewłaściwej postaci funkcji regresji !Ui);
- błędy pomiarów wartości X i cechy Y.
Parametr ay liniowej funkcji regresji oraz wyraz wolny by oszacujemy, korzystając z wzorów wyznaczonych z matematycznego warunku minimalizacji sumy kwadratów odchyleń wartości teoretycznych i empirycznych, tzw. pojedynczej metody najmniejszych kwadratów.
Biorąc pod uwagę, że badania statystyczne prowadzimy zawsze na skończonych n-elementowych zbiorowościach, powyższy warunek zapiszemy:
X(Yi -yi)2 = min> (4-21)
i=i
a w przypadku liniowej funkcji regresji ys = f(Xj) ma on postać:
^(yi-a^-by)2 = min. (4.22)
i=l
Stosując matematyczne warunki minimalizacji wyrażenia (4.21) w efekcie końcowym otrzymujemy wzory służące do obliczenia ay i by:
ay =
i=l
i=l i=l
(4.23)
i=l
i=l
n n
b = —-—— = y - a x (4.24)
3 n
Parametr % nazywamy współczynnikiem regresji liniowej Y względem X, natomiast by jest wyrazem wolnym tej funkcji regresji.