59
Statystyka matematyczna
Ze względu na fakt, iż w modelu tym dopuszczamy istnienie wielu zmiennych niezależnych, komplikuje się nieco kwestia współczynników korelacji. Zauważmy bowiem, że jeśli zmienna x.i posiada pewien wpływ na zmienną x.2, a zmienna x.2 na zmienną zależną Y, to zwykły współczynnik korelacji pomiędzy x.i a Y będzie zawierać również „ukrytą” zależność pomiędzy x.2 a Y. W celu ominięcia tego problemu wyliczamy tzw. współczynniki korelacji cząstkowej. Pozwalają one na zbadanie zależności pomiędzy dwoma zmiennymi 2 wyłączeniem wpływu pozostałych zmiennych.
Innemu celowi służy współczynnik korelacji wielokrotnej (wielorakiej). Dzięki niemu możemy określić zależność pomiędzy jedną zmienną objaśniającą x.j a wszystkimi pozostałymi zmiennymi objaśniającymi „na raz”.
Szczególnego znaczenia w regresji wielorakiej nabierają testy hipotez zerowych postaci
H0 : bi = 0 (3.185)
dla poszczególnych i = 0,1,..., p. Zauważmy bowiem, że test F sprawdza istnienie niezależności pomiędzy zmienną zależną a wszystkimi zmiennymi niezależnymi na raz (jednocześnie). W szczególności jeśli wśród niezależnych zmiennych istotnych pojawi się jedna (lub więcej) zmiennych nieistotnych, test F może nadal odrzucać hipotezę (3.183). Dlatego też każda ze zmiennych x.,- powinna zostać „oddzielnie” przetestowana i jeśli okaże się nieistotna - usunięta z modelu w celu jego poprawy. Ponadto może być przydatne określenie, które ze zmiennych niezależnych mają największy wpływ na zmienną Y. Procedura taka nosi nazwę analizy czynnikowej.
Oprócz modeli liniowych w analizie regresji rozpatruje się też ogólniejsze funkcje opisujące zależność pomiędzy zmiennymi objaśniającymi a zmienną objaśnianą. Niektóre z nich można zapisać w postaci
K = /(x) + £, (3.186)
gdzie /(.) jest pewną funkcją jednej lub wielu zmiennych niezależnych.
Modele (3.1S6) daje się czasami, za pomocą pewnych podstawień, sprowadzić do modelu liniowego. Niech /(.) będzie funkcją kwadratową. Wtedy z (3.186) mamy
Y =bzx2+bix + b0+e . (3.187)
Jeśli dokonamy podstawienia x.2 = x2 i x.i = x, to otrzymujemy
Y = &2X.2 + biz.i -f- bo + € , (3.188)
czyli klasyczny liniowy model regresji wielorakiej. Podobną procedurę upraszczania modelu można przeprowadzić dla innych funkcji /(.) będących wielomiar nami.
Inne funkcje (np. wykładniczą) też można spróbować „przełożyć” na język modelu liniowego. Niech
Y = eblX+bo+e. (3.189)
Jeśli zlogarytmujemy obie strony (3.189) otrzymujemy
(3.190)
In Y = &ix + bo + s .