Im/iM rr«/ryi
W wHu badaniach hipoteza luf* prtan* m tona) różnic miedzy średnimi zm»o dq nie me i w pe*nej liczbie pup. ku raią/lo* między pewni bcztą /mlcflmth kit lak* Nadaniu ekspłoracyjm m które nu dać wikazówii od cngo nikły pe»m tffirer.tu lub w hulaniu praktycznym które nu umożliwić przewidywanie Wiiftosci pewnej zmiennej 7Vm celom sluz> analiza rcjcrcsti liniowej.
1‘amlęiamy. le limu regiresji (o tnk.i pimta, która jest najlepiej dopasowani do pnp pidków na wykresie korelacyjnym. Takiej prostej odpowiada /minę ze szkoły fówunfc )-AV*» Współczynnik bjtst morą (tnifensem) nachylenia prostej do mi .V, i wipófczyi nu j to punkt przecięcia prostej z osiaRównanie poi walu przewidywać wartości zifay ncj losowei (czyli zależnej))' na podstawie ustalonych wartości zmiennej X (nazywai* ;nuenii | niezależną Jub/wrdićaw/w). Można je traktować jak receptę, która mówi by / le/c v. wet x, pomnot przez i i dodaj a Oczywiście przewidywane wartości ł różnij ^ ol rzeczywistych. Wielkość tych odchyleń ma związek z wielkością współczynnika torela gi nwędz) obiema zmiennymi im korelacja silniejsza, tym przewidywanie dokładniejsze.
W praktyce badawczej nigdy bodaj me ograniczamy się do jednego predyfcton Załóżmy, te zmierzyliśmy wr próbce pierwszoklasistów następujące zmienne;
• strr.i Im nauki matki i ojca (wikaZmk wykształcała rodziców).
• wynik seni prób pogetcwtbch (wjfoznik rozwoju umysłowego).
• wynik testu SlckePDlmc Flavella (wskaźnik rozwoju społecznego),
• wynik serii dylematów moralnych (wskaźnik rozwoju moralnego)
Chcemy wiedzieć, jak silnie są związane te zmienne ze średnią cząstkowych stopaj szkolaych (wskalnikiem osiągnięć). Przyjmując, że związki le są liniowe, możemy się po służyć współczynnikiem korelacji Pearsona. Macierz tych współczynników wygląda tak
1 11 ■*" Im |
kaęm |
tkytofuiraue |
Rozwal |
Rwi^n |
- |
umjstoy |
H»tc<nł | | ||
! WyiimicenK |
0.40 | |||
RaMiamtoy |
04) |
022 | ||
lamigolBcaai |
Wt |
on |
0J4 | |
|Rw»o/moa’ny |
021 |
0.17 |
0.21 |
«. | |
Trudno stąd wyciągnąć jakieś w nioski, ponieważ na wielkość współczynnika między parą zmiennych wpływają inne zmienne. Gdy posłużymy się analizą regresji, ob raz stąje się jaśniejszy. Jak poprzednio, budujemy równanie liniowe, tyle ze z wieloma predyktorami: Y-b[Tj+ó/j4 Vj*- - ł\*V° Ana,,za regresji pozwala oszacować współczynniki u i A Dla naszych danych wyniki są następujące:
Zntenai |
S)®w |
b |
bcu |
T |
P |
WjluiakaM |
eo |
0,155 |
0)13 |
XI) |
0.003 |
Rozwój uayilwy |
MJ |
0277 |
0312 |
2.91 |
0.005 |
*Mto*PCłtCBV |
RS |
0105 |
om |
IJM |
OJfll |
toimto, |
RM |
0.030 |
0.041 |
0.42 |
0477 |
Suta |
_| |
2309 |
0.000 |
5.42 |
0.000 |
toto *-0.297 M7SHJ9 rOjOOOO |
Liczby w pieiwuej kolumnie to współczynniki b i o Gdybyśmy ckteb pr/f*vśp vi ać stopnic na podstawie naszych predyktorów, tu najlepsze przewidywane zapcwat tuby równanie r-O.I55iXH).27J /M^0.I05 jtKOJO-ZM/^JO?
Współczynniki b mówią niewiele, ponieważ zależą od jednostek pomuru (np. pierwszy predyktor mierzy się w lalach, drugi w liczbie poprwrac wykomageh iadank Łatwo jednak sprowadzić wszystkie predyklory do wspólnej skałr ->:urc/v je wyslamliiryzować, Pamiętamy, w w tym celu trzeba wynik każdej osoby odjąć od średniej w próbce i podzielić przez odchylenie standardowe Dzięki ton bida /nnenna ma odtąd średnią 0 i odchylenie standardowa I Jeśli nu takich zmiennych wykonamy analizę regresji, zamiast b otrzymamy wagi bru Zacieru jc draga kołu* na. Wielkość beta informuje, o ile jednostek zmieni się Kw następstwie przejściu od jednej wartości X do drugiej, przy ustalonych wartościach pozostałych zmiennych By to lepiej zrozumieć, wróćmy do równania regresji, Wyrażenie po prawej uronić definiuje nową zmienną Y. Gdybyśmy obliczyli jej wariata dla każdego dziecka, moglibyśmy też obliczyć współczynnik korelacji między Y a Y Nazywa uę go «p# crnmkiem kortlóejl wtcbkrmejl oznacza symbolem R Kwadrat Ig wanota to wy# cyn*k determinacji niebkmej IR ). Informuje on o proporcji (albo procencie, jeśli R pomnotyć przez 100%) zróżnicowana Y. które moim przypisać lączneca zrozm cowamu predyktorow. Ponieważ u nas /f -0.297. mozony stwierdzić, u cztery prw dyttory łącznie q w stanie .wyjaśnić* nie więcej niż WX zróżnścowana stopni O wkładzie pojedynczego predyttoea w przewidywań* informuje jego bat Jofe beta jest bliska zen. predyktor amon do przewidywana bardzo mato (jak wynik po miar u rozwoju moralnego) i możni go usunąć i równana. Rzeczywiście R bez zmiennej RM je&t mniejszy zaledwie o (U punktu procentowego.
Przejdźmy teru do zapdniema istotności. Trzecia kołumnt ubek podaje warto sc i testu statystycznego r. który sprawdza hipotezę zerową, że A-O lub <r0. Jak widać, przy ci-0,01 hipotezę można odrzucić tylko dla dwóch pierwszych predyktorów Osobno bada się istotność R\ czyli prawdopodobieństwo. U R’w HOosobowtj prób ce losowej osiągnie wielkość 0.297 lub większą, mimo ze w populacji równa się 0. Jak widać, jest ono bardzo małe. toteż R uznajemy za statystycznie istotne. Wyniki upo ważmąją nas do wniosku, że osiągnięcia szkolne pierwuoktosat) w podobnym siop mu zależą od wykształcenia rodziców i stopnia rozwoju umysłowego dziecka, me zależą natomiast od poziomu jego kompetencji społecznych i moratoycłi Rozwazama o analizie regresji zakończymy kilkoma uzupełniający®
Poziom zmiennych. Klasyczna wersja analizy regresji wymaga, by wszystkie zmienne by ły przedziałowe*'. Często jednak chcieliby śmy wiedzieć, co wnosi do rownanu zmienna niższego poziomu. Brzeziński (1997, rozdz. IS. J radzi, jak postępować w takich przypadkach. Inny sposob to użycie specjalnego wariantu regresji z optymalnym skalowaniem zmiennej Natomiast wprowadzenie do regresji zmiennej porządkowy o wartościach arbitralnie oznaczonych kolejnymi liczbami naturalnymi jest Wędcm podważającym wszystkie wyniki analizy.
Pi«aJio - H «l«>PL,«.ii mwm ffrnrryh milbd nornulny o hm um>r. aAtęknu *n6nfe