PODSTAWY METODOLOGII BADAŃ PSYCHOLOGICZNYCH II. WNIOSKOWANIE STATYSTYCZNE.
Różnice między testami parametrycznymi i nieparametrycznymi
Jednym z podziałów testów statystycznych jest podział na testy parametryczne oraz nieparametryczne.
Testy parametryczne cechuje:
większa ilość założeń do spełnienia
większa moc testów
dokładniejszy pomiar
lepsza interpretowalność uzyskiwanych wyników
Testy nieparametryczne cechuje:
mniejsza ilość założeń do spełnienia
mniejsza moc testów
mniej dokładny pomiar
gorsza interpretowalność uzyskiwanych wyników
Z reguły jest tak, że mniej wymogów muszą spełniać zebrane dane, aby przeprowadzić testy nieparametryczne, ale za to dają one mniejszą liczbę informacji, mniej są one "warte" w porównaniu do testów parametrycznych. Testy parametryczne - najbardziej ulubione testy statystyków, wymagają spełnienia założeń (choć pod pewnymi warunkami można niektóre z nich pominąć) ale za to wyniki są bardziej dokładne i na ich podstawie można dokonać lepszych interpretacji.
Jednymi z najbardziej charakterystycznych cech testów parametrycznych jest rozkład normalny mierzonych zmiennych oraz to, że zmienne muszą być mierzone na skali ilościowej.
Testami parametrycznymi są np.:
testy t-Studenta
analiza wariancji
korelacja r-Pearsona
analiza regresji
Testami nieparametrycznymi są np.:
test U Manna-Whitneya
test niezależności chi-kwadrat
korelacja tau-b Kendalla
Testy nieparametryczne mogą być stosowane jako alternatywy parametrycznych gdy założenia danego testu parametrycznego są niespełnione lub/i skale pomiarowe zmiennych nie spełniają wymogu testu parametrycznego. Alternatywy nieparametryczne oparte są nie na obliczaniu średnich i wariancji a na medianach i rangowaniu wyników. Nie wymagają założeń co do rozkładu, dopuszczają pomiar na skali porządkowej.
Korelacja dwóch zmiennych - test parametryczny - r-Pearsona (wymaga rozkładów z grubsza normalnych i skal ciągłych)
- alternatywa nieparametryczna - tau Kendalla, rho Spearmanna (obie przyjmują wartości z przedziału od -1 do 1; rho jest zwykle nieco wyższe niż tau)
Porównanie dwóch grup - test parametryczny - test t studenta ( rozkłady z grubsza normalne, wariancje w obu grupach porównywalne i skale ciągłe)
- alternatywa nieparametryczna - test U Manna-Whitneya (oparty na rangowaniu danych)
Porównanie 3 i więcej grup - test parametryczny - analiza wariancji - ANOVA (rozkłady z grubsza normalne, wariancje w obu grupach porównywalne i skale ciągłe)
- alternatywa nieparametryczna - test H Kruskala-Wallisa (mała moc jeśli grup więcej niż trzy)
Porównanie 2 powtórzonych pomiarów - test parametryczny - test t dla powtórzonych pomiarów (rozkład z grubsza normalny, skale ciągłe)
- alternatywa nieparametryczna - test znaków rangowy Wilcoxona
Moc testu statystycznego
Moc testu - prawdopodobieństwo uznania za istotny statystycznie efektu istniejącego w populacji. Prawdopodobieństwo wykrycia efektu istniejącego w populacji.
Błędy statystyczne:
Błąd I rodzaju - odrzucenie testowanej hipotezy zerowej prawdziwej - przyjęcie wniosku o istnieniu efektu, którego nie ma
Błąd II rodzaju - nieodrzucenie testowanej hipotezy zerowej fałszywej - niezauważenie istniejącego efektu
Moc testu to prawdopodobieństwo niepopełnienia błędu drugiego rodzaju. Im większe jest to prawdopodobieństwo, tym lepszy jest dany test jako narzędzie do różnicowania między hipotezą prawdziwą i fałszywą.
Moc testu mierzy się prawdopodobieństwem odrzucenia fałszywej hipotezy zerowej, wynoszącym 1-β.
Test statystyczny może być słaby lub mocny:
test mocny - w większości przypadków jesteśmy w stanie odrzucić fałszywą hipotezę zerową
test słaby - gdy istnieje duża szansa na to, że nie odrzucimy hipotezy zerowej, pomimo jej nieprawdziwości.
Moc testu możemy określać zamiennie jako prawdopodobieństwo odrzucenia hipotezy zerowej, gdy w rzeczywistości jest ona fałszywa.
Test mocny:
prezentuje mały błąd II rodzaju (β)
łatwiej odrzuca hipotezę zerową H0
rzadko myli się odrzucając H0 (raczej nie odrzuca H0 prawdziwej)
jeśli odrzuca H0 to jest wysoka szansa (równa mocy testu), że H0 była fałszywa
Przeznaczenie i rodzaje analizy wariancji
Przeznaczenie i rodzaje analizy wariancji.
Analizę wariancji opracował R. Fischer, w 1923 roku- otrzymał za to tytuł szlachecki.
Przeznaczenie analizy wariancji:
Testowanie istotności różnic pomiędzy więcej niż dwoma średnimi- średnie te mogą pochodzić z danych międzygrupowych lub powtarzanych pomiarów ( w przypadku tylko dwóch średnich do testowania ANOVA daje wynik taki sam jak test t Studenta)
Analizę wariancji stosuje się zamiast serii testów t aby nie pozbawić się kontroli na błędem I rodzaju oraz móc prawidłowo zinterpretować poziom prawdopodobieństwa (niemożliwe przy wykonaniu serii testów)
Rodzaje analiz wariancji:
Analiza międzygrupowa
Pomiary powtarzane (pretest, manipulacja, posttest)
|
jeden czynnik (zm. niezależna) |
więcej niż 1 czynnik |
jedna zmienna zależna |
ANOVA ONEWAY (jednoczynnikowa, jednozmiennowa analiza wariancji) |
ANOVA (wieloczynnikowa, jednozmiennowa analiza wariancji) |
więcej niż 1 zmienna zależna |
MANOVA (jednoczynnikowa wielokrotna/wieloraka analiza wariancji) |
MANOVA (wieloczynnikowa, wielokrotna analiza wariancji) |
ANOVA ONEWAY (jednoczynnikowa, jednozmiennowa analiza wariancji)
Hipoteza zerowa w analizie wariancji- wszystkie porównywane średnie są sobie równe. Hipoteza zerowa jest odrzucana jeśli dowolna średnia różnic się od dowolnej innej średniej. Założenia ANOVA:
Rozkłady zmiennych są rozkładami normalnymi
Wariancje są homogeniczne
Podstawowa idea ANOVA: porównywanie zmienności poszczególnych wyników wewnątrz grup ze zmiennością średnich z grup. Inaczej: porównywanie średnich kwadratów odchyleń wewnątrzgrupowych ze średnim kwadratem odchyleń międzygrupowych. (ponieważ duże różnice między średnimi są mało prawdopodobne do otrzymania tylko z powodu błędów losowania próby- jeśli te różnice występują, to prawdopodobnie wykryliśmy jakiś efekt).
F= kwadrat wariancji międzygrupowej/kwadrat wariancji wewnątrzgrupowej (resztowej)
Jeśli ANOVA przyniosła istotne wyniki, to wiemy tylko tyle, że w badanych grupach występują jakieś istotne różnice. Nie wiemy jednak która grupa się od której różni i w jaki sposób: trzeba więc przejść do drugiego etapu analizy (analiza wykresów, odpowiednie testy post- hoc).
ANOVA(wieloczynnikowa, jednozmiennowa analiza wariancji)
Analiza wieloczynnikowa w porównaniu z jednoczynnikową często ma większą moc. Na grupy przydzielone do grupy eksperymentalnej i kontrolnej można nałożyć kolejną zmienną- może to spowodować wykrycie istniejącego efektu, który wcześniej nie został wykryty. Analiza wieloczynnikowa pozwala na kontrolę innych czynników, które wpływają na wyniki. Główne pojęcia dla analizy wieloczynnikowej:
Efekty główne- wpływ jednego z czynników na zmienną zależną; można obliczyć go dla każdego czynnika z osobna (pozostałe czynniki są wtedy uśredniane)
Efekty proste- wpływ jednego czynnika na zmienną zależną na jednym, wybranym poziomie drugiego czynnika (poziom czynnika- w analizie międzygrupowej- 1 grupa, w wieloczynnikowej- wynik w jednym pomiarze; np. czynnik- płeć, poziomy czynnika- kobieta, mężczyzna)
Interakcje- wpływ jednego z czynników na zmienną zależną jest różny w zależności od poziomów innego czynnika (zmienna modelująca, zapośredniczająca); inaczej: jeden czynnik działa na jedną zmienną niejednakowo (np. z różną siłą) w zależności od grupy ludzi. Interakcję pozwala zrozumieć informacja o efektach prostych- interakcja mówi tylko tyle, że jeden czynnik wpływa na zmienną zależną inaczej na różnych poziomach, nie przesądza natomiast jak wpływa.
MANOVA (wielozmiennowa/ wieloraka analiza wariancji):
Dla więcej niż jednej zmiennej zależnej: niezależna zmienna może być jedna lub więcej. MANOVA w istocie przyjmuje, że kilka zmiennych zależnych to w istocie różne wskaźniki jednej zmiennej latentnej (np. lęk, inteligencja). Dwa etapy w typowej analizie wielorakiej:
Test wielowariancyjny (np. test Rao)- pytanie czy dany czynnik (lub interakcja) wpływa na zmienną zależną latentną, wskazywaną (mierzoną) przez serię testów technicznych (test, wskaźnik, kwestionariusz, itp.)
Seria testów jednowariancyjnych- pytanie, które spośród wszystkich wskaźników zmiennej latentnej wpływa na dany czynnik.
Przeznaczenie i rodzaje analizy regresji
Analiza regresji służy do wykrywania predyktorów, które o zmiennej zależnej mówią coś, czego nie powiedziały już inne predyktory.
ANALIZA REGRESJI JEDNOKROTNEJ
Cel- ujęcie relacji między predyktorem (predyktorami) a zmienną zależną w postaci formuły matematycznej (tj. równanie regresji)
y = b1x1 + bo, gdzie b1x1= nachylenie linii regresji (slope); bo= punkt, w którym linia regresji przecina oś y
optymalna linia regresji- metoda najmniejszych kwadratów, czyli dla każdej obserwacji różnic wyniku rzeczywistego a wyniku predykowanego przez linię regresji- podnieść do kwadratu i zsumować
ANALIZA REGRESJI WIELOKROTNEJ
Współczynnik korelacji liniowej według momentu iloczynowego r Pearsona
- związek między 2 zmiennymi ciągłymi (co najmniej na skali przedziałowej)
- siła związku liniowego
Interpretacja r Pearsona:
- 1 <= v <= 1 (korelacja ujemna, dodatnia)
r 2 (kwadrat w sensie) x 100%- procent wariancji wyjaśnionej, czyli np. r= 0,4 wyjaśnia 16 % wariancji
Zwyczajna interpretacja:
0,00 - 0, 20 (0%- 4%)- związek bardzo słaby
0, 20- 0, 30 (4%- 9%)- związek słaby
0, 30- 0, 50 (9- 25 %)- związek umiarkowany
0, 50- 0, 80 (25-64%)- związek silny
Powyżej 0,80 - związek bardzo silny!
Dodatkowo REGRESJA WIELOKROTNA:
- więcej niż jeden predyktor (x)
y = b1x1+b2x2+b3x3…bo
cel: identyfikacja predyktorów skutecznych (nieredundantnych, wnoszących informację, której nie wnoszą inne predyktory)
Informacje uzyskane w wyniku regresji wielokrotnej:
równanie regresji
Kontrola zmiennych- kluczowe pojęcie w analizie regresji
- predyktor x1- sprawdzenie, czy ma związek ze zmienna zależną, przy kontroli predyktorów x2, x3 itd, x2 przy x1, x3 itd…
Kontrola statystyczna- pozbawiać zdolności działania danej zmiennej, badamy, czy x1 jest nieredundantny oraz czy inne x wpływają
!aby sprawdzić, czy predyktor x1 jest nieredundantnym predyktorem zmiennej y trzeba sprawdzić, czy jest on powiązany ze zmienną zależną przy kontroli predyktorów x2-x5 tzn., jeśli wyeliminuje się wpływ predyktorów pd x2 do x5 na zmienną zależną oraz na predyktor x1
jakość ogólnej predykcji
dotycząca istotności statystycznej predykcji (np. hipoteza zerowa mówi, że wszystkie predyktory łącznie wyjaśniają w populacji zero procent wariancji zm zależnej)
dotycząca skuteczności predykcji
R- współczynnik korelacji wielokrotnej
R(do kwadratu)- wspołczynnik determinacji wielokrotnej
R(do kwadratu) x 100%- procent wariancji wyjaśnionej
informacja na temat poszczególnych predyktorów
istotność statystyczna dla każdego predyktora- zerowa- dany predyktor, przy kontroli pozostałych, nie powoduje przyrostu wariancji wyjaśnianej zmiennej zależnej - predyktor jest redundantnym predyktorem zmiennej zależnej
współczynnik regresji dla każdego predyktora:
b- nieustandaryzowany współczynnik regersji- zmiana zmiennej zależnej (w jej jednostkach), przy zmianie predyktora o jeden ( w jego jednostkach), przy kontroli pozostałych
beta- standaryzowany współczynnik regresji- zmiana zm zależnej (w jednostkach SD) przy zmianie predyktora o jedno SD, przy kontroli pozostałych
Spośród następujących metod regresji krokowej (każdy predyktor jest badany przy kontroli wszystkich pozostałych predyktorów, ale wada: niemożność badania znaczenia zestawów predyktorów przy kontroli zestawów innych predyktorów):
- krokowa postępująca
a) do modelu włączany jest predyktor najsilniej skorelowany ze zmienną zależną;
b) do modelu włączany jest predyktor (spośród wszystkich pozostałych), którego korelacja cząstkowa (przy kontroli predyktora włączonego do równania w pierwszym kroku) ze zmienną zależną jest największa i istotna statystycznie
c) krok drugi jest powtarzany tak długo, aż w wyjściowym zbiorze predyktorów nie będzie już takiego, którego korelacja cząstkowa przy kontroli predyktorów, będących już w modelu jest istotna statystycznie.
- krokowa wsteczna
a) do modelu włączane są wszystkie naraz predyktory. Jeżeli ilość wyjaśnianej przez nie wariancji zmiennej zależnej jest istotna statystycznie, analiza jest kontynuowana, jeżeli nie, jest kończona z informacją, że żadna zmienna zależna nie jest nieredundantnym predyktorem zmiennej zależnej.
b) z modelu usuwany jest predyktor o najmniejszej korelacji cząstkowej ze zmienną zależną przy kontroli pozostałych w równaniu predyktorów. Jeśli spadek wariancji wyjaśnianej jest istotny, analiza jest kończona, a dany predyktor powraca do równania, jeśli nie, jest on usuwany
c) krok jest powtarzany tak długo, aż do uzyskania predykatora, którego usunięcie powoduje istotny spadek wariancji wyjaśnianej
- krokowa pełna- połączenie postępującej i wstecznej, w każdym kolejnym kroku predyktory próbuje się włączyć oraz usuwać z modelu;
a) do modelu włączany jest predyktor najsilniej skorelowany ze zmienną zależną
b) do modelu włączany jest predyktor (spośród wszystkich pozostałych), którego korelacja cząstkowe ze zmienną zależną jest największa i istotna
c) obliczana jest korelacja predyktora włączanego do kroku pierwszego przy kontroli predyktora włączanego w kroku drugim;
najbardziej polecana jest krokowa pełna!
Co więcej, do analizy regresji:
- każda metoda analizy regresji opiera się na analizowaniu korelacji cząstkowych, czyli korelacji liczonych przy kontroli innych predyktorów
- w analizie regresji możliwe jest badanie interakcji
ZAŁOŻENIA ANALIZY REGRESJI LINIOWEJ
- liniowość związku predyktorów ze zmiennymi zależnymi
- brak korelacji błędów pomiaru z wartościami predyktora
- predyktory i zmienne zależne mierzone są bez błędu
- normalność i homoscedatyczność (wyniki układają się wzdłuż linii regresji) rozkładów reszt
- brak wysokich interkorelacji między predyktorami (brak współliniowości)
OGRANICZENIA ANALIZY REGRESJI:
-w planach badawczych opartych na obserwacjach, a nie manipulacjach, wykrywa związki a nie zależności przyczynowo- skutkowe
- jeżeli wyjściowa liczba predyktorów jest duża, wzrasta liczba predyktorów istotnych z powodu błędu Igo rodzaju