Podstawy metodologii badań psychologicznych II: wnioskowanie statystyczne.
[ na podstawie: wykłady dra Polczyka]
Różnice między testami parametrycznymi a nieparametrycznymi.
Moc testu statystycznego.
Moc testu to prawdopodobieństwo wykrycia rzeczywiście istniejącego efektu (jeden minus prawdopodobieństwo popełnienia błędu II rodzaju).
|
Prawda w populacji |
|
Decyzja |
efekt nie istnieje |
efekt istnieje |
uznać, że efekt istnieje |
błąd I rodzaju prawdopodobieństwo= alfa |
decyzja prawidłowa prawdopodobieństwo= 1-B (moc testu) |
nie uznać, że efekt istnieje |
decyzja prawidłowa prawdopodobieństwo= 1- alfa |
błąd II rodzaju prawdopodobieństwo= B |
Przeznaczenie i rodzaje analizy wariancji.
Analizę wariancji opracował R. Fischer, w 1923 roku- otrzymał za to tytuł szlachecki.
Przeznaczenie analizy wariancji:
Testowanie istotności różnic pomiędzy więcej niż dwoma średnimi- średnie te mogą pochodzić z danych międzygrupowych lub powtarzanych pomiarów ( w przypadku tylko dwóch średnich do testowania ANOVA daje wynik taki sam jak test T Studenta)
Analizę wariancji stosuje się zamiast serii testów T aby nie pozbawić się kontroli na błędem I rodzaju oraz móc prawidłowo zinterpretować poziom prawdopodobieństwa (niemożliwe przy wykonaniu serii testów)
Rodzaje analiz wariancji:
Analiza międzygrupowa
Pomiary powtarzane (pretest, manipulacja, posttest)
|
jeden czynnik (zm. niezależna) |
więcej niż 1 czynnik |
jedna zmienna zależna |
ANOVA ONEWAY (jednoczynnikowa, jednozmiennowa analiza wariancji) |
ANOVA (wieloczynnikowa, jednozmiennowa analiza wariancji) |
więcej niż 1 zmienna zależna |
MANOVA (jednoczynnikowa wielokrotna/wieloraka analiza wariancji) |
MANOVA (wieloczynnikowa, wielokrotna analiza wariancji) |
ANOVA ONEWAY (jednoczynnikowa, jednozmiennowa analiza wariancji)
Hipoteza zerowa w analizie wariancji- wszystkie porównywane średnie są sobie równe. Hipoteza zerowa jest odrzucana jeśli dowolna średnia różnic się od dowolnej innej średniej. Założenia ANOVA:
Rozkłady zmiennych są rozkładami normalnymi
Wariancje są homogeniczne
Podstawowa idea ANOVA: porównywanie zmienności poszczególnych wyników wewnątrz grup ze zmiennością średnich z grup. Inaczej: porównywanie średnich kwadratów odchyleń wewnątrzgrupowych ze średnim kwadratem odchyleń międzygrupowych. (ponieważ duże różnice między średnimi są mało prawdopodobne do otrzymania tylko z powodu błędów losowania próby- jeśli te różnice występują, to prawdopodobnie wykryliśmy jakiś efekt).
F= kwadrat wariancji międzygrupowej/kwadrat wariancji wewnątrzgrupowej (resztowej)
Jeśli ANOVA przyniosła istotne wyniki, to wiemy tylko tyle, że w badanych grupach występują jakieś istotne różnice. Nie wiemy jednak która grupa się od której różni i w jaki sposób: trzeba więc przejść do drugiego etapu analizy (analiza wykresów, odpowiednie testy post- hoc).
ANOVA(wieloczynnikowa, jednozmiennowa analiza wariancji)
Analiza wieloczynnikowa w porównaniu z jednoczynnikową często ma większą moc. Na grupy przydzielone do grupy eksperymentalnej i kontrolnej można nałożyć kolejną zmienną- może to spowodować wykrycie istniejącego efektu, który wcześniej nie został wykryty. Analiza wieloczynnikowa pozwala na kontrolę innych czynników, które wpływają na wyniki. Główne pojęcia dla analizy wieloczynnikowej:
Efekty główne- wpływ jednego z czynników na zmienną zależną; można obliczyć go dla każdego czynnika z osobna (pozostałe czynniki są wtedy uśredniane)
Efekty proste- wpływ jednego czynnika na zmienną zależną na jednym, wybranym poziomie drugiego czynnika (poziom czynnika- w analizie międzygrupowej- 1 grupa, w wieloczynnikowej- wynik w jednym pomiarze; np. czynnik- płeć, poziomy czynnika- kobieta, mężczyzna)
Interakcje- wpływ jednego z czynników na zmienną zależną jest różny w zależności od poziomów innego czynnika (zmienna modelująca, zapośredniczająca); inaczej: jeden czynnik działa na jedną zmienną niejednakowo (np. z różną siłą) w zależności od grupy ludzi. Interakcję pozwala zrozumieć informacja o efektach prostych- interakcja mówi tylko tyle, że jeden czynnik wpływa na zmienną zależną inaczej na różnych poziomach, nie przesądza natomiast jak wpływa.
MANOVA (wielozmiennowa/ wieloraka analiza wariancji):
Dla więcej niż jednej zmiennej zależnej: niezależna zmienna może być jedna lub więcej. MANOVA w istocie przyjmuje, że kilka zmiennych zależnych to w istocie różne wskaźniki jednej zmiennej latentnej (np. lęk, inteligencja). Dwa etapy w typowej analizie wielorakiej:
Test wielowariancyjny (np. test Rao)- pytanie czy dany czynnik (lub interakcja) wpływa na zmienną zależną latentną, wskazywaną (mierzoną) przez serię testów technicznych (test, wskaźnik, kwestionariusz, itp.)
Seria testów jednowariancyjnych- pytanie, które spośród wszystkich wskaźników zmiennej latentnej wpływa na dany czynnik.
Przeznaczenie i rodzaje analizy regresji.
Analiza regresji:
Służy do wykrywania predyktorów , które o zmiennej zależnej mówią coś, czego nie powiedziały inne predyktory
Regresja jednokrotna: