Statystyka (14)


PODSTAWY METODOLOGII BADAŃ PSYCHOLOGICZNYCH II. WNIOSKOWANIE STATYSTYCZNE.

  1. Różnice między testami parametrycznymi i nieparametrycznymi

Jednym z podziałów testów statystycznych jest podział na testy parametryczne oraz nieparametryczne. 

Testy parametryczne cechuje:

Testy nieparametryczne cechuje:

Testy nieparametryczne mogą być stosowane jako alternatywy parametrycznych gdy założenia danego testu parametrycznego są niespełnione lub/i skale pomiarowe zmiennych nie spełniają wymogu testu parametrycznego. Alternatywy nieparametryczne oparte są nie na obliczaniu średnich i wariancji a na medianach i rangowaniu wyników. Nie wymagają założeń co do rozkładu, dopuszczają pomiar na skali porządkowej.

Korelacja dwóch zmiennych - test parametryczny - r-Pearsona (wymaga rozkładów z grubsza normalnych i skal ciągłych)

- alternatywa nieparametryczna - tau Kendalla, rho Spearmanna (obie przyjmują wartości z przedziału od -1 do 1; rho jest zwykle nieco wyższe niż tau)

Porównanie dwóch grup - test parametryczny - test t studenta ( rozkłady z grubsza normalne, wariancje w obu grupach porównywalne i skale ciągłe)

- alternatywa nieparametryczna - test U Manna-Whitneya (oparty na rangowaniu danych)

Porównanie 3 i więcej grup - test parametryczny - analiza wariancji - ANOVA (rozkłady z grubsza normalne, wariancje w obu grupach porównywalne i skale ciągłe)

- alternatywa nieparametryczna - test H Kruskala-Wallisa (mała moc jeśli grup więcej niż trzy)

Porównanie 2 powtórzonych pomiarów - test parametryczny - test t dla powtórzonych pomiarów (rozkład z grubsza normalny, skale ciągłe)

- alternatywa nieparametryczna - test znaków rangowy Wilcoxona

  1. Moc testu statystycznego

Moc testu - prawdopodobieństwo uznania za istotny statystycznie efektu istniejącego w populacji. Prawdopodobieństwo wykrycia efektu istniejącego w populacji.

Błędy statystyczne:

Błąd I rodzaju - odrzucenie testowanej hipotezy zerowej prawdziwej - przyjęcie wniosku o istnieniu efektu, którego nie ma

Błąd II rodzaju - nieodrzucenie testowanej hipotezy zerowej fałszywej - niezauważenie istniejącego efektu

Moc testu to prawdopodobieństwo niepopełnienia błędu drugiego rodzaju. Im większe jest to prawdopodobieństwo, tym lepszy jest dany test jako narzędzie do różnicowania między hipotezą prawdziwą i fałszywą.

Moc testu mierzy się prawdopodobieństwem odrzucenia fałszywej hipotezy zerowej, wynoszącym 1-β.

Test statystyczny może być słaby lub mocny:

Moc testu możemy określać zamiennie jako prawdopodobieństwo odrzucenia hipotezy zerowej, gdy w rzeczywistości jest ona fałszywa.

Test mocny:

  1. prezentuje mały błąd II rodzaju (β)

  2. łatwiej odrzuca hipotezę zerową H0

  3. rzadko myli się odrzucając H0 (raczej nie odrzuca H0 prawdziwej)

  4. jeśli odrzuca H0 to jest wysoka szansa (równa mocy testu), że H0 była fałszywa

  1. Przeznaczenie i rodzaje analizy wariancji

  1. Przeznaczenie i rodzaje analizy wariancji.

Analizę wariancji opracował R. Fischer, w 1923 roku- otrzymał za to tytuł szlachecki.

Przeznaczenie analizy wariancji:

Rodzaje analiz wariancji:

jeden czynnik (zm. niezależna)

więcej niż 1 czynnik

jedna zmienna zależna

ANOVA ONEWAY (jednoczynnikowa, jednozmiennowa analiza wariancji)

ANOVA

(wieloczynnikowa, jednozmiennowa analiza wariancji)

więcej niż 1 zmienna zależna

MANOVA

(jednoczynnikowa wielokrotna/wieloraka analiza wariancji)

MANOVA

(wieloczynnikowa, wielokrotna analiza wariancji)

ANOVA ONEWAY (jednoczynnikowa, jednozmiennowa analiza wariancji)

Hipoteza zerowa w analizie wariancji- wszystkie porównywane średnie są sobie równe. Hipoteza zerowa jest odrzucana jeśli dowolna średnia różnic się od dowolnej innej średniej. Założenia ANOVA:

Podstawowa idea ANOVA: porównywanie zmienności poszczególnych wyników wewnątrz grup ze zmiennością średnich z grup. Inaczej: porównywanie średnich kwadratów odchyleń wewnątrzgrupowych ze średnim kwadratem odchyleń międzygrupowych. (ponieważ duże różnice między średnimi są mało prawdopodobne do otrzymania tylko z powodu błędów losowania próby- jeśli te różnice występują, to prawdopodobnie wykryliśmy jakiś efekt).

F= kwadrat wariancji międzygrupowej/kwadrat wariancji wewnątrzgrupowej (resztowej)

Jeśli ANOVA przyniosła istotne wyniki, to wiemy tylko tyle, że w badanych grupach występują jakieś istotne różnice. Nie wiemy jednak która grupa się od której różni i w jaki sposób: trzeba więc przejść do drugiego etapu analizy (analiza wykresów, odpowiednie testy post- hoc).

ANOVA(wieloczynnikowa, jednozmiennowa analiza wariancji)

Analiza wieloczynnikowa w porównaniu z jednoczynnikową często ma większą moc. Na grupy przydzielone do grupy eksperymentalnej i kontrolnej można nałożyć kolejną zmienną- może to spowodować wykrycie istniejącego efektu, który wcześniej nie został wykryty. Analiza wieloczynnikowa pozwala na kontrolę innych czynników, które wpływają na wyniki. Główne pojęcia dla analizy wieloczynnikowej:

MANOVA (wielozmiennowa/ wieloraka analiza wariancji):

Dla więcej niż jednej zmiennej zależnej: niezależna zmienna może być jedna lub więcej. MANOVA w istocie przyjmuje, że kilka zmiennych zależnych to w istocie różne wskaźniki jednej zmiennej latentnej (np. lęk, inteligencja). Dwa etapy w typowej analizie wielorakiej:

  1. Przeznaczenie i rodzaje analizy regresji

Analiza regresji służy do wykrywania predyktorów, które o zmiennej zależnej mówią coś, czego nie powiedziały już inne predyktory.

ANALIZA REGRESJI JEDNOKROTNEJ

Cel- ujęcie relacji między predyktorem (predyktorami) a zmienną zależną w postaci formuły matematycznej (tj. równanie regresji)

y = b1x1 + bo, gdzie b1x1= nachylenie linii regresji (slope); bo= punkt, w którym linia regresji przecina oś y

optymalna linia regresji- metoda najmniejszych kwadratów, czyli dla każdej obserwacji różnic wyniku rzeczywistego a wyniku predykowanego przez linię regresji- podnieść do kwadratu i zsumować

ANALIZA REGRESJI WIELOKROTNEJ

Współczynnik korelacji liniowej według momentu iloczynowego r Pearsona

- związek między 2 zmiennymi ciągłymi (co najmniej na skali przedziałowej)

- siła związku liniowego

Interpretacja r Pearsona:

Zwyczajna interpretacja:

0,00 - 0, 20 (0%- 4%)- związek bardzo słaby

0, 20- 0, 30 (4%- 9%)- związek słaby

0, 30- 0, 50 (9- 25 %)- związek umiarkowany

0, 50- 0, 80 (25-64%)- związek silny

Powyżej 0,80 - związek bardzo silny!

Dodatkowo REGRESJA WIELOKROTNA:

- więcej niż jeden predyktor (x)

y = b1x1+b2x2+b3x3…bo

cel: identyfikacja predyktorów skutecznych (nieredundantnych, wnoszących informację, której nie wnoszą inne predyktory)

Informacje uzyskane w wyniku regresji wielokrotnej:

    1. równanie regresji

Kontrola zmiennych- kluczowe pojęcie w analizie regresji

- predyktor x1- sprawdzenie, czy ma związek ze zmienna zależną, przy kontroli predyktorów x2, x3 itd, x2 przy x1, x3 itd…

Kontrola statystyczna- pozbawiać zdolności działania danej zmiennej, badamy, czy x1 jest nieredundantny oraz czy inne x wpływają

!aby sprawdzić, czy predyktor x1 jest nieredundantnym predyktorem zmiennej y trzeba sprawdzić, czy jest on powiązany ze zmienną zależną przy kontroli predyktorów x2-x5 tzn., jeśli wyeliminuje się wpływ predyktorów pd x2 do x5 na zmienną zależną oraz na predyktor x1

    1. jakość ogólnej predykcji

  1. dotycząca istotności statystycznej predykcji (np. hipoteza zerowa mówi, że wszystkie predyktory łącznie wyjaśniają w populacji zero procent wariancji zm zależnej)

  2. dotycząca skuteczności predykcji

R- współczynnik korelacji wielokrotnej

R(do kwadratu)- wspołczynnik determinacji wielokrotnej

R(do kwadratu) x 100%- procent wariancji wyjaśnionej

    1. informacja na temat poszczególnych predyktorów

  1. istotność statystyczna dla każdego predyktora- zerowa- dany predyktor, przy kontroli pozostałych, nie powoduje przyrostu wariancji wyjaśnianej zmiennej zależnej - predyktor jest redundantnym predyktorem zmiennej zależnej

  2. współczynnik regresji dla każdego predyktora:

b- nieustandaryzowany współczynnik regersji- zmiana zmiennej zależnej (w jej jednostkach), przy zmianie predyktora o jeden ( w jego jednostkach), przy kontroli pozostałych

beta- standaryzowany współczynnik regresji- zmiana zm zależnej (w jednostkach SD) przy zmianie predyktora o jedno SD, przy kontroli pozostałych

Spośród następujących metod regresji krokowej (każdy predyktor jest badany przy kontroli wszystkich pozostałych predyktorów, ale wada: niemożność badania znaczenia zestawów predyktorów przy kontroli zestawów innych predyktorów):

- krokowa postępująca

a) do modelu włączany jest predyktor najsilniej skorelowany ze zmienną zależną;

b) do modelu włączany jest predyktor (spośród wszystkich pozostałych), którego korelacja cząstkowa (przy kontroli predyktora włączonego do równania w pierwszym kroku) ze zmienną zależną jest największa i istotna statystycznie

c) krok drugi jest powtarzany tak długo, aż w wyjściowym zbiorze predyktorów nie będzie już takiego, którego korelacja cząstkowa przy kontroli predyktorów, będących już w modelu jest istotna statystycznie.

- krokowa wsteczna

a) do modelu włączane są wszystkie naraz predyktory. Jeżeli ilość wyjaśnianej przez nie wariancji zmiennej zależnej jest istotna statystycznie, analiza jest kontynuowana, jeżeli nie, jest kończona z informacją, że żadna zmienna zależna nie jest nieredundantnym predyktorem zmiennej zależnej.

b) z modelu usuwany jest predyktor o najmniejszej korelacji cząstkowej ze zmienną zależną przy kontroli pozostałych w równaniu predyktorów. Jeśli spadek wariancji wyjaśnianej jest istotny, analiza jest kończona, a dany predyktor powraca do równania, jeśli nie, jest on usuwany

c) krok jest powtarzany tak długo, aż do uzyskania predykatora, którego usunięcie powoduje istotny spadek wariancji wyjaśnianej

- krokowa pełna- połączenie postępującej i wstecznej, w każdym kolejnym kroku predyktory próbuje się włączyć oraz usuwać z modelu;

a) do modelu włączany jest predyktor najsilniej skorelowany ze zmienną zależną

b) do modelu włączany jest predyktor (spośród wszystkich pozostałych), którego korelacja cząstkowe ze zmienną zależną jest największa i istotna

c) obliczana jest korelacja predyktora włączanego do kroku pierwszego przy kontroli predyktora włączanego w kroku drugim;

najbardziej polecana jest krokowa pełna!

Co więcej, do analizy regresji:

- każda metoda analizy regresji opiera się na analizowaniu korelacji cząstkowych, czyli korelacji liczonych przy kontroli innych predyktorów

- w analizie regresji możliwe jest badanie interakcji

ZAŁOŻENIA ANALIZY REGRESJI LINIOWEJ

- liniowość związku predyktorów ze zmiennymi zależnymi

- brak korelacji błędów pomiaru z wartościami predyktora

- predyktory i zmienne zależne mierzone są bez błędu

- normalność i homoscedatyczność (wyniki układają się wzdłuż linii regresji) rozkładów reszt

- brak wysokich interkorelacji między predyktorami (brak współliniowości)

OGRANICZENIA ANALIZY REGRESJI:

-w planach badawczych opartych na obserwacjach, a nie manipulacjach, wykrywa związki a nie zależności przyczynowo- skutkowe

- jeżeli wyjściowa liczba predyktorów jest duża, wzrasta liczba predyktorów istotnych z powodu błędu Igo rodzaju



Wyszukiwarka

Podobne podstrony:
Statystyka opisowa (14 stron)
1-14, ochrona środowiska UJ, I semestr SUM, statystyka
14 Wnioskowanie statystyczne w Nieznany (2)
2007 05 14 prawdopodobie stwo i statystykaid 25652
cw 14 - statystyka przyklad, biotechnologia inż, sem3, BiB, ćwiczenia, zestawy
2007.05.14 prawdopodobie stwo i statystyka
pdst. statystyka, Statystyka WYKŁAD 3, Statystyka WYKŁAD 3 (14
Dz U 2009 14 80 Statystyczna Karta Wypadku wraz z opisem i kodami
statystyka opisowa, STATYSTYSTYKA OPISOWA pierwszy wykład 14. 02. 2009, STATYSTYSTYKA OPISOWA pierws
2000.10.14 prawdopodobie stwo i statystyka
2000 10 14 prawdopodobie stwo i statystykaid 21578
Wzory 14, Statystyka, Kasperowicz-Ruka
Zaliczenie statystyka Fir Rond styczeń 14 ROZMUS, UE rond Fir, Fir Rond UE, 2 rok, Statystyka - ROZM

więcej podobnych podstron