statystyka dobrochna

  1. Miary tendencji centralnej (podstawowe):
    - średnia arytmetyczna: suma wartości wszystkich jednostek zbiorowości statystycznej, podzielona przez liczebność tej zbiorowości (tj. liczbę tych jednostek). Wzór na średnią arytmetyczną ma postać:

    gdzie: M - średnia arytmetyczna, x1,x2,...,xn - poszczególne wartości pojedynczych jednostek zbiorowości statystycznej, n - ogólna liczebność badanej zbiorowości (tj. liczba wszystkich jednostek wchodzących w skład zbiorowości statystycznej)
    - modalna: wartość najczęściej występująca w zbiorowości (zbiorze danych).
    - mediana: wartość środkowa; wartość mediany wskazuje nam, że połowa naszych wyników ma wartość poniżej wartości mediany, a druga połowa ma wartość powyżej wartości mediany.

    2. Miary dyspersji

    - wariancja: informuje o tym, jak duże jest zróżnicowanie wyników w danym zbiorze wyników (zmiennej).
    - odchylenie standardowe: mówi, jak szeroko wartości jakiejś wielkości (tj. np. wiek) są rozrzucone wokół jej średniej. (czy rozrzut wyników wokół średniej jest niewielki czy wielki.) Im mniejsza wartość odchylenia tym obserwacje są bardziej skupione wokół średniej.
    - rozstęp: różnica między wartością maksymalną a minimalną z naszego zbioru obserwacji.

    3. Miary skośności
    - skośność: miara symetrii
    - kurioza: miara spłaszczenia rozkładu wartości cech.


    5. Skale pomiarowe wg Stevensa
    - nominalna – pozwala elementy klasyfikować ze względu na posiadany wariant badanej cechy. Skala musi być rozłączna i zupełna. Zupełna tzn. , że każdy badany element musi znaleźć odpowiednie miejsce w odpowiedniej kategorii. Rozłączny oznacza, że nie może istnieć element, który da się zaszeregować do więcej niż jednej kategorii.
    Zmienne mierzone na skali nominalnej można zdefiniować jako wyszczególnienie występujących przypadków. Zmienna mierzona na skali nominalnej nie wartościowuje poszczególnych przypadków, tzn. nie można określić, który z przypadków jest lepszy/większy/szybszy/itd. od innego. Dla zmiennej mierzonej na skali nominalnej możemy obliczyć dominantę, ale nie można obliczyć mediany i średniej.
    Przykłady:
    Płeć: kobieta, mężczyzna
    Pora roku: lato, jesień, itd...
    Kolor oczu: piwne, niebieskie, itd...

    - porządkowa : pozwala ustalić relacje między jednostkami pod względem natężenia badanej cechy
    Zmienne mierzone na skali nominalnej można zdefiniować jako uszeregowanie poszczególnych przypadków ze względu na jakąś właściwość (przypadki można uporządkować wg. danego kryterium). Możemy obliczyć dominantę, medianę; średniej nie możemy wyznaczyć, a przez to nie można wyznaczyć np. odchylenia standardowego czy wariancji
    Przykłady:
    Wykształcenie: podstawowe, zawodowe, średnie, wyższe
    wielkość miejsca zamieszkania: wieś, miasto, metropolia
    Wzrost: niski, średni, wysoki

    - interwałowa(przedziałowa): istnieje jednostka miary, wynik jest wyrażony liczbą i istniej zero względne; wynik testu traktujemy jako podział na skali przedziałowej.
    Zmienna jest na skali interwałowej, gdy różnice między dwiema jej wartościami dają się obliczyć i mają interpretację w świecie rzeczywistym, jednak nie ma sensu dzielenie dwóch wartości zmiennej przez siebie. Innymi słowy określona jest jednostka miary, jednak punkt zero jest wybrany umownie.
    Przykłady:
    daty, np. data urodzenia, temperatura w stopniach Celsjusza

    - ilorazowa(stosunkowa) jest to skala, na której wynik pomiaru wyrażony jest liczbą; istnieje jednostka miary i zero absolutne;
    Zmienna jest na skali ilorazowej, gdy stosunki między dwiema jej wartościami mają interpretację w świecie rzeczywistym.
    Przykład: temperatura w stopniach Kalwina

8. Grupy testów
1) test t-studenta (dla danych zależnych i niezależnych, test istotności różnic średnich arytmetycznych dla zmiennych ilościowych)
Testy t-Studenta służą do porównania ze sobą DWÓCH grup. Nie więcej! Korzystamy z nich wtedy, gdy mamy wyniki dla dwóch grup i chcemy porównać je ze sobą - tzn. stwierdzić, czy wyniki w jednej grupie są większe bądź mniejsze niż w drugiej grupie.
Standardowo istnieją trzy rodzaje testu t-Studenta:
- dla jednej próby
- dla prób niezależnych
- dla prób zależnych
2) test U-Manna Whitneya do porównania 2 grup zmienna jest na skali porządkowej
to test nieparametryczny
Stosujemy go w celu porównania dwóch grup danych, gdy:
- dane są mierzalne (ilościowe), ale ich rozkład zdecydowanie odbiega od rozkładu normalnego (czyli nie jest spełnione założenie testu t-Studenta) - w takim przypadku możemy hipotezę zerową formułować jako brak istotnej różnicy średnich arytmetycznych; oczywiście test Manna i Whitneya możemy też zastosować do danych spełniających założenia testu t-Studenta; pamiętajmy jednak, że jego moc wynosi wówczas około 95% mocy testu t-Studenta;
- dane są typu porządkowego - w tym przypadku hipoteza zerowa zakłada, że badane grupy pochodzą z tych samych populacji, tzn. rozkłady danych w analizowanych grupach nie różnią się istotnie; dla danych porządkowych nie można bowiem obliczać wartości średniej, a prawidłową miarą tendencji centralnej jest mediana.
Punktem wyjścia w teście Manna i Whitneya jest nadanie wynikom obserwacji rang. Z tego powodu test ten znany jest również pod nazwą testu Wilcoxona dla sumy rang. Rangowanie przeprowadzamy następująco:
1. Porządkujemy rosnąco wartości obu prób.
2. Zaczynając od wartości najmniejszej (lub największej), przyporządkowujemy poszczególnym obserwacjom kolejne liczby naturalne.
3. W przypadku wystąpienia wartości jednakowych przyporządkowujemy im tzw. rangi wiązane (średnia arytmetyczna z rang, jakie powinno im się przypisać).
3) test Wilcoxona (do porównania 2 pomiarów , dane zależne zmienna na skali porządkowej) dla par obserwacji jest nieparametryczną alternatywą dla testu t-Studenta dla przypadku dwóch równolicznych próbek dających się połączyć w pary. Często używa się tego testu do porównywania danych zebranych przed i po eksperymencie, w celu zbadania, czy nastąpiła istotna statystycznie zmiana.
O ile test t-Studenta sprawdza hipotezę zerową o równości średnich arytmetycznych w odpowiadających im populacjach, test Wilcoxona weryfikuje równość median.

Tak jak test t-Studenta, test Wilcoxona bazuje na różnicach pomiędzy wartościami cech z porównywanych zbiorów, stąd również wymaga zmiennych na skali interwałowej. W przeciwieństwie jednak do testu t-Studenta, nie posiada założeń dotyczących rozkładu próby. Może zatem być używany w sytuacjach, gdy założenia testu t-Studenta nie są spełnione.
testem Wilcoxona dla dwu próbek jest nieparametrycznym testem do sprawdzenia czy wartości próbek pobranych z dwu niezależnych populacji są jednakowo duże. Jest jednym z najbardziej popularnych nieparametrycznych testów znamienności. W ogólnym przypadku zakłada się, że: ◊ wszystkie obserwacje, dla obydwu grup, są niezależne statystycznie, ◊ zmienne X i Y mierzone są na skali porządkowej, a więc dla dowolnej pary obserwacji, można określić ich uporządkowanie: stwierdzić ich równość lub wskazać na większą spośród nich. -◊testowaną hipotezą zerową jest symetria względem prawdopodobieństwa większej wartości jednej ze zmiennych, a więc hipoteza zerowa zakłada jednakowe prawdopodobieństwo X > Y i Y > X: P(X > Y)=P(Y > X). ◊ hipotezą alternatywną jest asymetria względem prawdopodobieństwa większej wartości jednej ze zmiennych, a więc w wersji dwustronnej testu, że prawdopodobieństwo X > Y jest różne od prawdopodobieństwa Y > X (w wersji jednostronnej, hipotezą alternatywną jest P(X > Y) > P(Y > X) lub P(X > Y) < P(Y > X)).

4) test Kruskala Wallisa porównanie wielu grup, zmienna na skali porządkowej
rangowy test statystyczny porównujący rozkłady zmiennej w k > 2 populacjach
. Test nie zakłada normalności rozkładów. Niekiedy uważany jest za nieparametryczną alternatywę dla jednoczynnikowej analizy wariancji pomiędzy grupami.
Hipotezą zerową H0 jest równość dystrybuant rozkładów w porównywanych populacjach.
Danymi wejściowymi jest -elementowa próba statystyczna podzielona na rozłącznych grup o licznościach . Zakłada się, że każda grupa jest losowana z innej populacji.
Wykonywane jest rangowanie całej próby (połączone wszystkie grupy). Niech Rij oznacza rangę w całej próbie j-tego elementu z i-tej grupy.
Statystyka testowa Kruskala-Wallisa:

gdzie:

Statystyka ta jest miarą odstępstwa średnich próbkowych rang od wartości średniej wszystkich rang, równej (n+1)/2.
Dokładne obliczenie rozkładu tej statystyki wymagałoby sprawdzenia wszystkich układów rang. W praktyce, do obliczania p-wartości korzysta się z twierdzenia, mówiącego, że przy (jednocześnie):
- spełnionej hipotezie H0
- ciągłym rozkładzie cechy w porównywanych populacjach
- minimalnych licznościach grup dla lub dla
zachodzi:
dla
gdzie to zmienna o rozkładzie chi-kwadrat z k − 1 stopniami swobody.

jest nieparametrycznym odpowiednikiem jednoczynnikowej analizy wariancji. Za pomocą tego testu sprawdzamy czy n niezależnych próbek pochodzi z tej samej populacji, czy z populacji z taką samą medianą. Poszczególne próbki nie muszą mieć takiej samej liczebności. Maksymalnie możemy porównywać 10 grup.

5) Friedmana (porównanie wielu pomiarów (dane zależne) zmienna na skali porządkowej
jest nieparametrycznym odpowiednikiem jednoczynnikowej analizy wariancji dla pomiarów powtarzanych. Uważany jest za najlepszy nieparametryczny test dla danych tego rodzaju.
Najczęściej są to wyniki dla tych samych osób otrzymane w n (n >>2) różnych badaniach lub wyniki równoważnych grup osób.
test Kruskala Wallisa i Friedmana ◊ to nieparametryczne odpowiedniki analizy wariancji Warunkiem ich użycia jest sprawdzenie założeń. Jeśli nie zostały one spełnione, wyciągnięte wnioski nie są w pełni poprawne lub tracą wiarygodność. Testy te stają się też bezużyteczne dla danych jakościowych i danych typu porządkowego. Oba testy są dostępne w pakiecie STATISTICA. Można je znaleźć w module.
6)Analiza wariancji ANOVA/MANOVA (porównanie wielu pomiarów lub wielu grup zmienna na skali ilościowej)
ANOVA to metoda statystyczna, służąca do badania obserwacji, które zależą od jednego lub wielu działających równocześnie czynników. Metoda ta wyjaśnia, z jakim prawdopodobieństwem wyodrębnione czynniki mogą być powodem różnic między obserwowanymi średnimi grupowymi. Analiza wariancji została stworzona w latach dwudziestych przez Ronalda Fishera.
Modele analizy wariancji można podzielić na:
- modele jednoczynnikowe - wpływ każdego czynnika jest rozpatrywany oddzielnie, tą klasą zagadnień zajmuje się jednoczynnikowa analiza wariancji,
- modele wieloczynnikowe - wpływ różnych czynników jest rozpatrywany łącznie, tą klasą zagadnień zajmuje się wieloczynnikowa analiza wariancji.
Według kryterium podział modeli przebiega następująco:
-model efektów stałych - obserwacje są z góry podzielone na kategorie,
-model efektów losowych - kategorie mają charakter losowy,
-model mieszany - część kategorii jest ustalona, a część losowa.
MANOVA Wielowymiarowa analiza wariancji. Jest to ogólna forma jednoczynnikowej analizy wariancji (ANOVA) Jest ona stosowana w przypadkach, gdy są dwie lub więcej zmiennych zależnych. Jak również określenie, czy zmiany w zmiennej niezależnej (s) mają znaczący wpływ na zmienne zależne, MANOVA jest również wykorzystywane do określania wzajemnych relacji między zmiennymi zależnymi i wśród zmiennych niezależnych.
7)Test χ2 (chi kwadrat) test do porównania grup zmienne jakościowe każdy test statystyczny, w którym statystyka testowa ma rozkład chi-kwadrat, jeśli teoretyczna zależność jest prawdziwa. Test chi kwadrat służy sprawdzaniu hipotez. Innymi słowy wartość testu oceniana jest przy pomocy rozkładu chi kwadrat. Test najczęściej wykorzystywany w praktyce. Możemy go wykorzystywać do badania zgodności zarówno cech mierzalnych, jak i niemierzalnych. Jest to jedyny test do badania zgodności cech niemierzalnych. Aby sprawdzić, czy wartość statystyki chi-kwadrat wskazuje na istotną statystycznie zależność, musimy sprawdzić, posługując się tablicą rozkładu chi-kwadrat, czy dana wartość wskazuje na istotne statystycznie różnice.
Aby tego dokonać, musimy znać: ◊wartość statystyki chi-kwadrat (wynik testu chi-kwadrat) ◊ liczbę przebadanych osób ◊ poziom istotności (poziom prawdopodobieństwa), dla którego dany wynik będzie wskazywał na istotną zależność
Dla przykładu, jeżeli przyjmiemy, że interesuje nas czy dany wynik jest istotny statystycznie, przy założeniu 5% szans popełnienia błędu przy wnioskowaniu (p = 0,05) i do tego wiemy, że zbadaliśmy 100 osób - to na skrzyżowaniu tych dwóch wartości odczytujemy wartość statystyki chi-kwadrat i porównujemy ją z uzyskaną w naszych obliczeniach statystyką.
Jeżeli wartość naszego testu będzie większa niż wartość z tablicy uznamy, że wynik jest istotny statystycznie (przy założeniu p = 0,05)
Jeżeli natomiast wartość naszego testu będzie mniejsza niż wartość z tablicy uznamy wtedy, że wynik nie jest istotny statystycznie.


9. Testy siły związku: mam na kartce!!

10. Psychometria
Badanie rzetelności narzędzia pomiarowego
1) met. połówkowa
• Metoda połówkowa – metoda obliczania rzetelności na podstawie oddzielnego badania najpierw jedną połówką testu, a zaraz potem drugą.
• Współczynnik równoważności międzypołówkowej – współczynnik korelacji między wynikami obu połówek testu.
• Nie każdy podział na połówki spełnia kryteria metody. Dobry podział: gwarantuje włączenie do każdej połówki pozycji jak najbardziej do siebie podobnych nie tylko pod względem parametrów statystycznych, ale także równoważnych pod względem treściowym.
• Połówki traktowane są jak testy równoległe

2) met. zgodności sędziów kompetentnych
Sędziami kompetentnymi mogą być doświadczeni klinicyści, oceniający na specjalnie opracowanych skalach szacunkowe postępy pacjenta poddanego psychoterapii, nauczyciele oceniający wytwory uczniów itp. W takich przypadkach gdy mamy do czynienia z wieloma zbiorami ocen, a każdy taki zbiór pochodzi od innej osoby, interesuje nas stopień zbieżności tych ocen. Tzn. interesuje nas stopień korelacji między zbiorami ocen dotyczących tych obiektów. Miarą tej współzależności jest współczynnik zgodności W-Kendalla. Współczynnik W przyjmuje wartość od 0 (brak zgodności) do +1 (całkowita zgodność). Jest on wyrażany w skali porządkowej.

3) met. zgodności wewnętrznej
- Zgodność wewnętrzną testu (czyli w jakim stopniu odpowiedzi na poszczególne pytania mierzą to samo co wynik w całym teście) mierzy się za pomocą metod analizujących właściwości statystyczne pozycji testowych i ich związek z ogólnym wynikiem testu
- Współczynnik wewnętrznej zgodności testu jest wysoki, gdy:
- korelacje między zadaniami są największe
- wariancja zadań jest największa
- zadania są jednakowej trudności.

11. Testy do badania normalności rozkładu

np. test shapiro-wilka
Wiele testów parametrycznych wymaga, by dane pochodziły z rozkładu zbliżonego do normalnego. Dlatego testy badające normalność rozkładów są tak istotne. W testach tych zawsze przyjmuje się H0 - rozkład zmiennej jest normalny. Odrzucenie H0 jest wiec równoznaczne z przyjęciem hipotezy, że rozkład zmiennej nie jest normalny. Brak podstaw do odrzucenia nie oznacza przyjęcia hipotezy o normalności rozkładu. Musimy to jeszcze sprawdzić i w tym celu sporządzane są wykresy prawdopodobieństwoprawdopodobieństw.
Test Kołmogorowa - Smirnowa z poprawką Lilleforsa, która jest obliczana, gdy nie znamy średniej lub odchylenia standardowego całej populacji.
Test Shapiro - Wilka - najbardziej polecany, ale może dawać błędne wyniki dla próbek większych niż 2 tys.

12.Analiza post-hoc
test NIR: (najmniejszych istotnych różnic) Polega on na wyznaczeniu tzw. najmniejszych istotnych różnic. Najczęściej stosuje się go do średnich uporządkowanych niemalejąco; porównywanie rozpoczyna się od średnich najbardziej oddalonych. W rezultacie w zbiorze wszystkich średnich wyróżniamy podzbiory wewnętrznie jednorodne. Podzbiory te niekoniecznie muszą być rozłączne. Możliwa też jest sytuacja, że nie został wydzielony żaden podzbiór różniący się od pozostałych, mimo że test F analizy wariancji wykazał istotne zróżnicowanie. Odrzucenie hipotezy zerowej H0 : m1 = m2 =... = mk może bowiem wynikać z istotności pewnych porównań, które niekoniecznie muszą być porównaniem par (np. m1 z [m1 + m2 + m3 ]/3). Ta procedura umożliwia również wyznaczenie przedziałów ufności. Test NIR jest najmniej odporny na zwiększenie wartości α spowodowane wielokrotnymi porównaniami. Poziom istotności α przy weryfikacji hipotezy mi = mj; i różne od j odnosi się bowiem do pojedynczego porównania, a nie do wszystkich wyników. Jest to poważna trudność, gdyż jesteśmy przyzwyczajeni wiązać różne warunki w całość, a nie interpretować je oddzielnie. Wraz ze wzrostem liczby średnich wzrasta bardzo szybko poziom istotności dla całego doświadczenia. Test ten stosujemy więc najczęściej jako sprawdzian innych testów.
• Test Scheffe to najbardziej konserwatywny test. Oznacza to, że używając go w porównywalnych grupach, rzadziej będziemy odrzucać hipotezę o równości średnich niż posługując się innymi testami. Test ten ma szerokie zastosowanie, gdyż uwzględnia nie tylko porównania par cech, ale wszystkie możliwe kontrasty (p. następny odcinek). Ważne jest też to, że w teście Scheffégo mamy zagwarantowany łączny poziom istotności dla wszystkich testowanych par, czego nie gwarantował test NIR. Metoda Scheffégo jest też najbardziej zachowawcza, ponieważ błąd typu pierwszego jest najmniejszy (tzn. prawdopodobieństwo odrzucenia hipotezy, która okaże się prawdziwa, jest najmniejsze). Jednak dla porównań par średnich bardziej zalecany jest test Tukeya oraz test Newmana i Keulsa.
Test Tukeya występuje w dwóch wariantach: dla równej liczebności próbek i dla nierównej liczebności (test Spjotvolla i Stoline'a). Test Tukeya jest również oparty na "studentyzowanym" rozkładzie. Metoda Tukeya jest bardziej konserwatywna niż test NIR, ale mniej niż test Scheffégo. Oznacza to, że używając go, rzadziej będziemy odrzucać pojedyncze porównania niż w metodzie NIR.
Test Newmanna należy do grupy testów opartych na tzw. studentyzowanym rozstępie. Bada każdą hipotezę o równości średnich w pewnej grupie. Za jego pomocą możemy więc tworzyć grupy jednorodne. Test ten ze względu na niejednoczesne testowanie hipotez o równości średnich nie może służyć do tworzenia przedziałów ufności. Idea obliczeń jest następująca: ◊sortujemy średnie w porządku niemalejącym; ◊dla każdej pary średnich testujemy różnicę rozstępów przy ustalonych liczebnościach.
Test Duncana to test oparty na "studentyzowanym" rozstępie. Podobnie jak poprzedni, test Duncana ze względu na niejednoczesne testowanie hipotez o równości średnich nie może służyć do tworzenia przedziałów ufności. Przy teście Duncana poziom istotności dla porównań wszystkich średnich jest równy 1 - (1 - α)n-1 i wzrasta do 1, gdy n rośnie do nieskończoności. Zatem dla dużej liczby średnich prawdopodobieństwo błędu może być duże (np. dla a = 0,05 i n = 10 wartość ta wynosi 0,401). Można więc przy dużej liczbie średnich podjąć błędną decyzję. Test ten stosujemy więc najczęściej jako sprawdzian innych testów.

12. Współczynnik determinacji R2jedna z podstawowych miar jakości dopasowania modelu. Powiązany z tym współczynnikiem jest współczynnik zbieżności.
Informuje o tym, jaka część zmienności zmiennej objaśnianej została wyjaśniona przez model. Jest on więc miarą stopnia, w jakim model wyjaśnia kształtowanie się zmiennej objaśnianej. Można również powiedzieć, że współczynnik determinacji opisuje tę część zmienności objaśnianej, która wynika z jej zależności od uwzględnionych w modelu zmiennych objaśniających. Współczynnik determinacji przyjmuje wartości z przedziału [0;1]. Jego wartości najczęściej są wyrażane w procentach. Dopasowanie modelu jest tym lepsze, im wartość R2 jest bliższa jedności. Wyraża się on wzorem:
,gdzie:
- rzeczywista wartość zmiennej Y w momencie t,
- wartość teoretyczna zmiennej objaśnianej (na podstawie modelu),
- średnia arytmetyczna empirycznych wartości zmiennej objaśnianej.
Współczynnik zbieżności określa, jaka część zmienności zmiennej objaśnianej nie została wyjaśniona przez model. Można również powiedzieć, że współczynnik zbieżności opisuje tę część zmienności zmiennej objaśnianej, która wynika z jej zależności od innych czynników niż uwzględnione w modelu. Współczynnik zbieżności przyjmuje wartości z przedziału [0;1]; wartości te najczęściej są wyrażane w procentach. Dopasowanie modelu jest tym lepsze, im wartość jest bliższa zeru.

Testy parametryczne vs nieparametryczne
Jednym z podziałów testów statystycznych jest podział na testy parametryczne oraz nieparametryczne.

Testy parametryczne cechuje:
• większa ilość założeń do spełnienia
• większa moc testów
• dokładniejszy pomiar
• lepsza interpretowalność uzyskiwanych wyników

Testy nieparametryczne natomiast cechuje:
• mniejsza ilość założeń do spełnienia
• mniejsza moc testów
• mniej dokładny pomiar
• gorsza interpretowalność uzyskiwanych wyników

Z reguły jest tak, że mniej wymogów muszą spełniać zebrane dane, aby przeprowadzić testy nieparametryczne, ale za to dają one mniejszą liczbe informacji, mniej sa one warte w porónwaniu do testów parametrycznych. Testy parametryczne - najbardziej ulubione testy statystyków, wymagają spełnienia założeń (choć pod pewnymi warunkami można niektóre z nich pominąć) ale za to wyniki są bardziej dokładne i na ich podstawie można dokonać lepszych interpretacji.

Jednymi z najbardziej charakterystycznych cech testów parametrycznych jest rozkład normalny mierzonych zmiennych oraz zmienne muszą być mierzone na skali ilościowej.

Testami parametrycznymi są np.:
• testy t-Studenta
• analiza wariancji
• korelacja r-Pearsona
• analiza regresji

Testami nieparametrycznymi są np.:
• test U Manna-Whitneya
• test niezależności chi-kwadrat
• korelacja taa-b Kendalla

1. Skale pomiarowe zmiennej
Stevens opracował koncepcję pomiaru zmiennych w naukach społecznych oraz podał klasyfikację skal pomiarowych. Wyróżnił cztery rodzaje skal:
¬ Nominalne –JAKOŚCIOWe.
¬ Porządkowe. (jakościowe)
¬ Interwałowe/przedziałowe(ilościowe)
¬ Stosunkowe/Ilorazowe (ilościowe)
Zmienne ilorazowe i interwałowe to zmienne ILOŚCIOWE.
W zależności od tego na jakiej skali wyrażony jest pomiar zmiennej zależnej, musimy wybrać test statystyczny z danej, dopuszczonej przez dany poziom pomiaru, kategorii testów. I tak, testy parametryczne zakładają co najmniej poziom interwałowy pomiaru a testy nieparametryczne dzielą się na dwie klasy:
- zakładające poziom porządkowy pomiaru zmiennej zależnej np. Wilcoxona
- zakładające tylko poziom nominalny np. chi kwadrat

2. Charakter danych (zależne, niezależne)
W badaniach empirycznych w psych. Interesują nas dwa rodzaje porównań:
¬ Pierwszy rodzaj porównań wymaga dwóch ( i większej liczby) grup, różniących się poziomem zmiennej niezależnej charakteryzującymi je w tym samym czasie. W najprostszym przypadku mamy dwie grupy: kontrolną i eksperymentalną. Mówimy tu o grupach niezależnych lub danych niezależnych.
¬ Drugi rodzaj porównań uwzględnia tę samą grupę osób, ale badaną wielokrotnie w czasie. Mówimy tu o grupach zależnych lub danych zależnych.
3. Wielkość grupy
Badania empiryczne prowadzone są na próbach o różnej liczebności. Często rodzi się pytanie, czy są ograniczenia od dołu wielkości grup porównawczych z uwagi na dany test istotności różnic, którym badacz chce się posłużyć. TAK, przy czym każdy test ma własne indywidualne ograniczenia. Są testy które są bardzo skuteczne dla małych grup i są takie, które są przeznaczone dla dużych grup. W każdym razie w metryczce danego testu podana jest minimalna wielkość grup porównawczych, przy której można go poprawnie stosować. Są też testy, które mają kilka wariantów dla różnych przedziałów wielkości grup.
4. Liczebność grup porównawczych
Biorąc pod uwagę liczbę porównywanych grup (niezależnych i zależnych) można mówić o:
¬ Porównaniach dwóch grup
¬ Porównaniach trzech i większej liczby grup
Rozwój metodologii badań empirycznych i statystyki prowadzi do koncepcji porównań dwugrupowych do koncepcji wielogrupowych. Jednak praktykę badawczą cechuje sprowadzanie porównań wielu grup, do problemów porównań dwugrupowych. Jednak wiele czynników np. ekonomiczne przemawia za testami przeznaczonymi dla wielu grup.


Wyszukiwarka

Podobne podstrony:
Statystyka SUM w4
statystyka 3
Weryfikacja hipotez statystycznych
Zaj III Karta statystyczna NOT st
Metodologia SPSS Zastosowanie komputerów Brzezicka Rotkiewicz Podstawy statystyki
metody statystyczne w chemii 8
Metodologia SPSS Zastosowanie komputerów Golański Statystyki
Statystyka #9 Regresja i korelacja
06 Testowanie hipotez statystycznychid 6412 ppt
BHP STATYSTYKA
Statystyka #13 Podsumowanie
metody statystyczne w chemii 5
STATYSTYKA OPISOWA '
statystyka referat MPrzybyl

więcej podobnych podstron