Metoda statystyczna | Test t-Studenta dla jednej populacji | Test t-Studenta dla dwóch populacji niezależnych | Test t-Studenta dla dwóch populacji zależnych |
---|---|---|---|
1. Typ problemu | Czy średnia wartość zmiennej w populacji jest równa jakiejś znanej stałej (c – constant); np.: czy średni poziom zarobków w Warszawie wynosi 2500 PLN? Czy przeciętny poziom inteligencji w populacji akademickiej można uznać za równy 120 pkt? | Efekty oddziaływania czynnika (zm. Niezależnej) na zmienną zależną na dwóch poziomach Np. czy metoda nauczania wpływa na poziom znajomości logiki. | Weryfikacja Ho o równości dwóch średnich w populacjach zależnych np. |
2. Hipotezy statystyczne | H0: µ = c H1: µ ≠ c różnościowa (bezkierunkowa) lub kierunkowa µ > c, µ < c |
H0: µ = µ1 = µ2 zakładamy brak wpływu czynnika na zmienna zal H1: µ1 ≠ µ2 H1: µ1 > µ2 lub µ1 < µ2 Efekt główny: αi = µi - µ efekt oddziaływania danego poziomu zm nzal na zm zal |
H0: µd=0 gdzie µd = µ1 - µ2 Lub µ1 = µ2 H1: µ1 ≠ µ2 różnościowa, test dwustronny H1: µ1 > µ2 lub µ1 < µ2 |
3. Definicyjna postać statystyki testu | Różnica średnich z prób | Średnia różnic z prób Xd = µ1 - µ2 |
|
4. Stopnie swobody | df = n – 1 | Df= n1 + n2 – 2 | df = n – 1 |
5. Kształt rozkładu statystyki testowej | Rozkład t-Studenta o n – 1 stopniach swobody, normalny spłaszczony o średniej równej 0 i wariancji równej |
Wystandaryzowany rozkład normalny różnic między średnimi | |
6. Założenia | - Zmienna X jest zmienna mierzalną (mierzoną na skali przynajmniej przedziałowej); - Jedna próba losowa, n-elementowa; - Zmienna X ma rozkład normalny w badanej populacji. Założenie to należy sprawdzić za pomocą testu Shapiro-Wilka, gdy próba jest mała lub za pomocą testu Kołmogorova-Smirnowa, gdy próba jest duża. Jeżeli założenie o normalności nie jest spełnione, ale rozkład p-twa wartości naszej zmiennej w badanej populacji można uznać za wypukły, w miarę symetryczny i jednomodalny – możemy zastosować test t-Studenta (por. teoria odporności); - Subiektywnie założony poziom istotności α.. |
- Zmienna X jest zmienna mierzalną (mierzoną na skali przynajmniej przedziałowej) -Zmienna niezależna to zmienna niemierzalna o 2 poziomach wartości. -2 równoliczne niezależne próby losowe pobrane z 2 populacji -Zmienna X ma rozkład normalny w badanej populacji. Założenie to należy sprawdzić za pomocą testu Shapiro-Wilka, gdy próba jest mała lub za pomocą testu Kołmogorova-Smirnowa, gdy próba jest duża. Jeżeli założenie o normalności nie jest spełnione, ale rozkład p-twa wartości naszej zmiennej w badanej populacji można uznać za wypukły, w miarę symetryczny i jednomodalny – możemy zastosować test t-Studenta (por. teoria odporności); -Wariancje są takie same σ=σ= σ Ho o ich homogeniczności weryfikujemy testem f-fishera albo Levene’a |
- Zmienna X jest zmienna mierzalną (mierzoną na skali przynajmniej przedziałowej) -Zmienna niezależna to zmienna niemierzalna o 2 poziomach wartości. -2 równoliczne zależne próby losowe pobrane z 2 populacji zależnych |
7. Interpretacja wyniku testu | t = o ile błędów standardowych (równych ) średnia w badanej próbie (czyli wartość estymatora - średniej z małych prób otrzymana dla naszej próby) leży od średniej w populacji (czyli μ, bo tyle wynosi średnia w rozkładzie estymatora ), przy założeniu, że prawdziwa jest H0. | t= to wystandaryzowana wartość estymatora (czyli różnica średnich między pomiarami dla pary prób niezależnych wylosowanej z badania dwóch niezależnych populacji) µ1 - µ2 = 0 |
t= to wystandaryzowana wartość estymatora (czyli średnia różnic między pomiarami dla pary prób zależnych wylosowanej z badania dwóch zależnych populacji) Xd = µ1 - µ2 = 0 |
Metoda statystyczna | KORELACJA | REGRESJA jednokrotna | Chi kwadrat |
---|---|---|---|
1. Typ problemu |
Rij. to korelacja po wyeliminowaniu wszystkich innych zmiennych Rij.r to kor I rzędu po wyeliminowaniu zm r |
Przewidujemy wartość Y przy pomocy X. chcemy ustalić równanie regresji które będzie przewidywało wyniki Y y – wyniki prawdziwe wyniki przewidywane |
Test niezależności dwóch zmiennych nominalnych. Mamy 2 zmienne nominalne X o w poziomach wartości i Y o k poziomach Kontyngencja - zależność między dwoma zmiennymi nominalnymi |
2. Hipotezy statystyczne |
H1: σ < 0 lub σ > 0
H1: nieprawda że H0 |
Reguła najmniejszych kwadratów Reszta regresji – ta część zmienności Y nie wyjaśniona przez zmienność X, czyli suma kwadratowych odległości pomiędzy wynikami prawdziwymi a przewidywanymi |
H0: dwie zmienne nominalne są niezależne H1: nieprawda że Ho Weryfikacja H0 porównywanie frekwencji otrzymanej i oczekiwanej |
3. Definicyjna postać statystyki testu | r <-1;1>
|
A to jest stała która mówi na jakieś wysokości prosta regresji przetnie oś Y B to jest współczynnik kierunkowy mówiący o stopniu nachylenia prostej Struktura wyniku dla 3 zmiennych: |
Definicyjna: χ 2 fo – frekwencja otrzymana fei – frekwencja oczekiwana przy założeniu prawdziwości Ho δ2 =2k |
4. Stopnie swobody |
Bo w mianowniku 2 odchylenia standardowe
|
df = (w-1)(k-1) | |
5. Kształt rozkładu statystyki testowej | Diagram rozrzutu – rozkład dwuzmiennowy złożony z kropek zlokalizowanych w punktach przecięcia osi reprezentujących pary wyników | Równanie regresji | ![]() |
6. Założenia | Współczynnik determinacji r2 – informacja o zakresie zmienności wspólnej obu zmiennych Współczynnik alienacji 1 – r2 – to ta część zmienności zmiennej X której zmienność zmiennej Y nie wyjaśnia |
-zmienna objaśniająca i objaśniana mierzalne - zmienna Y ma rozkład normalny dla każdego X i odwrotnie - wszystkie rozkłady zmiennej Y względem X mają równe wariancje tzn. homoscedantyczność wariancji sprawdzamy to testem: Leven’a bartlett’a Hartley’a Cochrana |
1. bardzo duża próba losowa 2. alfa założone subiektywnie 3. niezależność grup |
7. Interpretacja wyniku testu | Jeśli |r| > rα, df to Ho odrzucamy tzn. że zmienne są zależne liniowo Jeśli |r| < rα, df to nie ma podstaw do odrzucenia Ho tzn. nie potwierdzamy liniowej zależności zmiennych ale może istnieć nieliniowa Korelacja cząstkowa jest to zmienna korygująca związek dwóch zmiennych |
Badanie rozkładu: - Badanie zgodności rozkładu empirycznego zmiennej z teoretycznym - Badanie zgodności dwóch rozkładów empirycznych zmiennej - Badanie niezależności zmiennych nominalnych - Do wyznaczania wartości krytycznych różnych testów Jeśli |X2| > xα, df to Ho odrzucamy tzn. że zmienne są zależne liniowo Jeśli |X2| < xα, df to nie ma podstaw do odrzucenia Ho |
Metoda statystyczna | MIARY KONTYNGENCJI(tu bez rozgraniczenia na 7 problemów) | ANOVA | |
---|---|---|---|
1. Typ problemu | Współczynnik kontyngencji dla tabeli 2x2 Nie korygujemy bo poprawa utrudnia interpretacje wskaźnika |
Jednowymiarowa jednoczynnikowa Analiza centrum rozkładów populacji niezależnych, Hipoteza o równości średnich populacji niezależnych |
|
2. Hipotezy statystyczne | część całkowitego zróżnicowania zmiennej Y wyjaśniona przez zmienność zmiennej X | H0: µ1 = µ2 = µ3 = ... = µ, H1: nieprawda że Ho |
|
3. Definicyjna postać statystyki testu | przyjmuje <0,1> | SScała = SSmiędzy + SSwewnątrz | |
4. Stopnie swobody | C-Pearsona Współczynnik kontyngencji dla wszystkich innych tabel Musi być skorygowany bo nie dochodzi do 1 |
Dfwew= n – k Dfmiedzy= k – 1 Dfcale= n – 1 |
|
5. Kształt rozkładu statystyki testowej | przyjmuje <0,1> ale nigdy nie osiąga jedynki dlatego korygowany | ||
6. Założenia | Korekta: |
|
|
7. Interpretacja wyniku testu | Chi2 dla tabeli k x k (ilość kolumn = ilości wierszy gdzie k nie może być mniejsze 3) (k-1)n |
Analiza wariancji jest metodą statystyczną, która pozwala na testowanie hipotez o równości średnich w co najmniej trzech porównywanych grupach. Można ją uznać za uogólnienie testu t dla prób niezależnych na sytuację z większą ilością porównywanych grup. |