1. W KENDALLA to:
- współczynnik zgodności – użyteczny jeżeli interesuje nas współzależność więcej niż dwóch uporządkowań
obliczanie współczynnika wymaga policzenia dwóch statystyk S: otrzymanej i maksymalnej. S otrzymana suma kwadratów odchyleń sumy rang przyznanych każdemu z obiektów od średniej sumy rang przypadającej na ten obiekt.
k _
S= ∑ (Ri – R)2
i=1
k – liczba rangowanych obiektów
Ri – suma rang przyznanych i-temu obiektowi
_
R – średnia suma rang przypadająca na jeden obiekt
Współczynnik zgodności W Kendalla – stosunek uzyskanej wartości S do S max
W= S/ Smax
Im wyższa wartość współczynnika tym większa zgodność między sędziami.
O istotności współczynnika W decyduje się na podstawie testu χ² (porównując z wartością krytyczną dla k-1 stopni swobody)
χ² = N (k-1) x W
2. STOSUNEK KORELACYJNY, jest to:
- (eta kwadrat) – jest to inny wskaźnik miary wielkości wpływu czynnika eksperymentalnego. Oblicza się go, dzieląc sumę kwadratów związaną z jakimś czynnikiem eksperymentalnym przez całkowitą sumę kwadratów (wielkość efektu w tym wypadku najwygodniej jest podawać w procentach).
3. R PEARSONA to:
- (współczynnik korelacji wg momentu iloczynowego)
Wartość współczynnika korelacji r Pearsona = średnia arytmetyczna iloczynów wyników standaryzowanych (wyrażonych na skali Z) dla poszczególnych pomiarów zmiennej X i Y.
Wzorek:
N
rxy = ∑ zXi zYi / N
i=1
rxy – współczynnik korelacji
zXi - wynik standaryzowany danego pomiaru (i) zmiennej X, czyli różnica między tym pomiarem a średnią dla zmiennej X wyrażona w jednostkach odchylenia standardowego dla tej zmiennej
zYi - wynik standaryzowany danego pomiaru (i) zmiennej Y
N - liczba par pomiarów
N
∑ - suma (tutaj: iloczynów par wyników standaryzowanych począwszy od pierwszego
i=1 (i=1) do ostatniego, równego liczbie wszystkich pomiarów (N)
*Standaryzacja pomiarów do wyników z pozwala na ich porównywanie pomimo różnych jednostek pomiarowych (np. godzin i lat)
*Wartość rxy = -0.21 oznacza, że jeśli wartość jednej zmiennej jest wyższa od średniej o jedno odchylenie standardowe to wartość drugiej przeciętnie jest mniejsza od tej średniej o 0.21 odchylenia standardowego
Jeżeli wartość współczynnika korelacji nie wynosi |1| to oznacza to, że przewidywanie 1 zmiennej na podstawie 2 zmiennej jest obarczone jakimś błędem. Miarą tego błędu jest różnica pomiędzy 1 (idealne przewidywanie) a wartością r2 .
Wykres korelacji między wszystkimi zmiennymi – macierz korelacji.
Wyniki analiz zazwyczaj przedstawiane są w tabeli, w której przekątna dzieli wyniki na dwie symetryczne połowy (każdy wynik pojawia się w tabeli dwa razy). Jeżeli usunie się połowę tabeli powstaje macierz trójkątna.
Współczynnik korelacji r Pearsona
Wymaga danych zgromadzonych na skali przynajmniej przedziałowej
Wymaga danych przedstawionych w postaci par liczb
Sprawdzenie istotności współczynnika korelacji r Pearsona wymaga zastosowania testu t Studenta (df=N-2)
H0 w przypadku współczynnika korelacji oznacza brak związku między danymi H0 : r=0
H1: r > 0 lub H1: r < 0
Test może być jednostronny lub dwustronny – zależnie od hipotezy alternatywnej.
Żeby sprawdzić istotność współczynnika korelacji dane muszą pochodzić z populacji o rozkładzie normalnym a wariancje w obu pomiarach nie mogą się istotnie od siebie różnić, chyba że próba liczy powyżej 50 obserwacji (założenia testu t Studenta) *wynik testu t jest tym większy im większa jest bezwzględna wartość współczynnika korelacji oraz im większe jest N
Współczynnik korelacji r Pearsona jest miarą liniowości związku między dwiema zmiennymi zerowa korelacja oznacza brak liniowości związku (zależność może być krzywoliniowa)
Korelacja jest wrażliwa na obserwacje nietypowe – warto przeanalizować wykres przed rozpoczęciem obliczania współczynnika korelacji.
4. RHO SPEARMANA to:
- współczynnik korelacji rangowej ρ Spearmana
[dygresja => Jeżeli posługujemy się skalami porządkowymi lub liczba pomiarów jest mała (np. 10) to możemy zastosować współczynnik korelacji rangowej ρ (ro) Spearmana albo τ (tau) Kendalla.]
Stopień inwersji – jeżeli np. uporządkowanie obiektu wg jednej cechy różni się od uporządkowania wedle drugiej cechy (por. Francuz, str. 516)
Miara inwersji – suma kwadratów różnic między rangami w parach
N
∑ d2
i=1
Jeśli obydwa uporządkowania są takie same to wskaźnik inwersji = 0. Najwyższa wartość – kiedy dwa uporządkowania są względem siebie odwrotne.
Współczynnik korelacji rangowej ρ Spearmana
N
ρ = 1 - 6 ∑ d2i / Nx (N2 – 1 )
i=1
*6 – wartość stała
* obecność rang wiązanych zmienia znaczenie współczynnika ρ Spearmana
Istotność współczynnika ρ Spearmana można weryfikować odwołując się do praw rachunku prawdopodobieństwa.
Im większa miara inwersji, bezwzględna wartość ρ Spearmana, wielkość próby (liczba uporządkowań) tym mniejsze prawdopodobieństwo przypadku.
Jeżeli liczebność korelowanych pomiarów jest większa (już od 10) to do weryfikacji istotności ρ Spearmana można użyć testu t.
5. Założenia analizy REGRESJI:
- liniowość związku predykatorów ze zmiennymi zależnymi
- brak korelacji błędów pomiaru z wartościami predyktora
- predyktory i zmienna zależna mierzone są bez błędu
- normalność i homoscedastyczność rozkładów reszt
- brak wysokich interkorelacji między predykatorami (brak współliniowości) (pow. 0,7; 0,8)
6. Założenia analizy KOWARIANCJI:
- zmienna towarzysząca mierzona na skali co najmniej interwałowej
- brak wpływu zmiennej niezależnej grupującej na towarzyszącą
- równość współczynników regresji w grupach eksperymentalnych
7. WSPÓŁLINIOWOŚĆ zachodzi:
Pełna współliniowość (tzn. gdy jedna zmienna jest kombinacją liniową pozostałych) uniemożliwia zastosowanie metody najmniejszych kwadratów.
Macierz współliniowa, współliniowość wielokrotna ? termin ten odnosi się do macierzy korelacji (lub kowariancji) zmiennych, które nie są liniowo niezależne (tzn. co najmniej jedna z tych zmiennych jest kombinacją liniową pozostałych). Macierze takie są osobliwe i nie istnieją dla nich glosm.html#Matrix Inverse (można natomiast wyznaczyć dla nich glosu.html#Generalized Inverse). Więcej informacji na ten temat znajduje się pod hasłem glosm.html#Matrix Singularity.
Interkorelacja (współzależność) wyników uzyskanych w tych zadaniach, możliwa do określenia za pomocą metod statystycznych, takich ja analiza czynnikowa, pozwala określić strukturę umysłu oraz samej inteligencji.
8. MODALNA to:
- (moda) – miara tendencji centralnej; jest to wartość, która w zbiorze danych powtarza się najczęściej; to także jedyny parametr, który można ustalić dla każdej ze skal pomiarowych (już nawet dla skali nominalnej możemy ustalić, która wartość jest najliczniejsza).
9. FUNKCJA/KRZYWA WYKŁADNICZA:
Jedna z funkcji, które można dopasować do danych, postaci:
y = b*exp(q*x)
gdzie stałe b i q wyznaczone zostaną metodą najmniejszych kwadratów.
10. Jakie musi być p, żeby było wyznacznikiem dobrze dobranego testu do badań?
0,50
0,05
0,01
0,001
11. PREDYKTOR to inaczej:
- zmienna niezależna
12. PHI przyjmuje wartości od 0-1 tylko wtedy gdy tabele są :
13. Autorem Prawa Wielkich Liczb jest:
- Jakub Bernoulli
14. Używając procedury Bonferroniego i chcąc dokonać wszystkich możliwych porównań między czterema grupami, należy posługiwać się roboczym poziomem istotności równym:
- 0,0083
15. Równanie regresji, cos rośnie o 0,8 to cos innego o 1 punkt.
16. Pytanie o RESZTY [RESZTY jako prawidłowa odpowiedź]:
Resztą nazywamy odchylenie wartości przewidywanej na podstawie równania regresji od wartości rzeczywistej
Ilorazem reszty i odchylenia standardowego jest liczba oznaczająca, o ile jednostek odchylenia standardowego w rozkładzie reszt odchyla się konkretna wartość reszty
17. Jak badać wpływ manipulacji eksperymentalnej na zdrowych (grupa eksperymentalna, kontrolna; zdrowi - chorzy) - interferencja
18. STANDARYZOWANY WSPÓŁCZYNNIK REGRESJI – BETA:
- zmiana w zmiennej zależnej (w jednostkach odchylenia standardowego) przy zmianie predyktora o 1 odchylenie standardowe, przy kontroli pozostałych predyktorów
19. Jeżeli brak jest relacji liniowej, może pojawić się:
- silna U-kształtna
20. Nieparametryczną alternatywą testu T dla powtórzonych pomiarów jest:
- test znaków rangowych Willcoxona
21. W analizie regresji największe zaufanie mamy do wartości:
- najbliższych średniej
22. Badacz chce sprawdzić różnice pomiędzy mężczyznami a kobietami w zakresie występowania epizodu depresyjnego (czy wystąpił chociaż raz), w tym celu powinien użyć:
- korelacji / testu chi-kwadrat (ponieważ: 1 rodzaj tego testu to => test niezależności – analiza współzależności 2óch zmiennych mierzonych na skalach nominalnych)
23. W jednym badaniu na 10 os. otrzymano średnią X; w drugim, na 100 os. otrzymano średnią Y; aby uzyskać średnią dla wszystkich 110 osób, należy obliczyć:
- średnią ważoną
24. WSPÓŁCZYNNIK PHI przyjmuje wartości (0-1) dla:
- tabel 2x2
25. MODELOWANIA RÓWNAŃ STRUKTURALNYCH używamy do:
- testowania hipotez badawczych o dużej możliwości relacji pomiędzy zmiennymi