notatki Brzez, SWPS, ROK 2, Metodologia ze statystyką - Brzeziński


Rozumowanie dedukcyjne:

Kolejne stadia metody naukowej:

Fakty-> teorie-> przewidywania-> fakty

Zasady racjonalności:

Co charakteryzuje poznanie naukowe?

Warunki poprawnej konstrukcji zmiennej:

Schemat:

  1. Problem, hipoteza

  2. Struktura zmiennych

  3. Operacjonalizacja zmiennych

  4. Model badawczy (badawczy lub korelacyjny)

  5. Dobór próby

  6. Model statystyczny

  7. Akceptacja/ odrzucenie hipotez

  8. Ocena, interpretacja, generalizacja

Trafność zewnętrzna: zakres wyników

Obserwacja> ex post facto > quasi- eksperyment > eksperyment terenowy > eksperyment laboratoryjny

Trafność wewnętrzna - precyzja badanie

eksperyment laboratoryjny > eksperyment terenowy > quasi- eksperyment > ex post facto > obserwacja

Interakcja „badacz-OB” (Rosenthal)

Czynniki pośredniczące w powstaniu OIB:

Usprawiedliwienie okłamywania uczestników badania:

Statystyka

Estymatory dla próby

Parametry dla populacji

średnia

Y

μ

wariancja

s2

σ2

Współczynnik korelacji

r

ρ

Zmienna zależna: Y

Zmienna niezależna: X

- główna (Xg)

- uboczna (Xu)

- zakłócająca (Xz)

Obciążony estymator: we wzorze n

Nieobciążony estymator: we wzorze n-1

Miara precyzji badania empirycznego: wariancja wewnątrzgrupowa wyrażona jako % wariancji całkowitej

Badania eksperymentalne - zmienne manipulacyjnie

Badania korelacyjne - zmienne klasyfikacyjne

„Bez randomizacji nie ma manipulacji”

Eksperyment jedno-jednozmiennowy - badacz manipuluje jedną zmienną niezależną główną, dwuwartościową, która oddziałuje na jedną zmienną zależną; nawiązuje do kanonu jednej różnicy (Mill)- na podstawie indukcji eliminacyjnej, eksperyment „wszystko albo nic”

Dodatkowe wady: 1. mocne założenie o liniowej zależności; 2. nie można testować hipotez mówiących o wpływie interakcji

Kontrola zmiennych ubocznych (Xu):

- ustalenie stałej wartości lub stałego podzakresu wartości danej zmiennej ubocznej dla osób z obu grup

- wyeliminowanie na drodze analizy statystycznej:

- analiza korelacji cząstkowej i semicząstkowej

- analiza kowariancji

Randomizacja jest akceptowaną formą kontroli zmiennych niezależnych zakłócających (Xz)

Grupy zależne albo 2 razy pomiar u tych samych osób albo: są to grupy złożone z różnych grup ale są one w tym sensie zależne, że do każdej osoby z jednej grupy dobierana jest osoba ja najbardziej do niej podobna (zabieg doboru parami)

Statystyczna kontrola efektu pretestu: współczynnik korelacji semicząstkowej

Plan Solomona - czterogrupowy z dwiema grupami eksperymentalnymi i dwiema kontrolnymi

1 grupa: Pretest Y(1) --> X --> Posttest Y(1)

2 grupa: Pretest Y (2) --------> Postetest Y(2)

3 grupa: X --> Posttest Y(3)

4 grupa Postetst Y(4)

Analiza danych: ANOVA i ANCOVA

Test

Kiedy stosujemy

Założenia

Ho

Chi22)

Dane nominalne, niezależne

McNemara

Dane nominalne, zależne

Test dokładnego prowdopodobieństwa Fishera

Dane nominalne,

Gdy jakaś liczebność teoretyczna mniejsza od 5

Kołmogorowa- Smirnowa

Dane niezależne, zmienna porządkowa; „porównuje rozkłady” ; bardziej efektywny dla małych prób

Manna -Whitneya

Dane niezależne, zmienna porządkowa; „ranguje”; bardziej efektywny dla dużych prób

Wilcoxona

Dane zależne, zmienna porządkowa

t-Studenta

Dla zależnych

Zmienna niezależna ilościowa, dane zależne;

Normalność rozkładu, homogeniczność wariancji,

μ1= μ2

Dla niezależnych

Zmienna niezależna ilościowa, dane zależne; 2 grupy N<30

Normalność rozkładu, homogeniczność wariancji

μ1= μ2

Cochrana i Cox

Lub

Welcha

Zmienne ilościowe, wariancje niehomogeniczne

Rozkład normalny

Test z

Zmienna ilościowa, N> 30

Rozkład normalny

Analiza wariancji

(ANOVA); test F

jednoczynnikowa

Zmienna niezależna nominalna, zmienna zależna ilościowa, co najmniej 3 grupy

I Zmienna Y jest mierzona co najmniej na skali interwałowej

II Osoby zostały losowo pobrane z populacji do próby

III Osoby z próby zostały losowo pobrane do p grup porównawczych odpowiadających p poziomom czynnika A....

IV Rozkład εik - ma w populacji rozkład normalny, o średniej 0 i wariancji σ2ε;

V Dwa błędy εik i ε'ik są od siebie niezależne w p populacjach (chodzi o niezależność pomiarów zmiennej zależnej Y)

VI Występujące w liczniku i w mianowniku stosunku F oszacowania wariancji międzygrupowej i wewnątrzgrupowej są niezależne

VII Wariancje w p populacjach wprowadzone przez błąd eksperymentalny są jednorodne/ homogeniczne: σ2ε1=...= σ2εp

Σα2i=0

Wyrażona za pomocą pojęcia efektu głównego i-tego poziomu czynnika

lub

μi dla wszystkich i

lub

αi=0 dla wszystkich i

lub

μ1 =....= μi=... μp

lub

„Czynnik A nie różnicuje grup(αi=0 dla wszyskich i)”

dwuczynnikowa

To samo co powyżej

Czynnik A: Σα2i=0

Czynnik B:

Σβ2j=0

Interakcja AB:
ΣΣ(αiβ j)2=0

Jednoczynnikowa z powtarzanym pomiarem

Dane zależne

To samo co powyżej +

XVIII Macierz wariancji - kowariancji musi być symetryczna

XIX Macierz wariancji - kowariancji musi być równa

Σα2i=0

Gdy szukamy zmienności między osobowej:

σ2π=0

ANOVA A:

Efekty główne czynnika A (αi)

Błąd eksperymentalny (εik) - wariancja wewnątrzgrupowa

εik - ma w populacji rozkład normalny, o średniej 0 i wariancji σ2ε; jest niezależny od αi

Model stały (I)- badacz sam arbitralnie, ustala dla danego eksperymentu listę wszystkich możliwych poziomów czynnika A

Model losowy (II) - badacz losuje (tak, jak losuje się osoby do próby z populacji) p poziomów z populacji P (p<<P) czynnika A

Model mieszany (III) - np. w planach z powtarzaniem pomiarów zmiennej zależnej osoby losowo pobrane z populacji mogą być traktowane jak poziomy czynnika losowego: „osoby”

Model nieortogonalny: gdy nierówne i dysproporcjonalne liczebności grup

Modele ortogonalne: gdy równe n

Zasada randomizacji pierwszej: losowe pobieranie próby z populacji

Zasada randomizacji drugiej: losowe przydzielanie osób z próby do p grup porównawczych

Model liniowy wyniku Yik:

Yik= μ + αi + εik

Do sprawdzenia czy wariancje są jednorodne: test Fmax Harleya

Addytywne są: sumy kwadratów, stopnie swobody.

Nieaddytywne: średnie kwadraty !!!!!!!

Wariancja wyjaśniona Y (Omega 2)

ω2A= (SSA- (p-1) MSe) / (SScała + MSe) * 100%

Eta2 = SSmiędzy/ SScałkowita <--- wyjaśnony % całkowitej wariancji

W przypadku ANOVY jednoczynnikowej R-kwadrat=Eta-kwadrat

Testy Post-hoc

Przy założeniu równości wariancji

Brak założenia o równości wariancji

ANOVA AB

Model ijk-tego wyniku:

Yijk= μ + αi + βj + αiβj + εijk

Efekty proste - efekt działania jednego czynnika na kolejnych poziomach drugiego czynnika; prosty efekt główny i-tego poziomu czynnika A na j-tym poziomie czynnika B

Efekty interakcyjne- efekt interakcji czynnika A i czynnika B.średnia brzegowa

Efekt główny - ogólny wpływ czynnika A

Kiedy jest interakcja? Jeżeli α1β 1α1β 2; α2β 1α2β 2

Efekt interakcyjny = efekt główny- efekt prosty

ANOVA A z powtarzanym pomiarem

Yik= μ + αi +πk + εik

πk- charakterystykczny dla k-tej osoby wzór reagowania; πk ma rozkład normalny o średniej 0 i wariancji σ2πk

Efekty:

Przy AB z powt pomiarem - możliwa analiza profilowa (profile mogą się różnić konfiguracją i wysokością

Test porównań wielokrotnych Dunneta: gdy porównujemy wile grup eksperymentalnych z 1 grupą kontrolną

Transformacja wyników:

- pooprawia jednorodność wariancji

- poprawia normalność rozkłady Y

- eliminowanie pozornych interakcji, które mogą być efektem zastosowania przez badacza skali pomiarowej Y i dotrzymywanie założenia o addytywności modelu

transformacja

Wzór

Zastosowanie

Wyjątki

Pierwiastkowa

Y'k=√Yk

Np. gdy duże niejednorodności między grupami;

Gdy rozkład jest rozkładem Poissona, np. liczba błędów popełnianych podczas zadania.

A także gdy wariancje w grupach porównawczych są proporcjonalne do średnich grupowych (zależność liniowa)

Gdy w zbiorze wyniki mniejsze od 10 to: Y'k=√(Yk+0,5)

Logarytmiczna

Y'k=log Yk

Gdy wynikami są czasy reakcji i gdy ich rozkład jest dodatnio skośny;

Gdy wariancjeproporcjonalne do kwadratów średnich grupowych.

Gdy wśród danych wyniki zerowe lub bardzo małe
Y'k=log (Yk+1)

Ilorazowa

Y'k=1/Y'k

Gdy czasy reakcji lub czas rozwiązywania problemów;

Gdy odchylenia standardoweproporcjonalne do kwadratów średnich

Gdy wyniki zerowe to: Y'k=1/(Yk+1)

Arcsin

Y'k=2arcsin√Yk

Gdy wyniki wyrażone są pod postacią proporcji.

Przekształcenie danych nie ma wpływu na wyniki testu F.

Współczynnik korelacji

Dane

φYoulla
Q - Kendalla
C- Pearsona
V- Cramera
T- Czuprowa
λ- Goodmana i Kruskala

2x2 Nominalne

Gdy więcej poziomów

τ Spearman

Porządkowa x porządkowa

ρ Kendalla

Porządkowa x ilościowa

r Pearson

Ilościowa x ilościowa

Ho: ρ=0

Testy nieparametryczne - „zbyt konserwatywne”; zwiększają popełnienia błędu drugiego rodzaju

Decyzja Ho

Ho prawdziwa

Ho fałszywa

Odrzucenie Ho

Błąd I rodzaju

Decyzja poprawna

Nieodrzucenie Ho

Decyzja poprawna

Błąd II rodzaju

Stopnie swobody

ANOVA A

Df między= p-1

Df cała = pn-1

Df wew= p(n-1)

ANOVA AB

Df a = p-1

Df b = q-1

Df ab = (p-1)(q-1)

Df między= pq-1

Df wew = pq(n-1)

Df cała= npq-1

Df między= Dfa +Dfb + df ab

ANOVA A z powtarzanym pomiarem

Df cała = pn - 1

Df między osobami = n-1

Df wew osób = n(p-1)

Df A = p-1

Df reszta = (p-1)(n-1)

Df wew = Df a +Df reszta

χ2

(r-1)(k-1)

p- liczba grup

n- liczba osób

podkreślone - wariancja błędu

Model wielokrotnej regresji

Y'= bY1X1 + a

Y'= przewidywane wyniki zmiennej zależnej Y

bY1= współczynnik regresji; tg α

a = stała regresji

Korelacje cząstkowe : a/(a+d); b(b+d)

Korelacje semicząstkowe: a; b <-- przydatne w planie Salomona

Przy kodowaniu (0-1) tworzymy zmienne instrumentalne - pomostowe - (p-1); w ostatniej grupie same „0”. Tutaj testy t testują czy różnica między średnim wynikiem dla tej grupy osób badanych, która na danym wektorze instrumentalnym ma jedynki oraz średnik wynikiem grupy referencyjnej (zakodowanej jako same ”0”) jest istotna. Dzieje się tak, ponieważ kolejne współczynniki b w równaniu regresji są po prostu tymi różnicami.

Przy kodowaniu quasi-eksperymentalnym w ostatniej grupie „-1”. W tym systemie kodowania współczynniki b interpretowane są inaczej. Są to odchylenia średnich grupowych (poza średnią tej grupy, która zakodowana została jako same „-1”) od średniej ogólnej. Tak więc testy t ukazują wartość właśnie tego efektu. Ujemny znak przy b oznacza że wynik jest niższy od średniej ogólnej

Współczynnik determinacji R2 - mówi ile % wariancji wyjaśnia model

Waga „beta”. - wystandaryzowany wpływ danego predyktora; O sile i kierunku związku informuje nas wskaźnik Beta - im większa Beta, tym większy wpływ. Właściwie powinniśmy napisać "im większa wartość bezwzględna Beta tym większy wpływ". Bo Beta oprócz informowania o sile wpływu informuje także o jego kierunku. Oczywiście ujemna wartość Beta oznacza, że związek pomiędzy zmiennymi jest ujemny.

Interpretacja przyczynowo-skutkowa związku korelacyjnego (trzy warunki)

  1. Wyraźne następstwo czasowe

  2. Wykonywanie eksperymentu z ilościową zmienną niezależną (bądź większą ich ilością)

  3. Uzasadnienie w teorii

  4. Potwierdzenie wcześniejszych badań

Dwie strategie budowy modelu wielokrotnej regresji liniowej:

Metoda krokowa - postępująca (a priori) <-- dodajemy do modelu nowe zmienne

Metoda krokowa- wsteczna (a posteriori) <-- eliminujemy najmniej istotne zmienne

Analiza regresji i analiza wariancji są modelami tożsamymi.



Wyszukiwarka