mtd5c, UW, Metodologia badań psychologicznych, prof. Sosnowski


Tytus Sosnowski

Kurs 004 (2008 / 2009)

METODOLOGIA BADAŃ PSYCHOLOGICZNYCH

Wykład obligatoryjny dla I roku studiów wieczorowych

Wydziału Psychologii UW

PLANOWANIE I ANALIZA BADAŃ EMPIRYCZNYCH

Część C:

plany eksperymentalne

PRZEGLĄD TYPOWYCH PLANÓW EKSPERYMENTALNYCH

1. Plany w grupach kompletnie zrandomizowanych.

1.1. Plany jednoczynnikowe (jedna zmienna niezależna).

1.1.1. dwa poziomy zmiennej niezależnej;

1.1.2. wiele poziomów zmiennej niezależnej.

1.2. Plany wieloczynnikowe (wiele zmiennych
niezależnych): oddziaływania addytywne i
interakcja.

2. Plany z powtarzanymi pomiarami.

3. Plany oparte na kwadracie łacińskim.

4. Plany w blokach kompletnie zrandomizowanych.

5. Analiza kowariancji.

W analizie wariancji (ANOVA) zmienne niezależne nazywane są czynnikami (stąd: plany jednoczynnikowe, dwuczynnikowe, itp.) W ANOVA mamy zawsze jedną zmienną zależną (tzw. analiza jednozmiennowa, univariate). Jeśli zmiennych zależnych jest więcej przeprowadzamy dla każdej z nich oddzielną (jednozmiennową) analizę.

  1. Plany w grupach kompletnie zrandomizowanych

1.1.1 Plany jednoczynnikowe, dwugrupowe
(dwa poziomy zmiennej niezależnej

Tabela 5c.1. Klasyczny eksperyment dwugrupowy

Grupy zrandomizowane: G1 G2

zmienna niezależna (X): X1 X2

zmienna zależna (Y): 0x01 graphic
0x01 graphic

Stosując analizę wariancji otrzymujemy test F jako oszacowanie istotności różnicy między średnimi 0x01 graphic
i 0x01 graphic
,
Przy dwóch grupach możemy też zastosować test t-studenta (dla dwu grup: F = t
2 ).

Zakładamy, że (dzięki randomizacji) grupy eksperymentalne nie różniły się między sobą przed eksperymentem. Jeśli mamy co do tego wątpliwości, możemy zastosować pomiar początkowy (por. plan Solomona)

Jeśli nie było różnic między grupami przed eksperymentem, a pojawiły się po zastosowaniu manipulacji zmienną X, to mamy prawo wnioskować że X wpływa na Y (działanie zmiennej X jest przyczyną zmian zmiennej Y).

Tabela 5c.2. Czterogrupowy plan Solomona

Grupy

Pomiar Oddziały- Pomiar

początkowy wanie końcowy

G 1: Kontrolna

---- ---- Yk1

G 2: Kontrolna

Yp2 ---- Yk2

G 3: Eksperymentalna

---- X Yk3

G 4: Eksperymentalna

Yp4 X Yk4

Plan ten pozwala ocenić efektywność randomizacji oraz wpływ pomiaru początkowego i zmiennej głównej (X) na pomiar końcowy (Y).

Oszacowania efektu zmiennej X i pomiaru początkowego dokonujemy przez PORÓWNANIE POMIARÓW KOŃCOWYCH. Porównania między pomiarami początkowymi i końcowymi mają znaczenie pomocnicze gdyż nie gwarantują takiej kontroli zmiennych ubocznych jak porównania między grupami zrandomizowanymi.

Zachowanie badacza może być stronnicze. Aby wyeliminować ten efekt i efekt placebo, stosuje się tzw. plan eksperymentalny ślepy (single-blind), w którym osoby badane nie mają dostępu do informacji mogących wpłynąć na wynik badania (np. do informacji, która grupa jest kontrolna a która eksperymentalna), plan podwójnie ślepy (double-blind), w którym informacje takie są niedostępne dla eksperymentatora (osoby kontaktującej się z badanymi), lub nawet potrójnie ślepy (triple-blind), w którym informacje te są niedostępne dla osoby analizującej wyniki.

1.1.2. Plany jednoczynnikowe wielogrupowe
(wiele poziomów zmiennej niezależnej)

Tabela 5c.3. Eksperyment jednoczynnikowy, czterogrupowy

Grupy zrandomizowane: G1 G2 G3 G4

zmienna niezależna (X): X1 X2 X3 X4

zmienna zależna (Y): 0x01 graphic
0x01 graphic
0x01 graphic
0x01 graphic

Wielokrotne porównania między średnimi

Zbiorczy test F (omnibus F test) dla jednoczynnikowego planu wielogrupowego testuje hipotezę zerową:
H0: μ1 = μ2 = μ3 = ... μn.

Jeśli uda się odrzucić tę hipotezę (F okaże się istotne) to nie wiemy, które średnie różnią się miedzy sobą a które nie. Do analizy różnic między poszczególnymi średnimi (grupami, pomiarami) służy analiza kontrastów.

Kontrasty post hoc (a posteriori)

Stosuje się je wówczas, gdy badacz nie ma jasnej hipotezy co kierunku zależności miedzy zmiennymi. Szacujemy wówczas istotność różnic między wszystkimi możliwymi parami średnich (multiple comparisons). Do porównań takich nie należy używać tradycyjnego testu t Studenta, ale specjalnych testów (kontrastów post hoc), takich np. jak:

Procedura Bonferroniego

Do wielokrotnych porównań między parami średnich (dla danych skorelowanych jak i nieskorelowanych) można zastosować test t Studenta z tzw. poprawką Bonferroniego.

Poprawka ta polega na tym, że wartość p dla tradycyjnego testu t Studenta (wyszukaną w tablicach, lub podaną przez komputerowy program statystyczny) mnożymy przez liczbę dokonywanych porównań między średnimi.

Przykład

Mamy pięć średnich i dokonujemy czterech porównań (każdą z czterech pierwszych średnich porównujemy z ostatnią). Dla różnicy między średnimi M1 i M5 otrzymaliśmy t(30) = 2,80, p < 0,01. Istotność testu t z poprawką Bonferroniego wynosi: 0,01 x 4 = 0,04 ( 0,05).

Procedura Bonferroniego jest łatwa w stosowaniu ale bardzo konserwatywna (różnice oszacowane innymi metodami jako istotne, mogą okazać się nieistotne przy zastosowaniu metody Bonferroniego), szczególnie gdy liczba porównań jest duża.

Wady wielokrotnych porównań między średnimi.

Kontrasty planowane (a priori)

(w SPSS jako: kontrasty)

Kontrasty planowane (inaczej a priori) przeznaczone są do testowania istotności tylko wybranych różnic między średnimi, tych mianowicie, o których mowa w hipotezie (hipotezach) teoretycznych.

Jeśli liczba średnich równa się k, to możemy poddać analizie nie więcej niż k-1 kontrastów planowanych. Na przykład, dla 6 średnich mamy 15 możliwych kontrastów post hoc, ale nie więcej niż 5 kontrastów planowanych.

Kontrasty planowane mają większą moc niż kontrasty
post hoc: ta sama różnica miedzy średnimi może się okazać istotna, jeśli jest analizowana jako kontrast planowany, a nieistotna - jeśli jest analizowana jako kontrast post hoc. Przy kontrastach post hoc liczba porównań jest większa, więc i prawdopodobieństwo losowego pojawienia się dużej różnicy miedzy średnimi jest większe. Testy post hoc zawierają „poprawkę” na taki efekt.

w SPSS można wybrać z menu gotowe (już zdefiniowane) kontrasty planowane lub samodzielnie je zdefiniować używając odpowiednich współczynników (por. następna strona).

Jeśli analizujemy kontrasty planowane, nie musimy liczyć ogólnego testu F.

Przykłady kontrastów

Po lewej stronie podano przykładowe hipotezy dotyczące różnic miedzy grupami (A, B, C, itd.), po prawej - współczynniki kontrastów zdefiniowanych tak aby sprawdzić te hipotezy. Suma współczynników dla każdego kontrastu musi równać się zero.

1) Współczynniki dla kontrastów prostych (każdą grupę porównujemy z grupą odniesienia; tu - z grupą D):

A > D ψ1: 1, 0, 0, -1; suma = 0

B > D ψ2: 0, 1, 0, -1; suma = 0

C > D ψ3: 0, 0, 1, -1; suma = 0

2) Współczynniki dla kontrastów zdefiniowanych
po lewej stronie:

A = B ψ1: 1, -1, 0, 0; suma = 0

C = D ψ2: 0, 0, 1, -1; suma = 0

(A+B) > (C+D) ψ3: 1, 1, -1, -1; suma = 0

3) Współczynniki dla kontrastów zdefiniowanych
po lewej stronie:

A > B,C ψ1: 2, -1, -1; suma = 0

B = C ψ2: 0, 1, -1; suma = 0

Wśród kontrastów planowanych wyróżnia się tzw. kontrasty ortogonalne. Dla kontrastów ortogonalnych (i tylko dla nich) zachodzi równość:

SSψ1 + SSψ2 + ... SSψn = SSczynnik

Dwa kontrasty są ortogonalne jeśli suma iloczynów ich współczynników (suma iloczynów współczynników przypisanych tym samym grupom) równa się zero, np.:

ψ1: 2, -1, -1; suma = 0

ψ2: 0, 1, -1; suma = 0

Suma iloczynów (0) + (-1) + (1) = 0

Jeśli liczba kontrastów > 2, to suma iloczynów ich współczynników musi równać się zero dla każdej pary kontrastów.

Zauważ, że kontrasty proste, podane wyżej, nie są ortogonalne.

Analiza trendów (wielomianowych)

(w SPSS jako: kontrasty > wielomianowe)

Trendy wielomianowe są szczególnym przypadkiem kontrastów ortogonalnych. Analiza trendów ma na celu oszacowanie, czy zależność między zmiennymi (niezależną i zależną) da się przybliżyć za pomocą wielomianu n-tego stopnia, a graficznie - przedstawić jako linia prosta (trend liniowy) lub jakaś linia krzywa (trend krzywoliniowy).

Analiza trendów wymaga aby zmienna niezależna była ciągła, mierzona na skali interwałowej, a jej kolejne, dyskretne wartości (zastosowane w badaniu) były rozłożone w równych odstępach. Do analizy trendów można stosować zarówno ANOVA-ę jak i analizę regresji wielokrotnej.

Rycina 1a. Przykładowe dane

0x01 graphic

Rycina 1b. Trend liniowy

0x01 graphic

Rycina 2a. Przykładowe dane

0x01 graphic

Rycina 2b. Trend kwadratowy (2-go stopnia)

0x01 graphic

Ocena wielkości (siły) efektu

(effect size)

Czym innym jest pytanie o to, czy różnica między średnimi w ogóle istnieje (istotność różnicy) a czym innym pytanie o to, ja duża jest ta różnica (wielkość efektu). Na przykład, dysponując precyzyjną wagę laboratoryjną możemy wykazać że waga dwóch przedmiotów różni się o 10 mg, a dysponując tylko wagą towarową możemy nie być w stanie wykazać, że waga dwóch ciężarówek różni się o 10 kg.

Istotność testu statystycznego zależy od wielkości próby. Nawet niewielka różnica między średnimi będzie istotna jeśli próba będzie bardzo duża, a duża różnica między średnimi może okazać się nieistotna gdy próba będzie bardzo mała. Istotność różnicy nie wskazuje więc, czy różnica ta jest mała czy duża. Ogólnie: istotność statystyczna efektu nie wskazuje czy jest on silny czy słaby. Dziś coraz częściej wymaga się aby podawać nie tylko istotność efektu ale i jego wielkość.

W analizie regresji miarą siły efektu zm. niezależnej (lub zmiennych niezależnych w regresji wielokrotnej) jest współczynnik determinacji, tzn. kwadrat współczynnika korelacji: r2 lub R2 . Jeśli np. R2 = 0,40 to znaczy to, że 40% sumy kwadratów zmiennej zależnej można przewidzieć na podstawie znajomości zmiennych niezależnych

W ANOVA można stosować różne miary siły wpływu czynnika eksperymentalnego. Jedną z najlepszych jest współczynnik ω2 („omega kwadrat”). Na przykład, w eksperymencie jednoczynnikowym, siłę wpływu czynnika A można policzyć wg wzoru::

0x01 graphic

Wzory na ω2 dla innych planów eksperymentalnych podaje Brzeziński („Badania eksperymentalne w psychologii i pedagogice”, Warszawa: Scholar, 2000).

W menu programu SPSS nie ma współczynnika ω2, jest natomiast współczynnik η2 (eta kwadrat), który interpretuje się podobnie jak ω2, tzn. jako procent zmienności (sumy kwadratów) zmiennej zależnej, wywołanej wpływem czynnika eksperymentalnego. Jeśli np. w eksperymencie
η
2 = 0,20 dla czynnika A, to znaczy to, że 20% zmienności zmiennej zależnej wywołana została działaniem czynnika A.

Najprostsza wersja współczynnika η2 ma postać:

0x01 graphic

Inna wersja wzoru (dostępna w SPSS) ma postać:

0x01 graphic

(w wypadku eksperymentu jednoczynnikowego oba wzory dają ten sam wynik).

Współczynnik η2 (w wersji dostępnej w SPSS) można stosować do porównywania efektu tej samej zmiennej w różnych badaniach. Jeśli natomiast oceniamy efekty różnych czynników w tym samym eksperymencie to może się okazać, że suma wszystkich η2 (tzn. oszacowanych dla wszystkich czynników eksperymentalnych) będzie większa od 1.

Przykład:

CUD - efekt Poffenbergera (1912)

(por. Wolski 2005)

Ruch prawej ręki kontroluje lewa półkula mózgu, ruch lewej ręki - prawa półkula. Czas reakcji motorycznej jest krótszy jeśli bodziec wzrokowy eksponowany jest do tej samej półkuli, która kontroluje ruch reagującej ręki niż wtedy, gdy jest kierowany do półkuli przeciwnej (bodziec eksponuje się w taki sposób aby trafiał tylko do jednej, wybranej połowy pola widzenia). Średnia różnica między czasem prostej reakcji skrzyżowanej i nieskrzyżowanej (crossed-uncrossed difference - CUD) miała wynosić wg Poffenbergera 4 milisekundy, dziś szacuje się ją na 3 ms.

CUD jest efektem bardzo słabym. Aby wykazać jego istotność statystyczną potrzeba wielkiej liczby (kilkuset ) prób. Wolski w swoich badaniach (eksperyment 2001, 2003) stosował 6 sesji po 240 prób (ekspozycji bodźców) w każdej sesji, czyli: 6 x 240 = 1440 prób dla każdej z około 40 osób badanych.

1.2. Plany wieloczynnikowe w grupach kompletnie zrandomizowanych

Tabela 5c.4. Schemat eksperymentu: AxB (2 x 2)

B1

B2

A1

A1B1

A1B2

A2

A2B2

A2B2

SSc = SSmg + SSwg

SSmg = SSA + SSB + SSAxB

Dzieląc sumy kwadratów przez stopnie swobody otrzymamy następujące oszacowania wariancji:

MSmg (MSA; MSB; MSAxB) i MSwg

Dzieląc MS dla efektów przez MSwg trzymamy odpowiednie testy F:

- dla różnic między grupami: F = MSmg / MSwg

- dla czynnika A: F = MSA / MSwg

- dla czynnika B: F = MSB / MSwg

- dla interakcji A x B: F = MSAxB / MSwg

ODDZIAŁYWANIA ADDYTYWNE i INTERAKCJA:

EFEKTY GŁÓWNE I EFEKTY PROSTE

Przykład planu eksperymentalnego A x B (2 x 3)

1) Brak interakcji 2) Interakcja

B1

B2

B3

Mw

A1

20

30

40

30

A2

10

20

30

20

Mk

15

25

35

25

B1

B2

B3

Mw

A1

10

30

50

30

A2

10

20

30

20

Mk

10

25

40

25

0x08 graphic
0x08 graphic

Efekt główny i efekt prosty mogą być różne definiowane, zależnie od metody analizy. Najprościej można je zdefiniować jako różnice między dwiema średnimi.

Efekt GŁÓWNY (main effect) danej zmiennej to różnica między jej wartościami brzegowymi w tabeli (zacienionymi).

Ogólnie - jest to efekt danej zmiennej uśredniony po wszystkich poziomach drugiej zmiennej (np. efekt zmiennej

A uśredniony po wszystkich poziomach zmiennej B).

Efekt PROSTY (simple effect) danej zmiennej to różnica między jej wartościami w polach tabeli (niezacienionymi).
Ogólnie - jest to efekt jednej zmiennej zachodzący dla wybranego poziomu drugiej zmiennej (np. efekt zmiennej A zachodzący dla B1, B2, itd.). Efekt prosty nazywany jest też efektem warunkowym (A/B1, A/B2, A/B3 lub B/A1, B/A2).

Jeśli wszystkie efekty proste są sobie równe (a tym samym są równe efektowi głównemu) to nie ma interakcji (linie łączące średnie są wtedy równoległe). Przykładowo, w Tab. 1 efekty proste zmiennej A są sobie równe: α1 = α2 = α3 (= α.).

Liczbowo wynosi to: (20 - 10) = (30 - 20) = (40 - 30)

W Tabeli. 2 efekty proste nie są równe: α1α2α3, (a linie łączące średnie nie są równoległe), co łatwo sprawdzić.

Czynniki eksperymentalne pozostają w INTERAKCJI jeśli efekt jednego czynnika na zmienną zależną zależy od poziomu innego czynnika. Nie analizujemy wtedy efektów głównych, tylko efekty PROSTE.

Jeśli wpływ jednego czynnika nie zależy od poziomu drugiego czynnika, to nie zachodzi interakcja. Analizujemy wówczas tylko efekty GLÓWNE.

Przy braku interakcji łączny efekt obu zmiennych jest sumą ich efektów głównych (efekty te są ADDYTYWNE):

SSmz = SSA + SSB

Jeśli zachodzi interakcja, w równaniu pojawia się dodatkowy czynnik:

SSmz = SSA + SSB + SSAxB

Jeśli nie ma interakcji, wyniki eksperymentu
n-czynnikowego są równoważne wynikom n eksperymentów jednoczynnikowych. Jeśli zachodzi interakcja, konieczny jest eksperyment wieloczynnikowy.

ANALIZA WARIANCJI 2 X 3

(przykład liczbowy SPSS)

anova Z by A (1,3) B (1,2) / statistics=3.

* * * C E L L M E A N S * * *

B 1 2

A 1 6.00 6.00

2 6.00 10.00

3 6.00 14.00

* * * A N A L Y S I S O F V A R I A N C E * * *

Sum of Mean Signif.

Source of Variation Squares DF Square F of F

Main Effects 80.000 3 26.667 10.000 .009

A 32.000 2 16.000 6.000 .037

B 48.000 1 48.000 18.000 .005

2-way Interactions 32.000 2 16.000 6.000 .037

A x B 32.000 2 16.000 6.000 .037

Explained 112.000 5 22.400 8.400 .011

Residual 16.000 6 2.667

Total 128.000 11 11.636

---------------------------------------------------------------------------

Graficzna prezentacja efektów głównych i interakcji

Rycina 3a. Efekty główne czynnika A (trudność zadania)
i czynnika B (nagroda)

0x01 graphic

Rycina 3b. Efekty główne czynnika A (trudność zadania)
0x01 graphic

Rycina 3c. Efekty główne czynnika B (nagroda)

0x01 graphic

Rycina 4a. Interakcja czynników A i B (ilustracja danych
z wydruku SPSS)

0x01 graphic

Rycina 4b. Interakcja czynników A i B

0x01 graphic

Rycina 4c. Interakcja czynników A i B

0x01 graphic

Interakcja zmiennej kategorialnej i ciągłej

Przykład: wpływ poziomu reaktywności (X1) i sytuacji stresowej (X2) na wielkość reakcji na stres (Y).

Miarą wpływu reaktywności (zmienna ciągła) jest nachylenie linii regresji; miarą wpływu sytuacji stresowej (zmienna kategorialna) jest różnica między liniami regresji dla obu grup.

0x01 graphic

Rysunek 1a. Brak interakcji.

0x01 graphic

Rysunek 1b. Interakcja

Interakcja zmiennych ciągłych

Przykład: Wpływ dwóch mierzonych zmiennych niezależnych (plan ex-post facto): inteligencji (V1)
i poziomu motywacji (V2) na poziom wykonania zadań umysłowych (V3).

0x01 graphic

Brak interakcji: Wpływ jednej zmiennej niezależnej nie zależy od poziomu drugiej zmiennej. Inaczej - nachylenie linii regresji V3 względem V1 jest takie same dla wszystkich wartości V2, a nachylenie regresji V3 względem V2 jest takie same dla wszystkich wartości V1.

0x01 graphic

Interakcja: Wpływ jednej zmiennej niezależnej zależy od poziomu drugiej zmiennej. Inaczej - nachylenie linii regresji V3 względem V1 jest różne dla różnych wartości X2 lub nachylenie regresji V3 względem V2 jest różne dla różnych wszystkich wartości V1.

2. Plany z powtarzanymi pomiarami

Plan w grupach zrandomizowanych - na każdej osobie dokonujemy JEDNEGO pomiaru zmiennej zależnej.

Plan z powtarzanymi pomiarami - na każdej osobie dokonujemy KILKU (co najmniej dwóch) pomiarów zmiennej zależnej.

Tabela 5c.5a. Plan jednoczynnikowy w grupach kompletnie
zrandomizowanych

Zm. Niezależna (A): A1 A2 A3

Grupy: 0x01 graphic
gr 1 0x01 graphic
gr 2 0x01 graphic
gr 3

Tabela 5c.5b. Plan jednogrupowy z powtarzanymi
pomiarami.

Zm. Niezależna (A): A1 A2 A3

Pomiary (ta sama grupa): 0x01 graphic
pom 1 0x01 graphic
pom 2 0x01 graphic
pom 3

Tabela 5c.6. Plan jednoczynnikowy, dwugrupowy (grupy
zrandomizowane) z powtarzanymi pomiarami.

Pomiar zmiennej zależnej Y


Y1


Y2


Y3

Grupa 1 (X1)

Y11

Y12

Y13

Grupa 2 (X2)

Y21

Y22

Y23

Np. Sprawdzamy jak długo trwają efekty leku (X1)
w porównaniu do placebo (X2). Efekt działania leku mierzymy trzykrotnie (Y1, Y2, Y3), np. co godzinę.

Oszacowania efektów manipulacji dokonujemy przez PORÓWNANIE MIĘDZY GRUPAMI.

Stosowanie powtarzanych pomiarów NIE JEST MANIPULACJĄ EKSPERYMENTALNĄ !!!

Porównania między pomiarami nie zapewniają takiej kontroli zmiennych ubocznych jak porównania między grupami zrandomizowanymi.

Dlatego wnioski oparte na podstawie porównań między pomiarami są mniej wiarygodne niż wnioski oparte na porównaniach międzygrupowych.

Zalety i wady planów z powtarzanymi pomiarami

Zalety

Wady

Jednym z problemów jest kontrola kolejności poziomów zmiennej niezależnej. Jeśli poziomy zmiennej niezależnej eksponowane są w stałej kolejności trzeba się liczyć z:

* wpływem czynników działających w czasie trwania pomiaru (np. habituacja, zmęczenie)

* wpływem wcześniejszych pomiarów na pomiary późniejsze
(np. uczenie się, zmiana nastawienia do badania).

* niektóre zmienne niezależne mogą wykluczać (lub
ograniczać) stosowanie powtarzanych pomiarów
(por. klasyczne eksperymenty z manipulacją
wiarygodnością informatora).

3. Plany oparte na kwadracie łacińskim

Załóżmy, że w eksperymencie z powtarzanymi pomiarami zmienną niezależną jest rodzaj zadania. Stosujemy trzy rodzaje zadań (A, B, C) i chcemy wykluczyć wpływ kolejności rozwiązywania zadań na zmienną zależną.

Tabela 5c.7. Plan oparty na permutacji elementów

Osoba badana

(grupa osób) próba 1 próba 2 próba 3

1 A B C

2 A C B

3 B A C

4 B C A

4 C A B

6 C B A

Przy sześciu osobach badanych, każda z nich wykonuje zadania w innej kolejności. Możemy też przebadać większą liczbę osób (tzn. wielokrotność liczby 6).

Wadą schematu z tabeli 5c-7 jest to, że liczba permutacji rośnie bardzo szybko z liczbą elementów permutowanych.

n liczba permutacji (n!)

3 6

5 120

10 3 628 800

KWADRAT ŁACIŃSKI*

Kwadrat łaciński pozwala planować badania z dużą liczbą poziomów zmiennej niezależnej a jednocześnie małą liczbą badanych osób.

Tabela 5c.8. Plan trójczynnikowy (osoby x próby x zadania) oparty na kwadracie łacińskim 4 x 4. Kontrolujemy kolejność czterech zadań (A, B, C, D) badając tylko cztery osoby (lub wielokrotność tej liczby).

Osoba badana

(grupa osób)

próba 1

próba 2

próba 3

próba 4

1

A

B

C

D

2

B

C

D

A

3

C

D

A

B

4

D

A

B

C

* Nazwa "łaciński" pochodzi liter alfabetu łacińskiego
którymi oznacza się pola kwadratu.

Jak widać:

W kwadrat łaciński można wbudować dodatkową, czwartą zmienną (a nawet więcej zmiennych). Przy czterech zmiennych otrzymujemy tzw. kwadrat "grecko-łaciński"
(od liter alfabetu greckiego i łacińskiego).

Tabela 5c.9. Kwadrat grecko-łaciński,

czteroczynnikowy, „4 x 4”

K1

K2

K3

K4

W1

A α

B β

C γ

D δ

W2

B γ

A δ

D α

C β

W3

C δ

D γ

A β

B α

W4

D β

C α

B δ

A γ

Kwadraty łacińskie, o wymiarach od „3 x 3” do „12 x 12” można znaleźć w pracy:

Ryszard Zieliński (1972). Tablice statystyczne (tablica 57
i 58). Warszawa: PWN.

4. Plany w blokach kompletnie zrandomizowanych.

Randomizacja zapewnia kontrolę zmiennych ubocznych w tym sensie, że zmienne te działają we wszystkich grupach tak samo (rozkład zmiennej zależnej powinien być taki sam we wszystkich grupach).

Randomizacja nie ma jednak wpływu na WIELKOŚĆ wariancji w zbiorach (wariancji niekontrolowanej). W przypadku porównań międzygrupowych ważnym źródłem wariancji wewnątrz-grupowej są różnice indywidualne.

Plan w BLOKACH kompletnie ZRANDOMIZOWANYCH polega na tym, że wybraną zmienną indywidualną czynimy zmienną eksperymentalną (kontrolowalną). Tym samym minimalizujemy wielkość wariancji niekontrolowanej (wewnątrzgrupowej).

Tabela 5c.-10. Plan w blokach kompletnie zrandomizowanych.

Zmienna blokowa (I.I.) Zmienna manipulowalna

Bloki grupa 1 grupa 2

blok 1 ( 78 < II < 82) 0x01 graphic
11 0x01 graphic
21

blok 2 ( 88 < II < 92) 0x01 graphic
12 0x01 graphic
22

blok 3 ( 98 < II < 102) 0x01 graphic
13 0x01 graphic
23

blok 4 (108 < II < 112) 0x01 graphic
14 0x01 graphic
24

blok 5 (118 < II < 122) 0x01 graphic
15 0x01 graphic
25

Y - wynik pomiaru zmiennej zależnejPlan w blokach kompletnie zrandomizowanych:

Sposób doboru osób do grup eksperymentalnych

Schemat blokowy pozwala:

5. Analiza kowariancji.

Oceniając wpływ zmiennej niezależnej (X) na zmienną zależną (Y) stwierdzamy, iż Y jest wysoko skorelowana z jakąś zmienną uboczną (C). Chcielibyśmy wyeliminować wpływ zmiennej ubocznej, gdyż utrudnia ona precyzyjne oszacowanie wpływu X na Y (zwiększa wariancję błędu).

Przykład fikcyjny (poglądowy).

Różne pociągi pokonują różne trasy (A1, A2, ... An) w różnym czasie (t1, t2 ..., tn). Jest to spowodowane tym, że trasy mają różną długość oraz tym, że pociągi jeżdżą z różną szybkością. Ponieważ istnieje związek miedzy szybkością pociągu i czasem przejazdu danej trasy, możemy łatwo obliczyć w jakim czasie pociągi pokonywałyby różne trasy gdyby wszystkie jeździły z jednakową szybkością (czyli: gdyby wyeliminować wpływ szybkości pociągów)

Przykład psychologiczny.

Badamy wpływ metody nauczania (X) na poziom znajomości języka obcego uczniów (Y). Stwierdzamy jednak, że poziom zmiennej Y zależy od poziomu inteligencji badanych (C). Chcemy wyeliminować wpływ różnic indywidualnych w poziomie inteligencji aby bardziej precyzyjnie oszacować wpływ metody nauczania. Nie mamy możliwości takiego doboru uczniów, aby wszyscy mieli jednakową inteligencję (badamy jakąś rzeczywistą szkołę), możemy jednak wyeliminować wpływ inteligencji drogą analizy statystycznej.

Analiza kowariancji (analysis of covariance - ANCOVA) pozwala, drogą czysto STATYSTYCZNĄ, wyeliminować wpływ zmiennej ubocznej na zmienną zależną. Polega to (mówiąc w uproszczeniu) na przekształceniu wyników do takiej postaci, jak gdy wszyscy badani mieli identyczny poziom zmiennej ubocznej (np. identyczny poziom inteligencji w przykładzie powyżej). Eliminowana w taki sposób zmienna uboczna nazywa się: zmienną towarzyszącą, współzmienną lub kowariantem.

W szczególności, ANOCOVA pozwala:

Efektywność ANCOVA-y zależy od siły związku (korelacji) między zmienną zależną i kowariantem. Jeśli korelacja ta jest bardzo niska, wynik analizy kowariancji nie będzie się wiele różnił od wyniku zwykłej analizy wariancji.

W ANCOVA wymagane jest aby:

Analiza kowariancji: korygowanie danych surowych

0x08 graphic
0x08 graphic
0x08 graphic
0x01 graphic

Ogólne równanie regresji (dla jednego predyktora - X):

Y = a + bX

a - stała (constant, intercept ) równania regresji

b - współczynnik nachylenia linii regresji

Różnica między wynikiem otrzymanym Yi a wynikiem oczekiwanym Yi' dla osoby i :

Obliczanie średnich skorygowanych (adjusted mean)

0x01 graphic


gdzie:

0x01 graphic
- średnia skorygowana zmiennej Y w grupie i

0x01 graphic
- średnia nieskorygowana zmiennej Y w grupie i

0x01 graphic
- średnia zmiennej X dla grupy i

0x01 graphic
- średnia całkowita zmiennej X (dla całej próby)

b - współczynnikiem regresji dla kowariantu
(zmiennej towarzyszącej).

Zakładamy tu, że współczynnik b (nachylenie linii regresji) jest jednakowy we wszystkich grupach a zatem wszystkie wyniki możemy korygować w oparciu o ten sam współczynnik b.

ANOVA -- przykład liczbowy (SPSS)

Ob grupa z1 z2

01 1 3 4

02 1 4 5

03 1 5 6

04 1 7 7

05 2 5 4

06 2 6 5

07 2 8 8

08 2 9 9

anova z1 by grupa(1,2)/statistics=3.

* * * A N A L Y S I S O F V A R I A N C E * * *

* * * C E L L M E A N S * * *

TOTAL POPULATION: 5.88 (8)

GRUPA 1: 4.75 (4)

GRUPA 2: 7.00 (4)

Sum of Mean Signif

Source of Variation Squares DF Square F of F

Main Effects 10.125 1 10.125 3.240 .122

GRUPA 10.125 1 10.125 3.240 .122

Explained 10.125 1 10.125 3.240 .122

Residual 18.750 6 3.125

Total 28.875 7 4.125

ANCOVA - przykład liczbowy (SPSS)

compute c1 = z2.

manova z1 by grupa(1,2) with c1

/omeans /pmeans.

* * ANALYSIS OF VARIANCE -- DESIGN 1 * *

Source of Variation SS DF MS F Sign. of F

WITHIN CELLS 1.47 5 .29

REGRESSION 17.28 1 17.28 58.95 .001

CONSTANT .18 1 .18 .60 .473

GRUPA 3.41 1 3.41 11.63 .019

Regression analysis for WITHIN CELLS error term

Dependent variable .. Z1

COVARIATE B Beta Std. Err. t-Value Sig. of t

C1 .88636 .96011 .115 7.678 .001

Adjusted and Estimated Means Variable .. Z1

CELL Obs. Mean Adj. Mean Est. Mean Raw Resid. Std. Resid.

1 4.750 5.193 4.750 .000 .000

2 7.000 6.557 7.000 .000 .000

mtd5C (2008 / 2009) - 16

0x01 graphic

0x01 graphic



Wyszukiwarka

Podobne podstrony:
Mtd5e, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd2, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd5f, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd5b, UW, Metodologia badań psychologicznych, prof. Sosnowski
Pytania zebrane, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd3, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd1, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd5d, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd4, UW, Metodologia badań psychologicznych, prof. Sosnowski
Mtd1, Studia, Psychologia UW - materiały do zajęć, UWPsych - Metodologia badań psychologicznych
METO skrypt skryptu, Metodologia badań psychologicznych A.Tarnowski
falewska1, Metodologia badań psychologicznych - ćwiczenia - Turlejski
Metodologia badań psychologicznych i statystyka dr I. Sowińska Gługiewicz, Metodologia badań psychol
PROJEKT BADAWCZY, Metodologia badań psychologicznych - ćwiczenia - Turlejski
Statystyki nieparametryczne, PSYCHOLOGIA, I ROK, semestr II, podstawy metodologii badań psychologicz
Centralne Twierdzenie Graniczne, PSYCHOLOGIA, I ROK, semestr II, podstawy metodologii badań psycholo

więcej podobnych podstron