Osiem etapów procesu badawczego w psychologii :
Sformułowanie problemu [ Od jakiej zmiennej niezależnej Xj ( zmiennych X1, …,Xn), i jak zależy dana zmienna zależna Y?] i hipotezy badawczej [hipoteza oznajmia jakie zmienne wpływają na zmienną Y oraz jaka jest pomiędzy nimi zależność]
Określenie obrazu zmiennych istotnych dla zmiennej zależnej Y - O(PY) oraz struktury przestrzeni zmiennej Y - O(SY)
Operacjonalizacja zmiennych (przekłada z języka teoretycznego na język obserwacyjny)
Wybór modelu badawczego - eksperymentalny( zakłada manipulację zmiennymi) vs korelacyjny (nie zakłada manipulacji zmiennymi)
Dobór próby z populacji (aby próba była w pełni reprezentatywna musi być pobrana z populacji w sposób losowy, w innym przypadku RB będzie obciążony większym lub mniejszym błędem))
Wybór modelu statystycznego
test t lub ANOVA lub MANOVA - dla m. eksperymentalnego
Wielokrotna regresja (MR) - dla m. korelacyjnego
Akceptacja lub odrzucenie hipotezy
Ocena, interpretacja i generalizacja rezultatu badawczego
14. Kontrola zmiennych niezależnych-ubocznych w planach „zero-jedynkowych”.
Z klasycznym wariantem eksperymentu związane są dwie metody kontrolowania zmiennych niezależnych, które badacz zaliczył jako zmienne niezależne-uboczne i niezależne-zakłócające:
Ustalenie stałej wartości (lub stałego jej podzakresu) kontrolowanej w ten sposób zmiennej w obu grupach porównawczych - eksperymentalnej i kontrolnej (innym wariantem jest zapewnienie aby w obu grupach była ta sama średnia i odchylenia standardowe - inaczej mówiąc badacz powinien zadbać aby wariancje były homogeniczne).
Ocena:
Ma poważną wadę, taki sposób kontrolowania ma wpływ na zakres wniosków, które badacz jest uprawniony uogólniać z poziomu próby na poziom populacji. Jeżeli blokujemy osoby badane pod względem zmiennych niezależnych-ubocznych, to generalizować możemy jedynie na osoby z populacji mieszczących się w danym podzakresie. Np.: Blokujemy zmienną inteligencja na podzakresie <90-120>, łatwo zauważyć, że ten podzakres nie odnosi się do całej populacji.
Metoda doboru parami. Do drugiej grupy dobieramy osobę, która ma podobne parametry zmiennych istotnych dla Y. Idealnymi badanymi w tym przypadku byłyby bliźnięta monozygotyczne. Zaleca się aby minimalizować wariancję wewnątrz par, a maksymalizować wariancję między parami. Po utworzeniu danej liczby par badacz przystępuje do losowego rozdzielania osób z poszczególnych par na dwie grupy - eksperymentalną i kontrolną. Badacz może również tworzyć pary poprzez badanie tej samej osoby raz w warunkach kontrolnych, a raz w warunkach eksperymentalnych. Wtedy każda osoba tworzy parę z samym sobą. Ograniczeniem jest wpływ pierwszego pomiaru na zachowanie się osoby badanej.
Ocena:
Nie jest łatwe skonstruować pary dla zmiennych psychologicznych. Bardzo trudno skompletować osoby z takim samym IQ, odpornością na stres i takiej samej stabilności samooceny. Ominięciem tej trudności jest wyżej wspomniane podwójne badanie tej samej osoby. Nie nadaje się w przypadkach gdy wpływ na wyniki może mieć efekt wyuczenia czy efekt transferu.
15. Analiza wariancji zmiennej zależnej - wariancja międzygrupowa i wariancja wewnątrzgrupowa.
Model analizy wariancji (ANOVA) został zaprojektowany przez Fishera. W modelu możemy uwzględnić więcej niż dwie zmienne. Możemy więc badać wpływ dwóch (lub więcej) X na jednego (lub więcej) Y. Co więcej możemy zbadać wpływ interakcji dwóch zmiennych na zmienność zmiennej zależnej Y. Model Anova umożliwia nam również badanie zależności krzywoliniowych.
W modelu tym bada mierzy się zmienność chcianą (międzygrupową), która pokazuje nam zróżnicowanie osób w sposób odmiennie traktowany (kawa, nie kawa); oraz zmienność niechcianą (wewnątrzgrupową), która mówi nam o innych zmiennych wpływających na zmienność Y. Daje nam to zróżnicowanie na dwa rodzaje wariancji:
Wariancja międzygrupowa (MG) (wariancja wyjaśniana, kontrolowana) odnosi się do Xg, badacz wie co powoduje tą zmienność. Wariancje międzygrupowa będzie wysoka, wtedy gdy Xg naprawdę jest istotna dla Y. Badacz dodatkowo musi udowodnić, że wariancja MG jest spowodowana przez Xg, a nie przez inne czynniki (s). Dla wysokości MG nie ma znaczenia, czy wpływa na nią Xg czy s. Uniknięcie wpływu s na osoby badane umożliwia randomizacja.
var MG
max Xg v elim. s
Wariancja wewnątrzgrupowa, (WG) (wariancja resztowa, błędu) mówi nam o zmiennych, których badacz nie uwzględnił w O(PY). Traktujemy ją jako miarę precyzji eksperymentu. Idealną grupą jest grupa w której varWG=0. Wtedy całą obserwowaną zmienność Y można tłumaczyć wpływem na nią X, kontrolowanego przez badacza, będącego źródłem var MG. Jeżeli jest ona wysoka, to oznacza, iż badacz nie może wytłumaczyć zmienności Y, ponieważ powodowała ją zmienność między osobami. Niskie WG uzyskuje się poprzez tworzenie grup homogenicznych = jednorodnych pod różnymi względami.
var WG
R! min.
|
var MG |
|
tα |
ξ = |
|
ξ ≥ |
|
|
var WG |
|
Fα |
ξ jest wysokie, gdy rośnie licznik a mianownik maleje. Co oznacza, że badacz powinien dążyć do maksymalizacji var MG, a minimalizacji var WG.
Warto się więc zastanowić od czego zależą poszczególne wariancje:
Obliczanie:
Wariancja międzygrupowa - jest średnią arytmetyczną odchyleń poszczególnych średnich grupowych (Y1. i Y2.) od średniej całkowitej (Y..).
|
|
Obliczamy średnie dla każdej z grup i odejmujemy je od średniej całkowitej. Wyniki podnosimy do kwadratu i dodajemy do siebie, dzieląc przez „n” |
|
|
|
|
2 |
|
Wariancja wewnątrzgrupowa - jest średnią wariancji poszczególnych grup
|
s21 + s22 |
|
|
|
2 |
Wariancja całkowita - jest średnią arytmetyczną odchyleń wszystkich poszczególnych wyników (Y..) od średniej całkowitej (Y..), lub jest sumą wariancji międzygrupowej i wariancji wewnątrzgrupowej.
|
|
|
s2C = |
|
s2C = s2M + s2W |
|
n |
|
Minimalizowanie wariancji WG jest niemożliwe w eksperymentach wszystko albo nic. Taką możliwość daje jednak analiza wariancji (ANOVA). Wariancję międzygrupową można rozbić na dowolną liczbę wariancji składowych, których źródłami są hipotetyczne zmienne niezależne istotne dla Y. Ten sposób postępowania powoduje zmniejszenie WG na rzecz zwiększenia WM. Możemy obliczyć również jaki procent zmienności Y wyjaśnia nasza zmienna X. Przykładowo, jeżeli MG jest równa 75% a WG wynosi 25%, to dokładając
|
s2M |
kolejne zmienne X powodujemy, że wyjaśniamy coraz większą część zmienności Y, minimalizując zarazem WG. |
s2M = |
|
|
|
s2C |
|
16. Znaczenie randomizacji.
Nierównomierne rozłożenie wpływów w obu grupach może doprowadzić do tego, że postępowanie eksperymentalne trafi na bardziej podatny grunt w grupie eksperymentalnej niż w grupie kontrolnej, a to może zaowocować „nachyleniem” rozkładu zmiennej zależnej Y (przeszacowanie lub niedoszacowanie wartości średniej zmiennej zależnej). Dlatego też należy przydzielać osoby badane do grup w sposób losowy. Powoduje to, iż wszelkie zmienne, na które badacz nie ma wpływu będą rozdzielone losowo pomiędzy różne sytuacje. Zmniejsza to prawdopodobieństwo wpływu tych czynników na wyniki naszego eksperymentu.
Nierównomierne rozłożenie wpływów w modelu eksperymentalnym do grupy eksperymentalnej i kontrolnej może spowodować zafałszowanie wyników. Nietrudno sobie wyobrazić przypadek, w którym osoby o większej podatności na badaną terapię trafiają do grupy kontrolnej i wyniki są "zbyt dobre". Zapobiec temu ma zasada randomizacji, czyli w pełni losowy przydział do grup.
17. Rola instrukcji maskujących cel eksperymentu („decepcja”)
Badacze starają się ukryć przed osobami badanymi prawdziwy cel eksperymentu. Psychologowie posługują się w tym celu tzw. instrukcjami maskującymi (deception - oszukiwanie, podstęp, szachrajstwo). Używają do tego np. historyjek fasadowych, które mają na celu zwiększenie realizmu psychologicznego, poprzez stworzenie sytuacji, w której badany może zachowywać się w sposób naturalny, gdyż nie wie, jaki właściwie aspekt jego zachowania jest przedmiotem badania, nie jest zahamowany w swych reakcjach. Niestety, oprócz ograniczeń etycznych, metoda ta ma ograniczenia metodologiczne. Żaden badacz nie będzie mógł znaleźć badanych „nieskażonych”, którzy na dodatek, powinni być tak naiwni, że uwierzą w to wszystko, co im psycholog-eksperymentator powie. Dodatkowo, zachowanie osób badanych może być modyfikowane przez lęk przed oceną. Tak więc osoby badane, nie ufają eksperymentatorowi i z reguły same chcą odkryć prawdziwy cel eksperymentu. Badany więc kieruje się własną interpretacją celu badania, w którym bierze udział, co wprowadza dodatkowe źródło zmienności zmiennej zależnej (dodatkową wariancję cząstkową Y). Warto się również powołać na artykuł 34, z Kodeksu Etyczno-Zawodowego Psychologa PTP, oraz do zasady 3 i 4 z Zasad Prowadzenia Badań z Udziałem Ludzi (szczegóły patrz pkt. 133
i 140).
Psychologowie od dawna posługują się instrukcjami maskujacymi by ukryć prawdziwy cel eksperymentu przed badanymi. Pozwala to czasem na osiągniecie zaskakujących wyników, które nie byłyby możliwe bez tego. Z pewnymi wyjątkami uznawane jest to za nieetyczne. Co więcej można też wysunąc zarzuty na tle metodologicznym. Nirealistyczne jest przyjęcie założenia, że osoba badana jest łatwowierna i postrzega sytuację badawczą tak jak to założył sobie eksperymentator. Prowadzi to zakłócającej wyniki "gry" w zgadywanie "co badacz miał na mysli".
18. Pojęcie planu eksperymentalnego i quasi-eksperymentalnego.
Zgodnie z planem eksperymentalnym psycholog:
rozdziela osoby badane do co najmniej dwóch grup porównawczych: eksperymentalnej i kontrolnej, stosując się do zasady randomizacji (czyli manipuluje, co najmniej jedną, zmienną niezależną-główną);
dokonuje pomiarów zmiennej zależnej Y (pretesty Y i posttesty Y);
kontroluje zmienne niezależne - uboczne i zakłócające.
Najczęściej badacze wybierają plany, w których zmienna niezależna-główna przyjmuje tylko dwie wartości - jedna w grupie eksperymentalnej i jedną w kontrolnej. O takich planach mówimy „zero-jedynkowe”, albo „wszystko albo nic”. Zastosowanie już trzech grup porównawczych w miejsce dwóch, pozwala na określenie kształtu zależności między zmiennymi; zależną i niezależną-główną. Jeżeli więc nie jesteśmy pewni co do zależności liniowej naszych zmiennych powinniśmy zwiększyć liczbę grup porównawczych.
19. Adekwatność planu eksperymentalnego: „zero-jedynkowego” do treści hipotezy badawczej.
Ryciny 123-125 pokazują jaki błąd może popełnić badacz, jeśli przy związku „U-kształtnym” zastosuje pomiar dwu-grupowy. Widzimy, że rzeczywisty związek „U-kształtny” jest przez badacza spostrzegany jako liniowy, lub jako brak zależności. Ryc 126. pokazuje jak będzie wyglądał obraz wyników, jeżeli dobierzemy większą liczbę grup porównawczych. Ważne jest jednak aby, wartości zmiennej X, wyróżnione przez badacza, były równomiernie rozłożone wzdłuż kontinuum wartości X.
Najczęście stosowana odmiana planu E - zerojedynkowa pozwala testowac tylko hipotezy o zależności liniowej (bo jak przy pomocy dwóch punktów określić coś innego niż prostą?). Badanie zależności o wyższym niż liniowy rzędzie wymaga zwiększenia ilości grup. Jeżeli oczywiście, jeżeli mamy silne teoretyczne podstawy, żeby twierdzić o liniowej zależności nie ma sensu zwiekszanie ilości grup.
Co więcej w przypadku dychotomizacji zmiennej ciągłej na potrzeby plany zerojedynkowego łatwo o wyciagniecie błednych wniosków (zbyt wiele zalezy obranych dwóch wartości zmiennej ciągłej). Tu warto by wstawić wykresy obrazujęce typy takich błędów
33. Założenia ANOVA: I. - VII.
Aby zastosować test F ANOVA, badacz musi spełnić podstawowe założenia:
Założenie I: Zmienna zależna Y mierzona jest na poziomie co najmniej skali interwałowej.
Założenie II: Osoby zostały losowo pobrane z populacji do próby.
Założenie III: Osoby z próby zostały losowo przypisane do p grup porównawczych odpowiadających p poziomom czynnika A (gdy jest to eksperyment jednoczynnikowy) czy do pqr… grup porównawczych odpowiadających pqr… kombinacjom poziomów czynników ABC… (jeżeli jest to eksperyment wieloczynnikowy).
Założenie IV: Ponieważ w i-tej populacji średnia ogólna (μi.) i efekt i-tego poziomu czynnika A (αi) są stałe dla wszystkich osób z tej populacji, więc jedyne, co je różni, to nie kontrolowane przez badacza zmienne uboczne i zakłócające, które określamy łącznie nazwą błędu eksperymentalnego (εik). Rozkład εik jest w i-tej populacji normalny ze średnią zero i wariancją σ2ε. [αi - to efekt eksperymentalny wywołany zmienną X. Zakładamy, że jest on stały dla całej populacji - co oznacza, iż na każdą osobę odpowiednia dawka np. kawy działa w taki sam sposób. εik - to błąd eksperymentalny, spowodowany wariancją wewnątrzgrupową - pokazuje on wpływ czynników indywidualnych na osoby badane. Musi mieć rozkład normalny, ponieważ każda osoba jest zróżnicowana indywidualnie i na jednych czynniki zakłócające wpływają bardziej a na innych mniej]
Założenie V: Dwa błędy εik i ε'ik są od siebie niezależne w p populacjach. Mówiąc inaczej, chodzi o niezależność pomiarów zmiennej zależnej Y.[Jeżeli badacz zagwarantuje, że na wariancję wewnątrzgupową nie miał wpływu podział próby na grupy porównawcze, to może zapewnić, że niezależnie od ilości badań błędy εik będą miały podobną wartość.]
Założenie VI: Występujące w liczniku i w mianowniku stosunku F oszacowania wariancji międzygrupowej i wewnątrzgrupowej są niezależne.
Założenie VII: Wariancje w p populacjach wprowadzone przez błąd eksperymentatora są jednorodne (homogeniczne): σ2εi = … = σ2εp. [ponieważ wariancja wewnątrzgrupowa = ε, to zakładając iż nasze próby były dobierane zgodnie z zasadą randomizacji - wariancja błędu eksperymentalnego powinna być taka sama w każdym niezależnym badaniu]
Spełnienie założenia IV i V jest możliwe gdy badacz respektuje zasady randomizacji:
Zasada randomizacji pierwszej - losowo pobiera próbę z populacji
Zasada randomizacji drugiej - losowo przydziela osoby z próby do p grup porównawczych.
Dodatkowo, jeżeli nie spełnimy założeń IV, V, VII - to nie możemy traktować wariancji wewnątrzgrupowej jako nie obciążonego estymatora.
Spełnienie powyższych założeń uprawniają badacza do założenia modelu liniowego wyniku Yik:
Yik = μ + αi + εik
34. Dwie transformacje wyników surowych w ANOVA: pierwiastkowa i logarytmiczna.
Transformacje wyników polegają ne na zabiegu przekształcenia z pierwotnej skali na wyniki jakiejś nowej skali. Taki zabieg poprawia wariancję (założenie VII) i normalność rozkładu - wygładza go (założenie IV).
Transformacja pierwiastkowa - polega na wyciągnięciu pierwiastka kwadratowego z każdego wyniku Y'k = √Yk. Jeżeli wyniki są mniejsze od 10, to posługujemy się nieco zmodyfikowanym wzorem: Y'k=√Yk + 0,5. Stosujemy go gdy:
rozkład Y jest rozkładem Poissona [wyraża częstość bez ustalonego maximum] (np. liczba błędów popełnianych przez badanych, lub częstość wypadków drogowych)
wariancje w grupach porównawczych są proporcjonalne do średnich grupowych - gdy między s2i i Yi zachodzi zależność liniowa.
Transformacja logarytmiczna - jest postaci Y'k=log Yk, a gdy wśród danych występują wyniki zerowe lub bardzo małe: Yk=log (Yk+1).
gdy wynikami są czasy reakcji lub subiektywne oceny i gdy ich rozkład jest wyraźnie prawo skośny.
wariancje są proporcjonalne do kwadratów średnich grupowych s2 i Y2.
Rezultaty ANOVA przeprowadzonej na wynikach poddanych transformacji interpretujemy tak, jak gdyby były to wyniki surowe; przekształcenie danych nie ma wpływu na wyniki testu F, gdyż nie wymaga on spełnienia żadnych założeń odnoszących się do natury skali pomiarowej Y.
35. Dwie transformacje wyników surowych w ANOVA: ilorazowa i arcsin.
Transformacja ilorazowa - jest postaci Y'k=1/Yk, a gdy wśród nich znajdują się wyniki zerowe, to stosujemy wzór: Y'k=1/(Yk+1).
gdy Y to czasy reakcji
odchylenia standardowe są proporcjonalne do kwadratów średnich s i Y2.
Transformacja arcsin - jest postaci Y'k=2arcsin√Yk, gdzie Y wyrażony jest pod postacią proporcji. Wyniki możemy jednak odczytać z tablicy Y'k=2arcsin√Yk. Przekształcenie arcsin polega na zastąpieniu surowego wyniku przez wartość kąta, którego sinus jest pierwiastkiem kwadratowym wyniku surowego.
wyniki wyrażone są pod postacią proporcji (poprawne odpowiedzi w teście)
Rezultaty ANOVA przeprowadzonej na wynikach poddanych transformacji interpretujemy tak, jak gdyby były to wyniki surowe; przekształcenie danych nie ma wpływu na wyniki testu F, gdyż nie wymaga on spełnienia żadnych założeń odnoszących się do natury skali pomiarowej Y.
36. Plan jednoczynnikowy ANOVA - podział SS i df + schemat.
Badacz ma do dyspozycji dwa rodzaje odchyleń:
Odchylenie średniej grupowej od średniej ogólnej (Yi. - Y..) - zróżnicowanie międzygrupowe
Odchylenie wyniku k-tej osoby z i-tej grupy od średniej grupowej (Yik - Yi.) - zróżnicowanie wewnątrzgrupowe
Odchylenie wyniku k-tej osoby z i-tej grupy od średniej całkowitej (Yik - Y..) - zróżnicowanie całkowite.
Jeżeli zsumujemy te zróżnicowania i podniesiemy je do kwadratu otrzymamy wartości liczników wzorów na wariancję. Te sumy kwadratów odchyleń zwane są w skrócie sumami kwadratów SS (sum of squares). Sumy kwadratów mają podstawową właściwość - są addytywne (dodawalne):
SScała=SSmiędzy+SSwewnątrz
ΣiΣk(Yik-Y..)2 = Σi(Yi.-Y..)2 + ΣiΣk(Yik-Yi.)2
Wyróżniamy też wzory skrócone na obliczanie SS:
(Y..)2/pn - suma wszystkich wyników podniesiona do kwadratu
ΣiΣk Y2ik - suma kwadratów wszystkich wyników
[Σi (Yi.)2]/n - średnia arytmetyczna z kwadratu sumy wyników każdej z grup
SSmiędzy = (3) - (1)
SSwewnątrz = (2) - (3)
SScała = (2) - (1)
df - liczba stopni swobody; liczba wartości, które można swobodnie zmieniać przy obliczaniu danej statystyki.
Stopnie swobody mają tą samą cechę co SS - addytywność.
dfcała=dfmiędzy+dfwewnątrz
dfwewnątrz = p(n-1) - ponieważ dla każdej grupy wynosi ona (n-1). Ilość grup - p.
dfmiędzy = p-1 - Jeżeli dla n osób df=n-1; to dla p grup df=p-1.
dfcała = pn-1 - W każdej grupie porównawczej mieliśmy df=n-1, takich grup jest p. W całej próbie złożonej z p grup, po n osób mamy: pn-1 = N-1.
pn - 1 = (p - 1 ) + p(n - 1) = p - 1 + pn - p = pn - 1
Patrząc na wykresy dochodzimy do wniosku, że addytywność SS i df pozwala nam na ustalenie iż ich wartości całościowe składają się z wartości „między” i „wewnątrz”. W idealnym eksperymencie, SScała powinna być równa SSmiędzy, oznaczałoby to bowiem, iż nie ma błędu w badaniu. Całą zmienność Y moglibyśmy wytłumaczyć postępowaniem eksperymentalnym. Niestety zawsze występuje SSwewnątrz, ale badacz stara się go zminimalizować.
37. Pojęcie efektu głównego w jednoczynnikowej ANOVA.
αi - w ANOVA nosi nazwę efektu głównego i-tego poziomu czynnika A. Efekt ten definiowany jest jako odchylenie średniej i-tej populacji związanej z i-tym poziomem czynnika A od średniej ogólnej populacji, która jest średnią ze wszystkich p średnich populacyjnych wyróżnionych za pomocą poziomów czynnika A:
Σi αi = 0; αi = μ
Średnia wartość α musi być równa 0, ponieważ wedle ZAŁOŻENIA IV, w i-tej populacji średnia ogólna (μi) i efekt i-tego poziomu czynnika A (αi) są stałe dla wszystkich osób z tej populacji. Jedyne co może różnić te osoby, to Xu lub Xz. Jest to wymuszone tym, iż wymagamy od badacza, aby wariancje w grupach były jednorodne, czyli różniły się jedynie zmiennymi niekontrolowanymi przez badacza (a i tych powinno być jak najmniej!). W populacji rozkład danych zmiennych jest normalny.
Np.: jeżeli αi = Yi. - Y.. Przyjmijmy, że średni wzrost w populacji to 175cm. Ponieważ wzrost w populacji ma rozkład normalny, to odchylenia wzrostu będące poniżej średniej muszą być równe odchyleniom osób mających wzrost większy niż średnia.
Podsumowując, badacz dąży do tego, aby w jego eksperymencie, Σαi2 ≠ 0. Oznacza to wtedy, iż oddziaływania eksperymentalne spowodowały zmienność Y.
38. . Hipoteza zerowa i hipoteza alternatywna w jednoczynnikowej i dwuczynnikowej ??? ANOVA.
Jeżeli chcemy odpowiedzieć na pytanie o istotność różnicy między badanymi grupami, dowołujemy się do testów statystycznych, odpowiadających na następującą hipotezę: czy dwie grupy pochodzą z tej samej populacji (czy dwie średnie są równe). O równościach średnich mówi nam hipoteza zerowa H0.
H0: μ1 = μ2
Jeżeli wartość statystyki testu t, obliczona dla danych zebranych przez badacza spełnia kryterium tOBL ≥ tα, wówczas możliwe jest odrzucenie H0 na rzecz hipotezy alternatywnej H1
H1: μ1 ≠ μ2
Taką hipotezę nazwiemy hipoteza bezkierunkową (dwustronną). Jeżeli badacz orientuje się w teoretycznych podstawach realizowanego przez siebie badania empirycznego, że jest w stanie dokładniej określić hipotezę alternatywną - może określić kierunek przewidywanej różnicy. Daje nam to hipotezę kierunkową (jednostronną).
H1: μ1 > μ2 - prawostronna
H1: μ1 < μ2 - lewostronna
Wychodząc ze wzoru na efekt główny poziomu czynnika A możemy uznać iż:
hipoteza zerowa:
H0: μ1 = μ2
H0: Σi α2i = 0; lub
H0: μi - μ = 0, dla wszystkich i; lub
H0: αi = 0 dla wszystkich i
hipoteza alternatywna:
H1: μ1 ≠ μ2
H1: Σi α2i ≠ 0; lub
H1: μi - μ ≠ 0, dla co najmniej jednego i;
H1: αi ≠ 0 dla co najmniej jednego i.
Sformułowania te są równoważne.
39. MS i test F w jednoczynnikowej i dwuczynnikowej???? ANOVA.
MS - średni kwadrat (mean square). Otrzymujemy go dzieląc sumę kwadratów (SS), przez stopnie swobody (df). Średni kwadrat jest po prostu nie obciążoną wariancją próby.
|
SS |
MS = |
|
|
df |
Jeżeli tak jest, to wyróżniamy (jak w pozostałych przypadkach) trzy rodzaje MS:
MSmiędzy=SSmiędzy/dfmiędzy
MSwewnątrz=SSwewnątrz/dfwewnątrz
MScała=SScała/dfcała
Średnie kwadraty NIE podlegają zasadzie addytywności. MSwewnątrz jest najlepszym sposobem oszacowania wariancji błędu w populacji, i w takiej roli jest wykorzystywany.
Testem hipotezy zerowej w ANOVA jest test F. Polega na badaniu stosunku dwóch średnich kwadratów - międzygrupowego i wewnątrzgrupowego. W warunkach H0, a więc gdy czynnik A nie różnicuje grup (αi = 0), które można uznać zatem za pochodzące z tej samej populacji.
E(MScały) = σ2ε
E(MSmiędzy) = σ2ε
E(MSmiędzy) = E(MSwewnątrz) = σ2ε
Musimy przyjąć, że E(MSwewnątrz)=σ2ε (wartość oczekiwana wewnątrzgrupowego średniego kwadratu = nieobciążony estymator wariancji błędu w populacji). Jest to spowodowane tym, że w populacji nie działa wyselekcjonowany czynnik A, co powoduje, że SScała w populacji równa jest SSwewnątrz.
Gdy jednak zachodzą warunki opisane w H1, tzn. gdy czynnik A różnicuje grupy porównawcze (αi ≠ 0, dla co najmniej jednego i), to:
E(MScały) > σ2ε
E(MSmiędzy) > σ2ε
E(MSmiędzy) > E(MSwewnątrz)
Jeżeli H1 jest prawdziwa, to MSmiędzy/ MSwewnątrz > 1.
|
MSmiędzy |
|
σ2ε |
|
|
|
MSwewnątrz |
|
σ2ε |
Stosunek ten ma rozkład F. df dla licznika to df1=p-1; zaś dla mianownika df2=p(n-1). Jeżeli H0 będzie fałszywa, to zawsze w liczniku będzie większa wartość niż w mianowniku i cały stosunek będzie większy od jedności, a zatem test H0 jest testem jednostronnym. Jeżeli wynik będzie postaci FOBL ≥ Fα to mamy podstawę, aby odrzucić hipotezę zerową mówiącą o równości średnich grupowych i przyjęcia hipotezy alternatywnej, w myśl której co najmniej dwie średnie różnią się. Jednak odrzucenie H0 na rzecz H1 nie wystarczy, jeżeli mamy większą ilość grup. Trzeba bowiem odpowiedzieć które pary średnich różnią się w sposób istotny. Używa się do tego testów wielokrotnych porównań. Wynik Fα obliczamy z tablicy dla rozkładu F. W kolumnie wybieramy df1, zaś w wierszu df2.
40. . Wskaźnik omega-kwadrat w jednoczynnikowej ANOVA i jego interpretacja.
Dla obliczenia wariancji α, β i αβ stosujemy wzory, pokazujące nam to jaki jest stosunek do wariancji Y wyjaśnianej przez czynnik X do wariacji całkowitej Y. Znajdują się ona na ryc.
Korzystając z sumarycznej tabeli ANOVA dla planu jednoczynnikowego (pyt. 60), możemy zauważyć, iż znajdują się tam dane o następujących symbolach:
MSm - Wariancja międzygrupowa [MSA]
MSw - Wariancja wewnątrzgrupowa [MSe]
SSm - Suma kwadratów międzygrupowa [SSA]
SSw - Suma kwadratów wewnątrzgrupowa [SSe]
SScala - Suma kwadratów całości
|
SSm - (p - 1)MSw |
|
|
|
100% |
|
SScała + MSw |
|
Wskaźnik omega-kwadrat pozwala na procentowe wyliczenie wielkości wariancji cząstkowej wyjaśnionej wpływem na Y czynnika A (naszej zmiennej niezależnej-głównej)!
41. Sumaryczna tabela ANOVA dla planu jednoczynnikowego.
źródło zmienności (wariancji) |
SS |
df |
MS |
F |
F0,05 |
F0,01 |
Między (A)
|
54 |
2 |
27 |
27** |
5,14 |
10,9 |
Wewnątrz (błąd eksperyment.) |
6 |
6 |
1 |
|
|
|
Cała |
60 |
8 |
|
|
|
|
42. Plan dwuczynnikowy ANOVA - podział SS i df .
Badacz ma do dyspozycji następujące odchylenia:
Yijk - Y... - odchylenie każdego wyniku od średniej ogólnej- zróżnicowanie całkowite.
Yi.. - Y... - odchylenie średniej z i-tej grupy od średniej ogólnej - zróżnicowanie międzygrupowe A.
Y.j. - Y... - odchylenie średniej z j-tej grupy od średniej ogólnej - zróżnicowanie międzygrupowe B.
Yij. - Yi.. - Y.j. + Y… - odchylenia średniej z ij-tej grupy od średnich brzegowych oraz średniej ogólnej - zróżnicowanie interakcji AB.
Yijk - Yij. - odchylenie k-tej osoby z ij-tej grupy od średniej ij-tej grupy - zróżnicowanie wewnątrzgrupowe.
Podobnie jak w analizie jednoczynnikowej, podnosząc wszystkie zróżnicowania do kwadratu otrzymamy sumy kwadratów SS.
SScała=SSA+SSB+SSAB+SSbłąd
ΣiΣjΣk(Yijk-Y...)2=nqΣi(Yi..-Y...)2+npΣj(Y.j.-Y...)2+nΣiΣj(Yij.-Yi..-Y.j.+Y...)2+ΣΣΣ(Yijk-Yij.)2
Wyróżniamy też wzory skrócone na obliczanie SS:
Y2.../pqn - suma wszystkich wyników podniesiona do kwadratu /pqn
ΣiΣjΣk Y2ijk - suma wszystkich kwadratów wyników
(Σi Y2i..)/qn - sumy poszczególnych grup czynnika A podniesione do kwadratu /qn
(Σj Y2.j.)/pn - sumy poszczególnych grup czynnika B podniesione do kwadratu /pn
ΣiΣj Y2ij. - sumy kwadratów wyników osób należących do poszczególnych grup AB.
SSA - (3) - (1)
SSB - (4) - (1)
SSAB - (5) - (3) - (4) + (1)
SSwew - (2) - (5)
SScała - (2) - (1)
df - liczba stopni swobody; liczba wartości, które można swobodnie zmieniać przy obliczaniu danej statystyki.
Stopnie swobody mają tą samą cechę co SS - addytywność.
dfcała=dfA+dfB+dfAB+dfwewnątrz
dfcała=npq-1 - W każdej grupie porównawczej mieliśmy df=n-1, takich grup jest pq. W całej próbie złożonej z pq grup, po n osób mamy: npq-1 = N-1.
dfA=p-1 - Jeżeli dla n osób df=n-1; to dla p grup df=p-1
dfB=q-1 - Jeżeli dla n osób df=n-1; to dla q grup df=q-1
dfAB=(p-1)(q-1) - ponieważ dfAB=dfA dfB
dfwew=pq(n-1) - grup jest pq, więc jeżeli każda grupa ma df=n-1 to pq grup ma df=pq(n-1)
43. Pojęcie efektów głównych w dwuczynnikowej ANOVA.
Jeżeli test efektów głównych czynników A i B wykaże ich istotność, to badacz powinien przeprowadzić testy wielokrotnych porównań, aby oddzielić pary średnich istotnie się różniący od par różniących się nieistotnie. Stwierdzenie istotności efektu interakcji AB pociąga za sobą konieczność przeanalizowania profilów efektów prostych oraz przeprowadzenia ich testów, a także, podobnie jak stwierdzenie istotności efektów pojedynczych czynników, przeprowadzenia testów wielokrotnych porównań średnich kratkowych: Yij. z Y(ij.)' .
Oba czynniki A i B, mogą wywierać wpływ na Y w dwojaki sposób:
każdy czynnik oddzielnie będzie wywierał wpływ na Y: wpływ jednego czynnika nie będzie zależał od tego, jakie wartości będzie przyjmował drugi czynnik - izolowany wpływ A i B na Y.
wpływ jednego czynnika na Y będzie uzależniony od tego, jakie wartości będzie przyjmował drugi czynnik - interakcyjny wpływ A i B na Y.
Przykład I |
|
Przykład II |
|||||||
|
b1 |
b2 |
|
|
|
b1 |
b2 |
|
|
a1 |
2 |
4 |
3 |
|
a1 |
2 |
8 |
5 |
|
a2 |
6 |
8 |
7 |
|
a2 |
8 |
4 |
6 |
|
|
4 |
6 |
5 |
|
|
5 |
6 |
5,5 |
|
Efekty główne:
|
Efekt główny w dwuczynnikowej ANOVA polega na zbadaniu, czy czynnik A i B wpływają na zmienność Y. Jest to, to samo co efekt główny w jednoczynnikowym modelu. Drugim efektem, jest efekt interakcyjny. Jeżeli wykażemy jego istotność, to obliczamy proste efekty główne. Polegają one na zbadaniu wpływu czynnika A na wszystkich poziomach czynnika B(b1,b2,…) i czynnika B na wszystkich poziomach czynnika A(a1,a2,…). [Skrót odpowiedzi pyt. 62 i 65] |
Badacz może również oceniać efetky działania jednego czynnika na kolejnych poziomach drugiego czynnika. W takich wypadkach będziemy mówili o prostych efektach głównych jednego czynnika na poszczególnych poziomach drugiego czynnika. Są one powiązane z efektami głównymi oraz z efektami interakcyjnymi.
Poszczególne efekty interakcyjne:
α1β1=Y11.-Y1..-Y.1.+Y…
α1β2=Y12.-Y1..-Y.2.+Y…
α2β1=Y21.-Y2..-Y.1.+Y…
α2β2=Y22.-Y2..-Y.2.+Y…
Prosty efekt główny i-tego poziomu czynnika A na j-tym poziomie czynnika B określamy za pomocą odchylenia średniej kratkowej (czyli średniej ij-tej grupy) od średniej brzegowej odpowiadającej j-temu poziomowi czynnika B: Yij.-Yj.. Te różnice są wykorzystywane do oszacowania efektów prostych w populacji. Oznacza to, że jeśli efekt prosty czynnika A (wszystkich jego poziomów) będzie taki sam na poszczególnych poziomach czynnika B, znaczy to, iż między czynnikami A i B nie zachodzi interakcja. Chodzi o porównanie poziomu a1 czynnika A z poziomem b1 a potem z b2 czynnika B. Przedstawiają to następujące wzory:
α1β1 = α1β2 |
między A i B nie zachodzi interakcja |
α2β1 = α2β2 |
|
α1β1 ≠ α1β2 |
między A i B zachodzi interakcja |
α2β1 ≠ α2β2 |
|
Zawsze:
ΣiΣj αiβj = 0 + 0 + 0 + 0 = 0
Przykład:
|
W tym przykładzie brak jest interakcji, ponieważ: Oczywiste jest, że: ΣiΣj αiβj=0+0+0+0=0. |
|
|
|
|
|
|
Przykład:
α1β1=2-5-5+5,5= -2,5 |
W przykładzie II widzimy interakcję: α1β1 ≠ α1β2; -2,5 ≠ 2,5 i α2β1 ≠ α2β2 2,5 ≠ -2,5. Czynnik A wywiera wpływ na czynnik B, mamy więc do czynienia z modelem interakcyjnym: Zauważmy, że: ΣiΣj αiβj=(-2,5)+(2,5)+(2,5)+(-2,5)=0. |
α1β2=8-5-6+5,5= 2,5 |
|
α2β1=8-6-5+5,5= 2,5 |
|
α2β2=4-6-6+5,5= -2,5 |
|
44. Hipotezy zerowe i hipotezy alternatywne w dwuczynnikowej ANOVA.
Wyróżniamy 3 rodzaje hipotez zerowych w dwuczynnikowej ANOVA:
Dla czynnika A:
H0: Σi α2i = 0
H1: Σi α2i ≠ 0; gdy FOBL ≥ Fα
Dla czynnika B:
H0: Σj β2j = 0
H1: Σj β2j ≠ 0; gdy Fobl ≥ Fα
Interakcja AB:
H0: ΣiΣj(αiβj)2 = 0
H1: ΣiΣj(αiβj)2 ≠ 0; gdy FOBL ≥ Fα
45. Interpretacja geometryczna interakcji AB w dwuczynnikowej ANOVA .
|
|
|
|
b1 |
|
|
|
|
|
|
|
|
średnia |
|
|
|
a1 |
|
|
|
|
|
|
|
|
średnia |
|
|
|
|
b2 |
|
|
|
a2 a3 |
a1 a2 a3 b1 b2
Są to profile efektów prostych. Pierwszy z nich pokazuje stosunek A/b1, A/b2. Drugi pokazuje stosunek B/a1, B/a2, B/a3. Profile te pokazują, interakcję czynnika A i czynnika B. Widzimy, iż średnia opieranie wniosków jedynie na średniej nie przyniosłoby żadnych korzyści badaczowi. Wykresy te pokazują interakcję danych zamieszczonych poniżej.
46. Sumaryczna tabela ANOVA dla planu dwuczynnikowego .
Zanim zajmiemy się tabelą przeanalizujmy dwuczynnikowe badanie ANOVA dla następujących danych:
A |
Osoby |
B |
|
|
|
b1 |
b2 |
a1 |
1 |
2 |
7 |
|
2 |
1 |
5 |
|
3 |
2 |
9 |
a2 |
1 |
6 |
2 |
|
2 |
5 |
2 |
|
3 |
4 |
3 |
a3 |
1 |
7 |
1 |
|
2 |
8 |
1 |
|
3 |
7 |
2 |
Sumy kratkowe (część biała) i brzegowe (cz. fioletowa) do analizy efektów prostych
A
|
B |
|
|
|
b1 |
b2 |
Yi.. |
a1 |
5 |
21 |
26 |
a2 |
15 |
7 |
22 |
a3 |
22 |
4 |
26 |
Y.j. |
42 |
32 |
74 |
Obliczamy kolejne wartości dla wzorów skróconych na SS:
Y2.../pqn = (74)2/(3)(2)(3) = 304,22
ΣiΣjΣk Y2ijk = 22 + 72 +…= 426
(Σi Y2i..)/qn = (262+222+262)/(2)(3) = 306
(Σj Y2.j.)/pn = (422+322)/(3)(3) = 309,77
ΣiΣj Y2ij. = (52+212+…+42) = 413,33
Sumy kwadratów:
SSA= (3)-(1) = 306 - 304,22 = 1,78
SSB= (4)-(1) = 309,77 - 304,22 = 5,5
SSAB=(5)-(3)-(4)+(1)= 413,33-306-309,77+304,22=101,78
SSw= (2)-(5) = 426 - 413,33 = 12,67
SScała = (2)-(1)=426 - 304,22 = 121
Obliczamy df:
dfA=p-1=2
dfB=q-1=1
dfAB=(p-1)(q-1)=2
dfw=pq(n-1)=12
dfcała=pqn-1=17
Wstawiamy dane do sumarycznej tabeli ANOVA:
źródło zmienności (wariancji) |
SS |
df |
MS |
F |
F0,05 |
F0,01 |
A |
1,78 |
2 |
0,89 |
0,84 |
3,49 |
5,95 |
B |
5,55 |
1 |
5,55 |
5,24* |
4,75 |
9,33 |
AB |
101,78 |
2 |
50,89 |
48,00** |
3,49 |
5,95 |
WEWNĄTRZ |
12,67 |
12 |
1,06 |
|
|
|
CAŁA |
121,78 |
17 |
|
|
|
|
Jeżeli podzielimy MSA i MSB i MSAB przez MSw otrzymamy poszczególne wartości testu F. Ponieważ istotny okazał się wpływ czynnika B oraz interakcji AB, to musimy zbadać proste efekty główne. Korzystamy do tego zadania z wzorów obliczeniowych z pyt.65. i tabele z sumami kratkowymi i brzegowymi.
A/b1: 1/3[52+152+222] - 1/(3)(3) ⋅ 422 = 48,66
A/b2: 1/3[212+72+42] - 1/(3)(3) ⋅ 322 = 54,89
B/a1: 1/3[52+212] - 1/(3)(2) ⋅ 262 = 42,67 itd.
Warto zauważyć, że suma ΣA/bj = SSA+SSAB u nas: 48,66 + 54,89 = 103,56
Dane wprowadzamy do tabeli ANOVA dla prostych efektów głównych:
źródło zmienności |
SS |
df |
MS |
F |
Fα |
|
|
|
|
|
|
0,05 |
0,01 |
A/b1 |
48,66 |
2 |
21,33 |
22,95** |
3,49 |
5,95 |
A/b2 |
54,89 |
2 |
27,44 |
25,58** |
|
|
B/a1 |
42,67 |
1 |
42,67 |
20,12** |
4,75 |
9,33 |
B/a2 |
10,67 |
1 |
10,67 |
10,06** |
|
|
B/a3 |
54 |
1 |
54 |
50,94** |
|
|
WEWNĄTRZ |
12,67 |
12 |
1,06 |
|
|
|
Można później rozrysować interakcje w sposób graficzny (patrz pyt.64), oraz zastosować test wielokrotnych porównań (np. testem HSD Tukeya-potrzebne są co najmniej trzy średnie kratkowe, więc moglibyśmy porównać jedynie dla czynnika A).
47. Wskaźnik omega-kwadrat w dwuczynnikowej ANOVA i ich interpretacja.
Dla obliczenia wariancji α, β i αβ stosujemy wzory, pokazujące nam to jaki jest stosunek do wariancji Y wyjaśnianej przez czynnik X do wariacji całkowitej Y. Wzory na wariancję znajdziemy na ryc.
Aby obliczyć procentowy udział wariancji cząstkowej wyjaśnionej wpływem czynnika A na Y można też obliczyć wprost ze wzoru:
|
SSA - (p-1)MSw |
|
100% |
|
SScała + MSw |
|
SSAB - (p-1)(q-1)MSw |
|
100% |
|
SScała + MSw |
Obliczamy jaką wariancję wyjaśniliśmy naszymi czynnikami A i B, dodajemy ich procenty uzyskując całkowity procent zbadanej przez nas zmienności Y. Możemy tą wartość odjąć od 100% i uzyskamy dzięki temu wariancję resztową, mówiącą badaczowi jaki procent zmienności jest jeszcze możliwy do wyjaśnienia przez inne czynniki.