Rozumowanie dedukcyjne:
modus ponens - sposób potwierdzający przez potwierdzenie - tautologia rachunku zdań mówiąca, że jeśli uznajemy prawdziwość poprzednika prawdziwej implikacji, to musimy uznać też prawdziwość jej następnika:
modus tollens - sposób zaprzeczający przy pomocy zaprzeczenia- wnioskowanie logiczne, reguła logiki mówiąca, że jeśli zaakceptujemy że z X wynika Y, oraz że Y jest fałszywe, to musimy zaakceptować też fałszywość X.
negacja koniunkcji jest równoważna alternatywie negacji
Kolejne stadia metody naukowej:
Fakty-> teorie-> przewidywania-> fakty
Zasady racjonalności:
Słaba - Zasada intersubiektywności
Intersubiektywna komunikowalność
Intersubiektywna sprawdzalność (kontrolowalność)
Mocna - zasada racjonalnego przekazywania przekonań
Co charakteryzuje poznanie naukowe?
jest intersubiektywne
jest powtarzalne
ma idealizacyjny charakter
Warunki poprawnej konstrukcji zmiennej:
formalne
rozłączność - jednej osobie przysługuje tylko jedna wartość
adekwatność
wyczerpywalność - każdej osobie musi być przypisana jakaś wartość
wyłączność - wartości zmiennej mogą być przypisane tylko tym osobom, które ta zmienna obejmuje swoim zasięgiem
treściowy - kryterium wyodrębniania wartości musi być trafne
Schemat:
Problem, hipoteza
Struktura zmiennych
Operacjonalizacja zmiennych
Model badawczy (badawczy lub korelacyjny)
Dobór próby
Model statystyczny
Akceptacja/ odrzucenie hipotez
Ocena, interpretacja, generalizacja
Trafność zewnętrzna: zakres wyników
Warunki od których zależy:
wyniki mogą być podstawą do formułowania uogólnień na całą populację
problem reprezantywności warunków w których przeprowadzono badanie
czy zmienne zoperacjonalizowane nie zniekształcają rzeczywistych zmiennych
problem czasu w jakim było przeprowadzane badanie
czynniki zakłócające:
Interakcja selekcji z postępowaniem eksperymentalnym
Interakcja warunków badania z postępowaniem eksperymentalnym
Interakcja historii z postępowaniem eksperymentalnym
Interakcja pretestu Y z postępowaniem eksperymentalnym
Obserwacja> ex post facto > quasi- eksperyment > eksperyment terenowy > eksperyment laboratoryjny
Trafność wewnętrzna - precyzja badanie
historia
dojrzewanie
selekcja
testowanie
instrumentacja (np. zmiana narzędzi, wrażliwość ankieterów)
regresja statystyczna
utrata osób badanych
eksperyment laboratoryjny > eksperyment terenowy > quasi- eksperyment > ex post facto > obserwacja
Interakcja „badacz-OB” (Rosenthal)
efekt Pigmaliona
efekt Galatei (efekt pozytywnych oczekiwań)
efekt Golema (efekt negatywnych oczekiwań)
badania Orne'a (wskazówki sugerujące hipotezę badawczą)
Lęk przed oceną
Status motywacyjny osoby badanej
Czynniki pośredniczące w powstaniu OIB:
Klimat - badacz jest „milszy” dla osób z grupy „+”
Sprzężenie zwrotne - poświęcają więcej uwagi
Wkład - więcej wymaga
Wydajność - stwarza więcej okazji do wykazania się
Usprawiedliwienie okłamywania uczestników badania:
cel badania jest bardzo ważny i nie można go osiągnąć w inny sposób
nie wpłynie to na osłabienie zaufania do badacza (gdyż będzie później wyjawiony prawdziwy cel)
uczestnicy mogą w każdym momencie wycofać się z udziału w badaniu
uczestnicy mogą wycofać swoje wyniki po zakończeniu badania
badacz ponosi pełną odpowiedzialność za wywołanie i zneutralizowanie efektów stresu powstałego na skutek uczestnictwa w badaniu
Statystyka
|
Estymatory dla próby |
Parametry dla populacji |
średnia |
Y |
μ |
wariancja |
s2 |
σ2 |
Współczynnik korelacji |
r |
ρ |
Zmienna zależna: Y
Zmienna niezależna: X
- główna (Xg)
- uboczna (Xu)
- zakłócająca (Xz)
Obciążony estymator: we wzorze n
Nieobciążony estymator: we wzorze n-1
Miara precyzji badania empirycznego: wariancja wewnątrzgrupowa wyrażona jako % wariancji całkowitej
Badania eksperymentalne - zmienne manipulacyjnie
Badania korelacyjne - zmienne klasyfikacyjne
„Bez randomizacji nie ma manipulacji”
Eksperyment jedno-jednozmiennowy - badacz manipuluje jedną zmienną niezależną główną, dwuwartościową, która oddziałuje na jedną zmienną zależną; nawiązuje do kanonu jednej różnicy (Mill)- na podstawie indukcji eliminacyjnej, eksperyment „wszystko albo nic”
Dodatkowe wady: 1. mocne założenie o liniowej zależności; 2. nie można testować hipotez mówiących o wpływie interakcji
Kontrola zmiennych ubocznych (Xu):
- ustalenie stałej wartości lub stałego podzakresu wartości danej zmiennej ubocznej dla osób z obu grup
- wyeliminowanie na drodze analizy statystycznej:
- analiza korelacji cząstkowej i semicząstkowej
- analiza kowariancji
Randomizacja jest akceptowaną formą kontroli zmiennych niezależnych zakłócających (Xz)
Grupy zależne albo 2 razy pomiar u tych samych osób albo: są to grupy złożone z różnych grup ale są one w tym sensie zależne, że do każdej osoby z jednej grupy dobierana jest osoba ja najbardziej do niej podobna (zabieg doboru parami)
Statystyczna kontrola efektu pretestu: współczynnik korelacji semicząstkowej
Plan Solomona - czterogrupowy z dwiema grupami eksperymentalnymi i dwiema kontrolnymi
1 grupa: Pretest Y(1) --> X --> Posttest Y(1)
2 grupa: Pretest Y (2) --------> Postetest Y(2)
3 grupa: X --> Posttest Y(3)
4 grupa Postetst Y(4)
Analiza danych: ANOVA i ANCOVA
Test |
Kiedy stosujemy |
Założenia |
Ho |
|
Chi2 (χ2) |
Dane nominalne, niezależne |
|
|
|
McNemara |
Dane nominalne, zależne |
|
|
|
Test dokładnego prowdopodobieństwa Fishera |
Dane nominalne, Gdy jakaś liczebność teoretyczna mniejsza od 5 |
|
|
|
Kołmogorowa- Smirnowa |
Dane niezależne, zmienna porządkowa; „porównuje rozkłady” ; bardziej efektywny dla małych prób |
|
|
|
Manna -Whitneya |
Dane niezależne, zmienna porządkowa; „ranguje”; bardziej efektywny dla dużych prób |
|
|
|
Wilcoxona |
Dane zależne, zmienna porządkowa |
|
|
|
t-Studenta
|
Dla zależnych |
Zmienna niezależna ilościowa, dane zależne; |
Normalność rozkładu, homogeniczność wariancji, |
μ1= μ2 |
|
Dla niezależnych |
Zmienna niezależna ilościowa, dane zależne; 2 grupy N<30 |
Normalność rozkładu, homogeniczność wariancji |
μ1= μ2 |
Cochrana i Cox Lub Welcha |
Zmienne ilościowe, wariancje niehomogeniczne |
Rozkład normalny |
|
|
Test z |
Zmienna ilościowa, N> 30 |
Rozkład normalny |
|
|
Analiza wariancji (ANOVA); test F |
jednoczynnikowa |
Zmienna niezależna nominalna, zmienna zależna ilościowa, co najmniej 3 grupy |
I Zmienna Y jest mierzona co najmniej na skali interwałowej II Osoby zostały losowo pobrane z populacji do próby III Osoby z próby zostały losowo pobrane do p grup porównawczych odpowiadających p poziomom czynnika A.... IV Rozkład εik - ma w populacji rozkład normalny, o średniej 0 i wariancji σ2ε; V Dwa błędy εik i ε'ik są od siebie niezależne w p populacjach (chodzi o niezależność pomiarów zmiennej zależnej Y) VI Występujące w liczniku i w mianowniku stosunku F oszacowania wariancji międzygrupowej i wewnątrzgrupowej są niezależne VII Wariancje w p populacjach wprowadzone przez błąd eksperymentalny są jednorodne/ homogeniczne: σ2ε1=...= σ2εp |
Σα2i=0 Wyrażona za pomocą pojęcia efektu głównego i-tego poziomu czynnika lub μi =μ dla wszystkich i lub αi=0 dla wszystkich i lub μ1 =....= μi=... μp lub „Czynnik A nie różnicuje grup(αi=0 dla wszyskich i)” |
|
dwuczynnikowa |
|
To samo co powyżej |
Czynnik A: Σα2i=0 Czynnik B: Σβ2j=0
Interakcja AB: |
|
Jednoczynnikowa z powtarzanym pomiarem |
Dane zależne |
To samo co powyżej + XVIII Macierz wariancji - kowariancji musi być symetryczna XIX Macierz wariancji - kowariancji musi być równa |
Σα2i=0 Gdy szukamy zmienności między osobowej: σ2π=0 |
ANOVA A:
Efekty główne czynnika A (αi)
Błąd eksperymentalny (εik) - wariancja wewnątrzgrupowa
εik - ma w populacji rozkład normalny, o średniej 0 i wariancji σ2ε; jest niezależny od αi
Model stały (I)- badacz sam arbitralnie, ustala dla danego eksperymentu listę wszystkich możliwych poziomów czynnika A
Model losowy (II) - badacz losuje (tak, jak losuje się osoby do próby z populacji) p poziomów z populacji P (p<<P) czynnika A
Model mieszany (III) - np. w planach z powtarzaniem pomiarów zmiennej zależnej osoby losowo pobrane z populacji mogą być traktowane jak poziomy czynnika losowego: „osoby”
Model nieortogonalny: gdy nierówne i dysproporcjonalne liczebności grup
Modele ortogonalne: gdy równe n
Zasada randomizacji pierwszej: losowe pobieranie próby z populacji
Zasada randomizacji drugiej: losowe przydzielanie osób z próby do p grup porównawczych
Model liniowy wyniku Yik:
Yik= μ + αi + εik
Do sprawdzenia czy wariancje są jednorodne: test Fmax Harleya
Addytywne są: sumy kwadratów, stopnie swobody.
Nieaddytywne: średnie kwadraty !!!!!!!
Wariancja wyjaśniona Y (Omega 2)
ω2A= (SSA- (p-1) MSe) / (SScała + MSe) * 100%
Eta2 = SSmiędzy/ SScałkowita <--- wyjaśnony % całkowitej wariancji
W przypadku ANOVY jednoczynnikowej R-kwadrat=Eta-kwadrat
Testy Post-hoc
Przy założeniu równości wariancji
Scheffe
najbardziej konserwatywny test (0.05) - jeżeli ogólne F nie będzie istotne - na pewno żadne z porównań testem Scheffe też nie będzie istotne.
Tukey [test TSD Tukeya polecany jest przez Brzezińskiego (2000)]
mniej konserwatywny niż Scheffe - łatwiej wychwycić istotną różnicę między średnimi.
Duncan
przyjmuje różne wartości krytyczne w zależności od tego, ile średnich mieści się między porównywanymi średnimi. Im bardziej oddalone od siebie średnie tym łatwiej uzyskać istotne wyniki.
Bonferroni
robi testy t-Studenta z poprawką na ich ilość
NIR - Najmniejsza Istotna Różnica
tak jak byśmy przeprowadzali wiele testów t (dla każdej porównywanej pary średnich) - przekłamuje prawdopodobieństwa, gdyż nie bierze poprawki na liczbę wykonywanych testów t (im więcej tym łatwiej uzyskać istotny wynik, którego tak naprawdę nie ma). UWAGA!!!
Brak założenia o równości wariancji
Games-Howell - liberalny test porównań parami.
T2 Tamhane'a - konserwatywny test porównań parami oparty na teście t.
ANOVA AB
Model ijk-tego wyniku:
Yijk= μ + αi + βj + αiβj + εijk
Efekty proste - efekt działania jednego czynnika na kolejnych poziomach drugiego czynnika; prosty efekt główny i-tego poziomu czynnika A na j-tym poziomie czynnika B
Efekty interakcyjne- efekt interakcji czynnika A i czynnika B.średnia brzegowa
Efekt główny - ogólny wpływ czynnika A
Kiedy jest interakcja? Jeżeli α1β 1≠ α1β 2; α2β 1≠ α2β 2
Efekt interakcyjny = efekt główny- efekt prosty
ANOVA A z powtarzanym pomiarem
Yik= μ + αi +πk + εik
πk- charakterystykczny dla k-tej osoby wzór reagowania; πk ma rozkład normalny o średniej 0 i wariancji σ2πk
Efekty:
sekwencyjny
serii
przeniesienia
transferu
zmęczenia
wprawy
wyuczenia
Przy AB z powt pomiarem - możliwa analiza profilowa (profile mogą się różnić konfiguracją i wysokością
Test porównań wielokrotnych Dunneta: gdy porównujemy wile grup eksperymentalnych z 1 grupą kontrolną
Transformacja wyników:
- pooprawia jednorodność wariancji
- poprawia normalność rozkłady Y
- eliminowanie pozornych interakcji, które mogą być efektem zastosowania przez badacza skali pomiarowej Y i dotrzymywanie założenia o addytywności modelu
transformacja |
Wzór |
Zastosowanie |
Wyjątki |
Pierwiastkowa |
Y'k=√Yk |
Np. gdy duże niejednorodności między grupami; Gdy rozkład jest rozkładem Poissona, np. liczba błędów popełnianych podczas zadania. A także gdy wariancje w grupach porównawczych są proporcjonalne do średnich grupowych (zależność liniowa) |
Gdy w zbiorze wyniki mniejsze od 10 to: Y'k=√(Yk+0,5) |
Logarytmiczna |
Y'k=log Yk |
Gdy wynikami są czasy reakcji i gdy ich rozkład jest dodatnio skośny; Gdy wariancje są proporcjonalne do kwadratów średnich grupowych. |
Gdy wśród danych wyniki zerowe lub bardzo małe |
Ilorazowa |
Y'k=1/Y'k |
Gdy czasy reakcji lub czas rozwiązywania problemów; Gdy odchylenia standardowe są proporcjonalne do kwadratów średnich |
Gdy wyniki zerowe to: Y'k=1/(Yk+1) |
Arcsin |
Y'k=2arcsin√Yk |
Gdy wyniki wyrażone są pod postacią proporcji. |
|
Przekształcenie danych nie ma wpływu na wyniki testu F.
Współczynnik korelacji |
Dane |
φYoulla |
2x2 Nominalne
Gdy więcej poziomów |
τ Spearman |
Porządkowa x porządkowa |
ρ Kendalla |
Porządkowa x ilościowa |
r Pearson |
Ilościowa x ilościowa |
Ho: ρ=0
Testy nieparametryczne - „zbyt konserwatywne”; zwiększają popełnienia błędu drugiego rodzaju
Decyzja Ho |
Ho prawdziwa |
Ho fałszywa |
Odrzucenie Ho |
Błąd I rodzaju |
Decyzja poprawna |
Nieodrzucenie Ho |
Decyzja poprawna |
Błąd II rodzaju |
|
Stopnie swobody |
ANOVA A |
Df między= p-1 Df cała = pn-1 Df wew= p(n-1)
|
ANOVA AB |
Df a = p-1 Df b = q-1 Df ab = (p-1)(q-1) Df między= pq-1 Df wew = pq(n-1) Df cała= npq-1 Df między= Dfa +Dfb + df ab |
ANOVA A z powtarzanym pomiarem |
Df cała = pn - 1 Df między osobami = n-1 Df wew osób = n(p-1) Df A = p-1 Df reszta = (p-1)(n-1) Df wew = Df a +Df reszta |
χ2 |
(r-1)(k-1) |
p- liczba grup
n- liczba osób
podkreślone - wariancja błędu
Model wielokrotnej regresji
Y'= bY1X1 + a
Y'= przewidywane wyniki zmiennej zależnej Y
bY1= współczynnik regresji; tg α
a = stała regresji
Korelacje cząstkowe : a/(a+d); b(b+d)
Korelacje semicząstkowe: a; b <-- przydatne w planie Salomona
Przy kodowaniu (0-1) tworzymy zmienne instrumentalne - pomostowe - (p-1); w ostatniej grupie same „0”. Tutaj testy t testują czy różnica między średnim wynikiem dla tej grupy osób badanych, która na danym wektorze instrumentalnym ma jedynki oraz średnik wynikiem grupy referencyjnej (zakodowanej jako same ”0”) jest istotna. Dzieje się tak, ponieważ kolejne współczynniki b w równaniu regresji są po prostu tymi różnicami.
Przy kodowaniu quasi-eksperymentalnym w ostatniej grupie „-1”. W tym systemie kodowania współczynniki b interpretowane są inaczej. Są to odchylenia średnich grupowych (poza średnią tej grupy, która zakodowana została jako same „-1”) od średniej ogólnej. Tak więc testy t ukazują wartość właśnie tego efektu. Ujemny znak przy b oznacza że wynik jest niższy od średniej ogólnej
Współczynnik determinacji R2 - mówi ile % wariancji wyjaśnia model
Waga „beta”. - wystandaryzowany wpływ danego predyktora; O sile i kierunku związku informuje nas wskaźnik Beta - im większa Beta, tym większy wpływ. Właściwie powinniśmy napisać "im większa wartość bezwzględna Beta tym większy wpływ". Bo Beta oprócz informowania o sile wpływu informuje także o jego kierunku. Oczywiście ujemna wartość Beta oznacza, że związek pomiędzy zmiennymi jest ujemny.
Interpretacja przyczynowo-skutkowa związku korelacyjnego (trzy warunki)
Wyraźne następstwo czasowe
Wykonywanie eksperymentu z ilościową zmienną niezależną (bądź większą ich ilością)
Uzasadnienie w teorii
Potwierdzenie wcześniejszych badań
Dwie strategie budowy modelu wielokrotnej regresji liniowej:
Metoda krokowa - postępująca (a priori) <-- dodajemy do modelu nowe zmienne
Metoda krokowa- wsteczna (a posteriori) <-- eliminujemy najmniej istotne zmienne
Analiza regresji i analiza wariancji są modelami tożsamymi.
Te same wartości R2
Te same wartości i istotności F
test F w analizie wariancji testuje czy wariancja zmiennej zależnej (np. czas spostrzegania bodźca) wyjaśniona przez czynnik (zmienną niezależną, np. kąt widzenia) jest większa od tej wariancji, której ten czynnik nie wyjaśnia (tzw. wariancji błędu)
test F w analizie regresji testuje, czy wariancja zmiennej zależnej (np. czs spostrzegania bodźca) wyjaśniona przez zmienną niezależną (predyktor, np. kąt widzenia) jest większa od tej wariancji, której ta zmienna nie wyjaśnia (tzw. wariancja resztowa) - jest to istotność wartości R-kwadrat
Współczynniki zapisane przy kolejnych zmiennych instrumentalnych (od T1 do T3) w równaniu regresji są tożsame z oceną efektów kolejnych poziomów czynnika
(od a1 do a3) w modelu analizy wariancji. Ostatni poziom czynnika (a4) wyliczmy na podstawie właściwości: suma odchyleń poszczególnych wyników od średniej równa jest 0. Uzyskujemy równanie: a4= - (a1+a2+a3).