prowadzący: mgr Piotr Zieliński
zielinski@psych.uw.edu.pl
METODOLOGIA BADAŃ PSYCHOLOGICZNYCH - ĆWICZENIA
notatki do zajęć (UWAGA! w większości są to tylko hasła, i sama ich znajomość nie wystarczy; należy ją rozbudować o treści omawiane na zajęciach i opisane w literaturze)
1. Metodologia - wprowadzenie:
- rozumienie metodologii na niniejszych zajęciach:
ogólna - szczegółowa
opisowa - normatywna
nauk formalnych - nauk empirycznych
- znajomość metodologii bierna i czynna
czynna:
- prowadzenie własnych badań empirycznych;
- integrowanie rezultatów badawczych powstałych w różnych pracowniach;
- replikacja badań empirycznych.
bierna:
- studiowanie, ze zrozumieniem, literatury psychologicznej;
- wykorzystanie w praktyce psychologicznej rezultatów badawczych zaczerpniętych z literatury;
- umiejętne formułowanie pytań adresowanych do specjalistów z zakresu metodologii i statystyki.
- etapy badania naukowego:
- sformułowanie problemu (przegląd faktów, rozpoznanie problemu, sformułowanie pytania);
- sformułowanie hipotez;
- określenie obrazu przestrzeni zmiennych niezależnych (X) istotnych dla zmiennej zależnej (Y);
- operacjonalizacja zmiennych;
- wybór modelu badawczego (eksperymentalny, korelacyjny);
- dobór próby z populacji;
- wybór odpowiedniego modelu statystycznego;
- akceptacja lub odrzucenie hipotezy (probabilizm, tj. istotność statystyczna jako kryterium pewności);
- ocena, interpretacja i generalizacja rezultatu badawczego.
2. Zmienne
- zmienna - właściwość, pod względem której osoby z danej grupy się różnią (taka, pod względem której się nie różnią, to stała). Zmienna przybiera więc różne wartości dla poszczególnych członków grupy.
- musi ona spełniać dwa kryteria formalne: być rozłączna (przyjmować tylko jedną wartość dla jednej osoby) i wyczerpująca (dotyczyć wszystkich członków grupy, tj. nie może być przypadku, gdy komuś nie można przyporządkować którejś z dostępnych wartości)…
- …oraz kryterium trafności - musi być sensowna, a więc zdefiniowana na gruncie wiedzy naukowej, mieć określony sens teoretyczny, czyli być powiązana z jakąś teorią psychologiczną.
- różne klasyfikacje zmiennych:
- zmienne dwuwartościowe (dychotomiczne i zdychotomizowane) - trójwartościowe - wielowartościowe;
- zmienne ciągłe (gdy pomiędzy dwiema dowolnymi wartościami zawsze znajdzie się jakaś pośrednia wartość) i nieciągłe (dyskretne);
- klasyfikacja na podstawie skal pomiarowych według Stevensa:
nominalne (kategorialne)
porządkowe (rangowe)
przedziałowe (interwałowe)
stosunkowe (ilorazowe)
- zmienne jakościowe (nominalne) i ilościowe (interwałowe i ilorazowe) - kodowanie zmiennych jakościowych często ma charakter cyfrowy, ale nie zmienia to ich jakościowego charakteru!
- zmienne niezależne (X) i zależne (Y)
Y = f(X), ta funkcja może być liniowa (Y = bX+a) lub nieliniowa (np. Y = bX+cX^2+a)
- z perspektywy zmiennej zależnej:
zmienne istotne dla zmiennej zależnej i nieistotne dla tej zmiennej - badacza interesują te istotne, ale nie zawsze wiadomo dokładnie, które to są;
zmienne istotne („ważne”) są istotne w różnym stopniu - zmienne główne i uboczne
zmienne zakłócające (niektóre specyficzne dla badania, niektóre uniwersalne)
wśród zmiennych zakłócających są takie, które są zewnętrzne względem badania, nieskorelowane z nim (pogoda na przykład, która wpływa na badanych, ale też na warunki badania) oraz wewnętrzne względem badania, związane z nim
wśród wewnętrznych - zmienne uniwersalne (stałe zakłócenie dla każdej osoby) i okazjonalne (losowe, raz są, raz nie ma)
- w obrębie próby badanej wyniki cechują się zmiennością (parametrem opisującym poziom zmienności jest wariancja). Częściowo jest ona wywołana przez zmienną niezależną, częściowo przez inne czynniki (np. różnice indywidualne). W badaniu należy określić, w jakim stopniu zmienność jest wywołana przez zmienną niezależną (wariancja kontrolowana), a w jakim stopniu jest to wariancja niekontrolowana (wariancja błędu). Zmienna X istotna dla zmiennej Y to taka zmienna, która jest źródłem wariancji cząstkowej tej zmiennej.
- kontrola zmiennych następuje poprzez dokonywanie ich pomiaru;
w badaniu należy kontrolować wpływ zmiennej niezależnej głównej poprzez manipulowanie jej poziomem;
wpływ zmiennych ubocznych poprzez (a) ustalenie wielkości wariancji cząstkowych przez nie wyjaśnianych, (b) wyrównanie grup porównawczych pod względem wartości tych zmiennych; metoda (a) jest lepsza, ale trudniejsza, (b) łatwiejsza, ale ogranicza zakres wnioskowania
wpływ zmiennych okazjonalnych, które są źródłem błędów losowych, staramy się eliminować poprzez randomizację w doborze próby;
wpływ zmiennych uniwersalnych należy eliminować z planu badania
- wpływ zmiennych nie kontrolowanych przez badacza (więc np. zmiennych zewnętrznych) to źródło wariancji niewyjaśnionej
3. Cechy poznania naukowego
- jakie są cele nauki?
wewnętrzny: poznanie prawdy;
zewnętrzne: opisać, wyjaśnić, przewidzieć, kontrolować, poprawiać jakoś życia (rozwój cywilizacyjny i kulturowy).
- czym charakteryzuje się prawda naukowa?
intersubiektywna komunikowalność i sprawdzalność (z tego wynika powtarzalność) - słaba zasada racjonalności;
stopień pewności wniosków nie może przekraczać stopnia niezawodności metody - zasada racjonalnego uznawania przekonań.
- w jaki sposób dochodzić do prawdy naukowej?
- „pierwotnie” indukcjonizm, obecnie dominujący model hipotetyczno dedukcyjny Poppera (falsyfikacjonizm, podejście hipotetystyczne); są też inne trendy, np. metodologia programów badawczych, anarchizm metodologiczny.
- podstawowy schemat:
fakty -> teoria (uogólnione obserwacje) -> hipotezy (predykcje) -> fakty (weryfikacja);
zakładamy, iż prawa natury są niezmienne - słońce wschodzi codziennie, jeśli jednego dnia nie wzejdzie, to nie dlatego, że prawa natury uległy zmianie, ale dlatego, że zaszły jakieś dodatkowe okoliczności. W takim razie nasza teoria wyjaśniająca musiałaby tłumaczyć nie tylko stan obecny (brak słońca) ale też obejmować to, co było wcześniej (wschodzące słońce).
- różnice między indukcjonizmem a falsyfikacjonizmem:
w indukcjoniźmie rozpoczynamy od zdań jednostkowych, zawsze prawdziwych, wynikających z obserwacji, i uogólniamy je do spójnej teorii, z założenia prawdziwej (z dużym prawdopodobieństwem); w falsyfikacjoniźmie (dedukcji) rozpoczynamy od teorii i formułujemy na jej podstawie zdania jednostkowe, których prawdziwość dopiero będziemy sprawdzać. Taki kierunek rozumowania nigdy nie pozwoli na potwierdzić istniejącej teorii, ale pozwoli nam za to odrzucić (sfalsyfikować) teorię błędną. Teoria, której nie udało się odrzucić mimo różnych testów, można uznać za potwierdzoną z pewnym stopniem prawdopodobieństwa, nie znaczy to jednak, iż jest stuprocentowo prawdziwa.
- krótkie rozwinięcie na temat podejścia Poppera:
według Poppera obserwacje nie determinują teorii (jak w indukcjonizmie), mogą ją jedynie ograniczać (poprzez falsyfikację - wykazujemy, które teorie są fałszywe, a nie, które są prawdziwe - tego w pełni nigdy nie wykażemy);
teoria jest naukowa gdy (i tylko wtedy) dzieli klasy podstawowych stwierdzeń (hipotez) na dwa niepuste podzbiory - zawierające twierdzenia niezgodne z teorią (potencjalne falsyfikatory) i zawierające twierdzenia zgodne z teorią.
- źródła problemów badawczych:
- „wgląd” i ciekawość badacza
- zapotrzebowanie społeczne:
„mody” kulturowe
potrzeby i problemy cywilizacyjne (np. AIDS, przemoc w rodzinie)
instytucjonalne (np. wojsko)
- analiza dotychczasowego stanu wiedzy:
luki
sprzeczności
- problem ma strukturę pytania na różnych poziomach ogólności; powinien być:
- sformułowany w języku danej dziedziny;
- oryginalny, wskazujący nowe aspekty i zależności, ale…
- …powiązany z innymi problemami badawczymi w dziedzinie (chyba, że zapoczątkowuje zupełnie nową dziedzinę);
- ogólny: obejmujący jak najszerszą (idealnie nieskończoną) liczbę przypadków;
- istotny (ważny) dla dziedziny i/lub praktyki;
- weryfikowalny empirycznie;
- konkretny: wskazujący czynniki i zależności.
- problemy nie mogą być zbyt ogólnikowe (bo nie ma teorii „wszystkiego” - lepiej postawić kilka odrębnych pytań uszczegóławiających) ani zbyt szczegółowe (bo to redukcjonizm, ich rozwiązanie niewiele wnosi do nauki, nie może stanowić źródła predykcji i nowych hipotez).
- dwie klasy problemów: pytania rozstrzygnięcia („czy…”, odpowiedź tak lub nie lub jedna z wskazanych w pytaniu alternatyw) oraz pytania dopełnienia (jakie, kiedy itp.); pierwsza z tych klas zawiera więcej wskazówek odnośnie sposobu poszukiwania odpowiedzi.
- typy problemów badawczych:
- dotyczące wartości zmiennych („jaką wartość przyjmuje Y gdy X przyjmuje wartość M”; w tej klasie problemów są też pytania „jaką wartość przyjmuje Y w populacji P”, co można rozumieć tak, że P jest jedną z wartości zmiennej X);
- dotyczące zależności między zmiennymi:
- jakie zmienne są istotne dla Y?
- które zmienne są bardziej, a które mniej istotne dla Y?
- czy zmienne niezależne wpływają na Y oddzielnie, czy wchodzą w interakcję?
- dotyczące kształtu zależności:
- jaka jest zależność X od Y (dodatnia, ujemna…)?
- jaka jest kształt związku łączącego X i Y?
- hipoteza to zdanie twierdzące, stanowiące odpowiedź na pytanie zawarte w problemie badawczym.
- struktura hipotezy: zmienne zależne; zmienne niezależne, relacja wiążące.
- hipotezy na poziomie: teoretycznym, operacyjnym, statystycznym.
- aby hipotezy mogły być sprawdzone, to:
- hipoteza musi być sprawdzalna;
- hipoteza musi pozwalać na przewidywanie innych faktów niż pierwotnie zaobserwowane;
- hipoteza musi być adekwatną odpowiedzią na problem;
- hipoteza musi być najprostszą odpowiedzią;
- hipoteza musi być tak sformułowana, aby łatwo można ją było przyjąć lub odrzucić, musi istnieć na to prosty test empiryczny.
- hipoteza ad hoc (doraźna) to hipoteza, zdolna wyjaśnić te fakty, do wyjaśniania których została sformułowana i żadne inne (nie ma zdolności predykcji); jest ona metodologicznie wadliwa. Jak ją zidentyfikować? To taka hipoteza, która w obliczu nowych faktów wymaga wprowadzania nowych, komplikujących ją hipotez ad hoc.
4. Operacjonalizacja
- zmienna i wskaźnik (dokładnie: zmienna, obraz zmiennej, wskaźnik). E.Hornowska stosuje określenia czynnik, wielkość i zmienna na oddanie podobnych koncepcji.
- pomiar: operacja przyporządkowania zmiennej wartości (kategorii, porządku, wartości liczbowej);
pomiar bezpośredni: np. pomiary fizjologiczne: opór skórno-galwaniczny. Używamy narzędzia pomiarowego, którego wycechowanie stanowi definicję danej miary;
pomiar pośredni: wskazanie przyrządu / zastosowanie metody pomiaru pośrednio świadczy o wartości zmiennej: jest jej wskaźnikiem.
- ważne pojęcia - indicatum (to, co jest wskazywane) i wskaźnik; wskaźnik musi być obserwowalny, indicatum niekoniecznie;
pomiędzy nimi musi zachodzić relacja implikacji, równoważności bądź probabilistyczna;
- wskaźniki dzielimy na: empiryczne, definicyjne i inferencyjne. Wskaźniki empiryczne i inferencyjne nazywamy wspólnie wskaźnikami zewnętrznymi (rzeczowymi), wskaźniki definicyjne - wewnętrznymi (bo zawierają się w definicji indicatum).
empiryczne - oba zjawiska są obserwowalne (np. temperatura, słupek rtęci w termometrze związany jest z temperaturą na mocy prawa fizycznego); wskaźnik jest zazwyczaj łatwiejszy do obserwacji;
definicyjne - indicatum jest definiowane poprzez wskaźnik (np. pozycja socjometryczna; miejsce w wyborach). Wskaźnik z indicatum łączy zatem związek definicyjny. Sytuacja taka jest dosyć komfortowa - wskaźnik jest zawsze trafny. Niemniej, wbrew stanowisku operacjonalistów, niewiele terminów naukowych można w ten sposób sensownie zdefiniować.
inferencyjne - wskaźnik nie wchodzi do definicji indicatum, które jest nieobserwowalne (ale ma obserwowalne następstwa w postaci wskaźnika). Aby zbudować taki wskaźnik, należy najpierw uzasadnić istnienie indicatum. Należy wykazać, że jest to pojęcie użyteczne, pozwalające lepiej i prościej opisać zjawiska, pamiętając o spójności przyjmowanej teorii. Wskaźniki tego typu mają zwykle charakter złożony, dopiero konfiguracja kilku wskaźników inferencyjnych pozwala na wnioskowanie o wystąpieniu indicatum. Wnioskowanie o prawdziwości zdania wprowadzającego wskaźnik przeprowadza się podobnie jak w przypadku testowania teorii - oceniając czy zależności opisywane z użyciem wskaźnika są zgodne z oczekiwaniami płynącymi z teorii.
- moc wskaźników (od 0 do 1); czasem zakres wskaźnika i zjawiska wskazywanego znacznie się między sobą różnią, stad niezbędne jest określenie mocy stosowanego wskaźnika
moc odrzucania (np. przy naborze do szkoły ostre kryterium typu start w olimpiadzie); maksymalizujemy prawdopodobieństwo zajścia indicatum; wskazuje na specyficzność wskaźnika;
moc zawierania (np. przyjmujemy jak leci, egzaminy po pierwszym roku odsieją tych słabszych) minimalizujemy prawdopodobieństwo odrzucenia indicatum; wskazuje na czułość wskaźnika;
moc rozdzielcza - korelacja wskaźnika i indicatum, bierze pod uwagę moc zawierania i odrzucania.
- wskaźniki i pomiar a założenia teorii - założenia metateoretyczne często wyznaczają metodę pomiaru i doboru wskaźników, np.:
silny redukcjonizm fizjologiczny: wskaźniki fizjologiczne (np. GSR) jako wskaźnik emocji;
behawioryzm: charakterystyczne zachowania (np. reakcja unikania) jako wskaźnik emocji;
neutralistyczna psychologia różnic indywidualnych: testy oparte na samoopisie jako wskaźnik emocji - dyspozycji do określonych zachowań
psychoanaliza i psychologia humanistyczna: introspekcja jako wskaźnik emocji
- rodzaje wskaźników używanych w psychologii:
psychofizyczne (progi różnicowania, nasilenie reakcji);
psycho- i neurofizjologiczne (GSR, aktywność mózgu w badaniu tomografii pozytronowej);
wykonaniowe (czas reakcji, liczba i typ błędów);
introspekcyjne (np. protokoły głośnego myślenia);
obserwacja i klasyfikacja zachowań (klucze do klasyfikacji);
skale ocen;
procedury sędziów kompetentnych;
wskaźniki złożone: testy i testy znormalizowane;
wskaźniki socjoekonomiczne.
5. Model eksperymentalny
- model eksperymentalny to taki model sprawdzania hipotez, w którym (1) manipulujemy co najmniej jedną zmienną niezależną główną, (2) kontrolujemy pozostałe zmienne, uboczne i zakłócające, które uznajemy za istotne dla zmiennej zależnej, (3) dokonujemy pomiaru zmienności zmiennej zależnej, spowodowanej zamierzonym przez badacza oddziaływaniem na nią zmiennej niezależnej głównej.
- najprostszy model eksperymentalny to model zero-jedynkowy, z jedną grupą poddaną oddziaływaniu zmiennej niezależnej i grupą kontrolną, nie poddaną oddziaływaniu
- podstawą poprawnego eksperymentu jest randomizacja, czyli losowe przydzielanie ludzi do grup różniących się oddziaływaniem zmiennej niezależnej;
z powyższego widać, że zmienne niezależne można podzielić na dwa rodzaje - na zmienne manipulowalne (np. poziom stresu, barwa otoczenia) oraz niemanipulowalne (płeć, poziom inteligencji itp.)
w przypadku zmiennych niemanipulowalnych niemożliwe jest zachowanie zasady randomizacji - mamy wtedy do czynienia z tzw. quasieksperymentem.
- kontrola zmiennych istotnych ubocznych i zakłócających jest związana z kanonem jedynej różnicy Milla, zasadą rozwiniętą następnie przez Kazimierza Ajdukiewicza w indukcję eliminacyjną;
- jak kontrolować zmienne zakłócające typu różnice indywidualne:
losowy przydział do grup, czyli randomizacja
dbamy o to, by poziom danych zmiennych był w obu grupach podobny (np. osoby o przeciętnej inteligencji 100 +/- 10 IQ) - prowadzi to do ograniczenia wniosków z badania
dbamy o to, by w grupach były podobne osoby - dobór parami (pary podobne wewnętrznie, rożne zewnętrznie, rozlosowane do dwóch grup)
wariantem doboru parami jest porównywanie wyników osób z nimi samymi, a więc tworzeni schematu pomiarów powtarzanych (mamy wtedy do czynienia z pomiarami zależnymi, w odróżnieniu od niezależnych)
- plany eksperymentalne:
populacja -> próba -> 2 grupy -> pretest -> (manipulacja / brak manipulacji) -> posttest
a) post(e) ≠ post(k) i zarazem pre(e) = pre(k)
b) post(e) ≠ pre(e) i zarazem post(k) = pre(k)
c) (post(e) - pre(e)) ≠ (post(k) - pre(k))
- problemy związane z pretestem zmiennej zależnej:
pretest pozwala kontrolować wyjściowy poziom zmiennej zależnej w porównywanych grupach, ale też, co być może ważniejsze, pozwala ocenić wielkość zmiany wywołanej przez oddziaływanie eksperymentalne (bowiem zmiana może zachodzić też w grupie kontrolnej bez udziału manipulacji - np. polepszanie się stanu zdrowia bez terapii);
jest to jednak ingerencja w układ badawczy, mogąca prowadzić do artefaktów; powodem może być uwrażliwienie, wywołanie postawy która będzie konsekwentnie utrzymywana, transfer umiejętności; potrzeba wykorzystania równoległych wersji narzędzi itp.
- plan bez pretestu:
populacja -> próba -> 2 grupy -> (manipulacja / brak manipulacji) -> posttest
post(e) ≠ post (k)
- plan czterogrupowy Richarda L. Solomona
plan ten pozwala kontrolować zarówno wpływ zmiennej niezależnej, jak i wpływ pretestu na zmienną zależną
- plany bardziej złożone:
większa liczba poziomów zmiennej niezależnej;
większa liczba zmiennych niezależnych (czynników) - plany czynnikowe;
plan Solomona jest specyficznym typem planu dwuczynnikowego - jeden czynnik to główna zmienna niezależna, drugim czynnikiem jest obecność lub nieobecność pretestu.
- plany z powtarzanym pomiarem:
każda osoba zostaje przebadana w różnych warunkach eksperymentalnych
zalety:
- „silniejsza wymowa” - ta sama osoba zachowuje się inaczej zależnie od naszej manipulacji;
- wyeliminowanie czynników zakłócających związanych ze zmiennymi osobowymi;
- istotne zmniejszenie liczby osób biorących udział w badaniu poprzez zwiększenie liczby pomiarów od jednej osoby.
wady:
- nie mają zastosowania dla zmiennych niemanipulowalnych;
- możliwość wykrycia faktycznej intencji eksperymentatora;
- świadome korygowanie swoich reakcji (potrzeba konsekwencji lub odwrotnie - potrzeb pokazania, że „coś się zmieniło”);
- czynnik kolejności (jw., plus zmęczenie procedurą, wyuczenie itp.)
- czynnik następstwa.
Dwie ostatnie wady można korygować, stosując np. schemat kwadratów łacińskich.
6. Dobór próby
- dobór próby: próba powinna być reprezentatywna dla populacji, na którą chcemy uogólniać wyniki; wpływa to na trafność zewnętrzną badania;
- populacja - skończona i nieskończona;
- próba dobrana z ochotników
wyższy poziom wykształcenia, wyższy status społeczny i socjo-ekonomiczny, wyższy poziom inteligencji, wyższe zsocjalizowanie, a także: większa tendencja do zachowań niekonwencjonalnych i poszukiwania stymulacji, niższy konformizm, częściej kobiety.
- sposoby doboru próby:
dobór nieprobabilistyczny, celowy, np. próba kwotowa
dobór losowy
niezależne - zależne (bezzwrotne)
indywidualne - grupowe
jedno - wielostopniowe
nieograniczone - ograniczone (np. w obrębie warstw)
próba losowa prosta - indywidualne, nieograniczone, niezależne (rzadko stosowana)
próba losowa złożona
- mechanizmy losowania - tablice liczb losowych, programy komputerowe; losowanie systematyczne (pod warunkiem, że nie ma cykliczności w próbie).
- w praktyce często wystarcza jeśli badacz uczciwie dobiera próbę w sposób nietendencyjny.
- próba reprezentatywna w badaniu dotyczącym jednego tematu, może być kompletnie niereprezetatywna w zakresie innego tematu. Np. badając zagadnienia psychofizjologiczne można oprzeć się na wynikach próby złożonej ze studentów psychologii. Kiedy chcemy badać zagadnienia empatii czy spostrzegania społecznego, taka próba będzie silnie tendencyjna
7. Trafność badania
- trafność wewnętrzna wyznaczana przez trafność procedury badawczej, wpływa na to, czy hipoteza będzie poprawnie zakwalifikowana jako prawdziwa bądź fałszywa.
Chodzi o to, by plan eksperymentalny był adekwatny do hipotezy; wysoka trafność wewnętrzna to wyeliminowanie alternatywnych przyczyn, które mogłyby tłumaczyć uzyskany wynik.
- czynniki wpływające na trafność wewnętrzną to:
historia - wpływ zdarzeń występujących w czasie między pretestem i posttestem;
dojrzewanie - wpływ zmian w osobie badanej w czasie między pretestem i posttestem;
selekcja - stronniczy dobór grup;
testowanie - uwrażliwiające oddziaływanie pretestu.
- trafność zewnętrzna dotyczy zakresu wniosków, jakie można wyciągać na podstawie badania; zależy od reprezentatywności próby, reprezentatywności sytuacji badawczej oraz od innych czynników (np. warunki historyczno-kulturowe, w których robiono badania) mogących ograniczać generalizację wyników;
- czynniki wpływające na trafność zewnętrzną to:
interakcja selekcji z postępowaniem eksperymentalnym;
interakcja warunków badania z postępowaniem eksperymentalnym;
interakcja historii z postępowaniem eksperymentalnym;
interakcja pretestu z postępowaniem eksperymentalnym.
8. Model wielokrotnej regresji
- model korelacyjny, zwany też modelem wielokrotnej regresji;
zaletą modelu eksperymentalnego jest możliwość wnioskowania o związkach przyczynowo-skutkowych; ma jednak też swoje wady i ograniczenia, których nie ma model korelacyjny:
- w modelu eksperymentalnym mogliśmy wnioskować o wpływie zmiennej niezależnej na zmienną zależną, tworząc grupy eksperymentalne, różniące się poziomem zmiennej niezależnej; przy dużej liczbie poziomów potrzebna liczba grup, a przez to osób badanych, jest ogromna i utrudnia realizację;
- w efekcie, w modelu eksperymentalnym, nawet gdy zmienna niezależna ma charakter ciągły - interwałowy czy ilorazowy, musi być sprowadzona do zmiennej dyskretnej, nominalnej, przez co tracimy ważne aspekty tej zmiennej;
- sprowadzanie skali pomiarowej do skal jakościowej jest szczególnie „bolesne”, gdy chcemy mówić o charakterze związku (prosto vs krzywoliniowość) bądź przy określaniu interakcji;
- powyższych ograniczeń nie ma model wielokrotnej regresji (nazwa pochodzi od stosowanej metody statystycznej, zwanej analizą regresji).
- model analizy regresji pozwala stosować zmienne na „wyższych” skalach pomiarowych, bez upraszczania ich (wręcz wymaga skali co najmniej interwałowej). Pozwala on wnioskować na temat współzmienności, wadą jest to, że nie można wypowiadać się wtedy na temat przyczynowości. Ponieważ nie mamy tu zmiennych, którymi manipulujemy, i nie wnioskujemy o zależnościach przyczynowo skutkowych, nie powinniśmy mówić o zmiennych niezależnych i zależnych, ale jedynie o zmiennych współzależnych (lub, jak robią niektórzy badacze, tylko o zmiennych zależnych). Jednak w modelach statystycznych WR dla przejrzystości rozróżnia się zmienne niezależne i zależne.
- model analizy regresji może być jednozmiennowy, gdy mamy jedną zmienną niezależną, i wielozmiennowy, gdy jest ich więcej. Każdą zmienną zależną możemy zoperacjonalizować w sposób prosty (np. IQ to współczynnik ilorazu inteligencji) lub złożony (np. IQ to wynik 11 podtestów baterii Wechslera). W efekcie mamy kilka typów modeli analizy regresji - jedno-jednozmiennowy, jedno-wielozmiennowy, wielo-jednozmiennowy i wielo-wielozmiennowy. W każdym z nich liczymy siłę związku między zmiennymi oraz kształt tego związku. Najprostszy, a zarazem wciąż najpopularniejszy model to model jedno-jednozmiennowy. Gdy zakładamy związek liniowy (a tak w najprostszych badaniach czynimy) właściwym współczynnikiem, służącym do określania siły związku, jest współczynnik korelacji - stąd podstawowa nazwa tego modelu. Siła związku mówi nam, jaki jest procent wariancji wspólnej obu zmiennych.
Aby na podstawie modelu wielokrotnej regresji mówić o związku przyczynowym, muszą zajść trzy warunki:
- musi zachodzić związek między zmiennymi (istotny procent wariancji wspólnej);
- zmienna „niezależna” musi poprzedzać czasowo zmienną „zależną”;
- musimy wyeliminować związki pozorne, np. wpływ trzeciej zmiennej.
9. Model ex post facto
- model ex post facto służy identyfikowaniu zmiennych odpowiedzialnych za poziom zmiennej zależnej, która nas interesuje. O ile w modelu eksperymentalnym wychodzimy od grup podobnych, które mają różnić się po naszej manipulacji, o tyle w modelu ex post facto wychodzimy od grup różnych i staramy się zidentyfikować przyczyny tych różnic.
dwie odmiany - eksploracyjna (poszukiwanie nieznanych przyczyn różnic) i konfirmacyjna (weryfikowanie konkretnych hipotez na temat przyczyn różnic).
wady modelu ex post facto:
- brak możliwości manipulowania zmienną niezależną i randomizacji do grup;
- praktycznie dobór celowy grupy badanej.
zalety:
- czasem jedyna możliwość wypowiadania się na temat niektórych zjawisk;
- „przeskoczenie” problemów dotyczących etyczności postępowania badawczego.
10. Interakcja „badacz - osoba badana” jako źródło artefaktów badawczych
- na linii „badacz - osoba badana” może pojawić się wiele czynników, które będą miały w badaniu charakter zmiennych zakłócających. Są to m.in.:
- nastawienie badacza na potwierdzenie hipotezy badawczej (oczekiwania interpersonalne badacza)
prowadzi to do samospełniającego się proroctwa (efekt Pigmaliona, Golema), stronniczości eksperymentatora (efekt Rosenthala)
badacz dostrzega „dobre” i „złe” osoby badane na podstawie wstępnych, ogólnikowych informacji i na podstawie ich zachowania podczas badania, i tym dwu grupom tworzy inne warunki eksperymentalne:
klimat emocjonalny (cieplejszy, życzliwszy dla osób „+”)
sprzężenie zwrotne (więcej uwagi poświęcane grupie „+”)
wkład (większe wymagania dla grupy „+”)
wydajność (grupa „+” dostaje więcej szans i okazji, by się wykazać)
- status motywacyjny osoby badanej
od zgłoszenia dobrowolnego po przymusowe
- wskazówki sugerujące hipotezę badawczą
przyczyny: rozmowy osób badanych, znajomość badacza i jego przedmiotu zainteresowań, aparatura, miejsce i sposób prowadzenia badania - np. pretest i posttest tym samym narzędziem może znaczyć „badacz oczekuje zmiany” itd.
ten efekt może wpływać na niereplikowalność niektórych badań
kontrola poprzez:
badanie posteksperymentalne (wywiad na temat procedury);
niby-eksperyment (druga grupa „odgrywająca” rolę osób badanych);
symulację eksperymentalną (wśród uczestników ukryci „symulanci”).
- lęk przed oceną
co go wywołuje: badacz i eksperymentator w jednej osobie (ich rozdzielenie zmniejsza lęk); jeśli instrukcja sugeruje, że zachowanie pozytywnie oceniane to takie, które jest niezgodne z aprobatą społeczną (dla osób o niskiej aprobacie); jeśli badacz zapewnia ciągłość informacji zwrotnych, osoba badana będzie modyfikować zachowanie w stronę pozytywniej odbieranego; badacz jako osoba mająca władzę na badanym; badacz „tajemniczy” i „wścibski”.
kontrola poprzez:
powtórne badanie według zmienionego scenariusza;
manipulowanie pobudzeniem emocjonalnym (dodatkowe grupy gdzie sztucznie wzbudzamy lęk przed oceną).
- oczekiwania badanego wobec badacza (co w sprzężeniu zwrotnym wpływa też na oczekiwania badacza wobec badanego)
m.in. student, który zna profesora z zajęć lub egzaminu, lubi go lub nie itd.
- wszystko to wpływa na chęć współpracy i modyfikuje zachowanie osoby badanej podczas badania.
11. Zagadnienia etyczne badań psychologicznych
- zajęcia były oparte na odpowiednich artykułach polskiego Kodeksu Etyczno-Zawodowego Psychologa;
- szczególną uwagę należy zwrócić na eksperymenty z maskowaniem (z instrukcją maskującą), tj. sytuacje, w których przed uczestnikami ukrywa się prawdziwy cel badania, a także na badania, w których uczestnicy narażeni są na cierpienie;
- w kodeksie etycznym APA (www.apa.org/ethics/) istnieje pojęcie informed consent (zgoda poinformowana, zgoda świadoma), odnoszące się do umożliwienia uczestnikowi badania podjęcia świadomej decyzji, czy weźmie udział w badaniu. Według kodeksu APA, aby uzyskać taką zgodę, niezbędne jest przekazanie osobie badanej m.in. informacji dotyczących:
- celu badania, przewidywanego czasu trwania, i procedury badawczej;
- prawa do odmowy udziału i do wycofania się w dowolnym momencie;
- przewidywalnych konsekwencji powyższej odmowy lub wycofania się;
- czynników, o których możemy sądzić, że mogą wpłynąć na gotowość osoby badanej do wzięcia udziału w badaniu, a wiec np. potencjalnego ryzyka, dyskomfortu bądź innych negatywnych efektów;
- zysków z badania;
- zakresu poufności;
- nagród za uczestnictwo;
- osób, z którymi można skontaktować się w razie pytań dotyczących badania lub praw osoby badanej.
Kodeks APA precyzuje też sytuacje badawcze, w których uzyskanie opisanej wyżej informed consent nie jest wymagane (np. badanie wyłącznie anonimowymi kwestionariuszami).
12. Informowanie społeczności o uzyskanych wynikach badawczych
- przekaz naukowy powinien być klarowny i kompletny, tj. zawierać wszystkie informacje pozwalające odbiorcy na samodzielną ocenę rezultatu i ewentualną replikację badań.
- styl APA to obecnie standard pisania prac, m.in. magisterskich; ale uwaga - składając tekst zawsze należy zapoznać się z wskazówkami dla autorów, różne pisma mogą mieć różne wymagania, podobnie uczelnie;
- strona tytułowa
tytuł na 10-12 słów; autor pracy; skąd pochodzi; tytuł powinien informować o treści, najlepiej, by zawierał zmienne i relację wiążącą; unikamy pustych zwrotów typu „badania empiryczne” itp.
uwaga - w pracach studenckich dodatkowe wymagania (np. promotor)!
- streszczenie
do 120 słów, w Polsce z reguły 100-150 słów; powinno zawierać słowa kluczowe i opisywać: problem badawczy (w jednym zdaniu), liczbę i specyfikę osób badanych; opis metody badawczej (łącznie z metodami pomiarowymi, tj. nazwy testów itp.); wyniki z poziomem istotności statystycznej; wnioski; możliwe zastosowania.
- wprowadzenie
przedstawienie problemu, opis dotychczasowych badań, zdefiniowanie celu badania i proponowany sposób rozwiązania problemu
- metoda
osoby badane (ich charakterystyka, liczba, statystyki deskryptywne grupy, sposób pozyskiwania osób badanych, ewentualne osoby które wycofały się z badań)
materiały badawcze
pomiar zmiennych (aparatura pomiarowa itp.)
procedura badania
model statystyczny
- wyniki
opis wyników, bez interpretacji; najpierw statystyki opisowe, potem testowanie hipotez
- dyskusja
odniesienie się do hipotez badawczych - potwierdzone?
odniesienie do wyników wcześniejszych badań, wskazanie, co nowego badanie wnosi
rozważanie mechanizmów zjawiska (przyczyn uzyskanego wyniku)
zastosowania praktyczne, plany badawcze na przyszłość
- literatura cytowana / bibliografia („po psychologicznemu” inaczej niż standard polski)
- załączniki
- nota autorska
- do tego w tekście wykresy i tabele (podpisy umieszczamy: nad tabelą, pod ryciną; wszystko musi mieć pokrycie w tekście, aczkolwiek nie powinno dublować treści)
- format tekstu - 12p, Times New Roman, marginesy ok. 2,5cm (czasem z lewej do 4 cm), interlinia 1,5 (około 30 wierszy na stronie, około 2000 znaków na stronie), wyjustowanie do lewego marginesu