METODOLOGIA:
Co to znaczy, że badanie psychologiczne jest kompromisem między wymaganiami wpływu i kontroli?
Badacz w badaniu zawsze chce osiągnąć dwa cele:
Wywrzeć jak największy wpływ na badanego, tak aby sytuacja eksperymentalna była dla badanych ważna, znacząca i angażująca, by badani z różnych grup (eksperymentalnej i kontrolnej) zachowywali się inaczej. W tym celu wpływ (manipulacja) musi być silny. Najlepiej jeśli przypomina sytuację z życia.
Kontrolować, jakie zmienne naprawdę wpływają na badanego. Wiedzieć, co w badaniu psychologicznym zachodzi (co się dzieje) i dlaczego. Rozumieć, co decyduje o zachowaniu badanego, w miarę możliwości eliminować zmienne zakłócające, utrzymywać zmienne zależne na określonym poziomie - to jest duża kontrola. Sytuacja eksperymentalna jest zawsze bardzo złożona - oprócz zmiennej niezależnej, występują i inne bodźce.
Kompromis między wymaganiami wpływu i kontroli to ideał osiągnięcia w badaniu psychologicznym obydwu tych celów równocześnie. Rzadko można jednak utrzymać w poziomie i wpływ i kontrolę.
Co to jest i do czego służy plan Solomona?
Plan Solomona to jeden z planów eksperymentalnych. To tzw. plan czterogrupowy. Został on stworzony przez Solomona w 1949 r. - stąd jego oryginalna nazwa. Traktowany jest przez wielu metodologów nauk behawioralnych jako swoisty ideał w grupie planów eksperymentalnych (planów „0-1”).
Badanie wg tego planu przebiega w trzech etapach:
przeprowadzenie w pierwszej grupie eksperymentalnej (gr.1) oraz w pierwszej grupie kontrolnej (gr.3) pretestu zmiennej zależnej;
wprowadzenie do obu grup eksperymentalnych (1 i 3) postępowanie eksperymentalne, a obie grupy kontrolne (2 i 4) pozostawia bez zmian lub wprowadza do nich placebo;
wykonanie przez badacza posttestu w obu grupach eksperymentalnych (1 i 3) (lub we wszystkich grupach).
Charakterystyka podstawowa:
Badacz manipuluje tylko jedną ZN
Badacz może wprowadzić do planu tylko dwie wartości ZN - głównej
Badacz kontroluje uwrażliwiający wpływ pomiaru początkowego ZZ
Plan czterogrupowy Solomona:
(Y - zależna)
Y 1p |
|
X |
|
Y 1k |
|
|
|
|
|
Y 2p |
|
Y 2k |
|
|
|
X |
|
Y 3k |
|
|
|
Y 4k
|
Analizę wyników w planie Solomona można przeprowadzić na dwa sposoby: elementarny (porównanie pomiędzy grupami) i zaawansowany (za pomocą zaawansowanych wielowymiarowych modeli statystycznych: an. wariancji ANOVA, an. kowariancji ANCOVA, an. regresji wielokrotnej MR).
Zalety planu Solomona:
Kontrola wszystkich czynników zakłócających trafność wewnętrzną i zewnętrzną badania, zwłaszcza wpływu czynnika testowania.
Dwie grupy kontrolne i randomizacja zapewniają silną kontrolę wszystkich czynników zakłócających trafność wewnętrzną tego planu. Zdaniem D.T. Campbella plan ten ma być ideałem dla badań prowadzonych w naukach społecznych.
Badacz może uznać hipotezy badawcze za potwierdzone, jeżeli:
Y 1k > Y 1p Y 1k > Y 1k Y 1k > Y 4k
Y 1k > Y 2p Y 4k = Y 1p Y 2k = Y 2p
Plan Solomona znajduje szczególne zastosowanie w badaniach nad efektywnością psychoterapii, w badaniach postaw, opinii (efektywność technik zmian postaw), w badaniach nad skutecznością zabiegów psychokorekcyjnych.
Jakie podstawowe wymogi powinien spełniać test psychologiczny?
Test psychologiczny powinien być:
Wystandaryzowany - badacz powinien go stosować zawsze tak samo. Test wystandaryzowany to taki, którym można posługiwać się w ujednolicony sposób. Ma to zminimalizować zależność wyników testu od wpływu czynników ubocznych:
Zachowania się osoby przeprowadzającej badanie,
warunków, w których badanie jest przeprowadzane.
Dobrze wystandaryzowany test posiada:
Instrukcję, którą podajemy w dosłownym brzmieniu, w sposób ściśle określony przez autora testu,
Klucz, czyli określone zasady, wg których ocenia się odpowiedzi na poszczególne pozycje testu i interpretuje się wyniki.
Obiektywny - badacz nie ma wpływu na wyniki. O tym, że test jest obiektywny mówimy wówczas, gdy dwie różne osoby opracowujące jego wyniki dochodzą do tego samego rezultatu. Wiąże się to z tym, że należy podawać jednoznacznie brzmiące reguły przeliczania wyników surowych na wyniki określonej skali standardowej, w której wyrażone są normy dla danego testu.
Znormalizowany - porównywalny z jakimś punktem odniesienia. Normalizację testu przeprowadza się na reprezentatywnej dla danej populacji próbie. Po przebadaniu całej próby danym narzędziem przeliczamy otrzymany zbiór wyników surowych na wyniki jednej ze skal standardowych (tenowej lub stenowej). Ta procedura ma na celu zorientowanie psychologa co do miejsca o.b. w grupie, dla której obliczono tzw. normy. W najprostszym przypadku normalizacja polega na obliczeniu średnich i odchyleń standardowych dla różnych grup.
Rzetelny - dokładnie mierzy to, co mierzy. Rzetelność - miara dokładności pomiaru dokonywanego za pomocą testu. Im wyższa rzetelność testu, tym większa dokładność, z jaką mierzy on daną zmienną i mniejszy błąd pomiaru.
Trafny - mierzy to, co ma mierzyć. Trafność - poprawność wniosków wyprowadzonych na podstawie wyników testowych lub innych form badania:
Jakie wyniki można wyciągnąć na temat tego, co jest mierzone przez test,
Jakie wnioski można sformułować o innych, pozatestowych zachowaniach,
Jak wiernie wyniki testu odzwierciedlają dziedzinę życia, której dotyczy.
Trafność kryterialna - korelacja wyników nowego testu z jakimś zewnętrznym kryterium:
Innym testem psychologicznym o uznanej już trafności
Kryterium nie-testowym, np. diagnozą psychiatryczną
Kryterium wypracowanym przez sędziów kompetentnych
Miarami fizjologicznymi
Jeżeli kryterium jest zastosowane równolegle w czasie do testu, to mówimy o trafności diagnostycznej, a jeżeli na podstawie wyników testu chcemy przewidzieć wystąpienie zachowania opisanego przez kryterium, to mówimy o trafności prognostycznej.
Trafność treściowa (wewnętrzna) - zbiór zadań stanowiących test musi stanowić rzeczywiście reprezentatywną próbę dla uniwersum pozycji, która jest oficjalnie uzasadniona. Aby potwierdzić trafność treściową zbioru wyników otrzymanych w teście należy wykazać, że zachowania demonstrowane w badaniu testowym są reprezentatywną próbą zachowań ujawniających się w interesującej badacza sferze. Trafność treściowa jest ważna dla testów uzdolnień, umiejętności, osiągnięć szkolnych i wiadomości, dla kwestionariuszy osobowości, skal postaw i opinii oraz dla arkuszy obserwacyjnych.
Trafność teoretyczna - pokazuje związek narzędzia pomiarowego z konstruktem teoretycznym zaczerpniętym z danej teorii psychologicznej (zmienną teoretyczną)
Trafność fasadowa - powierzchowna ocena tego, czy dany test sprawia wrażenie testu określonego typu, czy wygląda jak prawdziwy test.
Pozycje składające się na dany test musi cechować wysoka moc dyskryminacyjna, co mówi o tym, w jakim stopniu dana pozycja różnicuje daną populację pod względem cechy, której dotyczy. Wyraża się współczynnikiem korelacji między pozycją a wynikiem ogólnym testu lub skali.
Co to jest operacjonalizacja i po co się ją stosuje?
Operacjonalizacja to procedura konstruowania sensu empirycznego terminów teoretycznych (procedura wiązania terminów teoretycznych, odnoszących się do nieobserwowalnych właściwości zdarzeń i obiektów, z terminami obserwowalnymi, oznaczającymi obserwowalne właściwości i relacje). Procedura ta ma umożliwić badaczowi udzielenie odpowiedzi na pytania:
do jakich aspektów świata rzeczywistego odnosi się problem badawczy,
jak dalece wybrane przez niego wartości i istniejące między nimi powiązania dostępne są obserwacji,
w jakim zakresie wybrane przez niego obserwacje dostarczą mu informacji o wyjściowym problemie badawczym
Operacjonalizacja polega na:
tworzeniu obrazu (wielkości) zmiennej teoretycznej (czynnika),
dobieraniu do niego wskaźników (zmiennej, jako zoperacjonalizowanego obrazu wielkości).
Etapy procedury operacjonalizacyjnej:
rekonstrukcja czynnika teoretycznego, konstrukcja wielkości,
konceptualizacja wielkości, dobranie wskaźników, konstruowanie zmiennej,
dobór narzędzia pomiarowego i pomiar zmiennej.
Dzięki operacjonalizacji można wnioskować, jakie obserwowalne fakty i procesy należy dostrzec, aby można było orzec, czy zachodzi czy też nie zachodzi zjawisko oznaczone przez termin, jakim się posługujemy (jest to wymiar praktyczny).
Współcześnie odrzuca się pogląd o bezzałożeniowym charakterze procesu badawczego, odchodząc od utożsamiania nauki ze zbieraniem tzw. „obiektywnych” faktów empirycznych. Przyjmuje się natomiast, że celem nauki jest tworzenie teorii. Istoty nauki upatruje się więc w poszukiwaniu abstrakcyjnych wyjaśnień tych zjawisk, które zostały objęte procesem badawczym.
Operacjonalizacja jest istotnym elementem działań psychologa podejmującego badania empiryczne. Badacz przeprowadza ją zarówno wówczas, gdy w badaniu zamierza dokonać teoretycznie uzasadnionej manipulacji eksperymentalnej, jak i wtedy, gdy jego celem jest konstrukcja narzędzia, np. testu. Operacjonalizacja to zabieg nadawania sensu empirycznego terminom teoretycznym.
Wyjaśnij różnice w konstrukcji skali Likerta i Thurstone'a?
Skale Likerta (metoda sumowanych ocen; 1932) i Thurstone`a (metoda równych interwałów; 1929) to pierwsze skale postaw. Obie techniki do dziś cieszą się dużym powodzeniem wśród badaczy: socjologów i psychologów.
Postawa wg definicji strukturalnej zawiera trzy komponenty:
emocjonalno - oceniający,
poznawczy,
behawioralny.
Postawą pewnego człowieka wobec określonego przedmiotu jest ogół względnie stałych dyspozycji do oceniania tego przedmiotu i emocjonalnego nań reagowania. Określona postawa wobec jakiegoś obiektu wytwarza się u człowieka w wyniku oddziaływania na niego bodźców z otaczającego środowiska (bodźcami mogą być konkretne przedmioty, osoby, grupy osób oraz symboliczne i werbalne ich przedstawienia). Z reakcji człowieka wnioskuje się o rodzaju, natężeniu i strukturze postawy wobec danego obiektu:
bodziec postawa reakcja.
W przypadku skal postaw bada się tylko reakcje werbalne osób. Reakcje te są wskaźnikiem postaw.
Skala postaw jest zbiorem pozycji (stwierdzeń, pytań itp.) - bodźców, na które o.b. udziela odpowiedzi - reakcji werbalnych, będących wskaźnikiem postawy.
Przy konstruowaniu danej skali badacz dobiera z całego zbioru możliwych pozycji pewien ich podzbiór, reprezentatywny dla całego zbioru - będzie on tworzyć skalę postaw. Ważne jest uwzględnienie cech populacji, na której badacz chce przeprowadzić badanie daną skalą postaw, gdyż:
każda pozycja skali postaw zależy od danej kultury,
populacje mogą różnić się między sobą nasileniem danej postawy.
Zatem skala postaw jest narzędziem rzetelnym tylko dla populacji, na której została wystandaryzowana.
Pozycję skali postaw cechuje określony związek z continuum postawy. Można go wyrazić za pomocą krzywej stanowiącej charakterystykę operacyjną pozycji. Krzywa charakterystyki operacyjnej pozycji (bodźca) wiąże prawdopodobieństwo udzielenia na nią odpowiedzi zgodnej z kluczem (akceptującej) przez o.b. z miejscem, jakie ta osoba zajmuje na continuum postawy. Pozycje, z punktu widzenia ich charakterystyk operacyjnych, można podzielić na dwie klasy:
klasę pozycji monotonicznych - prawdopodobieństwo wystąpienia odpowiedzi zgodnej z kluczem wzrasta wraz ze wzrostem natężenia postawy. Skale zbudowane z pozycji monotonicznych noszą nazwę skal monotonicznych - skala postaw Likerta jest skalą monotoniczną.
klasę pozycji niemonotonicznych - do pewnego punktu prawdopodobieństwo wystąpienia odpowiedzi zgodnej z kluczem wzrasta wraz ze wzrostem natężenia postawy, ale począwszy od tego punktu następuje spadek prawdopodobieństwa wystąpienia odpowiedzi zgodnej z kluczem mimo, że następuje dalszy wzrost natężenia postawy. Skalą niemonotoniczną jest skala postaw Thurstone'a.
Pozycje monotoniczne i niemonotoniczne nie różnią się między sobą co do liczby dostarczanych informacji.
KROKI KONSTRUOWANIA SKALI POSTAW LIKERTA (metoda sumowanych ocen):
Technika konstruowania skali postaw typu Likerta różni się od techniki Thurstone'a tym, że grupę sędziów stanowi ogół badanych - wszyscy ustosunkowują się do wszystkich pozycji eksperymentalnej wersji skali oraz tym, że oceniają każdą pozycję na kilkustopniowej skali szacunkowej. Wynik ogólny, świadczący o miejscu danej osoby na continuum postawy, jest sumą wyników cząstkowych - punktów przypisanych poszczególnych pozycjom skali. Analiza układu korelacji poszczególnych pozycji z wynikiem ogólnym skali pozwala na wyodrębnienie ze zbioru pozycji tych, które zostaną włączone przez badacza do ostatecznej wersji skali.
Kroki:
sformułowanie w postaci stwierdzeń dużej liczby pozycji, które poddaje się następnie wstępnej selekcji „językowej”,
z wyjściowej puli stwierdzeń konstruuje się wstępną wersję skali. Powinna ona zawierać od 50 do 100% pozycji więcej niż ostateczna wersja skali. Pozwoli to na wyeliminowanie tych pozycji, które nie będą w dostatecznym stopniu korelowały z ogólnym wynikiem skali,
opracowanie systemu udzielania odpowiedzi na każdą pozycję. Ponieważ wszyscy badani muszą ustosunkować się do wszystkich pozycji skali, kategorie odpowiedzi muszą być równomiernie rozłożone wzdłuż continuum postawy. Zwykle stosuje się systemy wielokategorialne, np.:
Całkowicie się zgadzam
Zgadzam się
Raczej się zgadzam
Raczej się nie zgadzam
Nie zgadzam się
Zupełnie się nie zgadzam
System dwukategorialny: „zgadzam się ` nie zgadzam się” nie daje umiarkowanie przychylnej czy umiarkowanie nieprzychylnej postawy wobec danego obiektu, nie daje też postawy neutralnej. Pozycje do skali dobieramy tak, aby dla około połowy z nich kategoria „całkowicie się zgadzam” oznaczała pozytywną postawę, a dla drugiej połowy - postawę negatywną.
Kategoriom odpowiedzi przypisuje się - wg opracowanego wcześniej klucza - punkty. Maksymalną liczbę punktów przypisuje się tej kategorii odpowiedzi, która wyraża pozytywną postawę, a minimalną liczbę punktów (tj. jeden) przypisuje się tej kategorii odpowiedzi, która wyraża postawę negatywną.
przeprowadzenie badań wstępną wersją skali Likerta reprezentacyjnej dla danej populacji próby osób. Jej liczebność nie powinna być mniejsza niż sto osób. Badani udzielają odpowiedzi przez podkreślenie tej kategorii, która odzwierciedla stopień akceptacji przez nich danego stwierdzenia. Po zakończeniu badania przypisujemy poszczególnym kategoriom odpowiedzi, podkreślonym przez badanych, przysługujące im zgodnie z kluczem punkty. Suma tych punktów stanowi ogólny wynik osoby,
po uporządkowaniu arkuszy odpowiedzi od najwyższego do najniższego wyniku ogólnego, można przystąpić do analizy pozycji pod kątem ich przydatności do pomiaru danej postawy: obliczanie mocy dyskryminacyjnej, a także zastosowanie jednej z dwóch technik: korelacyjnej lub techniki t,
ocena rzetelności i trafności skali.
Interpretacja wyników ogólnych w skali typu Likerta:
Przeciętny wynik oblicza się dodając do siebie punkty przypisane kategoriom odpowiedzi wybranym przez badanego dla każdej pozycji i dzieląc otrzymaną sumę przez liczbę pozycji skali.
Do ostatecznej wersji skali typu Likerta dobierane są tylko pozycje o najwyższych wskaźnikach mocy dyskryminacyjnej. Skala Likerta składa się głównie z pozycji będących wskaźnikiem zdecydowanie negatywnych lub zdecydowanie pozytywnych postaw wobec jakiegoś obiektu. Dlatego najlepiej nadaje się do celów selekcyjnych. Można zatem orzekać trafnie o natężeniu postaw osób, które uzyskują skrajne wyniki przeciętne.
SKALA POSTAW TYPU THURSTONE'A (metoda równych interwałów):
Kroki konstruowania skali:
zebranie dużej puli stwierdzeń wiążących się bezpośrednio z obiektem postawy. Po wstępnym wyselekcjonowaniu stwierdzeń na pierwszy rzut oka niejasnych, wieloznacznych czy mało zrozumiałych, formułuje się pozycje w postaci stwierdzeń, które zostaną włączone do eksperymentalnej wersji skali. Dobrane do skali pozycje powinny pokrywać całe continuum postawy.
przedstawienie wstępnego zbioru pozycji grupie sędziów dobranych z tej samej populacji, na której skala ma być w przyszłości stosowana. Liczba sędziów powinna zawierać się w przedziale 50 -300, nie muszą być kompetentnymi ekspertami od problematyki pomiaru postaw. Zadaniem każdego sędziego jest rozsortowanie przedstawionych mu kartek oznaczających pozycje do 11 - tu niezależnych kategorii, rozłożonych wzdłuż continuum postawy w interwałach. Interwały te są wg Thurstone'a równe.
A B C D E
F G H I J K
1 2 3 4 5 6 7 8 9 10 11
Sędziowie na lewym końcu umieszczają stwierdzenia, które ich zdaniem wyrażają całkowicie negatywną postawę wobec danego obiektu, a na prawym końcu - postawę całkowicie pozytywną. Środek continuum (kategoria F) przeznaczony jest dla kartek ze stwierdzeniami wyrażającymi neutralną postawę sędziów wobec danego obiektu. Pośrednie kategorie przeznaczone są dla kartek wyrażających pośredni stopień natężenia postawy. Sędziowie mają opisane tylko dwie krańcowe i jedną środkową kategorię.
Uzyskane od sędziów wyniki wpisuje się do tabel obliczeniowych - po jednej tabeli dla każdego stwierdzenia.
Kategorie |
A |
B |
C |
D |
E |
F |
G |
H |
I |
J |
K |
S |
Q |
Punkty |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
|
|
f |
|
|
|
|
|
|
|
|
|
|
|
|
|
p |
|
|
|
|
|
|
|
|
|
|
|
|
|
cp |
|
|
|
|
|
|
|
|
|
|
|
|
|
N = ....., S - wartość skalowa |
W pierwszym wierszu wpisuje się liczbę sędziów (f), którzy kartkę z danym stwierdzeniem umieścili w danej kategorii (A, B....K). W drugim - proporcję liczby kartek (p) umieszczonych w danej kategorii. W trzecim - skumulowane proporcje (cp). Na tej podstawie oblicza się dwie statystyki: medianę (Me) i rozstęp ćwiartkowy (Q). Q jest wskaźnikiem zgodności sędziów co do miejsca, w jakim powinna się znajdować dana pozycja na continuum postawy.
Z całej puli stwierdzeń o znanych już wartościach wskaźników S q dobiera się około 20 - 30 pozycji o jak najniższych wskaźnikach Q. Ich wartości skalowe S (mediana stanowi wartość skalową - S - danej pozycji na continuum postawy) powinny być w sposób równomierny rozłożone na całym 11 - to punktowym continuum postawy. Pozycje te, w porządku losowym, wypisane na jednej karcie stanowią ostateczną wersję skali postaw. Obok pozycji nie piszemy ich wartości skalowej, ale umieszczamy ją w kluczu.
Ocena rzetelności i trafności skali.
Badanie skalą Thurstone'a polega na podkreślaniu przez badanego tych pozycji, z których treścią się zgadza. Obok każdej pozycji można napisać możliwe odpowiedzi „tak”, „nie', a badany będzie podkreślał jedną z nich. Przez zsumowanie wartości skalowych pozycji wybranych przez badanego i obliczenie średniej, otrzymujemy wynik mówiący o natężeniu mierzonej postawy u danego badanego. Jeżeli skala jest homogeniczna, badani powinni wybierać tylko te pozycje, które mieszczą się na wąskim odcinku zakresu skali. W rzeczywistości jednak tak nie będzie, gdyż pozycje nie przedstawiają takiej samej wartości SD dla każdej badanej osoby. Tę niedogodność eliminuje się przez włączenie do ostatecznej wersji skali dość dużej liczby pozycji i obliczenie ogólnego wyniku jako średniej wartości skalowej wszystkich wyborów dokonanych przez osobę badaną.
SKALA THURSTONE'A |
SKALA LIKERTA |
|
|
Wyjaśnij, na czym polega różnica między pomiarami na różnym poziomie.
Pomiar to przyporządkowanie liczb obiektom wg pewnych zasad.
Istnieją cztery poziomy pomiaru zmiennych:
nominalny (jakościowy) - pogrupowanie obiektów wg cech jakościowych, wg wartości, jakie przyjmuje zmienna dla tych obiektów, np. płeć. Można tu obliczać liczebność, proporcje, procenty; nie można liczyć średniej. Stosować można test różnicy proporcji chi - kwadrat. Nie można uporządkowywać.
porządkowy - uporządkowanie cech ze względu na nasilenie, uporządkowanie obiektów wg wartości, jakie przyjmują zmienne dla tych obiektów: uporządkowanie
silniejsze - całkowite,
słabsze - częściowe.
Można tu obliczać miary pozycyjne: Me, kwartyle, współczynniki korelacji, wprowadzić rangi.
przedziałowy (interwałowy) - pomiar ze stałą jednostką pomiarową, jednakowa we wszystkich cechach continuum; brak tu punktu zerowego. Pomiar ten pozwala na stwierdzenie, o ile natężenie zmiennej X dla obiektu A jest większe / mniejsze od natężenia zmiennej X dla obiektu B. Można obliczać współczynnik korelacji Poissona; stosować testy t - Studenta i z.
ilorazowy (stosunkowy) - bardzo rzadko spotykany, w psychologii jeden z przypadków to pomiar czasu reakcji. Pomiar na tym poziomie pozwala na stwierdzenie o tym, że natężenie zmiennej X dla obiektu A jest k razy większe / mniejsze niż natężenie zmiennej X dla obiektu B.
W psychologii nie ma większych różnic pomiędzy poziomem przedziałowym a ilorazowym. Większość zmiennych psychologicznych nie osiąga jednak poziomu ilorazowego.
Jakie są zalety i wady korelacyjnych metod badania?
Model korelacyjny znajduje zastosowanie przede wszystkim wówczas, gdy zmienne (dwie lub większa ich liczba), których współzmienność (korelację) badacz chce zbadać, są zmiennymi niemanipulowanymi. To odróżnia ten model od modelu eksperymentalnego.
Zalety korelacyjnych metod badania:
Współczynnik korelacji pozwala ocenić wielkość wariancji wspólnej - wyjaśnionej współzmiennością dwóch lub większej liczby zmiennych. Można też tego dokonać w sposób bardziej złożony, z odwołaniem się do statystycznego modelu analizy wariancji. Ta bezpośrednia ocena wielkości wariancji wspólnej, a więc wyjaśnionej faktem wchodzenia kilku zmiennych w związek liniowy albo nieliniowy, jest bardzo prosta w zastosowaniu. Jedyne ograniczenie dotyczy charakteru zmiennych - muszą to być zmienne ilorazowe lub interwałowe.
Wady korelacyjnych metod badania:
Współczynnik korelacji jest miarą współzmienności, czyli wzajemnego związku dwóch zmiennych. Mówi o tym, jak wielka jest współzmienność. Korelacja nie rozstrzyga o kierunku przyczynowo - skutkowym, tzn. nie mówi, która ze zmiennych jest przyczyną, a która skutkiem. Np. gdy mierzymy korelację między siłą uczucia dwojga młodych ludzi a oporem ze strony ich rodziców, nie wiadomo, czy rodzice opierają się, bo miłość jest zbyt silna, czy miłość jest tak silna dlatego, że na przeszkodzie stoi opór rodziców.
Badania korelacyjne odpowiadają wprost tylko na następujące pytania:
czy zachodzi związek między określonymi zmiennymi?
jakiego „kształtu” jest to związek: liniowy czy nieliniowy?
jaka jest siła tego związku?
czy związek ten, stwierdzony na podstawie badania próby, można - z tą samą siłą - odnieść do całej populacji, dla której badana próba była reprezentacyjna?
Chcąc odpowiedzieć na pytanie o przyczynę i skutek, musimy wyjść poza dane zebrane w badaniu korelacyjnym.
Poza tym, jeżeli mierzymy tylko korelację dwóch zmiennych i nic więcej, korelacja ta może być pozorna, nawet jeśli wynosi 45%. Np. możemy badać korelację między wielkością stopy a dojrzałością społeczną dzieci i młodzieży i korelacja prawdopodobnie wyjdzie wysoka, lecz to nie oznacza, że wielkość stopy wiąże się z dojrzałością społeczną. Wielkość stopy i dojrzałość społeczna korelują ze sobą poprzez wiek, więc korelacja między nimi jest pozorna. Aby uniknąć pozornej korelacji należy brać pod uwagę wiele zmiennych (wielkość stopy, wiek, II, wykształcenie rodziców itp.), których związek z interesującym nas zjawiskiem przewidujemy.
Poza tym, aby można było coś wywnioskować, korelacje muszą być wysokie. Ponadto wiarygodność wyników wzrasta dopiero po wielu powtórzeniach.
Na czym polega różnica pomiędzy procedurą eksperymentalną a procedurą ex post facto?
Model eksperymentalny to taki, model sprawdzania hipotez o zależnościach między zmienną (zmiennymi) zależną i zmienną (zmiennymi) niezależną główną, który zakłada:
manipulację co najmniej jedną zmienną niezależną główną,
kontrolowanie pozostałych zmiennych, ubocznych i zakłócających, uznanych przez badacza za istotne dla zmiennej zależnej,
dokonywanie pomiaru zmienności zmiennej (zmiennych) zależnej, spowodowanej zamierzonym przez badacza oddziaływaniem na nią (na nie) zmiennej (zmiennych) niezależnej głównej.
Procedura ex post facto prowadzona jest wg innego schematu, stanowiącego jak gdyby odwrócenie porządku obowiązującego w procedurze eksperymentalnej - kolejności czynności badawczych, które muszą być wykonane przez psychologa.
W procedurze eksperymentalnej chodzi o to, by poprzez manipulowanie co najmniej jedną ZN - główną wywołać obserwowalne zmiany ZZ. Natomiast w procedurze ex post facto badacz usiłuje zidentyfikować nie znane mu zmienne niezależne, które spowodowały, że ZZ przyjęła określone wartości dla osób należących do danych populacji. Ponieważ nie znane badaczowi zmienne niezależne już zadziałały, niekiedy, na daną zmienną zależną, badacz może jedynie podjąć próbę ich zidentyfikowania drogą analizy ex post facto.
Wady procedury ex post facto:
brak możliwości manipulowania ZN istotnymi, które zadziałały na ZZ,
badacz nie ma pewności, że rozpatrywana ZN nie działała w interakcji z inną ZN lub, że na jej wpływ nałożyło się późniejsze oddziaływanie innej ZN,
zbudowany obraz struktury przestrzeni ZZ może być jedynie typu izolowanego,
metody zbierania danych i ich opracowywania (wywiady i skale szacunkowe) są dość „grubymi” metodami, wprowadzającymi dość dużą wariancję błędu,
badacz może uznać za istotną zmienną, która nie jest de facto istotna dla ZZ, ale jest obserwowalnym korelatem zmiennej de facto istotnej dla ZZ, subiektywizm badacza,
wymaga celowego (pracochłonnego) doboru grup porównawczych.
Zalety procedury ex post facto:
może być zastosowana, gdy ze względu natury technicznej lub etycznej nie pozwalają zastosować procedury eksperymentalnej (szczególnie w psychologii klinicznej i wychowawczej).
Procedura eksperymentalna:
manipulowanie zmiennymi niezależnymi - głównymi,
kontrolowanie zmiennych niezależnych - ubocznych,
obserwowanie zmian ZZ, towarzyszących manipulacjom zmiennymi niezależnymi,
randomizacja (losowy dobór osób z populacji i osób do grup badawczych).
Na czym polega błąd stały, a na czym zmienny, w jaki sposób można je kontrolować?
BŁĄD STAŁY: polega na tym, że z jakiegoś konkretnego powodu każdy otrzymany wynik odchyla się od wyniku rzeczywistego. Ważne jest to, że błąd ten jest stały. Zniekształca on w pewnym stopniu rzeczywistość - zmienia wyniki u wszystkich i w pewnym kierunku. Jedynym sposobem na zlikwidowanie błędu stałego jest wykrycie jego przyczyny i jej wyeliminowanie.
BŁĄD ZMIENNY: wynika z różnic między ludźmi, z warunków badania. Źródeł tego błędu jest nieograniczona liczba. Nie można zredukować go do zera. Z błędem zmiennym radzimy sobie na dwa sposoby:
część błędu zmiennego jest spowodowana przyczyną, którą można skontrolować, np. inteligencją, motywacją itp.,
druga część to taka, której nie da się wyjaśnić - można przyjąć, że jest to błąd losowy. Oznacza to, że błąd ten u niektórych powoduje zawyżone lub zaniżone wyniki. Przy dużej liczbie pomiarów błąd losowy zeruje się. Błąd losowy to błąd, którego rozkład jest normalny, obrazowany krzywą Gaussa, którego średnia arytmetyczna wynosi zero, a odchylenie standardowe = jeden. Nie da się go wyeliminować.
W jaki sposób w eksperymencie można kontrolować wpływ zmiennych ubocznych?
Zmienne niezależne - uboczne to zmienne, które oddziałują na zmienną zależną słabiej, niż zmienne niezależne - główne. Badacze często borykają się z problemami wynikającymi z działania zmiennych niezależnych - ubocznych, nie zawsze są w stanie kontrolować w konkretnym przypadku na skutek trudności natury technicznej. Są to zmienne niezależne - uboczne niekontrolowane.
Próba kontroli wpływu zmiennych niezależnych - ubocznych dotyczy zabiegów „technicznych”. Ich charakter będzie zależał od:
możliwości stwarzanych przez dany plan eksperymentalny:
plany, w których badacz może analizować tylko wpływ jednej ZN - głównie, ale nie tylko, dwuwartościowej - na ZZ w odmianie „wszystko albo nic” modelu eksperymentalnym - kontrola ograniczona,
plany, w których psycholog może badać wpływ dowolnej liczby ZN o dowolnej liczbie wartości w odmianie opartej na statystycznym modelu analizy wariancji ANOVA - kontrola nieograniczona.
jakość kontroli ZN, uwzględnionych przez badacza w planie eksperymentalnym, będzie uzależniona od skali pomiarowej ZZ, po przekształceniu jej w zmienną zoperacjonalizowaną. Chcąc precyzyjnie określić procentowy udział w całkowitej wariancji ZZ tej jej części, która jest wyjaśniona wpływem na ZZ danej ZN, kontrolowanej w eksperymencie przez psychologa, musimy ją poddać takiej operacjonalizacji, która będzie operowała skalą interwałową.
Dwie metody kontroli ZN w planach „0-1”:
A.
Ustalenie stałej wartości lub stałego podzakresu kontrolowanej w ten sposób zmiennej w obu grupach porównawczych (eksperymentalnej i kontrolnej)
Obie grupy porównawcze „wyrównuje się” w taki sposób, aby zagwarantować przybliżoną wartość średnich i odchyleń standardowych rozkładów zmiennej zależnej w obu grupach przed wprowadzeniem manipulacji eksperymentalnej, a więc na etapie pomiaru początkowego ZZ. Mamy tu do czynienia z sytuacją, gdy nie ustala się stałych wartości zmiennych w obu grupach, a jedynie w przybliżony sposób ustala się stałe wartości charakterystyk rozkładu ZZ w obu grupach. Przyjmuje się, że jeżeli wariancje rozkładu ZZ w obu grupach są takie same i średnie są takie same, to można uznać, że ZN istotne dla ZZ są w przybliżeniu takie same. W przypadku stwierdzenia nierówności średnich i wariancji badacz jest zmuszony do ich „poprawienia”:
Przez ponowne rozlosowanie osób do grup
Przez zwiększenie liczebności próby.
B.
Metoda doboru parami (testy dla grup zależnych):
Badacz do każdej osoby z jednej grupy dobiera najbardziej do niej podobną osobę z drugiej grupy - pod względem wartości tych zmiennych istotnych dla ZZ, które zamierza w badaniu w ten sposób kontrolować. Zasady:
Minimalizacja wariancji wewnątrz par,
Maksymalizacja wariancji między parami.
Po utworzeniu danej liczby par, badacz przystępuje do losowego rozdzielenia osób z poszczególnych par na dwie grupy - eksperymentalną i kontrolną. Analiza danych polega na porównywaniu wyników parami.
Gdy metoda ta jest rozszerzona na dowolną liczbę grup porównawczych - dobór wiązany.
Można badać dwukrotnie tę samą osobę - raz w warunkach eksperymentalnych, raz w kontrolnych, lub na odwrót. W eksperymentach, w których po każdym badaniu o.b. nabiera wprawy w wykonywaniu zadania tej metody nie można polecić.
Wyjaśnij, jakie procedury adaptacji kulturowej testu są optymalne, jeżeli chcemy test używać do praktyki psychologicznej w Polsce, tzn. nie interesują nas porównania międzykulturowe?
W każdym kraju psychologowie posługują się nie tylko testami skonstruowanymi i empirycznie sprawdzonymi przez nich samych, ale także - często na dużą skalę - posługują się testami, które powstały w innych krajach, niekiedy bardzo różniących się językowo, kulturowo, geograficznie.
Współcześnie zwraca się uwagę na to, że test psychologiczny nie może być interpretowany poza kontekstem kulturowym, w którym został skonstruowany. Psychologowie powinni korzystać z testów nie tylko poprawnie skonstruowanych i poprawnie stosowanych pod względem psychometrycznym, ale także starannie przełożonych pod względem lingwistycznym i dostosowanych do specyficzności kulturowej kraju, w którym taki „importowany” test będzie stosowany. Taka procedura kulturowego dopasowania testu nie jest łatwa i pochłania sporo czasu i nakładów finansowych.
Przystępując do adaptacji jakiegoś testu zagranicznego musimy najpierw odpowiedzieć na pytanie dotyczące różnic kontekstów kulturowych: musimy zwrócić uwagę na swoistość kultury, w której test został stworzony i w której spełnia on określone zadania diagnostyczne i badawcze. I tak, skale wartości czy werbalne testy uzdolnień są mocno obciążone czynnikiem kulturowym. Nie można mechanicznie przenosić pytań z takiej skali czy testu wiadomości do testu stanowiącego adaptację testu wyjściowego, nie dokonując istotnych korekt. Musimy też określić charakterystyczne cechy kultury, dla której będzie on adaptowany, konstruowany (pod względem psychometrycznym niejako na nowo) i w której będzie spełniał jakieś zadania (niekoniecznie te same) badawcze i diagnostyczne.
Zasady adaptacji lingwistycznej - dotyczą technik tłumaczenia testu:
tłumaczenie pragmatyczne: jego podstawowym celem jest przekazanie samej treści, głównej myśli tekstu, bez dbałości o odpowiedniość form stylistycznych, gramatycznych czy estetycznych, zwykle stosuje się je do tłumaczenia instrukcji, zaleceń, objaśnień,
tłumaczenie „estetyczno - poetyckie”: stara się przenieść przede wszystkim emocje, uczucia i wzruszenia wyrażone w języku oryginału, dotyczy głównie utworów literackich,
tłumaczenie etnograficzne: celem jest oddanie kulturowego kontekstu oryginału,
tłumaczenie lingwistyczne: tłumacz jest zobowiązany zadbać o odpowiedniość zarówno między morfemami, jak i strukturami gramatycznymi dwóch języków.
Metody badawcze w psychologii mają swoje wymiary, które posiadają w danej kulturze swoje znaczenie. Tłumacząc metodę, automatycznie przyjmujemy, że owe wymiary mają podobne znaczenie w kulturze języka tłumaczenia.
Takie tłumaczenia trudno jednoznacznie zaklasyfikować do jednego z wcześniej wyróżnionych rodzajów. Najczęściej są to tłumaczenia etnograficzne, ale posiadają też elementy tłumaczeń innych rodzajów. Istotą tłumaczenia psychologicznego jest bowiem nie tyle jego wierne odtworzenie językowe, co uchwycenie psychologicznej (teoretycznej) specyficzności mierzonej cechy. Celem adaptacji lingwistycznej metod badawczych w psychologii jest przeniesienie siatki pojęć, a nie przetłumaczenie poszczególnych wyrazów.
Metody sprawdzania trafności tłumaczenia:
Metoda tłumaczenia grupowego: grupa osób władających oboma językami i mająca związek z oboma kulturami, najpierw tłumaczy tekst niezależnie, a potem w drodze dyskusji ustala jego ostateczną wersję - ale może się ujawnić syndrom myślenia grupowego.
Metoda tłumaczenia odwrotnego: etapy:
Oryginalna wersja narzędzia jest tłumaczona na język docelowy,
Narzędzie to jest ponownie tłumaczone przez niezależnych tłumaczy na język oryginału,
Osoby do tej pory niezaangażowane w proces tłumaczenia porównują ze sobą dwie wersje: oryginalna i powstałą po tłumaczeniu odwrotnym.
Wszystkie rozbieżności zostają skorygowane i całą procedurę powtarza się dla pozycji budzących wątpliwości.
Metoda odpowiedzi dwujęzycznych: grupa dwujęzycznych osób badanych odpowiada na obie wersje testu. Obie wersje oceniane są zgodnie ze standardowymi procedurami. Otrzymane wyniki koreluje się ze sobą i sprawdza, w jakim stopniu obie wersje testu dostarczają tych samych informacji o osobach badanych. Jednak osoby dwujęzyczne (z powodu swej dwujęzyczności) mogą interpretować znaczenie poszczególnych słów i wyrażeń w sposób odmienny od osób władających tylko jednym, językiem.
Kryteria oceny poprawności adaptacji:
równoważność fasadowa: nadanie testowi charakterystycznej dla niego szaty kosmetycznej,
równoważność psychometryczna: związana z przystawalnością obu wersji testu pod względem trafności i rzetelności, rozkładów wskaźników mocy dyskryminacyjnej pozycji i - w wypadku testów inteligencji i uzdolnień - rozkładu wskaźników trudności zadań, macierzy interkorelacji pozycji, średnich i wariancji,
równoważność funkcjonalna: dotyczy zgodności celów (pomiar określonej zmiennej, diagnoza różnicowa, selekcja, prognoza itd.), do których realizacji skonstruowany został test oryginalny,
wierność tłumaczenia,
wierność rekonstrukcji - kroków konstruowania oryginału.
Wyjaśnij, dlaczego w badaniach naukowych posługujemy się pojęciem „poziomu istotności”.
Na podstawie wyniku uzyskanego z testu statystycznego badacz może podjąć jedną z dwu wzajemnie wykluczających się decyzji odnośnie hipotezy zerowej: może ją odrzucić lub też jej nie odrzucić. W każdym przypadku decyzja może być słuszna lub fałszywa. Pokazuje to schemat:
H0 prawdziwa H0 fałszywa
Odrzucenie H0 I
Nieodrzucenie H0 II
Badacz narażony jest na popełnienie dwojakiego rodzaju błędu:
błąd I rodzaju: polega na odrzuceniu hipotezy zerowej (H0), gdy w rzeczywistości jest ona prawdziwa; prawdopodobieństwo popełnienia tego błędu jest równe α (alfa),
błąd II rodzaju: polega na nieodrzuceniu hipotezy zerowej, gdy w rzeczywistości jest ona fałszywa; prawdopodobieństwo popełnienia tego błędu jest równe β (beta).
Poziom istotności (poziom alfa - α) jest prawdopodobieństwem uzyskania z testu statystycznego takiej wartości, która nakazuje badaczowi odrzucenie hipotezy zerowej na rzecz hipotezy roboczej, pomimo tego, że w rzeczywistości hipoteza zerowa może być prawdziwa. Powyższa interpretacja stawia znak równości między poziomem α i prawdopodobieństwem popełnienia błędu I rodzaju.
Przy utrzymaniu na stałym poziomie błędu I rodzaju, badacz może zmniejszyć błąd II rodzaju przez zwiększenie liczebności próby.
Kryteria wyboru poziomu α (najważniejsze z nich):
Praktyczne konsekwencje wyboru α: dla mniej ważnych problemów można przyjąć α = 0,05, a dla ważniejszych α = 0,01 czy 0,001.
Wiarygodność alternatyw: testowana hipoteza nie powinna być rozważana w izolacji; przy interpretacji istotności wyniku testu statystycznego powinno się zawsze rozważyć racjonalne i empiryczne dowody, przemawiające za słusznością testowanej hipotezy. Kiedy otrzymany rezultat przeczy powszechnie uznawanej teorii i jednocześnie brak teoretycznych i empirycznych świadectw na poparcie uzyskanego wyniku, najlepiej zastosować bardziej rygorystyczny poziom α, dający mniejszy błąd oszacowania. Ogólnie - im mniej przesłanek przemawia za fałszywością hipotezy zerowej, tym bardziej rygorystyczny poziom należy przyjąć.
Moc testu a wielkość próby: moc testu zależy od wielkości próby, tzn. ze wzrostem liczebności próby wzrasta moc testu, czyli wzrastają szanse odrzucenia hipotezy zerowej. Dlatego powinno się ustalić bardziej rygorystyczny poziom α dla dużych prób i mniej rygorystyczny dla małych prób.
Błąd I rodzaju a błąd II rodzaju: zadaniem badacza jest minimalizowanie błędów, które można popełnić, podejmując decyzję odnośnie do hipotezy zerowej. Jednakże minimalizując błąd I rodzaju, badacz maksymalizuje błąd II rodzaju i odwrotnie. Na pytanie o to, który błąd lepiej minimalizować, można odpowiedzieć tylko przy rozpatrywaniu konkretnych problemów badawczych i rozważeniu konsekwencji wynikających z podjęcia określonej decyzji odnośnie do hipotezy zerowej.
Stopień kontroli w planie eksperymentalnym: w planach o wysokim stopniu kontroli zmiennych ubocznych można przyjąć poziom α = 0,05, w planach o niskim poziomie kontroli zmiennych ubocznych powinno się użyć mniejszej wartości α, np. = 0,01, gdyż uzyskane małe różnice równie dobrze mogą być rezultatem wpływów zmiennych ubocznych na ZZ, jak i wynikiem oddziaływania manipulacji eksperymentalnej. W planach o niskim stopniu kontroli przez przyjęcie mniejszej wartości α zaostrzamy kryterium odrzucania hipotezy zerowej.
Elastyczność testu: jest to zdolność do utrzymania logicznie wyprowadzonych z jego wyników wniosków, gdy jedno lub więcej założeń leżących u jego podstaw uległo pogwałceniu, gdy dane empiryczne nie spełniają wszystkich wymagań stawianych przez test należy wybrać mniejszy błąd oszacowania i traktować go jako większy - należy wybrać np. poziom α = 0,01 i interpretować go jako 0,02 czy 0,05.
Testy jednostronne a testy dwustronne: z natury testu jednorodnego wynika jego zdolność do szybszego odrzucania hipotezy zerowej niż w przypadku testu dwustronnego. Zastosowanie testu jednostronnego wymaga uzasadnienia „kierunkowości” hipotezy roboczej.
Poziom ufności: daje granice, w których leży szacowana na podstawie wartości z próby wartość np. różnic między średnimi w populacji. Zależność jest taka, że zmniejszenie wartości α daje większą pewność, że szacowana wartość różnicy w populacji znajdzie się w granicach przedziału ufności, ale jednocześnie wielkość tego przedziału zwiększa się. Trzeba zatem wybierać między pewnością przewidywania a wielkością przedziału ufności (czyli dokładnością wyznaczania „prawdziwej” wartości różnicy).
Testowanie a ocena hipotez: jeżeli testuje się dwie dobrze uzasadnione hipotezy, które wynikają z dwóch różnych teorii i jeżeli wynik tego testowania ma przesądzić o słuszności tylko jednej z nich, trzeba przyjąć bardziej rygorystyczny poziom istotności, natomiast w badaniach eksploracyjnych mniej rygorystyczny poziom istotności może dać w efekcie większą liczbę wstępnie potwierdzonych hipotez, z których każda po kolei może być później walidowana oddzielnie.
Co to znaczy, że eksperyment okazał się nietrafny wewnętrznie i co można zrobić, aby trafność wewnętrzną podnieść?
Za badanie trafne wewnętrznie uznaje się badanie przeprowadzone w sposób umożliwiający uzyskanie prawdziwej odpowiedzi na sformułowane przez badacza pytanie, umożliwiające rozwiązanie problemu badawczego. Inaczej mówiąc, badanie trafne wewnętrznie stwarza możliwość uzyskania potwierdzenia hipotezy, jeżeli jest ona prawdziwa lub jej odrzucenia, jeżeli jest ona fałszywa.
Eksperyment uznaje się za nietrafny wewnętrznie, gdy okazuje się, że zastosowana przez badacza manipulacja ZN jest nieskuteczna, tzn. o.b. poddane oddziaływaniom różnych poziomów czynnika, jakim badacz manipulował nie ujawniły istotnych różnic natężeń zmiennych zależnych.
Eksperyment jest nietrafny wewnętrznie wtedy, gdy badacz nie maksymalizuje wariancji cząstkowej wprowadzonej przez daną ZN - główną, tzn. nie wybiera takich wartości ZN, które zneutralizowałyby ”szum” wprowadzony przez inne ZN - zakłócające, które pokonałyby próg zakłóceń innych zmiennych.
Czynniki zakłócające trafność wewnętrzną:
historia: specyficzne zdarzenia wpływające obok ZN - głównej na ZZ, działające w okresie między pierwszymi i ostatnimi czynnościami badawczymi,
dojrzewanie - spontaniczny rozwój organizmu w trakcie trwania eksperymentu, np. rozwój intelektualny, społeczny, starzenie się,
testowanie - interferencyjny wpływ pomiaru początkowego ZZ przeprowadzonego przed wprowadzeniem ZN - głównej,
d) selekcja osób - stronniczość wynikająca z różnic w doborze o.b. do porównywanych grup.
Sposoby maksymalizowania trafności wewnętrznej:
randomizacja i rozbudowanie planu eksperymentalnego o dodatkowe czynniki,
wzrost realizmu eksperymentalnego - zwiększenie siły wpływu wywieranego na badanego,
oczyszczenie manipulacji z dodatkowych zmiennych, które być może zostały w nią uwikłane,
zmiana poziomu czynnika (ZN), do których przydzielamy o.b. na których manipulujemy ZN,
zwiększenie ich liczby - zmaksymalizowanie różnic między poziomami.
Co to znaczy, że eksperyment okazał się nietrafny zewnętrznie i co można zrobić, aby trafność zewnętrzną podnieść?
Rodzaj trafności, który związany jest z prawomocnością zabiegu generalizowania RB (treści hipotezy potwierdzonej w badaniu empirycznym) z próby na populację, nazywany jest trafnością zewnętrzną. Badanie empiryczne jest trafne zewnętrznie, jeżeli na poziom populacji opisanej podzakresami wartości zmiennych niezależnych oraz zmiennej zależnej można będzie przenieść RB uzyskany z badania przeprowadzonego na poziomie próby.
Eksperyment jest nietrafny zewnętrznie, gdy jego wyniki nie dają się uogólnić z grupy osób, na których je uzyskano, na możliwie dużą grupę (populację), nie poddaną badaniu a interesującą badacza.
Czynniki zakłócające trafność zewnętrzną:
Reaktywne albo interakcyjne efekty testowania - efekt uwrażliwienia o.b. w wyniku przeprowadzenia pomiaru początkowego ZZ przed wprowadzeniem ZN - głównej. W wyniku wystąpienia efektu uwrażliwienia może się okazać, że wyniki uzyskane z końcowego badania grupy osób poddanych wstępnemu testowowaniu będą niereprezentacyjne dla populacji, która nie podlegała testowaniu, a z której poprano próbę do badania.
Efekty interakcji stronniczej selekcji o.b. ze zmienną eksperymementalną - efekt wywołany niewłaściwym doborem o.b. do porównywanych grup.
Sposoby maksymalizowania trafność zewnętrznej:
wzrost zróżnicowania treściowego manipulacji eksperymentalnej (sposoby manipulacji tym samym czynnikiem wewnątrz eksperymentu):
Stopień sympatii, jaką wzbudza nadawca,
Wzbudzanie autorytetu,
Wzbudzanie zaufania,
wzrost liczby i sposobów pomiaru ZZ:
jak zmienia się opinia ludzi,
podatność na kontrpropagandę,
wzrost zróżnicowania badanej próby - im bardziej zróżnicowane próby, tym bardziej pokrywają regiony populacji generalnej,
wzrost realizmu eksperymentalnego.
Wyjaśnij, jaki jest związek między rzetelnością i trafnością testu - na czym polega i dlaczego jest taki właśnie?
Rzetelność testu to miara dokładności pomiaru dokonywanego za pomocą testu (test mierzy to, co mierzy). Im wyższa rzetelność testu, tym większa dokładność, z jaką mierzy on dana zmienną i mniejszy błąd pomiaru.
Trafność testu to stopień, w jakim test mierzy to, co powinien mierzyć. Trafność - poprawność wniosków wyprowadzonych na podstawie wyników testowych lub innych form badania.
Trafność testu wiąże się z jego rzetelnością. Jeśli test nie jest rzetelny nie można oczekiwać od niego wysokiej trafności (warunkiem trafności jest rzetelność; rzetelność testu stanowi granicę jego trafności).
Nie jest jednak tak, że wysoka rzetelność oznacza jednocześnie wysoką trafność testu. Nie każdy rzetelny test jest trafny, ponieważ może on dokładnie mierzyć, ale inną cechę niż ta, która ma być mierzona.
Gdy maleje rzetelność, to trafność także maleje.
Kiedy i dlaczego należy stosować pomiar początkowy, a kiedy można lub należy z niego zrezygnować?
Pomiar początkowy stosuje się po to, by poznać wyjściowy poziom zmiennej zależnej.
Pozwala to po zakończeniu badań poznać wielkość zmiany (przyrostu lub spadku wartości zmiennej zależnej), jaka została wywołana zamierzonym postępowaniem eksperymentalnym (poddaniem wpływowi zmiennej niezależnej). Zwiększa on również pewność wniosków na temat trafności wewnętrznej.
Pomiar początkowy stosuje się, jeżeli badacz wie, że nie wpłynie on na działanie zmiennej niezależnej, czy na wynik końcowy badania. Czyli np. kiedy w pomiarze początkowym dokonujemy pomiaru reakcji skórno-galwanicznej GSR.
Pomiar początkowy stosuje się m. in. w planie eksperymentalnym Solomona, przy planie z grupą kontrolną, pomiarem początkowym, końcowym zmiennej zależnej i przy planie z pomiarem początkowym i końcowym ZZ w różnych grupach.
Zdarza się, że niektóre metody stosowane przy pomiarze początkowym uwrażliwiają o.b., co może zwiększyć podatność o.b. na postępowanie exp. (na wpływ ZN na ZZ). Zniekształca to lub osłabia manipulację ZN. Np. przy pomiarze początkowym dotyczącym postaw o.b. są bardziej podejrzliwe, ich postawy mogą ulec zmianie, inaczej zaczynają myśleć. Może do tego dojść, jeśli dokonuje się pomiaru początkowego inteligencji, opinii i postaw, wiadomości - w tych wypadkach należy zrezygnować z pomiaru początkowego. Pomiaru tego nie stosuje się też kiedy obniża on trafność zewnętrzną, czyli ogranicza możliwości wnioskowania na populację, która jest przedmiotem zainteresowania badacza.
Niekoniecznie musimy z powyższych powodów zawsze rezygnować z pomiaru początkowego. Efekt pomiaru początkowego można zminimalizować poprzez odsunięcie w czasie pomiaru początkowego i pomiaru końcowego, przez odsunięcie ich w kontekście (wpajamy badanym, że owe pomiary nie mają ze sobą nic wspólnego, że zgubiliśmy wyniki i prosimy ponownie wykonać badanie).
Stosowanie plany exp. Solomona pozwala kontrolować efekt pomiaru początkowego bez rezygnowania z tego pomiaru. Pozwala on na kontrolowanie wszystkich czynników zakłócających trafność zewnętrzną i wewnętrzną exp.
Dlaczego ochotnicy mogą być źródłem artefaktów?
Gdy o.b. to ochotnicy, to ograniczone zostają możliwości generalizacji wniosków. 0,05, Determinanty ochotniczego zgłaszania się do badania:
czynniki sytuacyjne:
pobudki materialne
sposób werbowania do eksperymentu - może mieć charakter prywatny lub publiczny
osoba przeprowadzającego lub organizującego badanie - im wyższy status eksperymentatora, tym więcej chętnych do badania
temat badania sygnalizowany potencjalnym o.b.
czynniki osobowe:
płeć - zależy od tematu eksperymentu - kobiety wolą standardowe badania, mężczyźni - niezwykłe
stopień uspołecznienia - ochotnicy wykazują wyższy stopień uspołecznienia niż nieochotnicy
potrzeba aprobaty - w wielu badaniach stwierdzono, że ochotnicy wykazują większą potrzebę aprobaty społecznej
konformizm - fakt zgłaszania się o.b. do exp. Może być interpretowany jako konformizm wobec autorytetu
autorytaryzm i etnocentryzm - ochotnicy wykazują niższy autorytaryzm i etnocentryzm
poziom lęku
poszukiwanie pobudzenia
poziom przystosowania i samooceny- ochotnicy są lepiej przystosowani i zdrowsi fizycznie
inteligencja - wyższa u ochotników
potrzeba osiągnięć - wyższa u ochotników
Dlaczego osoba eksperymentatora może być źródłem artefaktów?
Artetefakty wynikające z właściwości eksperymentatora:
główna rolę odgrywa nastawienie badacza:
mężczyźni eksperymentatorzy uzyskują większy efekt potwierdzenia oczekiwań niż kobiety eksperymentatorki
kobiety jako o.b. częściej i silniej reagują na oczekiwania eksperymentatora
kiedy eksperymentator i o.b. są tej samej płci - efekt oczekiwania jest większy niż kiedy są innej płci.
Bardziej profesjonalni i bardziej dominująco zachowujący się eksperymentatorzy uzyskują silniejszy efekt potwierdzenia oczekiwań
b) nastawienie wobec eksperymentatora może być przyczyną różnic w:
- Zachowaniu wobec o.b.
- Selekcji przypadków do badań
- Obserwowaniu reakcji o.b.
- Analizowaniu danych.
subtelne, paralingwistyczne sygnały informują o.b. o oczekiwaniach eksperymentatora. Reakcja o.b. jest efektem pewnych zachowań eksperymentatora, ale zachowanie badacza jest także skutkiem reakcji badanego
indywidualny, charakterystyczny dla danego badacza sposób przeprowadzania badania: jego styl ekspresyjny. Eksperymentatorzy mało autorytarni uzyskali większe zmiany postaw o.b., tak jak eksperymentatorzy z dużą tendencją do potakiwania.
Jakich błędów należy unikać podczas formułowania hipotez?
Hipoteza badawcza to stwierdzenie, co do którego istnieje pewne prawdopodobieństwo, że stanowić będzie ono prawdziwe rozwiązanie postawionego problemu badawczego.
Dane stwierdzenie może być uznane za hipotezę naukową, jeżeli jest sprawdzalne - zdanie wyrażające hipotezę powinno zawierać terminy wyrażające pojęcia teoretyczne oraz obserwowalne Sprawdzalność hipotez nakłada określone warunki na sposób ich formułowania: na dobór terminów, za pomocą których hipotezy te, a więc ostatecznie wszelkie twierdzenia syntetyczne, są budowane.
Terminy teoretyczne (predykatory teoretyczne) występujące w hipotezach powinny posiadać moc predyktywną.
Jeżeli hipoteza jest „zdolna” wyjaśnić tylko te fakty, do wyjaśnienia których została sformułowana i nie jest zdolna do przewidywania nowych faktów (prognoz zjawisk innego typu), to może ona zasługiwać jedynie na miano hipotezy ad hoc (doraźnej). Hipotezy, które postulują „coś” i znajdują potwierdzenie wyłącznie w faktach, do wyjaśnienia których zostały powołane, noszą nazwę hipotez „metodologicznie wadliwych”. W sytuacji, gdy to „coś” posiada tylko te cechy, które służą wyjaśnieniu faktów, ze względu na które dokonuje się wspomnianego postulowania, to można mówić o metodologicznym błędnym kole.
Najlepszym sposobem unikania hipotezy ad hoc jest wyprowadzanie jak największej liczby różnorodnych konsekwencji empirycznych, które dadzą się skonfrontować z doświadczeniem (wyprowadzenie z nich dalszych, sprawdzalnych implikacji). Temu samemu celowi służy oparcie hipotezy na innych, sprawdzonych teoriach.
Ponadto dobrze sformułowana hipoteza musi:
Być adekwatną odpowiedzią na problem
Być najprostszą odpowiedzią na problem, gdyż im bardziej prostą przyjmie postać, tym łatwiej będzie można ją sprawdzić
Być tak sformułowana, by łatwo można ją było przyjąć względnie odrzucić
Nie powinna przyjmować postaci szerokiej generalizacji.
Hipotezy zawsze formułuje się w postaci twierdzącej.
Rodzaje hipotez ad hoc:
Hipotezy pomocnicze: ich celem jest ratowanie zagrożonych teorii
Hipotezy samodzielne: służą wyjaśnieniu nowych zjawisk.
Co utrudnia uogólnianie wyników uzyskanych w badaniach empirycznych?
Uogólnienie wyników uzyskanych w badaniu empirycznym może być utrudnione przez:
Brak symetrii zmiennych zależnych próby i zmiennych zależnych populacji pod względem:
Liczby zmiennych ważnych (adekwatność zmiennych zależnych próby względem zmiennych zależnych populacji)
Podzakresów wartości tych samych zmiennych ważnych (nieadekwatność zmiennych zależnych próby względem zakresów ważności zmiennych ważnych zmiennych zależnych populacji)
Brak symetrii zmiennych zależnych próby i zmiennych zależnych populacji pod względem wartości podzbioru zmiennych zakłócających w zmiennych zależnych próby - pewne zmienne w nim występujące nie pojawiają się w zmiennych zależnych populacji
Stosowanie pomiaru zmiennych, a zwłaszcza pomiaru zmienne zależnej (kontekst pomiaru) przed (tzw. Efekt pretestu) i po wprowadzeniu manipulacji exp. (posttest), w celu ustalenia wielkości efektu experymentalnego.
Dobór osób do grup porównawczych (np. experymentalnej i kontrolnej) nie respektujący zasady randomizacji (kontekst selekcji), a zwłaszcza wykorzystywanie w badaniach:
Ochotników
Osób „specjalnych”, np. więźniów, żołnierzy, studentów psychologii, osób zamieszkujących wyraźnie wyodrębnione i „nietypowe” terytoria
Osób w jakiś sposób uzależnionych od badacza, np. student zdający egzamin u profesora prowadzącego nieprzyjemne badania nad stresem
Prowadzenie badań w warunkach nie odpowiadających warunkom, na które będą uogólniane wyniki badania (kontekst warunków)
Oddziaływanie na o.b. z próby w czasie trwania badania, zdarzeń „zewnętrznych” wobec sytuacji badawczej (kontekst historyczny), które nie wystąpią z inną intensywnością wtedy, gdy badacz będzie odnosił wyniki otrzymane na podstawie badania próby do osób z całej populacji.
Wchodzenie o.b. w interakcje z badaczem (kontekst psychologiczny), co związane jest z oddziaływaniem na ZZ takich zmiennych kontekstu psychologicznego, jak:
Lęk o.b. przed oceną
Wskazówki sugerujące o.b. treść hipotezy badawczej
Motywacja o.b.
Oczekiwania interpersonalne badacza
Wchodzenie badacza w interakcję z instytucjami (kontekst socjologiczny) zmieniającymi przeprowadzenie badań (sponsorującymi je)
Inaczej:
Uchybienia metodologiczne:
Brak reprezentatywnej grupy
Brak rzetelnego narzędzia badawczego
Brak trafnego narzędzia badawczego
Oczekiwania badacza
Niedostateczna ilość informacji
Niejasne połączenie wyników z teorią
Korelacja - wszystkie wady analizy