Dr Adam Tarnowski
Metodologia badań psychologicznych.
Liczba zapożyczeń i cytatów w poniższym tekście jest tak duża, że trudno byłoby nawet w przybliżeniu stwierdzić, którym osobom co konkretnie autor zawdzięcza. Wymienię więc tylko w porządku alfabetycznym tych, z którymi zetknąłem się bezpośrednio, bądź słuchając ich wykładów, prowadząc seminaria według ich programu, korzystając z ich niepublikowanych opracowań, bądź też uwag w rozmowach prywatnych i konsultacjach własnych badań.
Prof. Elżbieta Aranowska
Prof. Andrzej Góralski
Dr hab. Maciej Haman
Prof. Józef Kozielecki
Prof. Tytus Sosnowski
Specjalne podziękowanie muszę zamieścić również dla Małgorzaty Wołejko (której zawdzięczam wiedzę o m.in. o badaniach internetowych)
Wiadomości z niniejszego skryptu warto uzupełnić o następujące lektury:
Brzeziński, J. (1998) Metodologia badań psychologicznych. Warszawa: PWN
Strelau J., (red.) (2000) Psychologia: podręcznik akademicki. T.1. rozdziały 9-12.
Carnap, R. (2000) Wprowadzenie do filozofii nauki Warszawa: Aletheia
Hempel, C.G. (2001) Filozofia nauk przyrodniczych. Warszawa: Aletheia
Choynowski, M. (1971) Pomiar w psychologii (w:) Kozielecki J.(red.) Problemy psychologii matematycznej, Warszawa: PWN.
Egzamin testowy będzie obejmował treść wykładu oraz artykuł Choynowskiego.
Zasoby Sieci:
Wskazówki dla wykładowców metodologii:
Notatki z wykładów na Uniwersytecie Gdańskim (dr Sylwiusz Retowski):
Spis treści
Czym jest nauka.
Rzetelność naukowa nie jest, jak mogłoby się wydawać, sprawą wyłącznie warsztatu stosunkowo nielicznej grupy, jaką stanowią aktywni naukowcy, prowadzący samodzielne badania. Dzieje się tak z kilku powodów.
Po pierwsze, każdy człowiek jest odbiorcą pewnej wiedzy gromadzonej w sposób mniej lub bardziej naukowy. Aby nie ulegać mechanicznie argumentom typu "jak dowodzą badania naukowe" lub "jak wynika z testów klinicznych"(zwłaszcza ten ostatni slogan oznacza zresztą najczęściej niezbyt systematyczne gromadzenie danych) musimy znać przynajmniej podstawy prowadzenia takich badań. Z badań naukowych (konkretnie empirycznych badań społecznych) korzystamy również, gdy chcemy zaspokoić swoją ciekawość czytając w gazecie wyniki różnych ankiet czy sondaży przedwyborczych. Po drugie korzystanie z badań naukowych dla wielu z nas nie ogranicza się do biernej recepcji. Przeprowadzenie samodzielnych badań jest warunkiem uzyskania stopnia magistra, niekiedy też z przyczyn zawodowych prowadzimy lub zlecamy badania marketingowe lub sondaże.
Studia psychologiczne są obowiązkowo pięcioletnie. Oznacza to że każdy kto chce zostać psychologiem powinien „dołożyć” fragment do ogólnego potencjału wiedzy w tej dyscyplinie. Nie chodzi przy tym jedynie o rozwój wiedzy. Wiedza psychologiczna ma wciąż „miękki” charakter. Użytkownik tej wiedzy powinien być w pełni świadomy ograniczeń- probabilistycznego, a nie deterministycznego charakteru twierdzeń, problemów z nieścisłością wskaźników i definicji, itd., itd... Generalnie, metodologia- i uczestnictwo w tworzeniu psychologii jako nauki- powinno nauczyć nas krytycyzmu, odróżniania twierdzeń ustalonych z dużym stopniem pewności i względnie uniwersalnych od tych, które stanowić mogą jedynie źródło hipotez i inspirację do szukania własnych rozwiązań problemu.
Obowiązek rzetelności naukowej spoczywa (naturalnie proporcjonalnie do posiadanych możliwości) nie tylko na osobie prowadzącej badania, ale także na tych, którzy wiedzę przyjmują.
Zawód psychologa polega na rozumieniu ludzi, opisywaniu i przewidywaniu ich zachowania, oraz udzielania im pomocy. Do tych celów konieczny jest prawidłowy aparat pojęciowy i znajomość pewnych zasad. Nie można jednak bezkrytycznie przyjmować ani tych pojęć, ani też tych zasad. Jednym z największych osiągnięć filozofii nauki jest świadomość granic- każde twierdzenie naukowe prawdziwe jest tylko w pewnym zakresie. Jednym z głównych zadań niniejszego skryptu jest pokazanie, jak te granice wytyczać.
Psychologia jako pole badań empirycznych.
Pojęcie "nauki społeczne" obejmuje niezwykle szerokie spektrum wiedzy o człowieku i jego działaniu. Zaliczane do nauk społecznych są psychologia (zwłaszcza psychologia społeczna, będąca nauką o funkcjonowaniu człowieka jako członka różnych grup), socjologia (stanowiąca gałąź wiedzy o grupach ludzi i procesach w nich zachodzących), nauki ekonomiczne, politologia, medycyna (w szczególności epidemiologia, psychiatria społeczna) czy też prawo. Każda z wymienionych nauk posiada swój odrębny przedmiot i swoje metody.
Psychologia nie jest jedynie nauką społeczną. Wiele z jej poddyscyplin pokrywa się w części zakresem i metodami z naukami biologicznymi (neurobiologia, neurofizjologia, etologia), formalnymi (modelowanie matematyczne, sztuczne sieci neuronowe) czy wręcz technicznymi (ergonomia). Ostatnich kilkanaście lat przyniosło burzliwy rozwój interdyscyplinarnych gałęzi wiedzy- nauk o poznaniu (cognitive science), nauk o systemie nerwowym (neurosciences).
Nauki szczegółowe zatem badają pewien wycinek rzeczywistości. Wycinek ten to z jednej strony określony przedmiot, dziedzina badań (mówimy tu o redukcji tematycznej w obrębie danej dyscypliny) oraz specyficzna metoda badań (nazywamy to abstrakcją metodyczną).
Od razu więc warto stwierdzić, że przedmiotem rozważań będzie wyłącznie metodologia badań empirycznych. Poza naszymi zainteresowaniami znajdzie się zatem wiele nauk wykorzystujących zupełnie inną metodologię.
Weizacker pisze: Stosunek filozofii do tak zwanej nauki pozytywnej można sprowadzić do następującej formuły: Filozofia stawia takie pytania, jakich niepostawienie było warunkiem sukcesu metody naukowej. Zawiera się w tym więc twierdzenie, że nauka zawdzięcza swój sukces między innymi rezygnacji ze stawiania pewnych pytań.(za: Anzenbacher 1987)
Metodologia ogólna uczy nas, że nauki podzielić można na indukcyjne i dedukcyjne. Nauki dedukcyjne konstruują swój system wiedzy wychodząc z określonych założeń, ich rozwój zaś polega na wyciąganiu szczegółowych konsekwencji. Naturalnie badane są różne systemy założeń i pojęć pierwotnych. Do takich nauk zaliczyć można matematykę, filozofię, prawo. Nauki indukcyjne funkcjonują odwrotnie- starają się gromadzić obserwacje jednostkowych faktów i na ich podstawie formułować prawa ogólne. Jeżeli zatem rozważania ograniczymy do metodologii badań empirycznych, poza naszymi zainteresowaniami znajdzie się cała grupa nauk dedukcyjnych. Ale nie tylko- również w obrębie tych nauk, które tradycyjnie deklarują się jako indukcyjne i empiryczne, jak choćby psychologia, wiele cennych odkryć zostało dokonanych z pominięciem reguł, o których mowa będzie w tym opracowaniu. Problemy te będą jeszcze dyskutowane przy omawianiu szczegółowych zagadnień.
Rozdzielenie nauk dedukcyjnych i indukcyjnych jest nieco sztuczne- matematyka używa elementów indukcji, zaś nauki empiryczne bez dedukcji sprowadzały by się do katalogowania faktów.
Wygodniej więc będzie przyjmować podział zaproponowany przez Hempla: na nauki empiryczne i nieempiryczne. Wśród nauk empirycznych wyróżnić można nauki społeczne i przyrodnicze.
Arystoteles dzielił nauki na matematykę (zajmującą się tym co jest nieruchome i nie istnieje osobno) fizykę (to co ruchome i istniejące osobno) oraz metafizykę (obejmuje to co nieruchome i istniejące osobno). Dziś ten podział ma charakter historyczny- niemniej warto zwrócić uwagę na celną obserwację: nauki formalne (nieempiryczne) zajmują się opisem cech stałych i ogólnych. Nauki empiryczne zajmują się „tym co ruchome”- zmiennością zjawisk.
Ciekawy test na temat filozoficznych podstaw wiedzy psychologicznej:
Definicja wiedzy naukowej.
Podstawowym, choć jak się dalej okaże nieco sztucznym podziałem jest rozróżnienie wiedzy naukowej i wiedzy potocznej. Nie każda wiedza, określana jako naukowa spełniała jej dzisiejsze kryteria. Kasta kapłanów-mędrców stanowiła pierwszą społeczność, która gromadziła wiedzę w sposób systematyczny. Metodologia ówczesna bywa nazywana empiryczną- oparta jest na metodzie prób i błędów, prostego gromadzenia faktów. Przewidywanie nie opierało się na prawach przyczynowo-skutkowych, lecz na prostej zasadzie, iż po podobnych zjawiskach następować będą podobne następstwa. Astronomia egipska opierała się na żmudnym zbieraniu informacji- co tydzień na dachu świątyni siadało dwóch kapłanów twarzami do siebie i rysowało co widać- łącznie z drugim kapłanem. Takie informacje systematycznie gromadzono przez tysiące lat. Tak więc nie tylko przedsięwzięcia budowlane, lecz również „naukowe” z tamtych czasów były możliwe dzięki wytrwałości wielu pokoleń.
Z Egiptu wywodzi się pierwsze dzieło metodologiczne, opisujące sposób zapisu liczb. Autorem jego jest Ahmes, zaś skromny tytuł Reguły badania wszystkich rzeczy i poznania wszystkiego, co istnieje, każdej ukrytej tajemnicy świadczy, iż już wówczas za dominującą cechę wiedzy naukowej uważano możliwość jej matematycznej formalizacji.
W świetle współczesnych poglądów wiedza, aby została uznana za naukową spełniać musi kilka kryteriów. Do najważniejszych z nich zaliczyć wypada sprawdzalność, obiektywizm, ścisłość języka.Sprawdzalność. Każde stwierdzenie, jeżeli chce pretendować do miana naukowego powinno być sprawdzalne. Popper postulował, aby kryterium tego co naukowe była potencjalna możliwość falsyfikacji teorii. Zamiast pytać „jakie są argumenty świadczące o prawdziwości teorii X” zastanawiał się „jakie warunki musiały by zostać spełnione aby teorię X odrzucić”. Jeśli teoria jest zawsze w każdych warunkach prawdziwa- nie jest teorią naukową na gruncie nauk empirycznych.
Obiektywizm. Warunek ten oznacza, że badacz powinien prowadzić badania w sposób nietendencyjny, nie starając się udowodnić na siłę swoich hipotez. Badanie powinno być opisane w taki sposób, aby każdy mógł je powtórzyć, i sprawdzić w ten sposób uzyskane rezultaty. Doświadczenie uczy jednak, że warunek ten nie jest łatwy do spełnienia. Często badacze przejawiają wobec sformułowanych przez siebie hipotez "ojcowski afekt". Jeżeli hipoteza nie potwierdza się, starają się zmienić metody analizy danych lub zwalają winę na warunki badania, dobór grupy itp. Najczęściej, o ile samo badanie przeprowadzone zostało prawidłowo rzetelna interpretacja jego wyników może być cenna dla nauki, niezależnie od tego, czy potwierdziła się teoria autora badań, czy też nie.
Każdy wynik eksperymentu czy obserwacji powinien dać się powtórzyć w podobnych warunkach. Nakłada to na badacza obowiązek z jednej strony przestrzegania ogólnych reguł postępowania, z drugiej zaś przedstawiania możliwie pełnej dokumentacji prowadzonych badań, tak aby każdy, komu wyniki wydadzą się wątpliwe, mógł eksperyment powtórzyć. Oczywiście spełnienie tego warunku nie zawsze jest możliwe. Nawet w dziedzinie tak ścisłej jak astronomia naukowcy często zdobywają wiedzę obserwując zjawiska unikalne, które zdarzą się powtórnie dopiero za wiele lat. Również na obszarze nauk społecznych spełnienie kryterium powtarzalności jest często trudne. Jeżeli badania np. prowadzone są w ekstremalnych warunkach, narażających na szwank zdrowie, czy choćby psychikę uczestników (por. eksperymenty w psychologii społecznej) powtórzenie wyników jest często niemożliwe. Nawiasem mówiąc ograniczenia etyczne stanowią często największe ograniczenie dla ścisłości badań w naukach społecznych. Wielu naukowców za nic nie przyzna się jednak, że zaniechało badania jakiegoś zjawiska z tak "pozamerytorycznego" powodu. Jak trudno jest obiektywnie przeprowadzić badanie wykazano na jednym z uniwersytetów amerykańskich, polecając dwóm grupom studentów przeprowadzić samodzielnie proste badanie ankietowe. Jedna z grup została poinformowana, że ich praca służyć będzie rozwiązaniu niezwykle istotnego problemu badawczego, drugiej grupie zaś te samo badanie przedstawiono jako ćwiczenie praktycznych umiejętności badawczych, bez konkretnego zastosowania. W rzeczywistości wszyscy studenci prowadzili to samo badanie, w którym hipotezy były fałszywe. Mimo, że obie grupy miały prowadzić swoje badania obiektywnie i według tych samych reguł, grupa "zaangażowana" otrzymała wyniki potwierdzające postawioną (fałszywą) hipotezę. Rezultat taki świadczy o trudności w zachowaniu rzeczywistego obiektywizmu w trakcie prowadzenia badań.Ścisłość języka naukowego oznacza dbałość o precyzję wypowiedzi i obowiązek podawania dokładnych definicji wprowadzanych przez siebie pojęć. Pojęcia naukowe winny posiadać sens empiryczny, tzn. dla każdego teoretycznie opisywanego zjawiska należy określić wskaźniki- zjawiska obserwowalne.
Trzy światy Poppera
"... świat składa się przynajmniej z trzech ontologicznie różnych podświatów, lub też, inaczej mówiąc [...] istnieją trzy światy: pierwszy jest światem fizycznym, światem stanów fizycznych; drugi jest światem duchowym lub światem stanów umysłowych, trzeci zaś jest światem intelligibiliów lub idei w obiektywnym sensie, jest to świat możliwych przedmiotów myśli: świat teorii samych w sobie, ich relacji logicznych, argumentów i sytuacji problemowych samych w sobie."( K. Popper (1992) Wiedza obiektywna. Ewolucyjna teoria epistemologiczna, Warszawa: PWN 1992,s. 209)
Problem obiektywizmu pojawia się wraz z koniecznością porozumienia się z innymi. Świat fizyczny odzwierciedlany jest w subiektywnym świecie doznań psychicznych każdego człowieka. Część tego świata subiektywnego potrafimy jednak przekazywać sobie nawzajem - i to, co możemy sobie przekazać tworzy świat intersubiektywny.
Warto w tym miejscu zasygnalizować dwa prądy w teorii nauki, powstałe wskutek dążenia do maksymalnej ścisłości języka. Pierwszy z nich, zwany operacjonalizmem postulował wyrażanie wszystkich pojęć wyłącznie w terminach zjawisk obserwowalnych. Pojęcia teoretyczne, o ile w ogóle dopuszczane, traktowane były wyłącznie jako źródło pomysłów do przewidywania nowych faktów. Popularnym argumentem był tzw. dylemat teoretyka, sformułowany przez Hempla- "jeżeli pojęcia teoretyczne nie prowadzą do ustalenia nowych faktów empirycznych- są fałszywe, jeżeli natomiast uda się odkryć nowe fakty- stają się zbędne". W skrajnej formie (Bridgman) kierunek ten postulował definiowanie pojęć przez wskazanie odpowiednich operacji testujących. Nowa metoda pomiaru wymagała wprowadzenia nowego pojęcia. Polemizując ze stanowiskiem operacjonalistów stwierdzić można, że w naukach empirycznych, zwłaszcza zaś społecznych, gdzie istnieje ogromna różnorodność narzędzi badawczych sprowadzenie wszystkich pojęć teoretycznych do obserwowalnych nastręcza duże trudności. Minimalna modyfikacja narzędzia badawczego powodowała by zatem konieczność znacznego przeformułowania teorii, a nawet potrzebę powtórnej weryfikacji uzyskanych wcześniej rezultatów. Dwaj socjologowie badając pokrewną problematykę dwoma różnymi ankietami nie mieli by możliwości znalezienia wspólnego języka. Eliminacja z języka naukowego pojęć nieobserwowalnych stanowiła by dużą komplikację, i na pewno nie zwiększyła by jego jasności- spróbujmy przeformułować ściśle operacyjnie twierdzenie „agresja jest wynikiem frustracji”. Można stwierdzić, że operacjoniści dążąc do ścisłości języka nauki nie docenili znaczenia jego funkcji systematyzacyjnej. Mnożenie pojęć uniemożliwiłoby w praktyce stworzenie systematycznego obrazu rzeczywistości. Operacjonalizm miał na celu ograniczenie spekulatywności i niejasności nauk społecznych na początku XX wieku. W chwili obecnej postulat ten nie jest już w pełni aktualny. Rozwój metodologii nauk społecznych pozwala już (przynajmniej w odczuciu autora tego opracowania) na posługiwanie się również konstruktami- pojęciami czysto teoretycznymi.
Niemniej jednak prowadząc badania empiryczne musimy umieć powiązać terminy teoretyczne i obserwowalne- będzie o tym mowa w części poświęconej operacjonalizacji zmiennych.Drugi kierunek, redukcjonizm, postulował istnienie w nauce (w nauce w ogóle lub przynajmniej w obrębie jednej gałęzi wiedzy) podstawowego systemu pojęć pierwotnych, do którego można by sprowadzić wszystkie pozostałe terminy. Naturalnie w naukach o charakterze dedukcyjnym jest to postulat realizowany- istnieje zestaw pojęć pierwotnych dla np. geometrii, w dużej mierze starają się go dopracować filozofowie- przynajmniej w obrębie poszczególnych szkół. W naukach społecznych zadanie jest jednak znacznie trudniejsze. Mimo podejmowanych prób sprowadzania pojęć związanych z funkcjonowaniem człowieka do terminów neurofizjologicznych lub też behawioralnych, nie udało się dotąd stworzyć zadowalającego systemu takich definicji. Jak się wydaje, musiałby on być bardzo złożony, ponadto raczej hamował by rozwój wiedzy niż prowadził do nowych odkryć. Niemniej warto pamiętać, że definicje nowych pojęć powinny jak najściślej wiązać je z już funkcjonującym systemem wiedzy w danej gałęzi nauki.
Warto zauważyć, że definicja każdego pojęcia winna podawać jego „treść istotną”, to co z punktu widzenia dyscypliny naukowej jest ważne, i w obrębie tej dyscypliny pozwala na optymalne formułowanie hipotez i praw. Sformułowanie pojęcia pamięci w terminach biochemicznych prawdopodobnie nie byłoby użyteczne w obrębie psychologii wychowawczej (choć naturalnie korzysta ona m.in. z odkryć biochemików). Antropologiczna definicja człowieka (istota o zwartym parabolicznym łuku zębodołowym) nie przyda się w psychologii, i odwrotnie. Podobni pojęcie świadomości określonej za pośrednictwem objętości mózgu w psychologii będzie bezużyteczne.Wśród teorii analizujących status pojęć teoretycznych warto wspomnieć również realizm. Przyznaje on pojęciom teoretycznym status równoważny terminom obserwacyjnym. Mogą one zatem również być prawdziwe albo fałszywe, stanowią naukowy, przybliżony opis rzeczywistości. Według celnej metafory K. Poppera "teorie są sieciami, chwytającymi to, co nazywamy światem; służą do racjonalnego ujmowania, wyjaśniania i opanowywania świata. Celem naszych wysiłków jest to, aby oczka tych sieci były coraz drobniejsze" (Popper 1977, s.53). Popper również krytykował nadmierną precyzję języka nauki. Użyteczne pojęcia charakteryzuje średnia precyzja (np. agresja jako zachowanie którego celem jest wyrządzenie szkody innym) co umożliwia zarówno nadawanie im empirycznego sensu (zgodzimy się że miarą agresji dziecka może być liczba bójek które w ciągu tygodnia zainicjował) jak i wbudowanie pojęcia w szerszą teorię (np. koncepcję frustracji-agresji).
Najczęściej badania prowadzone są w oparciu o teorię już funkcjonującą. Jeżeli jest to spójna i dobrze opracowana powszechnie znana teoria badacz nie ma obowiązku tak dokładnej analizy wprowadzanych pojęć- wystarczy że powoła się na dokonane już ustalenia teoretyczne. Wprowadzając natomiast nowe pojęcia do tej teorii zobowiązany jest zachować spójność z wcześniejszymi ustaleniami. Na przykład badacz- psycholog opierający się na behawioralnej koncepcji człowieka (analizującej działanie jednostki w kategoriach bodźców- reakcji, nawyków i uczenia się zachowań) popełni błąd odwołując się bezpośrednio do systemu wyższych wartości. Aby zachować spójność teorii powinien raczej mówić o "systemie wewnętrznych nagród", lub też zmienić przyjmowaną koncepcję człowieka. W obrębie psychologii humanistycznej definiowanie wartości jest z pewnością łatwiejsze.
Wiedza zdroworozsądkowa
Tradycyjnie wiedzy zdroworozsądkowej, w odróżnieniu od naukowej, przypisuje się następujące cechy:
dowodzenie jedynie na podstawie wybranych przypadków- tendencyjny dobór tych, które potwierdzają tezę.
Uznawanie poglądu, że jeśli B zdarzyło się później niż A , to A jest przyczyną B.
Interpretacja współwystępowania jako przyczynowości
Rozumowanie przez analogię- jeśli A i B mają podobne niektóre cech, to zapewne będą miały podobne i inne (ukryte teorie osobowości)
Złudzenie powszechności zjawiska - to co prawdziwe względem niektórych członków grupy nie musi być prawdziwe o innych.
Nieuprawnione indywidualizowanie- jeśli coś jest prawdziwe w stosunku do grupy, musi też być prawdziwe wobec każdego jej członka
Uleganie niemerytorycznej argumentacji (akceptacja jedynie na podstawie autorytetu).
(wg Paluchowski 2001)
Powyższe cechy niestety odnoszą się do bardzo wielu twierdzeń naukowych. Listę powyższych błędów logicznych należy więc traktować raczej jako przestrogę, w jako sposób umysł - zarówno „człowieka z ulicy” jak i naukowca może zbłądzić badając rzeczywistość.
Prawdziwość wiedzy naukowej.
Zagadnienie prawdziwości wiedzy.
Rozwój nauki polega na weryfikacji różnorodnych twierdzeń. W naukach empirycznych dokonuje się tego przez badanie rzeczywistości- zestawianie teoretycznych postulatów z realnymi faktami. Często mówi się również o statystycznej weryfikacji hipotez. Opisując wyżej reguły tworzenia poprawnych definicji pominęliśmy również fakt prawdziwości (istnienia) przedmiotu definicji. W tej sytuacji należy postawić pytanie- co na gruncie nauk empirycznych oznacza prawdziwość - pojęć, twierdzeń i teorii.W naukach dedukcyjnych sprawa jest prostsza- twierdzenie jest prawdziwe, jeżeli da się za pomocą reguł logicznego wnioskowania wyprowadzić z przesłanek- wcześniej udowodnionych twierdzeń lub aksjomatów (przyjmowanych bez dowodu podstawowych stwierdzeń danej dziedziny wiedzy).Również w naukach empirycznych korzystamy niekiedy z dedukcji, istnieją nawet duże obszary wiedzy jak np. psychometria- teoria pomiaru w psychologii o wysokim stopniu sformalizowania. W tym przypadku prawdziwość wniosku uzależniona jest jedynie od prawdziwości przesłanki, prawdziwość zaś teorii zależy od wartości jej aksjomatów. Ścisłość tych teorii bywa jednak często złudna. Należy pamiętać, że za każdym pomiarem stoją dwa podstawowe założenia teorii pomiaru- założenie istnienia relacji (tj. twierdzenie, że w ogóle istnieje związek między mierzoną rzeczywistą cechą a wartością pomiaru na skali) oraz założenie jednoznaczności tej relacji (tzn. każdej wartości cechy można przyporządkować tylko jedną wartość na skali). W wielu badaniach ankietowych i testowych założenia te wydają się wątpliwe.
Prawdziwość pojęć
Analizując zagadnienie prawdziwości pojęć teoretycznych (prawdziwość obserwowalnych zjawisk na ogół nie budzi wątpliwości), należy stwierdzić że pojęcie prawdziwe jest to po prostu pojęcie użyteczne. Użyteczność ta jest dwojakiego rodzaju. Z jednej strony pozwala porządkować teorię, z drugiej trafnie opisywać rzeczywistość. Pozwalając uporządkować pewien obszar rzeczywistości pojęcie samo staje się rzeczywiste. Jeżeli np. rozważamy prawdziwość pojęcia "ekstrawertyk" interesuje zarówno to, czy rzeczywiście da się na podstawie cech układu nerwowego wyodrębnić grupę ludzi o cechach przypisywanych temu typowi temperamentu, jak również czy rzeczywiście znamy ludzi do których określenie to pasuje.W naukach empirycznych, szczególnie społecznych pojęcia mają często charakter nieostry. Możemy wyobrazić sobie typowego choleryka, znamy jednak też z pewnością osoby do których to pojęcie pasuje tylko pod pewnym względem. Dlatego też we współczesnej metodologii klasyczną logikę dwuwartościową wypiera często wielowartościowa (tzw. rozmyta). Zwykle też bardziej użyteczne niż wskazanie typu do jakiego można zaliczyć daną osobę jest określenie jej pozycji na jakimś wymiarze (kontinuum). W naszym przypadku mogłoby to być kontinuum, na którego jednym końcu znajduje się typowy ekstrawertyk, na drugim zaś introwertyk.
Podejście wielowymiarowe do opisu rzeczywistości z kolei przywraca użyteczność klasycznym, jakościowym typom. Przykładowo osoba ekstrawertywna charakteryzuje się innymi właściwościami jeśli jest emocjonalnie zrównoważona, innymi zaś kiedy nie. Zatem użyteczne z punktu widzenia aktualnej wiedzy o temperamencie staje się przywrócenie klasycznych pojęć 4 typów osobowości- cholerycznego, sangwinicznego, flegmatycznego i melancholicznego.
Pułapkę stanowią tzw. ukryte paradygmaty- nieuświadomione założenia które rzutują na myślenie badacza o rozważanym przedmiocie. Dobrze opisane na gruncie psychologii są ukryte teorie osobowości, najczęściej mające swoje źródło w nieuprawnionym uogólnianiu pojedynczych przypadków, np. badając ekstrawersję badacz będzie przyjmował do wiadomości tylko te fakty które pasują do jego znajomego, typowego ekstrawertyka.
Ćwiczenie (na podstawie eksperymentu Kelly'ego). Narysuj trójkąt. Wypisz na jego wierzchołkach (A,B,C) imiona trzech znajomych. Zastanów się i zapisz jaką cechę osobowości posiadają A i B, której nie posiada C. Następnie zanotuj, jaką cechę posiadają A i C, natomiast nie posiada jej B. Uzupełnij schemat tym, co posiadają B i C w odróżnieniu od A. Wypisane przez Ciebie cechy to Twoje osobiste konstrukty, elementy ukrytej teorii osobowości. Należy uświadomić ją sobie, aby nie interferowała z teoriami naukowymi.
Prawdziwość twierdzeń
Prawdziwość twierdzenia w nauce o charakterze indukcyjnym nie jest tak prosta do wykazania, jak w przypadku wnioskowania dedukcyjnego. Indukcja polega na wnioskowaniu ze szczegółowych przesłanek na temat ogólnych prawidłowości, przy czym rzadko mamy do czynienia z indukcją zupełną- tj. ze sprawdzeniem wszystkich możliwych podstawowych faktów do których odnosić się będzie twierdzenie ogólne. Zwykle zakres wniosku przekracza wielokrotnie zakres zebranych przesłanek. Jest to istota badania reprezentacyjnego- na podstawie wyników np. ankiety zebranych od kilkuset osób wyciągamy wnioski o wszystkich mieszkańcach danego regionu. Wnioskowanie indukcyjne jest zatem zawodne i niepewne- jest to cena jaką musimy zapłacić w sytuacji, gdy ogólne twierdzenia chcemy weryfikować w oparciu o niewielki zbiór faktów. Dzięki jednak metodom statystycznym jesteśmy dziś w stanie oszacować prawdopodobieństwo takich twierdzeń. Reasumując, twierdzenia funkcjonujące w obrębie psychologii mogą być prawdziwe na mocy dowodu dedukcyjnego (np. 16% populacji posiada II wyższy niż 115, wynika to z zasad konstrukcji skali) bądź na mocy indukcyjnego dowodu empirycznego (Np. osoby o wysokim II charakteryzują się najczęściej lepszymi wynikami w nauce). Te ostatnie prawa nie są zwykle bezwyjątkowe, orzekają jedynie o prawdopodobieństwie zachodzenia pewnych zjawisk.
Prawdziwość teorii
Prawdziwość teorii naukowej, czyli systemu twierdzeń i terminów wiąże się z kilkoma czynnikami.
Po pierwsze, teoria ta musi być niesprzeczna z obserwowanymi faktami. Ważne też, aby jej struktura umożliwiała taką weryfikację. Jak wspomniano, zdaniem Poppera jeżeli teoria stanowi zestaw zdań zawsze prawdziwych niezależnie od wyniku doświadczenia zwykle nie wyjaśnia ona wiele i wartość jej jest niska.
Druga cecha prawdziwej teorii to jej użyteczność. Einstein wykazał, że można opisać wszechświat za pomocą teorii Ptolemeusza (tzn. zakładając, że Ziemia jest nieruchomym jego centrum) jak i według Kopernika, jednak opis ruchu ciał niebieskich za pomocą teorii Ptolemeusza wymaga niezwykle skomplikowanego aparatu matematycznego. Sam zresztą Kopernik (pamiętajmy że jego model powstał blisko dwieście lat zanim Newton sformułował teorię grawitacji) uznawał swój system za lepszy tylko dlatego, że wymagał mniejszej liczby hipotetycznych epicykli do opisania obserwowalnych zjawisk. Tak więc z dwóch teorii niesprzecznych z doświadczeniem za bardziej prawdziwą uznajemy tą, która podsuwa nam wyjaśnienie prostsze i bardziej użyteczne.
Teoria Kopernika stanowi dobry przykład ewolucji twierdzeń naukowych. Została ona stworzona jako model prostszy od poprzedniego, wymagający przyjęcia mniejszej ilości hipotetycznych konstrukcji. Przyrządy obserwacyjne nie mogły w tamtym czasie dostarczyć dowodów na jej poparcie, przewidywania - do czasów Keplera -były niedokładne, zaś mechanizm zjawisk zasadniczo nieznany aż do odkrycia teorii grawitacji przez Newtona. A więc głównie prostota stanowiła argument za przyjęciem teorii. Model Kopernika stał się inspiracją dla dalszego rozwoju astronomii, i na tym polu chyba jego znaczenie jest największe.
Prostota teorii ma znaczenie w procedurze jej weryfikacji. Wyobraźmy sobie dwie teorie- prostszą, gdzie zjawisko B tłumaczone jest za pomocą dwóch założeń A1 i A2, oraz bardziej skomplikowaną, zakładającą cztery przyczyny.
(A1 Λ A2)⇒B
(A1 Λ A2 Λ A3 Λ A4)⇒B
Jeśli zjawisko B nie zachodzi zgodnie z przewidywaniem, znaczy to że jedna z dwóch przesłanek jest fałszywa. Łatwiej zidentyfikować fałszywe twierdzenie i poprawić teorię, kiedy potencjalnych fałszywych założeń jest mniej. Naturalnie badana rzeczywistość jest z natury rzeczy skomplikowana, i nadmiernie uproszczone modele mogą nie odpowiadać prawdzie.
Zadaniem wiedzy naukowej jest opis, wyjaśnianie i przewidywanie rzeczywistości. Prawdziwość tej wiedzy jest zatem zrelatywizowana do tych trzech celów. Teorie naukowe nie muszą być prawdziwe w sensie metafizycznym, tzn. nie wymaga się aby w sposób niepodważalny i ostateczny docierały do istoty rzeczywistości. Wystarczy, jeżeli spełniać będą te trzy cele- wierny opis rzeczywistości, wygodne wyjaśnianie faktów i relacji między nimi oraz możliwość przewidywania zachodzących zjawisk.
Teoria to szereg powiązanych twierdzeń. Empiryczna falsyfikacja, a więc niezgodny z doświadczeniem wynik zaprzecza całemu systemowi, koniunkcji twierdzeń. Wiemy zatem, że jedno z nich jest fałszywe. Jeśli teoria posiada wiele założeń, odnalezienie fałszywego może sprawić trudność. W teorii prostej łatwiej jest zaplanować eksperymenty testujące założenia.
Żadna teoria nie jest w zupełności prawdziwa, jednak teoria sprawdzona w wielu doświadczeniach jest lepsza, gdyż tłumaczy szerszy zakres faktów.
Uwagi o języku naukowym
Jednym z kryteriów wiedzy naukowej jest ścisłość. Za realizację tego postulatu w dużym stopniu odpowiada język naukowy. Winien on opierać się na precyzyjnych pojęciach, dla których możliwe jest opracowanie obserwowalnych wskaźników, poddawać się formalizacji matematycznej i umożliwiać budowanie poprawnych teorii według precyzyjnych reguł.
Język naukowy w dużym stopniu, w odróżnieniu od naturalnych języków etnicznych spełniać winien postulaty stawiane językom formalnym.
Języki formalne
Nie powstały w sposób naturalny, lecz zostały opracowane świadomie w określonym celu;
Charakteryzują się precyzją i przejrzystością;
Nie mają charakteru ogólnego- ich stosowanie ogranicza się zwykle do pewnej wąskiej dziedziny;
Charakteryzują się ostrością reguł składniowych.
Realizacja tych postulatów wobec zdań potocznych (np. w celu uściślenia pytania która godzina?) prowadzić może do absurdu. Niemniej, jeśli twierdzenie potoczne „woda dostatecznie ogrzana zagotuje się” miałoby stać się przedmiotem naukowej weryfikacji z pewnością wymagało by przekształcenia.
Teorią języka (ogólniej- teorią znaków) zajmuje się semiotyka. Znak jest to (1) spostrzegany zmysłowo substrat materialny (2) dostarczający informacji o innych przedmiotach (3) dla określonej grupy odbiorców. Tym trzem składnikom definicji znaku odpowiadają trzy działy semiotyki
Syntaktyka (tworzenie wyrażeń zgodnych z regułami języka)
Semantyka (określanie relacji między wyrażeniami a empiryczną rzeczywistością, teoria znaczenia)
Pragmatyka (badanie relacji między wyrażeniami a ich odbiorcą)
Nazwy.
Desygnat: przedmiot o którym nazwa jest orzekana. Nazwy ze względu na istnienie i liczbę desygnatów można podzielić na
Puste
Niepuste
Ogólne
Jednostkowe
Z innego zaś punktu widzenia na indywidualne i generalne.
Zakres nazwy (denotacja) to zbiór wszystkich desygnatów.
Nazwa może być ostra (wówczas o każdym przedmiocie da się orzec czy stanowi jej desygnat czy też nie) lub nieostra (np. agresywny) .
Treść nazwy to zespół cech charakterystycznych dla wszystkich jej desygnatów. Treść istotna to taka z której można wywieść inne ważne cechy, nieistotna to zbiór prawdziwych, lecz przypadkowych własności.
Znaczenie nazwy- to sposób rozumienia nazwy, określa ono konotację: zespół cech charakterystycznych dla zakresu nazwy, za pomocą którego myślimy o jej desygnatach.
Pojęcie- jest to znaczenie nazwy generalnej.
Pojęcia mogą być niejasne (kiedy brak jednoznacznego zespołu składających się na dane pojęcie cech) lub nieostre (kiedy istnieją przedmioty, o których nie potrafimy orzec czy stanowią desygnat odpowiadającej pojęciu nazwy)
Problem nadznaczenia.
W nauce funkcjonują także pojęcia nieobserwowalne. Są one inferowane na podstawie obserwowalnych faktów. Oznacza to, że o zjawisku X orzekamy obserwując jego wskaźniki, niemniej X nie jest definiowany przez te wskaźniki. Treść tych pojęć zawiera, obok pojęć obserwacyjnych, także inne, dodatkowe elementy. Nie jest to wada pojęć, przeciwnie- właśnie funkcjonowanie takich pojęć pozwala na rozwój nauki. Dzięki temu teoria jest płodna- może generować hipotezy mówiące o zjawiskach innych niż dotąd zaobserwowane. Np. dzięki takiemu nadznaczeniu pojęć używanych do opisu dynamiki grup w psychologii społecznej można używać do stawiania hipotez odnośnie zachowań ludzi w środowisku Internetu.
Cechy dyspozycyjne.
Cecha tego typu oznacza skłonność obiektu do zachowania się w określony sposób w pewnych warunkach.
Aparat pojęciowy psychologii składa się więc z trzech rodzajów terminów:
Pojęć obserwacyjnych („częstość skurczów serca”)
Pojęć dyspozycyjnych („uległość społeczna”)
Pojęć teoretycznych, oznaczających inferowane zjawiska ukryte o mniej lub bardziej złożonej strukturze (introwertyk).
Zdanie w sensie logicznym
jest wyrażeniem, któremu można przypisać prawdziwość lub fałsz. Zatem sensowność zdania zależy od tego, czy można wskazać reguły jego weryfikacji. Wyróżnia się 3 grupy reguł:
Aksjomatyczne- niektóre twierdzenia uznaje się za bezwarunkowo prawdziwe;
Dedukcyjne- logiczna zależność od wcześniej przyjętych twierdzeń.
Empiryczne- stwierdzenie zgodności z sytuacją empiryczną.
Nie są zdaniami pytania, oceny i dyrektywy, oraz niektóre typy definicji.
Klasyfikacja zdań według Kanta. Zdania których prawdziwość stwierdzamy sposobem 1 i 2 to zdania a priori, ich prawdziwość nie zależy od doświadczenia. Zdania 3 - są to zdania a posteriori, zależne od doświadczenia.
Zdania analityczne rozwijają treść terminów. Ich zaprzeczenie prowadzi do sprzeczności.
Zdania syntetyczne wykraczają poza treść zawartych terminów. Ich zaprzeczenie nie prowadzi do sprzeczności.
Zdania syntetyczne a priori- rozszerzające wiedzę a równocześnie pewne. Kant sądził, że taki status mają twierdzenia np. geometryczne. Można je wyprowadzić z aksjomatów, a równocześnie pozwalają na opis świata wnioskowanie i przewidywanie.
Współczesna interpretacja (Poincare) jest jednak inna. Przyjmuje się, iż prawa geometrii jako opis rzeczywistej przestrzeni przyjmowane są na zasadzie konwencji, nie z apodyktyczną pewnością.
J= <S, Z, Sk, In, D)
Język jest systemem złożonym ze słów, zdań, reguł składni, Reguł inferencyjnych (uzasadniania jednych zdań za pomocą innych) oraz denotacji- reguł wiążących język z empirią. Sądy- opisują rzeczywistość empiryczną.
Elementy logiki. Definicje.
Logika
Logika to formalna nauka o rozumowaniu.
Zdanie w sensie logicznym jest to wyrażenie, które może przyjmować wartości logiczne prawdy lub fałszu (w logice dwuwartościowej).
Negacja (nieprawda, że p jest prawdziwe)
¬ p
Podstawowe formy zdań złożonych w logice to:
Koniunkcja (Zarówno p jak i q są prawdziwe)
P |
Q |
P∧Q |
1 |
1 |
1 |
1 |
0 |
0 |
0 |
1 |
0 |
0 |
0 |
0 |
Alternatywa (p jest prawdziwe lub q jest prawdziwe)
P |
Q |
P∨Q |
1 |
1 |
1 |
1 |
0 |
1 |
0 |
1 |
1 |
0 |
0 |
0 |
Implikacja (jeśli p jest prawdziwe, to q jest prawdziwe)
P |
Q |
P⇒q |
1 |
1 |
1 |
1 |
0 |
0 |
0 |
1 |
1 |
0 |
0 |
1 |
Tożsamość (p jest prawdziwe wtedy i tylko wtedy, kiedy q jest prawdziwe)
P |
Q |
P⇔q |
1 |
1 |
1 |
1 |
0 |
0 |
0 |
1 |
0 |
0 |
0 |
1 |
Szczególnie istotną rolę w naukach empirycznych spełnia implikacja, ponieważ taki status mają twierdzenia przewidujące empiryczne (obserwowalne) konkluzje na podstawie teoretycznych przesłanek. Zasadniczy problem polega jednak na tym, że to konkluzja jest obserwowalnym zjawiskiem. Zatem o przesłankach wnioskujemy na podstawie konkluzji. A więc rozumowanie nie jest niezawodne (jak miałoby to miejsce w sytuacji odwrotnej).
Prawdziwa konkluzja nie świadczy o prawdziwości przesłanki. Obserwowane zjawisko może wynikać z wielu różnych przyczyn.
Powstaje pytanie o sens tworzenia modeli teoretycznych i poddawania ich testom empirycznym, skoro nie można ostatecznie ustalić ich prawdziwości. Jednak model który został sprawdzony w wielu badaniach posiada większą ogólność, wyjaśnia więcej faktów, integruje większą liczbę danych i dlatego winien być uznany za bardziej zadowalający.
Kwantyfikatory:
Kwantyfikator ogólny
∧x - dla każdego (dowolnego) x... Stanowi koniunkcję twierdzeń orzekających o pewnej własności wszystkich możliwych x. Aby zaprzeczyć zdaniu zawierającemu kwantyfikator ogólny wystarczy wskazać jeden obiekt, który takiej własności nie posiada.
Szczegółowy
∨x Istnieje taki x, że... Stanowi alternatywę twierdzeń orzekających pewną własność o wszystkich możliwych x. Aby zaprzeczyć zdaniu zawierającemu kwantyfikator szczegółowy, należy wykazać że żaden z x takiej własności nie posiada.
Definicje
Definicje pomagają w uściśleniu języka naukowego. Charakteryzują przedmioty, umożliwiają wyrażanie jednych pojęć za pomocą innych bądź wprowadzają do języka nowe pojęcia.
Dobra definicja pojęcia musi być zarazem formalnie poprawna i poznawczo użyteczna. Aby jednak prześledzić w jaki sposób zapewnić jej te cechy, należy najpierw określić do jakiego rodzaju definicja należy.
Wyraz definiowany to definiendum, wyrażenie określające to definiens.
Najbardziej użyteczny podział definicji wyróżnia definicje projektujące i sprawozdawcze. Projektujące dzieli z kolei na konstrukcyjne i regulujące.
Definicje projektujące nie są zdaniami w sensie logicznym. Wyrażają one tylko decyzję ustalenia pewnego sposobu rozumienia słów, konwencji terminologicznej.
Przez zakres pamięci świeżej rozumieć będziemy dalej poprawnie odtworzonych słów z podanej listy.
Definicje konstrukcyjne wprowadzają nowe pojęcia, regulujące precyzują znaczenia już istniejących (wyostrzają zakres i usuwają wieloznaczność).
Definicje projektujące są zdaniami analitycznymi a priori. Wprowadzenie nowego pojęcia wymaga jednak uzasadnienia jego sensowności.
Definicje sprawozdawcze zdają sprawę z zastanego sposobu rozumienia słowa. Są zdaniami w sensie logicznym, mogą być prawdziwe lub fałszywe. Ekstrawersja wg psychoanalityków jest to cecha umysłu odpowiadająca za sprawność myślenia i innych czynności poznawczych, umożliwiająca jednostce korzystanie z nabytej wiedzy oraz skuteczne zachowanie się wobec nowych zadań i sytuacji.
Pewne szczególne rodzaje definicji to:
Definicje aksjomatyczne- służą do wprowadzania pojęć pierwotnych. Są to definicje kontekstowe, tj. uwikłane w zdania będące aksjomatami systemu. Definicja pojęcia nie jest podana wprost, lecz jest ono użyte tak, aby można się było domyślić jego znaczenia. Przykładem może być błąd pomiaru testu, wg. Gulliksena.
Wynik otrzymany to suma wyniku prawdziwego i błędu pomiaru
Średnia arytmetyczna błędów pomiaru wynosi 0.
Korelacja między wynikiem a błędem wynosi 0
Korelacja błędów w dwóch pomiarach wynosi 0
Definicje cząstkowe. Mają formę okresu warunkowego (implikacji) A⇒B. A więc tylko o przedmiotach posiadających cechę A można orzec, czy są B. Przedmioty nie posiadające A nie są określone co do bycia B. Osoba która rozwiązała test jest inteligentna. - ale na nierozwiązanie testu mogły wpłynąć inne niż brak inteligencji przyczyny. Szczególnym przypadkiem są definicje redukcyjne, pozwalające na redukcję terminu teoretycznego do zdań syntetycznych (sprawdzalnych), oraz definicje operacyjne, wskazujące jaka procedura pozwoli ustalić, czy mamy do czynienia z przedmiotem definiowanym.
Błędy definicji.
Nieostrość. (Istnieją obiekty o których nie można orzec czy należą do zakresu definiowanego pojęcia)
Nieadekwatność Jeżeli nasza definicja ma charakter sprawozdawczy, a więc służy uściśleniu znaczenia jakiegoś funkcjonującego już terminu, należy zadbać o jej prawidłowy zakres. Nie może ona być zbyt wąska, co ma miejsce wtedy, kiedy nie obejmuje wszystkich definiowanych zjawisk (np. "uwaga jest to selekcja napływającej informacji"- definicja taka nie obejmuje wielu zjawisk związanych z tym pojęciem). Nie powinna być również zbyt szeroka (np. "chory psychicznie jest to człowiek, który cierpi lub przysparza cierpienia innym"- niewiele osób można by uznać za zdrowe w świetle takiej definicji). Między zakresami może zachodzić nawet wykluczanie- Wolność to uświadomiona konieczność.
Idem per idem- błędne koło pośrednie i bezpośrednie.
Gatunek to zbiór organizmów o wspólnym, różnym od innych gatunków pochodzeniu.
Ignotum per ignotum, nieznane przez nieznane. Może mieć charakter względny (kiedy użyty w definiensie termin nie jest znany odbiorcy) lub bezwzględny (kiedy w ogóle nie był wcześniej wprowadzany)
Sprzeczność- kiedy wynika z niej zdanie sprzeczne
Definicje należy ściśle odróżnić od zdań empirycznych np. Ssaki to kręgowce, które we wczesnym okresie życia żywią się mlekiem matki może być rozumiane dwoiście.
Poprawna definicja powinna wiązać wprowadzany termin z funkcjonującymi wcześniej w danej dziedzinie wiedzy.
Warunki formalnej poprawności definicji nie zapewniają jednak jeszcze jej użyteczności. Aby definicja była cenna z naukowego punktu widzenia, spełniać musi jeszcze kilka dodatkowych kryteriów. Otóż po pierwsze, przedmiot definicji musi być ważny dla danej dziedziny wiedzy. Istnieje wiele pojęć zdefiniowanych, które nigdy później nie zostały użyte, lub których żywot okazał się krótki. Po drugie, cechy, za pomocą których termin jest określany, również muszą być istotne i dobrze go określać. Definiując np. zespół objawów charakterystycznych dla np. ospy można spokojnie pominąć podwyższoną temperaturę, która jest znamienna także dla wielu innych chorób. Aby proponowana definicja była użyteczna terminy w niej występujące nie mogą stanowić mieszanki pojęć funkcjonującej w różnych teoriach. Jest to częste zjawisko w naukach empirycznych, a szczególnie społecznych, ponieważ przyrost wiedzy polega tu nie tylko na dobudowywaniu nowych elementów do dawnych ustaleń (jak w naukach ścisłych) ale polega często na tworzeniu od podstaw nowych teorii.
Model badania naukowego.
Model hipotetyczno-dedukcyjny.
Nauka nie rozwija się poprzez tworzenie ogólnych twierdzeń drogą indukcji na podstawie jednostkowych faktów. Model naukowy który wyjaśnia tylko fakty dotąd zaobserwowane i nie pozwala na prognozowanie nowych faktów zwany jest modelem „ad Hoc”, i jest dla nauki bezużyteczny (nie spełnia jej celów). Prawidłowy model nie tylko wyjaśnia zaobserwowane dotychczas zjawiska, ale również pozwala na przewidywanie dalszych faktów. Taki schemat rozwoju nauki, zaproponowany przez Poppera nosi nazwę modelu hipotetyczno-dedukcyjnego.
Według tego modelu na podstawie obserwacji i uogólnienia (ale nie indukcji zupełnej) pierwotnych faktów buduje się hipotetyczne wyjaśnienie zjawiska. Wyjaśnienie to pozwala na przewidywanie nowych faktów. Badanie weryfikujące teorię (model) pozwala sprawdzić czy przewidywane fakty rzeczywiście zachodzą. Jeśli tak- można przyjąć proponowane wyjaśnienie. Jeżeli natomiast postulowane fakty nie zostaną zaobserwowane- proponowany model należy odrzucić.
Model hipotetyczno-dedukcyjny ma ścisły związek z opisanymi wcześniej własnościami implikacji logicznej. Obserwowane fakty pierwotne wynikają z przesłanek- modelu wyjaśniającego. Ale odkrycie możliwego wyjaśnienia nie oznacza jeszcze że wyjaśnienie jest poprawne- bo możliwych wyjaśnień może być wiele. A więc nie odkrycie wyjaśnienia zjawisk stanowi zasadniczy cel- ale jego uzasadnienie.
Odmienne reguły stosujemy w kontekście odkrycia, kiedy dążymy do wykrycia możliwych wyjaśnień, i celem naszym jest sformułowanie modelu niesprzecznego z faktami pierwotnymi. Odmienne zasady obowiązują w kontekście uzasadniania. W tej sytuacji staramy się o wysunięcie możliwie wielu hipotez, dotyczących kolejnych faktów, i następnie hipotezy te krytycznie sprawdzamy.
Struktura nauki jednak jest bardziej złożona. Wiedza nie składa się wyłącznie z jednostkowych twierdzeń o zależnościach między faktami, ale z hierarchii twierdzeń o coraz wyższym stopniu ogólności. Jeżeli zatem doświadczenie daje wynik niezgodny z oczekiwaniami teoretycznymi- oznacza to z pewnością konieczność odrzucenia pewnej hipotezy, ale niekoniecznie całej teorii.
Teoria tworzona według tego modelu pierwotnie budowana jest przez indukcję, następnie generowane (dedukowane) i sprawdzane są hipotezy. Gdy model prowadzi do zgodnych z oczekiwaniami obserwacji- jest rozbudowywany, jeśli nie- korygowany. Negatywny wynik eksperymentu może niekoniecznie być efektem fałszywej teorii. Być może przyjmowane w badaniu dodatkowe założenia (np. dotyczące narzędzi badawczych czy strategii analizy danych) okazały się fałszywe, być może też błąd pojawił się na etapie wyprowadzania z teorii szczegółowych hipotez. Toteż wynik pojedynczego badania rzadko obala teorię programową. Niekiedy teorię uważa się za zadowalającą, ponieważ nie udało się sformułować lepszej. Wówczas formułuje się hipotezy pomocnicze-dodatkowe założenia pozwalające utrzymać teorię.
Rozwój nauki przebiega skokami- dobrze funkcjonująca spójna teoria początkowo wyjaśnia wszystkie obserwowane fakty. Potem pojawiają się fakty niezgodne z oczekiwaniami. Aby je wyjaśnić teoria traci spójność, jest obudowywana systemem hipotez pomocniczych. W pewny momencie pojawia się konkurencyjna prostsza teoria, niekiedy o mniejszym zasięgu, szybko ogarniająca cały obszar wyjaśniany wcześniej przez starą teorię. Tak dokonuje się rewolucja w nauce.
Cechy dobrej teorii
Reasumując rozważania nad właściwościami teorii naukowych, stwierdzić można (W. Newton- Smith) iż kluczowe własności dobrej teorii to:
Ciągłość obserwacyjna (teoria wyjaśnia wszystkie sukcesy teorii którą zastąpiła)
Płodność (zdolność do generowania nowych hipotez)
Sukcesy w wyjaśnianiu faktów.
Wsparcie dla innych teorii (teoria stanowi część systemu wiedzy)
Oszczędność (w zakresie korzystania z hipotez pomocniczych)
Wewnętrzna spójność
Metafizyczna zgodność (niesprzeczność z światopoglądem badacza)
Prostota
Przykład z badań własnych:
Alfa/Bravo. Podejmowanie decyzji a procesy ruchu oka.
Eksperymenty Alfa i Bravo poświęcone były ruchom oka w sytuacji decyzyjnej. Zgodnie z paradygmatem Fischera prowadzono je w schemacie nakładania się czasowego (naturalnym) oraz przerwy czasowej, wymuszającym oderwanie uwagi i zwiększenie udziału czynnika nieintencjonalnego w badaniu.
Badanie polegało na zainscenizowaniu prostej gry losowej, wymagającej wyszukiwania informacji i podejmowania decyzji. Oczekiwano, że konieczność decyzji spowoduje spowolnienie czasu reakcji, jednak rezultaty były przeciwne. Robocza interpretacja (hipoteza pomocnicza) głosiła że na przyspieszenie czasu wpłynęła motywacja.
Charlie. Obciążenie werbalnej pamięci roboczej a procesy ruchu oka.
W eksperymencie tym, nadal wykorzystującym paradygmat Fischera, analizowano ruchy oka podczas gdy osoba badana musiała pamiętać (i rozpoznawać) coraz większy materiał literowy. Znów w miejsce oczekiwanego przyrostu czasu reacji ruchów oka zaobserwowano jego skrócenie. Co dziwniejsze podobnie jak w badaniach Saula Sternberga w odniesieniu do czasu reakcji ręką następował liniowy przyrost w funkcji zwiększającego się obciążenia pamięci.
Wynik eksperymentu Charlie wymusił modyfikację pierwotnej teorii. Przyjęto, że zadania obciążające mechanizm centralny „odciągają” część zasobów uwagi, równocześnie kontrola nad ruchami oka przejmowana jest przez mechanizmy silnie zautomatyzowane, a więc czas ich działania jest krótszy. Taka interpretacja jest również lepsza w odniesieniu do wyników eksperymentów Alfa/Bravo. Wniosek taki, jako interpretacja „post-hoc” musiał jednak znaleźć potwierdzenie w badaniu którego założenia byłyby oparte na nowej koncepcji.
Delta. Ruchy oka a kontrola motoryczna- potwierdzenie nowej syntezy.
Ponieważ wg Posnera do funkcji systemu uwagi należy kontrola nad aktywnością motoryczną w kolejnym eksperymencie analizowano ruchy oka w sytuacji wymagającej aktywności manualnej i w warunkach swobodnej rejestracji. Tym razem oczekiwano skrócenia czasów reakcji oka wtedy, gdy system uwagi obciążony był koniecznością nadzoru nad ruchami ręki. Wyniki badania w pełni potwierdziły postawione hipotezy.
Echo. Obciążenie wzrokowej pamięci roboczej wydłuża czas reakcji.
Wyjaśnienie- istnieją wspólne zasoby uwagi dla kierowania ruchami oka i przetwarzania materiału w pamięci wzrokowo-przestrzennej.
Foxtrot. Wymuszenie intencjonalnego kierowania uwagi pogarsza pamiętanie materiału.
Potwierdzenie istnienia wspólnych zasobów.
Etapy badania naukowego.
Dalsza część wywodów poświęcona będzie praktycznemu schematowi postępowania badawczego. Kolejne wykłady dotyczyć więc będą kwestii jakie na poszczególnych etapach badania są szczególnie istotne. Ważne jednak, aby patrzeć na badanie jako na całość. Wszystkie etapy, o ile to możliwe powinny być planowane z góry, co pozwala uniknąć przykrych niespodzianek, związanych np. z brakiem adekwatnych do problemu metod statystycznych, czy niemożnością zbudowania skali pomiarowej. Programiści komputerów mawiają że jedna godzina zużyta na analizę problemu pozwala zaoszczędzić kilka godzin pracy. Podobnie jest z badaniami empirycznymi. Prawidłowo zaplanowane badanie nie jest trudne do przeprowadzenia a badacz nie jest (w większości wypadków) narażony na niespodzianki. Ponadto dobrze zaplanowane badanie jest zawsze poprawne. Nawet uzyskanie nieoczekiwanego z punktu widzenia teorii rezultatu, o ile nie popełniono błędu przy planowaniu nie zmniejsza jego wartości, a czasami nawet jest dla nauki większym impulsem niż potwierdzenie wszystkich hipotez.
Etapy te to kolejno:
Sformułowanie problemu
Postawienie hipotez teoretycznych
Operacjonalizacja
Weryfikacja hipotez
Generalizacja wyników.
Różni autorzy podają różne liczby etapów, kierunek rozumowania jest jednak zawsze ten sam.
Pierwszym etapem jest sformułowanie problemu. Badacz dokonuje wstępnego zakreślenia interesującej go problematyki i wskazuje szerszą teorię której rozwinięciem będą jego badania. Na tym etapie należy zgromadzić dostępną wiedzę o interesującym nas zagadnieniu, wykazać w tej wiedzy istniejące luki lub twierdzenia wymagające poprawnej weryfikacji.
Drugi etap polega na sformułowaniu hipotez teoretycznych. Rozważania z pierwszego etapu należy obecnie ukonkretnić, formułując hipotezy- twierdzenia które po przeprowadzeniu proponowanych badań skłonni będziemy uznać za prawdziwe lub fałszywe. Warto zaznaczyć, że wciąż jeszcze posługujemy się językiem pojęć teoretycznych. Poszukiwanie wskaźników to problem kolejnego etapu.
Trzeci etap to operacjonalizacja hipotez. Poszukiwać będziemy obecnie wskaźników, procedur pomiarowych i narzędzi pozwalających nam na przypisanie zmiennym wartości liczbowych. Etap ten powinien zakończyć się dokładnym opisem planowanego badania- badacz musi opisać co i w jaki sposób będzie mierzył, jakie zastosuje procedury manipulacji zmiennymi niezależnymi (w badaniach eksperymentalnych) oraz jakie zastosuje metody kontroli zmiennych ubocznych i minimalizacji niepożądanego wpływu niekontrolowanych zmiennych zakłócających.
Etap czwarty to weryfikacja hipotez. Badacz, po zebraniu dostępnej wiedzy, sformułowaniu własnych postulatów na temat rzeczywistości i opracowaniu metod ich weryfikacji musi przystąpić wreszcie do badań. Czwarty etap podzielić można jeszcze na trzy kroki. Pierwszy z nich to zbieranie danych- przeprowadzenie ankiet, badanie eksperymentalne itp.
Po zebraniu danych kolejnym logicznym krokiem jest ich uporządkowanie. Należy dokonać oceny wyników i zestawić wskaźniki statystyczne.
Ostatnim krokiem jest przeprowadzenie wnioskowania statystycznego. Zasadniczym celem tego kroku jest uogólnienie zaobserwowanych prawidłowości z próby na populację. Uzyskane do tej pory wyniki stanowią dopiero charakterystykę próby. Aby miały wartość poznawczą należy uogólnić je na populację.
W ostatnim etapie, generalizacji, należy zastanowić się, jak uzyskany wynik ma się do teorii, która stanowiła punkt wyjścia- czy ją potwierdza, czy jej przeczy, czy pozwala ją uogólnić czy też postawić ograniczenia. Należy rozważyć jakie mogą być w tym wypadku ograniczenia wypływające z procedury badawczej. Ze świata faktów należy wrócić z powrotem do świata teorii i włączyć w nią uzyskane rezultaty.
Zmienne w badaniach psychologicznych
Klasyka: Status zmiennych teoretycznych w psychologii
Etapem pierwszym badania naukowego jest określenie problemu badawczego. Badacz podejmuje decyzję jakie zjawisko chce wyjaśniać, i jakie postuluje mechanizmy wyjaśniania tego zjawiska. Dobrze postawiony problem to taki, który
dotyczy fragmentu rzeczywistości o którym badacz zgromadził już pewną wiedzę,
Prowadzi do identyfikacji zbioru potencjalnych rozwiązań (wynikają z niego hipotezy badawcze),
Zawiera pojęcia zdefiniowane i możliwe do operacjonalizacji.
Źródłem inspiracji do stawiania problemów jest zwykle literatura przedmiotu- badacz analizuje dotychczas przyjmowane modele i wyjaśnienia, i zwykle nasuwają mu się pomysły poszerzenia zakresu ich stosowalności (Czy teoria XY sprawdzona w warunkach A obowiązuje również w warunkach B? Czy możliwe jest alternatywne wyjaśnienie zjawisk? Czy dwie teorie dadzą się połączyć w jedną ogólniejszą? Itp.). Niekiedy źródłem inspiracji jest obserwacja życia społecznego (np. dlaczego ludzie dotknięci klęską żywiołową nie ubezpieczają się? Co wpływa na agresję kierowców? ), niekiedy obserwacja paradoksów w życiu codziennym. Ważnym motorem podejmowania badań mogą być także postępy nauk pokrewnych (np. neurofizjologii) lub pojawienie się nowych dotychczas niedostępnych metod badawczych (np. sztuczne sieci neuronowe, obrazowanie aktywności mózgu).
Klasyfikacja zmiennych
Podstawowym budulcem z którego formuje się problem badawczy są zmienne. Zmienna formalnie rzecz ujmując jest to cecha przedmiotu która może przybierać dwie lub więcej wartości.
Załóżmy dla uproszczenia, że zjawisko wyjaśniane sprowadza się do jednej zmiennej. W hipotetycznym przykładzie niech będzie to powodzenie w nauce szkolnej.
Zmienna wyjaśniana nosi nazwę zmiennej zależnej (Zapisywać ją będziemy symbolem Y).
Powodzenie w nauce szkolnej może zależeć od wielu różnych zmiennych- inteligencji, cech osobowości ucznia, jego motywacji do nauki, warunków domowych, płci, odległości od szkoły , z drugiej zaś strony warunków szkolnych, osobowości nauczyciela, programu itp. Wyniki w nauce mogą oczywiście zależeć w pewnym stopniu od szczęścia, chorób dziecka, warunków klimatycznych- badacz rzadko potrafi przedstawić pełną listę zmiennych mogących potencjalnie wyjaśniać zmienną zależną.
Zmienne które mogą w jakimś stopniu wyjaśnić badane zjawisko nazywa się zmiennymi niezależnymi. Będziemy je zapisywać symbolem X.
Jeśli badanie ma charakter eksploracji mówimy raczej o „zmiennych badanych”. Pojęcie zmiennej zależnej i niezależnej rezerwujemy dla badań weryfikujących hipotezy, szczególnie zaś eksperymentalnych
Jak łatwo zauważyć badacz nie ma możliwości pomiaru wszystkich zmiennych. Niektóre z nich z reguły pozostają niekontrolowane, i zakłócają przebieg badania.
Również spośród zmiennych kontrolowanych przez badacza nie wszystkie są dla niego równie interesujące. W naszym przykładzie może np. zastanawiać się czy nowy program nauczania wpłynie na wyniki w nauce.
Zmienne niezależne można więc podzielić na zmienne ważne i zakłócające.
Spośród zmiennych ważnych niektóre mogą mieć znaczenie pierwszoplanowe, inne zaś chociaż nie są bezpośrednim przedmiotem badania winny być brane pod uwagę. Zatem zmienne ważne podzielić można na główne i uboczne.
Nie jest prawdą, że zmienne główne muszą mieć większy wpływ na zmienną zależną niż uboczne. Inteligencja może mieć większy wpływ na wyniki niż metoda nauczania, a jednak, ponieważ nie stanowi zasadniczego tematu badania jest zmienną uboczną.
Schematycznie klasyfikacja zmiennych wygląda następująco:
Kontrola zmiennych polega na tym, iż jesteśmy w stanie określić ich wpływ na zmienną zależną bądź wpływ ten wyeliminować. Ponieważ nie zawsze możemy to uczynić z pełną dokładnością, stopień kontroli zmiennych można uznać za continuum.
Rozróżnienie między zmiennymi niezależnymi głównymi i ubocznymi polega na sposobie ich włączenia w plan badania. Badamy bezpośredni wpływ zmiennej niezależnej głównej na zmienną zależną, oraz wpływ zmiennych ubocznych na relację między zmienną niezależną głównej i zmienną zależną.
Jeśli w naszym przykładzie będziemy się zastanawiać czy nowy program (zmienna niezależna główna) wpływa na wyniki w nauce (zmienna zależna), zaś zmienną uboczną będzie płeć- wówczas wbudowanie tej zmiennej w plan badania polegać będzie na kwestii czy program tak samo wpływa na wyniki w nauce chłopców i dziewcząt. Zmienna taka- określająca warunki w jakich zachodzi wpływ zmiennej niezależnej na zależną nazywamy moderatorem.
Możliwa jest jeszcze inna sytuacja- kiedy zmienna niezależna główna nie wpływa bezpośrednio na zmienną zależną, lecz wywiera wpływ na inną zmienną pośredniczącą, a dopiero ta z kolei powoduje zmiany zmiennej zależnej. W takiej sytuacji mówimy o zmiennej ubocznej- mediatorze.
Wpływ zmiennych zakłócających (indywidualne zdolności, warunki szkolne itp.) należy minimalizować przez odpowiedni dobór próby i ujednolicenie warunków badania.
Prawidłowo postawiony problem, realizowany w ramach modelu hipotetyczno dedukcyjnego powinien pozwolić na określenie powyższych zmiennych. Czasem jednak, kiedy teoria jest jeszcze mało dojrzała, prowadzone badania muszą dotyczyć inwentaryzacji faktów, opisu prostych zależności bez wnikania w mechanizmy i modele wyjaśniające (te dopiero mają powstać. Badanie takie dotyczy pierwszej fazy formułowania modelu, ma charakter indukcyjny. Takie badanie nazywamy badaniem eksploracyjnym. Trudno wskazać w takim badaniu zmienne zależne i niezależne, wszelkie klasyfikacje mają charakter sztuczny i stanowią jedynie wstęp do sformułowania modelu.
Typy problemów badawczych i rodzaje zależności.
Problemy badawcze mogą dotyczyć zasadniczo pytań o poziom zmiennej zależnej w populacji (np. jaka jest przeciętna liczba zapamiętanych po jednokrotnym odczytaniu cyfr w populacji polskiej) lub też pytań o zależności między zmiennymi.
Zależności między zmiennymi możemy badać jako związki przyczynowo-skutkowe lub korelacyjne.
W pierwszym przypadku staramy się udowodnić że zjawisko A jest przyczyną B. Nie wystarczy zwykłe stwierdzenie ich współwystępowania- należy przeprowadzić badanie eksperymentalne, w którym badacz manipulując zjawiskiem A doprowadzi do zmian zjawiska B. Niekiedy także znajomość natury badanych zjawisk pozwala pośrednio wnosić które jest przyczyną a które skutkiem (z pewnością raczej inteligencja warunkuje wyniki w nauce a nie odwrotnie).
Badając zależności korelacyjne ograniczamy się do stwierdzenia ich współwystępowania, nie wysuwamy twierdzeń które jest przyczyną a które skutkiem. Nie przesądzamy czy A powoduje B, czy B powoduje A, czy też istnieje trzecia przyczyna C warunkująca oba zjawiska A i B. W tym trzecim przypadku mówimy że między zjawiskami A B zachodzi zależność pozorna (Lazarsfeld).
Zależności między zmiennymi niezależnymi a zmienną zależną mogą mieć charakter zależności prostych lub interakcyjnych. W przypadku zależności prostej wpływ dwóch zmiennych niezależnych na zależną jest sumą ich wpływów z osobna (jest addytywny)
Przykładem takiej zależności w naszym fikcyjnym przykładzie mogłyby być oceny uzyskane przez chłopców i dziewczęta uczone wg dwóch programów nauczania:
|
Program A |
Program B |
Średnia |
Chłopcy |
4 |
2 |
3 |
Dziewczęta |
6 |
4 |
5 |
Średnia |
5 |
3 |
4 |
W obu przypadkach program A jest lepszy, a dziewczęta uzyskują wyższe oceny. Zatem najwyższe oceny uzyskują dziewczęta w programie A, najniższe chłopcy w programie B.
W przypadku zależności interakcyjnej wyniki badania mogłyby wyglądać następująco:
|
Program A |
Program B |
Średnia |
Chłopcy |
5 |
1 |
3 |
Dziewczęta |
5 |
5 |
5 |
Średnia |
5 |
3 |
4 |
Pozornie (wg średnich brzegowych) nadal można przyjąć że program A jest lepszy, a dziewczęta uzyskują wyższe oceny. Jednak dokładna analiza danych wskazuje że programy są równoważne w przypadku nauczania dziewcząt, zaś jedynie w grupie chłopców istnieje znaczna różnica pomiędzy wynikami programów A i B. Wyniki wewnątrz tabeli nie są przewidywalne (jak było w pierwszym przypadku-zależności prostej) na podstawie znajomości średnich brzegowych.
Strukturę zmiennych niezależnych wpływających na zmienną zależną nazywamy obrazem przestrzeni zmiennych niezależnych.
Jeżeli zakładamy prosty (nieinterakcyjny) obraz przestrzeni- możemy badać praktycznie nieograniczoną liczbę zmiennych niezależnych. W przypadku struktury interakcyjnej interpretacja wpływu więcej niż 3 zmiennych niezależnych staje się bardzo skomplikowana. Lepiej w takim przypadku przedstawić problem badawczy jako kilka problemów cząstkowych, po opracowaniu których można starać się dokonać syntezy.
Zmienne uboczne: moderatory i mediatory
Obecnie możemy podać już dokładniejszą charakterystykę zmiennych ubocznych mediatorów i moderatorów.
A zatem zmienna moderująca to taka zmienna, od której zależy charakter zależności między zmienną niezależną główną a zmienną zależną. A zatem jeśli rozważamy wpływ zmiennej X na Y to zmienna M jest moderatorem wówczas, gdy zachodzi interakcyjny wpływ X oraz M na Y. Uwaga- nie jest konieczne aby zachodził związek prosty między M a Y czy też X a M (to ostatnie jest wręcz nieuprawnione). Jednak M zmienia, modyfikuje wpływ jaki na Y posiada X.
A więc jeśli „płeć” jest moderatorem, przyjrzyjmy się kolejnemu możliwemu układowi danych:
|
Program A |
Program B |
Średnia |
Chłopcy |
3 |
3 |
3 |
Dziewczęta |
5 |
1 |
3 |
Średnia |
4 |
2 |
3 |
Zauważmy, że
Brak bezpośredniego związku między płcią a ocenami;
Brak bezpośredniego związku między płcią a metodą nauczania (w tym wypadku musiałoby to oznaczać, że różne ilości chłopców i dziewcząt były uczone metodą A i B, co podważyłoby wiarygodność analiz)
Oczywiście także wtedy kiedy zmienna M ma związek z Y (jak w drugiej tabeli na s. 22) również jest moderatorem.
Mediatorem natomiast może być motywacja. Wyobraźmy sobie następujący układ zależności:
Motywacja jest zmienną pośredniczącą (mediatorem) gdy:
Istnieje związek XY
Istnieje związek XM oraz MY
Po wyeliminowaniu wpływu zmiennej M zależność XY spada (w idealnych warunkach do zera)
\
Hipotezy i operacjonalizacja zmiennych.
Hipotezy
Hipoteza to zdanie w znaczeniu logicznym (zatem takie, które może być prawdziwe lub fałszywe), będące odpowiedzią na problem badawczy, którego rozstrzygnięcia należy poszukiwać w oparciu o badania empiryczne
Należy rozróżnić hipotezy od założeń. Założeniami w badaniu są twierdzenia które uznajemy za prawdziwe na podstawie wcześniejszych badań i racjonalnej analizy. A więc są to stwierdzenia których nie badamy. Naturalnie fiasko eksperymentu powoduje konieczność dyskusji nad prawdziwością założeń- ale to już inna historia. W aktualnym badaniu zakładamy założenia (jako tymczasowe pewniki) a sprawdzamy prawdziwość hipotez.
Warunki poprawności hipotez
.Aby hipoteza mogła być uznana za poprawną powinna spełniać szereg warunków. I tak: (wg. Brzezińskiego)
Hipoteza musi być sprawdzalna
Hipoteza musi pozwalać na przewidywanie innych faktów niż pierwotnie zaobserwowane. Np. widząc osobę A. wchodzącą do bufetu możemy postawić hipotezę „A ma potrzebę wejścia do bufetu”, z której nic więcej nie wynika, nie może zatem być poddana testowi. Hipoteza „A jest głodny” może być zweryfikowana- przewidujemy że A. zakupi coś do jedzenia.
Hipoteza musi być adekwatną odpowiedzią na problem. W powyższym przykładzie hipoteza „A umie chodzić” mija się całkowicie z sensem problemu.
Hipoteza musi być najprostszą odpowiedzią. „A ma kompulsywną potrzebę jedzenia będącą reakcją na stres, w wyniku utrwalonej fiksacji oralnej”- może to być prawda, jednak zanim poddamy taką hipotezę dalszym badaniom zdrowy rozsądek nakazuje sprawdzić czy A nie jest przypadkiem głodny.
Hipoteza musi być tak sformułowana, aby łatwo można ją było przyjąć lub odrzucić. Musi istnieć prosty test empiryczny (np. jak w p. 2).Hipoteza sformułowana w p. 4. może prowadzić do różnych zachowań i test empiryczny jest trudniejszy.
Hipoteza nie powinna stanowić zbyt szerokiej generalizacji (np. „ludzie bywają głodni”)
Dodatkowo proponuję przyjąć dwa warunki:
Hipoteza powinna wskazywać kierunek zależności, np. „Zastosowanie psychoterapii spowoduje spadek poziomu lęku”. Taka hipoteza świadczy że badacz rozumie mechanizm zjawiska (por. „Zastosowanie psychoterapii spowoduje zmianę poziomu lęku”.) Dodatkowo hipoteza taka posiada lepsze własności w trakcie weryfikacji statystycznej.
Hipoteza powinna mówić o istnieniu zależności, a nie o jej braku. Błędna jest więc hipoteza „poziom lęku pod wpływem psychoterapii nie zmieni się”. Taką hipotezę można ewentualnie odrzucić, ale nie można jej zweryfikować. Uzasadnienie wymaga znajomości podstaw wnioskowania statystycznego, i będzie przedstawione w dalszej części.
Czy zawsze hipotezy są niezbędne w weryfikacji teorii?
Niezbędna jest jeszcze jedna refleksja: czy rzeczywiście, tak jak chciał Popper testowanie hipotez jest niezbędne do przyjęcia teorii naukowej? Wydaje się że tak nie jest. Można wymienić przynajmniej cztery sytuacje, w których teoria jest przyjmowana bez tego etapu.
Indukcja. Niekiedy teoria jest budowana na podstawie obserwacji rzeczywistości bez założeń wstępnych, wyszukiwania prawidłowości wśród empirycznych danych. Tak powstała teoria Newtona, a w psychologii np. teoria Piageta oraz wiele innych.
Perspektywa. Niekiedy wybieramy nie teorię która ma najlepsze oparcie w faktach, ale tę która jest najbardziej obiecująca- oferuje możliwość szerokiego i prostego wyjaśniania, może sprawdzić się na wielu polach. Behawioryzm pierwotnie nie dysponował szerszym potwierdzeniem sumą empirycznym niż np. strukturalizm (E.B. Titchener: życie psychiczne jest elementarnych zjawisk i procesów, metodą ich badania jest introspekcja), jednak był kierunkiem bardziej obiecującym.
Ważność. Niekiedy teoria nawet mało prawdopodobna utrzymuje się, gdyż badacze zdają sobie sprawę z jej oryginalności i potencjalnie wielkiego znaczenia. Teoria Freuda może być i w tym przypadku dobrym przykładem
Teoria wyjaśniająca- Niekiedy pojawia się teoria wyjaśniająca w prosty i precyzyjny sposób znane fakty i utrzymuje się chociaż nie prowadzi bezpośrednio do odkrycia nowych. Przykładem takiej teorii może być model Findlaya wyjaśniający ruch oka, model Normana- Shalice'a tłumaczący automatyzm i kontrolę działania oraz szereg innych.
Wskaźniki.
Klasyfikacja wskaźników
Pojęcie teoretyczne z założenia nie może być obserwowane bezpośrednio. Aby opisać związki ilościowe między zjawiskami musimy zatem poszukać dla nich wskaźników. Zjawisko nieobserwowalne lub trudno obserwowalne, o którym chcemy wnioskować nazywać będziemy indicatum. Wskaźnikiem nazywać będziemy takie zjawisko obserwowalne którego wystąpienie pozwala z dostatecznie dużym prawdopodobieństwem stwierdzić, że zaszło również indicatum. Przykładem może być np. długość słupka rtęci w termometrze jako wskaźnik temperatury, ilość osób głosujących na kandydata jako wskaźnik poparcia społecznego czy też wynik w teście psychologicznym jako wskaźnik inteligencji.
Powyższe przykłady różnią się między sobą. Słupek rtęci w termometrze związany jest z temperaturą na mocy prawa fizycznego. Jeżeli więc wskaźnik łączy z indicatum pewna stwierdzona prawidłowość, nazwiemy go wskaźnikiem empirycznym.
Przykładowy wskaźnik poparcia społecznego może mieć inny charakter. Poparcie dla kandydata w wyborach nie jest bowiem niczym innym, jak właśnie ilością oddanych głosów, i może być w ten sposób zdefiniowane. Wskaźnik z indicatum łączy zatem związek definicyjny. Sytuacja taka jest dosyć komfortowa- wskaźnik jest zawsze trafny. Niemniej, wbrew stanowisku operacjonalistów, niewiele terminów naukowych można w ten sposób sensownie zdefiniować.
Najtrudniejsza wydaje się ostatnia sytuacja (wynik testu jako wskaźnik inteligencji). Indicatum ma tu charakter z założenia nieobserwowalny. Jest konstruktem teoretycznym, pojęciem którego istnienie może być przez innych badaczy negowane (Nie wszyscy psychologowie zgadzają się że istnieje jedna cecha zwana inteligencją). Aby więc budować wskaźnik, należy najpierw uzasadnić istnienie indicatum. Jak była już mowa w rozdziale poświęconym prawdziwości wiedzy naukowej należy wykazać, że jest to pojęcie użyteczne, pozwalające lepiej i prościej opisać zjawiska, pamiętając o spójności przyjmowanej teorii.
Wskaźniki tego typu nazywamy inferencyjnymi. Mają one zwykle charakter złożony, dopiero konfiguracja kilku wskaźników inferencyjnych pozwala na wnioskowanie o wystąpieniu indicatum. Wnioskowanie o prawdziwości zdania wprowadzającego wskaźnik przeprowadza się podobnie jak w przypadku testowania teorii- oceniając czy zależności opisywane z użyciem wskaźnika są zgodne z oczekiwaniami płynącymi z teorii.
Wskaźniki empiryczne i inferencyjne, w odróżnieniu od definicyjnych nazywamy rzeczowymi.
Zdanie przypisujące wskaźnik do indicatum nazywamy zdaniem wprowadzającym wskaźnik. W przypadku wskaźników rzeczowych zdania wprowadzające są zdaniami w sensie logicznym. Są to zdania syntetyczne mogą być prawdziwe lub fałszywe (np. „obwód głowy jest wskaźnikiem inteligencji”)
Trzy opisane wyżej typy nie wyczerpują całości zagadnienia klasyfikacji wskaźników. Możliwe są również typy mieszane. Nie będą one w tym miejscu szczegółowo omawiane, zainteresowani mogą sięgnąć np. po podręcznik J. Brzezińskiego (1984).
Moc rozdzielcza wskaźników
Nie każdy wskaźnik pozwala na wnioskowanie o indicatum z całkowitą pewnością. Niekiedy zakres wskaźnika i zakres indicatum znacznie się między sobą różnią. Aby ocenić relację zakresów indicatum i wskaźnika wprowadzono pojęcie mocy rozdzielczej wskaźników. Wysoka moc rozdzielcza wskaźnika oznacza, że jego zakres w dużym stopniu pokrywa się z zakresem indicatum. Większość obiektów charakteryzowanych przez wskaźnik posiada również indicatum, i odwrotnie- większość obiektów posiadających indicatum posiada również cechę będącą wskaźnikiem.
Wyróżnić możemy moc zawierania i moc odrzucania wskaźników. Moc zawierania jest wysoka wtedy, kiedy wszystkie obiekty posiadające indicatum charakteryzowane są także przez wskaźnik. Wskaźnik o dużej mocy zawierania może zatem być zbyt ogólny- badane obiekty mogą posiadać wskaźnik nie posiadając indicatum. Duża moc zawierania interesować nas będzie jeżeli istotne jest wychwycenie możliwie wielu obiektów charakteryzujących się pewną cechą, zaś ryzyko "zakwalifikowania" obiektów cechy tej nie posiadających nie wiąże się z dużym ryzykiem. Przyjmując do szkoły artystycznej osoby o wysokich zdolnościach (przy założeniu że dysponujemy dostateczną liczbą miejsc) będziemy poszukiwać wskaźnika talentu o dużej mocy zawierania, aby nie odrzucić osób uzdolnionych. Przyjęcie do szkoły osób mało zdolnych nie wiąże się z dużym ryzykiem. Szukając wskaźnika groźnej choroby postępować będziemy w ten sam sposób.
Moc zawierania=1
Moc odrzucania<1
Moc rozdzielcza<1
Odwrotnie wygląda sytuacja, kiedy szukamy kandydatów np. do szkoły lotniczej. Tu koszty szkolenia są wysokie, przyjęcie osób o niskich zdolnościach zaś wiąże się z poważnym zagrożeniem dla nich samych. Dlatego poszukiwać będziemy wskaźnika zdolności o dużej mocy odrzucania. Być może część osób potencjalnie zdolnych nie zostanie do szkoły przyjęta, jednak ważniejsza jest dla nas pewność, że ci którzy się zakwalifikowali prezentują odpowiednio wysoki poziom zdolności.
Moc zawierania<1
Moc odrzucania=1
Moc rozdzielcza<1
W rzeczywistości rzadko mamy do czynienia z sytuacjami tak skrajnymi. Wskaźniki stosowane w badaniach empirycznych charakteryzuje zwykle pewien kompromis między mocą zawierania i odrzucania. Warto pamiętać, że dysponując wskaźnikiem o charakterze ciągłym (wyniki testu, oceny itp.) możemy regulować jego moc odrzucania i zawierania przez łagodzenie bądź zaostrzanie kryteriów kwalifikacji.
Nowszym ujęciem mocy rozdzielczej wskaźników są pojęcia czułości i specyficzności (Swoistości). Wskaźnik jest czuły, kiedy pozwala zidentyfikować jednostki posiadające indicatum (wysoka moc zawierania), specyficzny kiedy pozwala na odrzucenie wszystkich nie posiadających indicatum (moc odrzucania) Optymalny poziom kryterium, umożliwiający uzyskanie żądanych parametrów wskaźnika ułatwia tzw. Krzywa ROC (Receiver Operating Characteristics curve)
Wykres odzwierciedla relację między czułością a swoistością. Kryterium ilościowe używane jest do przewidywania dwuwartościowego indicatum (np. wynik testu jako prognoza wystąpienia określonego uszkodzenia mózgu. Zajmiemy się ustaleniem wartości progowej. Dla małych wartości wyników testowych czułość jest niewielka- tylko mały odsetek osób posiada indicatum, wielu chorych jest pomijanych. Im wyższy wynik, tym większa czułość- coraz więcej osób chorych jest rozpoznawanych przez test, coraz mniej chorych klasyfikowanych jest jako zdrowi (rośnie ilość prawidłowych rozpoznań). Jednak również coraz więcej osób zdrowych klasyfikowanych jest jako chorzy („fałszywe alarmy”). Dla wysokich wyników czułość jest bliska 1- prawie wszyscy chorzy zostali sklasyfikowani prawidłowo. Jednak również wielu innych ludzi zostało zaklasyfikowanych jako chorzy- spadła specyficzność testu (na wykresie oś pozioma jest odwrócona- to „1- swoistość”.
Jeśli zjawisko indictum jest rzadkie, należy być bardzo ostrożnym w stosowaniu wskaźnika. Załóżmy, że kryterium pozwala określić osoby z zaburzeniami uwagi wykluczającymi prowadzenie samochodu z czułością 1. oraz specyficznością 0.98. Osób z tego typu zaburzeniem jest w populacji 0.005. A zatem po przebadaniu 1000 osób wykryliśmy 25 osób spełniających kryterium, z czego 5 naprawdę ma zaburzenia zaś 20 ich nie ma. A więc nawet przy pozornie znakomitych wskaźnikach formalnych podejmujemy wiele nietrafnych decyzji.
Sytuacja jest nieco bardziej złożona kiedy mamy kilka wskaźników, o różnych wagach (różnym prawdopodobieństwie). Do opisu tego typu złożonych wskaźników empirycznych możemy zastosować model koneksjonistyczny:
W1 I1
W2 I2
Strzałkom przypisane są wagi (np. na podstawie krzywej ROC) A zatem wystąpienie wskaźnika W1 oznacza wystąpienie I1 z prawdopodobieństwem np. 0.80, zaś wystąpienie W2 pozwala z prawdopodobieństwem 0.60 oczekiwać I2. Obserwator na podstawie znajomości W1 i W2 musi ustalić czy zachodzi I1 czy I2.
Pomiar w psychologii- elementy psychometrii.
Struktura operacjonalizacji zmiennych psychologicznych.
Reguły łączące teorię z empirią, mają charakter kilkupoziomowy.
Punktem wyjścia jest podobieństwo i powtarzalność pewnych zachowań. Aby opisać to podobieństwo i powtarzalność nadajemy nazwę pewnej cesze. Budujemy test- zestaw bodźców. Reakcje na te bodźce mają nam pozwolić na przewidywanie tych zachowań, które pierwotnie zaobserwowaliśmy w innych nowych sytuacjach. Test ten prezentujemy osobie badanej- i istnieje pewien jej prawdziwy wynik w tym teście, tzn. średni wynik jaki uzyskałaby gdyby test powtórzono wielokrotnie. Niestety, w aktualnych warunkach wynik mógł ulec zniekształceniu- i stąd błąd pomiaru. Ostatecznie, otrzymany wynik jest sumą błędu pomiaru i wyniku prawdziwego.
Definicja pomiaru
Zagadnienie pomiaru w psychologii należy do zagadnień operacjonalizacji zmiennych. Załóżmy, iż dany jest pewien zbiór elementów empirycznych E. Elementy te można scharakteryzować pewną cechą. Między obiektami empirycznymi ze względu na ową cechę zachodzić mogą różne relacje. E jest wiec systemem empirycznym.
Dany jest również pewien matematyczny system, złożony z elementów matematycznych (np. liczb lub kategorii jakościowych) oraz określonych relacji między nimi.
Przez pomiar rozumieć będziemy takie przypisanie elementów matematycznych elementom empirycznym, że relacje między elementami empirycznymi były odzwierciedlone w systemie matematycznym.
Funkcja pomiarowa to jednoznaczne przyporządkowanie elementów matematycznych do elementów empirycznych.
Skala pomiarowa to system matematyczny, za pomocą funkcji pomiarowej przyporządkowany systemowi empirycznemu.
Pomiar wielkości empirycznych wymaga rozważenia zagadnień istnienia i jednoznaczności funkcji pomiarowej. Istnienie funkcji jest to kwestia możliwości przypisania liczb badanej zmiennej- np. czy możliwy jest pomiar inteligencji za pomocą konkretnego testu? Lub pomiar szczęścia (Choć niewątpliwie ludzie różnią się między sobą w tym względzie)? W teorii testów psychologicznych problem istnienia funkcji pomiarowej jest pokrewny do problemu trafności testu.
Problem jednoznaczności dotyczy zasadniczej w pomiarze sprawy, mianowicie czy elementowi empirycznemu funkcja pomiarowa rzeczywiście przypisuje tylko jeden element matematyczny? Mówiąc prościej, czy wynik pomiaru jest zawsze taki sam?
Inna kwestia to zgodność aksjomatów systemu matematycznego z prawami rządzącymi systemem empirycznym. Np. czy relacja odległości, określona w świecie liczb, posiada w ogóle sensowne znaczenie w świecie zjawisk empirycznych które chcielibyśmy tymi liczbami opisać? Kwestia ta w pewnym stopniu znajduje rozwiązanie poprzez klasyfikację skal pomiarowych, o czym niżej.
Typy skal pomiarowych
Typ skali informuje nas o tym, jakie relacje między wynikami pomiaru uznawać będziemy za posiadające interpretację w świecie empirycznym. Dane czysto jakościowe wyrażamy na skali nominalnej. Obiekty mogą być zaklasyfikowane do różnych kategorii, np. wśród ludzi możemy wyróżnić osoby różnej płci lub zawodu. Relacje między kategoriami to zgodność (A=B) lub różność (A≠B). Chcąc wskazać najbardziej typową w danej grupie wartość cechy wskażemy na kategorię najliczniejszą (wartość modalna).
Skala porządkowa umożliwia porządkowanie danych. Zatem wyniki można uszeregować np. rosnąco. Możemy wskazać wynik najwyższy itp. Uporządkowanie może mieć charakter zupełny lub nie, jeżeli dopuszczamy możliwość przyjmowania wartości identycznych. Chcąc wskazać najbardziej typową w danej grupie wartość cechy należy obiekty uszeregować, następnie wskazać wartość cechy obiektu środkowego w uporządkowaniu (wartość medialna, mediana).
Skala przedziałowa umożliwia określanie odległości. Wyniki zatem mogą być poddawane operacjom arytmetycznym. Najbardziej typową wartość cechy w grupie wyliczymy po prostu jako średnią arytmetyczną.
Wyobraźmy sobie sytuację: na ekranie pojawia się wyraz, a zadaniem badanego jest określić, czy wyraz ten należy do pewnej kategorii, i nacisnąć przycisk jeśli tak. Rejestrowany jest czas reakcji.
Należy raz jeszcze mocno podkreślić, że typ skali nie zależy od właściwości samych liczb-wyników, lecz od tego jak odzwierciedlają one właściwości indicatum. Ten sam czas reakcji może być bądź wskaźnikiem szybkości przetwarzania informacji (wówczas uznamy go za pomiar na skali przedziałowej), stopnia znajomości pojęć (należy oczekiwać że skala pomiaru będzie mieć charakter porządkowy) lub być wskaźnikiem zaburzeń - np. dysleksji lub uszkodzenia płatów skroniowych- i wówczas dostarczy informacji jedynie nominalnej.
Elementy teorii testów psychologicznych
Omówienie zasadniczych właściwości testów psychologicznych zawiera podręcznik J. Brzezińskiego. Zasadnicze wymagania co do testów zawarte są w Standardach dla testów stosowanych w psychologii i pedagogice (1984) Warszawa: LTD PTP.
Na wstępie zaznaczyć należy że poniższe informacje mają charakter bardzo ogólny. Dokładne omówienie poruszanych tu zagadnień będzie przedmiotem osobnego kursu.
Od testów wymaga się aby były rzetelne, trafne, wystandaryzowane, obiektywne i znormalizowane.
Wymóg standaryzacji oznacza, że test prezentowany jest w ustalony sposób. Instrukcja i podręcznik testowy powinny w sposób jednoznaczny określać warunki i procedury którym będzie poddany badany.
Obiektywizm dotyczy zasad oceny wyników testu. Powinny być one tak określone, aby każda osoba interpretująca materiał testowy doszła do identycznych wniosków.
Normalizacja z kolei to zaopatrzenie testu w procedury umożliwiające ocenę wyniku osoby badanej na tle populacji do której chcemy wynik odnieść.
Ważne jest określenie populacji odniesienia, tj. zbiorowości na tle której oceniamy wynik. Zwykle tworzy się tzw. normy ogólne, odnoszące wynik do możliwie szerokiej grupy osób badanych, oraz normy lokalne- dla wąskich grup. Tworzenie danych normalizacyjnych jest zadaniem trudnym i odpowiedzialnym, skład grupy nie może być pozostawiony przypadkowi.
Trafność testu określa na ile mierzy on taką a nie inną cechę. Powiemy że mamy do czynienia z trafnym testem inteligencji, jeśli uznamy że mierzy on rzeczywiście inteligencję, a nie np. pamięć lub wyłącznie zdolności matematyczne. Pytanie o trafność to pytanie do jakich wniosków uprawnia nas wynik testu. Trafność zakłada istnienie związku między wynikiem a latentną (teoretyczną) zmienną psychologiczną. Dlatego kwestia ta jest szczególnym przypadkiem problemu istnienia funkcji pomiarowej.
Rzetelność testu jest to dokładność pomiaru. Zakładając, że test mierzy pewną cechę (np. inteligencję) w sposób trafny, badając rzetelność pytamy na ile pomiar jest obarczony błędem.
Ponieważ aby test był trafny musi najpierw w ogóle coś mierzyć, a nie popełniać wyłącznie błędy stwierdzamy że rzetelność jest granicą trafności testu. Test popełniający duże błędy nie mierzy po prostu niczego, a więc nie może być trafny.
Rzetelność testu nie może być oceniona bezpośrednio, gdyż nie znamy wyników prawdziwych. Toteż oceniamy ją bądź przez dwukrotne badania testem (stabilność) bądź też poprzez ocenę, czy poszczególne części testu dają wyniki zgodne (zgodność wewnętrzna).
Trafność testów psychologicznych
Klasyczny tekst Cornbach & Meehl (1955)
Trafność testu to dokładność, z jaką test mierzy to do pomiaru czego został skonstruowany. Pytanie o trafność to pytanie o to, jakie wnioski można w uprawniony sposób z wyników testu wyciągnąć.
Najbardziej aktualna oficjalna definicja trafności zawarta jest w Standardach APA z r. 1999.
Trafność to stopień, z jakim doświadczenie i teoria są zgodne z interpretacją wyników testu uzyskaną poprzez wskazany sposób jego zastosowania. Proces oceny trafności obejmuje gromadzenie dowodów naukowych potwierdzających wskazany sposób interpretacji wyników testowych. Istotne jest, że badany jest sposób interpretacji wyników, a nie sam test. Kiedy wyniki mogą być interpretowane i stosowane na kilka sposobów, musi być przeprowadzone badanie trafności każdego z nich. Badanie trafności obejmuje następujące aspekty (ale nie ogranicza się do nich):
badanie zawartości treściowej testu;
badanie procesu rozwiązywania testu;
badanie wewnętrznej struktury testu;
badanie związków wyników testu z innymi zmiennymi
badanie konsekwencji testowania
Czym jest cecha psychiczna i kiedy można orzec że ona istnieje?
Podstawowym pytaniem przed rozpoczęciem analizy trafności jest kwestia istnienia badanej cechy. Nie każda postulowana cecha stanowi rzeczywistość psychologiczną, musi ona w istotny sposób ułatwiać opis, rozumienie i przewidywanie zachowania człowieka (są to cele nauki). Np. możliwe jest określenie zmiennej „potrzeba wolności”. Można oczywiście uszeregować ludzi od tych, którzy potrzebę taką posiadają w niewielkim stopniu do takich, dla których jest to istotna wartość. Można zbudować test, który będzie nasilenie takiej cechy mierzył dość precyzyjnie. Jednak bliższa analiza nasuwa wiele wątpliwości.
Załóżmy, że badacz oczekiwał związku między potrzebą wolności a poczuciem sensu życia. Zjawisko nie jest jednak proste- potrzeba wolności może wiązać się z pustką i chęcią ucieczki- albo też z dążeniem do samorealizacji. Tylko ludzie dążący do samorealizacji będą mieli wyższy poziom poczucia sensu życia. Z drugiej strony mała potrzeba wolności może wiązać się z poczuciem beznadziei, albo też wynikać z satysfakcjonującej aktualnie sytuacji życiowej. Jedynie w pierwszym przypadku można oczekiwać braku sensu życia.
Problem polega na tym, że pozornie możliwa do zdefiniowania „potrzeba wolności” jest zjawiskiem złożonym, niejednorodnym, wielowymiarowym. Nie istnieje zatem proste continuum tej cechy. Nawet jeśli można z powodzeniem uszeregować ludzi od niskiego do wysokiego nasilenia cechy- na obu krańcach continuum znajdą się ludzie różni na tyle, że wyjaśnienie jakiegokolwiek zjawiska przez potrzebę wolności staje się problematyczne. Grupowanie osób charakteryzujących się wysokim i niskim wynikiem, bardzo różnych psychologicznie nie sprzyja też systematyczności opisu. Przewidywanie ich zachowań może także być nietrafne. Przypomnijmy, że model prawdziwy to model użyteczny- a dla nauki użyteczny jest model właśnie realizujący trzy cele: opis, wyjaśnianie i przewidywanie rzeczywistości.
Rzeczywistość psychologiczna jest niekiedy bardzo złożona. Skala służąca do identyfikacji osobowości histerycznej składa się z pytań dotyczących skarg somatycznych i potrzeby więzi społecznych. U osób dobrze przystosowanych te dwie grupy pytań dają wyniki sprzeczne- normalnie osoba która czuje się chora unika towarzystwa. Jednak w przypadku osobowości histerycznej (zwłaszcza znacznego nasilenia mechanizmu konwersji) właśnie skargi somatyczne są wykorzystywane jako środek do wywierania wpływu na innych. Zatem w grupie osób zaburzonych te dwie grupy pytań tworzą spójną całość. Zatem zmienna mierzona przez tą skalę istnieje, lecz tylko u pewnej grupy osób.
Nie każda zmienna jaka da się pomyśleć istnieje w rzeczywistości. Badając trafność narzędzi zakładamy, że cecha stanowi rzeczywisty konstrukt teoretyczny, posiadający dobre osadzenie w badanej rzeczywistości.
Interesujące rozważania nad logicznym statusem cech osobowości znaleźć można w tekście J Brzezińskiego zamieszczonym w pracy W. Sanockiego (1986) Kwestionariusze osobowości w psychologii, Warszawa: PWN. Człowiek reaguje na bodźce, regulując w ten sposób swoje stosunki z otoczeniem, zaspokajając potrzeby, niższe i wyższe, dążąc do dalekosiężnych celów itd. Ponieważ rekcje na ten sam bodziec mogą być różne, utrwalone tendencje do pewnych klas reakcji nazwać można osobowością.
W skrócie - osobowość jest systemem regulacji naszych relacji z otoczeniem. Cechy osobowości mają zatem charakter meta-relacji. A więc interesujący nas problem istnienia cech osobowości daje się sprowadzić do obserwowalnych, powtarzalnych tendencji w zachowaniu.
Solidny choć nie do końca aktualny przegląd teoretycznych podejść do definiowania cech osobowości:
Rodzaje trafności
Wyróżnia się kilka rodzajów trafności.
Trafność kryterialna to zgodność z kryterium zewnętrznym. Mówimy o trafności diagnostycznej, kiedy test powinien przewidywać kryterium aktualne (np. testy psychoorganiczne, badające występowanie uszkodzeń mózgu) oraz o trafności prognostycznej kiedy zadaniem testu jest przewidywanie zachowań lub osiągnięć w przyszłości (np. ukończenia szkoły).
Trafność treściowa to stopień w jakim materiał testowy jest reprezentatywny dla badanej cechy. Np. test wiadomości szkolnych powinien równomiernie dotyczyć wszystkich zagadnień omawianych w ramach danego przedmiotu.
Trafność teoretyczna to stopień w jakim wyniki badań testem pokrywają się z oczekiwaniami teoretycznymi.
Lekceważony często rodzaj trafności to trafność fasadowa. Test jest trafny fasadowo, jeśli robi na badanym wrażenie zgodne z oczekiwaniami badacza. Istotność tego wrażenia jest dwojaka- po pierwsze test powinien sprawiać wrażenie profesjonalnego narzędzia, co zwiększa u badanego motywację do współpracy. Po drugie właściwa forma prezentacji testu pozwala ukryć - jeśli to konieczne- rzeczywisty cel badania (częste w testach projekcyjnych).
W ostatnich latach pojawiło się także pojęcie trafności społecznej. Test jest trafny w tym aspekcie jeśli odpowiada na zapotrzebowanie użytkownika. Jeśli więc test pozwala na dobrą selekcję pracowników, jest akceptowany przez osoby stosujące go, testowane i zlecające badanie - wówczas spełnia to kryterium. Pojęcie to jest zatem zależne od trafności teoretycznej, kryterialnej i fasadowej testu.
Metody oceny trafności testu
W przypadku trafności treściowej ocena jest w zasadzie prosta. Na podstawie definicji cechy stwierdzamy jakie elementy powinien zawierać test, dobieramy pulę pozycji testowych, następnie (najczęściej) przy pomocy kilku tzw. sędziów kompetentnych oceniamy czy pozycje są reprezentatywne dla cechy. Należy pamiętać, że sędziowie powinni być zgodni w opiniach i oceniać test pozytywnie, i że oba te kryteria muszą być sprawdzone statystycznie. Należy ponadto uważać by eliminując z pierwotnej puli pozycje słabe z formalnego, statystycznego punktu widzenia nie odrzucić pozycji kluczowych z punktu widzenia definicji cechy.
W przypadku trafności kryterialnej istnieje zwykle jasno określone, empirycznie sprawdzalne kryterium. Badanie tego rodzaju trafności jest również zasadniczo proste, choć czasem np. w wypadku trafności prognostycznej wymaga wieloletnich badań podłużnych.
Skażenie (kontaminacja) kryterium- zachodzi jeśli kwalifikacja do grupy kryterialnej odbywała się m.in. na podstawie wyników badanego testu.
Najtrudniejsze jest badanie trafności teoretycznej. Należy zauważyć że test psychologiczny dla większości zmiennych ma status wskaźnika inferencyjnego, tj. o wystąpieniu indicatum możemy wnosić wyłącznie na podstawie analizy wyników testu. Istnieje szereg strategii badania testu. Generalnie każda z nich ma za zadanie dowieść że wyniki testu zachowują się zgodnie z tym czego należałoby oczekiwać na podstawie teorii stojącej u podłoża definicji cechy. Można zatem badać test metodą oceny różnic międzygrupowych- wykazać że grupy które winny się różnić ze względu na badaną zmienną X istotnie różnią się wynikami testu T. Jest to argument za tym, że test T w istocie bada zmienną X. Metoda zmian nieprzypadkowych wykazuje, że jeśli oczekiwano zmiany w zakresie zmiennej X, również zmienią się wyniki testu T. Metoda analizy korelacji z innymi testami (tzw. macierz wielu cech- wielu metod) pozwala na ocenę trafności w dwu aspektach: zbieżnym (test T wysoko koreluje z wynikami testów mierzących podobne zmienne) i różnicowy (test ma niskie wskaźniki korelacji z metodami mierzącymi odrębne konstrukty). Przykładem może być skala depresji Zunga (Terelak, Tarnowski, Kwasucki 1993), która zadowalająco korelowała z innymi testami depresji, natomiast silniej jeszcze ze skalą kłamstwa. Narzędzie takie nie było trafne- mierzyło raczej postawę obronną i wrażliwość na aprobatę społeczną niż rzeczywistą depresję.
Metody oparte na tzw. analizie czynnikowej badają czy wewnętrzna struktura testu (związki między poszczególnymi zadaniami) jest zgodna z teorią. W innej wersji metody ocenia się czy wynik testu stanowi dopasowany element struktury wielu zmiennych badających daną sferę psychiki.
W badaniu trafności społecznej podstawowa jest inna metoda- ocena efektów testowania. Proces ten polega na badaniu jakie konsekwencje wiązały się z zastosowaniem konkretnego testu, a ściślej- pewnej jego interpretacji.
Model trafności Messicka:
Istnieją dwa zasadnicze aspekty badania trafności testu: przeznaczenie i uzasadnienie.
Pierwszy z nich (przeznaczenie) daje się scharakteryzować na wymiarze wyjaśnianie- zastosowanie. Można zatem mówić o trafności testu jako narzędzia badawczego psychologa-teoretyka, lub trafności testu używanego do badań praktycznych w diagnostyce psychologicznej. Te dwa aspekty nie wykluczają się, przeciwnie muszą współgrać. Test „praktyczny” pozbawiony podstaw teoretycznych nie jest trafny, gdyż nie można powiedzieć jak daleko da się uogólniać wnioski wyciągane z jego wyników (trafność testu to poprawność wniosków). Testy przeznaczone wyłącznie do badań naukowych również nie są użyteczne- ich trafność nie może zostać skonfrontowana z sytuacją konkretnych ludzi, a w efekcie to do nich będą się odnosić wnioski wszelkich badań psychologicznych.
Drugi aspekt (uzasadnienie) sprowadza się do wymiaru dowód-konsekwencje. Jest to pytanie o to, czy trafność testu dowodzona będzie w systematycznych badaniach poprzedzających wprowadzenie testu, czy też poprzez analizę wniosków z testu już zastosowanego.
Trafność można zatem rozważać następująco:
Dowodzenie poprawności wyjaśniania: Trafność teoretyczna
Konsekwencje wyjaśniania: Implikacje wyniku
Dowodzenie poprawności zastosowania: Trafność kryterialna
Konsekwencje zastosowania: trafność społeczna.
|
|
Uzasadnienie (metodologia badań) |
|
|
|
|
Dowód |
konsekwencje |
|
Przeznaczenie |
Wyjaśnianie |
Trafność teoretyczna |
Implikacje wyniku |
|
(cel badań) |
Zastosowanie |
Trafność kryterialna |
trafność społeczna (ekologiczna) |
Model Messicka jest ważny, ponieważ dołącza do klasycznych rozważań nowy wątek- badania trafności zorientowane na zastosowanie oraz metody badań, oparte na analizie konsekwencji stosowania. To drugie podejście zmienia zasadniczo punkt ciężkości badań. Wyrafinowane analizy statystyczne zostają zastępowane analizami użyteczności (zarówno w aspekcie naukowy jak i praktycznym) wyników testów u poszczególnych osób.
Inne metody pomiaru w psychologii
Pomiar psychologiczny to nie tylko testy. Coraz większe znaczenie mają wskaźniki chronometryczne, psychofizjologiczne i neuroobrazowanie.
Wskaźniki chronometryczne
Wskaźniki chronometryczne są oparte na analizie czasu reakcji. Metoda podwójnych zadań pozwala badać mechanizmy poznawcze. Badany otrzymuje zadanie pierwszoplanowe (np. wykonywanie działań w pamięci) i równocześnie jest proszony o wykonanie pewnych zadań dodatkowych (np. zapamiętania położenia punktu). Jeśli parametry czasowe i jakość wykonania pierwszego zadania nie pogarszają się oznacza to że oba zadania wykorzystują odrębne struktury poznawcze (w tym przypadku pamięć werbalną i notes przestrzenny).
Neuroobrazowanie
Jest metodą pozwalającą lokalizować mózgową organizację procesów psychicznych. Metody neuroobrazowania to najczęściej Elektroencefalografia (zapis potencjałów elektrycznych wywołanych przez fale mózgowe, magnetoencefalografia, tomografia pozytronowa i funkcjonalny rezonans magnetyczny..
Dwie pierwsze metody wykorzystują aktywność elektryczną mózgu- dlatego pozwalają na pomiar efektów z dużą rozdzielczością czasową. Dwie kolejne metody pozwalają śledzić przepływ krwi w strukturach mózgu, toteż od zadziałania bodźca do zwiększenia zapotrzebowania na tlen w określonej części mózgu, zwiększenia ukrwienia i wreszcie do zaobserwowania obrazu na skanerze upływa wiele czasu. Natomiast lokalizacja przestrzenna struktur zaangażowanych w wykonanie zadania jest znacznie lepsza.
Problemem przy konstruowaniu eksperymentu opartego na neuroobrazowaniu jest fakt, że mózg w danym momencie nie realizuje tylko i wyłącznie jednego zadania. Jeśli, przykładowo, zależy nam na odszukaniu struktury mózgowej odpowiedzialnej za rozumienie czasowników, po zaprezentowaniu czasownika na ekranie uaktywnią się struktury odpowiedzialne za spostrzeganie wzrokowe, rozumienie słów, w tym czasowników. Aby więc wyodrębnić tylko ostatni z elementów, należy badanie starannie zaplanować.
Pierwsza z możliwych strategii jest określana jako „logika odejmowania”. W tym celu tworzymy pary zadań, od najprostszych (w omawianym przykładzie może to być stymulacja światłem) aż do zadania docelowego. Każde kolejne zadanie zawiera dodatkowy element (np. rozróżnianie liter) Odejmując cyfrowy obraz zadania pierwszego od drugiego, dowiemy się jakie struktury są odpowiedzialne za specyficzne rozróżnianie liter, i tak dalej- aż wyodrębnimy interesującą nas funkcję.
Druga możliwość, parametryczne różnicowanie, polega na eskalacji oddziaływania jednego z czynników. Przykładowo, można poprosić badanych o szybkie czytanie dwóch tekstów- z małą i dużą zawartością czasowników. Wówczas prawdopodobnie zaobserwuje się wzrost pobudzenia rejonów odpowiedzialnych za przetwarzanie tego czynnika.
Wprowadzenie do metod statystycznych w psychologii
Dlaczego statystyka?
Istnieje szereg powodów dla których statystyka jest niezbędnym elementem wszelkich badań naukowych, a zatem również na gruncie nauk empirycznych- w szczególności psychologii. Metody statystyczne będą przedmiotem odrębnego kursu, w tym miejscu więc jedynie zasygnalizowane zostaną te aspekty które mają szczególne znaczenie dla metodologicznie poprawnego planowania badań.
Nie wszystkie odkrycia w psychologii dokonane zostały z wykorzystaniem metod statystycznych. Freud, Piaget i wielu innych wniosło ogromny wkład chociaż pracowali na nielicznej grupie przypadków opisywanych klinicznie. Jednak chociaż trudno przecenić tego typu prace w kontekście odkrycia teorii, w kontekście jej uzasadnienia rola statystyki jest znacznie większa.
Pierwszym, „metafizycznym” powodem dla którego statystyka jest do badań naukowych narzędziem koniecznym jest „nieznośna nieprzewidywalność zjawisk”. Zjawiska przyrodnicze wydają się lepiej poddawać opisowi probabilistycznemu niż deterministycznemu. W każdym badanym zjawisku zawsze pozostaje element niewyjaśniony i nieprzewidywalny. Prawa deterministyczne jeśli nawet istnieją wydają się być poza zasięgiem ludzkiego poznania. Nawet procesy fizyczne do niedawna uznawane za zdeterminowane okazują się przy bliższym poznaniu zależne od czynnika losowego. Według celnej metafory Karla Poppera „na świecie jest więcej chmur niż zegarów”.
Drugi powód ma charakter logiczny. Nigdy w naukach empirycznych nie można przeprowadzić indukcji zupełnej- czyli udowodnić ogólnej prawidłowości poprzez wyliczenie wszystkich jednostkowych przypadków. Gdyby nawet udało się zbadać wszystkich żyjących ludzi- nie wiadomo czy nasze prawo obowiązywało by po upływie pewnego czasu. Zatem skazani niejako jesteśmy na badanie prób- i generalizowanie wyników na populację w drodze statystycznej.
Pojęcie wariancji
Zasadniczą rolę w badaniu rzeczywistości pełni pojęcie zmienności, czyli wariancji.
Można stwierdzić, że to właśnie zmienność jest tym, co nauka stara się wyjaśnić. Jeśli wszyscy ludzie mieli by podobną inteligencję- nie byłoby sensu prowadzić badań nad jej uwarunkowaniami. Prawdopodobnie w ogóle nie powstało by takie pojęcie.
O wariancji można mówić w sensie szerszym lub węższym. W szerszym sensie oznacza ona w ogóle jakąkolwiek obserwowalną zmienność zjawisk. W węższym sprowadza się do współczynnika opisującego zróżnicowania danych, o ile są one wyrażone na skali przedziałowej (dobór metod statystycznych w zasadniczy sposób zależy od tego, na jakiej skali wyrażona jest badana zmienna).
Jeżeli (przykład E. Paszkiewicz) w klasie dzieci otrzymały oceny 2,2,3,3,4,4,5,5 to można mówić że występuje wariancja ocen- są one zróżnicowane od 2 do 5.
Uczniów tych przebadano testem inteligencji i okazało się, że uczniowie inteligentni mają oceny 4,4,5,5 a mało inteligentni 2,2,3,3. Zatem wariancja (rozrzut danych) w grupach jest mniejszy niż pierwotnie, pojawiła się za to wariancja (zróżnicowanie) między grupami. (średnia 2.5 vs średnia 4.5). Wariancję wewnątrzgrupową nazywamy wariancją błędu- pozostaje ona niewyjaśniona. Nie wiemy czemu jeden uczeń o niskiej inteligencji uzyskał 2, a inny zaliczył na 3. Wiemy natomiast skąd wzięła się różnica między średnimi grupowymi (wariancja międzygrupowa). Jest ona związana z inteligencją.
Podzielmy teraz uczniów na wysokich i niskich. Oceny uczniów niskich to 2,3,4,5 a wysokich 2,3,4,5. W tym przypadku wariancja wewnątrzgrupowa jest równie duża jak pierwotna (cała) zaś wariancja międzygrupowa jest zerowa.
Wyjaśnianie zjawisk to zatem wyjaśnianie ich wariancji. Jeśli jedna ze zmiennych (np. X) pozwala w pewnym stopniu przewidzieć oczekiwane wartości drugiej zmiennej Y powiemy że zmienna X wyjaśnia określony procent wariancji zmiennej Y. Dlatego możemy powiedzie że inteligencja pozwala wyjaśnić oceny szkolne a wysoki/niski wzrost na to nie pozwala.
Ilościowe ustalenie tego procentu może przebiegać bardzo różnie w zależności od rodzaju zmiennych i charakteru zależności.
Uncertainty management-czy zawsze rozwój nauki polega na eliminacji wariancji?
Pozytywistyczna wizja nauki (współczesny wariant- idealizacyjna teoria nauki) sprowadzała się do eliminowania niewyjaśnionej wariancji. Kolejne badania miały za zadaie wyjaśniać oraz to bardziej subtelne efekty, aż wreszcie (w tzw. eksperymencie idealnym) wariancja niewyjaśniona miała się sprowadzić do zera.
Jak już wspomniano natura zjawisk jest często probabilistyczna. Często przypadek lub „czysty błąd pomiaru” wprowadzają wariancję zjawiska i eksperymentator nie jest w stanie uchwycić przyczyny- ponieważ po prostu ona nie istnieje.
Czy zjawisko takie jest zawsze wadą badań naukowych, czy też może powinny one akceptować tą przypadkowość?
Zastanówmy się najpierw jakie są przyczyny wariancji (zróżnicowania) wyników badań:
Po pierwsze wariancja ma swoje źródło w różnicach między podmiotami. Badacz może za pomocą odpowiednich współczynników różnice te opisać i wyjaśnić przez wpływ różnych cech jednostki
Po drugie wariancja zjawisk bierze się z losowości próby- jeśli wylosujemy 30 osób, otrzymamy próbę nieco różniącą się od każdej innej 30 osobowej próby. Wnioskowanie statystyczne umożliwia ocenę tego źródła wariancji, o ile próba jest rzetelna.
Po trzecie źródłem wariancji mogą być zmienne zakłócające pomiar, aktualny stan badanego podmiotu. Badacz planując eksperyment w kontrolowanych warunkach stara się wyeliminować to źródło.
Po czwarte, źródłem wariancji zmiennej zależnej mogą (i powinny) być zmienne niezależne, którym poświęcone jest badanie. Badacz planując eksperyment stara się jak najdokładniej oszacować to źródło wariancji.
I wreszcie po piąte- źródłem zmienności wyników mogą być nieadekwatne założenia teorii. Inaczej mówiąc, nowa teoria oparta na lepszych założeniach może tłumaczyć zjawisko dokładniej. Jeśli zaś nowa teoria nie istnieje- obowiązkiem badacza jest odkrywanie słabych punktów dotychczas przyjmowanej teorii.
Ostatni punkt stoi w sprzeczności z pozytywistyczną wizją nauki. Zadaniem badacza staje się bowiem nie tyle redukowanie niewyjaśnionej wariancji, co tworzenie niepewności, stwarzanie warunków w których badane zjawisko okaże się bardziej niejasne niż w modelu klasycznym.
Dlatego celem nauki jest nie tylko eliminowanie niewyjaśnionej wariancji, ale poprzez stawianie wyzwań klasycznym teoriom wręcz jej tworzenie.
Wnioskowanie statystyczne.
Jedną z cech dobrej hipotezy jest to, że mówi ona o występowaniu zależności lub różnic, a nie o ich braku. Obecnie przekonamy się, dlaczego jest to konieczne.
Wnioskowanie statystyczne jest wnioskowaniem „nie wprost”. Oznacza to że zamiast dowodzić twierdzenie „Mężczyźni różnią się od kobiet w zakresie zmiennej Y” postaramy się odrzucić twierdzenie mówiące o braku różnicy.
Wyróżniamy zatem tzw. Hipotezy robocze, mówiące o istnieniu zależności oraz hipotezy zerowe, mówiące o ich braku. Hipotezy robocze dowodzimy przez odrzucenie hipotez zerowych.
Hipotezy dotyczą oczywiście całych populacji, zaś dostępne są jedynie wyniki w reprezentatywnych próbach.
Przyjmijmy dla uproszczenia że problem dotyczy porównania średniego nasilenia cechy w dwóch populacjach- mężczyzn i kobiet.
Wnioskowanie w ogólnym zarysie (i w dużym uproszczeniu) przebiega następująco:
Zakładamy, że hipoteza zerowa (np. „Mężczyźni nie różnią się od kobiet w zakresie zmiennej Y”) jest prawdziwa. Zwykle model ten uzupełniamy kilkoma innymi założeniami- co do prawdziwości których jesteśmy przekonani.
Wyliczamy średnie wartości Y w próbach pochodzących z obu populacji i pewną miarę różnicy między nimi.
Oczekujemy, że jeżeli prawdziwa jest hipoteza zerowa, a zatem brak różnic między populacjami, to również średnie w próbach reprezentatywnych będą identyczne, a miara ich różnicy bliska zeru.
Jeśli wyliczona na podstawie prób miara różnicy jest duża- zachodzi sprzeczność między założeniem a wynikami empirycznymi. Należy zatem uszanować fakty i odrzucić hipotezę zerową (jako przesłankę wnioskowania- jedyną wątpliwą).
(prawdziwa hipoteza zerowa) → (miara różnicy bliska zera)
Empirycznie: (miara różnicy jest daleka od zera)
Zatem:
Hipoteza zerowa jest fałszywa
Zatem mamy pełne prawo przyjąć hipotezę roboczą. Naturalnie niewielka różnica średnich może być dziełem przypadku, i nie świadczyć o konieczności odrzucenia hipotezy zerowej. Dlatego przyjmuje się pewną graniczną wartość. Jeśli więc prawdopodobieństwo uzyskania danej różnicy jest mniejsze od granicznej wartości (zwanej zakładanym poziomem istotności, zwykle α=0.05) odrzucamy hipotezę zerową. Poziom istotności zatem to prawdopodobieństwo tego, że uzyskany efekt (różnica) jest dziełem przypadku.
Prawdopodobieństwo odrzucenia prawdziwej H0 wynosi α (błąd I rodzaju)
Prawdopodobieństwo nie odrzucenia fałszywej H0 wynosi β (błąd II rodzaju)
Poziom istotności α to prawdopodobieństwo popełnienia błędu I rodzaju.
Wielkość próby
Uzyskanie przypadkowego wyniku jest oczywiście bardziej prawdopodobne w małej próbie. Dobrze zatem posługiwać się dużymi próbami, gdyż wówczas mamy do czynienia z mniejszym prawdopodobieństwem popełnienia błędów zarówno α jak i β.
Sytuacja nie jest jednak zupełnie jednoznaczna. Przypomnijmy sobie, że H0 mówi o zupełnym braku różnic między populacjami. Jeśli więc różnica istnieje, lecz jest mała i merytorycznie bez znaczenia (np. dwie populacje różnią się o 2 punkty ilorazu inteligencji), pobierając dostatecznie dużą próbę losową możemy udowodnić, że różnica ta jest istotna.
W takim przypadku, oprócz standardowej procedury sprawdzania istotności różnic należy zastosować dodatkowo wzór pozwalający wyliczyć procent wariancji zmiennej zależnej wyjaśnionej przez zmienną niezależną.
Jeśli np. zmienna niezależna wyjaśnia 20% wariancji zmiennej zależnej, oznacza to że w populacji osób o identycznych wartościach zmiennej niezależnej, wariancja zmiennej zależnej zmniejszy się o 20% w porównaniu z wariancją w całej populacji.
Jeśli np. wariancja ogólna ocen szkolnych wynosi 2, i inteligencja wyjaśnia 25% wariancji ocen szkolnych, to w grupie osób o jednakowej inteligencji wariancja ocen szkolnych wyniesie 1,5.
Naturalnie używana w powyższych przykładach hipoteza o różnicy średnich to tylko jedna z wielu jakie można weryfikować w drodze statystycznej.
Problem reprezentatywności próby.
Podstawowym założeniem analiz statystycznych jest dobór reprezentatywnej próby. Aby dane uzyskane w próbie można było uogólnić na całą populację próba musi odzwierciedlać jej skład. Powinna zatem być pobrana w sposób losowy i dostatecznie liczna. Trudno dobrać próbę sensownej wielkości odzwierciedlającą strukturę populacji pod względem wszystkich zmiennych. Toteż zwykle, w drodze tzw. losowania warstwowego dobiera się próbę tak, aby jej struktura odpowiadała strukturze populacji pod względem zmiennych ubocznych ważnych dla badanego tematu.
W praktyce często wystarcza jeśli badacz uczciwie dobiera próbę w sposób nietendencyjny.
Próba reprezentatywna w badaniu dotyczącym jednego tematu, może być kompletnie niereprezetatywna w zakresie innego tematu. Np. badając zagadnienia psychofizjologiczne można oprzeć się na wynikach próby złożonej ze studentów psychologii. Kiedy chcemy badać zagadnienia empatii czy spostrzegania społecznego, taka próba będzie silnie tendencyjna.
Przy okazji warto zastanowić się nad reprezentatywnością badań przez Internet.
Istnieje możliwość uzyskania potencjalnie dużej próby,
dotarcia do osób o specjalnej charakterystyce- np. osoby z cukrzycą w wieku 20-30 lat, o IQ powyżej 130 będące ofiarami przestępstwa.
Badania takie niewiele kosztują, łatwo wprowadzić korekty procedury po fazie pilotażu,
pełna dowolność udziału w badaniu,
Wady eksperymentu prowadzonego przez Internet:
różnice w procedurze badawczej zależne od użytkowanego sprzętu,
niereprezentatywność próbki dla populacji generalnej (np. wśród użytkowników Sieci większość stanowią mężczyźni)
brak wpływu na selekcję osób badanych, konieczność kontroli możliwości dwukrotnego udziału tych samych osób.
problemy związane z motywacją (większa ilość rezygnacji w trakcie eksperymentu w porównaniu z badaniem klasycznym),
brak możliwości bezpośredniego wyjaśnienia osobie badanej ewentualnych wątpliwości.
Po pierwsze trudno czasem utrzymać motywację uczestników. Początkowe zainteresowanie tematyką często ustępuje znużeniu, kiedy badany musi zaznaczać odpowiedzi na kilkadziesiąt lub więcej pytań. Kiedy następnie pojawia się na ekranie kolejna, jeszcze dłuższa partia materiału- dalsza praca wymaga dużego samozaparcia.
Generalnie, należy zdawać sobie sprawę z trudności wynikających z użycia Internetu w badaniach, ale także z ogromnych możliwości jakie daje to narzędzie.
Planowanie Eksperymentów
Ciekawy tekst nt. historii eksperymentów psychologicznych:
Jeśli chcesz wziąć udział w eksperymencie przez Sieć:
Przykład
Przykładem ilustrującym zasadnicze rodzaje badań psychologicznych niech będą trzy badania, weryfikujące następujące hipotezy:
Czas czytania tekstu przez mężczyzn jest inny niż czas czytania tekstu przez kobiety
Czas czytania tekstu zależy od jasności oświetlenia
Czas czytania tekstu zależy od tego, czy osoba badana jadła śniadanie.
Każde z tych trzech badań może być przeprowadzone w identycznym schemacie analizy danych-porównania średniego czasu czytania tekstu w dwóch grupach. Identyczna jest zmienna zależna-czas czytania tekstu. Różnią się one jednak zasadniczo, jeśli weźmiemy pod uwagę status zmiennej niezależnej.
Badanie korelacyjne.
W przypadku A. zmienna niezależna stanowi stałą charakterystykę osoby badanej. Badacz nie ma żadnej możliwości manipulowania tą zmienną. Może jedynie rejestrować współwystępowanie pomiędzy określoną płcią a szybszym czytaniem tekstu.
Tego typu badanie nazywa się badaniem korelacyjnym. Należy podkreślić że nie wiąże się to z koniecznością stosowania analizy korelacyjnej jako zasadniczej metody analizy danych. Badanie to nie daje badaczowi żadnej możliwości manipulacji zmienną Schemat badania nie może być podstawą do wyciągania wniosków o zależności przyczynowo-skutkowej. Jak była już mowa wcześniej w wykładzie poświęconym zależnościom pomiędzy zmiennymi, zarówno zmienna X może być przyczyną Y, jak i Y przyczyną X. Może także wchodzić w grę trzecia zmienna Z stanowiąca przyczynę zarówno X jak Y. Oczywiście w przykładzie twierdzenie Płeć jest zdeterminowana przez szybkość czytania jest absurdalne- niemniej kierunek zależności wynika z tego co skądinąd wiemy o naturze badanych zmiennych, nie wynika bezpośrednio z badania.
Badanie quasi-eksperymentalne
W przypadku C również badacz nie manipuluje zmienną niezależną- niektóre z osób badanych zjadły śniadanie, inne nie- i zależy to od czynników losowych, a nie od badacza. Jednak w odróżnieniu od poprzedniej sytuacji zmienna niezależna nie stanowi trwałej charakterystyki badanych osób, lecz jest zdarzeniem losowym, niezależnym od badacza. Badacz wykorzystuje to zdarzenie chociaż nie wpływa na jego wywołanie. Może traktować je jako przypadkowe, jednak jeśli chce pokusić się o interpretację przyczynowo-skutkową musi zastanowić się czy na wywołanie zdarzenia nie miała wpływu inna zmienna ważna dla zmiennej zależnej (np. niejedzenie śniadania może być skorelowane z małą ilością snu).
Badanie eksperymentalne
Wreszcie w sytuacji B badacz ma pełną kontrolę nad zmienną niezależną. Może dowolnie regulować oświetlenie przy którym badani czytać będą tekst. Osoby badane mogą zostać losowo podzielone na grupy czytające tekst przy słabym bądź silnym oświetleniu. Badanie takie stanowić będzie zasadniczy przedmiot dalszych rozważań. Wg Brzezińskiego model eksperymentalny zakłada
Manipulację co najmniej jedną zmienną niezależną główną;
Kontrolowanie pozostałych zmiennych niezależnych ubocznych i zakłócających;
Pomiar zmiennej zależnej.
Manipulacja zmienną niezależną główną może być dokonywana przez losowy podział na grupy którym przypisane są poszczególne wartości zmiennej niezależnej (inaczej mówiąc, chodzi o losowe przypisanie osobom badanym poziomów zmiennej niezależnej) Jest to określane jako randomizacja II stopnia.
W pierwszym etapie randomizacji (randomizacja I stopnia) z populacji pobierana jest próba reprezentatywna. W drugim etapie dopiero członkowie próby dzieleni są losowo do grup eksperymentalnych. Pozwala to wierzyć, iż poszczególne grupy są równoważne pod względem badanych zmiennych. W przykładzie C, gdyby badacz zastosował losowy podział na jedzących i niejedzących śniadanie mógłby mieć nadzieję że w obu grupach znajdzie się podobna liczba osób niewyspanych.
Konstrukcja badania eksperymentalnego powinna być adekwatna do stawianej hipotezy. Zatem badacz winien dążyć do maksymalizacji wariancji międzygrupowej i minimalizacji wariancji wewnątrzgrupowej.
Klasyczny schemat eksperymentu zakłada dwukrotny pomiar zmiennej zależnej Y w grupie eksperymentalnej, w której badacz zastosował bodziec eksperymentalny (zadziałał zmienną niezależną X) oraz grupę kontrolną, w której nie podjął żadnych działań poza dwukrotnym pomiarem Y. Ponieważ grupy różnią się między sobą jedynie X, zatem wszelka rozbieżność między wynikami pomiaru w grupach może być interpretowana jako efekt działania zmiennej niezależnej.
Pytanie o trafność planu eksperymentalnego to pytanie o to, jakie wnioski można z niego poprawnie wyciągnąć. W praktyce badawczej dochodzi niekiedy do artefaktów- badacz przypisuje działaniu zmiennej eksperymentalnej wywołanie zjawiska, którego źródło leży gdzie indziej. Mówimy wówczas o zakłóceniu trafności wewnętrznej.
Czynniki zakłócające trafność wewnętrzną.
Pierwszy z nich to historia. Terminem tym określa się te zdarzenia losowe, które nie były kontrolowane przez badacza, a które wpłynęły na wynik eksperymentu.
Dojrzewanie jest to spontaniczny rozwój organizmu w trakcie badań. Ma to szczególne znaczenie w przypadku badań z dziedziny psychologii rozwojowej oraz zjawisk o dużej dynamice czasowej.
Testowanie polega na uczeniu się przez badanych procedury pomiaru zmiennej zależnej. Jeśli pomiar ten może zależeć od wprawy- wówczas naturalnie drugi test wypadnie lepiej.
Selekcja to dobór niejednorodnych grup badanych. Niekiedy po preteście dokonuje się korekty składu grup, aby uniknąć tego źródła błędu. Dobry wynik przynosi również zwiększenie liczebności próby.
Więcej informacji o błędach zaburzających trafność wewnętrzną znaleźć można w pracach J. Brzezińskiego.
Trafność zewnętrzna planów eksperymentalnych i alternatywne schematy badawcze
Trafność zewnętrzna eksperymentu
Czynniki zakłócające trafność zewnętrzną mają inną naturę. W tym przypadku w samym eksperymencie istotnie zadziałała zmienna niezależna zgodnie z intencją badacza, jednak wyniku tego nie można zgeneralizować na ogół populacji.
Błąd taki popełnia badacz bądź lekceważąc randomizację I stopnia (niereprezentatywna próba) bądź też dobierając niewłaściwy zakres zmiennej niezależnej. W typowym przykładzie krzywoliniowej zależności między motywacją a osiągnięciami badacz w zależności od tego, czy skorzysta z porównania grup A i B, B i C czy A i C dojdzie do zupełnie przeciwstawnych wniosków.
Trzeci rodzaj błędów zakłócających trafność zewnętrzną eksperymentu to interakcje wcześniej omawianych błędów zaburzających trafność wewnętrzną z czynnikiem eksperymentalnym. Np. efekt testowania w interakcji z bodźcem eksperymentalnym sprawia, że badany nie reaguje tylko na bodziec, ale na bodziec w kontekście pretestu. Pretest niejako uprzedza go i nastawia na bodziec eksperymentalny. W takim eksperymencie zmianę wartości zmiennej zależnej przypisać można istotnie bodźcowi eksperymentalnemu (zachowana jest więc trafność wewnętrzna) jednak efekt ten jest modyfikowany przez pretest, nie wiadomo zatem jak zachowali by się badani którzy nie mieli do czynienia z pretestem.
Alternatywne schematy (plany) eksperymentalne
Aby uniknąć powyższych błędów badacze często modyfikują schemat klasyczny. Ponieważ ostatni z omówionych błędów (interakcja testowania i bodźca eksperymentalnego) jest wynikiem pretestu, można rozważyć schemat bez pretestu:
Schemat ten narażony jest silnie na błąd selekcji, ponieważ nie można go kontrolować porównując wyniki pierwszego badania. Wymaga zatem zastosowania licznych grup i szczególnie starannego ich doboru.
Niekiedy jednak uniknięcie błędu selekcji jest szczególnie trudne, gdy np. badania są pracochłonne i muszą być ograniczone do małej próby, lub trudno jest wprowadzić grupę kontrolną (np. w badaniach nad psychoterapią- należałoby zaproponować alternatywną „nieterapeutyczną” procedurę dla grupy kontrolnej). Wówczas rozwiązaniem może być schemat bez grupy kontrolnej:
Schemat taki narażony jest w dużym stopniu na błędy testowania, historii, dojrzewania oraz interakcji pretestu z bodźcem eksperymentalnym. Mimo tak imponującej liczby wad jest jednak często stosowany. W wielu badaniach zwłaszcza o charakterze laboratoryjnym możliwe jest jego wykorzystanie, choć badacz musi przez konstrukcję odpowiedniej procedury badawczej zminimalizować wpływ wspomnianych źródeł błędu. Bardzo często jest to jednak łatwiejsze niż uzyskanie dobrej grupy kontrolnej.
Schemat logicznie najdoskonalszy, jednak ze względu na dużą pracochłonność rzadko stosowany w praktyce to schemat Solomona. Stanowi on połączenie schematów klasycznego i bez pretestu
Analiza efektów w poszczególnych grupach pozwala na określenie jakiego typu błędy eksperymentalne występują w przypadku danej procedury. Schemat ten może mieć duże zastosowanie w badaniach których celem jest oszacowanie wpływu czynników zakłócających w danym typie eksperymentów. Więcej szczegółów znaleźć można w pracy Brzezińskiego
(Brzeziński 1997, strony 328-332)
Tam też omówionych jest kilka dalszych planów eksperymentalnych.
Wszystkie plany badawcze opracowane dla badań eksperymentalnych mogą też mieć zastosowanie w badaniach quasi-eksperymentalnych, gdy nie ma możliwości manipulacji zmienną eksperymentalną. Należy jednak pamiętać o trudnościach w interpretacji zależności przyczynowo-skutkowych.
Metody kontroli zmiennych ubocznych
Badacz powinien kontrolować w badaniu zmienne uboczne, to znaczy umieć oszacować lub wyeliminować ich wpływ na relację między zmienną niezależną główną i zmienną zależną. Istnieje kilka możliwości takiej kontroli.
Ograniczenie zakresu zmiennej. Np. decydujemy się na badanie jedynie mężczyzn lub osób o średniej inteligencji. Jeśli próba będzie jednorodna- zmienna kontrolowana nie będzie wpływać na wyniki badania, jednak wnioski będą musiały być również ograniczone do takiej populacji.
Wbudowanie w plan eksperymentalny. Np. badanie wg schematu klasycznego analizujemy osobno dla grupy mężczyzn i kobiet. W takiej sytuacji oceniać będziemy interakcyjny wpływ badanych zmiennych niezależnych na zmienną zależną.
Kontrola statystyczna- przy zastosowaniu specjalnych procedur, np. analizy kowariancji, korelacji cząstkowej itp.
Dobór celowy- badacz odchodzi od pełnej randomizacji II stopnia, ingerując w skład grup. Ingerencja ta może polegać na
Doborze grup w taki sposób, aby rozkład ubocznych zmiennych istotnych dla badacza był identyczny jak w populacji.
Wyrównaniu poziomu zmiennej zależnej po preteście
Doborze parami- do każdej osoby w grupie eksperymentalnej dobierana jest osoba do niej podobna pod względem kilku zmiennych, np. tej samej płci, w tym samym wieku i z podobnym wykształceniem.
Źródła artefaktów
Prawidłowe badanie, aby uniknąć wpływu oczekiwań badacza na wyniki powinno rozdzielać funkcje osoby planującej badanie, eksperymentatora (prowadzącego) oraz osoby analizującej dane. Każda z tych osób może jednak spowodować szereg zakłóceń trafności badania.
Osoba planująca badanie:
Badacz posiada swój paradygmat, sposób widzenia problemu. Rzutuje on na sposoby przeprowadzenia badania, sformułowanie pytań, pomijanie alternatywnych hipotez wyjaśniających zjawisko.
Tendencja do utrzymywania hipotez potwierdzających własny model.
Badacz powinien znać alternatywne teorie zjawisk i być świadomy własnych przekonań, w tym ukrytych teorii.
Eksperymentator (prowadzący badanie)
Jego cechy osobowości mogą wpływać na dane uzyskane w wywiadach
Nieprzestrzeganie zasad procedury eksperymentalnej, np. stosowanie badań grupowych w miejsce indywidualnych, niebezpośrednie zbieranie danych.
Wzmacnianie oczekiwanych zachowań, werbalne lub niewerbalne
nieprawidłowe rejestrowanie danych (pomyłki), lub ich fałszowanie w celu wcześniejszego zakończenia badań.
wpływ oczekiwań, np. przekonanie o ważności sprawdzanej hipotezy.
dobór próby, np. dobieranie wśród osób znajomych
zmiana miejsca badania, np. tendencja do wybierania miłych domów albo nie wchodzenia na ostatnie piętra
Badacz powinien zadbać o dobre przeszkolenie eksperymentatora w procedurze badania, ale nie wprowadzać go w swoje hipotezy. Jego praca powinna być sprawdzana.
Błędy podczas analizy danych.
Pomijanie sprawdzania założeń metod statystycznych, używanie zbyt małych prób.
Wybór łatwiejszych metod analizy, np. stosowanie metod dostępnych w pakiecie statystycznym.
Słaba znajomość procedury obliczeń.
Nadużywanie technik wielozmiennowych.
Formułowanie post hoc hipotez kierunkowych (gdy kierunek zależności nie wynika z przesłanek, ale użycie testu jednostronnego pozwala udowodnić istotność).
Pomijanie informacji o wynikach nieudanych
Osoba analizująca dane powinna znać nie tylko statystyką, ale i częściowo dziedzinę której dotyczą badania. Musi znać oprócz pakietów statystycznych również istotę stosowanych wzorów. Powinna mieć dobrą orientację w stosowanych technikach badawczych.
Procedura Ex post facto (EPF)
W badaniu wg schematu ex post facto zadaniem badacza nie jest wywołanie zjawisk, jak w przypadku badań eksperymentalnych lecz wyjaśnienie przyczyn zjawisk które już zaszły. Istnieje wiele zjawisk (zaburzenia psychiczne, przestępczość itd.) które z przyczyn metodologicznych lub etycznych nie mogą być badane na drodze eksperymentalnej.
W takim wypadku badacz wyszukuje grupy różniące się pod względem badanej zmiennej zależnej Y (a więc maksymalizuje jej wariancję) a następnie stara się możliwie dokładnie zbadać różnice między tymi grupami. Opis dwóch wariantów metody znaleźć można w pracy Brzezińskiego
(Brzeziński 1997, ss.431-442).
Procedura EPF w wariancie eksploracyjnym polega na wyszukaniu maksymalnej ilości zmiennych mogących różnicować grupę w której zjawisko Y wystąpiło od grupy kontrolnej.
Zasadniczą techniką badawczą jest wywiad, ponieważ zmienne niezależne działały wcześniej, przed pojawieniem się zjawiska Y. Badacz jeśli stosuje np. test osobowości musi zdawać sobie sprawę, że mierzona zmienna może być zarówno następstwem, jak i przyczyną zmiennej niezależnej Y. Dlatego stosowanie testów dopuszczalne jest jedynie wówczas, kiedy dotyczy cech zasadniczo trwałych, nie podlegających zmianom pod wpływem środowiska (temperament, niektóre zdolności). Podobne ograniczenia dotyczą metod obserwacyjnych.
Po stwierdzeniu różnic badacz powinien oczyścić uzyskany obraz zależności z zależności pozornych. Jeśli stwierdza się różnicę w subiektywnie odczuwanym lęku i występowaniu objawów psychosomatycznych- prawdopodobnie druga różnica może być wyjaśniona przez pierwszą, i nie stanowi niezależnego odkrycia.
Drugi typ procedury EPF to procedura konfirmacyjna. Zasadniczą różnicą między pierwszym a drugim typem badania jest sformułowanie szczegółowych hipotez dotyczących zależności.
Etyka badań naukowych
Brzeziński 1997, ss. 131-135, 175-178,
16 Reasons Why God Never
Received Tenure at the University
From the Internet / Author Unknown
He had only one major publication
And it was in Hebrew
And it had no references
And it was not published in a refereed journal
And some even doubted that He wrote it Himself.
It may be true that He created the world, but what has He done since then?
His cooperative efforts have been quite limited.
The scientific community has had a very rough time trying to replicate His results.
He never applied to the Ethics Board for permission to use human subjects.
When one experiment went awry, He tried to cover it up by drowning the subjects.
When subjects did not behave as predicted, He often punished them, or just deleted them from the sample.
He rarely came to class: He just told students to read the book.
He has his son teach the class.
He expelled His first two students for learning too much.
Although there were only ten requirements, most students failed His tests.
His office hours were infrequent, and usually held on a mountain top.
Cecha może stanowić element takiego modelu
Adam Tarnowski Metodologia badań psychologicznych 1
Sąd
Przedmioty
Prawa empiryczne
Świat faktów
Wskazanie operacji testującej
Reguły interpretacji (zasady łączące)
Nadawanie znaczenia (denotacja)
Zdanie (syntaktyka)
Świat symboli (znaków)
Pojęcie
Teoria (Reguły wewnętrzne)
Świat teorii
Świat faktów
Fakty pierwotne
Model wyjaśniający
Hipoteza
Fakty przewidywane
Teoria programowa
Teorie szczegółowe
Hipotezy
Przewidywania Dane empiryczne
Zmienne niezależne istotne dla Y
Ważne
Zakłócające
Główne
(zawsze kontrolowane)
Uboczne (moderatory i mediatory)
Kontrolowane
Niekontrolowane
Uniwersalne
Nie związane z aktem badania
Związane z aktem badania
Okazjonalne
Niekontrolowane
Niekontrolowane
Kontrolowane
Kontrolowane
WW
I
I
W
Yp1
Yk1
Yk2
Yp2
X
A
C
B
Yk1
X
Yk2
Yk1
X
Yk1
X
Yp1
Yk2
Yp2
Yp1
Yk3
X
Yk4
(X) Metoda
Wynik otrzymany skali IQ
(M) Motywacja
(Y) Wyniki
Wynik prawdziwy skali IQ
Inteligencja- konstrukt teoretyczny (Świat III)
Wymiar empiryczny- Inteligencja jako sposób organizacji zachowania (Świat I)