Metodologia, metody-wykl, 14


14.11.2009

Jak rozwija się wiedza?

Jak to się dzieje, że mamy postęp w nauce? - na to pytanie są 3 sposoby odpowiedzi:

1. Koncepcja kumulacyjnego rozwoju wiedzy (tradycyjna koncepcja rozwoju wiedzy):

Zakłada, że postęp w nauce/ wiedzy jest całkiem odmienny/ odbywa się na innych zasadach niż w innych dziedzinach, (np. filozofia, sztuka - pomnażanie, systematyczne gromadzenie dorobku, inaczej: nowe osiągnięcia nie unieważniają starych, są do nich dołączane). Zaś w rozwoju nauki mamy do czynienia z metodą przejmowania i eliminacji, co oznacza, że nowe osiągnięcia, nowe odkrycia będę unieważniały stare. Mówi się, że te nowe osiągnięcia zawierają stare, ale w ulepszonej postaci. Nowe ulepsza stare, uściśla, poprawia, dlatego rozwój nauki jest kumulatywny. Uważa się, że nie trzeba wracać do wcześniejszych teorii, bo są one zawarte w teoriach współczesnych.
To skąd postęp w nauce? -
To dzięki wierności metodzie naukowej mamy możliwość kumulowania nauki.
Jaka ta metoda naukowa jest? - Metoda naukowa powinna być wolna od wszelkich zewnętrznych wpływów (politycznych, osobistych poglądów). Metoda naukowa jest niezależna.

Można więc powiedzieć, że nauka rozwija się w sposób ewolucyjny.

2. Powyższej koncepcji zaprzeczył Thomas Kuhn - stwierdził, że to nie prawda, iż nauka rozwija się w sposób ewolucyjny. Przedstawił on koncepcję rewolucji naukowej. Koncepcja Kuhna była szeroko dyskutowana. Dla Kuhna bardzo ważne jest pojęcie PARADYGMATU. Wprowadził je po to, by wyjaśnić/ opisać rozwój nauki poprzez rewolucję. Kuhn różnie definiuje pojęcie paradygmatu - 2 najważniejsze rozumienia to:

  1. szersze rozumienie paradygmatu - gdzie, paradygmat jest matrycą dyscyplinarną (zbiór teorii, twierdzeń, instrumentarium badawcze, które razem stanowią wzór postępowania w dyscyplinie.)

  2. węższe rozumienie paradygmatu - gdzie, paradygmat jest wzorcem rozwiązywania problemów w danej nauce (np. jak badacze radzą sobie z problemami w danej nauce, można by ostrożnie porównać tu paradygmat do metody badawczej/ instrumentarium badawczego).



Amst
erdamski i Szacki wprowadzili bardziej konkretne definicje paradygmatu:

Definicja paradygmatu wg Amsterdamskiego

Paradygmat to zespół charakterystycznych przekonań i uprzedzeń wspólnoty badawczej. Jej robocze instrumentarium, historycznie zmienny consensus omnium (zgoda powszechna) umożliwiający szybki postęp, nie wracanie do już raz przyjętych/ ustalonych kwestii, rozwiązywanie na jego gruncie kolejnych łamigłówek.

Definicja paradygmatu wg Szackiego

Paradygmat służy do określenia tego, co należy badać, jakie pytania należy stosować, w jaki sposób to robić, jakie należy stosować reguły interpretacji wyników. Pozwala on odróżnić jedną wspólnotę badaczy od innej. Łączy ze sobą osiągnięcia, teorie, metody i narzędzia badawcze.

Wg Thomasa Kuhna nauka rozwijając się przechodzi przez kolejne fazy:

  1. faza prenauki - taki moment, w którym nie istnieje jeszcze wypracowany paradygmat i trwają ciągłe dyskusje na temat podstawowych kwestii. Kuhn twierdził, że nie ma tu jeszcze wspólnej zgody, więc postęp nie jest możliwy.

  2. Faza normalności - w momencie, gdy zostaje wypracowany paradygmat, wspólny wszystkim badaczom, czyli istnieje zgoda powszechna - nauka wchodzi w tę fazę. (Wszyscy godzą się na ten paradygmat i wg niego pracują). Nauka normalna to nauka z jednym paradygmatem, o który opiera się rozwój. (Nowi badacze uczą się od starszych jak paradygmat wygląda, muszą go nabyć, oswoić się z nim. Jeśli potrafią go używać mogą prowadzić własne badania właśnie w oparciu o ten wyuczony paradygmat).

Jeśli pojawi się problem, którego nie można w ramach paradygmatu rozwiązać, to nie wini się paradygmatu, a szuka się błędu w postępowaniu badacza.
Paradygmat jest obowiązujący, wierzymy, że jest prawdziwy. Wg Kuhna badacze działający w ramach danego paradygmatu, nie mogą go kwestionować, a bezkrytycznie przyjmować.

Pojawia się jednak moment, gdy pojawia się coraz więcej problemów niewyjaśnianych przez paradygmat, wtedy nauka wchodzi w stan kryzysu.

  1. Faza kryzysu - to taki moment, w którym pojawia się bardzo wiele łamigłówek, których w oparciu o paradygmat nie da się wyjaśnić, albo pojawia się bardzo wiele anomalii.

**Wg Kuhna mamy 2 podstawowe typy odkryć w nauce:

  1. odkrycia oczekiwane - są logiczną konsekwencją istniejących teorii. Uczeni wiedzą, czego i gdzie mają szukać. Można wskazać moment i miejsce odkrycia i powiedzieć, kto był odkrywcą (np. uzupełnianie wolnych pól w tablicy Mendelejewa).

  2. odkrycia nieoczekiwane - nie są przewidziane przez istniejące/ obowiązujące teorie. W ich przypadku trudno wskazać moment odkrycia i autorów. Odkrycia nieoczekiwane dokonują się w trakcie procesu, który składa się z następujących etapów:

  1. Spostrzeżenie anomalii - zauważenie, że pojawiło się coś, czego się nie oczekiwało, wtedy trzeba wiedzieć, czego się oczekiwało. Badacz musi być spostrzegawczy, posiadać niezbędne instrumentarium, wiedzieć jak zjawisko ma przebiegać.

  2. Identyfikacja anomalii - próba odpowiedzi na pytanie, czym jest to, co zauważył badacz.

  3. Oswajanie anomalii - związane z wielokrotnym wywołaniem tego samego zjawiska i włączenie anomalii do paradygmatu. **

Jeśli anomalię da się włączyć do paradygmatu, to nauka ma się dobrze, jeśli jednak pojawia się dużo anomalii nie dających się włączyć do paradygmatu to mamy do czynienia z kryzysem. W tym momencie badacze zaczynają podważać istniejący paradygmat (na tym polega faza kryzysu) , ponieważ nie można rozwijać nauki, pracować bez paradygmatu. W stanie kryzysu pojawiają się pomysły na tworzenie nowego paradygmatu.

Nowy paradygmat zupełnie różny jest od starego paradygmatu, nowy paradygmat tłumaczy anomalie, które nie dawały się wyjaśnić przez stary paradygmat.

Kiedy nowy paradygmat jest zarysowany, nauka przechodzi w:

  1. faza rewolucji - polega na odrzuceniu starego paradygmatu a zastąpieniu go nowym paradygmatem. Kuhn twierdził, że zmiana paradygmatu jest czasem tak głęboka i silna, że można porównać ją do zmiany religii.

    Kiedy wszyscy naukowcy danej dziedziny zgodzą się na nowy paradygmat nauka wraca do normalności. Kiedy znów obowiązuje jeden powszechnie uznany paradygmat mamy do czynienia z nową nauką normalną.



0x08 graphic
0x01 graphic

Kuhn stwierdził, że nie ma dowodów na to, że jeden paradygmat jest lepszy od drugiego. Po prostu jeden tłumaczy nowe zjawiska, a drugi nie. Kiedy paradygmat jest odmienny, nie ma punktów wspólnych między nimi.

Socjologia jest taka nauką, w której istnieje jednocześnie kilka paradygmatów, więc jak teoria Kuhna ma się do socjologii?

1. socjologia jest pre-nauką - na to socjologowie się nie zgodzili.
2. koncepcja Kuhna powinna zostać uzupełniona o możliwość, iż są nauki, gdzie jest jeden paradygmat, a są i takie, w których jest ich kilka. I Kuhn skłaniałby się ku temu rozwiązaniu, wtedy rewolucja dotyczyłaby paradygmatu, a nie nauki (jak są dwa paradygmaty, to są 2 rewolucje).

3. Koncepcja programów badawczych (Twórca: Imre Lakatos):


Przedmiotem jego zainteresowań był program badawczy. Wg niego program badawczy to coś więcej niż teoria. Co składa się na program nadawczy?
W obrębie programu badawczego mamy do czynienia:

- z twardym rdzeniem - są to ogólne hipotezy teoretyczne, które stanowią bazę dla głównego programu badawczego. Są one uznawane przez badaczy zajmujących się danym programem, uważają, że są nie do obalenia.

- z pasem ochronnym - to zbiór hipotez pomocniczych uzupełniających twardy rdzeń


- z dwoma rodzajami dyrektyw:

* heurystyka negatywna - mówi o tym, jakich kroków należy unikać - zgodnie z nią twardy rdzeń nie może być ani odrzucony, ani modyfikowany. Jeśli jakiś badacz próbuje zmieniać twardy rdzeń - wychodzi poza program badawczy.

* heurystyka pozytywna - jakie kroki należy podejmować, aby program badawczy rozwijać - wszelkie zmiany, nowe dane empiryczne mogą być wprowadzane tylko do pasa ochronnego. Jeśli badacz chce wprowadzać zmiany w programie badawczym, to może je wprowadzać, ale tylko w obrębie pasa ochronnego.

Wg Lakatosa nauka rozwija się poprzez dodawanie/ włączanie nowych twierdzeń do pasa ochronnego. W pasie ochronnym można wprowadzać modyfikacje. Pas ochronny może być także udoskonalany poprzez stosowanie nowych technik badawczych.

Wg Lakatosa programy badawcze mogą być oceniane:

- pozytywnie - program postępowy - wtedy mówi się o programie pozytywnym, czyli takim, który pozwala na uwzględnianie nowych danych, na odkrywanie nowych zjawisk pozwala przewidywać.
- negatywnie - program degenerujący się - taki program, który nie pozwala na odkrywanie nowych zjawisk.

Ocena programów jako degenerującego się nie jest ostateczna, ponieważ można dokonać pewnej inteligentnej zmiany w obrębie pasa ochronnego i wtedy program badawczy stanie się postępowy. Ocena programu badawczego z czasem może się zmieniać, przez to też porównywanie programów badawczych jest bardzo trudne.

Wg Lakatosa kilka programów badawczych może istnieć w obrębie jednego problemu badawczego.

WYJASNIANIE I PRZEWIDYWANIE

Co to znaczy wyjaśniać? - wyjaśnianie, w sensie naukowym, polega na wskazaniu w naszej wiedzy teoretycznej takiego zbioru twierdzeń, z którego wynika twierdzenie orzekające, iż zaszło zjawisko, które wyjaśniamy.

0x08 graphic

Takie wyjaśnianie może opierać się o różne schematy:

1.
Podstawowym, schematem wyjaśniania jest nomologiczno - dedukcyjny schemat wyjaśniania.
Trzeba znaleźć takie twierdzenia 1 i 2, żeby z tych twierdzeń można było wyprowadzić twierdzenie 3, które mówi coś o zdarzeniu, które wyjaśniamy.
(gdzie B jest poprzednikiem a Z następnikiem)

Explanans 1. Zdanie ogólne stwierdzające stały związek między B i Z 2. Zdanie jednostkowe stwierdzające zajście B
0x08 graphic
0x01 graphic

Explanandum 3. Zdanie jednostkowe stwierdzające zajście Z

Explanans - zbiór twierdzeń przy pomocy których wyjaśniamy

Explanandum - twierdzenie opisujące to co chcemy wyjaśniać.

Owo pierwsze zdanie ogólne musi mieć charakter bezwyjątkowy, czyli zawsze, gdy wystąpi B to wystąpi Z. (gdyby ten związek nie był stały mielibyśmy do czynienia z innym rodzajem wyjaśniania).
przykład: Dlaczego Jan się pomylił?

Explanans 1. Jeśli jest się człowiekiem, to jest się też omylnym.
2. Jan jest człowiekiem.

0x08 graphic
0x01 graphic

Explanandum 3. Jan jest omylny/ Jan się pomylił.

2. Wyjaśnianie wieloczynnikowe

0x08 graphic
Następuje wtedy, gdy w poprzedniku wskazuje się na wiele zjawisk.

0x08 graphic
1. Zdanie ogólne A · B · C…W Z jedna linia oznacza wynikanie bezwarunkowe

2. Zaszły A · B · C…W
0x08 graphic
0x01 graphic

3. Zaszło Z

Przykład: Student X zdał egzamin z metod - wyjaśniamy dlaczego:


1. Jeśli ktoś systematycznie chodził na wykłady (A), czytał lektury (B), uczył się 1,5 tyg. (C), to zdaje egzamin z metod.
2. Student X systematycznie chodził na wykłady (A), czytał lektury (B), uczył się do egzaminu 1,5 tyg.(C). (muszą wystąpić wszystkie czynniki)
0x08 graphic
0x01 graphic
3. Student X zdał egzamin z metod.

* z wyjaśnianiem wieloczynnikowym mamy o wiele częściej do czynienia niż z wyjaśnianiem nomologiczno-dedukcyjnym.

3. Wyjaśnienie niekompletne - mamy z nim do czynienia, gdy pomija się któreś ze zdań z explanansu w wyjaśnianiu.
Istnieją następujące sytuacje w wyjaśnianiu niekompletnym, gdy pomija się zdanie ogólne:
a) pomija się zdanie ogólne, bo np. jest banalne lub trywialne (powszechnie znane), np.

1. Jan jest człowiekiem.

0x08 graphic
0x01 graphic

2. Jan się pomylił.

Jeśli pomija się zdanie ogólne (pierwsze zdanie) bo jest ono banalne lub trywialne, to mamy do czynienia z wyjaśnianiem entymematycznym.

b) pomija się zdanie ogólne, bo nikt go jeszcze nie sformułował, ono nie istnieje, np. wyjaśnienie rozbiorów Polski - jest wiele czynników/ powodów, ale nie ma zdania ogólnego.

c) zdarza się tak, że zdanie ogólne nie zostało ogólnie sformułowane, ale odwołujemy się do intuicji (np. wydaje nam się, że zajście A może spowodować B) - wyjaśnianie intuicyjne.

W przypadku wyjaśnianie niekompletnego zdarza się też, że nie podaje się zdania jednostkowego informującego o wystąpieniu poprzednika, np. Ludzie są omylni, więc Jan jest omylny.

Tego typu wyjaśnienia najczęściej używane są na co dzień, w nauce są raczej niepoprawne, powinno się je uzupełnić.

Można pominąć zdanie ogólne.

Przykład: Jan jest człowiekiem, dlatego Jan się pomylił.

Nie trzeba podawać zdania, że ludzie są omylni - jest banalne.

0x08 graphic
0x08 graphic
4. Wyjaśnienia komplementarne (B A Z)

Wyjaśnienie 1 (wyjaśnienie pośrednie, bo wskazujemy na dalszą przyczynę)

B jest przyczyną Z
Zaszło B
0x08 graphic
0x01 graphic

Dlatego zaszło Z

Wyjaśnienie 2 (wyjaśnienie bezpośrednie, bo wskazujemy na bliższą przyczynę)

A jest przyczyną Z
Zaszło A

0x08 graphic
0x08 graphic

Dlatego zaszło Z

W przypadku wyjaśniania komplementarnego mamy do czynienia z przynajmniej dwoma wyjaśnieniami danego zjawiska i każde z tych wyjaśnień jest prawdziwe.

Np. Trzeba dostać zaliczenie z ćwiczeń, żeby zostać dopuszczonym do egzaminu, a zdanie tego egzaminu powoduje zaliczenie semestru.

Może też być taka sytuacja, kiedy wyjaśnienia A i B będą składnikami tego samego warunku wystarczającego dla zajścia Z. Wtedy, gdy badacz odwołuje się do A lub do B, to dokonuje tzw. wyjaśnień częściowych.

Np. Kiedy wyjaśniamy dlaczego ktoś jest członkiem elitarnego klubu i wiemy, że by nim być trzeba być bogatym i właściwie urodzonym.

Kiedy wyjaśnienia A i B są alternatywnymi warunkami wystarczającymi do zajścia zjawiska Z, czyli musi wystąpić jedno lub drugie.

5. Wyjaśnianie konkurencyjne -
mamy tutaj do czynienia z dwoma różnymi wyjaśnieniami, z których jedno jest fałszywe.

Dwóch różnych badaczy próbuje wyjaśnić to samo zjawisko. Jeden wykonuje to źle.

6. Wyjaśnienie probabilistyczne

Odwołujemy się do zdania ogólnego.

Explanans 1. Zdanie stwierdzające związek probabilistyczny między B i Z
2. Zdanie jednostkowe stwierdzające zajście B

0x08 graphic

0x08 graphic
Co czyni wysoce prawdopodobnym

Explanandum 3. Zdanie jednostkowe stwierdzające zajście Z

Przykład: Dlaczego Jan jest chory na grypę?

Explanans 1. Spotkanie z osobą chorą na grypę zwiększa prawdopodobieństwo

0x08 graphic
zachorowania/ zarażenia się.
2. Jan spotkał się z osobą chorą na grypę.

0x08 graphic
0x08 graphic

co czyni wysoce prawdopodobnym

Explanandum 3. Jan jest chory/zachorował na grypę.

Podwójna linia oznacza prawdopodobieństwo wynikania probabilistycznego

7. Wyjaśnienie hipotetyczne (postdykcja, przewidywanie wstecz)

Eksplanans 1. B pociąga za sobą Z

0x08 graphic
2. Zapewne zaszło B

Eksplanandum 3. Dlatego zaszło Z

Taki typ wyjaśniania, kiedy znamy zdanie ogólne, ale nie jesteśmy w stanie stwierdzić czy wystąpiło zdarzenie określane w poprzedniku, nie mamy informacji na ten temat, czyli o poprzedniku będzie się mówić na podstawie tego jaki jest następnik.

Przykład:

Kiedy spadnie deszcz, ulice są mokre.
Ulice są mokre rano, więc w nocy padało.

8. Wyjaśnienia genetyczne

Są to typy wyjaśnień, które występują zarówno w naukach społecznych, ale występują też w biologii, czy historii. Wyjaśnić coś genetycznie, to wyjaśnić z czego coś powstało.
Wg Nowaka mamy 3 sytuacje, kiedy używamy takich wyjaśnień:

a) kiedy wskazujemy na materiał, z którego powstało to, co wyjaśniamy (rafa koralowa powstała z koralowców);

b) kiedy wskazujemy na organizm, którego dany organizm jest potomkiem (np. człowiek pochodzi od małpy);

c) kiedy wskazujemy na wcześniejsze stadium wyjaśnianego zjawiska (najczęstsze w naukach społecznych).


Wyjaśnienia genetyczne są wyjaśnieniami, w których odwołujemy się do pośrednich przyczyn, czyli bardzo odległych przyczyn. Często też w tego typu wyjaśnieniach wskazujemy na cały łańcuch przyczyn - pokazujemy cały proces kształtowania/ powstawania zjawiska.

9. Wyjaśnienia celowościowe (teleologiczne) i wyjaśnienia funkcjonalne.

Wyjaśnienia celowościowe mówią, jakiemu celowi służy, po co jest dany element, np. dlaczego Henryk XVI rozwiódł się z Katarzyną Macedońską, bo niw mógł się doczekać męskiego potomka.

Wyjaśnienia funkcjonalne - wskazujemy tu ns funkcje, jakie pełni dany element w danym systemie, np. wyjaśniamy istnienie płuc wskazując na ich funkcje dla organizmu.

* Czasami bardzo trudno odróżnić funkcję od celu wyjaśnianego elementu.

10. Wyjaśnienie ludzkich zachowań poprzez wskazanie motywów.


Np. Dlaczego student w sobotę siedzi w C101 bo chce mieć wyższe wykształcenie.

Często te motywy są nieuświadamiane, są trudne do rekonstrukcji, bardzo trudno jest je badać. Często się mówi, że są to wyjaśnienia hipotetyczne, niekompletne

PRZEWIDYWANIE

1. Nomologiczno - dedukcyjny schemat przewidywania

0x08 graphic
a) schemat bezwyjątkowy:

B zawsze pociąga za sobą Z
Zachodzi B

0x08 graphic
W przyszłości zajdzie Z

Np.
Aby skończyć studia potrzebna jest duża ambicja.
Student X nie jest ambitny.

W przyszłości student nie skończy studiów.

b) schemat przewidywania probabilistycznego ( można przewidywać na podstawie deklaracji ludzi, takie przewidywania mają charakter probabilistyczny):

Istnieje prawdopodobieństwo pomiędzy B i Z.
Wystąpiło B.

0x08 graphic
0x08 graphic

0x08 graphic
Istnieje prawdopodobieństwo, że w przyszłości wystąpi Z.

Np.
Prawdopodobieństwo ukończenia studiów przez osoby pochodzące ze wsi wynosi 70%.
Student X pochodzi ze wsi.

0x08 graphic

Prawdopodobieństwo, że student X ukończy w przyszłości studia wynosi 70%.

2. Ekstrapolacja trendów

Jeden z typów przewidywań, bardzo ważny w ekonomii, socjologii, demografii. Polega na rzutowaniu w przyszłość pewnych tendencji zaobserwowanych w przeszłości.

Na podstawie wielu ścisłych danych z przeszłości przewidujemy jak zjawisko będzie wyglądać w przyszłości.

Problemy które mogą pojawić się w ekstrapolacji trendów to:

1. załamanie trendu i zmiana kierunku trendu- albo coś idzie za dobrze, występuje jakieś nieoczekiwane dobre zjawisko (np. lek na raka), albo co idzie źle - nieoczekiwane złe zjawiska (tornada powodzie), które wpływają na zmianę kierunku trendu

2. nasycenie trendu - występuje szczególnie w ekstrapolacji zapotrzebowania na dane produkty.

W przewidywaniu możemy mieć do czynienia z :

- samounicestwiające się prognozy -
w chwili formułowania jest prawdziwa, natomiast jej ogłoszenie przyczynia się do niezrealizowania danego zdarzenia, np. ogłasza się, że coś będzie się dobrze sprzedawać (następuje masowa produkcja, co powoduje spadek cen).

- samorealizujące się prognozy - prognoza w chwili tworzenia jest fałszywa, a podanie jej do publicznej wiadomości sprawia, że prognoza staje się prawdziwa, np. prognozy niewypłacalności banku.

28.11.2009

PROBLEMY, HIPOTEZY, ZMIENNE.

Problem naukowy - jest to jakieś pytanie, na które w nauce nie ma jeszcze odpowiedzi

Żeby pytanie stało się problemem naukowym musi spełniać 3 kryteria :

  1. Pytanie musi dotyczyć obiektywnego stanu niewiedzy (tzn. stan niewiedzy musi dotyczyć dużej grupy badaczy, nie może być niewiedza jednostkowa)

  2. Pytanie musi być wyrażone w języku naukowym (za pomocą terminów na przykład)

  3. Pytanie musi być tak sformułowane, aby badacz wiedział jakie czynności musi wykonać, po to aby udzielić odpowiedzi na to pytanie.

Podział pytań ze względu na treść:

Zadajemy bardzo dużo różnorodnych pytań w trakcie badania - to charakteryzuje nauki społeczne. W ramach jednego badania mogą pojawić się wszystkie powyższe typy pytań.

Podział pytania problemowych ze względu na formę :

  1. Pytania problemowe zamknięte - gdzie zakres odpowiedzi możliwych jest z góry znany, np. jakie poglądy polityczne mają badani respondenci?

  2. Pytania problemowe otwarte - wtedy, gdy nie znamy zakresu możliwych odpowiedzi (jeśli np. badamy nowe zjawisko, lub np. w jaki sposób Łodzianie spędzają czas wolny?)

Na co musimy zwrócić uwagę formułując pyt. problemowe?

- W jakim celu badacz podejmuje dane badanie?

3 podstawowe grupy celów/ funkcji, któremu mogą służyć odpowiedzi na nasze pytania?

  1. cele naukowo-poznawcze (podejmujemy badanie, aby rozwinąć daną dyscyplinę naukową);

  2. cele praktyczno-użytkowe (odpowiedzi na pytania problemowe będą podstawą do podejmowania konkretnych działań)

  3. cele humanistyczno-obywatelskie (przeprowadzamy badanie po to, aby ludzie których badamy zwiększyli swoją wiedzę o sobie, aby oddziaływać na ludzką świadomość)

Jedno badanie może pełnić wszystkie trzy f-cje. Pierwsza i trzecia f-cja łączą się najczęściej. Najrzadziej łączy się z nimi funkcja druga.

- Badacz musi podjąć decyzje, czy do rozstrzygnięcia jego pytań wystarczy analiza

dotychczasowej literatury czy też konieczne są osobne badania.

Czasem jest tak, że wystarczy przeanalizować dotychczasową literaturę, np. metodologia.

Jeśli badacz stawia pytania zamknięte i jest przekonany, że jedna odpowiedź będzie prawdopodobna, to ta odpowiedź nazywa się hipotezą.

Hipoteza - wstępna odpowiedź na pytanie problemowe

Albo

Hipoteza - tj. odpowiedź, która jest opatrzona wysokim stopniem asercji badacza (oznacza to, że badacz jest przekonany że rzeczy mają się tak, jak Hipoteza głosi)

Hipotezy testuje się w trakcie badań.

Skąd badacz bierze hipotezę?

Wg metodologów jest to proces niemożliwy do kontrolowania. Nie ma takiej wiedzy, nie wiadomo skąd bierzemy hipotezy. Metodologów nie interesuje skąd się one biorą.

Prawdopodobne źródła hipotez:

W postawieniu Hipotezy bardzo dużo zależy od pomysłowości badacza.

Warunki poprawności metodologicznej Hipotez:

  1. H. musi się w sposób jednoznaczny odnosić do problematyki badań (musi dostarczać odpowiedzi na pytania problemowe).

  2. H. musi mieć uzasadnienie (badacz nie musi się tłumaczyć skąd wziął H, ale musi uzasadnić dlaczego taką H i w takiej formie przyjął?)

  3. H. musi mieć postać zdania warunkowego albo takiego, który się da do takiego zdania sprowadzić

  4. H. powinny dotyczyć przynajmniej dwóch zmiennych
    Musimy wiedzieć jaki jest kierunek wpływu tych dwóch zmiennych na siebie.

  5. Musimy podać warunki sprawdzalności H. (musimy wiedzieć przy zajściu jakich zjawisk H. możemy uznać za sprawdzoną)

  6. Musimy wiedzieć czy H jest propozycją zdania jednostkowego czy ogólnego (czy będzie generalizacją historyczną czy prawem nauki)

Typy badań:

- badania eksploracyjne - w których nie stawia się hipotez, ponieważ ich postawienie jest niemożliwe. W tych badaniach pierwszy raz badamy jakieś zjawisko. Badania te dotyczą zjawisk nowych i najczęściej mają charakter badań wstępnych.

- badania weryfikacyjne - badania w których startuje się od H. (badania organizowane po to, aby H. testować/weryfikować)

Zmienna - cecha, która przyjmuje co najmniej dwie wartości, np. płeć jest zmienną.

Stała - cecha, przyjmująca jedną wartość w badaniu

Pojęcie zmiennej odnosi się do pewnych konkretnych badań, są do tych badań zrelatywizowane.

RODZAJE ZMIENNYCH:

I podział. - Możemy dzielić zmienne ze względu na skalę na której są mierzone :


To na jami poziomie mierzona jest dana zmienna wpływa na to, jakie operacje matematyczne możemy wykonywać.

PODZIAŁ KUMULATYWNY :

  1. Skala nominalna (nieuporządkowany zbiór możemy podzielić na jednostki posiadające daną cechę lub nie, nie możemy ustalić hierarchii, np. kolor oczu);

  2. Skala porządkowa ( wprowadza porządek, narastanie lub malenie, ale nie znamy odległości, są one różne, dzielimy ludzi np. na poziom wykształcenia, stopień wojskowy);

  3. Skala interwałowa (zakłada, że mamy równą jednostkę pomiaru oddalenia; nie ma tu naturalnego punku zero, np. iloraz inteligencji jest mierzony na tym poziomie)

  4. Skala ilorazowa (mamy interwał i naturalny poziom zero, np. pieniądze są mierzone na tym poziomie)

Kumulatywność - zmienne mierzone na wyższym poziomie mają cechy zmiennych z poziomu niższego + kilka dodatkowych cech. I dlatego poziomu pomiaru można obniżyć, natomiast nie da się go podwyższyć.

II podział.

Możemy mówić o zmiennych :

  1. Jakościowych czyli nominalnych

  2. Ilościowe czyli :

  1. Porządkowe

  2. Interwałowe

  3. Ilorazowe

III podział.

zmienne ciągłe - czyli takie, które zmieniają się płynnie, np. zarobki

zmienne skokowe - gdzie wartości tych zmiennych są wyraźnie od siebie oddzielone, np. liczba posiadanych dzieci

IV podział.

Zmienna dwuwartościowa tzw. Zmienne zerojedynkowe, które posiadają tylko dwie wartości. Jakieś zjawisko występuje albo nie.

Zmienna wielowartościowa - dana zmienna przyjmuje więcej niż dwie wartości

V podział.

Zmienna jednowymiarowa - to takie do zbadania, których potrzebne jest tylko jedno kryterium, np. wzrost

Zmienna wielowymiarowa - dana zmienna mierzona jest przy użyciu wielu kryteriów, np. pozycja społeczna jednostki.

VI podział.

Możemy dzielić zmienne ze względu na to jaką funkcję będą pełnić w badaniu.

- zmienne, które są potencjalnymi przyczynami - zmienne niezależne - charakteryzują się tym, że są wcześniejsze w czasie i mniej podatne na zmiany;

- potencjalne skutki - zmienne zależne - to są zmienne które są późniejsze w czasie, bardziej podatne na zmiany.


Czasem mamy do czynienia ze zmiennymi, o których trudno powiedzieć, która z nich jest zmienną niezależną, a która zależną - w takiej sytuacji decyduje badacz.

Przechodzenie z poziomu teoretycznego do empirycznego - Badacz żyje w dwóch światach :

  1. Świat teorii - formułuje H.

  2. Świat empirii - sprawdza H.

Badacz przechodząc, ze świata teoretycznego do empirycznego musi przeprowadzić takie procedury :

  1. Konkretyzację pojęć

  2. Operacjonalizację pojęć

Ad.1. Badacz musi wskazać konkretne zjawiska występujące w doświadczeniu osób badanych w stosunku do których badacz zastosuje dane pojęcie. Konkretyzacja jest związana z przybliżaniem sensu pojęć teoretycznych do codziennych doświadczeń ludzi.


Ad.2.
Operacjonalizacja tj. wskazanie określonych zabiegów badawczych za pomocą których zbadamy czy dane zjawisko występuje czy nie.


Czasami te konkretne zjawiska, do których chcemy dotrzeć są niemożliwe do zbadania w sposób bezpośredni, dlatego czasami badacz stosuje procedurę wskaźnikowania.

Można mówić o dwóch szkołach wskaźnikowania

  1. Łódzka - Jan Lutyński

  2. Warszawska - Stefan Nowak

Ad. 1.

Indicatum
- jest to zjawisko, które chcemy badać i na temat którego chcemy formułować wnioski. To jest to trudno obserwowalne zjawisko.

Wskaźnik - jest to zjawisko, do którego docieramy w procesie badawczym i na podstawie którego mówimy coś o indicatum. Np. Ojcowie biorą udział w wychowywaniu dzieci.


Lutyńs
ki :

  1. Respondenci mogą nam udzielić nieprawdziwych odpowiedzi, zatem kłamstwo respondenta nie może być wskaźnikiem jakiegoś zjawiska

  2. Sam proces zadawania pytań i udzielania odpowiedzi jest bardzo skomplikowany i wieloetapowy.

Mówi się , że wskaźnikiem zjawiska Z jako indicatum nazwiemy takie zjawisko W na podstawie zajścia którego badacz przyjmuje z dostatecznie dużym prawdopodobieństwem, iż wystąpiło Z.

Kiedy prawdopodobieństwo jest wystarczające? - nie wiadomo, decyduje o tym badacz.

Wskaźniki dzielimy na dwie grupy (wg. Tadeusza Pawłowskiego) :

  1. Wskaźniki definicyjne - gdy wskaźnik wchodzi w skład definicji indicatum, ale tej definicji nie wyczerpuje, jest częścią składową tej definicji.

  2. Wskaźniki rzeczowe - pomiędzy wskaźnikiem a indicatum występuje związek przyczynowo-skutkowy. Mówimy o wskaźnikach empirycznych - tutaj indicatum jest obserwowalne albo wskaźnikach inferencyjnych - gdzie indicatum jest nieobserwowalne.

Wskaźniki empiryczne- indicatum jest obserwowalne

Wskaźniki inferencyjne- indicatum jest nieobserwowalne


Lutyński sformułował 5 postulatów, które stawiane są procedurze wskaźnikowania, żeby była poprawna :

DWA PODSTAWOWE :

  1. Trzeba dokładnie scharakteryzować zjawisko, które będzie dla nas wskaźnikiem (musimy wyróżnić i opisać wartości zmiennych, które składają się na dane zjawisko)

  2. Musimy wiedzieć, jakie procedury badawcze trzeba zastosować, aby stwierdzić występowanie wskaźnika

DODATKOWE :

1. Trzeba scharakteryzować Indicatum, żeby dobrać wskaźnik Trzeba wyróżnić i opisać wartości zmiennych, które składają się na indicatum.

Jeśli wskaźnik spełnia te dwa podstawowe warunki i ten trzeci dodatkowy to nazwany jest wskaźnikiem arbitralnym.


2. Musimy wiedzieć jaki jest związek między wskaźnikiem a indicatum (musi
wiedzieć czy tj wskaźnik definicyjny czy rzeczowy)

Jeśli wskaźnik spełnia te cztery warunki to jest wskaźnikiem zinterpretowanym.

  1. Musimy określić siłę związku, który łączy wskaźnik z indicatum, co nam powie o prawdopodobieństwie, czy jest ono spełnione..

Jeśli wskaźnik spełnia pięć warunków tj. wskaźnik uzasadniony.

**

Wskaźniki ułomne - wskaźniki arbitralne inaczej, czyli badacz zatrzymał się w procedurze wskaźnikowania (nie spełnił wszystkich postulatów potrzebnych do doboru wskaźników)

Wskaźniki rzekome - pseudowskaźniki - tj taka sytuacja, w której scharakteryzowaliśmy wskaźnik, ale nic nie wiemy o indicatum (nie wiem, co badamy, ale wskaźnik sobie obraliśmy)

Wskaźnik dobiera się w konkretyzacji pojęć!

JEDNOSTKI ANALIZY, ZASADY DOBORU JEDNOSTEK, POPULACJA, PRÓBA

Badacz musi określić jednostki analizy. Kiedy mówimy o jednostkach analizy mamy na myśli kogo i co badacz będzie badał lub kogo lub czego będą dotyczyły wnioski z badań.

- Najczęściej pojawiającą się jednostką analizy są pojedynczy ludzie.

- Jednostką analizy mogą być też grupy, np. rodziny, gr. terapeutyczne.
Wnioski z tych badań dotyczą całych grup a nie poszczególnych osób.

- Jednostką analizy mogą być formalne organizacje społeczne (np. przedsiębiorstwo, hipermarkety, instytucje)

- Jednostką analizy mogą być też zbiorowości terytorialne np. gminy, województwa, wsie, diecezje, okręgi wyborcze (jednostka analizy pokrywa się w jakimś stopniu z określonym terytorium)

- Jednostką analizy mogą być wytwory ludzkich zachowań (książka, artykuł prasowy, audycje TV, internetowe ogłoszenia matrymonialne, ustawy, bilbordy, itd.)

Badania całkowite - to jest taka sytuacja, w której docieramy do wszystkich jednostek analizy. Zdecydowanie częściej bada się tylko pewną grupę jednostek, które w momencie kiedy będą odpowiednio dobrane mogą stanowić część wyników o całej populacji.

Spis powszechny - tj jedyne badanie w którym powinno się dotrzeć do wszystkich jednostek.

Dobór racjonalny - wtedy kiedy wnioski z próby uogólniamy na populację z której próba ta została dobrana (można rozszerzyć wnioski z próby na populację).

W ramach doboru racjonalnego wyróżnia się :

  1. Dobór losowy

  2. Dobór losowo - kwotowy

  3. Dobory celowe - badacz ma wpływ na to, jakie jednostki dostaną się do próby, wyróżniamy tu:

  1. Kwotowe

  2. Jednostek przeciętnych

  3. Jednostek o cechach krańcowych

  4. Dobory parami wg. określonej liczby cech

  5. Dobór lawinowy (dobór łańcuchowy albo kuli śnieżnej)

  6. Dobór jednostek lepiej poinformowanych

Są też dobory nieracjonalne, które nie dają możliwości rozszerzenia wniosków z jednostek przebadanych na populację. W tego typu doborach wnioski mają charakter sprawozdawczy (mówią tylko o tych, których przebadaliśmy).

Dobór nieracjonalny :

  1. Dobór samorzutny - jednostki dobierają się same do badania, badacz nie ma wpływu na to kto będzie brał udział w badaniu. Co najwyżej może zadecydować ile osób będzie brało udział w badaniu(przykład - w ankiecie prasowej)

  2. Dobór przypadkowy - badamy osoby, które są dostępne (takie które w danym momencie da się zbadać, np. sonda uliczna)

Dobór racjonalny :

  1. Dobór losowy (probabilistyczny) albo dobór reprezentatywny - opiera się na kilku założeniach :

  1. Ma teoretyczne uzasadnienie w rachunku prawdopodobieństwa i w statystyce matematycznej

  2. Ani badacz ani ankieter nie mają wpływu na to, kto dostanie się do próby (jednostki się losuje a nie wybiera)

  3. Wszyscy należący do danej populacji mają takie samo prawdopodobieństwo dostania się do próby (prawdopodobieństwo to da się obliczyć i jest większe od zera)

  4. Dokonuje się losowania z tzw. Operatów losowania (z różnego rodzaju spisów, baz, kartotek)

Warunki, które musi spełniać operat losowania :

  1. W. adekwatności - musi odpowiadać zbiorowości, którą chcemy badać

  2. W. kompletności - musi zawierać wszystkie jednostki wchodzące w skład danej zbiorowości

  3. W. braku powtórzeń - każda jednostka ma być w nim tylko raz

  4. W. dokładności - operat nie może zawierać jednostek nieistniejących lub nienależących do populacji

  5. W. techniczny - operat ma być wygodny w użyciu

Dobór losowy - daje możliwość obliczenia błędu jaki popełniamy przy przenoszeniu wyników z próby na populację. Ten błąd nazywamy błędem standaryzowanym próby (inaczej błąd estymatora albo przedział ufności). Ten błąd jest wyrażony w % i mówi o tym, w jakim przedziale znajdowały by się wyniki, gdybyśmy przebadali całą populację.

Próba założona - to osoby wylosowane do badania

Próba zrealizowana - to są osoby do których udało nam się dotrzeć, z którymi przeprowadziliśmy badania.

Sposoby radzenia sobie z niedoborem próby:

* próby losowe mogą być próbami imiennymi. Wtedy losuje się konkretne osoby z imienia i nazwiska do której musimy dotrzeć

*próby adresowe - losujemy adres i pod danym adresem dokonujemy doboru respondentów

(Te sposoby doboru są różnorodne. Np. pod wylosowanym adresem spisujemy osoby np. wg wzrostu czy wieku i mamy polecenie rozmawiania z którąś z kolei).

16.01.

Dobory losowo-kwotowe - przeprowadza się je w następującej kolejności:
najpierw losuje się punkty terytorialne (np. ulice, okręgi wyborcze, kwartały ulic), czyli takie miejsca, co do których będziemy wiedzieć, jak wygląda struktura populacji, i dopiero z tych miejsc dobieramy próbę kwotową (jednostki wg określonych cech w ramach tego wylosowanego miejsca).

Dobory celowe:

a) dobór kwotowy/ udziałowy -
nie ma żadnego teoretycznego uzasadnienia, to czy dana jednostka dostanie się do próby zależy od badacza lub ankietera, jednostki są dobierane.

Konstrukcja próby - jak się ją przeprowadza?

etap 1.
wybór cech przez badacza, które są istotne z punktu widzenia problematyki badania.

etap 2. zdobycie informacji na temat rozkładu wybranych (badanych) cech w populacji.

*im więcej cech tym trudniej zdobyć rozkłady, więc najczęściej badacz ogranicza

liczbę cech, by było mu łatwiej zdobyć dane statystyczne.

etap 3. jak już badacz ma rozkłady, musi określić wielkość próby, a następnie odwzorowuje rozkłady cech z populacji w próbie.

etap 4. - ustalenie liczby ankieterów przez badacza, następnie badacz dzieli obliczoną próbę wśród ankieterów, tak, aby równo ich obciążyć pracą - te części próby z liczbą osób o określonych cechach przypisane ankieterowi do przebadania to właśnie kwoty.

*Badacz wie tylko jakie cechy mają posiadać osoby, ale wybór tych osób zależy od ankietera, bo nie są one wskazane ani z adresu ani z nazwiska.

*w tego rodzaju próbach nie odnotowuje się odmów - badanie przeprowadza się do skutku, aż próba zostanie zrealizowana.

*w przypadku tego rodzaju próby nie można wyliczyć błędu standardowego, czyli nie wiemy jakiego rzędu błąd popełniamy przenosząc wyniki z próby na populację.

* często próbę losową i kwotową traktuje się zamienne (kwotowa - tania).


b) dobór jednostek przeciętnych - wybiera się jednostki ze względu na ich typowość; są one przedstawicielami jakiejś szerszej grupy obiektów, np. typowa rodzina, typowe przedsiębiorstwo, typowa miejscowość w danym województwie.

c) dobór jednostek o cechach krańcowych - dobieramy jednostki na zasadzie kontrastu, uważając że ta cech (kontrastowa) jest istotna z punktu widzenia badania.

d) dobór parami - najczęściej występuje w badaniach eksperymentalnych, gdzie dobiera się jednostki w pary wg określonej liczby cech, następnie losuje się, która z nich będzie w grupie kontrolnej a która w grupie eksperymentalnej.

e) dobór lawinowy (łańcuchowy, kuli śnieżnej) - podstawą dla doboru każdego następnego respondenta są informacje o nim, jakie uzyskujemy od poprzedniego respondenta.
Dobór ten sprawdza się przy badaniu np. grup mniejszościowych, grup znajomych, członków jakiegoś stowarzyszenia, przykładem mogą być badania Engelking nad byłymi więźniami obozów koncentracyjnych.
Warto dodać, że jest to dobór ceniony ze względu na ułatwiony kontakt z każdym kolejnym respondentem.

f) dobór jednostek lepiej poinformowanych - wybieramy osoby, które posiadają dużą wiedzę na temat badanego zjawiska, z tym, że nie musi być to wiedza ekspercka, a może wynikać z codziennego doświadczenia.

**
random routh - inaczej metoda ustalonej ścieżki, próba na adresach startowych - dobór, który nie mieści się w żadnym podziale. Czasami jest traktowany jako zastępujący dobór losowy w badaniach lokalnych.
(Losuje się punkt startowy, ankieter ma tam iść, ale w tym miejscu nie wykonuje się badania, ankieter staje tyłem do tego miejsca i posługując się metodą lewej ręki wykonuje badania w co 3cim (lub innym) miejscu od tego wylosowanego. Przy czym losuje się mieszkanie a nie osobę. W doborze osoby do badania stosuje się różne metody, np. z tym, kto miał ostatnio urodziny, albo ustawiamy osoby od najmłodszej do najstarszej i kierujemy się listą, np.
- jeśli w mieszkaniu jest jedna osoba, to ją badamy;
- jeśli w mieszkaniu są trzy osoby, to z drugą;
- jeśli w badaniu są cztery osoby, to z czwartą, itd. Tego typu dyspozycje ankieter ma zawsze dane.
Wszystkie te zabiegi służą ulosowieniu próby.)

POMIAR, SKALOWANIE

3 definicje Pomiaru w zależności od ich szczegółowości:

1. Pomiarem określa się wszelkie uzyskiwanie danych dotyczące badanych zjawisk (utożsamia się pomiar ze zbieraniem zjawisk);

2. Pomiar to przyporządkowanie liczb badanym zjawiskom, oczywiście na podstawie określonych reguł (pomiar jako liczenie zjawisk);

3. Pomiar to przyporządkowywanie liczb badanym zjawiskom przy czym każda liczba może reprezentować tylko jeden obiekt (przyporządkowywanie izomorficzne) albo każda liczba może odpowiadać kilku obiektom (przyporządkowanie homomorficzne), np. lista egzaminacyjna - izomorficzna; K-1, M-2 z tej listy - homomorficzne.

*Samo mierzenie jest bardzo istotne z punktu widzenia opracowywania danych, bo odpowiedzi respondentów można zamieniać na liczby (kodowanie) i na ich podstawie wykonywać dalsze analizy.

Jakie skale mogą być stosowane w socjologii?

- skale oparte o jednostki policzalne -
(ile osób spełnia jakieś zjawisko) - odwołanie się do częstości pewnych zachowań, np. ustalamy jak często ktoś chodzi do kina, jaki odsetek pracowników filharmonii należy do związków zawodowych, ile razy w ciągu roku był ktoś w kinie.

- skale ocen respondentów (bardzo częste w badaniach opinii) - w tych skalach nie odwołujemy się do częstości zachowań, ale do odczucia respondenta, są to skale bardzo subiektywne.

- skale tworzone przez porządkowanie obiektów - np. respondent dostaje listę 10ciu zawodów i ma ułożyć je wg stopnia prestiżu. *bardziej rzetelne są skale porównawcze.

- drabinka CANTRILL'A - jedyna skala graficzna w pionie, najczęściej ma 10 punktów (szczebelków), u góry - maksimum, na dole - minimum, prosi się o ocenę pewnych zjawisk przy użyciu tej drabinki/ skali, np. ocena swojego życia i ocena jakie się należy oraz ocena tego, jak sądzi respondent, jakie jego życie będzie za 10lat.

- dyferencjał semantyczny (częsty w badaniach pedagogicznych) - dzięki niemu ocenimy pewne obiekty (osoby, grupy, zjawiska). Mamy 2 kolumny przymiotników: pozytywne i przeciwstawne do nich negatywne, takich par jest kilkanaście, nawet dochodzi do 20, a pomiędzy parami jest 10cio punktowa skala i badany ocenia obiekt stawiając punkt bliżej tego przymiotnika, który wg niego lepiej dany obiekt określa.

- skale ocen obserwatorów - wypowiadają się tutaj nie respondenci, a przeszkoleni niezależni obserwatorzy, którzy obserwują jakąś sytuację i na skali zaznaczają efekty tej obserwacji.

- arbitralne skale oparte o punktację - najczęściej stosowane w badaniach, w których chcemy sprawdzić wyposażenie gospodarstw domowych w dobra trwałego użytku. (nie interesuje nas odsetek gospodarstw domowych posiadających dane dobro, ale gospodarstwom przypisuje się 1 punkt za każde dobro)

- skale częściowo empiryczne oparte o punktację - m.in. skale do badania postaw Thurstone'a, Bogardhusa, Likerta.

Trafność i rzetelność skali:

- skala jest trafna jeśli mierzy, to co miała mierzyć;
- skala rzetelna przy kolejny powtórzonym pomiarze daje ten sam wynik.


Zawsze powinno się sprawdzić trafność i rzetelność skali, przy czym zaczynamy od sprawdzania rzetelności skali. Jeśli skala charakteryzuje się niską rzetelnością, to gwarantuje to, że będzie ona miała bardzo małą trafność. Ale wysoka rzetelność skali nie gwarantuje wysokiej jej trafności.

Nawet jeśli trafność i rzetelność danej skali są określone i nawet jeśli są wysokie dla danej grupy osób, to nie znaczy, że skala ta będzie trafna i rzetelna dla naszej grupy/ próby.

PRZYCZYNOWOŚĆ

Jeśli jesteśmy w stanie określić, że dane zjawiska pozostają ze sobą w związku przyczynowo-skutkowym, to możemy wyjaśniać i przewidywać.

W badaniach społecznych rzadko związki przyczynowo-skutkowe się pojawiają.

Definicja związku przyczynowego:

Zjawisko A pozostaje w związku przyczynowym ze zjawiskiem B, gdy:

1. zjawisko A jest warunkiem wystarczającym dla zajścia zjawiska B, lub A jest warunkiem koniecznym dla zajścia B, lub A jest koniecznym składnikiem warunku wystarczającego dla zajścia B
(sprawdzamy ten warunek poprzez analizy korelacyjne);

2. Zjawisko A jest wcześniejsze, a przynajmniej nie późniejsze niż zjawisko B (aby był spełniony ten warunek, powinniśmy zaobserwować te zjawiska, tzn. za pomocą obserwacji stwierdzić kiedy zaczęło się A, a kiedy B; czasami nie jesteśmy w stanie zauważyć oddzielności czasowej, ale przyczyna nie może być późniejsza niż skutek);

3. Zjawisko A wywołuje zjawisko B (aby spełnić ten warunek musimy wyeliminować inne zjawiska / alternatywne czynniki podejrzane o sprawstwo/ bycie konkurencyjnymi przyczynami).

Warunek wystarczający - A będzie warunkiem wystarczającym dla zajścia B, w sytuacji, kiedy jeśli zajdzie A, to zajdzie B.

Warunek konieczny - A będzie warunkiem koniecznym dla zajścia B, w sytuacji gdy jeśli nie zajdzie zdarzenie A, to nie zajdzie zdarzenie B. ( np. zaliczenie danego przedmiotu przez studenta jest konieczne by zaliczył rok).

Konieczny składnik warunku wystarczającego - A będzie koniecznym składnikiem warunku wystarczającego, jeśli istnieje takie zdarzenie C, że jeśli zajdzie łącznie A i C, to zajdzie też B, ale jednocześnie samo zajście C nie wystarczy do zajścia B.

np. A - naciśniecie spustu sprawnej broni palnej;
C - obecność naboju w lufie;

B - wystrzał.


Logika dowodu przyczynowego:

Aby na drodze empirycznej wykazać, że dwa zjawiska A i B są ze sobą w związku przyczynowo-skutkowym trzeba:

1. Wykazać, że zjawiska A i B współwystępują i współzmieniają się;

2. Wykazać, że to zjawisko, które traktujemy jako przyczynę A jest wcześniejsze w czasie niż to, które traktujemy jako skutek B;

3. wyeliminować alternatywne czynniki podejrzane o sprawstwo, tzn. wykazać, że inne współwystępujące z A i B zjawiska nie wywołały zjawiska B -
do wyeliminowania tych czynników służą KANONY MILLA:

Indukcja eliminacyjna MILLA:

I. Kanon jednej zgodności

Jeśli jakaś okoliczność stale towarzyszy współwystępowaniu badanego zjawiska podczas, gdy inne okoliczności ulegają zmianie, to okoliczność ta jest przyczyną danego zjawiska.

0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
0x08 graphic
A B C X

A B ~C X

A ~B C X

A ~B ~C X

Zatem A jest przyczyną X

Kanon jednej zgodności upoważnia do stwierdzenia dotyczącego warunku koniecznego dla zajścia zjawiska X. Stwierdzamy bowiem, np. w przypadku poszukiwania przyczyna dla X, że nie jest nigdy tak, by zachodziło X, a nie zachodziło A. Innymi słowy: zajście A jest konieczne dla zajścia X.

Przykład:
Chcemy stwierdzić co było przyczyną zdania egzaminu z jakiegoś przedmiotu:

A - student uczył się 2 tygodnie do egzaminu;
B - chodził na wykłady;
C- chodził na ćwiczenia.

Po wynikach egzaminu pod uwagę bierzemy tylko studentów, którzy zdali egzamin i okazuje się, że jedyną stałą przyczyną jest dwutygodniowe uczenie się do egzaminu (A), czyli zjawisko A jest warunkiem koniecznym do zdania egzaminu.

II. Kanon jedynej różnicy:

Jeśli jakaś okoliczność zachodzi, gdy dane zjawisko występuje, a nie zachodzi, gdy dane zjawisko nie występuje, podczas gdy wszystkie pozostałe okoliczności za każdym razem są te same, to okoliczność ta jest przyczyną danego zjawiska.

0x08 graphic
0x08 graphic
0x08 graphic
A B C X

~A B C ~X

Zatem A jest przyczyną X

Kanon jednej różnicy upoważnia do stwierdzenia dotyczącego warunku wystarczającego lub składnika tego warunku dla zajścia zjawiska X.

Przykład -jak powyżej, ale po ogłoszeniu wyników egzaminu dzielimy studentów na tych którzy zdali i tych którzy nie zdali i okazuje się, że:

Studenci, którzy zdali egzamin - uczyli się do niego przez 2 tygodnie, chodzili na wykłady oraz na ćwiczenia;
Studenci, którzy nie zdali egzaminu - chodzili na wykłady i na ćwiczenia, ale nie uczyli się 2 tygodnie przed egzaminem.

Z czego wniosek, że dwutygodniowe uczenie się jest przyczyną zdania egzaminu.

Na definicji związku przyczynowego i na logice dowodu przyczynowego są oparte badania kontrolowane (np. eksperyment laboratoryjny). Ale związki przyczynowo-skutkowe nie tylko wykrywamy w eksperymencie.

Badania eksperymentalne

Eksperyment
to powtarzalna procedura, na którą składa się stymulacja, kontrola i obserwacja.

Stymulacja - to wprowadzanie zmian, których następstwa chce się ocenić.

Kontrola - ma nam umożliwić trafne przypisanie następstw tym wprowadzanym zmianom.

Kontrola to najważniejszy element badania eksperymentalnego. Kontrola to tworzenie pewnych układów porównawczych w stosunku do układu, który poddaje się działaniu bodźca. Taki układ porównawczy nazywany grupą kontrolną jest pozostawiany sam sobie, nie jest poddawany żadnym działaniom ze strony badania. Ale układ porównawczy musi być identyczny (albo chociaż podobny) do grupy eksperymentalnej, czyli tej, którą poddajemy działaniu bodźca.

Obserwacja - ma następstwa wprowadzonych zmian dokładnie rejestrować.

Dobrze przeprowadzony eksperyment musi spełniać 4 warunki:

1. warunek trafności teoretycznej -
jesteśmy w stanie w sposób poprawny przełożyć pewne zmienne teoretyczne na manipulacje eksperymentalne i operacje pomiarowe; zawsze odbywa się to w ramach przyjętych ram teoretycznych. Inaczej: u podstaw eksperymentu leży teoria i to ona określa metody jego przeprowadzenia.

2. warunek trafności wewnętrznej - mamy podstawy dla przypisania manipulacji eksperymentalnej tych i tylko tych następstw, które ona wywołała. To nie jest proste i jest szereg czynników, które mogą nakładać się na bodziec eksperymentalny i go zakłócać, tzw. czynniki kontaminujące: historia, dojrzewanie, selekcja, testowania, instrumentacja, regresja statystyczna, utrata badanych osób, niestabilność). Inaczej: dzięki trafności wewnętrznej jesteśmy w stanie przypisać zmiany naszym manipulacjom, a nie czynnikom zakłócającym.

3. warunek trafności zewnętrznej - jeśli rezultaty eksperymentu mogą zostać uogólnione na:
- inne zbiorowości, niż ta która była poddana badaniu (grupy powinny stanowić reprezentatywną próbkę);
- inne warunki społeczno historyczne (okoliczności czasu);
- inne warunki (z kontrolowanych warunków laboratoryjnych na występujące w życiu).

Utrudniają to czynniki zakłócające: interakcja bodźca eksperymentalnego z selekcją, warunków badania, historii, pretestu.

4. warunek trafności statystycznej - do analizy wyników należy dobrać właściwe metody statystyczne.

*Najczęściej jest tak, że eksperymenty charakteryzują się wysoką trafnością wewnętrzną ale niską trafnością zewnętrzną - jest to związane z tym, że warunki laboratoryjne bardzo odstają od rzeczywistości.

Czynniki zakłócające trafność wewnętrzną (Inaczej czynniki kontaminujące CAMBELA):

1. historia -
zewnętrzne zmiany zachodzące w trakcie trwania eksperymentu (eksperymenty nie zawsze są prowadzone tak, że pomiędzy pierwszym a drugim pomiarem jest bardzo mała przerwa czasowe, a podczas tej przerwy może wydarzyć się coś, co wpłynie na wynik pomiaru). Krótki czas trwania eksperymentu eliminuje ten czynnik.

2. dojrzewanie - systematyczne zmiany, którym podlegają jednostki biorące udział w eksperymencie, może to być dojrzewanie biologiczne, ale najczęściej jest ono związane z nabywaniem nowej wiedzy.

0x08 graphic
3. selekcja - jeśli grupa eksperymentalna i kontrolna są źle dobrane, nie są identyczne. Brak integralności wpływa na wyniki, trudno je porównać.

4. testowanie - pierwszy pomiar przed wprowadzeniem bodźca wpływa na rezultaty eksperymentu (np. przez to, że zapamiętają swoje odpowiedzi i je odtworzą).

5. instrumentacja - jeśli zmieniamy zasady i narzędzia pomiaru to wpływamy/ zakłócamy wynik eksperymentu, Obie grupy kontrolna i eksperymentalna powinny być badane tym samym narzędziem oraz w oparciu o te same zasady.

6. regresja statystyczna - jeśli w badaniu będą uczestniczyć osoby o skrajnych cechach, to ich wyniki mogą się zbliżać do średniej, ale nie będą bardziej skrajne (skrajne poglądy pod wpływem bodźca nie mogą stać się jeszcze bardziej skrajne).

7. utrata badanych osób (inaczej śmiertelność grupy) - osoby odmawiają dalszego uczestnictwa w eksperymencie. Im eksperyment trwa dłużej, tym jest to bardziej obserwowalne.

8. niestabilność - wszystkie zdarzenia losowe, których nie przewidział badacz, np. kiedy bodźcem jest film, a w trakcie jego emisji wyłączają prąd - badani zaczynają dyskutować o obejrzanym fragmencie i pojawia się nieprzewidziany czynnik losowy, który zmieni wynik testu).

Działanie badaczy ma polegać na tym, aby owe czynniki kontaminujące wyeliminować, albo chociaż kontrolować. Dlatego tworzy się schematy eksperymentalne, które różnie radzą sobie z tymi zakłócającymi czynnikami.


SCHEMATY EKSPERYMENTALNE:

1. Klasyczny schemat eksperymentu:

Mamy tu do czynienia z grypą eksperymentalną (E), grupą kontrolną (K) w ścisłym sensie, pretekstem (P1, P3) i posttestem (P2 i P4).
X - bodziec
d = (P2-P1)-(P4-P3) - wpływ bodźca

E P1 X P2
K P3 P4

Grypy kontrolna i eksperymentalna muszą być ujednolicone pod istotnymi względami, a zwłaszcza pod względem zmiennej zależnej. Ujednolicenie ma służyć temu, aby móc orzec, że różnice są skutkiem działania bodźca.
Ujednolicenie grup w tym schemacie można osiągnąć poprzez:

- randomizację - losowy podział jednostek badania na grupę eksperymentalną i kontrolną (duża grupa osób jest tutaj potrzebna, więc rzadko się tę metodę stosuje).

- dobór parami - grupowanie jednostek badania w pary o jednakowych wartościach zmiennych istotnych (trzeba mieć założenia teoretyczne, które zmienne są istotne), a następnie losowe rozdzielanie tych par na jednostki eksperymentalne i kontrolne.

- wyrównywanie częstości względnych - celowy dobór grup o jednakowych rozkładach istotnych zmiennych i wylosowanie jednej z nich jako eksperymentalnej a drugiej jako kontrolnej (patrzymy, czy grupy są podobne pod względem proporcji kobiet i mężczyzn, poziomu wykształcenia);

- dobór grup równoważnych - celowy wybór spośród zbiorowości dwóch najbardziej do siebie podobnych (nie dysponujemy danymi, ale posiadamy wiedzę ekspercką dotyczącą podobieństwa grup do siebie, np. wybiera się do badania dwie najbardziej podobne klasy szkolne) - najwłaściwszy, gdy eksperyment zepsułby istniejący układ.

W klasycznym schemacie eksperymentu dopuszcza się każdy z wyżej wymienionych doborów grupy eksperymentalnej i grupy kontrolnej. Nie stawia się ograniczeń, gdyż w schemacie tym mamy do czynienia ze wstępnym pomiarem, czyli pretestem. I jesteśmy pewni, że te grupy są porównywalne.
Klasyczny schemat eksperymentu dobrze radzi sobie ze wszystkimi czynnikami zakłócającymi trafność wewnętrzną, ale jest drogi i pracochłonny.

2. Schemat z grupą kontrolną bez pretestu.

Świadomie rezygnujemy z pretestu i to ma nieraz uzasadnienie, ponieważ robiąc pretest możemy uwrażliwić naszych badanych na problematykę, a są takie sytuacje, kiedy jego zastosowanie niweczy sens eksperymentowania (np. eksperyment Asha). Rezygnujemy z pierwszego pomiaru zmiennej zależnej, ale grupy dobieramy na drodze randomizacji lub wyrównywania częstości względnych.

E X P1

K P2

d= P1-P2, gdzie P1 i P2 to posttesty.

Taki schemat eksperymentu przeprowadzany jest, gdy jesteśmy pewni, że obie grupy są dobrze dobrane. Aby uniknąć wpływu pretestu na wyniki rezygnuje się z niego.

3. Schemat Salomona

Jest to narzędzie badań metodologicznych. Zastosowanie tego schematu umożliwia nam wykrycie i obliczenie jaka też jest interakcja prestestu z bodźcem eksperymentalnym.

E P1 X P2

K1 P3 P4

K2 Ph X P5

K3 Ph P6

Jest to rozbudowany klasyczny schemat eksperymentu o dodatkowe dwie grupy kontrolne. W grupach K2 i K3 nie stosuje się pretestu (Ph to pretest hipotetyczny), ale oblicza jego wartość ze średniej pretestów P1 i P3. Stosując te grupy można obliczyć różne wartości:

d1=P2-P1 - wynik działania bodźca, pretestu, historii i dojrzewania oraz interakcji bodźca z pretestem.

d2=P4-P3 - wpływ pretestu, historii i dojrzewania.

d3=P5-Ph - wpływ bodźca oraz historii i dojrzewania.

d4=P6-Ph - wpływ historii i dojrzewania.

d3-d4 - wpływ czystego bodźca

d2-d4 - wpływ samego pretestu

d4 - wpływ historii i dojrzewania.

I=d1-[(d3-d4)+d4] czuli I=d1- (d2+d3-d4) - interakcja bodźca z pretestem.

Schemat Salomona daje możliwość obliczenia wpływu każdego z czynników kontaminujących.

4. Schemat z powtarzaniem bodźca w jednej grupie.

Ta sama grupa może pełnić równocześnie funkcje grupy eksperymentalnej i kontrolnej, gdy przedmiotem porównania są stany tej samej grupy w różnych momentach czasowych.
Jeżeli bodziec jest tego rodzaju, że jego następstwa mają charakter przejściowy (szybko znikają lub trwają dotąd, dokąd działa bodziec) to możemy ten bodziec wprowadzać do grupy wielokrotnie, co pewien czas i wielokrotnie mierzyć zmienną zależną w warunkach działania bodźca i przy jego braku.
Momenty wprowadzania bodźca muszą być wybrane losowo.

XP1 ~XP2 XP3 ~XP4 XP5 ~XP6 … XPn-1 ~XPn

Miarą wpływu bodźca jest różnica średnich dwu serii pomiarów, z których jedną wykonano wówczas, gdy bodziec działał, a drugą gdy nie działał.

*Niekiedy wcześniejszy bodziec nakłada się z obecnym - zakłócenie związane z nakładaniem bodźców.

pretest - pomiar zmiennej zależnej przed wprowadzeniem bodźca;

posttest - pomiar zmiennej zależnej po wprowadzeniu bodźca.

Problemy dotyczące badań eksperymentalnych - 3 główne:

1.
mówi się o tym, że są to badania reaktywne - sama świadomość tego, że jest się badanym, uczestnictwo w eksperymencie może wpływać na wyniki.
* te zmiany są obserwowalne także u badaczy, nie tylko u badanych.

* w medycynie, aby uniknąć tego wpływu, robi się pomiary podwójnie ślepe - ani osoba dokonująca pomiaru, ani pacjent nie wiedzą o tym, czy pacjent bierze placebo, czy prawdziwy lek. O tym wie tylko jeden eksperymentator, który nie ma z w/w bezpośredniego kontaktu.

2. problem związany z uogólnieniem wyników - czyli przenoszenie wyników z laboratorium na sytuacje życiowe, inaczej problem trafności zewnętrznej.

(Zarzuca się eksperymentom, że ich rezultatów nie jesteśmy w stanie zastosować na co dzień, bo warunki bardzo się różnią.
Aronson mówi, że w przypadku eksperymentów możemy mówić o:

realizm życiowy/ sytuacyjny - stopień, w jakim eksperymenty są podobne do sytuacji z życia codziennego (wg Aronsona nie są w ogóle podobne);

realizm eksperymentalny (psychologiczny) - jest to stopień w jakim procedury psychologiczne kontrolowane w eksperymencie są podobne do procesów psychologicznych z życia codziennego.

Wg Aronsona należy tak prowadzić eksperymenty, żeby sytuacja badania tak wciągała badanego, że jest dla niego realistyczna i wpływa na jego decyzje tak, jak sytuacja codzienna.).

3. kwestie etyczne związane z eksperymentami - przede wszystkim chodzi o ukrywanie lub nie mówienie o celu badania.

Sposoby:
- nie zdradza się badanym na czym polega eksperyment;
- objaśnienie badanym całej wiedzy na temat eksperymentu - bardzo rzadko;
- wprowadzanie w błąd - przedstawianie założeń, które nie mają związku z danym eksperymentem.

Trzeba zapewnić badanym taki komfort psychiczny, by ich samoocena nie zmalała w ciągu badania, np. przynajmniej po eksperymencie powinniśmy przedstawić ideę eksperymentu.

1

PRE - NAUKA

NAUKA NORMALNA

KRYZYS

REWOLUCJA

NOWA NAUKA NORMALNA



Wyszukiwarka