Nachmias - streszczenie, Metodologia badań psychologicznych i statystyka wykłady


Nachmias rozdz. 2

Pojęcia

Myślenie wymaga użycia języka. Sam język jest systemem komunikacji składającym się z symboli oraz zbioru reguł pozwalających na tworzenie różnych kombinacji tych symboli. Jednym z najbardziej istotnych symboli języka, zwłaszcza ze względu na jego związek z badaniami są pojęcia.

Pojęcie jest abstrakcją - symbolem - reprezentacją obiektu, jednej z jego właściwości lub zjawiska behawioralnego. Badacze rozpoczynają swoje badania od utworzenia pojęć jako rodzaju „stenogramu” opisującego świat empiryczny.

FUNKCJE POJĘĆ

Po pierwsze - są podstawą komunikowania się. Gdyby nie istniał zaakceptowany zbiór pojęć, badacze nie mogliby przedstawiać własnych rezultatów ani wzajemnie powtarzać swoich badań. Komunikacja oparta na intersubiektywności i wzajemnym zrozumieniu byłaby niemożliwa. Warto zapamiętać, że pojęcia są wyabstrahowane ze spostrzeżeń i są wykorzystywane do przenoszenia i przekazywania informacji.

Fałszywa konkretyzacja - to traktowanie pojęć jak zjawisk rzeczywistych, to błąd polegający na traktowaniu abstrakcji jako rzeczywistości zamiast jako wytworu myślenia.

Po drugie - pojęcia wprowadzają perspektywę - sposób patrzenia na zjawiska empiryczne: „dzięki naukowej konceptualizacji spostrzegany świat staje się uporządkowany i zwarty, co nie byłoby dostrzegane przed konceptualizacją”.

Po trzecie - pojęcia umożliwiają naukowcom klasyfikowanie i generalizowanie. Innymi słowy, naukowcy strukturalizują, kategoryzują, porządkują swoje doświadczenia i obserwacje w terminach pojęć.

Wszystkie zjawiska, występujące w rzeczywistości, są jedyne w swoim rodzaju: dlatego też żadne zjawisko nie pojawia się ponownie dokładnie w taki sam sposób.

Konceptualizować oznacza do pewnego stopnia uogólniać Uogólniać oznacza redukować liczbę obiektów przez potraktowanie niektórych z nich jako identycznych

Treść pojęcia jest w sposób nieunikniony ograniczona do cech, które naukowcy uważają za podstawowe.

Po czwarte - pojęcia są składnikami teorii i dlatego również składnikami wyjaśnień i przewidywań. Pojęcia są najbardziej istotnym elementem każdej teorii, ponieważ definiują jej treść i własność. Na przykład pojęcia: ”władza” i „legitymizacja” definiują istotę teorii rządzenia a pojęcia „indywidualizm” i „protestantyzm” definiują i wyznaczają teorię samobójstw Durkheima.

Definicje

Pojęcia muszą być wyraźne, precyzyjne i powszechnie zaakceptowane, jeśli mają spełniać swoje funkcje. Ze względu na potrzebę precyzji każda dyscyplina naukowa zajmuje się z konieczności, własnym słownictwem. Aby osiągnąć jasność i precyzję w stosowaniu pojęć w trakcie badań, naukowcy stosują dwa rodzaje definicji: pojęciowe i operacyjne.

DEFINICJE POJĘCIOWE

To takie, które opisują pojęcia poprzez odwołanie się do innych pojęć. Na przykład „władza” jest pojęciowo definiowana jako zdolność aktora (np. jednostki, grupy czy stanu) do kierowania innym aktorem, który bez tego nie wykonałby pewnych działań. Definicja pojęciowa „względnej deprywacji” odwołuje się natomiast do spostrzeganej przez aktora rozbieżności pomiędzy „wartościami oczekiwanymi” a „wartościami dostępnymi”.

Terminy pierwotne - to pojęcia, których już nie można dalej zdefiniować, wykorzystując inne pojęcia. Terminy pierwotne są określone i jasne. Np. kolor, dźwięk, zapach, smak.

Naukowiec może opisać pewne rzeczywiste zachowanie i określić je jako „gniew”. Technicznie takie zademonstrowanie terminu „gniew” stanowi definicję ostensywną, tj. gniew reprezentuje zbiór łatwo obserwowalnych zachowań. Jako taki „gniew” może zostać wykorzystany zarówno w procesie budowania teorii, jak i w badaniach.

Terminy pochodne - to takie terminy, które można zdefiniować za pomocą terminów pierwotnych. Terminy pochodne są wygodniejsze w użyciu niż terminy pierwotne, gdyż łatwiej powiedzieć słowo „grupa”, niż stale powtarzać terminy pierwotne składające dię na pojęcie „grupy”.

Definicje pojęciowe nie są ani prawdziwe, ani fałszywe. Definicją jest to, co stwierdza definiujący.

Własności definicji pojęciowych:

- Musi wskazywać na unikatowe własności dotyczące tego, co jest definiowane. Musi włączać wszystkie przypadki, których dotyczy i wyłączać wszystkie przypadki, których nie dotyczy

- Nie powinna mieć kołowego charakteru, tzn. nie powinna zawierać żadnego elementu definiowanego zjawiska lub obiekt. Definiując „biurokrację” jako organizację, która ma cechy biurokratyczne, a „władzę” jako dobro posiadane przez ludzi władczych, nie ułatwiamy procesu komunikacji

- Powinna być formułowana w sposób twierdzący. Definicje jako zdania twierdzące wskazują na cechy unikatowe definiowanego pojęcia.

- Powinna zawierać wyraźne terminy, co do oznaczenia których wszyscy się zgadzamy. Termin „konserwatywny”, np. oznacza różne treści dla różnych ludzi i dlatego nie powinien być elementem definicji.

DEFINICJE OPERACYJNE

Właściwości czy zdarzenia empiryczne reprezentowane przez pojęcie często nie mogą być bezpośrednio obserwowalne. Definicje operacyjne łączą poziom pojęciowo-teoretyczny z poziomem empiryczno-obserwowalnym.

Definicje operacyjne składają się ze zbioru procedur opisujących działania, jakie musi podjąć badacz, aby ustalić istnienie lub stopień istnienia zjawiska opisywanego przez pojęcie. Więc, definiują one, co robić i co obserwować, aby badane zjawisko stało się częścią doświadczenia badacza i mogło zostać przez niego zrozumiane.

Pojęcie długości zostaje ustalone wtedy, kiedy zostaną określone operacje, za pomocą których będziemy mierzyć długość, tj. pojęcie długości oznacza tylko tyle, i nic więcej, ile zbiór operacji, za pomocą których długość jest ustalana.

Struktura definicji operacyjnych jest prosta. Jeżeli dany bodziec (S) wywołuje reakcję (R) w stały sposób dla określonego obiektu, to obiekt ten ma określoną, dającą się wywnioskować, własność (P).

Wiele pojęć stosowanych w naukach społecznych to pojęcia definiowane operacyjnie, jedynie w kategoriach siły reakcji na określone bodźce, warunki czy sytuacje.

Pojęcia zawierają elementy zarówno konceptualne, jak i operacyjne. Oba te aspekty muszą się wzajemnie uzupełniać.

PROBLEM ODPOWIEDNIOŚCI (ZGODNOŚCI)

Kiedy badacze przechodzą z poziomu pojęciowego na poziom empiryczno-obserwacyjny (lub odwrotnie) pojawiają się swa ważne problemy. Pierwszy dotyczy stopnia odpowiedniości czy zgodności między definicjami pojęciowymi i definicjami operacyjnymi. Aby ocenić stopień zgodności pomiędzy definicjami pojęciowymi a definicjami operacyjnymi, naukowcy posługują się testami trafności. Lecz nie ma doskonałego kryterium pozwalającego potwierdzić zgodność i że mogą się zdarzyć sytuacje, w których definicje operacyjne nie będą uwzględniać wszystkich elementów definicji pojęciowych.

ZNACZENIE TEORYTYCZNE

Kolejne ważne zagadnienie związane z przechodzeniem z poziomu pojęciowego do poziomu obserwacyjnego pojawia się wtedy, kiedy nie można zdefiniować pojęć operacyjnie, tzn. nie można ich obserwować ani bezpośrednio, ani pośrednio.

Pojęcie, które nie może zostać operacyjnie zdefiniowane, nie powinno być stosowane w badaniach naukowych, gdyż nie poddaje się ono weryfikacji intersubiektywnej.

Definicje operacyjne są niezbędne, aby umożliwić naukowcom wzajemne powtarzanie własnych badań. Bez nich badacz nie jest pewien, czy obserwuje to samo zjawisko.

Naukowe znaczenie pojęcia może być zatem ustalone jedynie poprzez skonstruowanie zbioru operacji (narzędzi obserwacji). Poznanie tych operacji to zrozumienie znaczenie pojęcia i możliwość empirycznego badania zjawisk.

Naukowcy powinni oceniać pojęcia naukowe nie tylko w terminach ich obserwowalności, ale również w terminach ich znaczenia teoretycznego. Niektóre pojęcia nabywają bowiem znaczenia jedynie w kontekście teorii, w której się pojawiły.

Teoria: jej funkcje i rodzaje

Teoria oznacza różne rzeczy dla różnych ludzi. Niektórzy badacze utożsamiają teorie z każdym rodzajem konceptualizacji. Najogólniej teoria to system powiązanych ze sobą pojęć, z których dedukcyjnie można wyprowadzać dające się sprawdzić twierdzenia.

CZYM TEORIE NIE SĄ

Przedstawianie teorii do praktyki - Teoria odnosi się do praktyki, tzn. naukowcy akceptują teorię (i jej praktyczne zastosowania)jedynie wtedy, gdy jej metodologia została jasno i logicznie wyłożona. Wiarygodna teoria jest pojęciową podstawą rzetelnej wiedzy. Teorie pomagają wyjaśniać i przewidywać interesujące nas zjawiska i w konsekwencji podejmować właściwe decyzje praktyczne.

Wymienne stosowanie terminu „teoria” i „filozofia”. Prace klasycznych myślicieli są często uważane za „teorie”. Tymczasem teorie formułowane przed drugą wojną światową w naukach społecznych to przede wszystkim filozofia moralności, a więc problematyki dotyczącej tego, jakie rzeczy być powinny.

RODZAJE TEORII

Nie istnieje jedna prosta definicja teorii. Ich rodzajów jest wiele i każdy rodzaj spełnia inne cele. David Easton klasyfikuje teorie ze względu na:

Zakres - na makro i mikroteorie

Funkcję - na teorie dotyczące zjawisk dynamicznych i statycznych, struktur i procesów

Strukturę - na teorie będące logicznymi systemami myśli silnie ze sobą powiązanych i teorie będące luźniej zdefiniowanymi zbiorami twierdzeń

Poziom - tj. biorąc pod uwagę „systemy zachowań, których dotyczą, a które - po ich uporządkowaniu - można przedstawić na pewnej skali hierarchicznej”.

Klasyfikacja oparta na rozróżnieniu czterech poziomów teorii (Parsons, Shils)

Systemy klasyfikacyjne ad hoc. Składają się z arbitralnych kategorii skonstruowanych po to, aby uporządkować i zebrać obserwacje empiryczne. Badacz może na przykład podzielić odpowiedzi w ramach kwestionariusza (w odpowiedni sposób).

System klasyfikacyjny ad hoc nie został wyprowadzony z ogólniejszej teorii porządku społecznego.

Taksonomie. Taksonomia składa się z systemu kategorii skonstruowanych odpowiednio do obserwacji empirycznych w taki sposób, że można opisać związki pomiędzy kategoriami. Kategorie mogą być wewnętrznie powiązane. Odzwierciedlają opisywaną rzeczywistość. Stworzony przez Parsonsa zespół kategorii opisujących działanie społeczne jest dobrym przykładem tak rozumianej teorii.

Taksonomie pełnią dwie podstawowe funkcje w badaniach społecznych.

1)Precyzyjnie zdefiniowana taksonomia pozwala określić jednostkę rzeczywistości empirycznej, która ma być analizowana , a także wskazuje, w jaki sposób ta jednostka może zostać opisana (w wypadku taksonomii Parsonsa był to system społeczny)

Celem taksonomii jest dostarczenie uporządkowanego schematu pozwalającego klasyfikować i obserwować [...] Jeżeli będziemy się posługiwać taksonomią jako rodzajem >listy zakupów<, to spotykając się twarzą w twarz z przedmiotem badań, możemy natychmiast zidentyfikować jego istotne aspekty czy zmienne.

2)Uporządkowanie i inspirowanie badań deskryptywnych, takich jak badanie rozkładów empirycznych jednej lub większej liczby kategorii danej taksonomii. Taksonomie nie dostarczają jednak wyjaśnień. Opisują jedynie zjawisko empiryczne poprzez dopasowanie do niego zbioru kategorii.

Struktury pojęciowe. W strukturze pojęciowej kategorie deskryptywne są racjonalnie wbudowane w szeroką strukturę formułowanych explicite twierdzeń. Twierdzenia te dotyczą związków pomiędzy dwiema lub więcej właściwościami empirycznymi i mogą zostać przyjęte lub odrzucone.

Dobrym przykładem struktury pojęciowej jest koncepcja systemu politycznego sformułowana przez Eastona. System polityczny jako „formułowanie i realizowanie w społeczeństwie decyzji władzy zwierzchniej”.

Struktury pojęciowe znajdują się na wyższym poziomie niż taksonomie, ponieważ twierdzenia formułowane w ich ramach równie dobrze opisują zachowania, jak też pozwalają wyjaśniać i przewidywać szerokie klasy obserwacji empirycznych.

Twierdzenia wyprowadzane z systemów pojęciowych nie są jednak ustalane dedukcyjnie.

Systemy teoretyczne. Łączą taksonomie oraz struktury pojęciowe, dostarczając w sposób systematyczny opisów, wyjaśnień i predykcji. Składa się z twierdzeń powiązanych ze sobą w sposób, który umożliwia wyprowadzenie jednych twierdzeń z innych.

System teoretyczny jak ten np. sformułowany przez Durkheima, dostarcza struktur wyjaśniających zjawiska empiryczne. Składa się ze zbioru pojęć w tym abstrakcyjnych, opisujących to, czego dana teoria dotyczy (np. samobójstwo), jak też pojęć mających empirycznie mierzalne właściwości (np. odsetek samobójstw). Te właściwości empiryczne nazywamy zmiennymi.

System teoretyczny składa się również ze zbioru twierdzeń. Tutaj twierdzenia tworzą system dedukcyjny. (Zbiór twierdzeń tworzy rachunek tj. metodę analizy lub rachowania za pomocą specjalnych określeń symbolicznych).

Teoria Durkheima przedstawiona przez George'a Homansa to klasyczny przykład systemu teoretycznego.

Niektóre z twierdzeń systemu teoretycznego są względne i zależa od rzeczywistości empirycznej, w tym sensie, że „doświadczenie ma znaczenie dla ich prawdziwości czy fałszywości, a także dla twierdzeń z nich wyprowadzanych”.

TEORIE AKSJOMATYCZNE

Aksjomaty to nietestowalne twierdzenia czy założenia dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe. Aksjomaty opisują bezpośrednie zależności przyczynowe pomiędzy dwoma pojęciami. Zależności te nie wymagają dalszych dowodów empirycznych. Teoria aksjomatyczna składa się z:

1)zbioru pojęć i definicji pojęciowych i operacyjnych

2)zbioru stwierdzeń opisujących sytuacje, do których odnosi się dana teoria

3)zbioru powiązanych za sobą stwierdzeń, podzielonych na:

4)systemu reguł logicznych zastosowanych do:

powiązania wszystkich pojęć w ramach systemu

wyprowadzania dedukcyjnego twierdzeń z aksjomatów, zbiorów aksjomatów i

twierdzeń

Jednym z pierwszych i często cytowanym przykładem teorii aksjomatycznej jest teoria Durkheima w wersji sformułowanej przez Hansa Zetternerga.

Najtrudniejszym problemem dotyczącym teorii aksjomatycznych jest wybór aksjomatów. Jednym z kryteriów dokonywania wyboru jest zgodność wewnętrzna:

- Aksjomaty nie powinny prowadzić do sprzecznych twierdzeń.

- Innym kryterium jest liczba: teoretycy powinni wybierać najmniejszy z możliwych zbiór aksjomatów, z którego da się dedukcyjnie wyprowadzić wszystkie twierdzenia.

- Trzecim kryterium jest nakaz wybierania jako aksjomatów tych twierdzeń, które osiągnęły status praw.

Zalety teorii aksjomatycznych.

1)Wymagają one dobrego opisu i jasnego wyjaśnienia głównych pojęć i założeń wykorzystywanych w niezależnych teoriach.

2)Wszystkie terminy - pierwotne i pochodne - a także definicje operacyjne muszą zostać sformułowane explicite.

3)Teoria aksjomatyczna pozwala na zwarte podsumowanie aktualnych i planowanych badań.

4)Teorie aksjomatyczne mogą być wykorzystywane do „koordynowania badań tak, aby wiele niezależnych wyników potwierdzało się wzajemnie, dając najwyższą akceptowalność teorii w świetle określonych wyników”. Ponieważ teoria składa się ze zbioru powiązanych ze sobą twierdzeń, więc dowiedzenie empiryczne dowolnego twierdzenia staje się jednocześnie potwierdzeniem całej teorii.

5)Forma aksjomatyczna sprawia, że badacze mogą w sposób systematyczny badać wszystkie konsekwencje przyjętych przez siebie aksjomatów.

6)Forma aksjomatyczna jest najwygodniejsza dla analizy przyczynowo-skutkowej.

Modele

Model jest miniaturowym odtworzeniem rzeczywistego problemu, łącznie z uwzględnieniem jego specyficznych cech w odpowiedniej skali (jego struktury). Model pomija inne cechy jak np. instrumenty kontrolne. Model służy jako fizyczna, wizualna reprezentacja struktury i cech (?).

W naukach społecznych modele mają postać symboliczną aniżeli fizyczną. Oznacza to, że cechy charakterystyczne zjawisk empirycznych, włączając w to ich składowe oraz powiązania między nimi, są odtwarzane poprzez logiczne uporządkowanie pojęć.

I tak modelem w naukach społecznych jest abstrakcyjne przedstawienie rzeczywistości w taki sposób, aby uporządkować i uprościć nasze spojrzenie na daną rzeczywistość poprzez odtworzenie jej podstawowych cech charakterystycznych.

Sposobem konstrukcji modeli jest metoda abstrakcji. Czasami stosuje się również procedurę przetwarzania pojęć.

Model zatem to reprezentacja rzeczywistości. Opisuje on te cechy świata rzeczywistego, które - według naukowców - mają największy związek z badanym problemem. Model pozwala wyeksplikować istotne związki między tymi cechami, a także budować empirycznie sprawdzalne twierdzenia dotyczące natury tych związków.

Teoria, modele i badania empiryczne

Nauki społeczne jako dyscypliny naukowe opierają się na dwóch podstawowych elementach: teoriach i badaniach empirycznych. Badacze w naukach społecznych działają w dwóch światach: w świecie obserwacji i doświadczenia oraz w świecie ... (niedoxerowane).

TEORIA PRZED BADANIAMI

Zgodnie z jedną z głównych szkół myślenia najpierw powinna być formułowana teoria, a potem dopiero powinny następować badania empiryczne. Ten sposób postępowania nazywa się strategią teorii przed badaniami. Opracował ją w sposób systematyczny Karl Popper.

Twierdził, że wiedza naukowa czyni największe postępy, gdy naukowcy tworzą idee (przypuszczenia), a następnie korzystając z badań empirycznych, starają się je odrzucić (odrzucenia). Jego zdaniem badania rzadko są źródłem nowych teorii, a także nie są źródłem logicznych metod tworzenia teorii. Teorie „można tworzyć jedynie intuicyjnie, odwołując się do czegoś w rodzaju intelektualnej miłości do przedmiotu doświadczenia”.

Strategia teorii przed badaniami:

1)Skonstruuj explicite teorię lub model

2)Z teorii lub modelu wybierz twierdzenie, które poddasz empirycznej weryfikacji

3)Opracuj plan badawczy pozwalający zweryfikować twierdzenie.

4)Jeżeli twierdzenie wyprowadzone z teorii zostanie odrzucone na podstawie danych empirycznych, to wprowadź zmiany do teorii lub planu badawczego i powróć do etapu 2)

5)Jeżeli twierdzenie nie zostanie odrzucone, to wybierz inne twierdzenie w celu weryfikacji lub staraj się poprawić teorię.

BADANIA PRZED TEORIĄ

Opracowana przez Roberta Mertona, który twierdzi, że

badania empiryczne odgrywają rolę aktywną: spełniają co najmniej cztery podstawowe funkcje, które przyczyniają się do kształtowania rozwoju teorii. Zapoczątkowują, przeformułowują, nadają inny kierunek i precyzują teorię”. Zgodnie z tym poglądem badania empiryczne wymagają kontynuowania prac teoretycznych prowadzących do zmian istniejących teorii, a także pełnią funkcję narzędzia ich weryfikacji.

Strategia badań przed teorią:

1)Analiza zjawiska i określenie jego podstawowych cech

2)Zmierzenie tych cech w różnych sytuacjach

3)Analiza otrzymanych danych w celu określenia, czy są one systematycznym źródłem wariancji.

4)Jeżeli zostanie ustalone systematyczne źródło wariancji, to należy opracować teorię.

Obie strategie traktują teorie jako formę przejawiania się postępu naukowego.

Nachmias rozdz. 3 Podstawowe elementy procesu badawczego

Problemy badawcze

Problem badawczy to bodziec intelektualny wywołujący reakcję w postaci badań naukowych. Nie wszystkie bodźce intelektualne mogą być badane w sposób empiryczny i nie każde ludzkie zachowanie jest sterowane wiedzą naukową. W rzeczywistości podstawowych założeń przyjmowanych w nauce nie da się badać empirycznie.

Generalnie rzecz biorąc, problemy, których nie można empirycznie uzasadnić(tzn. nie można zidentyfikować z obserwowalnymi zachowaniami), lub te, które dotyczą subiektywnych preferencji, wierzeń, wartości czy upodobań, nie poddają się badaniom empirycznym.

Ponieważ jednak preferencje czy wierzenia subiektywne nie mogą zostać empirycznie zweryfikowane, pozostają one poza obszarem wiedzy naukowej.

Ponadto aby problem badawczy był empirycznie uzasadniony, musi zostać w sposób jasny i dokładny sformułowany.

Jednostki analizy

Formułując problem, badacz musi rozważyć jednostki analizy , tj. określić, jakie są podstawowe elementy badanego zjawiska. Jednostka (czy poziom) analizy warunkuje wybór planu badawczego, metod zbierania danych oraz metod analizy danych. Abraham Kaplan nazwał problem wybory jednostek analizy problemem umiejscowienia:

Problem umiejscowienia można opisać jako wybór podstawowego przedmiotu badań w naukach behawioralnych, przestrzeń cech do jego opisu i struktur pojęciowych, w ramach których będą formułowane hipotezy dotyczące tego przedmiotu.

Kiedy badacz dokonał już wyboru, musi dostosować procedury badawcze, aby były one zgodne z wybranymi jednostkami analizy, gdyż jednostki analizy posiadają na tyle unikatowe właściwości, że przechodzenie od jednej jednostki do drugiej może być źródłem błędów.

Podstawową przyczyną tych niejasności jest podobieństwo pojęć wykorzystywanych do opisywania badanych właściwości; pojęć, które mogą się różnić swoimi obserwowalnymi odniesieniami w zależności od jednostki analizy.

Błąd ekologizmu

Badacze muszą określić jednostki analizy również z powodów metodologicznych. Jeżeli dany związek jest badany na określonym poziomie analizy lub dla danej jednostki (np. grup), a wyniki są przenoszone na iiny poziom (np. jednostek), to łatwo o zniekształcenia. Przenoszenie wniosków z bardziej złożonej na prostszą jednostkę analizy, z wyższego na niższy poziom jest niewłaściwe. Ten rodzaj zniekształceń nazywa się błędem ekologizmu.

Błąd indywidualizmu

Powstaje wtedy, gdy wnioski dotyczące grup, społeczeństw czy narodów są bezpośrednio wyprowadzane z danych otrzymanych dla jednostek.

Zmienne

Problemy badawcze są zawsze formułowane dzięki wykorzystaniu określonych pojęć. Pojęcia są abstrakcjami odzwierciedlającymi zjawiska empiryczne. Aby przejść z poziomu pojęciowego na poziom empiryczny, pojęcia muszą zostać przekształcone w zmienne. To właśnie w postaci zmiennych pojęcia są uwzględniane w hipotezach badawczych.

Pojęcia są przekształcane w zmienne poprzez ich zamianę lub przekształcenie w zbiór wartości. Zmienna to właściwość empiryczna mająca dwie lub więcej wartości

Zmienna, która ma tylko dwie wartości, nazywana jest zmienną dychotomiczną.

Zmienne zależne i zmienne niezależne

Zmienną, którą badacz chce wyjaśnić nazywamy zmienną zależną. Natomiast zmienną, za pomocą której badacz chciałby wyjaśnić zmiany wartości zmiennej zależnej, nazywamy zmienną niezależną (wyjaśniającą). Zmienna niezależna jest zatem traktowana jako powiązana ze zmienną zależną lub jako przyczyna zmian jej wartości.

Należy podkreślić, że rozróżnienie na zmienne zależne i zmienne niezależne ma charakter analityczny i odnosi się jedynie do celu badania. Większość zjawisk, którymi zajmują się badacze w naukach społecznych, wymaga określenia, które zmienne niezależne wpływają na jedną lub więcej zmiennych zależnych. Jedna zmienna niezależna wyjaśnia zazwyczaj tylko pewną część zróżnicowania zmiennej zależnej, co powoduje konieczność wprowadzenia dodatkowych zmiennych niezależnych wyjaśniających pozostałą część zróżnicowania.

Zmienne kontrolne

Są wykorzystywane do sprawdzania, czy obserwowany empirycznie związek pomiędzy zmienną zależną i niezależną nie jest związkiem pozornym. Związek pozorny to taki związek, który można wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej. Posługując się zmiennymi kontrolnymi, badacz może się upewnić, że pomiędzy zmiennymi istnieje rzeczywiste, przyczynowe powiązanie, takie jak to zostało określone w hiotezie.

Zmienne ciągłe i zmienne dyskretne

Zmienna ciągła nie ma określonej swojej najmniejszej jednostki. Długość to przykład zmiennej ciągłej, gdyż nie istnieje naturalna, minimalna jednostka długości.

Zmienne dyskretne mają swoją minimalna jednostkę. Ilość pieniędzy na rachunku bankowym to przykład zmiennej dyskretnej, gdyż pieniądze mają określoną minimalną jednostkę monetarną.

Związki

Związek w badaniach naukowych to zawsze związek pomiędzy dwoma zjawiskami. Jeśli powiemy, że zmienna X i Y są ze sobą powiązane, to mamy na myśli, że istnieje coś wspólnego dla obu tych zmiennych.

Jeżeli powiemy, że wykształcenie i dochody są ze sobą powiązane, to zakładamy, że jednocześnie się zmieniają, są współzmienne czy że zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej.

Współzmienność (inaczej kowariancja) jest właśnie tym, co wiąże wykształcenie i dochody: osoby o wyższym wykształceniu mają wyższe dochody. Przyjmując w badaniach empirycznych, że istnieje związek pomiędzy dwiema czy więcej zmiennymi, zakładamy tym samym, że wartości jednej zmiennej będą się zmieniać wraz ze zmianami wartości innych zmiennych.

Związki pomiędzy zmiennymi można scharakteryzować nie tylko przez podanie ich kierunku, ale również przez podanie ich siły. Siła związku to zakres, w jakim zmienne współzmieniają się dodatnio lub ujemnie. Największą możliwą siłę związku nazywamy związkiem doskonałym (idealnym). Jeżeli związek pomiędzy dwiema zmiennymi jest związkiem doskonałym, to wartość jednej lub więcej zmiennych niezależnych dokładnie wyznacza wartość zmiennej zależnej.

Po przeciwnej stronie mamy najmniejszą siłę związek, tj. związek zerowy. W tym wypadku w ogóle nie ma współzmienności pomiędzy wartościami zmiennej zależnej i niezależnej.

Związki, którymi zajmują się zarówno nauki społeczne, jak i inne nauki, oscylują od zerowych do idealnych. Związek pomiędzy wykształceniem i dochodami okazał się dodatni, lecz nieidealny. Związek pomiędzy wykształceniem a uprzedzeniami rasowymi jest związkiem ujemnym i też nieidealnym.

Hipotezy

Jest to proponowana przez nas odpowiedź, jakiej można udzielić na pytanie badawcze. Jest ona wyrażana w postaci jasno określonego związku pomiędzy zmienną zależną i niezależną. Hipotezy to proponowane odpowiedzi, ponieważ zostaną one zweryfikowane dopiero po przeprowadzeniu badań empirycznych.

Najpierw hipotezy tworzymy, a potem je weryfikujemy. Jeżeli hipoteza zostanie odrzucona, to należy zbudować następną; jeżeli hipoteza zostanie przyjęta, to będzie ona włączona do wiedzy naukowej. Hipotezy można wyprowadzać dedukcyjnie - z teorii, indukcyjnie - na podstawie obserwacji, czy intuicyjnie, albo łącząc elementy tych sposobów.

Hipotezy badawcze są do siebie podobne pod czterema względami: są jasno sformułowane, są konkretne (specyficzne), poddają się weryfikacji empirycznej za pomocą metod badawczych i nie są wartościujące.

1.Hipotezy muszą zostać jasno sformułowane. Aby hipoteza mogła zostać empirycznie sprawdzona, wszystkie zmienne w niej występujące muszą zostać zdefiniowane. Definicje pojęciowe i operacyjne są tu bardzo pomocne.

2.Hipotezy są konkretne. Zadanie badacza polega na określeniu oczekiwanego związku pomiędzy zmiennymi oraz warunków, w jakich ten związek zachodzi.

Formułując hipotezę, należy również jasno określić warunki, w jakich dany związek będzie badany (obserwowany). Teoria zatem odgrywa niezwykle ważna rolę w procesie budowania owocnych - i dających się włączyć w proces badawczych - hipotez.

3.Hipotezy są sprawdzalne za pomocą dostępnych metod.

4.Hipotezy naukowe nie są wartościujące. Generalnie wartości wyznawane przez badacza, jego stronniczość czy subiektywne preferencje nie powinny w żadnym wypadku wpływać na proces badawczy.

Badacz musi być świadomy własnej stronniczości i starać się uczynić ją jawną. Próba wykorzenienia stronniczości poprzez usunięcie wszelkiego wartościowania jest beznadziejnym i źle ukierunkowanym przedsięwzięciem.

Problemy i hipotezy: wybrane przykłady

Problemy to ogólne pytania dotyczące związków pomiędzy zmiennymi. Hipotezy to proponowane odpowiedzi dające się sprawdzić empirycznie.

W procesie badawczym wymaga się, aby naukowcy przekształcili sformułowane pytania ogólne na zbiór hipotez (proponowanych odpowiedzi) po to, aby możliwe stało się ich zbadanie.

Źródła informacji o badaniach i hipotezach naukowych

Problemy badawcze i hipotezy można budować na wiele sposobów. Można korzystać z teorii, z bezpośrednich obserwacji czy z własnej intuicji, traktując każdy z tych sposobów niezależnie lub je łącząc. Najlepszym jest jednak literatura fachowa.

Krytyczny przegląd literatury fachowej pozwala badaczowi poznać aktualny stan wiedzy, podstawowe pojęcia, teorie, główne zmienne oraz definicje pojęciowe i operacyjne, problemy i hipotezy analizowane przez innych jak też stosowane przez nich metody badawcze.

Nachmias rozdz. 7

Pomiar - to procedura, w której przyporządkowuje się, zgodnie z określonymi zasadami, wartości liczbowe - cyfry lub inne symbole - właściwościom empirycznym(zmiennym)

Cyfry - to symbole; cyfry nie mają znaczenia ilościowego, dopóki im takiego sensu nie nadamy; cyfry które maja znaczenie ilościowe stają się liczbami; liczby nadają się do analiz ilościowych

W definicji pomiaru termin „przyporządkowanie” oznacza przydzielanie. Cyfry lub liczby są przydzielane obiektom czy zdarzeniom

Trzecim pojęciem wykorzystywanym w definicji pomiaru jest pojęcie reguł:

Reguła - określa procedurę, jaką posłużono się w trakcie przypisywania cyfr lub liczb obiektom czy zdarzeniom

Struktura pomiaru:

Pomiar - to przyporządkowanie cyfr lub liczb obiektom, zdarzeniom lub zmiennym zgodnie z określonymi regułami. Reguły są najbardziej istotnym elementem procedury pomiarowej, ponieważ wyznaczają jakość pomiaru.

Złe reguły sprawiają, że pomiar jest pozbawiony sensu. Pomiar jest bezsensowny wówczas, kiedy nie przystaje do rzeczywistości, kiedy brakuje mu podstaw empirycznych

Izomorfizm - „podobieństwo lub identyczność struktury”; pytanie o to, czy wykorzystany system liczbowy ma podobną strukturę do struktury mierzonych pojęć.

Kiedy mówimy, że 2 systemy są izomorficzne, mamy na myśli to, że mają one podobne struktury i że relacje pomiędzy ich elementami są również identyczne.

W naukach społecznych bardzo często dokonujemy pomiaru wskaźników pojęć(takich jak demokracja, motywacja)

Przykładowo: jeżeli w systemie politycznym regularnie przeprowadza się wybory, to można sądzić, że jest to jeden ze wskaźników demokracji. W przykładzie tym określone zachowanie zostało potraktowane jako wskaźnik pojęcia teoretycznego.

Podsumowując: wskaźniki są określane przez definicje operacyjne. Po dokonaniu obserwacji wskaźników badacze mogą zastąpić obserwowane wartości tych wskaźników za pomocą cyfr lub liczb i przeprowadzić analizę ilościową; struktura numeryczna jak i struktura wskaźnika muszą być izomorficzne.

Poziomy pomiaru:

Czasami zamiast terminu „poziom pomiaru” używa się terminu „skala”.

Skale można traktować jako instrument pomiarowy - skalą jest licznik szybkości, podobnie jak linijka czy kwestionariusz

1) Poziom nominalny

Jest najniższym poziomem pomiaru. Na tym poziomie wykorzystuje się cyfry lub inne symbole do klasyfikowania obiektów lub obserwacji do określonej liczby kategorii. Nominalny poziom pomiaru zostanie osiągnięty wówczas, kiedy zbiór obiektów zostanie poklasyfikowany na kategorie, które będą wyczerpujące i wzajemnie rozłączne oraz kiedy każdej kategorii zostanie przypisany inny symbol, który będzie ją reprezentował(np. płeć, narodowość, stan cywilny)

2) Poziom porządkowy

W naukach społecznych analizuje się wiele zmiennych, które nie tylko można klasyfikować, ale też porządkować ze względu na określone relacje. Typowymi relacjami są „wyższy”, „większy”, „trudniejszy”

Pomiar postaw jako przykład pomiaru na poziomie porządkowym:

„Ludzie podobni do mnie mają ogromny wpływ na decyzje rządu” - zadanie osoby badanej polega na zaznaczeniu stopnia zgody lub braku zgody z treścią tego twierdzenia.

Jeżeli tylko określone zjawisko lub proces można opisać na skali od najlepszego do najgorszego(np. film), czy od najwyższego do najniższego(klasy społeczne)to mamy wówczas do czynienia z pomiarem porządkowym.

Wartości rangowe - liczby wykorzystane do uporządkowania obiektów

3) Poziom interwałowy

Jeżeli można również określić dokładną odległość pomiędzy kolejnymi obserwacjami i ta odległość jest stała, to mamy do czynienia z poziomem interwałowym. Oprócz możliwości stwierdzenia, że jeden obiekt jest większy niż drugi, możemy też dokładnie określić o ile jednostek pierwszy jest większy od drugiego.

Przy tego rodzaju pomiarze stosunek dwóch interwałó(odległości)jest niezależny od jednostki pomiaru.

Przykładami zmiennych mierzonych na tym poziomie są dochody, iloraz inteligencji IQ

4) Poziom stosunkowy

Zmienne, które mają naturalny punkt zerowy(tj. np. taki punkt, w którym zamarza woda)można mierzyć na poziomie stosunkowym.

Zmienne takie, jak: waga, czas, długość mają naturalny punkt zerowy i można mierzyć je na poziomie stosunkowym. Na tym poziomie iloraz dwóch liczb jest również niezależny od jednostki pomiaru. Poziom interwałowy i stosunkowy są do siebie podobne i podobne są też zasady przyporządkowywania liczb obiektom - z jednym wyjątkiem. Na poziomie stosunkowym liczby przyporządkowujemy mierzonym wielkościom, począwszy od zera absolutnego; zaś na poziomie interwałowym punkt zerwo jest ustalany arbitralnie

Stosunkowy poziom pomiaru jest realizowany jedynie wtedy, gdy są spełnione wszystkie cztery następujące warunki:

1) zachodzi relacja równoważności

2) zachodzi relacja „większy niż”

3) znana jest wielkość dwóch dowolnych interwałów

4) istnieje prawdziwy punkt zerowy

Podsumowanie 4 rodzajów pomiaru:

1) NOMINALNY

na tym poziomie cyfry lub symbole są wykorzystywane do klasyfikowania obiektów lub wyników obserwacji. Zjawiska znajdujące się w jednej kategorii są sobie równe, lecz nie są równe zjawiskom znajdującym się w innej kategorii(zachodzi tu relacja równoważności)

2) PORZĄDKOWY

jeżeli między zmiennymi zachodzi relacja porządku, to można je mierzyć na poziomie porządkowym. Relację tego rodzaju oznacza się symbolem > (większy niż). Tu również zachodzi relacja równoważności.

3) INTERWAŁOWY

jeżeli znana jest dokładna odległość między wynikami dwóch obserwacji i jest ona stała, to możemy dokonać pomiaru na poziomie interwałowym. Między zjawiskami mierzonymi na tym poziomie również zachodzi relacja równoważności, a także jeden wynik może być większy(lub mniejszy)od drugiego

4)STOSUNKOWY

jeżeli zmienne mają naturalny punkt zerowy, to można je mierzyć na poziomie stosunkowym. Tu również zachodzi relacja równoważności, ale także relacja porządku oraz istnieje stały interwał.

Transformacja danych:

Zmienne, które da się zmierzyć na skali stosunkowej, można również mierzyć na poziomie interwałowym, porządkowym i nominalnym, nigdy jednak na odwrót. Zmienna taka jak przynależność partyjna może zostać zmierzona tylko na poziomie nominalnym.

BŁĘDY POMIARU

Funkcje procedur pomiaru

Procedury pomiarowe są wykorzystywane w celu przyporządkowania wartości liczbowych, cyfr lub wyników badanym właściwościom. Kiedy wyniki zostaną już przyporządkowane, różnice między wynikami otrzymanymi w powtarzanych pomiarach można przypisać dwóm źródłom.

Dwa źródła różnic wyników pomiarów:

1)zakres w jakim wyniki odzwierciedlają rzeczywiste różnice pomiędzy mierzonymi właściwościami

2)zakres, w którym sam pomiar oraz otoczenie, w którym następuje akt pomiaru, wpływają na otrzymane wyniki

Błąd pomiaru

Błędem pomiaru nazywamy wszelkie zróżnicowanie nie wynikające z rzeczywistych różnic między mierzonymi właściwościami.

Typowe źródła błędu pomiaru:

  1. otrzymane wyniki można przypisać pewnej innej właściwości powiązanej z mierzoną właściwością, której badacz intencjonalnie nie zamierzał mierzyć

  2. może być wynikiem chwilowego samopoczucia (choroby czy nastroju), które może wpłynąć na odpowiedzi udzielane w badaniach kwestionariuszowych lub na zachowanie osoby badanej

  3. różnice otoczenia, w którym dokonuje się pomiaru (np. wiek, rasa, płeć również)

  4. różnice w sposobie stosowania narzędzia pomiarowego (np. słabe oświetlenie, hałas, zmęczony ankieter)

  5. może wynikać z różnic w przetwarzaniu danych (np. wtedy gdy różne osoby niejednakowo kodują podobne odpowiedzi)

  6. niejednakowa interpretacja wyników tego samego narzędzia pomiarowego

Błędy systematyczne i losowe

    1. systematyczne - pojawiają się wraz z zastosowaniem narzędzia pomiarowego i występują w odniesieniu do wszystkich osób badanych i wszystkich badań

    2. losowe - pojawiają się również wraz z każdym zastosowaniem narzędzia pomiarowego, mają jednakże charakter przypadkowy

PROBLEMATYKA TRAFNOŚCI

Trafność

Dotyczy następującego pytania: „Czy udało nam się zmierzyć to, co zamierzaliśmy zmierzyć?”

Trzy podstawowe rodzaje trafności

  1. treściowa

  2. empiryczna

  3. teoretyczna

TRAFNOŚĆ TREŚCIOWA

Dwa rodzaje trafności treściowej:

  1. trafność fasadowa

  2. trafność doboru próby

AD 1.

    1. odwołuje się do subiektywnej oceny trafności narzędzia pomiarowego dokonanej przez badacza

    2. w praktyce dotyczy stopnia, w jakim badacz jest przekonany, że jego narzędzie pomiarowe jest właściwe

    3. problem trafności fasadowej - nie istnieją dokładne i powtarzalne procedury, które pozwoliłyby na ocenę narzędzia pomiarowego. (badacz musi polegać na ocenach subiektywnych)

Np. za pomocą kwestionariusza składającego się z 10 twierdzeń badacz chciałby dokonać pomiaru zmiennej „liberalizm”

Po ułożeniu kwestionariusza badacz ponownie analizuje każde twierdzenie aby sprawdzić w jakim stopniu każde z nich jest powiązane z liberalizmem

Może w tym celu zaprosić specjalistów. Jeżeli oceny sędziów będą zgodne, to badacz może przyjąć, że jego kwestionariusz jest trafny fasadowo i konsekwentnie mierzy liberalizm

AD 2.

  1. interesujemy się tu tym, czy określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym) jest adekwatnie reprezentowana przez dane narzędzie pomiarowe.

  2. Konkretnie: czy twierdzenia, pytania lub wskaźniki - tj. treść narzędzia pomiarowego - adekwatnie odzwierciedlają mierzoną właściwość

  3. Założenie tej trafności to założenie dotyczące istnienia populacji treści składającej się z dużej liczby pozycji (wyrażanych w postaci twierdzeń, pytań, wskaźników)

  4. Definiowanie populacji treści jest zagadnieniem teoretycznym a nie praktycznym, wpływa to na zmniejszenie trafności doboru próby

  5. Trafność ta wymusza znajomość wszystkich pozycji składających się na populację treści. Jest użyteczna w badaniach eksploracyjnych

TRAFNOŚĆ EMPIRYCZNA

Trafność empiryczna - odwołuje się do związku pomiędzy dwoma narzędziami pomiarowymi i ich wynikami. Naukowcy przyjmują, że jeżeli narzędzie pomiarowe jest trafne, to powinien istnieć silny związek pomiędzy wynikami uzyskanymi dzięki zastosowaniu tego narzędzia a rzeczywistym związkiem zachodzącym pomiędzy mierzonymi zmiennymi

Współczynnik korelacji - to wskaźnik siły związku pomiędzy dwiema mierzonymi zmiennymi.

Istnieją testy stosowane do pomiaru trafności empirycznej. Najczęściej stosowany jest test określający trafność prognostyczną

Jest ona wyrażana przez siłę związku (współczynnik korelacji) pomiędzy wynikami danego narzędzia pomiarowego i zewnętrznym kryterium. Badacz może np. określić trafność testu inteligencji, analizując związek pomiędzy wcześniej otrzymanymi wynikami testowymi dla grupy studentów college'u a późniejszymi ich stopniami otrzymanymi w trakcie 1 roku studiów

Dwa problemy ogólne trafności prognostycznej:

1) Dotyczy wyboru kryterium

Dotyczy takich sytuacji, w których zastosowanie określonego kryterium może okazać się zbyt trudne lub zbyt kosztowne. Np. badanie jakości każdego stanowiska komputerowego opuszczającego linię produkcyjną jest bardzo kosztowne

2) Dotyczy trafności kryterium

Problem ten rozwiązywany jest poprzez zastosowanie którejś z dwóch, powszechnie używanych metod oceny trafności kryterium

  1. odwołuje się do zasady akceptacji przez badaczy trafności danego kryterium, wykorzystywanego do oceny określonego narzędzia pomiarowego. Zgoda ta jest przedmiotem badań w procesie oceniania trafności fasadowej i trafności próby.

  2. Polega na określeniu procentu osób (czy innych jedn. Analizy) prawidłowo sklasyfikowanych przez narzędzie pomiarowe ze względu na ich znane właściwości i wyrażeniu związku pomiędzy narzędziem pomiarowym i kryterium w terminach tych procentów

TRAFNOŚĆ TEORETYCZNA

Badacze określają trafność teoretyczną, badając narzędzie pomiarowe w świetle szerszego kontekstu teoretycznego po to, aby sprawdzić, czy narzędzie pomiarowe jest powiązane z pojęciami i teoretycznymi założeniami tego kontekstu.

Aby określić trafność teoretyczną narzędzia pomiarowego, badacz musi sprawdzić, czy istnieją związki pomiędzy określoną zmienną i innymi zdefiniowanymi zmienymi

Technika znanych grup:

Technika ta polega na przebadaniu określonym narzędziem pomiarowym grup ludzi o znanych cechach po to, aby na tej podstawie określić kierunek różnic pomiędzy grupami.

Proces badania trafności teoretycznej ze względu na logikę postępowania (Cronbach i Meehl):

  1. najpierw naukowiec formułuje twierdzenie, że narzędzie pomiarowe mierzy określoną własność (np. własność A)

  2. następnie to twierdzenie wbudowuje w ramy teorii dotyczącej własności A

  3. dalej analizując teorię określa, które cechy powinny być powązane z narzędziem pomiarowym, a dla których takiego związku nie da się określić

  4. na koniec zbiera dane empiryczne, które staną się podstawą przyjęcia lub odrzucenia określonych wcześniej relacji

Metoda polegająca na budowaniu macierzy korelacji

    1. odwołuje się do pojęcia aspektu zbieżnego i różnicowego trafności

    2. jest też znana jako technika wielu cech - wielu metod

    3. u jej podstaw leży założenie, że różne metody mierzące tę samą własność powinny dawać te same wyniki, natomiast różne własności powinny prowadzić do otrzymania różnych wyników

    4. aby potwierdzić trafność teoretyczną narzędzia pomiarowego badacz powinien zanalizować oba aspekty trafności

      • zbieżny - dwa pomiary tej samej cechy powinny ze sobą wysoko korelować, nawet jeżeli uzyskano je za pomocą różnych metod

      • różnicowy - dwa pomiary różnych własności nie powinny ze sobą wysoko korelować, nawet jeżeli uzyskano je za pomocą podobnych narzędzi pomiarowych

RZETELNOŚĆ

Rzetelność dotyczy wielkości błędu związanego z danym narzędziem pomiarowym, tj. błędu, który powstaje w sposób losowy, w kolejnych pomiarach dokonywanych za pomocą tego samego narzędzia pomiarowego.

(np. jeśli dwukrotnie zmierzymy długość biurka za pomocą tego samego narzędzia pomiarowego - np. linijki - i otrzymamy nieco inne wyniki, to narzędzie to jest źródłem błędu pomiaru.

Dwa elementy pomiaru

  1. komponent prawdziwy

  2. komponent błędu

Metoda powtórnego testowania - wywodzi się wprost z definicji rzetelności. Polega na dwukrotnym przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i na obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników (obserwacji).

Współczynnik ten nazywa się współczynnikiem rzetelności.

Ograniczenia metody powtórnego testowania:

  1. pomiar dokonany za pierwszym razem może wpłynąć na pomiar dokonany za drugim razem (jeśli narzędziem jest kwestionariusz, to respondent może zapamiętać treść pytań i za drugim razem udzielić tych samych odpowiedzi)

  2. ponieważ wiele zjawisk podlega ciągłym zmianom, może się zdarzyć tak, że zmiany te wydarza się w przerwie pomiędzy dwoma pomiarami i wpłyną na obniżenie współczynnika rzetelności

Metoda form równoległych

Aby zastosować tę technikę badacz musi stworzyć dwie równoległe wersje narzędzia pomiarowego

Następnie dokonuje się pomiaru tej samej grupy osób badanych za pomocą obu form i koreluje otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności.

Metoda połówkowa

Polega na traktowaniu każdej z dwóch lub więcej części testu jako niezależnej skali.

Uniwersalizacja

Zgodnie z teorią uniwersalizacji tym, co naprawdę nas interesuje, jest zakres, w jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów pochodzącego z uniwersum wszystkich potencjalnych miar oraz pod kątem jakich właściwości są one do siebie podobne.

Nachmias rozdz. 8 PRÓBY

Populacja - całkowity zbiór obiektów poddawanych analizie czy całkowity zbiór danych

Próba - to podzbiór danych pochodzący z populacji i będący podstawą uogólnień na całą populację.

Parametr - wartość określonej zmiennej charakteryzującej populację (np. poziom formalnego wykształcenia). Jego odpowiednik w próbie nosi nazwę statystyki

◄POPULACJA

To zbiór wszystkich przypadków wykazujących określone cechy.

Jeżeli tymi cechami będą „studenci” i „przyjęci na studia w uniwersytetach stanowych USA”, to naszą populację będą stanowić wszyscy studenci przyjęci na studia w uniwersytetach stanowych USA.

Populacja powinna być określona w terminach:

a) obiektów, które się na nią składają b) zakresu c) czasu - np. 1)wszyscy mieszkańcy powyżej osiemnastego roku życia mieszkający na stałe w danym okręgu 2)mieszkający w Wielkiej Brytanii 3) począwszy od 1 maja 1995 roku

JEDNOSTKA DOBORU PRÓBY

To pojedynczy obiekt z populacji, z której będzie pobierana próba (np. głosujący, gospodarstwo domowe czy zdarzenie).

Inne jednostki to np. uniwersytet, miasto czy naród.

POPULACJE CSKOŃCZONE I NIESKOŃCZONE

Populacja skończona składa się z przeliczalnej liczny jednostek, np. wszyscy zarejestrowani wyborcy w danym mieście i danym roku.

Populacja nieskończona składa się z nieskończenie wielu jednostek, jak np. nieograniczona liczba rzutów monetą.

Dobór reprezentacyjny - pobieranie próby po to, aby otrzymać informacje o określonej właściwości konkretnej skończonej populacji

PODSTAWA DOBORU PRÓBY

Mając zdefiniowaną populację, badacze pobierają próbę, która ma adekwatnie reprezentować tę populację. Odpowiednie procedury polegają na pobieraniu próby z podstawy doboru próby, którą tworzy pełna lista jednostek doboru próby. W sytuacji idealnej podstawa doboru próby, czyli operat zawiera wszystkie jednostki składające się na daną populację.

◄SCHEMAT DOBORU PRÓBY

Podstawowym wymogiem stawianym bez wyjątku wobec każdej próby jest to, aby była ona w maksymalnym stopniu reprezentatywna w stosunku do populacji, z której została pobrana.

Dana próba uważana jest za reprezentatywną wtedy, gdy wyprowadzane przez badacza wnioski na podstawie badania próby są podobne do wniosków, które badacz otrzymałby, gdyby przebadał całą populację.

DOBÓR LOSOWY I NIELOSOWY

Istotą doboru losowego jest to, że dla każdej jednostki doboru próby wchodzącej w skład populacji możemy określić prawdopodobieństwo, z jakim jednostka ta może się znaleźć w próbie. Wszystkie jednostki mają jednakowe prawdopodobieństwo znalezienia się w próbie

W przypadku doboru nielosowego natomiast nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu do próby i nie ma gwarancji, że każdy element może zostać włączony do próby z równym prawdopodobieństwem.

Próba kwotowa:

Podstawowym celem tworzenia próby kwotowej jest uzyskanie maksymalnego podobieństwa do populacji wyjściowej.

W doborze kwotowym dobiera się osoby badane ze względu na takie parametry jak: płeć, wiek, miejsce zamieszkania, pochodzenie etniczne, kierując się rozkładem tych zmiennych w populacji.

I tak np. jeśli wiadomo, że populacja składa się z równej liczby kobiet i mężczyzn, to należy wybrać do próby taką samą liczbę kobiet i mężczyzn.

LOSOWE SCHEMATY DOBORU PRÓBY

Ten dobór pozwala na określenie prawdopodobieństwa, z jakim każdy element populacji może zostać włączony do próby.

Losowanie systematyczne:

Polega na wybieraniu każdego K-tego elementu z populacji, począwszy od pierwszego elementu, który zostaje wybrany w sposób losowy.

I tak, jeżeli chcemy pobrać próbę składającą się ze 100 osób, pochodzącą z populacji składającej się z 10000 osób, to będziemy wybierać co setną osobę (K=N/n =10000/100=100).

Pierwszy element wybieramy w sposób losowy, na przykład korzystając z tablic losowych. Powiedzmy, że początek losowania ustaliliśmy od osoby czternastej. Do próby wejdą zatem osoby mające następujące numery: 14, 114, 214, 314, 414, itd.

Losowanie warstwowe:

Jest wygodna po to, by mieć pewność, że różne grupy składające się na populację są właściwie reprezentowane w próbie. Zwiększa to poziom dokładności przy oszacowywaniu wartości parametrów.

Istotą losowania warstwowego jest podzielenie populacji „na grupy w taki sposób, aby elementy należące do jednej grupy były do siebie bardziej podobne niż elementy należące do populacji jako całości.

Dokonując losowania z każdej grupy oddzielnie, otrzymujemy zbiór homogenicznych prób, które połączone razem tworzą próbę bardziej heterogenicznej populacji.

Warunkiem koniecznym przy dzieleniu populacji na homogeniczne warstwy jest to, że kryterium podziału musi pozostawać w związku z badanymi zmiennymi.

Losowanie grupowe:

Najczęściej stosowane w badaniach prowadzonych na dużą skalę, ponieważ jest to najmniej kosztowny schemat pobierania próby.

To losowanie polega na wcześniejszym określeniu dużych zbiorowości zwanych grupami i następnie losowaniu określonej liczby grup za pomocą losowania indywidualnego nieograniczonego lub losowania warstwowego.

PODSUMOWANIE METOD DOBORU LOSOWEGO

Prosta próba losowa: Każdej jednostce losowania przyporządkuj kolejne liczby; dokonaj losowania określonej liczby elementów, posługując się tablicą liczb losowych

Próba systematyczna: Ustal odstęp losowania (n/N); losowo wybierz początek losowania; wylosuj kolejne elementy, posługując się odstępem losowania

Próba warstwowa

Nachmias rozdz.11 Konstruowanie kwestionariusza

Pytania: dotyczą faktów, opinii, postaw, motywacji, stopnia znajomości zagadnienia

są 2 klasy pytań:

a) pyt. dotyczące faktów (pytania metryczkowe): tworzy się je by otrzymać obiektywne informacje uwzględniające jego pochodzenie, środowisko i nawyki itp.

-najpopularniejsze są pytania o dane demograficzne(płeć, wiek itd.), z których następnie tworzy się klasyfikacje, które mogą być wykorzystane do wyjaśniania różnic w postawach czy zachowaniach respondentów

-inne rodzje pyt. metryczkowych maja dostarczyć informacje o otoczeniu społecznym respondenta

4 przyczyny niedokładnych odpowiedzi: -nie posiadają informacji, - mogą sobie ich przypomnieć, - nie rozumieją pytania, - nie maja ochoty odpowiadać

Wówczas należy: zachęcać do konsultowania odpowiedzi z innymi członkami rodziny, zadawać więcej pytań na ten temat, powtarzać pytania, starać się aby respondent nie czuł się zażenowany i zakłopotany

b) pyt. dot. subiektywnych doświadczeń(dot. generalnych skłonności: wierzeń, postaw, uczuć i opinii respondenta):

-postawy to ogólne ukierunkowanie, które może sprawić że dana osoba, kiedy pojawią się określone bodźce zachowuje się lub reaguje w określony sposób

Osoby badane wyrażają swoje postawy poprzez mowę lub zachowanie jedynie wtedy, kiedy spostrzegają przedmiot postawy

Postawy można opisać poprzez ich treść( czego dot. postawa), kierunek(pozytywne, neutralne postawy w stosunku do przedmiotu lub tematu pytania), intensywność(większe lub mniejsze natężenie) , ( do ich mierzenie służą skale, od pięciu do wielu twierdzeń dot. postaw, z którymi respondent się zgadza lub nie)

Opinie są badane jeśli symbolizują jakieś postawy,(oszacowuje się jaki procent badanej populacji będzie się zgadzał z twierdzeniem dot. opinii

Rodzaje pytań:

zamknięte- zawierają zbiór odpowiedzi bardziej lub mniej rozbudowanych, ( ich wadą jest możliwość stronniczości przez zmuszanie do dokonania wyboru którejś z możliwości czy przez przedstawienie nietypowych alternatyw.

otwarte- brak konkretnych odpowiedzi, odpowiedzi są swobodne, spontaniczne i własnymi słowami w całości są zapisywane,

- w przypadku niejasnej odpowiedzi stosuje się technikę sondowania tzn. prosi się o dalsze wyjaśnienie, uzasadnienie,

-pyt. o. pozwalają na wyjaśnianie nieporozumień i znalezienie dobrego kontaktu z respondentem, wymagają one jednak specjalnego systemu kodowania aby móc je poklasyfikować co z kolei może spowodować zagubienie szczegółowych informacji

Paul Lazarsfeld stworzył zbiór kryteriów determinujących poprawność stosowania pyt. o. i z

1.cel kwestionariusza: pyt. z. dla uzyskania aprobaty lub dezaprobaty dla określonego punktu widzenia, pyt. o. dla uzyskania wiedzy jak respondent tworzy określony punkt widzenia

2.poziom wiedzy respondenta na temat problemu: pyt. o .pozwalają sprawdzić w jakim stopniu respondent jest nie doinformowany, pyt. z. na to nie pozwalają

3.stopień przemyślenia problemu przez badacza: pyt. o. gdy respondent nie ma jeszcze skrystalizowanej opinii, stosowanie wtedy pyt. z. stwarza ryzyko akceptacji, niezgodnej opinii

4. łatwość w komunikowaniu treść odpowiedzi, lub zakres motywacji do przedstawienia swojej opinii: pyt. z. wymagają mniejszej motywacji, a odp. mniej ujawnia, rzadsze są też odmowy odp., w pyt. o. badacz nie może być pewny, że respondent podał wszystkie istotne informacje bo np. nieumiejętnie wyraża własne myśli czy chwilowo się wahał

alternatywne to specjalny rodzaj pyt. z. dotyczą tylko wybranych grup respondentów,

-ich istotność dla określonej grupy jest określana przez wprowadzone wcześniej pyt. filtrujące

-format pyt. f. i a. jest różny: wskazówki po, obok odpowiedniej kategorii pyt. f. lub strzałki kierujące do następnego bądź alternatywnego pyt. lub ująć je w ramkę i umieścić je osobno

Format pytania:

podst. format to przedstawienie wszystkich możliwych odpowiedzi i sprawienie aby respondent wybrał właściwą dla niego kategorie (kółkiem, krzyżykiem itp.)

skalowanie: najczęściej stosowany jest format skali szacunkowej, stosuje się go gdy respondent ma wyrazić swój sąd, odwołując się do uporządkowanego zbioru kategorii,

-kategorie odpowiedzi na takie pyt. nazywa się kwantyfikatorami; odzwierciedlają one stopień intensywności każdej konkretnej oceny

-kod numeryczny przy każdej kategorii jest zwykle interpretowany w zależności od wielkości jako stopień aprobaty dla kategorii odpowiedzi, są to jednak skale porządkowe i nie pozwalają na odpowiedz „o ile jedna kat. jest wyższa lub niższa od innej

pyt. tabelaryczne(macierzowe): jest to metoda organizowania w całość dużego zbioru pyt. szacunkowych i posiadających te same kat. odpowiedzi

dyferencjał semantyczny: typ skali szacunkowej, który umożliwia pomiar reakcji respondenta na pewien obiekt lub pojęcie i polega na wskazaniu swojego wyboru na dwubiegunowej skali, opisanej na każdym końcu kontrastowymi przymiotnikami:

bardzo dosyć niewiele wcale niewiele dosyć bardzo

dobry zły

rangowanie: wykorzystuje się ją kiedy chce się uzyskać informacje o stopniu ważności czy pierwszeństwa, jaki ludzie przypisują zbiorowi postaw czy obiektów,

- r. pozwala ustalić relatywny porządek zbioru obiektów czy ocen, jest przydatne bo dostarcza informacje na temat relatywnego uporządkowania( nic o odległościach) a wielu własnościom w naukach społ. nie można przypisać dokładnej wartości liczbowej

Porządek pytań: 2 rodzaje schematów porządkowania pytań:

strategia lejka: każde pytanie jest powiązane z pytaniem poprzednim a jego zakres jest coraz mniejszy,

-początkowe pyt. o szerokim zakresie pozwalają na ujawnienie wielu różnych odpowiedzi

-jeżeli celem jest ujawnienie szczegółowych informacji i jeżeli respondent jest wystarczająco motywowany do udzielenia takich informacji, to strategia ta pozwala respondentom na skuteczniejsze ujawnianie szczegółów bez narzucania respondentowi żadnego kontekstu

strategia odwróconego lejka: pytanie wąsko sformułowane wyprzedza pytanie o szerokim zakresie

-jeżeli tematyka sondażu nie motywuje rdo wyrażania swoich opinii, ponieważ jest nieistotna z punktu widzenia respondentów lub nie mają oni aktualnych, określonych doświadczeń, to stosuje się wpierw pyt. o wąskim zakresie tematycznym, na które jest łatwiej odpowiedzieć i zostawić sobie pytania szersze(trudniejsze na koniec)

-jeżeli celem jest określenie sposobu generalizowania wniosków wynikających z oceny konkretnej sytuacji i jeżeli badacz nie zna faktów które zna respondent, to wąskie pyt. pozwalające ustalić pokreślone fakty powinny wyprzedzać pytania wymagające ogólnej oceny

Istotne dla wyboru jest również miejsce jakie zajmuje dana kategoria odpowiedzi, najczęściej wybierana są pierwsze kategorie. Problem ten pojawia się zwłaszcza w przypadku subiektywnych sądów, postaw i nie odgrywają znaczącej roli w życiu respondenta wówczas kat. pierwsza jest punktem odniesienia dla wszystkich pozostałych. Przezwyciężyć to można najpierw przedstawiając pełną listę kategorii lub losowo określić porządek prezentacji.

Pierwsze pyt. powinny zrelaksować respondenta być formą nawiązania kontaktu; być łatwe, interesujące, niekontrowersyjne.

Pyt. otwarte wymagają więcej czasu i zastanowienia dlatego powinny być później

Ograniczanie stronniczości; błędy w konstrukcji kwestionariusza:

słownictwo: każde pytanie ma być sformułowane tak aby respondent zrozumiał jego sens i aby miało taki sam sens dla wszystkich

schematyzacja(styl) odpowiadania: to tendencja do odpowiadania na wszystkie pytania w jednakowy sposób, bez względu na treść. Pojawia się to gdy zestaw pytań ma ten sam format odpowiedzi a szczególnie gdy pytania odnoszą się do jednego zagadnienia. Aby tego uniknąć należy zmieniać format odpowiedzi przez różnicowanie kategorii do każdego pytania lub rozrzucenie pytań tyczących jednego zagadnienia.

pytania sugerujace: są tak sformułowane, że respondent odczyta je jako wymagające określonej odpowiedzi,

-respondenci maja również tendencję do zgadzania się z twierdzeniami, które dotyczą akceptowanych powszechnie norm, czy z twierdzeniami, których treść jest społecznie pożądana a rzadziej aprobują tw. dot. społ. nie porządnych zachowań czy postaw. Także sposób wprowadzania i uwypuklania tematyki może w dużej mierze wpłynąć na stanowisko opinii publicznej w tej mierze. Jednak w pewnych okolicznościach pytanie sugerujące może pomóc zrealizować cel badań

pytania zagrażające: wg. Normana Bradburna i jego współpracowników „pytanie wywołujące lęk i dotyczące np. zachowań, które są traktowane jako nielegalne lub nie zgodne z normami, a także zachowanie, które choć nie są uważane z naganne, to są zachowaniami, o których nie da się publicznie dyskutować bez emocjonalnego napięcia” np. dot.: alkoholizmu, hazardu, preferencji seksualnych

-te pyt. prowadzą do stronniczości odpowiedzi- respondenci bowiem zaprzeczają zachowaniu, którego dot. pytanie lub je osłabiają, lub twierdzą, że nie angażują się w określoną działalność

-generalnie ze wzrostem zagrożenia w pyt. maleje chęć ujawniania zachowań z pytania

-wg. N.Brandburna i S.Sudmana najlepszą metodą określenia zagrożenia niesionego przez pyt. jest poproszenie respondentów o określenie tematyki jaka jest ich zdaniem kłopotliwa

dla większości ludzi, o opisanie swoich reakcji na dane pyt. lub o porangowanie tematów ze względu na stopień trudności, wg. B. i S. dokładność odpowiedzi znacznie wzrasta gdy pyt. towarzyszy rozbudowana instrukcja

pytania o podwójnej treści: łączą w sobie dwa lub więcej pytań(łącznikiem „i”), problem polega na tym, że mogą się one okazać kłopotliwe dla respondentów, którzy zgadzają się tylko z jedną częścią pytania.

List wprowadzający w ankiecie pocztowej i zdanie wprowadzające w wywiadzie osobistym czy telefonicznym (mniej szczegółowe)

-musi on skutecznie przezwyciężać opór respondenta czy jego uprzedzenia dot. sondażu czyli: a). identyfikować osobę sponsorującą badania lub osobę, która je przeprowadza

b).wyjaśniać cel badań

c).wyjaśniać powody, dla których respondent powinien udzielić odpowiedzi

d).przekonać respondenta, że wszystkie otrzymane od niego informacje pozostaną całkowicie poufne

-należy wybrać styl listu (formalny czy osobisty)

Instrukcja: powinna znaleźć się przy każdym pytaniu które nie jest czytelne, instrukcje mogą być proste lub złożone(wyjaśnienia), instrukcje dla ankietera są krótsze i zwięzłe, instruują co robić gdy respondent udzieli określonej odpowiedzi, kiedy sondować aby odp. były dokładniejsze jak wyjaśnić sens pyt.

Nachmias rozdz. 15

I. Rozkład częstości jednej zmiennej często nazywany jest rozkładem częstości. Aby skonstruować rozkład częstości należy sporządzić listę kategorii zmiennej i policzyć liczbę obserwacji wpadających do każdej zmiennej.

ROZKŁAD CZESTOSCI DLA ZMIENNYCH INTERWALOWYCH

Kiedy przedstawiamy zmienne interwałowe w postaci rozkładu częstości musimy najpierw podjąć decyzje dotyczącą liczby kategorii, które zastosujemy i określić ptk? Odcięcia miedzy nimi( chodzi o to, że zmienne interwałowe są zazwyczaj zmiennymi ciągłymi). Stosowane przedziały są zazwyczaj jednakowej szerokości.

ROZKŁAD PROCENTOWY

Pierwszym krokiem analizy jest przedstawienie danych w postaci rozkładu częstości dla jednej zmiennej.

Drugim krokiem jest zamiana częstości na miary, które maja znaczenie interpretacyjne. Takimi miarami mogą być procenty czy proporcje- odzwierciedlają one względna wagę określonej kategorii rozkładu. Procenty czy proporcje pozwalają na porównanie 2 lub więcej rozkładów częstości.

II. GRAFICZNA PREZENTACJA ROZKŁADÓW

1) wykres kołowy- obrazuje różnice pomiędzy częstościami czy procentami uzyskanymi dla zmiennych nominalnych i porządkowych, wyrażając je w postaci części koła. Można przedstawić tylko jeden wykres częstości. Poszczególne części, koła aby wyodrębnić należy zacieniować, albo zakreskować. Jeżeli chcemy zwrócić szczególnie na cos uwagę możemy tą część koła „wyciągnąć”

2) wykres słupkowy- do przedstawiania danych nominalnych i porządkowych. Można przedstawić więcej niż jeden wykres częstości.

3) Histogram- dla przedstawienia rozkładu dla zmiennej interwałowej i stosunkowej. Przypomina wykres słupkowy, ale bez przerw między kolejnymi prostokątami

III. MIARY TENDENCJI CENTRALNEJ.

Miary tendencji centralnej to są miary statystyczne odzwierciedlające typowe czy przeciętne charakterystyki rozkładu częstości (wykorzystuje się je zamiast rozkładu)

1) wartość modalna- to kategoria lub obserwacja, która w rozkładzie powtarza się najczęściej. Stosowana przeważnie do zmiennych nominalnych. Określa się ją znajdując kategorię, do której wpada największa liczba przypadków.

2) mediana- to miara, która dzieli rozkład na dwie równoliczne części. Da się ja obliczyć

dla danych porządkowych i wyższych

3) inne miary położenia- czasami warto znaleźć wartości, które dzielą rozkład nie, na 2, lecz na 3,4, lub 10 grup. W tym przypadku mediana to specyficzny przypadek ogólniejszego zbioru miar położeń nazwanych centylami

4) średnia arytmetyczna- jest to suma wszystkich obserwacji podzielona przez ich liczbę. Można ją stosować dla danych interwałowych.

Podsumowanie: wszystkie trzy miary tendencji centralnej można wykorzystać do opisania rozkładów jednozmiennowych.

IV. PODSTAWOWE MIARY ROZPROSZENIA

1)miara zróżnicowania jakościowego- wskaźnik ten odzwierciedla liczbę różnic pomiędzy kategoriami rozkładu, a jest oparty na liczbie kategorii i ich liczebności.

  1. Obliczanie ogólnej liczby różnic- alby znaleźć ogólną liczbę różnic dla danego rozkładu należy policzyć i zsumować kolejne różnice pomiędzy dana kategorią a każdą pozostałą kategoria.

  2. Obliczanie maksymalnej możliwej liczby różnic-(nie będę tutaj tego opisywać, bo to jest jeszcze głupsze niż pozostała reszta)

2)rozstęp i rozstęp ćwiartkowy

  1. Rozstęp- jest miarą pomiędzy najwyższym a najniższym wynikiem w rozkładzie

  2. Rozstęp ćwiartkowy- różnica pomiędzy dolnym i górnym kwantylem

V.MIARY ROZPROSZENIA OPARTE NA SREDNIEJ

1)Wariancja- średnia wartość podniesionych do kwadratu odchyleń wyników od średniej 2)odchylenie standardowe- jest równe pierwiastkowi z wariancji

3)Współczynnik zmienności

VI. RODZAJE ROZKŁADÓW ZMIENNOŚCI

1)rozkład symetryczny- częstości znajdujące się po prawej i po lewej stronie rozkładu są identyczne

2)rozkład niesymetryczny(skośny):

  1. Lewostronny- rozkład, w którym przeważają skrajnie niskie wyniki

  2. Prawostronny- rozkład, w którym przeważają skrajnie wysokie wyniki

Krzywa normalna - jedna z form rozkładu symetrycznego i charakteryzuje się tym, że:



Wyszukiwarka

Podobne podstrony:
Metodologia badań psychologicznych i statystyka dr I. Sowińska Gługiewicz, Metodologia badań psychol
Metodologia Pomoc, Psychologia, Metodologia badań psychologicznych i statystyka
zadania dzienni, Metodologia badań psychologicznych i STATYSTYKA, Przykładowe testy
Metodologia badań psychologicznych i statystyka mgr T. Leoński, Metodologia badań psychologicznych i
zadania zaoczni, Metodologia badań psychologicznych i STATYSTYKA, Przykładowe testy
statystyka cw 3, Psychologia UŚ, Semestr IV, Metodologia badań psychologicznych i statystyka
zadanie, Psychologia - studia, Metodologia badań psychologicznych + statystyka
stereotypy, Psychologia - studia, Metodologia badań psychologicznych + statystyka
Metodologia - badań - opracowanie, PSYCHOLOGIA, Psychologia II semestr, Metodologia badań psychologi
pytania egzamin statystyka 2, Metodologia badań psychologicznych i STATYSTYKA
Statystyki nieparametryczne, PSYCHOLOGIA, I ROK, semestr II, podstawy metodologii badań psychologicz
Centralne Twierdzenie Graniczne, PSYCHOLOGIA, I ROK, semestr II, podstawy metodologii badań psycholo

więcej podobnych podstron