Nachmias rozdz. 2
♦Pojęcia
Myślenie wymaga użycia języka. Sam język jest systemem komunikacji składającym się z symboli oraz zbioru reguł pozwalających na tworzenie różnych kombinacji tych symboli. Jednym z najbardziej istotnych symboli języka, zwłaszcza ze względu na jego związek z badaniami są pojęcia.
Pojęcie jest abstrakcją - symbolem - reprezentacją obiektu, jednej z jego właściwości lub zjawiska behawioralnego. Badacze rozpoczynają swoje badania od utworzenia pojęć jako rodzaju „stenogramu” opisującego świat empiryczny.
FUNKCJE POJĘĆ
Po pierwsze - są podstawą komunikowania się. Gdyby nie istniał zaakceptowany zbiór pojęć, badacze nie mogliby przedstawiać własnych rezultatów ani wzajemnie powtarzać swoich badań. Komunikacja oparta na intersubiektywności i wzajemnym zrozumieniu byłaby niemożliwa. Warto zapamiętać, że pojęcia są wyabstrahowane ze spostrzeżeń i są wykorzystywane do przenoszenia i przekazywania informacji.
Fałszywa konkretyzacja - to traktowanie pojęć jak zjawisk rzeczywistych, to błąd polegający na traktowaniu abstrakcji jako rzeczywistości zamiast jako wytworu myślenia.
Po drugie - pojęcia wprowadzają perspektywę - sposób patrzenia na zjawiska empiryczne: „dzięki naukowej konceptualizacji spostrzegany świat staje się uporządkowany i zwarty, co nie byłoby dostrzegane przed konceptualizacją”.
Po trzecie - pojęcia umożliwiają naukowcom klasyfikowanie i generalizowanie. Innymi słowy, naukowcy strukturalizują, kategoryzują, porządkują swoje doświadczenia i obserwacje w terminach pojęć.
Wszystkie zjawiska, występujące w rzeczywistości, są jedyne w swoim rodzaju: dlatego też żadne zjawisko nie pojawia się ponownie dokładnie w taki sam sposób.
Konceptualizować oznacza do pewnego stopnia uogólniać Uogólniać oznacza redukować liczbę obiektów przez potraktowanie niektórych z nich jako identycznych
Treść pojęcia jest w sposób nieunikniony ograniczona do cech, które naukowcy uważają za podstawowe.
Po czwarte - pojęcia są składnikami teorii i dlatego również składnikami wyjaśnień i przewidywań. Pojęcia są najbardziej istotnym elementem każdej teorii, ponieważ definiują jej treść i własność. Na przykład pojęcia: ”władza” i „legitymizacja” definiują istotę teorii rządzenia a pojęcia „indywidualizm” i „protestantyzm” definiują i wyznaczają teorię samobójstw Durkheima.
♦Definicje
Pojęcia muszą być wyraźne, precyzyjne i powszechnie zaakceptowane, jeśli mają spełniać swoje funkcje. Ze względu na potrzebę precyzji każda dyscyplina naukowa zajmuje się z konieczności, własnym słownictwem. Aby osiągnąć jasność i precyzję w stosowaniu pojęć w trakcie badań, naukowcy stosują dwa rodzaje definicji: pojęciowe i operacyjne.
DEFINICJE POJĘCIOWE
To takie, które opisują pojęcia poprzez odwołanie się do innych pojęć. Na przykład „władza” jest pojęciowo definiowana jako zdolność aktora (np. jednostki, grupy czy stanu) do kierowania innym aktorem, który bez tego nie wykonałby pewnych działań. Definicja pojęciowa „względnej deprywacji” odwołuje się natomiast do spostrzeganej przez aktora rozbieżności pomiędzy „wartościami oczekiwanymi” a „wartościami dostępnymi”.
Terminy pierwotne - to pojęcia, których już nie można dalej zdefiniować, wykorzystując inne pojęcia. Terminy pierwotne są określone i jasne. Np. kolor, dźwięk, zapach, smak.
Naukowiec może opisać pewne rzeczywiste zachowanie i określić je jako „gniew”. Technicznie takie zademonstrowanie terminu „gniew” stanowi definicję ostensywną, tj. gniew reprezentuje zbiór łatwo obserwowalnych zachowań. Jako taki „gniew” może zostać wykorzystany zarówno w procesie budowania teorii, jak i w badaniach.
Terminy pochodne - to takie terminy, które można zdefiniować za pomocą terminów pierwotnych. Terminy pochodne są wygodniejsze w użyciu niż terminy pierwotne, gdyż łatwiej powiedzieć słowo „grupa”, niż stale powtarzać terminy pierwotne składające dię na pojęcie „grupy”.
Definicje pojęciowe nie są ani prawdziwe, ani fałszywe. Definicją jest to, co stwierdza definiujący.
Własności definicji pojęciowych:
- Musi wskazywać na unikatowe własności dotyczące tego, co jest definiowane. Musi włączać wszystkie przypadki, których dotyczy i wyłączać wszystkie przypadki, których nie dotyczy
- Nie powinna mieć kołowego charakteru, tzn. nie powinna zawierać żadnego elementu definiowanego zjawiska lub obiekt. Definiując „biurokrację” jako organizację, która ma cechy biurokratyczne, a „władzę” jako dobro posiadane przez ludzi władczych, nie ułatwiamy procesu komunikacji
- Powinna być formułowana w sposób twierdzący. Definicje jako zdania twierdzące wskazują na cechy unikatowe definiowanego pojęcia.
- Powinna zawierać wyraźne terminy, co do oznaczenia których wszyscy się zgadzamy. Termin „konserwatywny”, np. oznacza różne treści dla różnych ludzi i dlatego nie powinien być elementem definicji.
DEFINICJE OPERACYJNE
Właściwości czy zdarzenia empiryczne reprezentowane przez pojęcie często nie mogą być bezpośrednio obserwowalne. Definicje operacyjne łączą poziom pojęciowo-teoretyczny z poziomem empiryczno-obserwowalnym.
Definicje operacyjne składają się ze zbioru procedur opisujących działania, jakie musi podjąć badacz, aby ustalić istnienie lub stopień istnienia zjawiska opisywanego przez pojęcie. Więc, definiują one, co robić i co obserwować, aby badane zjawisko stało się częścią doświadczenia badacza i mogło zostać przez niego zrozumiane.
Pojęcie długości zostaje ustalone wtedy, kiedy zostaną określone operacje, za pomocą których będziemy mierzyć długość, tj. pojęcie długości oznacza tylko tyle, i nic więcej, ile zbiór operacji, za pomocą których długość jest ustalana.
Struktura definicji operacyjnych jest prosta. Jeżeli dany bodziec (S) wywołuje reakcję (R) w stały sposób dla określonego obiektu, to obiekt ten ma określoną, dającą się wywnioskować, własność (P).
Wiele pojęć stosowanych w naukach społecznych to pojęcia definiowane operacyjnie, jedynie w kategoriach siły reakcji na określone bodźce, warunki czy sytuacje.
Pojęcia zawierają elementy zarówno konceptualne, jak i operacyjne. Oba te aspekty muszą się wzajemnie uzupełniać.
PROBLEM ODPOWIEDNIOŚCI (ZGODNOŚCI)
Kiedy badacze przechodzą z poziomu pojęciowego na poziom empiryczno-obserwacyjny (lub odwrotnie) pojawiają się swa ważne problemy. Pierwszy dotyczy stopnia odpowiedniości czy zgodności między definicjami pojęciowymi i definicjami operacyjnymi. Aby ocenić stopień zgodności pomiędzy definicjami pojęciowymi a definicjami operacyjnymi, naukowcy posługują się testami trafności. Lecz nie ma doskonałego kryterium pozwalającego potwierdzić zgodność i że mogą się zdarzyć sytuacje, w których definicje operacyjne nie będą uwzględniać wszystkich elementów definicji pojęciowych.
ZNACZENIE TEORYTYCZNE
Kolejne ważne zagadnienie związane z przechodzeniem z poziomu pojęciowego do poziomu obserwacyjnego pojawia się wtedy, kiedy nie można zdefiniować pojęć operacyjnie, tzn. nie można ich obserwować ani bezpośrednio, ani pośrednio.
Pojęcie, które nie może zostać operacyjnie zdefiniowane, nie powinno być stosowane w badaniach naukowych, gdyż nie poddaje się ono weryfikacji intersubiektywnej.
Definicje operacyjne są niezbędne, aby umożliwić naukowcom wzajemne powtarzanie własnych badań. Bez nich badacz nie jest pewien, czy obserwuje to samo zjawisko.
Naukowe znaczenie pojęcia może być zatem ustalone jedynie poprzez skonstruowanie zbioru operacji (narzędzi obserwacji). Poznanie tych operacji to zrozumienie znaczenie pojęcia i możliwość empirycznego badania zjawisk.
Naukowcy powinni oceniać pojęcia naukowe nie tylko w terminach ich obserwowalności, ale również w terminach ich znaczenia teoretycznego. Niektóre pojęcia nabywają bowiem znaczenia jedynie w kontekście teorii, w której się pojawiły.
♦Teoria: jej funkcje i rodzaje
Teoria oznacza różne rzeczy dla różnych ludzi. Niektórzy badacze utożsamiają teorie z każdym rodzajem konceptualizacji. Najogólniej teoria to system powiązanych ze sobą pojęć, z których dedukcyjnie można wyprowadzać dające się sprawdzić twierdzenia.
CZYM TEORIE NIE SĄ
Przedstawianie teorii do praktyki - Teoria odnosi się do praktyki, tzn. naukowcy akceptują teorię (i jej praktyczne zastosowania)jedynie wtedy, gdy jej metodologia została jasno i logicznie wyłożona. Wiarygodna teoria jest pojęciową podstawą rzetelnej wiedzy. Teorie pomagają wyjaśniać i przewidywać interesujące nas zjawiska i w konsekwencji podejmować właściwe decyzje praktyczne.
Wymienne stosowanie terminu „teoria” i „filozofia”. Prace klasycznych myślicieli są często uważane za „teorie”. Tymczasem teorie formułowane przed drugą wojną światową w naukach społecznych to przede wszystkim filozofia moralności, a więc problematyki dotyczącej tego, jakie rzeczy być powinny.
RODZAJE TEORII
Nie istnieje jedna prosta definicja teorii. Ich rodzajów jest wiele i każdy rodzaj spełnia inne cele. David Easton klasyfikuje teorie ze względu na:
Zakres - na makro i mikroteorie
Funkcję - na teorie dotyczące zjawisk dynamicznych i statycznych, struktur i procesów
Strukturę - na teorie będące logicznymi systemami myśli silnie ze sobą powiązanych i teorie będące luźniej zdefiniowanymi zbiorami twierdzeń
Poziom - tj. biorąc pod uwagę „systemy zachowań, których dotyczą, a które - po ich uporządkowaniu - można przedstawić na pewnej skali hierarchicznej”.
Klasyfikacja oparta na rozróżnieniu czterech poziomów teorii (Parsons, Shils)
Systemy klasyfikacyjne ad hoc. Składają się z arbitralnych kategorii skonstruowanych po to, aby uporządkować i zebrać obserwacje empiryczne. Badacz może na przykład podzielić odpowiedzi w ramach kwestionariusza (w odpowiedni sposób).
System klasyfikacyjny ad hoc nie został wyprowadzony z ogólniejszej teorii porządku społecznego.
Taksonomie. Taksonomia składa się z systemu kategorii skonstruowanych odpowiednio do obserwacji empirycznych w taki sposób, że można opisać związki pomiędzy kategoriami. Kategorie mogą być wewnętrznie powiązane. Odzwierciedlają opisywaną rzeczywistość. Stworzony przez Parsonsa zespół kategorii opisujących działanie społeczne jest dobrym przykładem tak rozumianej teorii.
Taksonomie pełnią dwie podstawowe funkcje w badaniach społecznych.
1)Precyzyjnie zdefiniowana taksonomia pozwala określić jednostkę rzeczywistości empirycznej, która ma być analizowana , a także wskazuje, w jaki sposób ta jednostka może zostać opisana (w wypadku taksonomii Parsonsa był to system społeczny)
Celem taksonomii jest dostarczenie uporządkowanego schematu pozwalającego klasyfikować i obserwować [...] Jeżeli będziemy się posługiwać taksonomią jako rodzajem >listy zakupów<, to spotykając się twarzą w twarz z przedmiotem badań, możemy natychmiast zidentyfikować jego istotne aspekty czy zmienne.
2)Uporządkowanie i inspirowanie badań deskryptywnych, takich jak badanie rozkładów empirycznych jednej lub większej liczby kategorii danej taksonomii. Taksonomie nie dostarczają jednak wyjaśnień. Opisują jedynie zjawisko empiryczne poprzez dopasowanie do niego zbioru kategorii.
Struktury pojęciowe. W strukturze pojęciowej kategorie deskryptywne są racjonalnie wbudowane w szeroką strukturę formułowanych explicite twierdzeń. Twierdzenia te dotyczą związków pomiędzy dwiema lub więcej właściwościami empirycznymi i mogą zostać przyjęte lub odrzucone.
Dobrym przykładem struktury pojęciowej jest koncepcja systemu politycznego sformułowana przez Eastona. System polityczny jako „formułowanie i realizowanie w społeczeństwie decyzji władzy zwierzchniej”.
Struktury pojęciowe znajdują się na wyższym poziomie niż taksonomie, ponieważ twierdzenia formułowane w ich ramach równie dobrze opisują zachowania, jak też pozwalają wyjaśniać i przewidywać szerokie klasy obserwacji empirycznych.
Twierdzenia wyprowadzane z systemów pojęciowych nie są jednak ustalane dedukcyjnie.
Systemy teoretyczne. Łączą taksonomie oraz struktury pojęciowe, dostarczając w sposób systematyczny opisów, wyjaśnień i predykcji. Składa się z twierdzeń powiązanych ze sobą w sposób, który umożliwia wyprowadzenie jednych twierdzeń z innych.
System teoretyczny jak ten np. sformułowany przez Durkheima, dostarcza struktur wyjaśniających zjawiska empiryczne. Składa się ze zbioru pojęć w tym abstrakcyjnych, opisujących to, czego dana teoria dotyczy (np. samobójstwo), jak też pojęć mających empirycznie mierzalne właściwości (np. odsetek samobójstw). Te właściwości empiryczne nazywamy zmiennymi.
System teoretyczny składa się również ze zbioru twierdzeń. Tutaj twierdzenia tworzą system dedukcyjny. (Zbiór twierdzeń tworzy rachunek tj. metodę analizy lub rachowania za pomocą specjalnych określeń symbolicznych).
Teoria Durkheima przedstawiona przez George'a Homansa to klasyczny przykład systemu teoretycznego.
Niektóre z twierdzeń systemu teoretycznego są względne i zależa od rzeczywistości empirycznej, w tym sensie, że „doświadczenie ma znaczenie dla ich prawdziwości czy fałszywości, a także dla twierdzeń z nich wyprowadzanych”.
TEORIE AKSJOMATYCZNE
Aksjomaty to nietestowalne twierdzenia czy założenia dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe. Aksjomaty opisują bezpośrednie zależności przyczynowe pomiędzy dwoma pojęciami. Zależności te nie wymagają dalszych dowodów empirycznych. Teoria aksjomatyczna składa się z:
1)zbioru pojęć i definicji pojęciowych i operacyjnych
2)zbioru stwierdzeń opisujących sytuacje, do których odnosi się dana teoria
3)zbioru powiązanych za sobą stwierdzeń, podzielonych na:
aksjomaty - nietestowalne stwierdzenia czy założenia dotyczące badanego zjawiska, o których zakłada się, że są prawdziwe
twierdzenia - wyrażenia wyprowadzone dedukcyjnie z aksjomatów i podlegające weryfikacji empirycznej
4)systemu reguł logicznych zastosowanych do:
powiązania wszystkich pojęć w ramach systemu
wyprowadzania dedukcyjnego twierdzeń z aksjomatów, zbiorów aksjomatów i
twierdzeń
Jednym z pierwszych i często cytowanym przykładem teorii aksjomatycznej jest teoria Durkheima w wersji sformułowanej przez Hansa Zetternerga.
Najtrudniejszym problemem dotyczącym teorii aksjomatycznych jest wybór aksjomatów. Jednym z kryteriów dokonywania wyboru jest zgodność wewnętrzna:
- Aksjomaty nie powinny prowadzić do sprzecznych twierdzeń.
- Innym kryterium jest liczba: teoretycy powinni wybierać najmniejszy z możliwych zbiór aksjomatów, z którego da się dedukcyjnie wyprowadzić wszystkie twierdzenia.
- Trzecim kryterium jest nakaz wybierania jako aksjomatów tych twierdzeń, które osiągnęły status praw.
Zalety teorii aksjomatycznych.
1)Wymagają one dobrego opisu i jasnego wyjaśnienia głównych pojęć i założeń wykorzystywanych w niezależnych teoriach.
2)Wszystkie terminy - pierwotne i pochodne - a także definicje operacyjne muszą zostać sformułowane explicite.
3)Teoria aksjomatyczna pozwala na zwarte podsumowanie aktualnych i planowanych badań.
4)Teorie aksjomatyczne mogą być wykorzystywane do „koordynowania badań tak, aby wiele niezależnych wyników potwierdzało się wzajemnie, dając najwyższą akceptowalność teorii w świetle określonych wyników”. Ponieważ teoria składa się ze zbioru powiązanych ze sobą twierdzeń, więc dowiedzenie empiryczne dowolnego twierdzenia staje się jednocześnie potwierdzeniem całej teorii.
5)Forma aksjomatyczna sprawia, że badacze mogą w sposób systematyczny badać wszystkie konsekwencje przyjętych przez siebie aksjomatów.
6)Forma aksjomatyczna jest najwygodniejsza dla analizy przyczynowo-skutkowej.
♦Modele
Model jest miniaturowym odtworzeniem rzeczywistego problemu, łącznie z uwzględnieniem jego specyficznych cech w odpowiedniej skali (jego struktury). Model pomija inne cechy jak np. instrumenty kontrolne. Model służy jako fizyczna, wizualna reprezentacja struktury i cech (?).
W naukach społecznych modele mają postać symboliczną aniżeli fizyczną. Oznacza to, że cechy charakterystyczne zjawisk empirycznych, włączając w to ich składowe oraz powiązania między nimi, są odtwarzane poprzez logiczne uporządkowanie pojęć.
I tak modelem w naukach społecznych jest abstrakcyjne przedstawienie rzeczywistości w taki sposób, aby uporządkować i uprościć nasze spojrzenie na daną rzeczywistość poprzez odtworzenie jej podstawowych cech charakterystycznych.
Sposobem konstrukcji modeli jest metoda abstrakcji. Czasami stosuje się również procedurę przetwarzania pojęć.
Model zatem to reprezentacja rzeczywistości. Opisuje on te cechy świata rzeczywistego, które - według naukowców - mają największy związek z badanym problemem. Model pozwala wyeksplikować istotne związki między tymi cechami, a także budować empirycznie sprawdzalne twierdzenia dotyczące natury tych związków.
♦Teoria, modele i badania empiryczne
Nauki społeczne jako dyscypliny naukowe opierają się na dwóch podstawowych elementach: teoriach i badaniach empirycznych. Badacze w naukach społecznych działają w dwóch światach: w świecie obserwacji i doświadczenia oraz w świecie ... (niedoxerowane).
TEORIA PRZED BADANIAMI
Zgodnie z jedną z głównych szkół myślenia najpierw powinna być formułowana teoria, a potem dopiero powinny następować badania empiryczne. Ten sposób postępowania nazywa się strategią teorii przed badaniami. Opracował ją w sposób systematyczny Karl Popper.
Twierdził, że wiedza naukowa czyni największe postępy, gdy naukowcy tworzą idee (przypuszczenia), a następnie korzystając z badań empirycznych, starają się je odrzucić (odrzucenia). Jego zdaniem badania rzadko są źródłem nowych teorii, a także nie są źródłem logicznych metod tworzenia teorii. Teorie „można tworzyć jedynie intuicyjnie, odwołując się do czegoś w rodzaju intelektualnej miłości do przedmiotu doświadczenia”.
Strategia teorii przed badaniami:
1)Skonstruuj explicite teorię lub model
2)Z teorii lub modelu wybierz twierdzenie, które poddasz empirycznej weryfikacji
3)Opracuj plan badawczy pozwalający zweryfikować twierdzenie.
4)Jeżeli twierdzenie wyprowadzone z teorii zostanie odrzucone na podstawie danych empirycznych, to wprowadź zmiany do teorii lub planu badawczego i powróć do etapu 2)
5)Jeżeli twierdzenie nie zostanie odrzucone, to wybierz inne twierdzenie w celu weryfikacji lub staraj się poprawić teorię.
BADANIA PRZED TEORIĄ
Opracowana przez Roberta Mertona, który twierdzi, że
badania empiryczne odgrywają rolę aktywną: spełniają co najmniej cztery podstawowe funkcje, które przyczyniają się do kształtowania rozwoju teorii. Zapoczątkowują, przeformułowują, nadają inny kierunek i precyzują teorię”. Zgodnie z tym poglądem badania empiryczne wymagają kontynuowania prac teoretycznych prowadzących do zmian istniejących teorii, a także pełnią funkcję narzędzia ich weryfikacji.
Strategia badań przed teorią:
1)Analiza zjawiska i określenie jego podstawowych cech
2)Zmierzenie tych cech w różnych sytuacjach
3)Analiza otrzymanych danych w celu określenia, czy są one systematycznym źródłem wariancji.
4)Jeżeli zostanie ustalone systematyczne źródło wariancji, to należy opracować teorię.
Obie strategie traktują teorie jako formę przejawiania się postępu naukowego.
Nachmias rozdz. 3 Podstawowe elementy procesu badawczego
♦Problemy badawcze
Problem badawczy to bodziec intelektualny wywołujący reakcję w postaci badań naukowych. Nie wszystkie bodźce intelektualne mogą być badane w sposób empiryczny i nie każde ludzkie zachowanie jest sterowane wiedzą naukową. W rzeczywistości podstawowych założeń przyjmowanych w nauce nie da się badać empirycznie.
Generalnie rzecz biorąc, problemy, których nie można empirycznie uzasadnić(tzn. nie można zidentyfikować z obserwowalnymi zachowaniami), lub te, które dotyczą subiektywnych preferencji, wierzeń, wartości czy upodobań, nie poddają się badaniom empirycznym.
Ponieważ jednak preferencje czy wierzenia subiektywne nie mogą zostać empirycznie zweryfikowane, pozostają one poza obszarem wiedzy naukowej.
Ponadto aby problem badawczy był empirycznie uzasadniony, musi zostać w sposób jasny i dokładny sformułowany.
Jednostki analizy
Formułując problem, badacz musi rozważyć jednostki analizy , tj. określić, jakie są podstawowe elementy badanego zjawiska. Jednostka (czy poziom) analizy warunkuje wybór planu badawczego, metod zbierania danych oraz metod analizy danych. Abraham Kaplan nazwał problem wybory jednostek analizy problemem umiejscowienia:
Problem umiejscowienia można opisać jako wybór podstawowego przedmiotu badań w naukach behawioralnych, przestrzeń cech do jego opisu i struktur pojęciowych, w ramach których będą formułowane hipotezy dotyczące tego przedmiotu.
Kiedy badacz dokonał już wyboru, musi dostosować procedury badawcze, aby były one zgodne z wybranymi jednostkami analizy, gdyż jednostki analizy posiadają na tyle unikatowe właściwości, że przechodzenie od jednej jednostki do drugiej może być źródłem błędów.
Podstawową przyczyną tych niejasności jest podobieństwo pojęć wykorzystywanych do opisywania badanych właściwości; pojęć, które mogą się różnić swoimi obserwowalnymi odniesieniami w zależności od jednostki analizy.
Błąd ekologizmu
Badacze muszą określić jednostki analizy również z powodów metodologicznych. Jeżeli dany związek jest badany na określonym poziomie analizy lub dla danej jednostki (np. grup), a wyniki są przenoszone na iiny poziom (np. jednostek), to łatwo o zniekształcenia. Przenoszenie wniosków z bardziej złożonej na prostszą jednostkę analizy, z wyższego na niższy poziom jest niewłaściwe. Ten rodzaj zniekształceń nazywa się błędem ekologizmu.
Błąd indywidualizmu
Powstaje wtedy, gdy wnioski dotyczące grup, społeczeństw czy narodów są bezpośrednio wyprowadzane z danych otrzymanych dla jednostek.
♦Zmienne
Problemy badawcze są zawsze formułowane dzięki wykorzystaniu określonych pojęć. Pojęcia są abstrakcjami odzwierciedlającymi zjawiska empiryczne. Aby przejść z poziomu pojęciowego na poziom empiryczny, pojęcia muszą zostać przekształcone w zmienne. To właśnie w postaci zmiennych pojęcia są uwzględniane w hipotezach badawczych.
Pojęcia są przekształcane w zmienne poprzez ich zamianę lub przekształcenie w zbiór wartości. Zmienna to właściwość empiryczna mająca dwie lub więcej wartości
Zmienna, która ma tylko dwie wartości, nazywana jest zmienną dychotomiczną.
Zmienne zależne i zmienne niezależne
Zmienną, którą badacz chce wyjaśnić nazywamy zmienną zależną. Natomiast zmienną, za pomocą której badacz chciałby wyjaśnić zmiany wartości zmiennej zależnej, nazywamy zmienną niezależną (wyjaśniającą). Zmienna niezależna jest zatem traktowana jako powiązana ze zmienną zależną lub jako przyczyna zmian jej wartości.
Należy podkreślić, że rozróżnienie na zmienne zależne i zmienne niezależne ma charakter analityczny i odnosi się jedynie do celu badania. Większość zjawisk, którymi zajmują się badacze w naukach społecznych, wymaga określenia, które zmienne niezależne wpływają na jedną lub więcej zmiennych zależnych. Jedna zmienna niezależna wyjaśnia zazwyczaj tylko pewną część zróżnicowania zmiennej zależnej, co powoduje konieczność wprowadzenia dodatkowych zmiennych niezależnych wyjaśniających pozostałą część zróżnicowania.
Zmienne kontrolne
Są wykorzystywane do sprawdzania, czy obserwowany empirycznie związek pomiędzy zmienną zależną i niezależną nie jest związkiem pozornym. Związek pozorny to taki związek, który można wyjaśnić za pomocą zmiennych innych niż uwzględnione w hipotezie badawczej. Posługując się zmiennymi kontrolnymi, badacz może się upewnić, że pomiędzy zmiennymi istnieje rzeczywiste, przyczynowe powiązanie, takie jak to zostało określone w hiotezie.
Zmienne ciągłe i zmienne dyskretne
Zmienna ciągła nie ma określonej swojej najmniejszej jednostki. Długość to przykład zmiennej ciągłej, gdyż nie istnieje naturalna, minimalna jednostka długości.
Zmienne dyskretne mają swoją minimalna jednostkę. Ilość pieniędzy na rachunku bankowym to przykład zmiennej dyskretnej, gdyż pieniądze mają określoną minimalną jednostkę monetarną.
♦Związki
Związek w badaniach naukowych to zawsze związek pomiędzy dwoma zjawiskami. Jeśli powiemy, że zmienna X i Y są ze sobą powiązane, to mamy na myśli, że istnieje coś wspólnego dla obu tych zmiennych.
Jeżeli powiemy, że wykształcenie i dochody są ze sobą powiązane, to zakładamy, że jednocześnie się zmieniają, są współzmienne czy że zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej.
Współzmienność (inaczej kowariancja) jest właśnie tym, co wiąże wykształcenie i dochody: osoby o wyższym wykształceniu mają wyższe dochody. Przyjmując w badaniach empirycznych, że istnieje związek pomiędzy dwiema czy więcej zmiennymi, zakładamy tym samym, że wartości jednej zmiennej będą się zmieniać wraz ze zmianami wartości innych zmiennych.
Związki pomiędzy zmiennymi można scharakteryzować nie tylko przez podanie ich kierunku, ale również przez podanie ich siły. Siła związku to zakres, w jakim zmienne współzmieniają się dodatnio lub ujemnie. Największą możliwą siłę związku nazywamy związkiem doskonałym (idealnym). Jeżeli związek pomiędzy dwiema zmiennymi jest związkiem doskonałym, to wartość jednej lub więcej zmiennych niezależnych dokładnie wyznacza wartość zmiennej zależnej.
Po przeciwnej stronie mamy najmniejszą siłę związek, tj. związek zerowy. W tym wypadku w ogóle nie ma współzmienności pomiędzy wartościami zmiennej zależnej i niezależnej.
Związki, którymi zajmują się zarówno nauki społeczne, jak i inne nauki, oscylują od zerowych do idealnych. Związek pomiędzy wykształceniem i dochodami okazał się dodatni, lecz nieidealny. Związek pomiędzy wykształceniem a uprzedzeniami rasowymi jest związkiem ujemnym i też nieidealnym.
♦Hipotezy
Jest to proponowana przez nas odpowiedź, jakiej można udzielić na pytanie badawcze. Jest ona wyrażana w postaci jasno określonego związku pomiędzy zmienną zależną i niezależną. Hipotezy to proponowane odpowiedzi, ponieważ zostaną one zweryfikowane dopiero po przeprowadzeniu badań empirycznych.
Najpierw hipotezy tworzymy, a potem je weryfikujemy. Jeżeli hipoteza zostanie odrzucona, to należy zbudować następną; jeżeli hipoteza zostanie przyjęta, to będzie ona włączona do wiedzy naukowej. Hipotezy można wyprowadzać dedukcyjnie - z teorii, indukcyjnie - na podstawie obserwacji, czy intuicyjnie, albo łącząc elementy tych sposobów.
Hipotezy badawcze są do siebie podobne pod czterema względami: są jasno sformułowane, są konkretne (specyficzne), poddają się weryfikacji empirycznej za pomocą metod badawczych i nie są wartościujące.
1.Hipotezy muszą zostać jasno sformułowane. Aby hipoteza mogła zostać empirycznie sprawdzona, wszystkie zmienne w niej występujące muszą zostać zdefiniowane. Definicje pojęciowe i operacyjne są tu bardzo pomocne.
2.Hipotezy są konkretne. Zadanie badacza polega na określeniu oczekiwanego związku pomiędzy zmiennymi oraz warunków, w jakich ten związek zachodzi.
Formułując hipotezę, należy również jasno określić warunki, w jakich dany związek będzie badany (obserwowany). Teoria zatem odgrywa niezwykle ważna rolę w procesie budowania owocnych - i dających się włączyć w proces badawczych - hipotez.
3.Hipotezy są sprawdzalne za pomocą dostępnych metod.
4.Hipotezy naukowe nie są wartościujące. Generalnie wartości wyznawane przez badacza, jego stronniczość czy subiektywne preferencje nie powinny w żadnym wypadku wpływać na proces badawczy.
Badacz musi być świadomy własnej stronniczości i starać się uczynić ją jawną. Próba wykorzenienia stronniczości poprzez usunięcie wszelkiego wartościowania jest beznadziejnym i źle ukierunkowanym przedsięwzięciem.
♦Problemy i hipotezy: wybrane przykłady
Problemy to ogólne pytania dotyczące związków pomiędzy zmiennymi. Hipotezy to proponowane odpowiedzi dające się sprawdzić empirycznie.
W procesie badawczym wymaga się, aby naukowcy przekształcili sformułowane pytania ogólne na zbiór hipotez (proponowanych odpowiedzi) po to, aby możliwe stało się ich zbadanie.
♦Źródła informacji o badaniach i hipotezach naukowych
Problemy badawcze i hipotezy można budować na wiele sposobów. Można korzystać z teorii, z bezpośrednich obserwacji czy z własnej intuicji, traktując każdy z tych sposobów niezależnie lub je łącząc. Najlepszym jest jednak literatura fachowa.
Krytyczny przegląd literatury fachowej pozwala badaczowi poznać aktualny stan wiedzy, podstawowe pojęcia, teorie, główne zmienne oraz definicje pojęciowe i operacyjne, problemy i hipotezy analizowane przez innych jak też stosowane przez nich metody badawcze.
Nachmias rozdz. 7
Pomiar - to procedura, w której przyporządkowuje się, zgodnie z określonymi zasadami, wartości liczbowe - cyfry lub inne symbole - właściwościom empirycznym(zmiennym)
Cyfry - to symbole; cyfry nie mają znaczenia ilościowego, dopóki im takiego sensu nie nadamy; cyfry które maja znaczenie ilościowe stają się liczbami; liczby nadają się do analiz ilościowych
W definicji pomiaru termin „przyporządkowanie” oznacza przydzielanie. Cyfry lub liczby są przydzielane obiektom czy zdarzeniom
Trzecim pojęciem wykorzystywanym w definicji pomiaru jest pojęcie reguł:
Reguła - określa procedurę, jaką posłużono się w trakcie przypisywania cyfr lub liczb obiektom czy zdarzeniom
Struktura pomiaru:
Pomiar - to przyporządkowanie cyfr lub liczb obiektom, zdarzeniom lub zmiennym zgodnie z określonymi regułami. Reguły są najbardziej istotnym elementem procedury pomiarowej, ponieważ wyznaczają jakość pomiaru.
Złe reguły sprawiają, że pomiar jest pozbawiony sensu. Pomiar jest bezsensowny wówczas, kiedy nie przystaje do rzeczywistości, kiedy brakuje mu podstaw empirycznych
Izomorfizm - „podobieństwo lub identyczność struktury”; pytanie o to, czy wykorzystany system liczbowy ma podobną strukturę do struktury mierzonych pojęć.
Kiedy mówimy, że 2 systemy są izomorficzne, mamy na myśli to, że mają one podobne struktury i że relacje pomiędzy ich elementami są również identyczne.
W naukach społecznych bardzo często dokonujemy pomiaru wskaźników pojęć(takich jak demokracja, motywacja)
Przykładowo: jeżeli w systemie politycznym regularnie przeprowadza się wybory, to można sądzić, że jest to jeden ze wskaźników demokracji. W przykładzie tym określone zachowanie zostało potraktowane jako wskaźnik pojęcia teoretycznego.
Podsumowując: wskaźniki są określane przez definicje operacyjne. Po dokonaniu obserwacji wskaźników badacze mogą zastąpić obserwowane wartości tych wskaźników za pomocą cyfr lub liczb i przeprowadzić analizę ilościową; struktura numeryczna jak i struktura wskaźnika muszą być izomorficzne.
Poziomy pomiaru:
Czasami zamiast terminu „poziom pomiaru” używa się terminu „skala”.
Skale można traktować jako instrument pomiarowy - skalą jest licznik szybkości, podobnie jak linijka czy kwestionariusz
1) Poziom nominalny
Jest najniższym poziomem pomiaru. Na tym poziomie wykorzystuje się cyfry lub inne symbole do klasyfikowania obiektów lub obserwacji do określonej liczby kategorii. Nominalny poziom pomiaru zostanie osiągnięty wówczas, kiedy zbiór obiektów zostanie poklasyfikowany na kategorie, które będą wyczerpujące i wzajemnie rozłączne oraz kiedy każdej kategorii zostanie przypisany inny symbol, który będzie ją reprezentował(np. płeć, narodowość, stan cywilny)
2) Poziom porządkowy
W naukach społecznych analizuje się wiele zmiennych, które nie tylko można klasyfikować, ale też porządkować ze względu na określone relacje. Typowymi relacjami są „wyższy”, „większy”, „trudniejszy”
Pomiar postaw jako przykład pomiaru na poziomie porządkowym:
„Ludzie podobni do mnie mają ogromny wpływ na decyzje rządu” - zadanie osoby badanej polega na zaznaczeniu stopnia zgody lub braku zgody z treścią tego twierdzenia.
Jeżeli tylko określone zjawisko lub proces można opisać na skali od najlepszego do najgorszego(np. film), czy od najwyższego do najniższego(klasy społeczne)to mamy wówczas do czynienia z pomiarem porządkowym.
Wartości rangowe - liczby wykorzystane do uporządkowania obiektów
3) Poziom interwałowy
Jeżeli można również określić dokładną odległość pomiędzy kolejnymi obserwacjami i ta odległość jest stała, to mamy do czynienia z poziomem interwałowym. Oprócz możliwości stwierdzenia, że jeden obiekt jest większy niż drugi, możemy też dokładnie określić o ile jednostek pierwszy jest większy od drugiego.
Przy tego rodzaju pomiarze stosunek dwóch interwałó(odległości)jest niezależny od jednostki pomiaru.
Przykładami zmiennych mierzonych na tym poziomie są dochody, iloraz inteligencji IQ
4) Poziom stosunkowy
Zmienne, które mają naturalny punkt zerowy(tj. np. taki punkt, w którym zamarza woda)można mierzyć na poziomie stosunkowym.
Zmienne takie, jak: waga, czas, długość mają naturalny punkt zerowy i można mierzyć je na poziomie stosunkowym. Na tym poziomie iloraz dwóch liczb jest również niezależny od jednostki pomiaru. Poziom interwałowy i stosunkowy są do siebie podobne i podobne są też zasady przyporządkowywania liczb obiektom - z jednym wyjątkiem. Na poziomie stosunkowym liczby przyporządkowujemy mierzonym wielkościom, począwszy od zera absolutnego; zaś na poziomie interwałowym punkt zerwo jest ustalany arbitralnie
Stosunkowy poziom pomiaru jest realizowany jedynie wtedy, gdy są spełnione wszystkie cztery następujące warunki:
1) zachodzi relacja równoważności
2) zachodzi relacja „większy niż”
3) znana jest wielkość dwóch dowolnych interwałów
4) istnieje prawdziwy punkt zerowy
Podsumowanie 4 rodzajów pomiaru:
1) NOMINALNY
na tym poziomie cyfry lub symbole są wykorzystywane do klasyfikowania obiektów lub wyników obserwacji. Zjawiska znajdujące się w jednej kategorii są sobie równe, lecz nie są równe zjawiskom znajdującym się w innej kategorii(zachodzi tu relacja równoważności)
2) PORZĄDKOWY
jeżeli między zmiennymi zachodzi relacja porządku, to można je mierzyć na poziomie porządkowym. Relację tego rodzaju oznacza się symbolem > (większy niż). Tu również zachodzi relacja równoważności.
3) INTERWAŁOWY
jeżeli znana jest dokładna odległość między wynikami dwóch obserwacji i jest ona stała, to możemy dokonać pomiaru na poziomie interwałowym. Między zjawiskami mierzonymi na tym poziomie również zachodzi relacja równoważności, a także jeden wynik może być większy(lub mniejszy)od drugiego
4)STOSUNKOWY
jeżeli zmienne mają naturalny punkt zerowy, to można je mierzyć na poziomie stosunkowym. Tu również zachodzi relacja równoważności, ale także relacja porządku oraz istnieje stały interwał.
Transformacja danych:
Zmienne, które da się zmierzyć na skali stosunkowej, można również mierzyć na poziomie interwałowym, porządkowym i nominalnym, nigdy jednak na odwrót. Zmienna taka jak przynależność partyjna może zostać zmierzona tylko na poziomie nominalnym.
BŁĘDY POMIARU
Funkcje procedur pomiaru
Procedury pomiarowe są wykorzystywane w celu przyporządkowania wartości liczbowych, cyfr lub wyników badanym właściwościom. Kiedy wyniki zostaną już przyporządkowane, różnice między wynikami otrzymanymi w powtarzanych pomiarach można przypisać dwóm źródłom.
Dwa źródła różnic wyników pomiarów:
1)zakres w jakim wyniki odzwierciedlają rzeczywiste różnice pomiędzy mierzonymi właściwościami
2)zakres, w którym sam pomiar oraz otoczenie, w którym następuje akt pomiaru, wpływają na otrzymane wyniki
Błąd pomiaru
Błędem pomiaru nazywamy wszelkie zróżnicowanie nie wynikające z rzeczywistych różnic między mierzonymi właściwościami.
Typowe źródła błędu pomiaru:
otrzymane wyniki można przypisać pewnej innej właściwości powiązanej z mierzoną właściwością, której badacz intencjonalnie nie zamierzał mierzyć
może być wynikiem chwilowego samopoczucia (choroby czy nastroju), które może wpłynąć na odpowiedzi udzielane w badaniach kwestionariuszowych lub na zachowanie osoby badanej
różnice otoczenia, w którym dokonuje się pomiaru (np. wiek, rasa, płeć również)
różnice w sposobie stosowania narzędzia pomiarowego (np. słabe oświetlenie, hałas, zmęczony ankieter)
może wynikać z różnic w przetwarzaniu danych (np. wtedy gdy różne osoby niejednakowo kodują podobne odpowiedzi)
niejednakowa interpretacja wyników tego samego narzędzia pomiarowego
Błędy systematyczne i losowe
systematyczne - pojawiają się wraz z zastosowaniem narzędzia pomiarowego i występują w odniesieniu do wszystkich osób badanych i wszystkich badań
losowe - pojawiają się również wraz z każdym zastosowaniem narzędzia pomiarowego, mają jednakże charakter przypadkowy
PROBLEMATYKA TRAFNOŚCI
Trafność
Dotyczy następującego pytania: „Czy udało nam się zmierzyć to, co zamierzaliśmy zmierzyć?”
Trzy podstawowe rodzaje trafności
treściowa
empiryczna
teoretyczna
TRAFNOŚĆ TREŚCIOWA
Dwa rodzaje trafności treściowej:
trafność fasadowa
trafność doboru próby
AD 1.
odwołuje się do subiektywnej oceny trafności narzędzia pomiarowego dokonanej przez badacza
w praktyce dotyczy stopnia, w jakim badacz jest przekonany, że jego narzędzie pomiarowe jest właściwe
problem trafności fasadowej - nie istnieją dokładne i powtarzalne procedury, które pozwoliłyby na ocenę narzędzia pomiarowego. (badacz musi polegać na ocenach subiektywnych)
Np. za pomocą kwestionariusza składającego się z 10 twierdzeń badacz chciałby dokonać pomiaru zmiennej „liberalizm”
Po ułożeniu kwestionariusza badacz ponownie analizuje każde twierdzenie aby sprawdzić w jakim stopniu każde z nich jest powiązane z liberalizmem
Może w tym celu zaprosić specjalistów. Jeżeli oceny sędziów będą zgodne, to badacz może przyjąć, że jego kwestionariusz jest trafny fasadowo i konsekwentnie mierzy liberalizm
AD 2.
interesujemy się tu tym, czy określona populacja (np. zbiór wszystkich przypadków w świecie rzeczywistym) jest adekwatnie reprezentowana przez dane narzędzie pomiarowe.
Konkretnie: czy twierdzenia, pytania lub wskaźniki - tj. treść narzędzia pomiarowego - adekwatnie odzwierciedlają mierzoną właściwość
Założenie tej trafności to założenie dotyczące istnienia populacji treści składającej się z dużej liczby pozycji (wyrażanych w postaci twierdzeń, pytań, wskaźników)
Definiowanie populacji treści jest zagadnieniem teoretycznym a nie praktycznym, wpływa to na zmniejszenie trafności doboru próby
Trafność ta wymusza znajomość wszystkich pozycji składających się na populację treści. Jest użyteczna w badaniach eksploracyjnych
TRAFNOŚĆ EMPIRYCZNA
Trafność empiryczna - odwołuje się do związku pomiędzy dwoma narzędziami pomiarowymi i ich wynikami. Naukowcy przyjmują, że jeżeli narzędzie pomiarowe jest trafne, to powinien istnieć silny związek pomiędzy wynikami uzyskanymi dzięki zastosowaniu tego narzędzia a rzeczywistym związkiem zachodzącym pomiędzy mierzonymi zmiennymi
Współczynnik korelacji - to wskaźnik siły związku pomiędzy dwiema mierzonymi zmiennymi.
Istnieją testy stosowane do pomiaru trafności empirycznej. Najczęściej stosowany jest test określający trafność prognostyczną
Jest ona wyrażana przez siłę związku (współczynnik korelacji) pomiędzy wynikami danego narzędzia pomiarowego i zewnętrznym kryterium. Badacz może np. określić trafność testu inteligencji, analizując związek pomiędzy wcześniej otrzymanymi wynikami testowymi dla grupy studentów college'u a późniejszymi ich stopniami otrzymanymi w trakcie 1 roku studiów
Dwa problemy ogólne trafności prognostycznej:
1) Dotyczy wyboru kryterium
Dotyczy takich sytuacji, w których zastosowanie określonego kryterium może okazać się zbyt trudne lub zbyt kosztowne. Np. badanie jakości każdego stanowiska komputerowego opuszczającego linię produkcyjną jest bardzo kosztowne
2) Dotyczy trafności kryterium
Problem ten rozwiązywany jest poprzez zastosowanie którejś z dwóch, powszechnie używanych metod oceny trafności kryterium
odwołuje się do zasady akceptacji przez badaczy trafności danego kryterium, wykorzystywanego do oceny określonego narzędzia pomiarowego. Zgoda ta jest przedmiotem badań w procesie oceniania trafności fasadowej i trafności próby.
Polega na określeniu procentu osób (czy innych jedn. Analizy) prawidłowo sklasyfikowanych przez narzędzie pomiarowe ze względu na ich znane właściwości i wyrażeniu związku pomiędzy narzędziem pomiarowym i kryterium w terminach tych procentów
TRAFNOŚĆ TEORETYCZNA
Badacze określają trafność teoretyczną, badając narzędzie pomiarowe w świetle szerszego kontekstu teoretycznego po to, aby sprawdzić, czy narzędzie pomiarowe jest powiązane z pojęciami i teoretycznymi założeniami tego kontekstu.
Aby określić trafność teoretyczną narzędzia pomiarowego, badacz musi sprawdzić, czy istnieją związki pomiędzy określoną zmienną i innymi zdefiniowanymi zmienymi
Technika znanych grup:
Technika ta polega na przebadaniu określonym narzędziem pomiarowym grup ludzi o znanych cechach po to, aby na tej podstawie określić kierunek różnic pomiędzy grupami.
Proces badania trafności teoretycznej ze względu na logikę postępowania (Cronbach i Meehl):
najpierw naukowiec formułuje twierdzenie, że narzędzie pomiarowe mierzy określoną własność (np. własność A)
następnie to twierdzenie wbudowuje w ramy teorii dotyczącej własności A
dalej analizując teorię określa, które cechy powinny być powązane z narzędziem pomiarowym, a dla których takiego związku nie da się określić
na koniec zbiera dane empiryczne, które staną się podstawą przyjęcia lub odrzucenia określonych wcześniej relacji
Metoda polegająca na budowaniu macierzy korelacji
odwołuje się do pojęcia aspektu zbieżnego i różnicowego trafności
jest też znana jako technika wielu cech - wielu metod
u jej podstaw leży założenie, że różne metody mierzące tę samą własność powinny dawać te same wyniki, natomiast różne własności powinny prowadzić do otrzymania różnych wyników
aby potwierdzić trafność teoretyczną narzędzia pomiarowego badacz powinien zanalizować oba aspekty trafności
zbieżny - dwa pomiary tej samej cechy powinny ze sobą wysoko korelować, nawet jeżeli uzyskano je za pomocą różnych metod
różnicowy - dwa pomiary różnych własności nie powinny ze sobą wysoko korelować, nawet jeżeli uzyskano je za pomocą podobnych narzędzi pomiarowych
RZETELNOŚĆ
Rzetelność dotyczy wielkości błędu związanego z danym narzędziem pomiarowym, tj. błędu, który powstaje w sposób losowy, w kolejnych pomiarach dokonywanych za pomocą tego samego narzędzia pomiarowego.
(np. jeśli dwukrotnie zmierzymy długość biurka za pomocą tego samego narzędzia pomiarowego - np. linijki - i otrzymamy nieco inne wyniki, to narzędzie to jest źródłem błędu pomiaru.
Dwa elementy pomiaru
komponent prawdziwy
komponent błędu
Metoda powtórnego testowania - wywodzi się wprost z definicji rzetelności. Polega na dwukrotnym przebadaniu tej samej grupy osób tym samym narzędziem pomiarowym i na obliczeniu współczynnika korelacji pomiędzy dwoma zbiorami wyników (obserwacji).
Współczynnik ten nazywa się współczynnikiem rzetelności.
Ograniczenia metody powtórnego testowania:
pomiar dokonany za pierwszym razem może wpłynąć na pomiar dokonany za drugim razem (jeśli narzędziem jest kwestionariusz, to respondent może zapamiętać treść pytań i za drugim razem udzielić tych samych odpowiedzi)
ponieważ wiele zjawisk podlega ciągłym zmianom, może się zdarzyć tak, że zmiany te wydarza się w przerwie pomiędzy dwoma pomiarami i wpłyną na obniżenie współczynnika rzetelności
Metoda form równoległych
Aby zastosować tę technikę badacz musi stworzyć dwie równoległe wersje narzędzia pomiarowego
Następnie dokonuje się pomiaru tej samej grupy osób badanych za pomocą obu form i koreluje otrzymane dwa zbiory wyników w celu otrzymania miary rzetelności.
Metoda połówkowa
Polega na traktowaniu każdej z dwóch lub więcej części testu jako niezależnej skali.
Uniwersalizacja
Zgodnie z teorią uniwersalizacji tym, co naprawdę nas interesuje, jest zakres, w jakim jeden zbiór pomiarów jest podobny do innego zbioru pomiarów pochodzącego z uniwersum wszystkich potencjalnych miar oraz pod kątem jakich właściwości są one do siebie podobne.
Nachmias rozdz. 8 PRÓBY
Populacja - całkowity zbiór obiektów poddawanych analizie czy całkowity zbiór danych
Próba - to podzbiór danych pochodzący z populacji i będący podstawą uogólnień na całą populację.
Parametr - wartość określonej zmiennej charakteryzującej populację (np. poziom formalnego wykształcenia). Jego odpowiednik w próbie nosi nazwę statystyki
◄POPULACJA
To zbiór wszystkich przypadków wykazujących określone cechy.
Jeżeli tymi cechami będą „studenci” i „przyjęci na studia w uniwersytetach stanowych USA”, to naszą populację będą stanowić wszyscy studenci przyjęci na studia w uniwersytetach stanowych USA.
Populacja powinna być określona w terminach:
a) obiektów, które się na nią składają b) zakresu c) czasu - np. 1)wszyscy mieszkańcy powyżej osiemnastego roku życia mieszkający na stałe w danym okręgu 2)mieszkający w Wielkiej Brytanii 3) począwszy od 1 maja 1995 roku
JEDNOSTKA DOBORU PRÓBY
To pojedynczy obiekt z populacji, z której będzie pobierana próba (np. głosujący, gospodarstwo domowe czy zdarzenie).
Inne jednostki to np. uniwersytet, miasto czy naród.
POPULACJE CSKOŃCZONE I NIESKOŃCZONE
Populacja skończona składa się z przeliczalnej liczny jednostek, np. wszyscy zarejestrowani wyborcy w danym mieście i danym roku.
Populacja nieskończona składa się z nieskończenie wielu jednostek, jak np. nieograniczona liczba rzutów monetą.
Dobór reprezentacyjny - pobieranie próby po to, aby otrzymać informacje o określonej właściwości konkretnej skończonej populacji
PODSTAWA DOBORU PRÓBY
Mając zdefiniowaną populację, badacze pobierają próbę, która ma adekwatnie reprezentować tę populację. Odpowiednie procedury polegają na pobieraniu próby z podstawy doboru próby, którą tworzy pełna lista jednostek doboru próby. W sytuacji idealnej podstawa doboru próby, czyli operat zawiera wszystkie jednostki składające się na daną populację.
◄SCHEMAT DOBORU PRÓBY
Podstawowym wymogiem stawianym bez wyjątku wobec każdej próby jest to, aby była ona w maksymalnym stopniu reprezentatywna w stosunku do populacji, z której została pobrana.
Dana próba uważana jest za reprezentatywną wtedy, gdy wyprowadzane przez badacza wnioski na podstawie badania próby są podobne do wniosków, które badacz otrzymałby, gdyby przebadał całą populację.
DOBÓR LOSOWY I NIELOSOWY
Istotą doboru losowego jest to, że dla każdej jednostki doboru próby wchodzącej w skład populacji możemy określić prawdopodobieństwo, z jakim jednostka ta może się znaleźć w próbie. Wszystkie jednostki mają jednakowe prawdopodobieństwo znalezienia się w próbie
W przypadku doboru nielosowego natomiast nie ma możliwości określenia prawdopodobieństwa włączenia określonego elementu do próby i nie ma gwarancji, że każdy element może zostać włączony do próby z równym prawdopodobieństwem.
Próba kwotowa:
Podstawowym celem tworzenia próby kwotowej jest uzyskanie maksymalnego podobieństwa do populacji wyjściowej.
W doborze kwotowym dobiera się osoby badane ze względu na takie parametry jak: płeć, wiek, miejsce zamieszkania, pochodzenie etniczne, kierując się rozkładem tych zmiennych w populacji.
I tak np. jeśli wiadomo, że populacja składa się z równej liczby kobiet i mężczyzn, to należy wybrać do próby taką samą liczbę kobiet i mężczyzn.
LOSOWE SCHEMATY DOBORU PRÓBY
Ten dobór pozwala na określenie prawdopodobieństwa, z jakim każdy element populacji może zostać włączony do próby.
Losowanie systematyczne:
Polega na wybieraniu każdego K-tego elementu z populacji, począwszy od pierwszego elementu, który zostaje wybrany w sposób losowy.
I tak, jeżeli chcemy pobrać próbę składającą się ze 100 osób, pochodzącą z populacji składającej się z 10000 osób, to będziemy wybierać co setną osobę (K=N/n =10000/100=100).
Pierwszy element wybieramy w sposób losowy, na przykład korzystając z tablic losowych. Powiedzmy, że początek losowania ustaliliśmy od osoby czternastej. Do próby wejdą zatem osoby mające następujące numery: 14, 114, 214, 314, 414, itd.
Losowanie warstwowe:
Jest wygodna po to, by mieć pewność, że różne grupy składające się na populację są właściwie reprezentowane w próbie. Zwiększa to poziom dokładności przy oszacowywaniu wartości parametrów.
Istotą losowania warstwowego jest podzielenie populacji „na grupy w taki sposób, aby elementy należące do jednej grupy były do siebie bardziej podobne niż elementy należące do populacji jako całości.
Dokonując losowania z każdej grupy oddzielnie, otrzymujemy zbiór homogenicznych prób, które połączone razem tworzą próbę bardziej heterogenicznej populacji.
Warunkiem koniecznym przy dzieleniu populacji na homogeniczne warstwy jest to, że kryterium podziału musi pozostawać w związku z badanymi zmiennymi.
Losowanie grupowe:
Najczęściej stosowane w badaniach prowadzonych na dużą skalę, ponieważ jest to najmniej kosztowny schemat pobierania próby.
To losowanie polega na wcześniejszym określeniu dużych zbiorowości zwanych grupami i następnie losowaniu określonej liczby grup za pomocą losowania indywidualnego nieograniczonego lub losowania warstwowego.
PODSUMOWANIE METOD DOBORU LOSOWEGO
Prosta próba losowa: Każdej jednostce losowania przyporządkuj kolejne liczby; dokonaj losowania określonej liczby elementów, posługując się tablicą liczb losowych
Próba systematyczna: Ustal odstęp losowania (n/N); losowo wybierz początek losowania; wylosuj kolejne elementy, posługując się odstępem losowania
Próba warstwowa
Nachmias rozdz.11 Konstruowanie kwestionariusza
Pytania: dotyczą faktów, opinii, postaw, motywacji, stopnia znajomości zagadnienia
są 2 klasy pytań:
a) pyt. dotyczące faktów (pytania metryczkowe): tworzy się je by otrzymać obiektywne informacje uwzględniające jego pochodzenie, środowisko i nawyki itp.
-najpopularniejsze są pytania o dane demograficzne(płeć, wiek itd.), z których następnie tworzy się klasyfikacje, które mogą być wykorzystane do wyjaśniania różnic w postawach czy zachowaniach respondentów
-inne rodzje pyt. metryczkowych maja dostarczyć informacje o otoczeniu społecznym respondenta
4 przyczyny niedokładnych odpowiedzi: -nie posiadają informacji, - mogą sobie ich przypomnieć, - nie rozumieją pytania, - nie maja ochoty odpowiadać
Wówczas należy: zachęcać do konsultowania odpowiedzi z innymi członkami rodziny, zadawać więcej pytań na ten temat, powtarzać pytania, starać się aby respondent nie czuł się zażenowany i zakłopotany
b) pyt. dot. subiektywnych doświadczeń(dot. generalnych skłonności: wierzeń, postaw, uczuć i opinii respondenta):
-postawy to ogólne ukierunkowanie, które może sprawić że dana osoba, kiedy pojawią się określone bodźce zachowuje się lub reaguje w określony sposób
Osoby badane wyrażają swoje postawy poprzez mowę lub zachowanie jedynie wtedy, kiedy spostrzegają przedmiot postawy
Postawy można opisać poprzez ich treść( czego dot. postawa), kierunek(pozytywne, neutralne postawy w stosunku do przedmiotu lub tematu pytania), intensywność(większe lub mniejsze natężenie) , ( do ich mierzenie służą skale, od pięciu do wielu twierdzeń dot. postaw, z którymi respondent się zgadza lub nie)
Opinie są badane jeśli symbolizują jakieś postawy,(oszacowuje się jaki procent badanej populacji będzie się zgadzał z twierdzeniem dot. opinii
Rodzaje pytań:
zamknięte- zawierają zbiór odpowiedzi bardziej lub mniej rozbudowanych, ( ich wadą jest możliwość stronniczości przez zmuszanie do dokonania wyboru którejś z możliwości czy przez przedstawienie nietypowych alternatyw.
otwarte- brak konkretnych odpowiedzi, odpowiedzi są swobodne, spontaniczne i własnymi słowami w całości są zapisywane,
- w przypadku niejasnej odpowiedzi stosuje się technikę sondowania tzn. prosi się o dalsze wyjaśnienie, uzasadnienie,
-pyt. o. pozwalają na wyjaśnianie nieporozumień i znalezienie dobrego kontaktu z respondentem, wymagają one jednak specjalnego systemu kodowania aby móc je poklasyfikować co z kolei może spowodować zagubienie szczegółowych informacji
Paul Lazarsfeld stworzył zbiór kryteriów determinujących poprawność stosowania pyt. o. i z
1.cel kwestionariusza: pyt. z. dla uzyskania aprobaty lub dezaprobaty dla określonego punktu widzenia, pyt. o. dla uzyskania wiedzy jak respondent tworzy określony punkt widzenia
2.poziom wiedzy respondenta na temat problemu: pyt. o .pozwalają sprawdzić w jakim stopniu respondent jest nie doinformowany, pyt. z. na to nie pozwalają
3.stopień przemyślenia problemu przez badacza: pyt. o. gdy respondent nie ma jeszcze skrystalizowanej opinii, stosowanie wtedy pyt. z. stwarza ryzyko akceptacji, niezgodnej opinii
4. łatwość w komunikowaniu treść odpowiedzi, lub zakres motywacji do przedstawienia swojej opinii: pyt. z. wymagają mniejszej motywacji, a odp. mniej ujawnia, rzadsze są też odmowy odp., w pyt. o. badacz nie może być pewny, że respondent podał wszystkie istotne informacje bo np. nieumiejętnie wyraża własne myśli czy chwilowo się wahał
alternatywne to specjalny rodzaj pyt. z. dotyczą tylko wybranych grup respondentów,
-ich istotność dla określonej grupy jest określana przez wprowadzone wcześniej pyt. filtrujące
-format pyt. f. i a. jest różny: wskazówki po, obok odpowiedniej kategorii pyt. f. lub strzałki kierujące do następnego bądź alternatywnego pyt. lub ująć je w ramkę i umieścić je osobno
Format pytania:
podst. format to przedstawienie wszystkich możliwych odpowiedzi i sprawienie aby respondent wybrał właściwą dla niego kategorie (kółkiem, krzyżykiem itp.)
skalowanie: najczęściej stosowany jest format skali szacunkowej, stosuje się go gdy respondent ma wyrazić swój sąd, odwołując się do uporządkowanego zbioru kategorii,
-kategorie odpowiedzi na takie pyt. nazywa się kwantyfikatorami; odzwierciedlają one stopień intensywności każdej konkretnej oceny
-kod numeryczny przy każdej kategorii jest zwykle interpretowany w zależności od wielkości jako stopień aprobaty dla kategorii odpowiedzi, są to jednak skale porządkowe i nie pozwalają na odpowiedz „o ile jedna kat. jest wyższa lub niższa od innej
pyt. tabelaryczne(macierzowe): jest to metoda organizowania w całość dużego zbioru pyt. szacunkowych i posiadających te same kat. odpowiedzi
dyferencjał semantyczny: typ skali szacunkowej, który umożliwia pomiar reakcji respondenta na pewien obiekt lub pojęcie i polega na wskazaniu swojego wyboru na dwubiegunowej skali, opisanej na każdym końcu kontrastowymi przymiotnikami:
bardzo dosyć niewiele wcale niewiele dosyć bardzo
dobry zły
rangowanie: wykorzystuje się ją kiedy chce się uzyskać informacje o stopniu ważności czy pierwszeństwa, jaki ludzie przypisują zbiorowi postaw czy obiektów,
- r. pozwala ustalić relatywny porządek zbioru obiektów czy ocen, jest przydatne bo dostarcza informacje na temat relatywnego uporządkowania( nic o odległościach) a wielu własnościom w naukach społ. nie można przypisać dokładnej wartości liczbowej
Porządek pytań: 2 rodzaje schematów porządkowania pytań:
strategia lejka: każde pytanie jest powiązane z pytaniem poprzednim a jego zakres jest coraz mniejszy,
-początkowe pyt. o szerokim zakresie pozwalają na ujawnienie wielu różnych odpowiedzi
-jeżeli celem jest ujawnienie szczegółowych informacji i jeżeli respondent jest wystarczająco motywowany do udzielenia takich informacji, to strategia ta pozwala respondentom na skuteczniejsze ujawnianie szczegółów bez narzucania respondentowi żadnego kontekstu
strategia odwróconego lejka: pytanie wąsko sformułowane wyprzedza pytanie o szerokim zakresie
-jeżeli tematyka sondażu nie motywuje rdo wyrażania swoich opinii, ponieważ jest nieistotna z punktu widzenia respondentów lub nie mają oni aktualnych, określonych doświadczeń, to stosuje się wpierw pyt. o wąskim zakresie tematycznym, na które jest łatwiej odpowiedzieć i zostawić sobie pytania szersze(trudniejsze na koniec)
-jeżeli celem jest określenie sposobu generalizowania wniosków wynikających z oceny konkretnej sytuacji i jeżeli badacz nie zna faktów które zna respondent, to wąskie pyt. pozwalające ustalić pokreślone fakty powinny wyprzedzać pytania wymagające ogólnej oceny
Istotne dla wyboru jest również miejsce jakie zajmuje dana kategoria odpowiedzi, najczęściej wybierana są pierwsze kategorie. Problem ten pojawia się zwłaszcza w przypadku subiektywnych sądów, postaw i nie odgrywają znaczącej roli w życiu respondenta wówczas kat. pierwsza jest punktem odniesienia dla wszystkich pozostałych. Przezwyciężyć to można najpierw przedstawiając pełną listę kategorii lub losowo określić porządek prezentacji.
Pierwsze pyt. powinny zrelaksować respondenta być formą nawiązania kontaktu; być łatwe, interesujące, niekontrowersyjne.
Pyt. otwarte wymagają więcej czasu i zastanowienia dlatego powinny być później
Ograniczanie stronniczości; błędy w konstrukcji kwestionariusza:
słownictwo: każde pytanie ma być sformułowane tak aby respondent zrozumiał jego sens i aby miało taki sam sens dla wszystkich
schematyzacja(styl) odpowiadania: to tendencja do odpowiadania na wszystkie pytania w jednakowy sposób, bez względu na treść. Pojawia się to gdy zestaw pytań ma ten sam format odpowiedzi a szczególnie gdy pytania odnoszą się do jednego zagadnienia. Aby tego uniknąć należy zmieniać format odpowiedzi przez różnicowanie kategorii do każdego pytania lub rozrzucenie pytań tyczących jednego zagadnienia.
pytania sugerujace: są tak sformułowane, że respondent odczyta je jako wymagające określonej odpowiedzi,
-respondenci maja również tendencję do zgadzania się z twierdzeniami, które dotyczą akceptowanych powszechnie norm, czy z twierdzeniami, których treść jest społecznie pożądana a rzadziej aprobują tw. dot. społ. nie porządnych zachowań czy postaw. Także sposób wprowadzania i uwypuklania tematyki może w dużej mierze wpłynąć na stanowisko opinii publicznej w tej mierze. Jednak w pewnych okolicznościach pytanie sugerujące może pomóc zrealizować cel badań
pytania zagrażające: wg. Normana Bradburna i jego współpracowników „pytanie wywołujące lęk i dotyczące np. zachowań, które są traktowane jako nielegalne lub nie zgodne z normami, a także zachowanie, które choć nie są uważane z naganne, to są zachowaniami, o których nie da się publicznie dyskutować bez emocjonalnego napięcia” np. dot.: alkoholizmu, hazardu, preferencji seksualnych
-te pyt. prowadzą do stronniczości odpowiedzi- respondenci bowiem zaprzeczają zachowaniu, którego dot. pytanie lub je osłabiają, lub twierdzą, że nie angażują się w określoną działalność
-generalnie ze wzrostem zagrożenia w pyt. maleje chęć ujawniania zachowań z pytania
-wg. N.Brandburna i S.Sudmana najlepszą metodą określenia zagrożenia niesionego przez pyt. jest poproszenie respondentów o określenie tematyki jaka jest ich zdaniem kłopotliwa
dla większości ludzi, o opisanie swoich reakcji na dane pyt. lub o porangowanie tematów ze względu na stopień trudności, wg. B. i S. dokładność odpowiedzi znacznie wzrasta gdy pyt. towarzyszy rozbudowana instrukcja
pytania o podwójnej treści: łączą w sobie dwa lub więcej pytań(łącznikiem „i”), problem polega na tym, że mogą się one okazać kłopotliwe dla respondentów, którzy zgadzają się tylko z jedną częścią pytania.
List wprowadzający w ankiecie pocztowej i zdanie wprowadzające w wywiadzie osobistym czy telefonicznym (mniej szczegółowe)
-musi on skutecznie przezwyciężać opór respondenta czy jego uprzedzenia dot. sondażu czyli: a). identyfikować osobę sponsorującą badania lub osobę, która je przeprowadza
b).wyjaśniać cel badań
c).wyjaśniać powody, dla których respondent powinien udzielić odpowiedzi
d).przekonać respondenta, że wszystkie otrzymane od niego informacje pozostaną całkowicie poufne
-należy wybrać styl listu (formalny czy osobisty)
Instrukcja: powinna znaleźć się przy każdym pytaniu które nie jest czytelne, instrukcje mogą być proste lub złożone(wyjaśnienia), instrukcje dla ankietera są krótsze i zwięzłe, instruują co robić gdy respondent udzieli określonej odpowiedzi, kiedy sondować aby odp. były dokładniejsze jak wyjaśnić sens pyt.
Nachmias rozdz. 15
I. Rozkład częstości jednej zmiennej często nazywany jest rozkładem częstości. Aby skonstruować rozkład częstości należy sporządzić listę kategorii zmiennej i policzyć liczbę obserwacji wpadających do każdej zmiennej.
ROZKŁAD CZESTOSCI DLA ZMIENNYCH INTERWALOWYCH
Kiedy przedstawiamy zmienne interwałowe w postaci rozkładu częstości musimy najpierw podjąć decyzje dotyczącą liczby kategorii, które zastosujemy i określić ptk? Odcięcia miedzy nimi( chodzi o to, że zmienne interwałowe są zazwyczaj zmiennymi ciągłymi). Stosowane przedziały są zazwyczaj jednakowej szerokości.
ROZKŁAD PROCENTOWY
Pierwszym krokiem analizy jest przedstawienie danych w postaci rozkładu częstości dla jednej zmiennej.
Drugim krokiem jest zamiana częstości na miary, które maja znaczenie interpretacyjne. Takimi miarami mogą być procenty czy proporcje- odzwierciedlają one względna wagę określonej kategorii rozkładu. Procenty czy proporcje pozwalają na porównanie 2 lub więcej rozkładów częstości.
II. GRAFICZNA PREZENTACJA ROZKŁADÓW
1) wykres kołowy- obrazuje różnice pomiędzy częstościami czy procentami uzyskanymi dla zmiennych nominalnych i porządkowych, wyrażając je w postaci części koła. Można przedstawić tylko jeden wykres częstości. Poszczególne części, koła aby wyodrębnić należy zacieniować, albo zakreskować. Jeżeli chcemy zwrócić szczególnie na cos uwagę możemy tą część koła „wyciągnąć”
2) wykres słupkowy- do przedstawiania danych nominalnych i porządkowych. Można przedstawić więcej niż jeden wykres częstości.
3) Histogram- dla przedstawienia rozkładu dla zmiennej interwałowej i stosunkowej. Przypomina wykres słupkowy, ale bez przerw między kolejnymi prostokątami
III. MIARY TENDENCJI CENTRALNEJ.
Miary tendencji centralnej to są miary statystyczne odzwierciedlające typowe czy przeciętne charakterystyki rozkładu częstości (wykorzystuje się je zamiast rozkładu)
1) wartość modalna- to kategoria lub obserwacja, która w rozkładzie powtarza się najczęściej. Stosowana przeważnie do zmiennych nominalnych. Określa się ją znajdując kategorię, do której wpada największa liczba przypadków.
2) mediana- to miara, która dzieli rozkład na dwie równoliczne części. Da się ja obliczyć
dla danych porządkowych i wyższych
3) inne miary położenia- czasami warto znaleźć wartości, które dzielą rozkład nie, na 2, lecz na 3,4, lub 10 grup. W tym przypadku mediana to specyficzny przypadek ogólniejszego zbioru miar położeń nazwanych centylami
4) średnia arytmetyczna- jest to suma wszystkich obserwacji podzielona przez ich liczbę. Można ją stosować dla danych interwałowych.
Podsumowanie: wszystkie trzy miary tendencji centralnej można wykorzystać do opisania rozkładów jednozmiennowych.
IV. PODSTAWOWE MIARY ROZPROSZENIA
1)miara zróżnicowania jakościowego- wskaźnik ten odzwierciedla liczbę różnic pomiędzy kategoriami rozkładu, a jest oparty na liczbie kategorii i ich liczebności.
Obliczanie ogólnej liczby różnic- alby znaleźć ogólną liczbę różnic dla danego rozkładu należy policzyć i zsumować kolejne różnice pomiędzy dana kategorią a każdą pozostałą kategoria.
Obliczanie maksymalnej możliwej liczby różnic-(nie będę tutaj tego opisywać, bo to jest jeszcze głupsze niż pozostała reszta)
2)rozstęp i rozstęp ćwiartkowy
Rozstęp- jest miarą pomiędzy najwyższym a najniższym wynikiem w rozkładzie
Rozstęp ćwiartkowy- różnica pomiędzy dolnym i górnym kwantylem
V.MIARY ROZPROSZENIA OPARTE NA SREDNIEJ
1)Wariancja- średnia wartość podniesionych do kwadratu odchyleń wyników od średniej 2)odchylenie standardowe- jest równe pierwiastkowi z wariancji
3)Współczynnik zmienności
VI. RODZAJE ROZKŁADÓW ZMIENNOŚCI
1)rozkład symetryczny- częstości znajdujące się po prawej i po lewej stronie rozkładu są identyczne
2)rozkład niesymetryczny(skośny):
Lewostronny- rozkład, w którym przeważają skrajnie niskie wyniki
Prawostronny- rozkład, w którym przeważają skrajnie wysokie wyniki
Krzywa normalna - jedna z form rozkładu symetrycznego i charakteryzuje się tym, że:
Jest symetryczna i gładka
Jest modalna, mediana i średnia są położone dokładnie w środku rozkładu
Obejmuje nieskończoną liczbę przypadków
Związek pomiędzy liczebnościami a wartościami zmiennej jest wyrażony za pomocą jednego wzoru matematycznego