SOCJOLOGIA - zagadnienia, E. Babbie, „Podstawy badań społecznych”
„Radujcie się dnia tego i weselcie się.” (Mat. 5:1-12)
SPIS SIERŚCI
Wszelkie definicje pochodzą ze Słowniczka (str. 544-554). Strony podane przy zagadnieniach odnoszą się do cegły Babbiego. Przypominam, że ktoś udostępniał to w PDF, można sobie wtedy łatwo znaleźć i doczytać. Jak będziecie chcieli coś więcej, to pisać.
1. Paradygmaty nauk społecznych, str. 48-58
Paradygmat - model czy schemat służący do obserwacji i interpretacji. Kształtuje on zarówno nasze spostrzeżenia jak i to, jak je rozumiemy. Paradygmat konfliktu sprawia, że postrzegamy zachowania społeczne w jeden sposób, a paradygmat interakcjonistyczny - że w inny sposób.
Paradygmaty biorą się z tego, że każdy może inaczej wyjaśniać to samo. Babbie podaje przykład obywateli, którzy w czasie wojny używani są jako żywe tarcze. Oburza nas to, jednak historycznie rzecz biorąc był to przez wieki pogląd mniejszości, a w wielu krajach azjatyckich do dziś obywatel ma jedynie „pewne prawa”, które przeciwstawia się jednak prawom ogółu. Paradygmat to innymi słowy fundamentalny model czy układ odniesienia, którego używamy, by uporządkować nasze obserwacje i rozumowanie.
Paradygmat postmodernistyczny - realnie istnieje jedynie doświadczenie. Świat nie istnieje obiektywnie. Np. uważamy, że trzymana przez nas książka Babbiego istnieje, bo przynależy do naszego doświadczenia (trzymamy ją, widzimy, czytamy). Posługujemy się paradygmatem, w którym książka istnieje. Z kolei niektórzy z Was pewnie nie widzieli jej na oczy i nie mają pojęcia, co jest w środku.
Paradygmaty przyrodnicze - np. kopernikańska koncepcja poruszania się Ziemi wokół Słońca, teoria ewolucji Darwina, mechanika Newtona, teoria względności Einsteina itd. Sensowność nauki zależy od paradygmatu. Wg Thomasa Kuhna, który wymyślił to przyporządkowanie, nauka nie rozwija się stopniowo w czasie dzięki ważnym odkryciom i wynalazkom, ale dzięki temu, że ewolucję przechodzą paradygmaty. Rozważania oparte na obrocie Słońca wokół Ziemi były błędne, bo paradygmat był do bani.
Makroteoria i mikroteoria:
Makroteoria - teoria, której celem jest przedstawienie całościowego obrazu instytucji, społeczeństw czy relacji między zbiorowościami. Teoria „walki klas” Marksa jest przykładem makroteorii.
Mikroteoria - teoria mająca wyjaśnić zjawiska społeczne, zachodzące na poziomie jednostek i relacji między jednostkami. Teoria dotycząca różnic w zachowaniach zabawowych chłopców i dziewczynek byłaby mikroteorią.
Inne przykłady makroteorii: stosunki międzynarodowe, wzajemne relacje między głównymi instytucjami w społeczeństwie (władza, religia, rodzina), a nawet całe społeczeństwa. Przykłady mikroteorii: umawianie się na randki, stosunki student - wykładowca, obrady ławy przysięgłych.
Makroteoria i mikroteoria przecinają różne inne paradygmaty. Symboliczny interakcjonizm czy etnometodologię najlepiej rozpatrzać na poziomie mikro, a paradygmat konfliktu równie dobrze makro i mikro.
Wczesny pozytywizm - paradygmat ten rozpoczął się badaniami francuskiego filozofa Augusta Comte'a, który w 1822 ukuł pojęcie socjologia i tym „rozpoczął przygodę” - brzmi fascynująco. Comte oddzielił badania od religii i wprowadził naukowy obiektywizm. Jego filozofia zwana jest filozofią pozytywną. Postulowała III etapy rozwoju historii: I - teologiczny do ok. 1300 roku, II - ok. 500 lat po tym, od roku 1300 do 1800, kiedy to stadium metafizyczne zastąpiło Boga ideami filozoficznymi takimi jak natura i prawa naturalne. Comte myślał, że rozpoczyna III stadium. Uważał, że socjologia może być tak naukowa jak np. fizyka, postrzegana 5 zmysłami. Ten pogląd dał początek badaniom społecznym.
Paradygmat konfliktu - Marks w swym paradygmacie skupił się na walce klas między uciskanymi robotnikami a kapitalistami. Z kolei Georga Simmla intrygowały konflikty na małą skalę (odkrył np., że konflikty są intensywniejsze w grupach, których członkowie są bardziej zżyci ze sobą). Paradygmat często stosowany w walce klasowej, etnicznej czy płci, ale np. opisując stosunki wykładowcy i studentów też możemy go zastosować.
Symboliczny interakcjonizm - Simmel zajął się interakcjami pomiędzy jednostkami. Pisał o grupach dwu i trzyosobowych (driadach i triadach) oraz sieci wewnątrzgrupowych powiązań. Miał duży wpływ na innych socjologów - George'a Herberta Meada i Charlesa Hortona Cooleya. Cooley pisał o grupie pierwotnej, czyli bliskiej nam grupie, z którą dzielimy poczucie przynależności, np. rodzinie, przyjaciołach itd. Pisał też o jaźni odzwierciedlonej, którą kształtujemy patrząc na ludzi wokół nas. Jeśli wszyscy traktują nas jako urodziwych - sami siebie tak postrzegamy. Mead z kolei podkreślał wagę ludzkiej zdolności do przyjmowania postaw innych. Gdy dowiadujemy się jak inni postrzegają sprawy, rozwijamy poczucie tego, co Mead nazwał uogólnionym innym. Sądził, że większość interakcji obejmuje proces, w którym jednostki osiągają wzajemne porozumienie poprzez użycie języka innych podobnych systemów, stąd termin symboliczny interakcjonizm.
Etnometodologia - ludzie ciągle tworzą strukturę społeczną poprzez swoje działania i interakcje. Nawet jeśli istnieją reguły, nowe są cały czas tworzone. Np. spotykając się z wykładowcą przez Wasze zachowanie tworzycie reguły wzajemnej interakcji, choć istnieje już szereg innych reguł. Każda rozmowa z wykładowcą oddziałuje na Wasze przyszłe kontakty z nim. Etnometodologia to inaczej metodologia ludowa - każdy stara się badać społeczeństwo i zachowuje się jak socjolog. Dotyczy tego, jak każdy próbuje zrozumieć świat i jakie ma oczekiwania. Jedną z technik etnometodologów jest łamanie reguł. Np. kiedy student chce poznać warunki zaliczenia, a wykładowca cały czas gada o dupach, to sytuacja ta może ujawnić jakie student ma oczekiwania i priorytety (przerywa gadanie o dupach i dopytuje o warunki zaliczenia). Metodą badań może być też np. wsiadanie do windy i jechanie tyłem do innych, przodem do ściany, jedzenie obiadu palcami, oglądanie TV nie włączając odbiornika. Potem ważne jest obserwowanie reakcji innych na tego typu zachowania oraz tego, jak zachowania się zmieniają, jakie nowe zachowania są wypracowywane.
Funkcjonalizm strukturalny - inaczej teoria systemów społecznych. Postrzeganie społeczeństwa jako organizmu złożonego z różnych struktur. Comte wprowadził pojęcie bytu społecznego, czyli organizacji lub całego społeczeństwa postrzeganych jako organizm. Analogia do organizmu człowieka - nerki, wątroba i np. mózg pełnią różne funkcje i nie mogą funkcjonować osobno. Podobnie np. drużyna piłkarska, której pierwszy skład ma 11 piłkarzy, pełniących różne funkcje dla dobra całego zespołu; w orkiestrze są wiolonczeliści, harfista itd., z których każdy pełni inną rolę.
Paradygmaty feministyczne - nie tylko ujawniają problem niewłaściwego traktowania kobiet, czy zjawisko ucisku. Często wskazują ograniczenia w badaniu r rozumieniu innych aspektów życia społecznego. Dlatego perspektywę feministyczną często odnosi się np. do zagadnień ochrony środowiska. Większość opisów, przekonań, norm, stworzona jest przez ludzi reprezentujących tylko część społeczeństwa i tylko tej części dotyczy, co daje niepełny obraz. Np. analiza zachowania chłopców niewiele nam powie o dziewczętach.
Racjonalna obiektywność raz jeszcze
Warto przytoczyć eksperyment Ascha, gdzie grupie badanych pokazywało się zestaw linii: punktem odniesienia była linia X ---, a następnie proszono badanych o wskazanie takiej samej linii wśród linii A --, B --- i C ----. Jedna osoba - badany, odpowiadała, że taką samą długość mają linie X i B (tak jest w istocie). Jednak cała reszta „badanych”, która współpracowała z eksperymentatorem wskazywała jednoznacznie inną odpowiedź. Celem badań było stwierdzenie, czy nacisk opinii publicznej spowoduje, że zgodzimy się na niewłaściwą odpowiedź. Po powtórzeniu testu Asch odkrył, że więcej niż 1/3 badanych właśnie tak postąpiła.
Eksperyment Muzafera Sherifa. Grupa osób była zamknięta w całkowicie zaciemnionym pomieszczeniu, gdzie jedynym światłem był mały punkt na ścianie. Sherif wyjaśnił, że punkt ten będzie się przemieszczał, a badani mają określić o ile. Każda grup, mimo początkowo rozbieżnych stanowisk, wypracowywała jedno zdanie w tej kwestii. Było kilka grup i każda podała inną odległość, ale była to odpowiedź pewna, z którą wszyscy się zgadzali. W rzeczywistości punkt nie poruszał się wcale.
Podsumowując - nigdy nie będziemy w stanie odróżnić rzeczywistości od subiektywnego doświadczenia. Każdy ma inne doświadczenie, często inni wpływają na nasze postrzeganie, dlatego też nie ma jednego, ogólnego dla wszystkich postrzegania. Krytycy pozytywizmu zarzucają, że naukowcy zawsze są subiektywni i to zaburza wyniki badań.
Nasze szukanie obiektywności jest społeczne, chcemy uzgodnić, co nadaje się do jedzenia, jak zachowywać się wobec nieznajomych, przy stole itd. Są więc zalety wypracowywania takiej „obiektywnej rzeczywistości”.
Paradygmaty zawsze istnieją, jednak możliwe jest np. mierzenie uprzedzeń, niezależnie od tego, czy istnieją. Można bowiem badać ich naturę - wielu zgadza się, że istnieją i rozumie je podobnie. Po dokładnym zdefiniowaniu można je zmierzyć (czyli coś z Fleischera - musimy wynegocjować między sobą co znaczą uprzedzenia, albo (u)pierdolony stół)
2. Rozumowanie dedukcyjne i indukcyjne, str. 38-40, 61-72
W skrócie: dedukcja - od ogółu do szczegółu; indukcja - od szczegółu do ogółu
Dedukcja - model logicznego rozumowania, w którym oczekiwania i hipotezy wywodzone są z ogólnych twierdzeń. Wychodząc z założenia, że wszyscy dziekani to świnie, możesz sformułować przewidywanie, że twój nie zgodzi się, żebyś wprowadził zmiany do swojego programu studiów - przewidywanie to zostanie sformułowane na drodze dedukcji.
Indukcja - logiczny model rozumowania, w którym ogólne twierdzenia wywodzone są ze szczegółowych obserwacji. Np. z obserwacji, że żydzi i katolicy są skłonni do głosowania na demokratów bardziej niż protestanci, w drodze indukcji możemy wysnuć wniosek, że w USA mniejszości religijne identyfikują się raczej z partią demokratyczną.
Tradycyjny model dedukcji. Klasyczną ilustracją tej logiki jest sylogizm: „Wszyscy ludzie są śmiertelni. Sokrates jest człowiekiem, a zatem Sokrates jest śmiertelny”. Sylogizm ten przedstawia teorię i operacjonalizację. Aby go udowodnić należy przetestować śmiertelność Sokratesa.
Potem Babbie cytuje sam swoje badania z wielkim pietyzmem.
Dalej jest rysunek 2.3. dobrze ilustrujący metody dedukcyjne i indukcyjne (str. 65). Ktoś wrzucał Babbiego w PDF, polecam sobie to oblukać. W internecie niestety znalazłam same gorsze. Rysunek ten ilustruje, co się dzieje, jak najpierw formułujemy hipotezę, a potem robimy badania oraz co wynika jak działamy indukcyjnie (na przykładzie studentów uczących się do egzaminu ).
Budowa teorii dedukcyjnej:
Określ temat
Określ zakres zjawisk (do kogo się odnosi)
Zdefiniuj główne pojęcia, określ zmienne
Dowiedz się, co już stwierdzono
Rozumując logicznie, przejdź od tez do konkretnego tematu, który badasz
Przykład teorii dedukcyjnej: sprawiedliwość dystrybutywna - czy ludzie uważają, że życie traktuje ich sprawiedliwie i dostają to, co się im należy. Guillermina Jasso, autorka tej teorii, założyła, że ludzie patrząc na innych dokonują porównania ze sobą i na tej podstawie wyrabiają sobie ocenę sprawiedliwości (S). S jest więc sprawiedliwością dystrybutywną. A jej poczucie zależy od F - faktycznego posiadania dóbr i P - porównawczego posiadania dóbr. Np. jak jestem biedny, ale inni też są, to mi to zwisa. Jak ja jestem biedny, a inni bogaci - smutam.
Ta teoria doprowadziła Jasso do ciekawych wniosków (tego jest kilka kropek, wymienię 2 najciekawsze). To są właśnie jej wyniki rozumowania dedukcyjnego.
„Ludzie będą woleli ukraść coś członkowi swojej grupy niż osobie z zewnątrz”
Dzieje się tak, bo kradzież w ramach grupy zmniejsza ogólny stan posiadania grupy, ale zwiększa naszą względną zamożność, bo my dalej mamy tyle samo - ba, nawet więcej, bo ukradliśmy. Babbie pisze mniej więcej tak: „Jak obaj mamy 100 $ i ukradniesz 50 $ komuś z zewnątrz, to nasza zamożność utrzyma się w stosunku 150:100. Czyli masz 50% więcej. A jak ukradniesz mi 50 $, to zwiększysz względną zamożność o 200% (150:50).
„W przypadku kradzieży informatorzy pojawiają się tylko, gdy dotyka ona osób z innej grupy, oraz są oni członkami grupy złodzieja”
Ja i ty jesteśmy w tej samej grupie. Jak ukradniesz coś komuś innemu z naszej grupy, to twoja zamożność w grupie wzrosła, ale moja względna zamożność nie zmienia się, bo grupa „w puli” dalej ma tyle samo pieniędzy. Nic nie zyskuję donosząc na ciebie. Jeśli ukradniesz coś komuś spoza, dochód z twojej kradzieży zwiększy całkowitą zamożność w naszej grupie. A moja zamożność tą miarą porównawczą zmniejsza się. Jestem bardziej skłonny donieść na ciebie.
Przykład teorii indukcyjnej: dlaczego ludzie palą marihuanę? Badania terenowe są często stosowane, by rozwinąć teorię przez obserwację. David Takeuchi przeprowadził badania na uniwersytecie Hawajskim (gdzie Babbie swoją drogą spędził kawał życia) wśród tamtejszych studentów i nie potwierdził, że palą tylko wykolejeńcy. Osoby które paliły i nie paliły miały podobne wyniki na studiach, były podobnie zaangażowane w życie uczelni itd. Ale były różnice: kobiety, studenci z Azji i mieszkający w domu byli mniej skłonni do palenia zioła niż mężczyźni, nie-Azjaci i mieszkańcy akademików. Paliło 10% Azjatek mieszkających w domu i 80% nie-Azjatów mieszkających w akademikach. Badacze wyjaśnili, dlaczego niektórzy nie palą marihuany, ale na jedno wyszło. Rzadziej palili ci, którzy mieli społeczne ograniczenia (które źródła mają w kulturze, paradygmatach czy też zachowaniu rodziców).
3. Błędy w rozumowaniu na temat związków przyczynowych, str. 112, 120-122, 23
Opiszę w dużym skrócie wszystko, co jest w książce na temat błędów w badaniach. Zagadnienia nie pokrywają się w 100% z tym, co jest w książce i nie wiem, co dokładnie wykładowca miał na myśli. A na ostatnim wykładzie mówił, że w zasadzie wszystko, więc…
Błędne kryteria nomotetycznej przyczynowości
Nomotetyczny - tryb wyjaśniania, zmierzający do ustalenia kilku czynników o charakterze przyczynowym, które na ogół wpływają na pewną klasę zdarzeń lub stanów. Pomyśl o dwóch lub trzech czynnikach determinujących wybór uczelni przez studentów, takich jak odległość od miejsca zamieszkania, reputacja itd. Por. idiograficzny
Idiograficzny - tryb wyjaśniania, w którym dąży się do wyczerpującego przedstawienia specyficznych przyczyn konkretnego stanu lub zdarzenia. Wyobraź sobie, że starasz się wymienić wszystkie powody, dla których zdecydowałeś się studiować na tej a nie innej uczelni.
Ze względu na to, że pojęcia przyczyny i skutku są mocno zakorzenione w codziennym języku ważne jest, żebyśmy wiedzieli, co dokładnie mają a czego nie mają na myśli socjologowie mówiąc o związkach przyczynowych.
Pełna przyczynowość - wyjaśnienie idiograficzne jest relatywnie całościowe, natomiast nomotetyczne, opierające się na podobieństwie, jest zazwyczaj niekompletne. Np. Badacze mogą stwierdzić, że poglądy polityczne wpływają na poglądy o legalizacji marihuany, mimo że nie każdy liberał jest tego zwolennikiem, a konserwatysta przeciwnikiem. Poglądy polityczne są jedną z przyczyn, nie jedyną.
Przypadek wyjątkowy - wyjątki nie podważają prawdziwości związku. Płeć może być jedną z przyczyn religijności (kobiety w USA są ogólnie bardziej religijni niż mężczyźni), ale możliwe jest, że wujek Sam jest dewotem, a ciocia Berta ateistką.
Większość wypadków - związek może być prawdziwy nawet, jeśli nie odnosi się do większości przypadków. Np. dzieci pozostawiane bez opieki po zajęciach szkolnych częściej mają problemy z prawem. Zatem brak opieki jest przyczyną tych problemów. Nawet, jeśli niewielki procent dzieci bez opieki będzie miał w przyszłości problemy z prawem, relacja jest prawdziwa tak długo, jak długo prawdopodobieństwo wystąpienia kłopotów u dzieci bez opieki będzie wyższe niż u dzieci, które mają ją zapewnioną.
Błędne wnioskowanie o jednostkach analizy - błąd ekologiczny oraz redukcjonizm
Błąd ekologiczny rozumowania - błędne wyciąganie wniosków dotyczących jednostek jedynie na podstawie obserwacji grup.
Redukcjonizm - błąd niektórych badaczy polegający na ścisłym ograniczaniu (redukcji) rodzajów pojęć uznawanych za adekwatne do danego zjawiska.
Przykład błędu ekologicznego rozumowania - pewna kandydatka w wyborach samorządowych uzyskała największe poparcie w obwodach zamieszkiwanych przez względnie młodych wyborców. Kusiłoby wnioskowanie, że młodzi chętniej niż starsi głosują na kobiety. A to starsi wiekiem wyborcy zamieszkujący „młode” okręgi wyborcze mogli głosować na tę kandydatkę.
Przykład redukcjonizmu - jeśli potraktujemy jakąś drużynę NBA jako jednostkę analizy i zechcemy poznać jej skuteczność, przyczyny sukcesów i porównać z innymi drużynami, powinniśmy brać pod uwagę wiele czynników. Analizowanie liczby punktów, bloków czy zbiórek każdego zawodnika z osobna, jego ceny rynkowej, formy itd. nie jest głupie, ale przecież to nie wszystko. Skuteczność danej drużyny to także wpływ kibiców, hali, trenera, strategii, finansów itp. Przykładem redukcjonizmu jest też socjobiologia tłumacząca zachowania człowieka w kategoriach biologicznych.
Inne błędy w badaniach i jak ich uniknąć
Błędne obserwacje - nie może nam się wydawać. Może lepiej zrobić zdjęcie badanemu podmiotowi niż cofać się pamięcią?
Nieuprawnione uogólnianie - by do niego nie doszło trzeba mieć odpowiednio dużą i reprezentatywną grupę badanych. Innym sposobem jest replikacja, czyli powtarzanie badań.
Wybiórcza obserwacja - musi być odpowiednio duża i reprezentatywna grupa badanych, a dodatkowo badacze czasem zadają sobie trud znajdywania nietypowych przypadków, które odstają od reguły.
Nielogiczne rozumowanie - nie można wierzyć, że wyjątek potwierdza regułę. Istnieje także błąd hazardzisty - jak nam nie idzie, wydaje się, że zaraz musi być bardzo dobrze, bo zła passa nie może trwać wiecznie. Tak samo przedłużająca się dobra pogoda bezsensownie nas martwi, bo coś nam mówi, że w weekend będzie padać. Trzeba natomiast wnioskować logicznie.
4. Cztery etapy procesu badawczego, str. 131-133, 141-166
Szczerze mówiąc miałam problem z tym, co to są za cztery etapy, a oczywiście wykładowcy zapomniałam zapytać. Jest tu rozdział 5: „Konceptualizacja, operacjonalizacja i pomiar” - a to stanowi trzy etapy. Rozdział wcześniej są wymienione: konceptualizacja, operacjonalizacja, obserwacje, przetwarzanie danych i analiza. Podzielę to na cztery etapy: konceptualizację, operacjonalizację, obserwację / pomiar oraz analizę i przetwarzanie danych. Podział nie ma tu jednak tak dużego znaczenia. Jak sami zobaczycie dwie ostatnie części nie są opisane (istotne informacje będą zawarte potem lub w ogóle te treści nas nie obowiązują).
Konceptualizacja - proces myślowy, w którym nieostre, nieścisłe pojęcia (koncepty) są precyzowane i ściśle definiowane. Chciałbyś badać uprzedzenia, ale co to są uprzedzenia? Czy są różne rodzaje uprzedzeń? Jakie?
Operacjonalizacja - proces tworzenia definicji operacyjnych czy inaczej określania dokładnych procedur pomiaru wartości zmiennej.
I. Konceptualizacja
Badasz zależność między stosunkiem studentów do aborcji a kierunkiem studiów. Konceptualizacja w tym wypadku polegać będzie na określeniu, czym jest „aborcja”. Co to znaczy „prawo do aborcji” - ważne jest by to uściślić, bo studenci różnie będą odpowiadać na pytania dotyczące akceptacji aborcji w przypadku ciąży kazirodczej, a inaczej w przypadku osobistego wyboru takiej drogi przez ciężarną. Musisz ustalić, czy opierasz się na uniwersyteckim podziale kierunków, czy bierzesz pod uwagę plany studentów oraz osoby tych, którzy jeszcze nie wybrali specjalności.
Konceptualizacja nadaje jasne znaczenie pojęciu poprzez wyszczególnienie wskaźników i wymiarów tego, co mamy na myśli. Wskaźnik to znak obecności lub nieobecności badanego pojęcia. Wymiar to możliwy aspekt danego pojęcia.
Wskaźnik - wybrana obserwacja, którą traktujemy jako odzwierciedlenie zmiennej, którą chcemy badać. Np. udział w nabożeństwach możemy traktować jako wskaźnik religijności.
Wymiar - możliwy do wyszczególnienia aspekt pojęcia. Np. religijność może być specyfikowana ze względu na wymiar wiary, kultu, pobożności, wiedzy itd.
Wzajemna wymienialność wskaźników - jeśli wg ciebie wskaźnikiem współczucia będzie to, że człowiek współczujący nie wyrywa ptaszkom piórek, a ja się z tym nie zgodzę i wg mnie współczucie wyrażać się będzie pomocą zagubionemu na ulicy dziecku, możemy z tego wybrnąć. Jeśli nawet będziesz miał 50 wskaźników współczucia a ja 50 zupełnie innych, to możemy zbadać wszystkie 100. Moglibyśmy wtedy osiągnąć porozumienie np. co do tego, że kobiety są bardziej współczujące niż mężczyźni, gdyby generalnie we wszystkich 100 przypadkach okazały się bardziej współczujące. Wskaźniki wymienialne reprezentują w pewnym stopniu pojęcie i będą się wszystkie zachowywać tak, jak zachowywałoby się to pojęcie. Jeśli kobiety są bardziej współczujące niż mężczyźni, powinniśmy to zaobserwować przy użyciu jakiegokolwiek sensownego miernika współczucia. Jeśli kobiety są bardziej współczujące na podstawie twoich wskaźników, a moich nie, trzeba sprawdzić, czy nasze wskaźniki odpowiadają tym samym wymiarom współczucia.
Definicje realne, nominalne i operacyjne
Precyzyjne definicje są bardziej istotne w badaniach opisowych niż wyjaśniających. Stopień niezbędnej precyzji zależy od typu i celu badań.
Definicję „realną” definiuje dla nas Carl Hempel - „wg logiki klasycznej definicja „realna” nie jest wyrazem uzgodnienia znaczenia pewnego wyrażenia, lecz stwierdzeniem „zasadniczej natury” lub „cech istotnych” pewnego bytu. Pojęcie zasadniczej natury jest jednak tak niejasne, że określenie to staje się bezużyteczne dla celów rygorystycznego badania.” Innymi słowy, próba określenia „realnego” znaczenia pojęcia wiedzie nas na manowce - bierzemy konstrukt za zbyt rzeczywisty.
Definicja nominalna zostaje po prostu przypisana do danego terminu bez żadnych roszczeń co do tego, że jest ona odbiciem „realnego” bytu. Gdybyś chciał, mógłbyś zdefiniować współczucie jako wyrywanie piórek bezradnym ptaszkom. Z tym, że dla zdecydowanej większości celów, ta definicja byłaby bezużyteczna. Większość definicji nominalnych jest odbiciem jakiegoś konsensusu, konsekwencji co do sposobu użycia danego terminu.
Definicja operacyjna - precyzuje sposób pomiaru danego pojęcia, czyli działania - operacje, jakie mamy zamiar wykonać. Definicja operacyjna jest raczej nominalna niż realna, ale ma tę zaletę, że ma maksimum jasności co do znaczenia konkretnego pojęcia w konkretnych badaniach. A przemądry Słowniczek mówi o niej tak:
Definicja operacyjna - konkretna i szczegółowa definicja jakiegoś pojęcia, sformułowana w kategoriach działań (operacji), pozwalających na zaklasyfikowanie danej obserwacji. Definicją operacyjną „uzyskania z egzaminu oceny bardzo dobrej” może być udzielenie prawidłowych odpowiedzi na co najmniej 90% pytań.
II. Operacjonalizacja
Polega na stworzeniu konkretnych procedur badawczych, które pozwolą na dokonanie empirycznych obserwacji odpowiadającym pojęciom w świecie rzeczywistym.
Zakres zmienności - trzeba wiedzieć, jaki nas interesuje i do jakiego stopnia jesteśmy w stanie łączyć zmienne. Np. są tacy, którzy zarabiają miliardy $ rocznie i tacy, którzy nie mają nawet 2000 $. Jednak takie wyjątki nie stanowią większości populacji. Sensowne będzie ustalić progi dochodu na poziomie np. „100 000 $ i więcej”, kilka progów pomiędzy i „5000 $ lub mniej”. Jeśli nie zajmujemy się ludźmi bardzo biednymi lub bardzo bogatymi, to nie zaszkodzi to naszym badaniom.
Nie można jednak przesadzić w drugą stronę. Poparcie energii jądrowej lepiej zawrzeć w skali od bardzo mocnego poparcia, przez obojętność aż po bardzo duży sprzeciw, a nie w skali: tak, nie, nie wiem.
Podobnie trzeba określić do jak radykalnych mają się posunąć krańcowe elementy skali. Jest to inaczej zmienność między skrajnościami. Trzeba wiedzieć, czy istotne jest czy osoba ma 17, 18 lat czy wystarczy nam jak określimy początek skali ogólniejszym: 10-19 lat.
Uwaga na temat wymiarów - należy absolutnie wyjaśnić sobie, które wymiary są ważne dla naszych badań. Np. badając wymiary korupcji możesz zmierzyć, co ludzie czują, gdy myślą o korupcji, tymczasem naprawdę chciałeś się dowiedzieć jak oceniają jej zasięg.
Poziomy wymiaru - Istnieją cztery typy pomiaru, których Morawiecki nie kazał się uczyć: nominalny, porządkowy, interwałowy i ilorazowy. To zaiste ciekawe, ale jak nie trzeba, to nie będę tego rozwijać. Jak ktoś chce o tym koniecznie wiedzieć więcej… Nie ważne.
Kilka przykładów możliwych wyborów w procesie operacjonalizacji
Załóżmy, że chcesz zmierzyć czy kobiety są bardziej skłonne do współczucia niż mężczyźni. Możesz wybrać szereg dróg, by to zmierzyć. Przedstawione zostaną 3:
- zapytaj grupy badanych mężczyzn i kobiet w równym stosunku, co by zrobili, gdyby zobaczyli na ulicy rozbeczane dziecko bez opieki. Wszystkie odpowiedzi wskazujące na chęć pocieszenia czy pomocy uznaj za wskaźnik współczucia.
- zatrudnij dziecko, które rozryczy się na środku chodnika. Obserwuj czy częściej oferują mu pomoc kobiety czy mężczyźni. Upewnij się, że policzyłeś wszystkich przechodniów, bo żadna z płci nie może być liczniej reprezentowana w badaniu.
- w grupie badanych (w równym stosunku mężczyzn i kobiet) zapytaj, do jakich organizacji należą. Policz która płeć częściej należy do organizacji których celem statutowym jest pomoc bliźniemu. Policz odsetek organizacji związanych z realizacją współczucia w stosunku do wszystkich organizacji, do których osoba należy.
III. Obserwacja, czyli pomiar
No, to by było na tyle. (Kryteriami jakości pomiaru są rzetelność i trafność, ale o tym w punkcie 10).
IV. Analiza i przetwarzanie danych
Szerzej opisana jest w nieobowiązujących nas rozdziałach 13 i 14. Po Analizie następuje proces zastosowania badań w praktyce.
5. Badania przekrojowe i dynamiczne, badania jakościowe i ilościowe (miękkie i twarde metody), str. 40-41, 123-125
Badania jakościowe i ilościowe
Miękkie - jakościowe, twarde - ilościowe. Babbie w ogóle pojęć „twarde” i „miękkie” nie używa.
W praktyce rozróżnienie danych ilościowych i jakościowych to rozróżnienie danych liczbowych i nieliczbowych. Nazwanie kogoś debilem to dana jakościowa, a stwierdzenie, że ma 60 IQ - ilościowa. Każda obserwacja jest na początku jakościowa, gdyż natura żadnej rzeczy nie jest liczbowa, ale czasem jednak korzystnie jest ją nadać (kwantyfikacja danych).
Wiek wyrażany liczbą lat jest daną ilościową. Jednak dla niektórych wiek może być miarą doświadczenia, dojrzałości czy też tego, na ile się czuje. Moglibyśmy stworzyć kwantyfikację pojęcia „doświadczenie”: stworzyć listę doświadczeń, które składałyby się na to, co rozumiemy przez doświadczenie życiowe (małżeństwo, rozwód, śmierć rodzica, ucieczka z cyrkiem itd.). Wtedy proste byłoby skwantyfikowanie czyjegoś doświadczenia - bardziej doświadczeni są ci, których udziałem było więcej wydarzeń na liście.
Podejście jakościowe bardziej wydaje się związane z idiograficznym, a nomotetyczne jest łatwiej osiągane przez kwantyfikację, ale nie są to związki bezwarunkowe.
Pełne zrozumienie danego zagadnienia często wymaga zastosowania obu technik.
Badania przekrojowe
Badają próbę czy przekrój jakiejś populacji lub zjawiska, zebranych w jednym punkcie w czasie. Np. Amerykański Spis Powszechny jest takim badaniem.
Stosowane są często, wymagają generalnie mniejszych nakładów pieniędzy i czasu niż badania dynamiczne. Nie śledzą jednak one zmian w czasie i to stanowi ich główny problem.
Badania dynamiczne
Umożliwiają obserwację danego zjawiska przez dłuższy czas. Samo zbieranie i analiza danych może następować w jednym punkcie w czasie, (np. analizujemy trendy tytułów prasowych albo orzeczenia Sądu Najwyższego), ale dalej są to badania dynamiczne. Istnieją trzy typy badań dynamicznych:
Badania trendów - koncentrują się na zmianie w czasie wewnątrz jakiejś populacji. Np. Amerykański Spis Powszechny koncentruje pokazuje przesunięcia w składzie ludności USA na przestrzeni dziesiątek lat.
Badania kohort demograficznych - analizuje się zmiany zachodzące w poszczególnych subpopulacjach (kohortach demograficznych). Najczęściej kohorta to grupa wiekowa (np. urodzeni w latach 50.), ale może być też inna (biorący ślub w 1994 roku itd.). Bada się wtedy tę samą grupę wiekową czy też inną kohortę co pewien okres i obserwuje zachodzące zmiany. Chociaż konkretny zbiór ludzi badanych w każdym z badań byłby różny, każda próba reprezentowałaby tą samą kohortę demograficzną.
Badania panelowe - dotyczą za każdym razem tego samego zbioru ludzi. Możemy np. przeprowadzić wywiady z tą samą grupą wyborców każdego kolejnego miesiąca kampanii.
Badania zbliżone do dynamicznych - czasem korzystając z logicznego wnioskowania można wyciągnąć wnioski dotyczące procesów zachodzących w czasie. Potwierdzają to np. badania dot. zażywania narkotyków przez studentów. Wykazały one, że niektórzy próbowali marihuany i LSD, niektórzy tylko marihuany, a niektórzy żadnego. Dane były zbierane w jednym punkcie w czasie. Nie było takich, którzy próbowaliby LSD, a nie próbowali marihuany. Z tego badacze wywnioskowali, że palenie zioła jest wcześniejsze niż zażywanie LSD.
6. Typy korelacji zmiennych, samodzielne określanie zmiennych niezależnych i opisywanie zmiennej zależnej, str. 32-35
Zmienna - logicznie powiązane zestawy wartości (atrybutów), na przykład zmienna płeć składa się z wartości mężczyzna i kobieta.
Zmienna niezależna - zmienna, której wartości w analizie traktuje się jako dane i nie próbuje tłumaczyć. Zakłada się, że zmienne niezależne determinują wartości zmiennych zależnych lub wpływają na nie. Jeśli stwierdzimy, że religijność jest częściowo funkcją płci - ponieważ kobiety są bardziej religijne od mężczyzn - to zmienną niezależną jest płeć, a zmienną zależną religijność. Zauważmy, że zmienna traktowana jest jako niezależna, a w innej części analizy może stać się zależną, np. religijność może być zmienną niezależną tam, gdzie analizujemy poziom przestępczości.
Zmienna zależna - zmienna, co do której zakłada się, że jest powodowana przyczynowo lub uzależniona od innej zmiennej (niezależnej). Jeśli stwierdzisz, że dochód jest częściowo funkcją osiągniętego formalnie wykształcenia, dochód traktujesz jako zmienną zależną.
Zmienne jako logiczne pogrupowania wartości
Mężczyzna i kobieta to wartości, a płeć to utworzona z nich zmienna. Zmienna zawód to zbiór wartości takich jak: murarz, tynkarz, spadochroniarz, kowal, rzeźnik i betoniarz itd. Samodzielnego określania co jest zmienną zależną a co niezależną będziecie się musieli nauczyć.
Po każdym rozdziale Babbie przywołuje pytania i ćwiczenia. Do zmiennych jest takie:
„Znajdź problem społeczny, którym wg ciebie należy się zająć i który należy rozwiązać. Jakie zmienne występują w twoim opisie tego problemu? Którą z tych zmiennych obserwowałbyś, aby określić, czy problem został rozwiązany (na przykład procent kobiet zajmujących stanowiska prezesów korporacji)?”
7. Samodzielne dobieranie wskaźników i tworzenie indeksu (wraz z punktacją), str. 181-188
O wskaźnikach powiedzieliśmy już sobie trochę w przypadku konceptualizacji. Tam też podałam definicję wskaźnika. Zajmiemy się więc budową indeksu.
Indeks - rodzaj złożonego miernika, który syntetyzuje i porządkuje wyniki pewnej liczby szczegółowych obserwacji, jakiś ogólniejszy wymiar.
Budowa indeksu to przede wszystkim:
Dobór pytań
Badanie zależności empirycznych
Punktacja indeksu
Walidacja indeksu - o niej powiemy sobie więcej w zagadnieniu nr 8.
Dobór pytań
trafność fasadowa - inaczej logiczna. Kiedy chcesz badać np. konserwatyzm, każde z twoich pytań powinno wskazywać na konserwatyzm lub jego przeciwieństwo - liberalizm. Więcej o niej w zagadnieniu 11.
jednowymiarowość - założony miernik powinien odzwierciedlać tylko jeden wymiar pojęcia. Nie powinniśmy np. umieszczać pytań o religijności w mierniku konserwatyzmu politycznego, mimo możliwej empirycznej zależności między tymi zmiennymi. To nie są te same zmienne.
ogólnie czy szczegółowo - w zależności od tego, co chcemy mierzyć, musimy dobrać szczegółowość pytań
zmienność - jeśli badasz konserwatyzm, a jakieś pytanie nie klasyfikuje nikogo z respondentów jako konserwatysty - wywal je. Na nic ci się zda. Aby zapewnić odpowiedni poziom zróżnicowania możesz podzielić pytania na dwie grupy: takie, które sklasyfikują połowę badanych jako konserwatystów oraz takie, które sklasyfikują tylko kilku z nich. Ci drudzy będą bardziej skrajni. Można podzielić pytania na takie wskazujące na konserwatyzm i takie wskazujące na liberalizm, a otrzymane w ten sposób dwa indeksy porównać.
Badanie zależności empirycznych
zależności dwuzmiennowa - zależności między dwoma zmiennymi. Np. chcemy określić stopień poparcia respondenta do prawa kobiet do aborcji. Moglibyśmy zapytać: (1) „Czy sądzi Pan(i), że kobieta powinna mieć prawo do aborcji, jeśli ciąża jest wynikiem gwałtu?” i (2) „Czy uważa Pan(i), że kobieta powinna mieć prawo do aborcji, jeśli ciąża zagrażałaby poważnie jej zdrowiu?”. Niektórzy zgodziliby się z pytaniem (1) i nie zgodziliby się z pytaniem (2), inni zaś na odwrót. Jeśli jednak obydwa pytania dotyczą pewnej ogólnej opinii ludzi, to odpowiedzi na nie powinny być powiązane. Osoby popierające prawo do aborcji w przypadku gwałtu powinny częściej popierać je też w razie zagrożenia życia kobiety niż przeciwnicy aborcji w przypadku ciąży będącej wynikiem gwałtu. Opisana zależność jest dwuzmiennowa.
zależność wielozmiennowa - zależność między więcej niż dwoma zmienymi.
Punktacja indeksu
Poszczególnym odpowiedziom powinno się przypisać wartość punktową. Zazwyczaj każdemu pytaniu przyznaje się taką samą wagę, chyba że istnieją szczególne powody postąpienia inaczej. Gdy np. dwa pytania odzwierciedlają taki sam aspekt, a trzecie zupełnie inny to gdybyś chciał, by oba aspekty były w tym samym stopniu uwzględniane przez indeks, mógłbyś pytaniu odmiennego nadać wagę kombinacji dwóch poprzednich.
8. Walidacja wewnętrzna i zewnętrzna indeksu (umiejętności praktyczne), str. 192-194
Jeśli w. w. kroki zostały wykonane z należytą starannością, prawdopodobieństwo, że indeks istotnie mierzy daną zmienną jest duże. Walidacja to ocena trafności indeksu lub skali. Indeks konserwatyzmu politycznego porządkuje ludzi w kategoriach konserwatyzmu. Jeśli spełnia zadanie, ludzie ocenieni jako względnie konserwatywni za pomocą tego indeksu okazaliby się także względnie konserwatywni wg innych wskaźników orientacji politycznej, np. wg odpowiedzi na inne pytania kwestionariusza.
Są dwa sposoby walidacji indeksu:
analiza pytań, czyli walidacja wewnętrzna - badamy, w jakim zakresie indeks jest powiązany z poszczególnymi pytaniami w nim zawartymi (lub w jakim zakresie pozwala przewidywać odpowiedzi na nie udzielone). Każde z pytań musi odbijać tę samą cechę, którą mierzy indeks jako taki. Jeśli dane pytanie okazuje się słabo związane z indeksem, można przypuszczać, że inne pytania wchodzące w skład tego indeksu znoszą wkład tego pytania. Trzeba wywalić.
walidacja zewnętrzna
Walidacja zewnętrzna - proces testowania trafności narzędzia pomiarowego (na przykład indeksu lub skali) poprzez badanie jego związku z innymi domniemanymi wskaźnikami mierzonej zmiennej. Jeśli dany indeks rzeczywiście mierzy poziom np. uprzedzeń, powinien być skorelowany z innymi ich wskaźnikami.
Inny przykład: respondenci ocenieni jako najbardziej konserwatywni na podstawie indeksu powinni również okazać się najbardziej konserwatywni na podstawie odpowiedzi na inne pytania niezawarte w indeksie.
9. Rozróżnianie indeksów i skal, str. 179-181
W socjologii między tymi dwoma terminami często stawia się znak równości, ale Babbie uznaje za zasadne je rozróżnić.
Indeks tworzymy przez proste zsumowanie wyników przypisanych poszczególnym wskaźnikom. Moglibyśmy np. mierzyć uprzedzenia licząc twierdzenia świadczące o uprzedzeniach, uznawane przez danego respondenta. Definicja indeksu w zagadnieniu 7.
Skalę natomiast tworzymy przypisując określony wynik punktowy pewnym układom odpowiedzi, przy założeniu, że niektóre pytania świadczą o relatywnie niższym, inne zaś o wyższym poziomie danej zmiennej. Np. akceptacja twierdzenia „kobiety różnią się od mężczyzn” jest w najlepszym razie bardzo słabym dowodem seksizmu w porównaniu z akceptacją twierdzenia „kobiety nie powinny mieć praw wyborczych”. Skala wykorzystuje różnice w intensywności wartości tej samej zmiennej, aby odnaleźć wzorce odpowiedzi.
Skala - typ złożonej miary, której elementy tworzą logiczną lub empiryczną strukturę.
10. Typy skali i samodzielne tworzenie skal, str. 196-202
Skala dystansu społecznego Bogardusa
Czy zgodziłbyś się, aby przestępcy na tle seksualnym mieszkali w twoim kraju?
Czy zgodziłbyś się, aby przestępcy na tle seksualnym mieszkali w twojej miejscowości?
Czy zgodziłbyś się, aby przestępcy na tle seksualnym mieszkali w twojej dzielnicy?
Czy zgodziłbyś się, aby przestępca na tle seksualnym był twoim sąsiadem?
Czy zgodziłbyś się, aby twoje dziecko poślubiło przestępcę na tle seksualnym?
Zamiast przestępcy na tle seksualnym daje się kogokolwiek (wg prowadzonych badań).
Skala Thurstone'a
Skala Thurstone'a - typ złożonego narzędzia pomiarowego skonstruowanego na podstawie określonych przez „kompetentnych sędziów” wag przypisanych poszczególnym wskaźnikom zmiennych.
Każdemu respondentowi można wtedy przypisać pojedynczy wynik, który w sposób adekwatny odzwierciedlałby odpowiedzi na kilka pytań kwestionariusza.
Skala Likerta
Są w niej przewidziane odpowiedzi: „zdecydowanie się nie zgadzam”, „nie zgadzam się”, „jest mi to obojętne” czy też „nie mam zdania”, „zgadzam się”, „zdecydowanie się zgadzam”. A potem zadaje się np. 20 pytań i trzeba na każde z nich odpowiedzieć wg skali Likerta zaznaczając √ w odpowiedniej kratce. Jedno z 20 pytań mogłoby brzmieć: „kobiety są gorszymi kierowcami niż mężczyźni”, inne zaś: „kobiety nie powinny mieć praw wyborczych”. Technika skalowania Likerta ukazałaby różnice intensywności między tymi pytaniami, a zarazem ustaliła intensywność pozostałych 18 twierdzeń. W wyniku analizy pytań można przypisać respondentom wyniki punktowe składające się na skalę: np. 1,5 dla osób uważających kobiety za gorszych kierowców, 19,5 dla tych, którzy twierdzą, że kobiety nie powinny głosować, i odpowiednie liczby punktów dla innych odpowiedzi odzwierciedlające związek poszczególnych pytań z początkowym prostym indeksem. W praktyce skalę Likerta stosuje się dość rzadko, a jeżeli już to w kwestionariuszach, gdzie np. odpowiedzi „zdecydowanie się zgadzam” przypisane jest 5 punktów, a „zdecydowanie się nie zgadzam” 1 punkt. Jest więc ona uproszczona.
Dyferencjał semantyczny
Prosimy respondentów (podobnie jak w skali Likerta), by wybrali między dwiema przeciwstawnymi postawami. Np. badamy odbiór pewnego rodzaju muzyki. Najpierw wybieramy aspekty, np. nowoczesność, a potem dwa przeciwstawne bieguny tego aspektu - nowoczesny <-> tradycyjny; czy się podoba: podoba mi się <-> nie podoba mi się; harmonijność: harmonijny <-> nieharmonijny, itd. Do każdego pytania badany zakreśla odpowiedź w skali: „bardzo”, „raczej”, „obojętnie”, „raczej”, „bardzo” sytuując się w ten sposób między dwoma przeciwieństwami. W każdym wierszu arkusza powiązane odpowiedzi muszą być wymieszane tak, by nie stały jedna pod drugą - tzn. z lewej nie może być tylko „prosty”, „harmonijny”, „tradycyjny”, „spokojny”, tylko np. „prosty”, „nieharmonijny”, „tradycyjny”, „niespokojny”. Robi się tak dlatego, by zmusić respondenta do myślenia, by nie „poszedł na łatwiznę”.
Skala Guttmana
Zaczynamy od tradycyjnego tworzenia indeksu. Badania trafności fasadowej pytań po analizie potem szukanie zależności dwuzmiennowych i czasem wielozmiennowych. Jednocześnie poszukujemy „trudnych” i „łatwych” wskaźników badanej zmiennej.
Skala ta opiera się na założeniu, że kto wykazuje wysoki poziom danej zmiennej, wykaże też poziom niższy. Np. w przypadku poparcia prawa do aborcji moglibyśmy założyć, że każdy kto popiera prawo niezamężnych kobiet do aborcji, popierałby także aborcję w przypadku ciąży powstałej w wyniku gwałtu lub zagrażającej życiu matki.
Poniżej przerysowałam tabelę ze str. 200 ilustrującą typy skalarne i mieszane możliwe dla takiego badania, gdzie mierzy się poparcie prawa kobiety do aborcji na podstawie trzech opcji (w przypadku zagrożenia zdrowia kobiety, ciąży w wyniku gwałtu i przypadku, gdy kobieta jest niezamężna). Poparcie prawa kobiety do aborcji oznacza +, a nie poparcie -. Na stronie sąsiedniej jest tabela przedstawiająca jedną z możliwych punktacji indeksu i skali.
|
Zdrowie kobiety |
Gwałt |
Niezamężna |
L. przypadków |
Typy skalarne |
+ |
+ |
+ |
667 |
|
+ |
+ |
- |
607 |
|
+ |
- |
- |
165 |
|
- |
- |
- |
147 |
|
|
|
|
Ogółem: 1596 |
Typy mieszane |
- |
+ |
- |
42 |
|
+ |
- |
+ |
5 |
|
- |
- |
+ |
2 |
|
- |
+ |
+ |
4 |
|
|
|
|
Ogółem: 53 |
Widzimy, że liczba typów skalarnych znacznie przewyższa liczbę typów mieszanych. Gdyby typów mieszanych było dziwnie dużo, oznacza to, że coś jest nie tak z naszą skalą. Co to oznacza „dużo”? Dla każdego z 1649 (ważne - bierzemy pod uwagę wszystkich) respondentów w tych badaniach przewidzieliśmy trzy odpowiedzi, co daje w sumie 4947 przewidywań. Tabela wykazuje, że popełniliśmy 53 błędy. Odsetek poprawnych przewidywań nosi nazwę współczynnika odtwarzalności i jest to odsetek pierwotnych odpowiedzi, które możemy odtworzyć znając wyniki uzyskane w skali. W omawianym przykładzie współczynnik ten wynosi 4894/4947, czyli 98,9%.
Powszechnie przyjmuje się, że standard stanowią współczynniki od 90 do 95%.
11. Rzetelność i trafność pomiaru, napięcie między rzetelnością i trafnością, str. 167-172
rzetelny, ale nietrafny trafny, ale nierzetelny trafny i rzetelny
Rzetelność - właściwość metody pomiaru, polegająca na tym, że przy każdym powtórzeniu obserwacji tego samego zjawiska uzyskalibyśmy taki sam wynik. Np. w przypadku sondażu możemy się spodziewać, że pytanie „Czy był(a) Pan(i) w kościele w ostatnim tygodniu?” charakteryzowałoby się większą rzetelnością niż pytanie „Ile razy w życiu był(a) Pan(i) w kościele?”.
Trafność - cecha pomiaru, stwierdzająca, że narzędzie pomiarowe mierzy rzeczywiście to, co ma mierzyć. Np. wynik testu IQ może być trafniejszą miarą twojej inteligencji niż liczba godzin spędzonych w bibliotece. Ponieważ rzeczywistej trafności pomiaru nie da się ustalić, pozostaje nam umówić się na określenie względnej trafności na podstawie trafności fasadowej, kryterialnej, treściowej, teoretycznej, oraz walidacji wewnętrznej i zewnętrznej.
Trafność fasadowa - własność wskaźnika, powodująca, że jest on uznawany za odpowiedni do pomiaru jakiejś zmiennej. Częstotliwość udziału w nabożeństwach jest bez wątpienia jakimś wskaźnikiem religijności, a więc jako jej miara char. się trafnością fasadową.
Trafność kryterialna (predykcyjna) - stopień, w jakim dany miernik powiązany jest z pewnymi kryteriami zewnętrznymi. Np. trafność pomiaru dokonywanego przez komisję egzaminacyjną jest wykazywana przez późniejsze osiągnięcia przyjętych kandydatów.
Trafność teoretyczna - stopień, w jakim dany miernik powiązany jest z innymi zmiennymi, z którymi zgodnie z założeniami teorii powinien być powiązany.
Trafność treściowa - stopień, w jakim dany miernik uwzględnia wszystkie znaczenia zawarte w pojęciu określającym mierzone zjawisko.
Rzetelność łatwo jest wytłumaczyć na przykładzie wagi. Wchodząc na nią, a po chwili stając na niej ponownie, otrzymamy takie same wyniki. Są więc one precyzyjne, a zarazem rzetelne. Jednak nie wiadomo, czy są one trafne. Waga może być zepsuta lub przeskalowana i dodawać lub odejmować nam kilogramów. Nie musi więc być trafna. Jak położymy na niej np. ciężarek 20 kg i pokaże 20 kg, to zakładamy, że za jej pomocą otrzymamy trafny i rzetelny pomiar.
Aby tworzyć rzetelne mierniki można stosować różne techniki. Przede wszystkim zadawajmy ludziom pytania, na które znają odpowiedź (por. przykład w definicji rzetelności). Poza tym istnieje kilka sposobów:
metoda testu powtórzonego - przeprowadzenie tego samego pomiaru więcej niż raz. W pewnych badaniach dotyczących oceny zagrożenia zdrowia badacze zadali respondentom pytania z kwestionariusza, a po 3 miesiącach dali im ten sam kwestionariusz i okazało się, że tylko 15% osób udzieliło tych samych odpowiedzi. Prawie 10% badanych miało w drugim badaniu inny wzrost, wiek rodziców zmienił się u niemal co trzeciego badanego, inny koleś postarzał w ciągu tego czasu o 20 lat, a matka innego wyraźnie zmartwychwstała porównując odpowiedzi z pierwszego kwestionariusza i drugiego. Dzięki testowi powtórzonemu stwierdzono, że przyjęta metoda badań nie była rzetelna.
metoda połówkowa - jeśli w kwestionariuszu masz np. 10 pytań mierzących uprzedzenia, to mógłbyś losowo podzielić je na dwa pięcioelementowe zbiory. W rozważaniach dot. wzajemnej wymienialności wskaźników widzieliśmy, że każdy zbiór powinien być dobrym miernikiem uprzedzeń, a oba zbiory powinny prowadzić do takiej samej klasyfikacji respondenta.
stosowanie ustalonych mierników - czyli takich, których rzetelność została potwierdzona w innych badaniach, np. skala IQ.
rzetelność osób zatrudnionych przy realizacji badań - można sprawdzić rzetelność pracowników w różny sposób. Np. zlecić robienie tych samych analiz różnym koderom i porównać wyniki, albo zatrudnić kontrolera, który np. dzwoni do ankietowanych i pyta o to samo co ankieter.
Trafność wystarczająco dokładnie opisują powyższe definicje. Istotne jest ustalenie zakresu w jakim miernik empiryczny odnosi się do prawdziwego znaczenia danego pojęcia. Określenie różnych typów oceny trafności stały się konieczne, gdyż pojęcia nie mają prawdziwego znaczenia (por. stół Fleischera).
12. Probabilistyczny (losowy) i nieprobabilistyczny dobór próby (typy obu doborów, ich zalety i wady; operat populacji; interwały losowania; dobór warstwowy), str. 211-236
Dobór probabilistyczny (losowy) - ogólne określenie dla prób pobranych zgodnie z zasadami rachunku prawdopodobieństwa, z reguły przy użyciu jakiejś procedury losowania, na przykład dobór losowy prosty, EPSEM, PPS, dobór systematyczny.
Metoda równego prawdopodobieństwa wyboru (equal probability of selection method, EPSEM) - schemat doboru próby, w którym każdy element populacji ma jednakowe prawdopodobieństwo bycia wylosowanym.
Dobór proporcjonalny do wielkości (probability propotional to size, PPS) - rodzaj próby grupowej wielostopniowej, w której grupy nie są dobierane z równym prawdopodobieństwem, ale z prawdopodobieństwem proporcjonalnym do ich wielkości, mierzonej liczbą jednostek, jakie mają być dobrane w ich obrębie.
Dobór losowy prosty - typ losowego doboru próby, w którym elementom populacji przyporządkowuje się liczby, następnie generuje się zestaw liczb losowych i włącza się do próby te elementy populacji, które mają wylosowane numery. Chociaż rachunek prawdopodobieństwa i stosowane przezeń obliczenia zakładają użycie takiej próby, jest ona ze względów praktycznych rzadko stosowana. Takie same właściwości jak prosta próba losowa ma próba systematyczna (z losowo dobranym punktem startowym)
Dobór systematyczny - typ wyboru losowego, w którym do próby dobiera się co k-tą pozycję z listy - np. co dwudziestego studenta z listy danego wydziału. Wartość k (interwał losowania) wyznacza się, dzieląc wielkość populacji przez docelową wielkość próby. Z pewnymi zastrzeżeniami, próba systematyczna jest funkcjonalnie równorzędna próbie losowej prostej, a często łatwiej ją dobrać. Pierwszy element próby wyznaczany jest z reguły losowo.
Dobór probabilistyczny
Wszystkie duże sondaże korzystają z tej metody. Gdyby wszyscy członkowie jakiejś populacji byli identyczni, nie byłoby potrzebne stosowanie starannych, probabilistycznych doborów próby. W skrajnym przypadku jedna dowolna osoba wystarczyłaby jako próba populacji. Ale ludzie się różnią.
Gdy mówimy o obciążeniu próby, oznacza to, że wybrane przez nas osoby nie są typowe czy też reprezentatywne dla ogółu badanej populacji. Nie można po prostu wziąć pierwszych 100 studentów, gdy chcemy przeprowadzić ankietę na takiej próbie. Jest bardzo duże ryzyko obciążenia wyników. Np. na uczelni na 1000 osób jest 50 Afroamerykanów, ale nie dostaną się oni przez przypadek do naszej próby. Dlatego elementy populacji wykorzystane do badania, muszą być reprezentatywne.
Element - pojedynczy obiekt należący do populacji, będący przedmiotem losowania w procedurze doboru próby. Pojęcie to należy odróżnić od jednostki analizy danych (np. elementami są poszczególni ludzie, a jednostką analizy całe rodziny, małżeństwa itd.)
Populacja - określony teoretycznie zbiór obiektów będących przedmiotem badania.
Populacja badana - zbiór elementów, z którego faktycznie dobierana jest próba
Operat losowania - lista lub quasi-lista jednostek tworzących populację, z której losowana jest próba. Jeśli chcemy wylosować próbę reprezentatywną dla całej populacji, musimy zadbać o to, aby operat losowania zawierał wszystkie (lub prawie wszystkie) jej elementy.
Rozkład z prób i szacowanie błędu z próby - tu Was odeślę do wersji PDF. Na stronach 222-225 macie wyrysowane tabele z rozkładami z prób. Określenie błędu z próby to inaczej określenie wielkości błędu, oczekiwanej w doborze losowym. Chodzi o to, że reprezentatywność nigdy nie będzie stuprocentowa, ale możemy oszacować przedział wartości, w którym leży szacowany parametr (przedział ufności) i miarę prawdopodobieństwa, że ten parametr należy do tego przedziału (poziom ufności).
Wzór na błąd z próby (losowy):
Gdzie: P i Q równają się parametrom populacji (np. poparcie dla nowego programu studiów zgłosiło 60% studentów, a brak poparcia 40%, więc P i Q będą wynosiły 60% i 40% lub 0,6 i 0,4. Q = 1 - P, a P = 1 - Q); n to liczba przypadków w każdej próbie; s to błąd standardowy. Załóżmy, że 50% studentów zaakceptowało nowy program, a druga połowa nie. Losowaliśmy z próby 100 przypadków każda - było ileś tam prób po 100 osób, dla każdej z tych prób wyszedł jakiś wynik (np. 46% vs 54%, 50% vs 50%, 10% vs 90%, 40% vs 60 %, czego średnia wyniosła 50%). Gdy podstawimy te liczby do wzoru wyjdzie nam, że błąd standardowy wynosi 0,05, czyli 5%.
Zauważmy, że wartość ta osiąga maksimum w sytuacji równego podziału populacji.
Przedział ufności - przedział wartości, w którym leży szacowany parametr populacji. Przykładowo wyniki sondażu wskazują, że na kandydata A chce głosować 40% próby. Chociaż najlepszą estymacją wielkości poparcia wśród wszystkich wyborców również jest 40%, trudno się spodziewać, żeby było to dokładnie tyle. Możemy jednak wyznaczyć przedział ufności (np. 35-45%), w którym odsetek ten prawdopodobnie się mieści. Zauważ, że dla każdego przedziału ufności musimy także podać poziom ufności
Poziom ufności - miara prawdopodobieństwa, że parametr w populacji należy do wyznaczonego przedziału ufności. Tak więc możemy być na 95% pewni, że procent wyborców popierających kandydata A należy do przedziału 35-45%.
Dobór nieprobabilistyczny
Dobór nieprobabilistyczny - metody doboru próby z pomocą technik nieodwołujących się do zasad rachunku prawdopodobieństwa, np. dobór na podstawie dostępności badanych, dobór celowy (arbitralny), kwotowy, metoda kuli śnieżnej.
Dobór oparty na dostępności badanych - np. profesorowie socjologii często robią badania na grupie ćwiczeniowej swoich studentów
Dobór celowy (arbitralny) - można np. dobrać jak najróżniejszych respondentów do ankiety. Chociaż nie stworzyliby oni żadnej sensownej populacji, wyniki być może byłyby ciekawe. Inny przykład - badając np. przywódców studenckich ruchów protestu możemy się wiele dowiedzieć o całych ruchach itd.
Metoda kuli śnieżnej - dzwonimy do np. 5 osób, by wzięły udział w ankiecie, te 5 osób dzwoni do kolejnych 5 osób każda, potem te osoby do kolejnych 5 osób każda itd. Inną metodą jest pytanie do członków sekt czy grup religijnych itp. „kto cię tu wprowadził” - jedna osoba wskaże kilka osób, dzięki którym znalazła się w sekcie, te osoby kolejne kilka osób, aż (w założeniu) dotrze się do tych, który założyli grupę pierwotną. Można tez pytać członków jakiejś grupy, „czy potrafią wskazać kilku najbardziej wpływowych członków grupy?”, aż dojdzie się do tych najbardziej wpływowych. Zastosowań tej metody jest sporo.
Dobór kwotowy - oparty jest na macierzy lub tabeli opisującej cechy populacji. Np. wiemy, że w danej społeczności jest 20% białych mężczyzn z wyższym wykształceniem zamieszkujących miasta pow. 1 mln mieszkańców i 2% czarnych kobiet o wykształceniu podstawowym mieszkających na wsiach itd. Bierzemy pod uwagę wszystkie możliwe kombinacje tych cech, a potem dla każdego zbioru cech ustalamy udział procentowy w populacji. Potem naszym badanym przypisuje się wagę odpowiednią do ich udziału w całej populacji.
Wybór informatorów - informator jest członkiem jakiejś grupy i może wypowiadać się bezpośrednio o grupie jako takiej. Np. gdybyśmy chcieli zbadać nieformalne układy w lokalnym projekcie budownictwa komunalnego, warto byłoby znaleźć kogoś, kto się na tym zna i pomoże nam znaleźć odpowiednie informacje. Trzeba jednak uważać, bo już samo to, że informatorzy godzą się na współpracę, wskazuje na to, że będą oni nieco marginalni lub nietypowi w ramach swojej grupy i ta marginalność może zafałszować obraz rzeczywistości.
Dobór warstwowy - np. żeby otrzymać próbę warstwową studentów uniwersytetu, trzeba najpierw uporządkować tę populację wg lat, kierunków studiów, a wtedy w każdej z tych warstw wylosować odpowiednią liczbę studentów. W próbie niewarstwowej reprezentatywność ze względu na rok czy kierunek studiów będzie podlegać takiemu samemu błędowi z próby jak pozostałe zmienne. Można wyróżnić trzy etapy - podział na warstwy, dobór z próby i modyfikację próby (która czasem jest konieczna, jak np. okaże się, że musimy zredukować l. elementów).
Próba grupowa (gronowa, wiązowa) - wielostopniowa próba, w której pierwszym etapie losowane są pewne naturalne grupy (grona), w których następnie losuje się poszczególne obiekty. Np. najpierw losuje się próbę z listy wyższych uczelni, a potem z listy studentów każdej z wylosowanych szkół losuje się konkretne osoby.
13. Eksperyment: schemat klasyczny, eksperyment podwójnie ślepy, eksperymenty naturalne, str. 253-256, 269-271
Eksperyment klasyczny - składa się z trzech głównych par składowych: (1) zmiennych niezależnych i zależnych, (2) pretestu i posttestu, (3) grupy eksperymentalnej i kontrolnej.
Zmienne niezależne i zależne - na przykładzie dotyczącym uprzedzeń wobec Afroamerykanów: grupie badanych puszczono film o historii Murzynów, a potem mierzono ich uprzedzenia. Uprzedzenia są zmienną zależną, a zetknięcie z ich historią jest zmienną niezależną. Zarówno zmienną zależną jak i niezależną należy operacyjnie zdefiniować.
Pretest i posttest - w klasycznym przykładzie najpierw przeprowadza się pretest, dzięki któremu można dokonać pomiaru zmiennej zależnej. Następnie badani poddani zostają wpływowi bodźca, będącego zmienną niezależną. Na koniec w postteście mierzy się ponownie wartość zmiennej zależnej.
Grupa eksperymentalna i kontrolna - zastosowanie grupy kontrolnej pozwala badaczowi wykryć wszelki wpływ samego eksperymentu. Jeśli posttest wykaże, że ogólny poziom uprzedzeń charakteryzujący grupę kontrolną zmniejszył się w tym samym stopniu jak w grupie eksperymentalnej, to pozorna redukcja uprzedzeń musi być raczej funkcją samego eksperymentu lub jakichś czynników zewnętrznych, a nie samego filmu.
Czasem schemat eksperymentalny wymaga zastosowania więcej niż jednej grupy kontrolnej. Można jednej grupie kazać obejrzeć film o Afroamerykanach i przeczytać o nich książkę, inna grupa zobaczy tylko film, jeszcze inna książkę, a grupa kontrolna nic nie będzie robić. Można określić w takim schemacie wpływ każdego z bodźców osobno.
Eksperyment podwójnie ślepy
Eksperyment podwójnie ślepy - schemat eksperymentalny, w którym ani badani, ani eksperymentatorzy nie wiedzą, która grupa jest kontrolna, a która eksperymentalna.
Stosuje się taką metodę, gdyż stosunek eksperymentatorów też może zaważyć o wyniku badań. Np. mogą oni widzieć pozorną poprawę wśród pacjentów stosujący lek, a nie widzieć jej wcale u tych, którym podaje się placebo.
Eksperymenty „naturalne”
To już koniec ;)
Eksperyment poza otoczeniem kontrolowanym, dziejący się w trakcie normalnych wydarzeń społecznych. Czasem to natura projektuje i przeprowadza eksperymenty, które możemy analizować. Np. huragan nawiedził jakąś miejscowość i chcemy wiedzieć jakie skutki w przyszłym zachowaniu mieszkańców miała ta klęska żywiołowa. Badamy np., czy ci, którzy bardziej ucierpieli będą się starali bardziej zabezpieczyć na przyszłość, czy też wcale nie. Takiego eksperymentu sami nie moglibyśmy zaangażować, choćbyśmy chcieli. Minusem tej metody jest niemożliwość przeprowadzenia pretestu. Siły natury są nieprzewidywalne więc i badania muszą być siłą rzeczy okazjonalne.
Powodzenia na egzaminie!!!
19