Streszczenie babbie, studia, MEBS metody empirycznych badań społecznych


U podstaw wiedzy leży umowa. Większość naszej wiedzy zależy od wiary w to, co nam powiedziano. Pewne rzeczy wiemy dzięki tradycji, inne dzięki ekspertom. Istnieją też odmienne metody poznawcze-poznawać można dzięki bezpośredniemu doświadczeniu-poprzez obserwację. Gdy nasze doświadczenie przeczy temu, co wszyscy wiedzą, jest możliwe, że zrezygnujemy z własnego doświadczenia na rzecz umowy.

Działalność badawcza człowieka

Ludzie wykazują potrzebę przewidywania swojego przyszłego położenia. Ludzie wydają się predestynowani do tego, by podejmując się takiego zadania stosować rozumowanie przyczynowo-skutkowe. Powody:

-uznajemy, że przyszłe wydarzenia są uwarunkowane przez obecne

-ludzie uczą się, że takie przyczynowo skutkowe modele mają charakter probabilistyczny(skutki pojawiają się częściej, gdy pojawiają się przyczyny)

Źródła wiedzy z drugiej ręki:

1Tradycja-jeśli akceptujemy to, co wszyscy wiedzą, w naszym dążeniu do odkrycia prawidłowości nie musimy rozpoczynać wszystkiego od zera

2Autorytet-często akceptacja nowych dokonań zależy od statusu odkrywcy.

Błędy w badaniach:

1Błędne obserwacje-można się przed nimi ustrzec dzięki zarówno prostym jak skomplikowanym zleceniom dotyczącym pomiaru. Dzięki nim stopień precyzji jest dużo wyższy, niż pozwalają na nie wspomagane ludzkie zmysły.

2Nieuprawnione uogólnienie-założenie, że kilka podobnych zdarzeń stanowi dowód istnienia ogólnego wzorca. Zabezpieczenia: odpowiednio duża i reprezentacyjna próba; replikacja (powtarzanie badań)

3.Wybiórcza obserwacja-ignorowanie wydarzeń sytuacji nie pasujących do wzorca określonej prawidłowości i ogólnego wyjaśnienia jej przyczyn

4.Nielogiczne rozumowanie- np. wyjątek, który potwierdza regułę. Zabezpieczenia: stosowanie systemów logicznych w sposób świadomy i jednoznaczny.

3 ujęcia natury rzeczywistości:

1.Ującie premodernistyczne- założenie, że ludzie widzą rzeczy takimi jakie są one w rzeczywistości.

2.Ujęcie modernistyczne-filozoficzna wersja powiedzenia co kraj to obyczaj. Uznaje za uprawnioną różnorodność postrzegania rzeczywistości.

3.Ujęcie postmodernistyczne-rzeczywiste są tylko wyobrażenia, które uzyskujemy dzięki naszym punktom widzenia. Nic nie istnieje na zewnątrz, wszystko jest w środku. Nie ma obiektywnej rzeczywistości.

Podstawy nauk społecznych:

Rozumienie świata musi być sensowne i zgodne z obserwacją. Oba te elementy mają zasadnicze znaczenie dla nauki i odnoszą się do 3 głównych aspektów działalności nauk społecznych: teorii naukowych, gromadzenia danych i analizy danych.

1.Teorie zamiast filozofii czy wiary. Teoria społeczna zajmuje się tym co jest, a nie tym c ma być. Teoria naukowa nie może rozstrzygać sporów o wartości.

2Prawidłowości społeczne-do ich odkrycia zmierzają badania społeczne. W odniesieniu do prawidłowości społecznych stawiane są 3 zarzuty:

-niektóre mogą wydać się trywialne

-prawidłowości nie mają absolutnego charakteru-społeczne prawa to modele probablistyczne

-wpływ ludzi-zaobserwowane prawidłowości mogą być zakłócone dzięki świadomej woli aktorów

3.Zbiorowości zamiast jednostek. Prawidłowości życia społecznego odzwierciedlają zbiorowe zachowanie wielu jednostek. Celem jest wyjaśnienie, dlaczego zagregowane wzorce zachowań ujawniają taką regularność nawet, gdy uczestniczące w nich osoby mogą zmieniać się w czasie.

4.Język zmiennych-w tym języku formułuje się teorie

U podstaw rozmaitości orientacji badawczych leżą trzy szeroko rozumiane i wzajemnie powiązane rozróżnienia:

1.Wyjasnienia:

-idiograficzne-wyłącznie do konkretnego przypadku ograniczony jest zasięg naszego wyjaśnienia.

-nomotetyczny-szuka wyjaśnienia dla pewnej klasy zjawisk czy zdarzeń,w sposób ekonomiczny, używając jednego lub kilku czynników wyjaśniających.

2.Teoria:

-indukcyjna-przechodzi od tego co konkretne do tego co ogólne

-dedukcyjna-od tego co ogólne do tego co szczegółowe. Od wzorca, którego możemy oczekiwać z logicznego lub teoretycznego punktu widzenia do obserwacji ,która sprawdzi czy oczekiwany wzorzec rzeczywiści się pojawia.

3.Dane:

-jakościowe

-ilościowe .

1)Earl Babbie, rozdz. 5: Konceptualizacja, operacjonalizacja i pomiar.

Koncepcje to obrazy mentalne, których używamy jako syntetycznych sposobów gromadzenia obserwacji i doświadczeń, które mają ze sobą coś wspólnego. Odwołując się do tych koncepcji używamy pewnych terminów lub etykiet.

Pojęcia są konstruktami; odzwierciedlają one uzgodnione znaczenie przypisywane terminom. Nasze pojęcia nie istnieją w świecie rzeczywistym, tak więc nie jest możliwy ich bezpośredni pomiar. Możemy jednak mierzyć zjawiska, które one podsumowują.

KONCEPTUALIZACJA:

Jest to proces, w toku którego określamy, co mamy na myśli używając danego terminu w badaniach → powstaje szczególnie, uzgodnione dla celów badawczych znaczenie pojęcia.

Wymiary i wskaźniki:

Konceptualizacja nadaje jasne znaczenie pojęciu poprzez wyszczególnienie jednego lub większej liczby wskaźników tego, co mamy na myśli. Wskaźnik to znak obecności lub nieobecności badanego pojęcia. Każde pojęcie może mieć wiele wymiarów czyli możliwych do wyróżnienia aspektów /np. uczuciowy i behawioralny wymiar współczucia/. Pełna konceptualizacja wymaga zarówno określenia wymiarów jak i wskazania różnych

wskaźników dla każdego z nich. Wskaźniki są wzajemnie wymienialne.

Definicje realne, nominalne i operacyjne:

Def. realna stanowi wyraz reifikacji terminu, jest stwierdzeniem „zasadniczej natury” bytu; wiedzie nas zatem na manowce, gdyż uznaje konstrukt /np. współczucie/ za byt rzeczywisty.

Def. nominalna zostaje przypisana do danego terminu bez roszczenia co do tego, że stanowi odbicie :realnego” buty; jest arbitralna; jest to wyraz jakiegoś konsensusu, konwencji co do użycia jakiegoś terminu.

Def. operacyjna precyzuje sposób pomiaru danego pojęcia czyli operacje, jakie będziemy w tym celu wykonywać; jest raczej nominalna niż realna oraz daje maksimum jasności co do znaczenia danego terminu w konkretnych badaniach.

Tworzenie ładu pojęciowego:

Kolejne kroki pomiaru we w pełni strukturalizowanym badaniu socjologicznym: konceptualizacja →def. nominalna → def. operacyjna → pomiary w świecie rzeczywistym.

Pozostawienie konceptualizacji i operacjonalizacji nie musi prowadzić do chaosu pojęciowego. Często w ten sposób powstaje ład-stosujemy definicje standardowe, aby być zrozumianym przez innych. Kolejnym źródłem ładu jest fakt, że badacze przejmują jakąś konc. i oper. Danego pojęcia by przekonać się o jej użyteczności, co prowadzi do standaryzacji definicji pojęć, ich wielokrotnego poprawiania i testowania.

Wybory dokonywane w procesie operacjonalizacji:

Konceptualizacja polega na uściśleniu i udoskonaleniu abstrakcyjnych pojęć, operacjonalizacja na stworzeniu konkretnych procedur badawczych, które pozwolą na dokonanie empirycznych obserwacji odpowiadających tym pojęciom w świecie rzeczywistym.

Operacjonalizując jakieś pojęcie badacz musi zdawać sobie sprawę, jaki zakres zmienności go interesuje /np. zakres dochodu respondentów, lub od „popieram” przez „jest mi to obojętne” do „zupełnie nie popieram”/. Ważnym problemem jest także ustalenie stopnia precyzji zmienności między skrajnościami, co oczywiście wynika z celów badania.

Wartość zmiennej jest cechą czegoś /np. kobieta/, zmienne zaś to logiczne zbiory wartości. Tak więc płeć to zmienna złożona z dwóch wartości : kobieta i mężczyzna.

Każda zmienna musi mieć dwie istotne cechy: 1) składające się nań wartości muszą być wyczerpujące; 2) wartości muszą być wzajemnie rozłączne.

Poziomy pomiaru

1) nominalny: zmienne, których wartości są jedynie wzajemnie rozłączne i wyczerpujące, to mary nominalne, np. płeć, wyznanie, sympatie partyjne; są to jedynie zbiory nazw lub cech; o tych zmiennych możemy powiedzieć jedynie tyle, że są takie same bądź różne.

2) porządkowy: zmienne o wartościach, które możemy logicznie porządkować, to miary porządkowe. Różne wartości zmiennej odpowiadają względnie niższemu lub wyższemu poziomowi zmiennej; np. klasa społeczna, konserwatyzm, alienacja. Pozwala określić nie tylko, czy zmienne są takie same czy różne, ale rozwieź, czy któraś nich jest bardziej, odległości miedzy nimi nie mają znaczenia.

3) interwałowy: odległości logiczne miedzy wartościami mogą być wyrażone w postaci standardowych interwałów o określonym znaczeniu; punkt zerowy jest ustalany umownie; porównując dwie osoby możemy powiedzieć, ze są one „różne”, że jedna jest „bardziej” oraz „o ile jest bardziej”.

4) ilorazowy: wartości składające się na zmienna ilorazową posiadają wszystkie ww. właściwości, poza tym są oparte na bezwzględnym punkcie zerowym, np. wiek, czy liczba organizacji do których należymy . Pomiar ten pozwala nam dodatkowo ustalić jak jest stosunek ilościowy jednej zmiennej do drugiej.

Poszukiwany poziom pomiaru zależy od planowanych sposobów analitycznego wykorzystania danej zmiennej. Warto także pamiętać o jednokierunkowej drodze przekształcania zmiennych od zmiennych ilorazowych do nominalnych.

Kryteria jakości pomiaru.

Precyzja i poprawność:

-precyzja dotyczy subtelności rozróżnień odrębnych wartości zmiennej

-poprawność dotyczy prawdziwości informacji

Rzetelność:

- Polega na tym, ze dana technika, stosowana do tego samego przedmiotu, daje za każdym razem ten sam wynik

- Rzetelność nie zapewnia jednak poprawności wyniku

- Na rzetelność obserwacji wpływa nasze samopoczucie, interpretacja.

- Jak tworzyć rzetelne mierniki? Zadawaj wyłącznie pytania, na które respondenci znają prawdopodobnie odpowiedzi, pytaj o rzeczy, które ich dotyczą, jasno precyzuj, o co pytasz.

- Techniki krzyżowego badania rzetelności tworzonych mierników:

a) metoda testu powtórzonego: przeprowadzenie pomiaru jeszcze raz, jeśli odpowiedzi są różne, metoda nie jest rzetelna;

b) metoda połówkowa: np. w kwestionariuszu dzielimy pytania losowa na dwie połowy i testujemy je - każdy zbiór powinien stanowić dobry miernik i prowadzić do takiej samej klasyfikacji respondentów (gdyż wskaźniki są wymienne).

c) rzetelność osób zatrudnionych przy realizacji badań: ankieterów, koderów → można zatrudnić kontrolera, który rozmawia z respondentami z wybranej podpróby i weryfikuje w ten sposób informacje.; można powtórzyć badania.

Trafność:

- Odnosi się do zakresu, w jakim miernik empiryczny adekwatnie odzwierciedla prawdziwe znaczenie danego pojęcia.

- Trafność fasadowa - konkretny miernik może się zgadzać lub nie z naszymi uzgodnieniami i indywidualnymi obrazami mentalnymi dotyczącymi danego pojęcia.

- Trafność kryterialna - /predykcyjna/- opiera się na jakimś kryterium zew. /np. trafność egzaminów na studia przejawia się w możliwości przewidywania na tej podstawie przyszłych sukcesów studenta./

- Trafność teoretyczna - opiera się na logicznych powiązaniach między zmiennymi.

- trafność treściowa - oznacza zakres, w jakim miernik obejmuje skalę znaczeń zawartych w pojęciu. / test umiejętności matematycznych nie Mozę odnosić się tylko do dodawania, ale i odejmowania, mnożenia etc./

2)Earl Babbie rozdz. 6 „Indeksy, skale, typologie”

Indeksy i skale służą do mierzenia złożonych zmiennych, dla których nie ma jasnych pojedynczych wskaźników. Są one także wydajnymi narzędziami analizy danych.

Indeksy a skale:

- są porządkowymi miernikami zmiennych

- porządkują jednostki analizy w kategoriach konkretnych zmiennych

- Indeks tworzymy przez proste zsumowanie wyników przypisanych poszczególnym wartościom

- Skalę tworzymy przypisując określony wynik punktowy pewnym układom odpowiedzi przy założeniu, że niektóre pytania świadczą o relatywnie niższym, inne zaś o wyższym poziomie danej zmiennej; skala wykorzystuje różnice intensywności wartości tej samej zmiennej, by odnaleźć różne wzorce odpowiedzi.

- Skale mają tę wyższość nad indeksami, że uwzględniają intensywność obrazowania danej zmiennej przez różne pytania.

- Błędy w wyobrażeniu na temat skal: 1) to czy kombinacja kilku pytań okaże się skalą, niemal zawsze zależy od konkretnej próby; 2) użycie konkretnych technik skalowania nie daje gwarancji stworzenia skali.

Budowa indeksu:

Dobór pytań składających się na złożony indeks, który tworzymy w celu pomiaru jakiejś zmiennej:

- pierwszym kryterium wyboru pytań jest trafność fasadowa (lub logiczna)

- indeksy muszą być jednowymiarowe- złożony miernik powinien odzwierciedlać tylko jeden wymiar danego pojęcia

- charakter dobranych pytań zadecyduje o tym, jak ogólnie czy szczegółowo dana zmienna będzie mierzona

- zwróć uwagę na obejmowany zakres zmienności.

Badanie zależności empirycznych między pytaniami wchodzącymi potencjalnie w jego skład:

- zależność empiryczna polega na tym, że odpowiedzi respondenta na jedno pytanie pozwala nam przewidzieć jego odpowiedź na inne pytania; jeśli dwa pytania są ze sobą związane, możemy zakładać, że wskazują one te samą zmienną i możemy włączyć obie do jednego indeksu.

a) zależności dwuzmiennowe: powinieneś zbadać wszystkie możliwe zależności dwuzmiennowe między pytaniami mającymi ewentualnie wchodzić w skład indeksu - pozwala to określić względną siłę związków między poszczególnymi parami pytań;

b) zależności wielozmiennowe między pytaniami: badanie zależności wielozmiennowych pozwala na wyeliminowanie bezwartościowych danych; pozwala określić całkowitą moc pomiaru poszukiwanej zmiennej przez dany zbiór pytań, wykrycie jednoczesnych wzajemnych oddziaływań miedzy pytaniami, aby określić, które z nich powinny się znaleźć w jednym indeksie.

Punktacja indeksu:

Jeśli wybrałeś już pytania, powinieneś teraz przypisać poszczególnym odpowiedziom wartości punktowe, tworząc w ten sposób jeden złożony miernik z kilku pytań: musisz określić pożądany zakres punktacji indeksu, określić punkty skrajne; musisz przypisać wartości punktowe poszczególnym odpowiedziom, zdecydować, czy przyznajesz poszczególnym odpowiedziom taką samą wagę.

Braki danych:

- jeśli występują w niewielu przypadkach, można wyłączyć je z budowy indeksu i z analizy;

- można potraktować braki danych jako jedną z dostępnych kategorii odpowiedzi;

- uważna analiza braków danych może pozwolić na interpretację ich znaczenia.

Walidacja indeksu /ocena trafności/: sposoby:

a) analiza pytań: badamy, w jakim zakresie indeks jest powiązany z poszczególnymi pytaniami w nim zawartymi lub w jakim zakresie pozwala przewidywać odpowiedzi na nie udzielone.

b) walidacja zewnętrzna: osoby ocenione wg jednych pytań np. jako konserwatywne, powinny wg innych pytań zostać ocenione tak samo.

Budowa skali:

Skala zapewnia większy stopień pewności uszeregowania dzięki uwzględnieniu intensywności pytań. Istnieje wiele metod skalowania, omówimy 4 z nich:

1) Skala dystansu społecznego Bogardusa:

  1. Czy zgodziłbyś się, aby Albańczycy mieszkali w twoim kraju?

  2. Czy zgodziłbyś się, aby Albańczycy mieszkali w twojej miejscowości?

  3. Czy zgodziłbyś się, aby Albańczycy mieszkali w twojej dzielnicy?

  4. Czy zgodziłbyś się, aby Albańczyk był Twoim sąsiadem?

  5. Czy zgodziłbyś się, aby twoje dziecko poślubiło Albańczyka/Albankę?

Skala ta służy do pomiaru skłonności ludzi do uczestniczenia w - zróżnicowanym co do stopnia bliskości - stosunkach społecznych z innymi grupami ludzi. Ukazuje oszczędność skalowania jako narzędzia redukcji danych, wiemy, iż np. jeśli ktoś zaakceptuje Albańczyka jako sąsiada, zaakceptuje go też jako mieszkańca swojego kraju.

2) Skala Thurstone'a:

- stanowi próbę opracowania formatu grupowania wskaźników zmiennej, które powiązane są przynajmniej w strukturę empiryczną; grupa sędziów otrzymuje np.. setki pytań, które uznawane są za wskaźniki danej zmiennej, każdy sędzia na następnie ocenić, jak mocnym wskaźnikiem zmiennej jest każde pytanie, przypisując im wartość punktową; potem badacz analizuje oceny przyznane pytaniom, by ustalić, co do których pytań byli oni najbardziej zgodni i te pytania zostają przyjęte przez badacza.

- staranie opracowana w ten sposób skala odpowiada pod względem oszczędności i efektywności skali Bogardusa.

- każdemu respondentowi można przypisać pojedynczy wynik ( moc najtrudniejszego stwierdzenia, z którym zgodził się respondent), który w sposób adekwatny odzwierciedlałby odpowiedzi na kilka pytań kwestionariusza.

3) Skala Likerta:

- zawiera kategorie w rodzaju: „zdecydowanie się nie zgadzam”, nie zgadzam się”, „zgadzam się”, „zdecydowanie się zgadzam”.

- szczególna przydatność tego formatu zasadza się na jednoznacznym uporządkowaniu kategorii odpowiedzi;

- metoda ta jednak pozwala na określenie względnej intensywności pytań: chcemy zmierzyć uprzedzenia wobec kobiet → tworzymy zestaw 20 stwierdzeń, np. „kobiety są gorszymi kierowcami niż mężczyźni”, czy „kobiety nie powinny mieć praw wyborczych” - technika skalowania Likerta ukazałaby różnice intensywności między tymi pytaniami, a zarazem ustaliłaby intensywność pozostałych 18 twierdzeń → przyznanie każdemu ze wskaźników uprzedzeń względem kobiet jednego punktu dałoby nam indeks z zakresem wyników od 0 do 20. Skala Likerta ponadto odlicza przeciętne wyniki uzyskane za pomocą indeksu dla osób zgadzających się z poszczególnymi zdaniami… ( tak naprawdę nie ma tu tłumaczenia jak to się robi…)

- obecnie skala nie jest zbyt często wykorzystywana, natomiast format pytań jest jednym z najpowszechniej używanych w kwestionariuszach.

4) Dyferencjał semantyczny:

- prosimy respondentów, aby wybrali miedzy dwiema przeciwnymi postawami, stosując przy tym wyrażenia określające stopień intensywności postawy między przeciwieństwami. /np. „podoba mi się”, „nie podoba mi się”/

5) Skala Guttmana:

- budowa tej skali zaczyna się od tych samych kroków co budowa indeksu;

- skala ta opiera się założeniu, że kto wskazuje wysoki poziom danej zmiennej, wskaże też poziom niski /np. kto popiera prawo niezamężnych kobiet do aborcji, popierałby także aborcję w przypadku ciąży powstałej w wyniku gwałtu lub zagrażającej życiu matki/.

- to w jakim stopniu zbiór danych empirycznych układa się w skalę Guttmana, zależy od stopnia poprawności, z jaką pierwotne odpowiedzi dają się odtworzyć na podstawie wyników uzyskanych w skali.

Typologie:

- zbiór kategorii lub typów

- to nominalny miernik złożony stosowany często w badaniach społ.;

- mogą być skutecznie stosowane jako zmienne niezależne, lecz wykorzystywanie ich jako zmiennych zależnych powoduje trudności interpretacyjne.

W każdym schemacie badań należy stanąć przed dwoma zadaniami.

1.Należy określić tak dokładnie o ile to tylko możliwe co chce się badać

2.Określić w jaki sposób należy to zrobić

a)EKSPLORACJA

b)OPIS

c)WYJAŚNIANIE

Ad a)

Takie podejście zdarza się najczęściej, gdy badacz wchodzi w nową dla siebie dziedzinę zainteresowań lub gdy przedmiot badań sam w sobie jest stosunkowo nowy. Niekiedy po badaniach eksploracyjnych kontynuuje się badania metodą grup fokusowych (moderowanych dyskusji w małych grupach).

Cele badań eksploracyjnych:

1.zaspokajanie ciekawości badacza i jego pragnienia lepszego zrozumienia przedmiotu

2.zbadanie możliwości podjęcia szerszych badań

3.wypracowanie metod, które zostaną użyte w dalszych badaniach

Przykład: Badania eksploracyjne dotyczące osób podających się za „medium”- czytanie książek oraz artykułów, rozmawianie z ludźmi, którzy brali udział w seansach, uczestnictwo w seansach, wywiady z osobami, które podawały się za „medium”

Badacz wyszedł od teorii dedukcyjnych, przed przystąpieniem do badań miał przygotowane jedynie kluczowe zmienne.

Ad b)

Badacz obserwuje a następnie opisuje to co zaobserwował, opis jest z reguły dużo trafniejszy i dokładniejszy niż zwykły opis

Przykład: Spis ludności USA- opis obszernego zestawu różnych cech ludności

Opis był pierwotnym celem wielu badań jakościowych, ale badacze na ogół nie ograniczają się tylko do opisu, interesuje ich dalsze wyjaśnianie dlaczego istnieją zaobserwowane prawidłowości i jakie są ich konsekwencje.

Ad c)

Badanie wyjaśniające odpowiada na pytanie dlaczego jakieś zjawisko zaszło.

Przykład: Odnotowanie częstości chodzenia do kościoła jest opisem, odnotowanie dlaczego jedni chodzą a drudzy nie jest już wyjaśnianiem.

Większość badań zawiera elementy wszystkich trzech celów

W naukowych badaniach społecznych nie istnieją prawie żadne bariery dotyczące tego, co ma być poddane badaniu. Ważne jest jednak rozróżnienie jednostek analizy od zbiorowości.

Badacze społeczni najczęściej wybierają jako jednostki analizy pojedynczych ludzi , mogąc odnotować ich cechy- płeć, wiek, miejsce urodzenia, postawy itd. Następnie łączą opisy, tworząc obraz grupy, którą jednostki reprezentują.

Przykład: Zapisanie wieku i płci każdego studenta na wybranym wykładzie, a później przedstawienie opisu grupy- o jakiejś średniej wieku, składającej się z jakiegoś procentu kobiet i mężczyzn.

Jednostkami analizy są te przedmioty, które badamy, aby stworzyć ich syntetyczny opis oraz wyjaśnić różnice między nimi.

JEDNOSTKI INDYWIDUALNE

Są to najbardziej typowe jednostki analizy. Badania zajmują się określonymi typami jednostek lub ich klasami, np. studenci, homoseksualiści, lesbijki. Później agregowane są indywidualne jednostki i formułowane są uogólnienia na temat populacji, do której należą.

GRUPY

Możemy być także zainteresowani cechami należącymi do grup, traktowanych jako pojedynczy byt. Można także wnioskować o cechach grup społecznych na podstawie cech ich członków (opisanie grupy pod względem wieku, rasy, wykształcenia). Termin gangi uliczne oznacza populację, która składa się ze wszystkich gangów w danym mieście. Można opisać populację uogólniając wyniki pojedynczych gangów.

ORGANIZACJE

Jednostki analizy- formalne organizacje społeczne, np. badanie pojedynczego przedsiębiorstwa chcą uzyskać odpowiedzi o populacji przedsiębiorstw. Pojedyncze przedsiębiorstwo może być scharakteryzowane pod kątem liczby pracowników, rocznego zysku itd.

WYTWORY SPOŁECZNE

Inaczej wszelkie wytwory istot społecznych lub ich zachowań, np. książki, wiersze, samochody, nieobecności na egzaminach, interakcje społeczne. Pojedyncza książka ma swoja wagę, długość, cenę itd. Badając pojedyncze książki możemy uogólniać na całą populację książek. Interakcje społeczne, które mogą zostać jednostkami analizy to: przyjaźnie, sprawy sądowe, wypadki drogowe, porwania samolotów.

-Moris Rosenberg mówi o indywidualnych, grupowych, organizacyjnych, instytucjonalnych, przestrzennych, kulturowych społecznych jednostkach analizy.

-John i Lyn Loflandowie wskazują na działania zwyczajowe i epizody, spotkania, role, związki, grupy, organizacje, miejsca zamieszkania, światy społeczne, style życia oraz subkultury- jako stosowne jednostki badania.

BŁĘDNE WNIOSKOWANIE O JEDNOSTKACH ANALIZY :

Błąd ekologiczny:

„ekologiczny”- odnosi się do czegoś większego niż jednostki- grupy, zbiory.

BŁĄD EKOLOGICZNY ROZUMOWANIA- jest to założenie, że to, czego dowiadujemy się o jednostce zbiorowej mówi nam coś także o pojedynczych elementach, elementach których ona się składa. Np. badanie okręgów wyborczych jako jednostek analizy, ale wyciąganie wniosków na temat wyborców.

Możemy zbierać obserwacje mniej więcej w tym samym czasie lub rozłożyć je w czasie.

Składają się z obserwacji próby czy przekroju jakiejś populacji lub zjawiska, zebranych w jednym punkcie w czasie, np. spis powszechny przedstawia populację w danym czasie.

Wada badań przekrojowych: wnioski z tych badań bazują na badaniach przeprowadzonych w jednym czasie, ale ich celem jest wyjaśnianie procesów przyczynowych, zachodzących w czasie- problem uogólnień życia społecznego na podstawie pojedynczych „zdjęć”

Umożliwiają obserwację tego samego zjawiska przez długi czas.

a) Badania trendów

Koncentrują się na zmianach w czasie wewnątrz jakiejś populacji, np. porównanie spisów powszechnych z dziesiątek lat pokazujące przesunięcia w składzie ludności.

b)Badania kohort demograficznych

Analiza zmian zachodzących w poszczególnych subpopulacjach (kohortach demograficznych). Najczęściej kohorta to grupa wiekowa - ludzie urodzenie w latach 50 lub ludzie urodzeni w czasie wojny

c)Badania panelowe

Dotyczą za każdym razem tego samego zbioru ludzi. Można w ten sposób analizować nie tylko ogólne trendy w preferencjach wyborczych, ale także okazać precyzyjne prawidłowości dotyczące stałości i zmienności zamiarów wyborczych.

Porównane zostały w odniesieniu do tej samej zmiennej- przynależności religijnej.

Badania trendów mogłyby wykazać przesunięcia w przynależności religijnej w USA w różnych okresach. Badania kohort mogłyby badać przesunięcia w przynależności religijnej wśród „pokolenia Wielkiego Kryzysu ”. Badania panelowe dałyby pełny obraz przesunięć między różnymi religiami oraz przesunięć do i z kategorii „żadna”. Badania panelowe mogą mieć problem z wyczerpaniem panelu- respondenci biorący udział w pierwszym badaniu mogą nie chcieć lub nie być w stanie wziąć udziału w kolejnych badaniach.

1.Badacze mogą korzystać z logicznego wnioskowania za każdym razem gdy jasny jest chronologiczny porządek zmiennych, np. w badaniach studentów logiczne było to, że studenci próbowali najpierw marihuany a później LSD a nie odwrotnie. Nie było żadnego studenta, który brał LSD a nie próbował wcześniej marihuany.

2.Proszenie ludzi o opowiedzenie zdarzeń z przeszłości . Niebezpieczeństwem tej metody jest to, że ludzi często zawodzi pamięć a niektórzy po prostu kłamią.

(tabelka procesu badawczego)

Na początku należy się czegoś dowiedzieć na temat tej kwestii, poszukać jakiejś literatury, porozmawiać z osobami, które są za i przeciwko aborcji. Następnie należy postawić sobie jakiś CEL.

Konceptualizacja

Należy zdefiniować wszystkie pojęcia, znaleźć warunki pod jakimi studenci mogliby poprzeć aborcję.

Najlepszą metoda w tym, wypadku byłby sondaż: przeprowadzenie wywiadu ze studentami lub wypełnienie przez nich kwestionariusza.

Wybór technik pomiaru. Należy ustalić brzmienie pytań kwestionariuszowych.

Należy zdecydować kogo lub co badać. Należy dobrać próbę osób do badania. W tym przypadku próba będzie się składać ze studentów, ale musi być dokładnie określona : studenci dzienni, zaoczni, wieczorowi??

Należy przeprowadzić badanie wśród studentów

Faza kodowania odpowiedzi i przenoszenia danych do komputera

Interpretacja i wyciąganie wniosków. W tym przypadku analiza mogła służyć zarówno celom opisowym jak i wyjaśnianiu

Wykorzystanie przeprowadzonych badań oraz wyciągniętych z nich wniosków

1)Earl Babbie „Logika doboru próby”

DOBÓR PRÓBY - proces wyboru obserwacji; procedura wyboru jednostek obserwacji.

Krótka historia doboru próby:

Dwa typy doboru próby: nieprobalistyczny.

  1. DOBÓR PRÓBY OPARTY NA DOSTĘPNOŚCI BADANYCH:

np. zatrzymywanie ludzi na ulicy

-brak kontroli nad reprezentatywnością próby

-może być stosowany jedynie, gdy np. badacz chce zbadać cechy osób przez dane miejsce o określonych porach

-należy zachować ostrożność przy uogólnianiu i uczulić odbiorców wyników na ryzyko związane z tą metodą

-przydatna np. w pilotażu kwestionariusza

  1. DOBÓR CELOWY/ARBITRALNY

-dobór na podstawie własnej wiedzy o badanej populacji oraz celach badania

-przydatny do pilotażu ( dobrać jak najróżniejszych respondentów, by sprawdzić szerokie zastosowanie pytań)

-do badania przypadków odbiegających od normy

  1. METODA KULI ŚNIEŻNEJ

-gdy trudno jest odszukać członków jakiejś specyficznej populacji, np. bezdomni, nielegalni imigranci

-badacz zbiera dane o kilku członkach danej populacji, których da się odszukać, a następnie prosi te osoby o dostarczenie informacji potrzebnych do odszukania innych członków tej populacji, których akurat znają

-reprezentatywność jest wątpliwa, więc wykorzystuje się ja do celów eksploracyjnych

Dobór probalistyczny(?):

  1. DOBÓR KWOTOWY

-uwzględnia kwestię reprezentatywności

-wychodzi się od macierzy lub tabeli opisującej istotne dla badania cechy populacji /rozkład płci, wieku, dochodu…/→ dla pobrania ogólnokrajowej próby kwotowej badaczowi może być potrzebna wiedza o tym, jaki procent ludności kraju stanowią ludzie o określonych cechach; dla każdej komórki macierzy należy określić odpowiednie przedziały procentowe, następnie zebrać dane od osób mających wszystkie cechy określone w danej komórce tabeli; potem wszystkim osobom w danej komórce przypisuje się wagę odpowiednią do ich udziału w danej populacji; gdy zostaną w ten sposób przeważone wszystkie elementy próby, całość danych powinna dać sensowną reprezentację całej populacji

-problemy:

  1. WYBÓR INFORMATORÓW

-jest to współpraca z niektórymi członkami grupy

-informator jest członkiem grupy, który może się wypowiadać bezpośrednio o grupie

-np. badania nieformalnych układów grupowych

-zazwyczaj dobiera się informatorów typowych dla badanych grup, w przeciwnym razie opinie i obserwacje informatorów mogłyby wprowadzać w błąd

-marginalna ( zarówno b. niska jak i b. wysoka) pozycja informatorów nie tylko może zafałszować obraz rzeczywistości, ale także ograniczać dostęp do różnych sektorów społeczności

Nieprobalistyczny dobór ma zastosowanie głównie w badaniach jakościowych.

Teoria i logika doboru losowego:

- Aby próba jednostek z danej populacji mogła być podstawą dobrego opisu całej populacji musi ona mieć zasadniczo taką samą zmienność jak populacja.

- „Obciążenie próby” oznacza stan, gdy wybrane osoby nie są typowe czy reprezentatywne dla szerszej populacji, z której zostały dobrane. Może być świadome lub nie, może powstać na skutek skłonności badacza, który dobiera respondentów wg własnych preferencji; na szczęście istnieją techniki, które pozwalają uniknąć obciążeń próby.

- Uznajemy próbę za reprezentatywną dla populacji, z której została dobrana, jeśli zagregowane cechy tej próby ściśle odzwierciedlają te same zagregowane cechy populacji. Reprezentatywność ogranicza się do tych cech, które są związane z głównymi celami badania.

Podstawowa zasada doboru losowego: próba jest reprezentatywna dla populacji, z której jest losowana, jeśli wszyscy członkowie tej populacji mają takie same szanse, ze zostaną wybrani do próby.

Dobór losowy ma dwie podstawowe zalety: 1) choć nigdy nie są doskonale reprezentatywne, są z reguły b. reprezentatywne niż inne rodzaje prób, gdyż są wolne od obciążeń; 2) rachunek prawdopodobieństwa pozwala nam oszacować reprezentatywność próby losowej.

ELEMENT jest tą jednostką, o której zbiera się informacje i która dostarcza podstaw do analiz /ludzie lub pewne typy ludzi, rodziny, kluby, stowarzyszenia/; POPULACJA to określony teoretycznie zbór elementów badania; BADANA POPULACJA to ten zbiór elementów, z którego próba jest faktycznie dobierana.

- Losowanie: ostatecznym celem doboru próby jest wybranie z populacji takiego zestawu elementów, aby opis tych elementów trafnie oddawał obraz całej populacji, z której zostały one pobrane. Kluczem do tego procesu jest losowanie. W losowaniu każdy element może zostać wybrany z takim samym prawdopodobieństwem, niezależnie od innych zdarzeń w procesie selekcji. Badacze społeczni posługują się tabelami liczb losowych lub programami komputerowymi, które zapewniają losowy dobór jednostek do próby. Jednostka losowania to ten element lub zbiór elementów, który jest brany do wylosowania na jakimś etapie procesu doboru próby.

- Rachunek prawdopodobieństwa, rozkład z próby i szacowanie błędu z próby:

Rachunek prawdopodobieństwa dostarcza podstaw do szacowania parametrów w populacji. Parametr to syntetyczny opis jakiejś zmiennej w populacji, np. średni dochód wszystkich rodzin w mieście, rozkład wieku ludności miasta. Rach. prawd. pozwala na szacowanie parametrów w populacji oraz na osąd, z jakim prawd. te szacunki będą dokładnie odwzorowywać faktyczne parametry w populacji. Dzieję się to dzięki rozkładowi prób. Pojedyncza próba wylosowana z populacji może dać estymator parametru w populacji, rach. prawd. mówi o rozkładach estymatorów uzyskanych z wielkiej liczby takich prób, a każdy przyrost wielkości próby poprawia rozkład szacunków średniej.

Rach. prawd. dostarcza nam pewnych ważnych reguł dotyczących rozkładu z prób: 1) jeśli z jakiejś populacji pobierze się wiele niezależnych prób, statystyki z tych prób będą rozproszone wokół rzeczywistego parametru populacji w pewien znany sposób; 2) rach. prawd. dostarcza nam wzoru dla oszacowania, na ile blisko statystyki /czyli syntetyczne opisy zmiennych w próbie/ z prób są skupione wokół prawdziwej wartości → czyli pozwala oszacować błąd z próby (losowy) - poziom błędu oczekiwany dla danego rodzaju próby: s=√[(P•Q)/n]; gdzie P i Q to parametry populacji w rozkładzie dwuwartościowym; Q=1-P; P=1-Q; n to liczba przypadków w każdej próbie, natomiast s to błąd standardowy. ( często jest to odchylenie standardowe rozkładu z prób →około 34% estymatorów mieści się w odległości 1 bł. st. od parametru populacji w górę a kolejne 34% w dół.)

Błąd standardowy jest wartością informacyjną, określa, na ile blisko estymatory z prób będą rozrzucone wokół parametru populacji. Błąd standardowy jest odwrotną funkcją wielkości próby- gdy wielkość próby rośnie, błąd standardowy maleje, co więcej, bł. st. zmniejsza się o połowę, gdy wielkość próby rośnie czterokrotnie /pierwiastek kwadratowy/.

W rzeczywistości nie znamy wartości parametru, ani nie dobieramy wielu prób, lecz tylko jedną; ale właśnie rach. prawd. daje podstawę do konkluzji na temat typowych sytuacji w badaniach społ.

Poziomy i przedziały ufności:

Rach. prawd. określa, że 68% wyimaginowanej wielkości prób dałoby estymatory lezące w granicach jednego błędu st. Zatem dowolna próba losowa ma 68% szansę znalezienia się w granicach tego przedziału. Dokładność naszych statystyk z prób wyrażamy w kategoriach poziomu ufności co do tego, że statystyki te mieszczą się w określonym przedziale od parametru. Wszelkie twierdzenia dotyczące trafności wyników muszą informować zarówno o poziomie ufności jak i o przedziale ufności.

Populacje i operaty losowania:

OPERAT LOSOWANIA to lista lub quasi-lista elementów, z której losuje się próbę; musi być zbieżny z populacją, którą chcemy badać. Wyniki badań na próbie można uznać za reprezentatywne tylko w odniesieniu do zbioru elementów tworzących operat losowania. Operaty losowania nie zawsze zawierają naprawdę wszystkie elementy, należy określić zakres braków i wyrównanie ich.

Schematy losowania:

  1. PROSTY DOBÓR LOSOWY:

Badacz numeruje wszystkie elementy listy, następnie korzystając z tablic liczb losowych wybiera elementy do próby.

Rzadko stosuję się tę metodę w praktyce.

  1. DOBÓR SYSTEMATYCZNY:

Konieczna jest lista elementów.

Do próby losowany jest co n-ty element z listy, przy czym pierwszy element jest wylosowany → tak powstaje próba systematyczna z losowym punktem startowym.

Interwał losowania to standardowa odległość między elementami dobieranymi do próby; proporcja losowania to stosunek liczby elementów wylosowany do liczebności całej populacji.

Istnieje ryzyko obciążeń próby, jeśli układ elementów jest ułożona tak, że jakiś cykliczny wzór się powtarza zgodnie z interwałem losowania.

  1. DOBÓR WARSTWOWY

Jest metodą pozwalającą na zwiększenie reprezentatywności poprzez obniżenie możliwego błędu z próby.

Najpierw należy uporządkować populację wg ważnych dla nas cech w homogeniczne podzbiory, które między sobą są heterogeniczne (warstwowanie), a potem wylosować odpowiednią liczbę elementów każdego z nich.

Dwie metody tego doboru:

1) sortuje się elementy populacji na grupy wyodrębnione ze względu na zastosowane zmienne stratyfikacyjne; na podstawie udziału procentowego danej grupy w populacji stosuje się dobór losowy-prosty lub syst.- takiej ilości elementów z tej grupy, jaka odpowiada takiemu samemu jej udziałowi procentowemu w pożądanej przez nas wielkości próby.

2) pogrupowanie populacji jak poprzednio, a następnie połączenie tych grup w jedną listę i zastosowanie np. doboru syst.

W pewnych sytuacjach dobór systematyczny, jest trafniejszy, niż prosty; ma to miejsce wtedy, gdy występuje ukryty układ warstwowy listy, np. lista studentów ułożona wg roku studiów.

  1. DOBÓR PRÓBY WIEOLOSTOPNIOWY GRUPOWY

Próba grupowa może być stosowana gdy sporządzenie wyczerpującej listy elementów wchodzącej w skład populacji jest niemożliwe lub b. trudne. Elementy populacji są już często pogrupowane w subpopulacje, listy subpopulacji albo istnieją albo można je łatwo stworzyć. /Np. wierni wszystkich kościołów USA./

→ Sporządza się listę pierwotnych jednostek losowania i niekiedy dzieli się je na warstwy przed losowaniem. Potem losuje się próbę tych jednostek. Następnie robi się spis elementów tych wybranych pierwotnie jednostek losowania i dzieli się je na warstwy. Potem losuje się z owych list wtórne jednostki losowania.

Jednak taki dobór cechuje się podwójnym błędem z próby; 1) początkowa próba grup reprezentuje populację tych grup z uwzględnieniem zakresu błędu z próby; 2) próba elementów pobranych w ramach danej grupy reprezentuje wszystkie elementy w tej grupie tylko w tym zakresie, jaki jest możliwy po uwzględnieniu błędu z próby. → straty w dokładności próby.

Rodzaje tego doboru:

  1. Warstwowanie w wielostopniowej próbie grupowej: należy pogrupować pierwotne jednostki losowania wg odpowiednich zmiennych stratyfikacyjnych, potem zastosować losowanie proste lub systematyczne. Błąd z próby będzie zredukowany w takim zakresie, w jakim grupy są podzielone na homogeniczne warstwy.

  2. Dobór proporcjonalny: zawsze gdy losowane grupy znacznie różnią się wielkością, właściwe jest zastosowanie proporcjonalnego doboru-każda grupa ma szansę znalezienia się w próbie proporcjonalna do swej wielkości.

  3. Dobór nieproporcjonalny i ważenie :Jeśli próba jest proporcjonalna, tzn. że każdy element ma taką samą szanse na znalezienie się w próbie, tzn. ze mają one wszystkie taką samą wagę=1→próba samoważąca się. Jednak czasem właściwe jest nadanie niektórym przypadkom większych wag niż innym - ważenie, np. gdy szczególnie interesuje nas jakaś subpopulacja ( badanie nad molestowaniem seksualnym w pracy wśród czytelników pisma, których większość stanowią mężczyźni-wtedy większą wagę nadajemy kobietom, bo one są częściej molestowane).

Ogólnie, dobór probalistyczny pozwala na uniknięcie obciążeń próby oraz oszacowanie błędu.

Grażyna Woroniecka- obserwacja uczestnicząca

  1. Obserwacje stosuje się przede wszystkim na etapie wstępnego zwiadu badawczego. We właściwej części badania stosuje się twardsze techniki.

  1. Ograniczenia obserwacji:

  1. Zalety obserwacji po renesansie metod jakościowych:

  1. SYMLOG

Narzędzie stworzone przy wykorzystaniu tez psych analitycznej- BALES, teorii pola Kurta Lewina, teorii dystansu L. Festingera.

Karty zapisy interakcji”- „czas,/ kto wobec kogo działa/ porozumienie( act/ non)/ kierunek działania/ opis działania/ akceptacja/ brak akceptacji, wyobrażenie o tym do kogo odnosi się ta interakcja( do siebie, do społeczeństwa, do grupy ,do innego..)