METODOLOGIA – PROFESOR PALUCHOWSKI
Źródła wiedzy.
wiedza potoczna – jest praktyczna i szybka, oczywista dla wszystkich, lokalna (tu i teraz) co różni ją od mądrości ludowej (przekazywana); opiera się na potocznych, przypadkowych, osobistych doświadczeniach i obserwacjach; niespójna (z jednego elementu możemy wyciągnąć dwa przeciwne wnioski)
- wady: post hoc ergo propter hoc, alogiczność, brak krytycyzmu, złudzenie powszechności zjawiska, niepodważalna (zawsze znajdziemy rację, która potwierdzi tezę)
autorytety (mądrość) – autorytety łączy wiedza tajemna, przez co przypisuje im się wiedzęo „wszystkim”; osoba doświadczona (starsza) wg. nas umie patrzeć na problem z różnych perspektyw
wiara (ponadnaturalny autorytet) – osoba będąca pośrednikiem między nami a wiedzą stanowi dla nas autorytet
nauka (metodologia) - natura jest porządkiem, który jest poznawalny, naturalne zjawiska mają naturalne przyczyny, nic nie jest dowiedzione samo w sobie, zwątpienie
Cechy przypisywane nauce.
- instrumentalność nauki: praktyczne jej zastosowanie, musi być empiryczna i rzeczywista (logika nie wystarcza)
- istotą naukowości jest procedura – jak to zostało zrobione? ( replikacja), stała procedura pozwala na rzetelność badań, dyskusję
- intersubiektywna komunikowalność: dyskusji podlegają wyniki z opublikowanych badań; wyniki badań muszą być zrozumiałe dla innych (konserwowanie nauki – mówienie o nowych odkryciach w starym języku)
Co jest nienaukowe?
błąd proceduralny
pseudonauka
Jak rozwija się nauka?
kumulatywnie
koniec nauki
- nauka początkowo rozwija się kumulatywnie poprzez tworzenie paradygmatów, wydaje nam się, że wszystko wiemy, tworzymy instytucje związane z nauką; pojawiają się jednak pytani, an które nie da się odpowiedzieć – przychodzi kryzys nauki, nowa nauka (zadająca pytania) tworzy własny paradygmat... i koło się zatacza
- bez paradygmatów nie byłoby wzorców nauki, ale paradygmaty się zmieniają, przemijają, lecz trwają nadal
Co może być przedmiotem nauki?
- nauka nie zajmuje się indywidualnymi przypadkami
- co jest wspólnego między podobnymi zjawiskami empirycznymi (powtarzalność)
- co jest istotą zjawiska („przejawy” zjawiska – konstrukt teoretyczny)
- problem – idea nie jest wprost obserwowalna
Czym jest nauka?
zajmuje się wyjaśnianiem pewnych praw i rzeczywistości
nie zajmuje się pojedynczymi przypadkami, a zjawiskami powtarzalnymi
istotny jest sposób zajmowania się rzeczywistości - jeżeli czymś się zajmujemy w określony sposób to to staje się nauką
dostarcza nam wiedzy na temat rzeczywistości
jest to wytwór twierdzeń, do którego doszli rzemieślnicy (uczeni), stąd nauka to rzemiosło uczonych
jest procesem społecznym – wielu ludzi robi wiele podobnych rzeczy na podobny temat i wspólnie dochodzą do pewnych praw
Model poznania naukowego.
teoria przed badaniem
- odrzucamy tezy nieoparte na teorii (falsyfikacja)
- charakterystyczny dla nauk przyrodniczych
- nie sprawdza się w naukach społecznych, bo są to nauki zmienne
- fakty istnieją niezależnie od poznania natury, rzeczywistość ma tę cechę bez względu na to czy ją badamy, czy nie
teoria
wybór ważnego twierdzenia
falsyfikacja twierdzenia
jeśli potwierdzone – sprawdzaj teorię dalej, jeśli nie – zmień teorię
badania przed teorią
- życie codzienne jako inspiracja dla tworzenia badań (pytania badawcze)
- cechy mogą nie istnieć poza obszarem badania
- wady: uprzedzenie kulturowe (problem ogólności twierdzeń z punktu widzenia danej kultury)
analiza rzeczywistego zjawiska
kategoryzacja cech zjawiska
szukanie prawidłowości
tworzenie teorii
wybór twierdzenia
potwierdzanie / falsyfikacja
• Podstawowe założenia przyjmowane w nauce.
Podejście naukowe opiera się na zbiorze założeń, które nie są dowiedzione i których się nie dowodzi. Epistemologia- badanie podstaw wiedzy, zajmuje się naturą tych przesłanek i rolą, jaką odgrywają.
Natura jest uporządkowana.
Natura jest poznawalna.
Wszystkie naturalne zjawiska mają naturalne przyczyny.
W podejściu naukowym odrzuca się wiarę w to, że przyczynami zdarzeń mogą być inne siły niż odkryte w badaniach natury (opozycja więc podejścia naukowego do religii). Naukowcy szukają więc empirycznych regularności i porządku leżącego u podstaw zjawisk naturalnych, a nie szukają sił ponadnaturalnych.
Nic nie jest dowiedzione samo w sobie.
Wiedza naukowa nie jest prawdziwa sama w sobie, jej prawdziwość musi zostać dowiedziona obiektywnie. Naukowcy nie polegają na subiektywnych wierzeniach, zdrowym rozsądku, gdy weryfikują wiedzę naukową. Akceptują, że zawsze można popełnić błąd i najprostsze wnioski wymagają obiektywnego dowodu. Myślenie naukowe jest więc i sceptyczne i krytyczne.
Wiedza jest wyprowadzana z nabywanego doświadczenia.
Wiedza przewyższa ignorancję.
Teza, że wiedza przewyższa ignorancję, nie oznacza jednak, że wszystko, co dotyczy natury, może zostać poznane. Zakłada się raczej, że wszelka wiedza ma charakter względny i że się zmienia. Prawda w nauce zawsze zależy od dowodów, metod i branych pod uwagę teorii. Zawsze dopuszcza modyfikacje. Jednak przekonanie, że wiedza względna jest lepsza niż ignorancja, pozostaje w całkowitej opozycji do systemów wiedzy opartych na prawdzie absolutnej. Wiedza naukowa zagraża utartym sposobom postępowania i trwałości prawdy i statusu quo. Podejście naukowe oferuje w zamian jedynie przypuszczalną prawdę, uwzględniającą istniejący stan wiedzy. A siła i słabość podejścia naukowego leży w naturze prawdy, która nie jest pewna i ma charakter względny.
Funkcje nauki.
wyjaśnianie:
wyjaśnianie dedukcyjne wymaga:
1. uniwersalnych generalizacji,
2. ustalenia warunków, w jakich te generalizacje są prawdziwe,
3. zdarzenia, które ma zostać wyjaśnione,
4.reguł logiki formalnej
- dane zjawisko wyjaśniamy, pokazując, że może zostać ono wyprowadzone z ustalonego prawa ogólnego
- niezbędnym warunkiem prawa ogólnego jest to, że musi ono dotyczyć wszystkich możliwych przypadków! - przesłanki prowadzą w sposób konieczny do wniosków, więc wtedy i tylko wtedy gdy przesłanki są prawdziwe, prawdziwe są też wnioski!
- wyjaśnianie dedukcyjne jest najmocniejszym rodzajem wyjaśniania, bo wnioski dzięki niemu wyprowadzane są zawsze prawdziwe, jeżeli prawdziwe są przesłanki
wyjaśnianie probabilistyczne:
- związek nie może zostać opisany w postaci prawa ogólnego, ponieważ nie każdy przypadek prowadzi do określonych zdarzeń, istnieje jedynie wysokie tego prawdopodobieństwo.- wyjaśnianie to odwołuje się do uogólnień wyrażających albo arytmetyczny stosunek 1 zjawiska do 2 (n procent z X=Y), albo jest uogólnieniem wyrażającym określone tendencje / skłonności (X ma skłonność do wywoływania Y).
- ALE wnioski dotyczące konkretnych wypadków nie mogą zostać wyprowadzone z całkowitą pewnością!
przewidywanie:
- umiejętność właściwego przewidywania uważana za podstawową cechę myślenia naukowego
- jeśli wiedza jest niedostateczna, to przewidywanie nie jest
- oczekiwanie, że wiedza naukowa winna prowadzić do dokładnych przewidywań oparte jest na tezie, że jeżeli X powoduje Y i zaszło X, to można przewidywać, że zajdzie Y
- źródłem tej tezy jest założenie, że zarówno prawa ogólne, jak i generalizacje probabilistyczne są rozpoznawalne i prawdziwe zostały spełnione przyczyny warunkujące pojawienie się skutku
Przewidywanie może się okazać nietrafne gdy:
- prawo lub generalizacja nie są prawdziwe (np. programy poszukiwania pracy nie rozwiązują problemu bezrobocia)
- przyczyny (warunki poprzedzające) zostały źle zinterpretowane (program poszukiwania pracy został mylnie potraktowany jako działanie sprzyjające rozwiązaniu problemu bezrobocia)
- Odwołując się do dedukcyjnego modelu wyjaśniania można stwierdzić, że proces przewidywania jest odwrotnością procesu wyjaśniania. W procesie przewidywania wcześniejsze obserwacje wskazywały jedynie na to, że wystąpiły warunki wyjściowe. Prawa uniwersalne czy generacje probabilistyczne są wykorzystywane do uzasadniania przewidywania - jeśli zaszły określone warunki wstępne, to po nich będą następować określone konsekwencje.
rozumienie:
- termin ten jest stosowany na dwa sposoby, jako Verstehen (rozumienie oparte na empatii) lub jako rozumienie predyktywne
- przyczyną dwóch sposobów wykorzystywania tego terminu jest to, że z jednej strony przedmiotem badania nauk społecznych jest człowiek, a z drugiej przedstawiciele nauk społecznych są zarówno obserwatorami, jak i częścią przedmiotu badawczego swojej dyscypliny
Nauka normalna i rewolucyjna - Teoria Kuhna wprowadza rozróżnienie:
Nauka normalna (instytucjonalna) to rutynowa weryfikacja teorii (czy paradygmatu) dominującej w danym momencie historycznym. Dla tego typu nauki weryfikacja i testowanie są fragmentem działalności będącej rodzajem rozwiązywania łamigłówek. Paradygmaty są ściśle powiązane z koncepcją nauki normalnej.
- Głownie chodzi o to, że badania wywodzą się z powielanego paradygmatu, podporządkowane są tym samym regułom, normom i standardom praktyki naukowej. Nauka normalna uwiecznia siebie samą i dlatego ogranicza zmiany i innowacje.
Nauka rewolucyjna - Kuhn spostrzegł ją jako nagły rozwój konkurencyjnego paradygmatu. Zmiana paradygmatu oznacza rewolucję w nauce i może zostać zaakceptowana przez społeczność naukowców, lecz jedynie stopniowo.
- Proces rozpoczyna się od próby weryfikacji paradygmatu – z czasem i ilością badań jego zgodność z wynikami badań empirycznych jest coraz mniejsza – Kuhn nazywa to zjawisko anomalią.
- W pewnym momencie tworzy się paradygmat konkurencyjny, powstaje konflikt pomiędzy zwolennikami starego i nowego paradygmatu, ostatecznie jednak społeczność naukowców akceptuje nowy i wraca do działań typowych dla nauki normalnej.
- Rewolucje naukowe zdarzają się jednak bardzo rzadko, naukowcy koncentrują się na nauce normalnej, nie próbują obalać dominującego paradygmatu i od razu nie zauważają anomalii.
Przedmiot metodologii.
Po co się uczyć metodologii?
1. By móc prowadzić badania empiryczne
2. By umieć czytać co piszą inni w innych pracach (naukowych, gazetach) gdy publikują wyniki badań, by móc je zweryfikować.
Metodologiczne aspekty twierdzeń naukowych muszą spełniać trzy podstawowe funkcje (są to funkcje samej nauki):
- deskrypcja (opisywanie zjawisk językiem naukowym),
- eksplanacja (wyjaśnianie zjawisk tą rolę spełniają przede wszystkim teorie i koncepcje naukowe),
- predykcja (możliwość przewidywania, prognostyka zjawisk, możliwe to jest dzięki teoriom naukowym — oczywiście o ile są one prawdziwe).
Celem prowadzonych badań naukowych jest poznanie prawdy o jakimś wycinku rzeczywistości, jednakże ta prawda także musi spełniać określone warunki:
· ogólność
· ścisłość
· jak najwyższa informatywna zawartość
· pewność
· prostota
Dwa podejścia do metodologii:
1) metodologia normatywna – zespół reguł i procedur, które musi spełnić poszczególne podpunkty dany naukowiec
2) metodologia rekonstruowana - odtwarzalna metodologia, ludzie badają i powtarzamy to, aby zapewnić obiektywność procedur
Modele nauki.
model poznania naukowego
Teoria przed badaniami
- K.Popper: wiedza naukowa czyni największe postępy, gdy naukowcy tworzą idee i badaniami empirycznymi starają się je odrzucić, - badania empiryczne nie mogą w sposób systematyczny wpływać na teorie,
- badania rzadko źródłem nowych teorii, logicznych metod tworzenia teorii
5 kroków:
1. Skonstruuj explicite teorię lub model
2. Wybierz z niej twierdzenie, które poddasz empirycznej weryfikacji
3. Opracuj plan badawczy pozwalający zweryfikować twierdzenie
4. Gdy na podst danych empirycznych twierdzenie zostanie odrzucone, wprowadź zmiany do teorii/planu badawczego i wróć pkt2
5. Twierdzenie nie odrzucone- wybierz inne do weryfikacji lub staraj się poprawić teorię
Badania przed teorią
- R.Merton: czynią więcej niż potwierdzenie/obalanie hipotez, odgrywają aktywną rolę,
- 4 funkcje przyczyniające się do kształtowania rozwoju teorii:
zapoczątkowują,
przeformułowują,
nadają inny kierunek
precyzują teorię
- badania są nowym wyzwaniem dla teorii - wymagają kontynuowania prac teoretycznych prowadzących do zmian istniejących teorii i pełnią funkcję narzędzia ich weryfikacji
4 etapy tej strategii:
1. Analiza zjawiska i określenie jego podstawowych cech
2. Zmierzenie tych cech w różnych sytuacjach
3. Analiza otrzymanych danych by określić czy są systematycznym źródłem wariancji
4. Jeżeli zostanie ustalone systematyczne źródło wariancji, należy opracować teorię, najb preferowane tu systemy teoretyczne
- obie strategie traktują teorię jako formę przejawiania postępu naukowego, dylemat dotyczy miejsca teorii w procesie badawczym, w rzeczywistości teoria i badania wchodzą ze sobą w ciągłe interakcje, różnica pozorna
Wyjaśnianie dedukcyjne, indukcyjne i redukcyjne.
● Metoda indukcji polega na dokonywaniu obserwacji i eksperymentów, wyprowadzaniu na ich podstawie uogólnień oraz formułowaniu hipotez i ich weryfikacji.
- Zasada indukcji jest regułą pozwalającą na przejście od przypadków zaobserwowanych do twierdzeń ogólnych obejmujących także przypadki nie zaobserwowane.
- Wnioskowanie indukcyjne to logiczne rozumowanie polegające wyprowadzaniu wniosków ogólnych z przesłanek będących ich poszczególnymi przypadkami. Obserwujemy więc jakiś fakt i szukamy reguł z przesłankami związanymi z tym faktem. Wyznaczamy nowe fakty tak długo, aż wśród nowo wygenerowanych faktów znajdzie się postawiona wcześniej hipoteza, cel wnioskowania.
- Wnioskowanie indukcyjne jest zgodne z kierunkiem wnioskowania logicznego, jest też nazywane wnioskowaniem „do przodu”.
Zalety wnioskowania indukcyjnego:
-możliwość dodawania nowych faktów do bazy wiedzy
-zwiększanie się bazy danych powoduje przyspieszenie procesu sprawdzania postawionej hipotezy
Wady wnioskowania indukcyjnego:
- im większa baza wiedzy tym więcej zajętej pamięci operacyjnej komputera
● Dedukcja polega na tym, że gdy dana jest jakaś przesłanka będąca zdaniem prawdziwym, to na jej podstawie uznaje się prawdziwość następstwa.
- We wnioskowaniu dedukcyjnym stawiana jest hipoteza, którą próbujemy udowodnić poprzez szukanie faktów zgodnych z hipotezą lub jeżeli takie nie występują reguł, których konkluzje są zgodne z hipotezą.
- Polega na wykazaniu prawdziwości pewnego zdania będącego hipotezą główną na podstawie prawdziwości innych zdań będących przesłankami. Hipotezę główną można uznać za prawdziwą wówczas, gdy każda z hipotez pośrednich została udowodniona.
- Przebiega w odwrotną stronę niż wnioskowanie indukcyjne, dlatego jest też nazywane wnioskowaniem „wstecz”.
- Wnioskowanie dedukcyjne jest też z reguły częściej stosowane niż wnioskowanie indukcyjne i bardziej rozpowszechnione.
- Charakterystyczne dla nauk dedukcyjnych. Nauki te to przede wszystkim teorie matematyczne. Znamienne jest dla nich to, że przedstawiane są w formie systemów aksjomatycznych: z już uznanych zdań, czyli twierdzeń, wypro¬wadza się kolejne twierdzenia.
Zalety wnioskowania wstecz:
-występuje mniejsza liczba generowanych faktów niż przy wnioskowaniu wprzód, co oszczędza pamięć komputera
-czas oczekiwania na udowodnienie prawdziwości lub fałszywości hipotezy głównej jest przeważnie o wiele krótszy niż w przypadku wnioskowania indukcyjnego
Wady wnioskowania wstecz:
- czasami bywa, że złożoność obliczeniowa podczas rozwiązywania jakiegoś problemu jest bardzo duża
Kanony Milla.
- tzw. kanony indukcji eliminacyjnej są to schematy wnioskowania indukcyjnego, pozwalające ustalać związki przyczynowe między występowaniem zjawisk różnego rodzaju
- spośród pięciu kanonów Milla największe znaczenie mają trzy:
kanon jedynej zgodności (jeżeli zjawisko A występuje zawsze wspólnie ze zjawiskiem Z lub je poprzedza, to A jest prawdopodobnie przyczyną Z)
kanon jedynej różnicy (gdy ponadto przy braku A nie występuje Z)
kanon zmian towarzyszących (dotyczy przypadku, gdy badane zjawiska występują z różnym nasileniem)
- pozostałe dwa kanony Milla to kanon połączonej różnicy i zgodności oraz kanon reszt
Formułowanie problemów i hipotez badawczych - typy pytań, klasyfikacja problemów i hipotez.
źródła problemów: osobiste, praktyczne (społeczne), naukowe (poznawcze)
cele badaczy: eksploracja, opis fenomenów, wyjaśnienie
problem badawczy - bodziec intelektualny wywołujący reakcję w postaci badań naukowych; problemy, których nie można empirycznie uzasadnić lub te, które dotyczą subiektywnych preferencji, wierzeń, wartości, upodobań, nie poddają się badaniom empirycznym
dwa typy problemów:
istotnościowy: dotyczy ważności, jaki jest istotnościowy porządek cech/właściwości w wyjaśnieniu fenomenu; opis jest punktem wyjścia dla tego problemu
zależnościowy: stopień zależności; głównie związane z eksperymentem, ale też porównania międzygrupowe, testy
błąd psychologizmu - traktowanie interpretowania rzeczywistosci jako prawdziwej rzeczywistości; odwoływanie się do swojego myślenia/wyobrażania przy konstruowaniu pytania badawczego
falsyfikacjonizm Poppera - dobrze postawiony problem, powinien: dać odpowiedź pozytywną, bądź negatywną; nie mieć nadmiernie ogólnego charakteru; to taki problem, z którego wynikają sprawdzalne hipotezy
błąd indywidualizmu - wyprowadzanie wniosków o grupach z wniosków dotyczących jednostki (nadmierne uogólnianie)
błąd ekologizmu - wyprowadzanie wniosków o jednostkach, z wyników charakteryzujących grupy
generalizacja statystyczna – uniwersalna zależność, która się wyłania po wyeliminowaniu szumu z wyników
generalizacja analityczna – oznacza np. że im wyższy wynik, tym większe prawdopodobieństwo
typy hipotez badawczych:
dedukcyjne: z literatury, nauki
indukcyjne: z obserwacji, niewiele wyjaśniają (hipotezy at hoc)
warunki dobrej hipotezy badawczej:
jednoznaczna pojęciowo
jasno sformułowana
sprawdzalna empirycznie
ma moc wyjaśniającą
wewnętrznie niesprzeczna
logicznie wyprowadzona z wiedzy
wnosi coś do nauki
ma postać twierdzącą
pytanie rozstrzygnięcia
nie mogą być wartościujące
kiedy hipotezy nie można wyjaśnić? nie ma obserwowalnych czynników nieprecyzyjne pojęcia
hipoteza statystyczna:
- odpowiedzialny za obserwowaną prawidłowość jest mechanizm probabilistyczny
- jest techniczna, nie merytoryczna
- ma charakter hipotezy zerowej (bo mechanizm probabilistyczny)
rodzaje pytań:
rozstrzygnięcia: odpowiedź ukryta jest w pytaniu (Czy...? To albo ..., albo ...)
dopełnienia: pytania problemowe (dlaczego), procesowo-narracyjne (jak), nieproblemowe
pozytywne i negatywne założenie pytania:
pozytywne: istnieje choć jedna prawidłowa odpowiedź (Kto był królem Polski?)
negatywne: istnieje choć jedna fałszywa odpowiedź (W którym roku była wiosna?)
jeśli nie jest spełnione założenie o pozytywnym/ negatywnym pytaniu, to nie jest sprawdzony wymóg empiryczny!
Pojęcia, definicje, teorie, modele.
Pojęcie jest abstrakcją – symbolem, reprezentacją obiektu, jednej z jego właściwości lub zjawiska behawioralnego.Każda dyscyplina naukowa tworzy własny, unikatowy zbiór pojęć.
funkcje pojęć:
Dostarczają wspólnego języka pozwalającego naukowcom komunikować się między sobą
Pojęcia dają naukowcom perspektywę – sposób patrzenia na zjawiska empiryczne. Umożliwiają naukowcom odwoływanie się do wybranego aspektu rzeczywistości i identyfikowanie go jako wspólnej jakości w różnych przykładach zjawisk świata rzeczywistego.
Pozwalają naukowcom klasyfikować własne doświadczenia i je uogólniać.
Są składnikami teorii - definiują treść i własność teorii. Pojęcia, powiązane w sposób racjonalny i logiczny, prowadzą do teorii; tworzenie pojęć i konstrukcja teorii są zatem ściśle ze sobą związane.
rodzaje definicji:
pojęciowe: opisują pojęcia poprzez odwołanie się do innych pojęć, których nie można już dalej zdefiniować, wykorzystując inne pojęcia – są to terminy pierwotne; są one określone i jasne
- zawierają terminy pierwotne i terminy pochodne (takie, które można zdefiniować za pomocą terminów pierwotnych)
- nie są ani prawdziwe, ani fałszywe; mogą być użyteczne bądź nie z punktu widzenia komunikowania się i badań
- definicje zwiększające komunikację mają następujące podstawowe własności:
Musi wskazywać na unikatowe własności lub jakości dotyczące tego, co jest definiowane
Nie powinna mieć kołowego charakteru, tzn. nie powinna zawierać żadnego elementu definiowanego zjawiska lub obiektu
Powinna być formułowana w sposób twierdzący. Wskazuje to cechy unikatowe definiowanego pojęcia
Powinna zawierać wyraźne terminy, co do oznaczenia których wszyscy się zgadzamy.
operacyjne: opisują zbiór procedur, które powinien przeprowadzić badacz w celu ustalenia przejawów zjawiska opisywanego przez dane pojęcie
- naukowcy wymagają wykorzystywania definicji operacyjnych wówczas gdy zjawiska nie można bezpośrednio obserwować
- to definicje, które wyposażają pojęcia w odniesienia empiryczne
- łączą poziom pojęciowo-teoretyczny z empiryczno-obserwacyjnym
- definiują co robić i obserwować ma badacz by badane zjawisko móc zrozumieć
- realizowane są na podstawie określonych procedur
- pozwalają na potwierdzenie istnienia pojęcia
Pojęcia zawierają elementy konceptualne jak i operacyjne. Zadanie badaczy polega na zintegrowaniu tych dwóch poziomów. Od nich zależy od którego poziomu zaczną. Muszą się jednak pojawić oba, ponieważ się uzupełniają.
Teoria:
- najogólniej, teoria to konceptualizacja przeciwstawiona obserwacji
- teoria zawsze musi się odnosić do praktyki, jest w zasadzie tym samym
- jedynie nakreślona bardzo jednoznacznie pojęciowo teoria jest wiarygodna.
rodzaje teorii wg. Davida Eastona
ze względu na zakres:
®mikroteorie
®makroteorie
ze względu na funkcję:
® dotyczące zjawisk dynamicznych i statycznych
® dotyczące struktur i procesów
ze względu na strukturę:
® teorie będące logicznymi systemami myśli silnie ze sobą powiązanych
® teorie będące zbiorami luźniej zdefiniowanymi zbiorami twierdzeń
ze względu na poziom – 4 poziomy teorii wg. Parsonsa i Shilsa:
® systemy klasyfikacyjne AD HOC - najniższy poziom myślenia teoretycznego; dzięki arbitralnym kategoriom porządkują i zbierają obserwacje empiryczne
® taksonomie - drugi poziom teorii stanowią systemy kategorii; opisują związki między kategoriami, ponieważ składają się z systemu kategorii skonstruowanych odpowiednio do obserwacji empirycznych; mogą być wewnętrznie powiązane, odzwierciedlają opisywaną rzeczywistość
funkcje taksonomii w badaniach społecznych:
precyzyjne zdefiniowanie taksonomii – celem jest dostarczenie uporządkowanego schematu pozwalającego klasyfikować i obserwować
uporządkowanie i inspirowanie badań deskryptywnych - taksonomie nie dostarczają jednak wyjaśnień , opisują zjawisko empiryczne poprzez dopasowanie do niego zbioru kategorii
® struktury pojęciowe - kategorie deskryptywne są racjonalnie wbudowane w strukturę explicite twierdzeń, które dotyczą związków między dwiema lub więcej właściwościami empirycznymi i mogą być przyjęte albo odrzucone; struktury pojęciowe znajdują się na wyższym poziomie niż taksonomie, ponieważ nie tylko opisują ale pozwalają wyjaśnić i przewidywać szerokie klasy obserwacji empirycznych; nie są ustalane dedukcyjnie
® systemy teoretyczne - jest to najwyższy poziom, wymagający najbardziej rygorystycznych definicji; łączą taksonomie i struktury pojęciowe dostarczając w sposób systematyczny opisów, wyjaśnień i predykcji;
system teoretyczny składa się z twierdzeń powiązanych ze sobą w sposób, który umożliwia wyprowadzenie jednych twierdzeń z innych - tak stworzony system potrafi przewidywać skutki działań;
dostarcza struktur wyjaśniających zjawiska empiryczne
składa się ze zbioru pojęć, w tym abstrakcyjnych, opisujących, to czego dana teoria dotyczy, jak też pojęć mających mierzalne właściwości – te właściwości nazywamy zmiennymi
składa się również ze zbioru twierdzeń, które tworzą system dedukcyjny, zatem zbiór twierdzeń tworzy rachunek
w ten sposób naukowcy mogą wyprowadzać jedne twierdzenia z innychniektóre z twierdzeń systemu teoretycznego są względne i zależą od rzeczywistości empirycznej
akceptacja systemów teoretycznych zależy zatem od tego, czy naukowcy są w stanie empirycznie zweryfikować formułowane przez siebie twierdzenia
teorie aksjomatyczne – teoria formalna, która jest systemem teoretycznym
aksjomaty - nietestowane twierdzenia czy założenia dotyczące badanego zjawiska, o których zakłada się, ze są prawdziwe; opisują bezpośrednie zależności przyczynowe między dwoma pojęciami
mają charakter podstawowy, wiec nie wymagają dalszych poziomów empirycznych
bez podstawowych założeń proces tworzenia, formułowania i testowania hipotez staje się niemożliwy!
Teoria aksjomatyczna składa się ze:
Zbioru pojęć i definicji zarówno pojęciowych, jak i operacyjnych
Zbioru twierdzeń opisujących sytuacje, do których odnosi się dana teoria
Zbioru powiązanych ze sobą twierdzeń, podzielonych na:
Aksjomaty - nietestowane stwierdzenia i założenia dotyczące badanego zjawiska, których zakłada się, że są prawdziwe
Twierdzenia - wyrażenia wyprowadzone dedukcyjnie z aksjomatów i podlegające weryfikacji empirycznej
System reguł logicznych zastosowanych do:
Powiązania wszystkich pojęć w ramach systemu
Wyprowadzania dedukcyjnego twierdzeń z aksjomatów, zbiorów aksjomatów i twierdzeń
zalety teorii aksjomatycznych
Wymagają one dobrego opisu i jasnego wyjaśnienia głównych pojeć i założeń wykorzystywanych w niezależnych teoriach
Każde pojęcie musi być zdefiniowane , wszystkie terminy (pierwotne i pochodne) a także definicje operacyjne musza zostać sformułowane explicite.
Teoria aksjomatyczna pozwala na zwarte podsumowanie aktualnych i planowych badań.
modele:
pojęcie modelu jest ściśle związane z rozumieniem teorii jako systemu pojęciowego
teoretycy często starają się tworzyć systemy pojęciowe przez opracowywanie modeli
w naukach społecznych modele mają raczej postać symboliczną niż fizyczną
cechy charakterystyczne zjawisk empirycznych są odtwarzane przez logiczne uporządkowanie pojęć
charakterystycznym sposobem konstrukcji modeli jest metoda abstrakcji, czasami stosuje się też procedurę przetwarzania pojęć
Model to reprezentacja rzeczywistości, opisuje te cechy świata rzeczywistego, które wg. naukowców maja największy związek z badanym problemem.
Model pozwala:
-wyeksplikować istotne związki między tymi cechami
-budować empirycznie sprawdzalne twierdzenia dotyczące natury tych związków
- modele stosuje się także po to aby uzyskać wiedzę o zjawiskach, których nie można obserwować bezpośrednio
- jest to narzędzie do wyjaśniania i przewidywania, dobrze opracowane wiernie przybliżają rzeczywistość
- nie są tożsame z rzeczywistością, często są zmienne aby rzeczywistość była dokładniej odzwierciedlona i można było uwzględnić nowa wiedzę
- mogą być testowane w sposób empiryczny (można udowodnić ich fałszywość i następnie je zmienić lub odrzucić)
Wielkości, zmienne (zależne i wyjaśniające, istotne i nieistotne, kontrolowane i niekontrolowane).
wielkość mówi o tym, co jest przedmiotem/ treścią problemów; dotyczy rzeczy występujących w świecie rzeczywistym, a one przeniesione w obszar teorii stanowią konstrukty teoretyczn; konstrukty teoretyczne, gdy mają charakter mierzalny będą zmiennymi
- pojęcia „zmienna zależna i niezależna” są przyjęte niesłusznie, bo dotyczą procedury eksperymentalnej, a przecież badanie nie musi być eksperymentalne
- lepiej używać pojęć „zmienna wyjaśniana i wyjaśniająca”
Wśród zmiennych mamy:
1) wyjaśniane i wyjaśniające
2) zależne i niezależne
3) istotne (główne i uboczne) i nieistotne
kontrolowane i niekontrolowane
Przekształcając pojęcia w zmienne poprzez przełożenie ich na zbiór wartości, badacze przechodzą z poziomu pojęciowego na poziom obserwacyjny.
Zmienna jest to wartość empiryczna, która ma dwie lub więcej wartości.
Rozróżniamy – z punktu widzenia istoty badania – zmienne niezależne, zależne oraz zmienne kontrolne.
Zmienna niezależna to zakładana przyczyna zmiennej zależnej, a zmienna zależna to zakładany wynik oddziaływania zmiennej niezależnej.
Zmienne kontrolne są wykorzystywane po to, aby sprawdzić, czy obserwowalny związek pomiędzy zmienną niezależną a zmienną zależną nie jest związkiem pozornym.
Zmienne mogą być również ciągłe i dyskretne. Zmienna dyskretna ma określoną swoją najmniejszą jednostkę; zmienna ciągła zaś takiej jednostki nie ma.
Pojęcie związku w badaniach empirycznych oznacza zawsze związek pomiędzy dwiema lub więcej zmiennymi. Gdy mówimy, że dwie zmienne są ze sobą powiązane, oznacza to, że mają one ze sobą coś wspólnego.
Badacze ustalają istnienie związku, badając, czy zmiana wartości jednej zmiennej powoduje zmianę wartości drugiej zmiennej.
Dwie własności związku wymagają szczególnej uwagi: kierunek i siła. Mówiąc o kierunku mamy na myśli to, czy związek jest dodatni czy ujemny. Siła związku to stopień, w jakim zmienne współzmieniają się wprost lub odwrotnie proporcjonalnie.
Operacjonalizacja.
- większość zjawisk, które badamy są z natury nieobserwowalne, więc musimy badać zachowanie; pomiędzy konstruktem teoretycznym a zachowaniem często występuje szereg czynników, stąd wiążemy terminy teoretyczne z obserwacjami, ale terminy te dotyczą nieobserwowalnych właściwości stanów rzeczy
operacjonalizacja – wyrażenie wszystkich pojęć i terminów teoretycznych tak, aby:
miały jednoznaczny sens empiryczny LUB
były wyznaczone przez czynności jakie należy wykonać aby poznać to zjawisko
operacjonalizacja to także:
GDZIE: wybór zbiorowości, gdzie będą prowadzone badania
JAK: wybór metod i technik badawczych
SKĄD: na które pytania odpowiadamy odwołując się do już istniejących informacji a do których potrzebujemy danych empirycznych
CO DALEJ: w jaki sposób przeprowadzimy potem analizę wyników badań
Na jakie pytania odpowiada operacjonalizacja?
Do jakich obszarów świata należy ten obszar rzeczywistości
Jak dalece wybrane przez badacza zjawiska oraz powiązania między nimi są dostępne obserwacji
W jakim zakresie wybrane obserwacje będą mówiły o wybranych zjawiskach
Etapy procesu operacjonalizacji:
Rekonstrukcja czynników teoretycznych
Konceptualizacja wielkości
Dobór zmiennych operacjonalizujacych wielkość
Skoro nie obserwujemy zjawiska, to skąd wiemy, że ono występuje? Sprawdzamy, z czym może ono być związane, co potencjalnie dałoby się obserwować. Określamy przestrzeń wpływu czynnika X oraz relacje istotnościowego następstwa.
Wyróżniamy 7 rodzajów wskaźników:
Podstawowe:
Empiryczne mają charakter obserwowalny, istnieją niezależnie od obserwatora
Definicyjne istotną związku między czynnikami jest związek logiczny
Inferencyjne mają charakter empiryczny, ale pośrednich etapów jest wiele, jest to wskaźnik wyprowadzalny
Mieszane:
Empiryczno – definicyjne
Definicyjno – inferencyjne
Empiryczno – inferencyjne
Empiryczno – definicyjno - inferencyjne
Fazy procesu badawczego.
Proces badawczy – proces dochodzenia od danych do interpretacji (składa się z 11 etapów). Procesy etapu badawczego są rekonstrukcją powstałą na podstawie badań – jest to uogólnienie praktyk indywidualnych, a nie wzorzec, więc są dopuszczalne odstępstwa – można przestawiać etapy, omijać niektóre itp. Proces badawczy ma charakter rekurencyjny (cykliczny)
Teza Reichenbacha - prace naukowe dają fałszywy obraz nauki (mają charakter perswazyjny), nie można z nich odtworzyć kolejnych etapów procesu badawczego; to, co rzeczywiście się dzieje jest inne niż to co opisane (kontekst odkrycia)
Etapy procesu badawczego wg. Babińskiego:
Pytanie badawcze – określamy cel badań, czyli co chcemy osiągnąć:
eksploracja – wstępne poznanie tematyki
opis - przedstawienie zjawiska
wyjaśnianie (eksplanacja) – odpowiedź dlaczego dane zjawisko zachodzi
- pytanie dotyczy aktualnego stanu niewiedzy, jest wyrażone w języku naukowym, sformułowane tak, że wiadomo jak działać, żeby znaleźć odpowiedź
Eksplikacja:
uszczegółowienie problemu badawczego
wybór i uzasadnienie hipotez badawczych
- poszukiwania w literaturze przedmiotu (co już wiadomo, jakie tematy są powiązane)
- czego konkretnie chcemy się dowiedzieć (co,jak, dlaczego)
- selekcja pytań szczegółowych (pytania istotne dla problemu, możliwe do rozwiązania)
- wyrażenie pytań w formie naukowej (proste, jednoznaczne, zrozumiałe)
Operacjonalizacja (wyżej opisana)
Przygotowane narzędzi badawczych.
dobre narzędzie umożliwia odpowiedź na wszystkie stawiane pytania oraz dostarcza jak najbardziej szczegółowych informacji
Pilotaż – sprawdzenie:
technik i metod badawczych
narzędzia
poprawności eksplikacji i operacjonalizacji
ewentualnych problemów techniczno – organizacyjnych
Dobór próby (reprezentatywny / niereprezentatywny).
Realizacja badań – gromadzenie materiału empirycznego.
Wstępna weryfikacja materiału.
Wstępna analiza:
kodowanie – stworzenie bazy danych zawierających zebrany materiał empiryczny
Analiza:
konfrontacja pytań badawczych z uzyskanymi danymi
Testowanie hipotez:
sprawdzenie, czy hipotezy znajdują potwierdzenie w wynikach badań
testowanie statystyczne
testowanie intuicyjne
Podsumowanie, wnioski.
Etapy procesu badawczego wg. Paluchowskiego:
PODSTAWIENIE PROBLEMU.
OKREŚLENIE ZMIENNYCH
OPERACJONALIZACJA ZMIENNYCH
FORMUŁOWANIE HIPOTEZ
Mogą one mieć charakter:
Opisowy X jest wyższe lub niższe od Y (szacowanie na podstawie próby)
Zależnościowy X zależy od Y (rodzaj zależności trzeba sparametryzować)
Zoperacjonalizowany mówi o wynikach
WYBÓR MODELU BADAWCZEGO
• Od najsłabszego: korelacyjny ex post facto eksperymentalny (pozwala na oszacowanie z największą pewnością rodzaju związków między zmiennymi)
KONSTRUKCJA TECHNIK POMIAROWYCH
• najlepsza technika to taka, kiedy badacz ma jak najmniejszy udział
DOBÓR PRÓBY
• Należy pamiętać o tym, ze próba kontrola powinna być funkcjonalnie równoważna z grupą eksperymentalną
BADANIA EMPIRYCZNE
OPIS WYNIKÓW
TESTOWANIE HIPOTEZ
• Statystyczne weryfikacja hipotez na liczbach, nie na osobach.
• Wyznaczamy pary hipotez:
- Zerowa: jej założeniem jest to, że to, co obserwujemy ma charakter przypadkowy (nie zaprzecza ona obserwacji, tylko „sprawdza”, czy to otrzymał badacz nie jest przypadkiem, nie wywodzi się z chaosu)
- Alternatywna
• Należy pamiętać, że mała korelacja może być istotna (nie zdarzyła się przez przypadek), a duża może być nieistotna (zdarzyć się może przez przypadek)
• Zalety statystycznej weryfikacji hipotez:
- Upraszczanie (pozwala nieuporządkowany zbiór danych testowych przekształcić we względnie uporządkowany zbiór danych statystycznych)
- Budowanie pewności we wnioskowaniu na podstawie niepewnych wniosków
• Wady statystycznej weryfikacji hipotez:
-Wielkość próby sposobem na zwiększenie istotności korelacji jest zwiększanie liczebności próby, dodatkowo przy małych próbach nie mamy modelu statystycznego
- Poziom istotności
11. WNIOSKOWANIE
Skale pomiarowe. (tabelka)
Podstawowe modele badań - ex post facto, eksperymentalny, wielozmiennowy.
● Badanie ex ante:
obserwacja przyczyn i wypowiadanie się o skutkach (kontrolowane)
przyczyna przyczyna skutek (pierwsza przyczyna niekontrolowana!)
Badanie ex post facto:
przyczyna wystąpiła kiedyś - badam przyczynę ex post, dociekając przyczyn (nie znajdziemy wszystkich!)
dwie możliwości badań ex post facto:
a) wersja eksploracyjna- poszukujemy hipotez
b) wersja konfirmacyjna - jak już znamy dane
na jedną grupę w przeszłości działał określony symulator, na drugą nie, co jest poza kontrolą badacza, bo stało się to „po fakcie” – nie ma możliwości kontrolowania działania bodźca!
jeśli badacz chce interpretować wyniki, to musi upewnić się, czy na wywołane zdarzenia nie miała wpływu zmienna ważna dla zmiennej wyjaśnianej
do wyodrębnienia grup korzystamy na podstawie rekonstrukcji historycznego faktu, np. korzystamy ze świadectw osobowych - wywiadów z ludźmi;
kłopoty z tym związane: konieczność zobiektywizowania danych; należy te dane zakodować
sędziowie kompetentni - mają kompetencje od badacza; wersja konfirmacyjna; to my im podajemy reguły; eksperci- mają kompetencje sami z siebie
zaleta postępowania- modele te mogą badać zjawiska naturalne w naturalnych środowiskach, naturalnym przebiegu
wady: nie możemy wpływać na zmianę wartości traktowanej jako przyczyna; nie mamy możliwości obserwować jakie inne czynniki wpływały na dane zjawisko; wywiad, rozmowa- metoda mało dokładna, różni ludzie mogą o tym samym różnie mówić; brak możliwości randomizacji
Badanie korelacyjne:
dziś obserwujemy przyczynę i skutek (ale nie wiemy co jest przyczyną)
przyczyna lokowana w przeszłości - lepszy obraz przyczynowo-skutkowy
rejestrowanie współwystępowania między ... a zmienną zależną (niekonieczna analiza korelacyjna)
● Badanie różnicowe:
moc testowania hipotez równa bad. korelacyjnym
podobne do metody eksperymentalnej, ale nie ma randomizacji ani manipulacji
● Podstawowe plany eksperymentalne:
plan eksperymentalny podstawowy
• grupa kontrolna z pomiarem początkowym i końcowym
• randomizacja I i II stopnia
plan z grupą kontrolną bez pomiaru początkowego
• wpływ pretestu jest uwrażliwiający
plan Solomona 4-grupowy
• grupa z pomiarem początkowym i końcowym z manipulacją
• grupa z pomiarem początkowym i końcowym bez manipulacji
• grupa bez pomiaru początkowego z manipulacją
• grupa besz pomiaru początkowego bez manipulacji
zwielokrotniony plan podstawowy (1)
• wiele poziomów przyczyny - kilka grup eksperymentalnych i jedna / wiele grup kontrolnych
zwielokrotniony plan (2)
• wiele poziomów manipulacji + jedna/ wiele grup kontrolnych
plan czynnikowy kompletnie zrandomizowany
• wiele poziomów przyczyny i wiele poziomów bez manipulowania przyczyną
Podstawowe plany quazi- eksperymentalne:
plan jednogrupowy z pomiarem końcowym
wystąpienie przyczyny i pomiar skutku
badany skutek przed/po/ bez pojawienia się przyczyny
pełny plan
grupa kontrolna
plan pełny
bez pomiaru początkowego
plan 11 wielokrotny
plan 12 wielokrotny
plan 13 dwugrupowa
plan 14 dwugrupowy
trafność planów badawczych
problem kontrolowania- sprawdzenie, jaka jest trafność planu badawczego
trafność planu badawczego:
a) wewnętrzna – aby zbudować taki plan badawczy, w którym nie tylko sprawdzamy, że przyczyna wywołuje skutek, ale także wyeliminować inne przyczyny jako przyczyny tego skutku; pozwala wyeliminować alternatywne wyjaśnienia zmiany zmiennej Y; mogą być to czynniki odnoszące się do przebiegu badania niespecyficznych cech badania, otoczenia sytuacji badawczej
b) zewnętrzna- dotyczy zakresu wniosków, jakie badacz formułuje na podstawie badania- dotyczy zakresu generalizacji wniosków; podstawowy problem dotyczy reprezentatywności próby; 2 formy pytań:
a.w jakim stopniu nasza próba reprezentatywna jest w stosunku do populacji, o której chcemy orzekać
b.dla jakiej populacji reprezentatywna jest badana przez nas próba
reprezentatywność warunków: w jakim stopniu warunki, w których przeprowadzono badanie są typowe dla badanego zjawiska; im bardziej badanie ma wysoką trafność wewnętrzną, tym trudniej je kontrolować, im bardziej badanie zbliżone do sytuacji naturalnej; im bardziej da się kontrolować, tym mniejsza trafność zewnętrzna
uwrażliwiający wpływ warunków badania- powoduje obniżenie trafności zewnętrznej:
w jakim stopniu reprezentatywność warunków zakłóca procedurę badania?
problem operacjonalizacji zmiennych - sposób i fakt operacjonalizowania powoduje fakt obniżenia trafności zewnętrznej
czynniki zakłócające trafność wewnętrzną:
a) wykraczające poza plan
efekt doboru- chodzi o to, w jaki sposób w ogóle o.b. Pojawiają się w badaniu i jak są przydzielane do grupy eksperymentalnej i kontrolnej- czym się różnią ochotnicy od osób, które nie chciały brać udziału w badaniu
efekt uwrażliwienia- taka sytuacja, w której dokonując pomiaru początkowego uwrażliwiamy o.b. Tak, aby wpływało to na pomiar końcowy
grupy możemy dobrać dokonując:
a. doboru wiązanego- grupy różnią się jednym czynnikiem, dla osoby z grupy eksperymentalnej szukamy osoby analogicznej poza jedną zmienną
b. zamiast dążyć do dopasowania wiązanego, dążymy do dopasowania częstości np. podobne śr. wieku
c. jak sprawdzić efekt doboru?- porównując grupę eksperymentalną i kontrolną
d. czy da się wyrównać grupę eksperymentalną i kontrolną?- zależy od ilości czynników- które z nich brać pod uwagę- zależy od badacza
b) związane z planem badawczym
historia- problem dotyczy czasu- im dłuższy czas między pomiarem początkowym i końcowym, tym więcej niekontrolowanych czynników się pojawia
utrata osób badanych- czynnik wtórnej selekcji- nie interesują nas ubytki jako takie, lecz selektywność ubytków- dlatego najpierw zbieramy dane demograficzne, aby potem porównać osoby, które przyszły z osobami, które nie przyszły
instrumentacja- zmiana w instrumencie, za pomocą którego wykonujemy badanie- powinno się dokonywać pomiaru początkowego i końcowego za pomocą tego samego instrumentu
testowanie- czynnik uwrażliwienia przez pomiar początkowy i końcowy
artefakt regresji- efekt sufitowy- przydzieliliśmy osoby na podstawie wyniku X- jedną z grup poddajemy manipulacji- sprawdzamy, gdzie wzrosły, gdzie zmalały- wzrosły u osób, które wyjściowo miały niski wynik
przenikanie informacji związanych z planem eksperymentalnym- np. zapewnienie kontroli nad przekazywaniem sobie informacji między o.b. - czynniki związane z o.b.- postawa o.b., próba rywalizacji
Czynniki te upośledzają trafność wnioskowania - jest to plan idealistyczny; trzeba być wrażliwym na te czynniki!
Wnioskowanie statystyczne - zasady i konsekwencje.
sformułowanie hipotezy zerowej i hipotezy badawczej
- hipoteza zerowa: wyrażenie stwierdzające brak różnic lub brak związku pomiędzy zmiennymi; sformułowana w terminach parametrów populacyjnych; badacz bezpośrednio testuje tę hipotezę
- hipoteza badawcza: sformułowana w terminach parametrów populacyjnych; zostaje potwierdzona, gdy hipoteza zerowa zostanie odrzucona jako nieprawdopodobna
- hipoteza zerowa jest oparta na wnioskowaniu negatywnym, aby uniknąć błędu potwierdzenia rezultatu
wybór – zgodnie z hipotezą zerową – rozkładu z próby i testu statystycznego
- rozkład z próby pozwala określić dokładność statystyki z próby poprzez porównanie z modelem statystycznym określającym prawdopodobieństwo uzyskania takiego wyniku (wynika to z błędu próby)
- np. rozkład z próby średnich, rozkład wariancji, odchylenia standardowego...
określenie poziomu istotności α i zdefiniowanie obszaru odrzuceń
- obszar odrzucenia to zbiór skrajnych wyników
- poziom istotności to suma prawdopodobieństw wyników wpadających do obszaru odrzucenia; hipotezę zerową należy odrzucić, gdy wynik z próby jest wynikiem, który można otrzymać losowo nie częściej niż np. 5% (α = 0,05)
obliczenie wartości testu statystycznego i odrzucenie lub utrzymanie hipotezy zerowej
- testy statystyczne dzielą się nia:
parametryczne: test statystyczny oparty na założeniach dot. parametrów populacji, z której pobrano próbę; najważniejszym założeniem jest to mówiące o tym, że dane pochodzą z populacji o rozkładzie normalnym i że badane zmienne zostały zmierzone przynajmniej na poziomie interwałowym; np. test różnicy pomiędzy średnimi, r Pearsona
nieparametryczne: test którego model nie wymaga, aby populacja miała rozkład normalny, nie wymaga pomiaru na poziomie interwałowym; np. test Manna-Whitneya, chi-kwadrat
Pojęcie hipotezy statystycznej i jej relacje do innych hipotez.
- dowolne przypuszczenie dotyczące rozkładu populacji, zawsze dotyczy badanej populacji
- formułowanie jej rozpoczyna się zebranianiem informacji na temat populacji i jej możliwego rozkładu
Hipotezy statystyczne można podzielić na:
parametryczne - hipoteza dotyczy wartości parametru rozkładu
nieparametryczne - hipoteza dotyczy postaci funkcyjnej rozkładu
Według innego kryterium podział przebiega następująco:
proste - hipoteza jednoznacznie określa rozkład danej populacji, czyli odpowiadający jej podzbiór zbioru Ω zawiera jeden element (rozkład)
złożone - hipoteza określa całą grupę rozkładów, zaś odpowiadający jej podzbiór zbioru Ω zawiera więcej niż jeden element
alternatywna - przyjmujemy ją kiedy odrzucamy hipotezę zerową
Decyzja statystyczna.
- Wyznaczoną na podstawie próby wartość statystyki porównujemy z wartością krytyczną testu.
- Jeżeli wartość ta znajdzie się w obszarze krytycznym, to hipotezę zerową należy odrzucić jako nieprawdziwą. Stąd wniosek, że prawdziwa jest hipoteza alternatywna.
- Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, oznacza to, że brak jest podstaw do odrzucenia hipotezy zerowej. Stąd wniosek, że hipoteza zerowa może, ale nie musi, być prawdziwa, a postępowanie nie dało żadnych dodatkowych informacji uprawniających do podjęcia decyzji o przyjęciu lub odrzuceniu hipotezy zerowej.
Wybrane metody analizy wielozmiennowej - podstawowe założenia analizy czynnikowej i data mining. (osobny dokument)
Zasady pisania raportów empirycznych.
PLANOWANIE
• Wybranie problemu badawczego
• Upewnienie się o swojej wiedzy teoretycznej , literatura
• Wybór właściwego planu badawczego:
Co należy kontrolować?
Co będzie czynnikiem zakłócającym?
• Problem operacjonalizacji:
Jakie narzędzie?
Jak i czym będe zbierać dane - korzystanie z gotowych narzędzi czy tworzenie nowych?
• Określenie poziomu danych, skali na których będziemy mierzyć dane; zależy od tego późniejsza analiza statystyczna
PUBLIKACJA NAUKOWA
• Podstawowa lub pierwotna publikacja naukowa to pierwsze wystawienie oryginalnych wyników badań.
• Powinna zawierać wystarczającą ilość informacji aby niezależnie od autora:
1. Ocenić wyniki
2. Powtórzyć badanie
3. Ocenić proces myślowy
• Powinna byc dostępna w formie trwałej(książka, czasopismo). Internet jest problemem, jest mało trwały. Bibliografia – publikacja w internecie, należy dodać , kiedy uzyskało się dostęp do danej publikacji.
• Rozpowszechnianie bez ograniczeń.
• Dostępna dla wydawnictw referujących- publikują streszczenia „abstrakty”
Ocenić wyniki – trzeba zrozumieć, czego praca dotyczy, co w pracy będzie odpowiadało wstępowi.
• Oceniamy co jest problemem. Jak został rozwiązany problem?- Metoda
• Jakie rezultaty- wyniki
• Co rezultaty oznaczają(dyskusja, wnioski)
• Streszczenie, podsumowanie, tytuł
Istotą pracy naukowej jest możliwość REPLIKACJI- jeśli wiemy jak powtórzyć to jest to dobra publikacja.
Publikacja powinna być napisana językiem prostym bądź zrozumiałym dla danej grupy naukowców.
INNE PUBLIKACJE
• Przeglądowa- jest najczęściej zamawianą publikacją, przegląd tego, co wydarzyło się w danej dziedzinie. Monografia w przypadku literatury- liczy się na ocenę krytyczną danych.
• Konferencyjna- referaty z konferencji. Zaproszone, gdy organizator prosi na sesji plenarnej lub robocze gdy badacz sam go zgłasza. Dzielą się na
Przedkonferencyjną- wystawiana przed wystapieniem . Referat jest wariancją. Całe treści referatu lub tylko streszczenie
Pokonferencyjna- referat i dyskusja z nim związana, uwzględnione w publikacji.
• Informacyjne- uwzględnia się aplikacyjny aspekt wyników badań.
• Popularyzacyjna- szerokie grono odbiorców
• Dysertacja- np. Doktorska, magisterska. Praca naukowa pisana na stopień.
WYSTAWIENIE
Impact Factor- naukometria, wskaźnik oddziaływania . Opracowany przez Filadelfijski Instytut , bada wskaźnik siły oddziaływania czasopisma. Wskaźnik ten mówi jak często jest się cytowanym.
PRAWO BREDFORDA- Jest pewna liczba czasopism w każdej dziedzinie naukowej, w której ukazuję się ok. 99% istotnych publikacji.
KRYTYKA
• Jest nieporównywalny między dziedzinami
• Powstał w innym celu, nie można uznać go za bezwzględną miarę nauki
• Wykrywa te obszry, gdzie coś się dzieje i szybko zmienia: moda lub obszary ważne dla ludzkości.
• Zmusza czasopisma do umieszczania tego co jest w danej chwili modne
ARTYKUŁ NAUKOWY (raport badawczy)
Podobny do stuktury pracy magisterskiej.
Tytuł- „telegram” do odbiorcy. W minimalnej ilości słów jak najwieksza ilość infomajcji. Nie może być przegadany. Np. „Wpływ X na Y”, „Zachowania X na funkcje Y”, „Zachowanie Z: wpływ X na Y”.
Wyrzucanie rzeczy zbędnych. Reguła oszczędności- 10-15 słów.
2. Autor/ afiliacje- gdzie autor pracuje? W Polsce przypisanie do uniwersytetu (dzisiaj już raczej zwyczajowe niż obowiązkowe). Kolejność- pierwsza osoba, włożyła największy wkład pracy, ale również bierze odpowiedzialność za publikację. Lub kolejność alfabetyczna, wszyscy taki sam wkład pracy. Podziękowanie na końcu.
3. Streszczenie- Rozwinięcie tytułu. Co to za problem? Metoda? Kim były osoby badane ? Jakie zmienne? Podstawowe wyniki? Podstawowe wnioski?
4. Problem- obszar badawczy, krytyczne podsumowanie dotychczasowych badań. Teoretyczna baza hipotez. Jeśli jest to replikacja to omówienie oryginału.
5. Metoda- Opis użytych metod. Skrócony opis narzędzi. Opis osób badanych, kim byli? Przebieg doboru? Przebieg badania, postulowany i rzeczywisty. Model badania, plan badania.
6. Wyniki i rezultaty- Opis. Testowanie hipotez (hipotezy statystyczne- testowanie)
7. Dyskusja wyników w świetle literatury- Odniesienie do tego co powiedziane na początku. Wnioski przypominające hipotezę , Krytyka badania. Wnioski teoretyczne i praktyczne.
8. Literatura cytowana- cytowanie wiąże się z problemem plagiatu. Należy podawać strony ksiązki, wyjątkiem są krótkie artykuły.
RAPORT BADAWCZY DLA CELÓW NAUKOWYCH
1. Wnioski
2. Opis badań
3. Opis literatury
Odwrotna kolejność jak w artykule.
DYSERTACJA
• Rozbudowany element teoretyczny- erudycyjny popis (czytałem, wiem)
Wstep- dlaczego? Skąd problem? Czemu jest ważny? Jak chcemy go zbadać?
•Tok wywodu
TEKSTY JAKOŚCIOWE
• Podstawowy problem - WIARYGODNOŚĆ
Dane mają charakter subiektywny. Obiektywizowanie metody. Zadbać o bezstronność.
Odwołanie do zasady codziennego realizmu- charakter reportażu.
• Struktura
Wprowadzenie- kontekst i problem badania? Uzasadnienie wyboru podejścia jakościowego? Dlaczego takie podejście daje więcej? Określenie metodologii. Opisanie ewentualnych modyfikacji. Ustalenie roli badania, kompetencje badacza.
Specyfikacja projektu - NIE MA WERYFIKACJI HIPOTEZ.
Teksty ilościowe Teksty jakościowe
• Tekst bezosobowy
• Czas przeszły- poza prospektem, gdzie czas przyszły
• Dosłowne cytaty
• Standardowa forma
• Nawet o rzeczach przyszłych mówimy w czasie teraźniejszym
• Cytowanie źródła w wersji interpretowanej
• „łatwo zepsuć”, nieokreślona forma, dlatego pojawia się wiele typowych błędów:
Bezkrytyczność, perspektywa podmiotu badania
Brak dystansu wobec terenu
Demonstrowanie własnej wyższości
Mieszanie informacji z opisem
Interakcja "psycholog-osoba badana" jako źródło artefaktów
nietrafność wynikająca z izolazji (czyszczenie warunków eksperymentalnych, co nie pozwala na generalizację na prawdziwe życie) realizm sytuacyjny badań
eksperyment wymyślony pod obiekty nieożywione ( stąd eksperyment na ludziach prowadzi do kilku problemów) – nie mają spontanicznej dynamiki, różnic indywidualnych jak ludzie
trzeba brać pod uwagę, że badacze opisują, co im się wydaje, że czuły osoby badane!
czynniki wpływające na wynik eksperymentu:
oczekiwania badacza
przynależność do grupy badanej
stronnicza rejestracja wyników
stronnicza interpretacja
wpływ cech demograficznych
wpływ osobowości
wpływ doświadczenia badacza w tym eksperymencie
rola przyjmowana przez OB
wpływ warunków badania
wpływ badacza na eksperymentatorów
nieświadome modelowanie
stronniczy wpływ hipotezy badawczej (bezpośrednio / pośrednio)
wpływ paradygmatu
wpływ procedur eksperymentalnych
fałszowanie danych przez badacza / eksperymentatora
efekt nieprzestrzegania procedury badawczej (czasami nie da jej się w pełni sformalizować)
role osób badanych:
lęk przed oceną
dobra osoba badana
negatywna osoba badana (bierna / aktywna)
lojalna osoba badana (bierna / aktywna)
eliminowanie niebezpieczeństw:
rozdzielenie badacz – eksperymentator
pełne / niepełne granie roli
badanie wewnątrz symulacyjne
badanie pilotażowe
badanie po eksperymencie, czy OB doświadczyły tego, o czym były badane
Tradycja pozytywizmu a tradycja Verstehen.
Tradycja verstehen – zgodnie z tradycyjnym rozumieniem słowa verstehen (z niem. empatia), nauki przyrodnicze i społeczne tworzą dwie odmienne dziedziny wiedzy. Powodem tej odmienności jest natura właściwego im przedmiotu badawczego. Zwolennicy utrzymują, że nauki przyrodnicze i społeczne muszą stosować różne metody badawcze. Czyli przedstawiciele nauk społ powinni np. rozumieć zarówno historyczny wymiar ludzkiego zachowania, jak i subiektywny aspekt ludzkiego doświadczenia. Wg Maxa Webera jeśli mamy zrozumieć zachowanie jednostek i grup, to musimy nauczyć się „stawać na miejscu badanych” (cudze wartości, symbole itd.).
->Już współcześnie podejście rozumiejące (przedstawiciel K. Gergen) pojawiło się jako wytwór tradycji Verstehen.
Rozumienie predyktywne- tzw. przedstawiciele empiryzmu logicznego, w przeciwieństwie do przedstawicieli verstehen, wychodzili z założenia, ze można uzyskać wiedzę obiektywną, badając zarówno świat społeczny, jak i śwat przyrodniczy. Wg nich można studiować tak nauki przyrodnicze, jak i społeczne odwołując się do tych samych reguł metodologicznych a rozumienie oparte na empirii może prowadzić do odkryć naukowych. Jeżeli jednak te odkrycia mają być włączone do całokształtu wiedzy- muszą zostać zweryfikowane obserwacjami empirycznymi.
Metodologiczne problemy badań jakościowych.
● OBSERWACJA UCZESTNICZĄCA:
- najbardziej powiązana ze współczesnymi badaniami terenowymi
- badacz staje się członkiem grupy, którą bada – przejmuje perspektywę badanych os na daną sytuację (pozwala dokładnie poznać osoby badane)
- rola obserwatora uczestniczącego: „świadome i systematyczne uczestnictwo –tak dalece, jak pozwalają na to okoliczności – w codziennym życiu i poszczególnych sytuacjach będących udziałem grupy”
Obserwator w pełni uczestniczący (obserwacja niejawna)
- obserwator jest w pełni ukryty, nie ujawnia swej tożsamości, osoby badane nie znają celu badań, a obserwator staje się członkiem badanej grupy, w której w sposób najbardziej naturalny stara się nawiązać kontakt z osobami badanymi.
- uczestnictwo pełne jest uzasadnione, gdy grupa jest zamknięta i niechętna do współpracy z osobami z zewnątrz
- niektórzy uważają, że jest to metoda nieetyczna – wchodzenie w czyjąś prywatność bez pozwolenia; oszustwo.
- problemy: nieumiejętność „wejścia” w grupę, trudności z kontrolowaniem się (aby się nie wydało, że są obserwatorami), nieumiejętna gra obserwatorów, nie można na miejscu rejestrować obserwacji czy robić notatek a czas między obserwacją a zapisaniem może być źródłem błędu stronniczego lub przekłamań (zawodna pamięć)
Uczestnik jako obserwator (obserwacja jawna)
- obserwator staje się uczestnikiem badanej grupy, ujawniając swoją tożsamość oraz cel badania, próbuje on angażować się w życie grupy przez dłuższy czas, członkowie grupy stają się informatorami oraz respondentami
● PRAKTYCZNE PROBLEMY BADAŃ TERENOWYCH
Wybór tematu badawczego – pierwszy etap badań terenowych, często temat związany jest z zainteresowaniami badacza lub problemem, w który jest zaangażowany
- badania terenowe wymagają, aby badacze najpierw określili, co jest dla nich ważne, niezależnie od naukowych rozważań. Emocjonalne zaangażowanie w pracę (badania) jest bardzo ważne.
Wybór miejsca i uzyskanie do niego dostępu – drugi etap badań, często zależne jest od tematu badania. Miejsce badania zależne jest również od wymagań natury praktycznej (np. położenie geograficzne).
- należy pamiętać o tym, że trudnością jest znalezienie złotego środka: badacz często nie potrafi dostatecznie głęboko wejść w grupę, duży dystans nie pomaga w poznaniu grupy. Lecz często też badacz zbyt mocno zaangażuje się w życie grupy i zdarza się nawet, że badacz rezygnuje z dalszych badań na rzecz ratowania interesu grupy, z którą się zżył.
- cechy charakterystyczne jak: płeć, wiek, kolor skóry, wygląd mogą decydować o dostępie do gr (przyjęciu badanego itp.)
Nawiązanie kontaktów z członkami grupy
– łatwość nawiązywania kontaktów zależy w dużej mierze od natury grupy oraz umiejętności badacza.
- współcześni badacze terenowi podkreślają, że faza budowania relacji społecznych jest prawdopodobnie najważniejszym elementem pracy terenowej
- w dobrze wywarzonych relacjach badacz: „stara się być świadomy i mieć wgląd na to kim jest sam, oraz mieć wgląd i być świadomym tego kim są jego gospodarze” błędem jest uważanie się za „rdzennego” członka danej grupy, zbytnie utożsamianie się z nimi.
Jak szukać osób dostarczających rzetelnych informacji
- badacz wchodzi do grupy, uczy się nawiązywania kontaktów oraz stara się zrozumieć grupę, grupa natomiast stara się zrozumieć jego. Nawiązują się bliższe relacje – badacz staje się pełnoprawnym członkiem grupy i teraz zaczyna się tworzyć coraz szersza siatka informatorów
- bliskie kontakty z informatorami mogą wpływać stronniczo na relacje, jakie badacz nawiązuje z obserwowanymi os
Opuszczenie terenu
- Etap ten zależy od stopnia porozumienia osiągniętego przez obserwatora i osoby badane w momencie rozpoczęcia badania oraz od rodzaju relacji społecznych, jakie rozwinęły się podczas procesu badawczego. Już sam podstawowy warunek – aby być zaangażowany w pracę- stwarza problem w momencie jej zakończenia.
Rejestrowanie obserwacji
- badacze mogą korzystać z wielu form rejestracji: zapis, nagranie wideo, nagranie głosu, notatki – ale nie zawsze jest to możliwe, badani muszą zapomnieć o tym, że są obserwowani, więc badacze najczęściej zapisują dane wydarzenia później, w odosobnieniu. Jeśli badacz jest ukryty to zapisuje najczęściej podczas spoczynku (gdy jest zupełnie sam) często zapomina więc musi korzystać z innych dostępnych technik – mnemotechnik – np. skojarzenia (tego co należy zapamiętać z czymś co jest znane)
- jeżeli badacz nie może natychmiast zapisać obserwacji to istnieje niebezpieczeństwo zniekształcenia i nieintencjonalnej, złej ich interpretacji. (im dłużej czeka z zapisaniem tym bardziej mogą być zniekształcone)
Analizowanie danych
- Analizowanie danych w jakościowych badaniach terenowych jest procesem ciągłym. Obserwatorzy formułują hipotezy i w trakcie prowadzonych przez siebie badań rejestrują istotne wydarzenia. Niektóre hipotezy są następnie odrzucane, inne natomiast uszczegółowione i ciągle formułowane na nowo.
- ważnym aspektem analizy danych dokonywanej na etapie ich zbierania jest ustalenie zapisanych danych i ich kodowanie (analiza notatek)
- badacz sporządza notatki, następnie układa je w pewne zbiory, tnie informacje i łączy pasujące do siebie elementy.
- kiedy badacz wyodrębni działania i wypowiedzi potwierdzające hipotezę, kolejnym jego krokiem jest poszukiwanie przypadków negatywnych – przypadków przemawiających na rzecz odrzucenia hipotezy (aby określić czy hipoteza powinna być przeformułowana, czy wręcz odrzucona)
- raport pisemny jest kulminacją badań terenowych, przedstawia się w nim: podstawy badań, ich teoretyczne uzasadnienie oraz plan i metodologię badań. Powinna też znaleźć się analiza i interpretacja danych i wynikające z nich wnioski.
Wybrane metody wykorzystywane w badaniach jakościowych
Jak ludzie rozumieją pewne rzeczy/zjawiska? to jest obszar zainteresowania badań jakościowych (interesuje nas jak ludzie oceniają, a nie co)
Dane mają sens idiograficzny (układem odniesienia jest osoba, która jest źródłem danych)
Technika Free List
zbieranie od ludzi rozumienia określeń, np. jak ludzie rozumieją zawiść?
to bardzo ważny etap - jeśli chcemy zająć się czymś, co dotyczy ludzi, dobrze jest ich najpierw o to zapytać
metoda ta pozwala doprecyzować rozumienie obiektu, czy to, czym się zajmujemy ma sens, czy w ogóle istnieje?
możliwe pytania:
jaki rodzaj X występuje w Y?
wiadomo, że X to Y, jakie znasz jeszcze inne X?
wypisz wszystkie…
jakie są korzyści/wady X
jakie są korzyści/wady używania X w porównaniu z Y?
wymień podstawowe cechy, a potem napisz jakie cechy ma to, co wypisałeś.
Można badać dane wtórne (nie trzeba badać bezpośrednio), np. fora internetowe
Możliwe jest także grupowe tworzenie LIST:
grupa fokusowa (tematyczna, skoncentrowana na problemie) - istota: mamy ludzi z ulicy i moderatora rzucającego temat; każdy w grupie mówi to, co myśli; na końcu prosi się wszystkich o wypracowanie jednego poglądu; badamy tutaj myśli w kontekście społecznym
metoda delficka - wysyłamy do ludzi prośby, moderator spisuje odpowiedzi, na końcu rozsyłam z powrotem i prosimy o komentarz (tak się robi prognozy społeczne)
Ile potrzebujemy osób?
Właściwie jeżeli dokonujemy agregacji (liczymy częstości), to powinno być 100 osób. Liczebność przy tej metodzie: 20, 30 osób powinno wystarczyć.
Co wynika z tabeli częstości? - obiekt to coś, co występuje najczęściej dla danej grupy osób badanych
Interesuje nas jak dużo jest znaczeń danego zjawiska/obiektu wariancja wyników (dla skali nominalnej); ważne są dla nas rozbieżności w grupie
Techniki sortowania (kupki)
dajemy liczbę kart, badani mają podzielić je na kilka podziałek
sortowanie może być swobodne lub wymuszone
dzielenie następuje wg kryterium podobieństwa.
tworzymy macierz - to, co podobne stawiamy na jednej podziałce; jeśli A,B i C znalazły się na jednej działce, to A jest podobne do B i do C
Macierz podobieństw:
Agregacja wyników: dodajemy do siebie indywidualne tabele
Jak liczymy współczynnik podobieństwa? Nie badamy przeciwieństw, więc nasz współczynnik znajduje się w przedziale od 0 do +1.
By macierz była symetryczna, to na przekątnej 1, poza przekątną nie może być 1.
Co możemy dalej zrobić?
skalowanie wielowymiarowe
taksonomie obiektów (zagregowany podział)
analiza czynnikowa.
Jeśli macierz jest symetryczna, to właściwie możemy liczyć wszystko
Sortowanie zakotwiczone:
osoba badana ma zaklasyfikować, znaleźć całkiem różne od siebie klasy, a potem podobne do tych klas
kotwicą są wskazane przez osobę badaną klasy (kategorie)
Standaryzacja sortowania ci co bardziej dzielą, wyraźniej widzą różnice, więc podobieństwa są większe
Możemy poprosić osobę badaną o wielokrotne sortowanie hierarchiczne.
Sortowanie wielokrotne - szukamy aspektów kategorii (wielokrotnie wrzucamy do pudełka i dzielimy wszystko wg różnych kryteriów)
Sortowanie taksonomiczne:
metoda drzewa (tree like sorting)
można iść od góry (top-down) lub od dołu.
I znowu robimy macierz podobieństw.
Po wykonaniu sortowania pytamy osobę badaną o kryteria.
Porównanie trójkowe:
wybieramy 3 obiekty z iluś (np. 100) i mówimy osobie by:
uporządkowała te obiekty od najbardziej do najmniej
znalazła podobieństwa (które z tych dwóch obiektów są do siebie podobne albo który z tych 3 obiektów jest różny od pozostałych dwóch)
Trzeba losować te trójki - przy generacji obiekty są do siebie bardzo podobne
Możemy zapytać o kryteria - choć jest to bardzo trudne dla osoby badanej!
Sumujemy tabele wszystkich badanych osób, w wyniku tego otrzymujemy wymiary
Skale szacunkowe:
dobrze jest zrobić najpierw free-list, żeby wyznaczyć zakotwiczenia
kategorie mogą być wiązane z charakterystyką obiektu, ale nie muszą (te kategorie są zakotwiczeniami!)
dyferencjał semantyczny jak ludzie określają znaczenie pojęcia? (interesują nas różnice)
nie da się odtworzyć klasyfikacji, według których ludzie rozróżniają
Rangowanie:
sens gdy mamy mało obiektów - gdy mamy dużo obiektów, lepsze jest sortowanie
Techniki uzupełniania zdań:
Uzupełnienia:
jednowyrazowe - wielowyrazowe
jednokrotne
2 sposoby podejścia:
kategoryzujemy odpowiedzi ze względu na bodźce
kategoryzujemy odpowiedzi w zależności od uzupełnienia (np. negatywne/pozytywne uzupełnienia).
Etyczne problemy badań naukowych w psychologii.
Problemy natury etycznej wynikają ze specyfiki problemów analizowanych w naukach społecznych oraz ze specyfiki metod wykorzystywanych do otrzymania trafnych i rzetelnych danych.
Źródłem problemów etycznych może być: sam problem badawczy, otoczenie, w jakim odbywa się badanie, procedury wymagane w planie badawczym, metody zbierania danych, osoby będące uczestnikami badań, rodzaj zebranych danych.
Naukowcy stają w obliczu konfliktu pomiędzy dwoma prawami:
a) prawo badacza do prowadzenia badań i zdobywania wiedzy
b) prawo osób uczestniczących w badaniach do samookreślania, prywatności i zachowania godności
Przypisywanie przez ludzi korzyści i kosztów badań w naukach społecznych zależy od:
- ich pochodzenia - ich przekonań - ich doświadczeń
Planując badania naukowe, badacz musi dokładnie zestawić potencjalne korzyści/zyski wynikające z badań z kosztami/ stratami ponoszącymi przez OB. Proces wyrównywania korzyści i kosztów jest subiektywny (badacz o tym decyduje).
Prawo do prywatności – „wolność jednostki co do wyboru czasu i okoliczność, i co ważniejsze, zakresu, w jaki chce lub nie chce ujawniać swoich postaw, wierzeń, zachowań i opinii” oraz tajność danych
Wymiary prywatności:
a) istotność otrzymywanych informacji: odnosi się do zakresu, w jakim inf. zbierane przez badacza maja charakter prywatny lub potencjalnie zagrażający osobie badanej
b) otoczenie, w jakim przeprowadza się badanie: może być całkowicie prywatne, publiczne
c) udzielanie informacji: możliwość identyfikowania danych personalnych i łączenie ich z odpowiedziami udzielanymi przez osoby badane, np. inf. dot. dochodów
anonimowość i poufność to 2 powszechnie stosowane techniki mające na celu ochronę osób badanych
anonimowość: badacze zapewniają anonimowość poprzez oddzielenie danych o tożsamości osób badanych od informacji, jakich one udzielają. Jedną z najprostszych technik gwarantowania anonimowości jest niepytanie o nazwisko i inne dane mogące identyfikować osobę badaną
poufność: badacz zapewnia osoby badane, o tym, że podawane przez nie inf. będę traktowane jako poufne – nie będą upubliczniane. Jest to bardzo trudne, wręcz niemożliwe: sąd, instytucje prawne
Techniki pozwalające na nienaruszanie zasad poufności:
1. usunięcie danych identyfikacyjnych – usunięcie nazwisk, adresu
2. wprowadzanie szerokich kategorii dla danych – np. sugerowanie się województwem, nie miastem
3. grupowanie danych – budowanie obrazu „osoby przeciętnej”
4. Wprowadzanie błędu (celowe)