Zagadnienia do egzaminu z met 2014 15 1 2


  1. Wąskie i szeroki rozumienie metodologii badań empirycznych

Wąskie rozumienie - jej przedmiotem jest racjonalna rekonstrukcja procesów i czynności badawczych(metod)

Szerokie rozumienie – przedmiotem nie tylko rekonstrukcja procesów i czynności, ale także analiza założeń uzasadniających wybór owych czynności oraz namysł nad rolą nauki w systemie wiedzy(metod, ich założeń, konsekwencji poznania)


  1. Charakterystyka metody nauk przyrodniczych

-Rozwój nowożytnej nauki rozpoczął się w XVII wieku wraz z eksperymentami Galileusza i badaniami Newtona (m.in. prawo powszechnego ciążenia, zasady dynamiki).Wcześniej świat objaśniała religia i filozofia (narzędziem poznania intelektualna intuicja)

Naukę od innych sposobów poznawania odróżnia metoda – została ona opracowana na gruncie nauk przyrodniczych i przeniesiona do nauk społecznych

-Metoda nauk przyrodniczych

formułowanie hipotez

sprawdzanie hipotez

--Naukę od innych sposobów poznawania odróżnia metoda – została ona opracowana na gruncie nauk przyrodniczych i przeniesiona do nauk społecznych


  1. Struktura koncepcji badań empirycznych

*Określenie przedmiotu i celu badań

*Sformułowanie problematyki badań (głównego pytania badawczego i pytań szczegółowych) – pytania zawierają zmienne, określić relacje między zmiennymi

*Operacjonalizacja zmiennych (wskaźniki, pomiar)

*(ewentualnie) sformułowanie hipotez

*Określenie zasad doboru próby badawczej

*Wybór metody i techniki (technik) badawczej






















4. Zmienna, jej wartości, rodzaje zmiennych

-Zmienna jt. właściwość, cecha przyjmująca różne wartości. Podać zmienną to podać jej nazwę i zbiór jej wartości.

-Rodzaje zmiennych:

-Przykładowe rodzaje zmiennych w metodologii badań pedagogicznych:

-Osoby, rzeczy, zdarzenia, zjawiska i procesy, stanowią przedmiot zainteresowania dla osoby badającej nie w aspekcie ich całości, lecz z punktu widzenia ich atrybutów, a więc właściwości lub cech, które oddzielają różne przedmioty i różnicują takie same. W badaniach, jeśli badana właściwość przybiera przynajmniej dwie wartości - stanowi ona zmienną. Zmienna przybierająca dwie wartości określana jest mianem zmiennej dychotomicznej, czyli dwuwartościowej,

Zmienne mogą być wyrażone ilościowo lub jakościowo. Zmienne

ilościowe przedstawiane są liczbowo. Liczba będąca miernikiem pozwala na

określenie ilości, nasilenia lub częstości występowania. Każdy miernik

liczbowy może być policzony, zmierzony, zważony, ... . Zmienne jakościowe

określa się słownym opisem. Opis przedstawia charakterystykę słowną.

Mierniki jakościowe opierają się na danych empirycznych i uzyskuje się ich

przeważnie, za pomocą obserwacji, wywiadu lub analizy przedmiotu badania

(wytworu działania). Najistotniejszym w wyznaczaniu mierników jest, jaki

między nimi zachodzi związek, jakie są zależności, gdyż właśnie to sprawia

(powoduje) wyodrębnienie rodzaju zmiennych i ich wskaźników.


Oprócz zmiennych zależnych i niezależnych w badaniach występują

także zmienne pośredniczące. Zwykle nie są one przedmiotem szerszych

badań. Dokładne badania wskazują jednak, iż oddziałują (wpływają) one na

obie zmienne. Ich wpływ z różną siłą wzmacniają, bądź osłabiają zmienne

zależne lub zmienne niezależne. Badając związki zachodzące między

zmiennymi, należy określić zarówno wpływ zmiennej niezależnej na zmienną

zależną jak i wpływ zmiennej pośredniczącej. Zmienne niezależne najsilniej

działające traktuje się jako główne, działające słabiej jako uboczne. Zmienne

niezależne uboczne mogą być kontrolowane i nie kontrolowane.


Wyłaniając zmienne zależne należy pamiętać, że stanowią one skutek

w określonym badaniu. Są to takie zmienne, które w danym procesie,

zdarzeniu, zjawisku, strukturze czy też organizacji ulegają zmianom. Z tego

też powodu zainteresowania kieruje się głównie na nie oraz ich związki

z tymi zmiennymi, od których one zależą. Zmienne, od których zależą

zmienne zależne nazywamy zmiennymi niezależnymi. Zmiennymi

niezależnymi są zatem te zmienne, które oddziałują na zmienne zależne. Są

one przyczyną określonego skutku, czyli zmian w zmiennych zależnych.


Zdefiniowanie zmiennych polega na wyodrębnieniu tych właściwości

(cech, charakterystyki), które określają dane zjawisko (proces, strukturę,

organizację lub element). W zależności od przyjmowanych kryteriów

podziału wyodrębnić można różne rodzaje zmiennych. I tak ze względu na

wielkość, z którego badana zmienna przyjmuje różne wartości wyróżnia się

zmienne:

- dwuwartościowe,

- wielowartościowe.

Przykładem zmiennej dwuwartościowej może być płeć, gdyż

przyjmuje ona tylko dwie możliwości, na przykład: mężczyźni i kobiety lub

studenci i studentki. Zmienne wielowartościowe to na przykład osobowa

charakterystyka człowieka, a więc jego wiek, zawód, miejsce zamieszkania,

wzrost, waga, lub też techniczna charakterystyka jakiegoś urządzenia,

aparatury, przedmiotu, obiektu, określająca jego długość, szerokość,

wysokość, m a s ę , . . . .


5. Hipoteza – definicja, warunki poprawności, funkcje

Hipotezy jak już zaznaczono są niezbędne w przypadku problemów dotyczących współzależności między określonymi zmiennymi. Jeżeli opisujemy tylko fakty lub zjawiska (na przykład niektóre zdarzenia z historii) taka konieczność nie zachodzi. W niektórych badaniach odtwarzających rzeczywisty przebieg zdarzeń wysuwanie hipotez roboczych

nawet nie jest wskazane, gdyż mogą one wywierać niepożądaną sugestię i krępowac poczynania badawcze prowadzącego badania. W badaniach należy stawiać hipotezy wówczas, gdy pomagają one skutecznie te badania organizować i dokumentować. Gdy pozwalają one ukierunkować działania, wskazują na to co ma być przedmiotem badań. Dzięki hipotezom powinno się konkretyzować rozwiązywany problem badawczy. Dlatego też,

w procedurze formułowania hipotez zaleca się:

- na podstawie analizy problemu ustalić, jakie efekty są

przedmiotem badań,

- określić, w jakich warunkach należy osiągać zamierzone

cele,

- przyjąć założenia rodzaju i zakresu działania badawczego,

- usystematyzować i podporządkować całokształt wiedzy teoretycznej i praktycznej z zakresu organizacji i realizacji danych procesów poznawczych założonym celom badań,

- opracować na podstawie znanych j u ż danych teoretycznych oraz praktycznych projekt badań.

Podstawą tworzenia hipotez(y) musi być zasada, że przypuszczenie

względnie pomysł rozwiązania pośrednio lub bezpośrednio wynika

z przedmiotu badań danego problemu lub tezy. Hipoteza powinna także

znajdować swoje uzasadnienie w aktywnie przestudiowanej literaturze

specjalistycznej. Jeżeli sformułujemy hipotezy (lub je zweryfikujemy) po

przeprowadzeniu badań próbnych nada to im jeszcze wyższą wiarygodność,

a nas upewni w przekonaniu, że weryfikacja potwierdzi prawdziwość

planowanych rozwiązań, wyników i wniosków przewidywanych

w badaniach.


Poprawnie sformułowana hipoteza powinna:

- umożliwiać dedukcyjne wnioskowanie,

- być zgodna z obowiązującymi obiektywnie prawami

i uznanymi naukowo zasadami,

- jej ścisłość, stopień jednoznaczności, liczba pozytywnych

wskaźników musi potwierdzać prawdziwość treści w niej

zawartej.


Hipoteza jest przypuszczeniem lub prawdopodobieństwem istnienia

(obecności) lub nie, danej rzeczy, zdarzenia, czy też zjawiska (procesu)

w określonym miejscu lub czasie. Stanowi prawdopodobieństwo zależności

danych zjawisk od innych lub związku wielkości statystycznie empirycznie

ustalonych. Opierając się na faktach znanych i dostatecznie sprawdzonych

można przypuszczać, że badane zjawisko jest „tam, a tam" zlokalizowane,

że w określonym czasie się działo lub nadal dzieje, że powstaje

w konkretnym otoczeniu (warunkach) bądź też, że jest skutkiem określonych

przyczyn i działań. Podobnie jest z przypuszczeniami co do związku

logicznego określonych pojęć lub twierdzeń. Opierając się na twierdzeniach

udowodnionych i na wypróbowanych metodach dochodzenia prawdy można

przypuszczać, że za pomocą określonych sposobów uzyskuje się oczekiwane

rozwiązanie.



  1. Schemat eksperymentu (dlaczego w eksperymencie przeprowadza się pomiar, co to jest randomizacja, dlaczego się stosuje) podać przykład przeprowadzonego eksperymentu

-Schemat eksperymentu

*Manipulowanie zmienną niezależną-główną

*Kontrolowanie zmiennych niezależnych- ubocznych

*Minimalizowanie wpływu zmiennych niezależnych-zakłócających na zmienną zależną

*Dokonanie pomiaru zmienności zmiennej zależnej spowodowanej przez zmienne niezależne-główne

Przykładowa hipoteza Darleya i Latane

Dlaczego ludzie nie udzielają pomocy osobom napadniętym w miejscach publicznych ?

Najczęstsze wyjaśnienia: anonimowość życia w dużych miastach, znieczulica itp.

-Hipoteza: im większa liczba osób obserwujących sytuację wymagającą podjęcia działania, tym mniejsze prawdopodobieństwo, że określona osoba udzieli pomocy (duża liczba potencjalnych ‘ratowników’ – zmniejszanie się gotowości udzielenia pomocy).

-Randomizacja jest to losowy dobór osób do badania. Losowość należy tutaj rozumieć, że każdy przypadek z badanej populacji ma taką samą szansę być uczestnikiem badania co każdy inny. Stosując odpowiednie metody losowania badacze "dają" szansę każdej osobie z populacji na bycie osobą badaną. Losowe dobieranie osób do badania sprawia, że jest niewielkie prawdopodobieństwo, że badane grupy będą się różnić między sobą innymi niż zaplanowane przez badacza zmienne, np. badacz nie mierzy poziomu inteligencji osób badanych, ale stosując losowy dobór osób do badania sprawia, że poziom inteligencji w grupach badawczych powinien być podobny.

-plan eksperyntu






Najistotniejszą cechą każdego eksperymentu naukowego jest:

- wybranie odpowiedniego czynnika eksperymentalnego (zmiennej niezależnej),

- ustalenie prawdopodobnego (przypuszczalnego) kierunku zmian. Przypuszczalne zależności i zmiany występujące między zmienną niezależną i zmiennymi zależnymi stanowią

treść hipotezy,

- eksperymentalne weryfikowanie hipotezy roboczej przez wywołanie lub zmienianie biegu realnych procesów,

- obserwowanie i dokładne mierzenie (rejestrowanie) zmiennych zależnych.

Uwzględnienie tych założeń odgrywa decydującą rolę w toku organizacji i realizacji eksperymentalnych badań wybranych zjawisk i procesów. Ze zmianą badanego zjawiska czy procesu wiąże się ściśle zagadnienie dotyczące sposobu wykrywania zależności między zmienną niezależną a innymi elementami badanego układu (badanej struktury), czyli

zmiennymi zależnymi. Eksperyment naukowy znajduje szczególne zastosowanie przy badaniu zjawisk powtarzających się w warunkach przynajmniej częściowo takich samych. Oznacza to, że nie ma możliwości prowadzenia eksperymentu nad zjawiskami indywidualnymi



Główne zasady eksperymentu naukowego to:

- wyodrębnienie badanego zjawiska (procesu, struktury) od wpływów ubocznych (niekontrolowanych czynników), czyli utworzenie w miarę możliwości układu wyizolowanego (jego wyabstrahowanie),

- ustalenie zmiennych badanego zjawiska i określenie warunków mających stanowić przedmiot czynnej ingerencji eksperymentatora,

- wywołanie zmian w wyodrębnionym zjawisku (procesie),

- stwierdzenie charakteru i zakresu wywołanej zmiany czynnej

(zmiennych zależnych).


Metoda eksperymentalna lub ujmując inaczej eksperyment naukowy w ciągu ostatnich kilku wieków stał się jedną z najważniejszych metod badawczych. Jeszcze przed kilkudziesięciu laty sądzono, że eksperyment jako metoda badawcza wykorzystywana może być jedynie w badaniach stosowanych. Obecnie eksperyment znajduje coraz szersze zastosowanie i odgrywa istotną rolę we wszystkich badaniach. W swojej istocie często bywa uważany za odmianę obserwacji. O ile obserwacja jako proces spostrzegania to nic innego jak obserwacja bierna, to eksperyment naukowy stanowi obserwację czynną. Cechą znamienną obserwacji czynnej jest aktywny stosunek do poznawanej rzeczywistości, polegający na celowym organizowaniu procedur badawczych. Z tego punktu widzenia eksperyment jako metoda badawcza polega na celowo wprowadzanym do procesu poznania naukowego czynnika, który jest czynnikiem eksperymentalnym (zmienną niezależną). Obserwowane zmiany, jakie powstają pod wpływem wprowadzonego czynnika eksperymentalnego, stanowią zmienne zależne, bo są one zależne od zmiennej niezależnej (eksperymentalnej). Tak, więc podstawowe składniki eksperymentu naukowego czyniące zeń metodę to:

- zmienna niezależna i założenie przypuszczalnego kierunku zmian przezeń powodowanych,

- sam proces sprawdzania słuszności przypuszczeń przez wprowadzenie zmiennej niezależnej,

- pomiar i rejestrowanie zmiennych zależnych



















  1. Skale pomiaru, podać przykłady


Dokonując pomiaru należy zdawać sobie sprawę, że jeśli jakaś cecha

jest mierzalna w skali wyższej, to jest również mierzalna w skali niższej. Nie

zachodzi jednak relacja odwrotna. Dlatego też transformacja skali jest

możliwa tylko w kierunku od wyższej do niższej. Z metodologicznego

punktu widzenia może się okazać, że pomiar spełniający wymogi stawiane

skali interwałowej jest gorszy od pomiaru na poziomie skali porządkowej lub

nominalnej. Sytuacja taka może mieć miejsce wówczas, gdy pomiar na

wyższym poziomie okazuje się mniej dokładny i mniej skoncentrowany na

problemie (przedmiocie) badań, niż pomiar oparty na skali pomiarowej

o niższym poziomie. Z tego też względu rzetelność i trafność są

podstawowymi warunkami poprawności wszelkiego pomiaru, niezależnie od

typu skali, o ile dana skala właściwie zostanie dobrana (dostosowana) do

danego pomiaru.


pomiarem określamy takie czynności, które mają na celu wyznaczenie

wartości lub wielkości. Pomiar naukowy, to zabieg poznawczy, którego

celem jest dostarczanie danych do ilościowego opisu badanych przedmiotów

lub zjawisk. Pomiar w badaniach naukowych polega na przyporządkowaniu

zgodnie z obowiązującymi regułami (zasadami), cechom badanych

przedmiotów lub zjawisk określonych liczb rzeczywistych wyrażających ich

miary. Ze stwierdzenia tego wynika, że aby dokonać pomiaru trzeba mieć coś

konkretnego. Nie można mierzyć czegoś, co nie podporządkowane jest

z góry przyjętym prawidłowościom. Istota pomiaru polega więc na

uporządkowaniu, na ilościowym określeniu badanych zjawisk (procesów)

lub cech zjawisk o charakterze jakościowym, a także na przekształceniu

zbioru faktów jakościowych uznanych jako cechy hierarchii ilościowych

rozumianych jako zmienne lub ich wskaźniki.


-w sensie szerokim – pomiar polega na przyporządkowaniu zbiorowi mierzonych przedmiotów określonego podzbioru liczb rzeczywistych tak, aby stosunki (relacje) zachodzące miedzy liczbami izomorficznie odwzorowywały stosunki zachodzące między elementami zbioru mierzonych przedmiotów

-pomiar w sensie wąskim - można przeprowadzić tylko wtedy, gdy mierzone wielkości są wielkościami addytywnymi, tj. takimi na których można przeprowadzać operację izomorficzna z jakąś operacją arytmetyczną (dodawanie, odejmowania itd.)




Najczęściej w badaniach naukowych stosuje się cztery rodzaje

pomiaru, zwanych typami skal pomiarowych. Są to skale:

- nominalna,

- porządkowa,

- interwałowa,

- stosunkowa.

Podstawowym kryterium ich podziału są określone reguły dotyczące

sposobu przypisywania liczb (cyfr) badanym przedmiotom lub zdarzeniom.

Ujmując inaczej, są nimi określone operacje arytmetyczne i statystyczne,

jakich używa się w ramach poszczególnych typu skal. Wyróżnione skale

tworzą układ hierarchiczny, poczynając od skali najprostszej, jaką jest skala

nominalna, a kończąc na skali bardziej złożonej jaką jest skala stosunkowa.

Stąd nasuwa się wniosek, im wyżej położona jest jakaś skala w owej

hierarchii, tym więcej można wykonać operacji na liczbach uzyskanych

w danym pomiarze








  1. Różnica między skalą a indeksem

Indeks tworzony jest przez zsumowanie wyników przypisywanych poszczególnym stanom rzeczy. Np. aktywność ucznia w szkole: jest członkiem kół zainteresowań, uczestniczy w organizowaniu imprez na terenie szkoły, reprezentuje szkołę na zewnątrz, bierze aktywny udział w lekcjach (opinia nauczyciela). Za każdy rodzaj aktywności 1 pkt. – założenie: poszczególne rodzaje aktywności są od siebie niezależne.

Choć zarówno skala jak i indeks stanowią złożone wskaźniki pewnych zmiennych, to należy rozróżniać te dwa pojęcia (w praktyce często ze sobą utożsamiane i mylone). Tworząc indeks jedynie sumujemy odpowiedzi respondentów na poszczególne pytania, zakładając ich równoważność, jeśli chodzi o trafność opisywania zmiennej. Natomiast przy skalach wychodzimy z założenia, że niektóre pytania są bardziej intensywnymi wskaźnikami danej zmiennej i w związku z tym nadajemy im większą wagę przy konstruowaniu wskaźnika.


  1. Czym się charakteryzuje pomiar w naukach społecznych?

-W naukach społecznych wyróżnia się różne poziomy pomiarów, którym odpowiadają określone SKALE POMIAROWE.


  1. Na czym polega indukcja uogólniajaca?

Procedurą pozwalającą przechodzić od sądów faktualnych do teorii naukowych jest INDUKCJA. Istnieją 3 typy indukcji:

2 zalecenia:


Chalmers – zasada indukcji.

Jeśli duża ilość A została zaobserwowana w różnych E okolicznościach i jeżeli wszystkie bez wyjątku A posiadały właściwości B, to wszystkie A mają właściwość B.

Czy indukcja jest pewna? Nie ma żadnego sposobu na uzasadnienie indukcji. Nie można zasady indukcji uzasadniać indukcją.


Indukcja potwierdza się zawsze, inaczej wyjaśniamy mechanizm stosując ten mechanizm. Nie możemy wyjaśnia tego co nieznane tym co nieznane.












  1. Sposoby krytyki indukcji

Sposób krytyki indukcji.

Dotyczy statusu zdań faktualnych/ obserwacyjnych, każde zdanie jest obciążone jakąś teorią.


tu teraz czerwone

(przestrzeń) (czas) (barwa)


Nie istnieją nagie fakty. Kiedy my coś nazywamy, to przez tą nazwę przypisujemy mu pewne cechy.

Jeżeli się z tym zgodzimy to uznamy, że nie ma wiedzy pierwszej, na której mogłoby się oprzeć poznanie.

Obserwacja uzależniona jest od wiedzy, jaką posiada człowiek. W zależności od tego, jaka wiedza poprzedza obserwację, to my to widzimy.

Dlaczego więc nadal stosujemy indukcję? Hume:

Wiedza zdobyta indukcyjnie jest społecznym odruchem warunkowym, który każe nam przy pewnej sumie doświadczeń zaakceptować pewien stan rzeczy jako trwale obecny, ponieważ akceptacja jest korzystniejsza niż powstrzymywanie się od niej. Przy takiej interpretacji wiedza nie jest opisem świata takim jakim on jest, ale formą zachowania gatunku ludzkiego kumulującego korzystne zasoby doświadczonych połączeń.




  1. Główne cechy empiryzmu

* Empiryzmowi towarzyszą 2 nierozerwalne problemy:

W klasycznym empiryzmie przyjmuje się, że podmiot determinuje sposób poznawania go przez podmiot, tzn. poznający podmiot odzwierciedla go w zdaniach obserwacyjnych takim, jakim jest.


Klasyczny empiryzm.

Przedmioty (świat) zdania obserwacyjne indukcja zdania ogólne

R zeczy (przedmioty) wrażenia formy zmysłowości i rozsądku wyobrażenia

podmiot


Empiryzm kierunek filozofii, wg. którego jedynym lub głównym źródłem bądź środkiem poznania jest doświadczenie zmysłowe (zewnętrzne lub wewnętrzne).

Empiryzm przyjmował różne formy i postaci, ma jednak 5 wspólnych cech

1.  Indywidualny ludzki umysł rodzi się jako czysta karta (tabula rasa) – empiryzm genetyczny

2. Każde prawdziwe twierdzenie może być potwierdzone przez doświadczenie, tj. przez eksperyment lub obserwację. Jeśli nie da się tego zaobserwować, to trzeba określić wskaźniki.

3. Prawa naukowe to twierdzenia na temat ogólnych, powtarzalnych wzorów doświadczenia. Celem poznania naukowego nie jest identyfikacja wyjątków, ale szukanie reguł i prawidłowości.

4.Móc wyjaśnić zjawisko naukowo, to móc wykazać, że jest przypadkiem prawa ogólnego. Chodzi o pokazanie reguł jego istnienia, działania, pojawiania się i znikania.

5.Znajomość prawa ogólnego pozwala przewidywać zjawiska określonego typu.



  1. Czym się różni pozytywna wiedza naukowa od metafizyki (zdaniem A. Comta)

stadium metafizyczne – natura rzeczy poznawana jest przez ludzki rozum (własności bytu, przyczyny zmian itp), świat wyjaśniany był za pomocą abstrakcyjnych pojęć: „siły”, „substancji”, „jakości”, „istoty” itp.

stadium pozytywne – stawiane są pytania o powstawanie i przebieg zjawisk, zbierane są fakty (poznanie empiryczne).

Nauka ma gromadzić fakty i ustalać istniejące pomiędzy nimi związki, szukać praw powszechnych. Nauka ma dostarczać wiedzy pozytywnej, tzn. wiedzy umożliwiającej przewidywanie przyszłych faktów.


  1. Główne zasady doktryny pozytywistycznej wg. L.Kołakowskiego

1. Reguła fenomenalizmu (fenomen – zjawisko) – głosi, że nie ma realnej różnicy pomiędzy istotą, a zjawiskiem. Istoty poszukiwały koncepcje metafizyczne.
W tych koncepcjach metafizycznych głoszono, że zjawiska, które są dostępne obserwacji, są przejawem ukrytej rzeczywistości.
Pozytywizm głosi, że badacz powinien rejestrować tylko to, co przejawia się w doświadczeniu (widzimy, słyszymy, itp.).
2. Reguła nominalizmu – głosi, że wiedza formowana w terminach ogólnych nie ma innych realnych odpowiedników poza jednostkowymi konkretnymi przedmiotami, np. sprawiedliwość (pojęcia ogólne), trzeba określić czas i miejsce gdzie ta sprawiedliwość będzie badana, przedmiotem jest konkret.
Terminy ogólne pełnią funkcje pewnych instrumentów, ułatwiają nazwanie złożonych sytuacji jednym pojęciem, ale aby mogło być przedmiotem badania musi posiadać swoją empiryczną treść.
Pojęcia opisujące sytuacje idealne są wytworami ludzi. Wytworami, które pełnią funkcje instrumentalne. Służą skrótowemu opisowi realności empirycznej. Doświadczeniu dostępne są jedynie fakty, które porządkowane są w procesie poznawania i dzięki temu zdobywamy wiedzę, którą można praktycznie użytkować.
3. Reguła odrzucająca wartość poznawczą sądów oceniających i wypowiedzi normatywnych. Pozytyw tego typu wypowiedzi nie mają wartości naukowej.
4. Reguła zakładająca zasadniczą jedność metody. Sposoby zdobywania wartościowej wiedzy są zasadniczo takie same we wszystkich dziedzinach doświadczenia i takie same są główne etapy opracowywania zgromadzonych doświadczeń.
Metoda ta została wypracowana na gruncie nauk przyrodniczych.


  1. Konsekwencje pozytywizmu w naukach społecznych

KONSEKWENCJE POZYTYWIZMU W NAUKACH SPOŁECZNYCH
Założenie naturalizmu: świat społeczny jest zasadniczo ze światem fizycznym, można go więc tak samo badać. Przystosowanie przedmiotu do możliwości metody:
• przedmiotem nauk społecznych nie mogą być intencje, zamiary, przeżycia i inne tego typu rzeczy i stany metafizyczne, jak świadomość, osobowość etc
• należy rejestrować stałe, powtarzalne sposoby zachowania, wykazywać warunki, w jakich one powstają, pojawiają się i znikają








  1. Koncepcja poznania I. Kanta (co to znaczy, ze podmiot jest warunkiem przedmiotu, a kategorie warunkiem doświadczenia)

-E. Kant próbował połączyć racjonalizm i empiryzm, gdyż uważał, że poznanie ludzkie powinno opierać się na 2 pniach: rozum i oświadczenie. Aby poznać daną rzecz należy wejść z nią w kontakt, zrozumieć, a to można zrobić jedynie za pośrednictwem rozumu.

-Zadał pytanie transcendentalne (odnosi się do odpowiedzi na pytanie: W jaki sposób przedstawienia przekraczają granice podmiotu): Jak jest możliwe przejście od przedstawienia do rzeczy? (Jak jest możliwe przejście od podmiotu do przedmiotu?).

Wynikiem kontaktu zmysłów z przedmiotem są powstające w umyśle wrażenia, łączące się w wyobrażenia o danym przedmiocie. W tych wyobrażeniach poza wrażeniami tkwią także formy zmysłowości i rozsądku.


Dwie formy zmysłowości:

Formy rozsądku:


Każdy człowiek wyposażony jest w te formy porządkujące doświadczenie. Nasze poznanie możliwe jest dzięki danym zmysłowym i apriorycznym (apriori – przyjęty z góry) kategoriom (formy zmysłowości i rozsądku).


Pojęcie przestrzeni mamy wrodzone.

Forma ma w tym sensie charakter subiektywny, że jest umiejscowiona w podmiocie, ale jednocześnie stosuje się do wszystkich zjawisk.


Konsekwencje koncepcji Kanta:


  1. Struktura hipotetyczno-dedukcyjnego modelu badawczego

Poper zaproponował model hipotetyczno- dedukcyjny:

Cechą wnioskowania dedukcyjnego jest to, że jeśli przesłanki logicznie poprawnego rozumowania są poprawne, to wniosek musi być poprawny.

Elementy teorii, z których wyprowadzone są hipotezy to aksjomaty teorii (wg Popera). Te hipotezy powinny spełniać 2 warunki:


  1. Różnica między falsyfikacją a falsyfikowalnością hipotezy


Falsyfikacja:

Falsyfikowalność:

Odrzucenie hipotezy, a pośrednio teorii, z której została wyprowadzona w wyniku jej konfrontacji ze zdaniem deskrypcyjnym (bazowym).

Traktowana jest jako kryterium demarkacji (odróżnienia), pozwalające odróżniać wypowiedzi naukowe od nienaukowych. Tylko te wypowiedzi można uznać za naukowe, co do których można określić okoliczności, w których okazałyby się one fałszywe (określić okoliczności, których nie dopuszcza dana teoria).

Twierdzenie o statusie hipotezy jest falsyfikowalne, jeśli istnieje logicznie możliwe zdanie lub zdania obserwacyjne, które są z nią niezgodne, tzn. takie, które jeśli okazałyby się prawdziwe, to mogłyby sfalsyfikować hipotezę.

- Zasada falsyfikacji określa też zasadę przyrostu wiedzy -systematyczne eliminowanie błędnych wypowiedzi poprzez empiryczne falsyfikacje


  1. Pojęcie paradygmatu w koncepcji T. Kuhna

Paradygmat – pojęcie wprowadzone przez Kuhna – 2 sposoby rozumienia:

Wg Kuhna znaczna część wiedzy nauki formalnej to wiedza ukryta, nieuświadomiona. Tak długo jak wszystko toczy się normalnie, nie ma potrzeby uświadamiania sobie tej wiedzy. Potrzeba uświadomienia reguł pojawia się, gdy nadarzą się nowe, nieoczekiwane zdarzenia.

Paradygmat – określa sposób widzenia świata i postrzegania zadań danej nauki. Dzięki niemu uczeni zyskują kryterium wyboru problemów, które można uznawać za istotne i rozwiązywalne oraz kryteria poprawności ich rozwiązywania.

Kiedy zmienia się paradygmat, zmienia się też badana rzeczywistość, np. „Człowiek” dla psychoanalityka jest kimś innym niż dla behawiorystów.

W koncepcji Kuhna paradygmat odnosił się do konkretnych teorii naukowych. Współcześnie pojęcie to odnosi się do każdego zbioru przekonań (np. paradygmat metodologiczny, paradygmat normatywny, itp.).

Kuhn zapoczątkował nurt myślenia, który kładł nacisk na inne czynniki niż logicznie wpływające na naukę.



















  1. Rozwój nauki w koncepcji T. Kuhna

II połowa lat 60. „Struktura rewolucji naukowych”, T. Kuhn:

2 tezy Kuhna:

Kuhn zaproponował model rozwoju nauki – ETAPY:

  1. Okres pre-nauki:

    1. nie ma zgody co do podstawowych rozstrzygnięć

    2. dyskusje dotyczące spraw fundamentalnych

    3. nie ma wspólnej płaszczyzny, jest wiele konkurencyjnych teorii

  2. Kształtowanie się paradygmatu:

    1. przewidywania są najbardziej adekwatne w stosunku do rzeczywistości

    2. uznawany przez coraz większą liczbę osób

  3. Nauka normalna:

    1. jeśli paradygmat poprze większość

    2. wiadomo co i jak badać

    3. naukowcy rozwiązują łamigłówki/ drobne problemy będące uzupełnieniem danego stanowiska

  4. Przyrastanie anomalii:

    1. sytuacje niezgodne z przewidywaniami teorii

    2. mogą pojawiać się, gdy wiadomo jak być powinno

  5. Rewolucja naukowa (rywalizacja paradygmatów):

    1. kiedy anomalie zaczynają narastać, nadarza się konieczność powstania nowej teorii

    2. rywalizacja paradygmatu starego i nowego

    3. bardziej owocny jest zaakceptowany => okres nauki normalnej

  6. Nauka normalna.


  1. Czym są anomalie w koncepcji T. Kuhna i jaka pełnią role?

Obecność paradygmatu pozwala dostrzec nowość, tzn. to co jest niedopuszczalne przez obowiązujący paradygmat. Anomalie ujawniają się tylko temu, kto dokładnie wie czego powinien się spodziewa i jest zdolny stwierdzić, że coś jest inaczej, niż powinno.

Wystąpienie pojedynczych anomalii (falsyfikacji teorii) nie prowadzi koniecznie do odrzucenia paradygmatu. Może on zostać odrzucony dopiero wtedy, gdy pojawi się konkurencyjny paradygmat.





  1. Dlaczego Kuhn przywołał koncepcję wiedzy milczącej?

-znaczna część wiedzy reprezentanta nauki normalnej, jest wiedzą ukrytą, nieuświadomioną, a więc milczącą.

Wiedza milcząca- to wiedza czynnościowa, wykorzystujemy ją w działaniu, może ona być wydobywana w sytuacjach problemowych, kiedy dokonuje się zmiana paradygmatu, wtedy na jaw wychodzi wiedza milcząca.
Zdobywa się ją poprzez uprawianie nauki (nie przyswajanie reguł jej uprawiania) w procesie socjalizacji adept nauki „wdraża się” w określony sposób myślenia i działania, zawiązując typowe problemy, prowadząc typowe eksperymenty.


  1. Płaszczyzny niewspółmierności teorii

Płaszczyzna ontologiczna – zmiana elementów z jakich składa się świat opisywany przez teorię

Płaszczyzna obserwacji – zwracanie uwagi na różne elementy rzeczywistości

Płaszczyzna języka – te same terminy w różnych paradygmatach mogą mieć inne znaczenia (brak wspólnego języka)

Płaszczyzna metodologiczna – zmiana wagi problemów badawczych, różne procedury badawcze


  1. Anarchizm metodologiczny P. Feyerabenda

Nie ma takiej reguły metodologicznej, która w historii nauki nie zostałaby przekroczona

Mitem jest przekonanie, że postęp naukowy dokonuje się poprzez włączanie starych teorii w nowe. Postęp naukowy dokonuje się wtedy, gdy uczony wyzwoli się z więzów uznanych teorii i konwencji nauki instytucjonalnej.

Kuhn uznawał ‘naukę normalną’ jako sensowny etap w rozwoju nauki,

Feyerabend – to etap blokowania postępu, grzebany jest naturalny pluralizm teoretyczny,

Główna anty-reguła – wyprowadzaj hipotezy, które są niezgodne z potwierdzonymi teoriami albo z uznanymi faktami – nowe hipotezy nie powinny być badane dopiero wtedy, gdy stare się chwieją,

stanowisko łagodniejsze – reguł nie należy stosować dogmatycznie.



  1. Struktura orientacji (paradygmatu) metodologicznej

Założenia ontologiczne – obraz badanej rzeczywistości

epistemologiczne – specyfika sposobu poznawania

aksjologiczne – wartości, którym służy poznanie

metodologiczne – sposoby dochodzenia do uprawomocnionych twierdzeń i teorii














  1. Różnica miedzy naukami przyrodniczymi i humanistycznymi w koncepcji W. Diltheya

Ma charakter metodologiczny a nie przedmiotowy. Zarówno przedmiot przyrodoznawstwa, jak i humanistyki konstruowany jest w ludzkim doświadczeniu

Różnica w ujmowaniu przedmiotu wynika z ukierunkowania ludzkiego doświadczenia

- albo uświadamianie sobie przez człowieka świata zewnętrznego

- albo uświadamianie samego siebie, własnego działania i jego efektów

Nauki przyrodnicze badają świat zewnętrzny – dążą do jego opisania i wyjaśnienia (pozytywizm pomija konstytutywną rolę poznającego podmiotu)

Nauki humanistyczne dążą do opisania i rozumienia rzeczywistości tworzonej przez człowieka

Proces, w którym na podstawie znaków z zewnątrz dostarczanych przez zmysły poznajemy sferę wewnętrzną, nazywamy rozumieniem.” (Dilthey, Pisma estetyczne, 1982, s. 291)


Różnica ma charakter metodologiczny a nie przedmiotowy. Zarówno przedmiot przyrodoznawstwa, jak i humanistyki konstruowany jest w ludzkim doświadczeniu

Różnica w ujmowaniu przedmiotu wynika z ukierunkowania ludzkiego doświadczenia

- albo uświadamianie sobie przez człowieka świata zewnętrznego

- albo uświadamianie samego siebie, własnego działania i jego efektów



  1. Założenia określające przedmiot nauk humanistycznych, cel poznania

Człowiek ma wolę, cechą jego działania jest nastawienie na cel nadawaniem sensu elementom rzeczywistości i samemu działaniu. Ludzie tworzą kulturę, a jej wytwory są ekspresją (Ausdruck) treści psychicznych, są obiektywizacją życia

Jednostki żyjące w poszczególnych epokach i ich wytwory mają wspólne cechy

to wyraz „działania” ducha obiektywnego – wspólnoty przeżyć

- Nauki o duchu - Geistwissenschaften

Nauki humanistyczne górują ... nad wszelkim poznaniem przyrodniczym tym, że ich przedmiot nie jest zjawiskiem danym zmysłowo, zwykłym odbiciem czegoś w świadomości, ale jest samą bezpośrednią wewnętrzną rzeczywistością i to występująca jako wewnętrznie przeżywana spójna całość.” (Dilthey, Pisma estetyczne, 1982, s. 291)

Przedmiotem ‚materialnym’ są ludzkie wytwory, funkcjonujące poza psychiką, mające cechy fizyczne, ale tylko takie wytwory, które można zrozumieć, ponieważ przez ludzką aktywność wyposażone zostały w znaczenie. (Z. Kuderowicz, Dilthey, 1987, s.83)


Cel:

- Odsłanianie i zrozumienie sensów tkwiących w ekspresjach życia ludzkiego, co ma służyć wzrostowi samorozumienia człowieka

- Jest to możliwe poprzez interpretacje ekspresji przeżyć, występujących w całej zbiorowości w danej epoce lub dziedzinie kultury

- Zrozumienie ekspresji indywidualnych jest możliwe wyłącznie poprzez odniesienie do epoki, dziedziny kultury (cechy indywidualne występują zawsze z uniwersalnymi, powtarzalnymi)



  1. Jak możliwe jest poznanie w hermeneutyce Diltheya ?

filozofia hermeneutyczna – wg. Heideggera rozumienie nie jest sposobem poznania, lecz sposobem istnienia człowieka – człowiek egzystuje w świecie, który go obchodzi.


  1. Paradygmat normatywny i interpretatywny

Paradygmat normatywny:
-interakcja wyznaczona jest przez prawa rządzące rzeczywistością społeczną. W nim przebieg interakcji, określony jest przed jej rozpoczęciem. Czyli interakcja pomiędzy nauczycielem akademickim, a studentem. Wiadomo co wolno, czego nie wolno. Ludzie dążąc do osiągnięcia danego celu robią to co wolno, to co robią jest określone normami. Wszyscy mają taką samą mapę poznawczą, tzn. że każdy członek danej zbiorowości, społeczności, w podobny sposób interpretuje sytuacje i symbole, myślimy tak samo i dlatego bez kłopoty się porozumiewamy. Normy mają charakter obiektywny-one po prostu są elementem określonego społeczeństwa, i ich obowiązują.

Paradygmat interpretatywny:
-jest uporządkowana, ale procesualna. (za źródło ładu przyjmuje się proces społecznych negocjacji, czyli np. relacja pomiędzy nauczycielem akademickim, a studentem, ale jej przebieg jest uzależniony jest od kontekstu tego zachowania, czyli ta interakcja może potoczyć się różnie, czyli inaczej niż przewidują sztywne normy społeczne.
-role społeczne są tworzone (widzenie siebie cudzymi oczami).
-konsensus jest negocjowany (opis sytuacji jest negocjowany w interakcjach, zależy od komunikatów uczestniczących).
- uważa się, że normy należą do zasobów interpretacji.

Te dwa modele opisują społeczeństwo i człowieka w tym społeczeństwie.
Paradygmat interpretatywny zwraca uwagę na procesualność procesów społecznych.


  1. Założenia teoretyczne wywiadu narracyjnego

Wymiar narracyjny – jedna z metod badań jakościowych; twórcą jest Fritz Schutze – wg niego opowiadanie to forma komunikacji, dzięki której relacjonujemy swoje doświadczenie i może być środkiem, za pomocą którego można dotrzeć do doświadczeń tworzących indywidualną rzeczywistość społeczną.

Treść narracji podlega ciągłym konstrukcjom i rekonstrukcjom w ramach relacji społecznych.

2 płaszczyzny:

Wywiad narracyjny – opozycja do wywiadu standaryzowanego. Wywiad standaryzowany stanowi odzwierciedlenie myśli badawczej. Nie ma tu możliwości poznania osoby. Wywiad narracyjny stwarza warunki dla osoby, by mogła wypowiadać się swoim językiem i o czym chce. Chodzi tu o pełną otwartość.








  1. Sposób przeprowadzania wywiadu narracyjnego

Wywiad przeprowadza się w przypadku, gdy nie ma możliwości uzyskania informacji lub ustalenia faktów o danej populacji (zbiorowości) innymi technikami badań. Polega on na pozyskiwaniu danych przy pomocy bezpośredniej rozmowy. Wywiad może być skategoryzowany i nie skategoryzowac.. Aby dostarczał potrzebnych informacji (danych) musi być starannie przygotowany. W tym celu należy:

- określić cel i problematykę wywiadu,

- ustalić szczegółową listę pytań, które stanowić mają główną treść rozmowy,

- poczynić starania by w czasie rozmowy wywołać u respondenta pozytywną i szczerą motywację do wypowiedzi.

Przebieg wywiadu narracyjnego:

  1. nawiązanie kontaktu z respondentem – informacja o celu, przebiegu wywiadu, jak będzie wyglądał (wywiad narracyjny musi być nagrywany, bo do analizy niezbędny jest tekst)

  2. sformułowanie zachęty do opowiadania – formułuje ona oczekiwania badacza

  3. faza głównej narracji – osoba opowiada

  4. zadawanie pytań kolejno (faza pytań):

  1. faza bilansowania – prosimy badanego aby dokonał oceny tego, o czym mówił („bilans życia”)

  2. zakończenie wywiadu – łagodne, naturalne

Dobrze jest uzyskać zgodę na kolejny kontakt, bo przy analizie treści mogą pojawić się luki.

Transkrypcja wywiadu – zapisywanie w formie tekstu- zapis jak najbardziej dokładny (słowa, ale i przerwy, śmiech, płacz, reakcje niewerbalne).


  1. Sposób opracowywania wywiadu narracyjnego

Interpretacja wywiadu – przebiega wg określonego schematu:

  1. Analiza schematu komunikacyjnego – dokonujemy wyodrębnienia 3 typów wypowiedzi:

    1. opis

    2. opowiadanie

    3. argumentacja (wyjaśnianie, uogólnienia osoby opowiadającej)

  2. Formalna analiza tekstu – cała wypowiedź dzielona jest na segmenty zgodnie z zawartymi w nich historiami (pomagają tobie słowa jak np. „potem”, „po”, ..., itp., które często kończą jeden i przechodzą do drugiego segmentu).

  3. Opis strukturalny – dokonujemy analizy przebiegu zdarzeń w pojedynczych segmentach (co się działo?); chcemy tu wydobyć pewne punkty kulminacyjne lub zwrotne; dokonujemy identyfikacji przesłonięć i poszukujemy konstrukcji w tle.

Przesłonięcia – coś jest ukrywane świadomie lub nieświadomie:

Wskaźnikiem tych przesłonięć jest zaburzenie narracji (wąchanie, przerywanie). Widząc zaburzenia narracji próbujemy je wyjaśnić na podstawie innych wypowiedzi.

Konstrukcja w tle – poza warstwą opowieści jest coś ukryte (np. poczucie winy), widać to w przywoływaniu w argumentacjach (np. „tak się zachowuje osoba nieodpowiedzialna”).

  1. Analityczna abstrakcja – opowiadanie składamy w całość, która uzyskuje uporządkowanie o jakimś charakterze (np. teoretycznym); wyodrębnia się strategie specyficzne dla tych wydarzeń biograficznych (słowa charakteryzujące właśnie te wydarzenia biograficzne).

  2. Analiza wiedzy – dokonujemy zestawienia:

    1. następstwa wydarzeń

    2. struktur procesowych

    3. prywatnych teorii

    4. odpowiedzi argumentacyjnych

    5. oraz wykorzystujemy wcześniejsze ustalenia i formułujemy uogólnienia na temat osoby.


  1. Struktury procesowe określone przez F. Schütze

Schutze wyodrębnił 4 struktury procesowe:

Zwykle człowieka dotyczy kilka struktur procesowych następujących po sobie.


  1. Wspólne cechy badań jakościowych (wszystkie typy założeń tej perspektywy badawczej)

Wspólne elementy badań jakościowych:
Założenia ontologiczne:
o Charakteryzujące świat społeczny.
o Świat społeczny tworzy się, istnieje i zmienia w ustawicznym procesie interakcji międzyludzkich.
o Człowiek jest istotą działającą, która interpretuje sytuacje i zachowania innych i na tym buduje obraz siebie i podejmuje działania.
o Świat społeczny obdarzony jest sensem i znaczeniami. Są one przekazywane i konstruowane w procesie interakcji.
o Aby zrozumieć zachowania człowieka nie wystarczy spisać warunków, w jakich żyje, ale również to jak on oddziałuje na tą rzeczywistość.
Założenia epistemologiczne:
o Każde poznanie jest perspektywiczne, nie ma uniwersalnej perspektywy poznawania świata (badacz prowadzi badanie z jakiejś perspektywy, nie jest „bogiem” jak to było pozytywizmie. Nie ma poznania całościowego, ale tylko cząstkowe).
o Sposobem poznania świata społecznego jest zrozumienie.
o Poznanie jest procesem społecznym.
Założenia metodologiczne:
o Jeżeli nie ma uniwersalnej metody badawczej - metoda powinna być dostosowana do przedmiotu i celu badań.
o Wszelkie znaki umożliwiające interpretację mają znaczenie kontekstowe (ten sam czynnik może mieć inne znaczenie w innym kontekście; ta sama wypowiedź/zachowanie może znaczyć c innego).
o Badanie jest interakcją społeczną, w jego trakcje mają miejsce wzajemne oddziaływania uczestników, których nie można wyeliminować. Badacza i badanych cechuje refleksyjność (sam proces badania jest momentem poznania badanego przez badacza, np. zachowanie respondenta wywołane zachowaniem badacza – ton, mimika).
o Należy uwzględniać perspektywę uczestników zdarzeń.
Założenia aksjologiczne
o Badania jakościowe odsłaniają mechanizmy władzy i zniewolenia człowieka.
o Badacze jakościowi „przyjmują stronę” tych, którzy są zepchnięci na margines, pozbawieni głosu.


  1. W czym się wyraża otwartość badan jakościowych

Zalecenia metodyczne – otwartość:

- zasada otwartości :

=bez wstępnych hipotez ale hipotezy robocze

=kołowy dobór próby badawczej, albo analityczna indukcja


  1. Linearny i kołowy model badań, sposoby doboru próby badawczej w badaniach jakościowych

*kołowy dobór próby badawczej, kołowość - ważne jest to, że informacje uzyskane z analizy kolejnych przypadków przekształcają wiedzę początkową badacza. Wstępne założenia ulegają zmianie w trakcie procesu badawczego wraz ze zgromadzonym materiałem badawczym. Etapy badań przenikają się i postępują cyrkularnie; mamy do czynienia ze spiralą myślową. Próbę badawczą dobieramy dopiero w trakcie badań.

-kolowy


Linearny-dzieli się na model indukcyjny

i model hipotetyczno-dedukcyjny


Wspolne cechy tyh modeli





  1. Obiektywistyczny i konstruktywistyczny model poznania

Obiektywistyczny model poznania


Konstruktywistyczny model poznania


  1. Teoretyczne założenia obiektywnej hermeneutyki

PRZEDMIOT OBIEKTYWNEJ HERMENEUTYKI
• Subiektywny i obiektywny wymiar działania nie są traktowane w opozycji (one występują łącznie, są ze sobą powiązane; nie można zrozumieć jednego bez zrozumienia drugiego) - tworzą wzajemnie od siebie uzależnione dwie strony praktyki życia społecznego.
• Materialnym obiektem zainteresowania są społeczne działania człowieka, przebiegające w procesach interakcji
• Interakcja uważana jest za „elementarną jednostkę ludzkiego działania, a tym samym najmniejszą analityczną jednostkę teorii działania” (najmniejsza jednostka do badań)
• Przedmiotem teoretycznym są: latentne(ukryte) struktury sensu i obiektywne struktury znaczenia.(Pojęcia, które nie są precyzyjnie zdefiniowane. Żeby zrozumieć latentne struktury sensu trzeba przywołać teorię języka N. Chomskiego)

Interakcja – jednostka poddawana analizie
TEORETYCZNE INSPIRACJE Z TEORII JĘZYKA N. CHOMSKIEGO
Zastanawiał się:
• Jak to się dzieje, że człowiek buduje gramatycznie poprawne zdania, których nigdy nie słyszał
Odpowiadał:
• Ponieważ posługuje się regułami, które pozwalają mu tworzyć nieskończoną liczbę zdań - nie musi być tych reguł świadomy
• Posługiwanie się językiem przebiega na dwóch poziomach:
o na poziomie empirycznym obserwowalnych wypowiedzi określanych jako preformacje oraz
o na poziomie nieobserwowalnym - poziomie ukrytych kompetencji, o których istnieniu wnioskuje się jedynie pośrednio na podstawie preformacji
• Reguły mają charakter generatywny „działają” niezależnie od intencji mówiącego. Mają status tzw. wiedzy milczącej (tacit knowiedger)
Chodzi o to, że my działamy i w naszym działaniu stosujemy te reguły. Ludzie działają zgodnie z
tymi ukrytymi regułami
• Latentne (ukryte) są nie tylko struktury sensu, ale również struktury znaczenia i generujące je reguły
• Rekonstrukcja latentnych struktur sensu analizowanych interakcji polega na rekonstrukcji Lesarten (wariantów znaczeń) – kontekstów, w których analizowana wypowiedź jest pragmatycznie adekwatna, sensowna i społecznie akceptowana
• Zbiór możliwych znaczeń (jednej wypowiedzi), wynikających z odmienności przywoływanych kontekstów tworzy latentne struktury sensu
• Obiektywne struktury znaczenia to konkretne struktury charakteryzujące analizowany przypadek




  1. Zasady i sposoby analizy danych w obiektywnej hermeneutyce

Istotą metod heurystycznych jest dochodzenie do nowych rozwiązań poprzez wykrywanie nowych faktów i związków między nimi zachodzących w realnie istniejącej rzeczywistości. Można na przykład sformułować hipotezę, co jest przeciwstawne czynnościom uzasadniającym innowacyjnie i kreatywnie rozpatrywanie wybranej działalności społecznej, gospodarczej,kulturalnej, wychowawczej, charytatywnej, ... Każda z metod heurystycznych służy do osiągnięcia określonych wyników i jest modyfikowana do problemu lub fazy (etapu) rozwiązania. Tak, więc wykorzystywanie odpowiednich metod heurystycznych oddziałuje na

organizację, zarządzanie, stosunki społeczne, a przede wszystkim bardzo często inną filozofię myślenia i działania w badanej rzeczywistości [2,3,19]. Jak już zaznaczono metody heurystyczne zasadniczo nie są metodami tworzenia, one tylko w określonej dziedzinie naukowej i okolicznościach sprzyjają tworzeniu. Spośród wielu metod heurystycznych szczegółowych można wyodrębnić cztery grupy metod ogólnych. Są to:

- metody odroczonego wartościowania,

- metody transpozycji,

- metody sugerowania,

- metody złożone


- opowiadanie historii, w których pojawia się interpretowana sekwencja (niezależnie od realnego kontekstu

- porządkowanie wariantów znaczenia (Lesarten)


40. Co to znaczy, że obiektywna hermeneutyka przyjmuje stanowisko realizmu metodologicznego, a nie realizmu ontologicznego?

Realizm metodologiczny - „istnienie” reguł i struktur przyjmowane jest na mocy teoretycznych założeń, identyfikowane są one poprzez metodyczne postępowanie. Ich realności nie można doświadczyć zmysłowo, wyraża się ona pośrednio w „śladach” pozostawionych w tekście i pozwalających się odczytać z protokołów interakcji społecznych.





Wyszukiwarka

Podobne podstrony:
zagadnienia do egzaminu pisemnego 2014
Wprowadzenie do psychologii-wybrane zagadnienia do egzaminu 2013-2014, Psychologia, Psychologia I r
2008-05-11 19 (15) , Zagadnienia do egzaminu:
pedagogika resocjalizacyjna opracowane zagadnienia do egzaminu 15 pełne
Zagadnienia do egzaminu KiK zaoczne 2013 2014, II Rok WIMiC inżynieria materiałowa AGH, Krystalograf
Zagadnienia do egzaminu z Mikrobiologii 15
Zagadnienia egzaminacyjne z mikroekonomii 2014 15 (1)
WODOCIĄGI (wykład) Zagadnienia do egzaminu dla studentów studiów inżynierskich od roku ak 2013 2014
MBP ZAGADNIENIA do EGZAMINU 14 15 (1)
Zagadnienia do egzaminu z przedmiotu, Skrypty, UR - materiały ze studiów, V semestr, Konstrukcje i b
egz.42, II rok, zimowy, Chemia Fizyczna, zagadnienia do egzaminu
Analiza mikro i makrootoczenia, Konkurencyjność przedsiębiorstw, Zagadnienia do egzaminu
chemia fizyczna wykłady, sprawozdania, opracowane zagadnienia do egzaminu Sprawozdanie ćw 7 zależ
Zagadnienia do egzaminu Rynek Paliw i Energii 14
Zagadnienia do egzaminu inżynierskiego z kierunku zootechnika
Zagadnienia do egzaminu z INSTYTUCJI I RYNKÓW FINASOWCH
Ad 7, II rok, zimowy, Chemia Fizyczna, zagadnienia do egzaminu
Zagadnienia do egzaminu z wnioskowania statystycznego, wnioskowanie statystyczne
Zestaw pytań i zagadnień do egzaminu z Gazownictwa, Wiertnictwo - AGH

więcej podobnych podstron