Zestawy + metodologia

--Zestaw 20

1.Nauka wg. Lakatosa i Poppera

WG. LAKATOSA

Lakatosa podejście do filozofii nauki było próbą wypracowania kompromisu między falsyfikacjonizmem Poppera a teorią rewolucji głoszoną przez Kuhna. Teoria Poppera wymaga, by naukowcy zarzucali swe teorie, gdy tylko napotkają na obserwacje, które je falsyfikują, a w to miejsce tworzyli śmiałe hipotezy. Zdaniem Kuhna, nauka to ciąg przeplatających się okresów nauki normalnej, gdy uczeni obstają przy swych teoriach mimo gromadzenia się przeczących im obserwacji oraz rewolucji naukowych, polegających na zmianach w sposobie myślenia, przy czym przyczyny owych rewolucji często pozbawione są zdaniem Kuhna racjonalnego podłoża.

Lakatos szukał podejścia metodologicznego, które pozwalałoby pogodzić te sprzeczne stanowiska, a jednocześnie mogłoby dostarczyć racjonalnego i zgodnego z faktami historycznymi oglądu postępu dokonującego się w nauce.

Dla Lakatosa to, co uważamy za "teorie" to w gruncie rzeczy zespoły teorii odwołujących się do wspólnych idei – twardego rdzenia (ang. hard core) w terminologii Lakatosa. Owe zespoły teorii Lakatos nazwał programami badawczymi – uczeni zaangażowani w dany program badawczy będą starali się chronić jego rdzeń przed falsyfikacją za pomocą hipotez pomocniczych. Podczas gdy dla Poppera podejście takie dyskredytuje tworzone ad hoc hipotezy, Lakatos pokazuje, że budowanie pasa ochronnego hipotez roboczych wokół rdzenia programu badawczego nie zawsze jest czymś złym. Zamiast pytać, czy hipoteza jest prawdziwa czy fałszywa, Lakatos sugeruje, by rozważyć, czy program badawczy jest postępowy czy się degeneruje. Postępowy program badawczy rozpoznajemy po odkrywaniu przez niego nowych i zdumiewających faktów. Program, który się degeneruje przejawia się brakiem rozrostu, lub tym, że jego pas ochronny nie prowadzi do niczego nowego.

Falsyfikacjonizm przyjmował bowiem, że naukowcy tworzą teorie, a Natura ogranicza się do wyrażenia swego NIE w formie niespójności obserwacji. Według Poppera, podtrzymywanie teorii w sytuacji, gdy Natura je odrzuciła jest irracjonalne, a jednak Kuhn pokazał, że jest to dość powszechną praktyką. Według Lakatosa zaś nie jest tak, że my przedkładamy teorię, a Natura zgłasza swe weto; jest raczej tak, że przedkładamy całą gęstwinę teorii, a natura mówi <<to niespójne>>. Niespójność tę można usunąć nie zmieniając programu badawczego – można zostawić twardy rdzeń, a zmienić jedynie hipotezy pomocnicze.

Jednym z przykładów jest historia zasad dynamiki Newtona.W fizyce Newtona (programie badawczym) prawa te, jak sądził Lakatos, nie są poddawane falsyfikacji, gdyż stanowią twardy rdzeń programu. W tym sensie program badawczy jest podobny do Kuhnowskiego paradygmatu.

Lakatos był przekonany, że program badawczy zawiera zarówno reguły metodologiczne, które wskazują w jakich kierunkach nie prowadzić badań (Lakatos nazwał to heurystyką negatywną) jak i takie, które sugerują w jakim kierunku badania prowadzić (heurystyka pozytywna).

Lakatos utrzymywał, że nie wszystkie zmiany hipotez pomocniczych (problem shifts) w obrębie systemu badawczego są równie dopuszczalne. Wierzył, że wartość zmian może być oceniana na podstawie ich zdolności do wyjaśniania obaleń i możliwości przewidywania nowych faktów. Jeśli tak jest, to zmiany takie są postępowe; jeśli nie, jeśli są po prostu ad-hoc, należy określić je jako degenerujące.

Co więcej, Lakatos wierzył, że jeśli program badawczy jest postępowy, wówczas rzeczą rozsądną jest zmieniać hipotezy pomocnicze, by mogły stawiać czoła anomaliom. Jeśli natomiast program badawczy jest degenerujący się, to napotyka on programy konkurencyjne i może być "sfalsyfikowany" przez zwykłe zastąpienie go lepszym (czyli bardziej postępowym) programem badawczym. Te właśnie zmiany są Kuhnowskimi rewolucjami naukowymi i to właśnie określa ich racjonalność – nie są one zwyczajnymi zmianami przekonań w obrębie społeczności uczonych (jak zdaniem Lakatosa pojmował je Kuhn).

WG. PROPERA

1) Problem indukcji.

Wg Poppera wychodzenie od zdań szczegółowych do uogólnień (indukcja) jest z gruntu błędne i niedoskonałe. Problem indukcji - czy i kiedy jest indukcja uprawomocniona. Uogólnianie na podstawie pojedynczych przypadków jest logicznym błędem, nawet gdy na dowód tezy lub hipotezy mamy milion przypadków ją potwierdzających, to i tak znajdzie się jeden przypadek jej zaprzeczający. Dla Poppera indukcja to tautologia, zdanie syntetyczne, czyli wewnętrznie niesprzeczne jest równie uprawomocnione co dedukcja (a priori). Zasada indukcji łatwo może doprowadzić do sprzeczności, bo wg jej zwolenników (logiczni pozytywiści z Koła Wiedeńskiego, od których się odciął) musiałaby być zdaniem uniwersalnym (bez nazw własnych), prawdziwym w oparciu o empirię i aby móc ją uprawomocnić, należałoby posłużyć się wnioskowaniami indukcyjnymi tzw. indukcji wyższego rzędu. To zdaniem Poppera trudność nie do przezwyciężenia. Metoda indukcyjna osiągnąć może tylko pewien określony stopień prawdopodobieństwa (wnioskowanie probabilistyczne, podobne do aprioryzmu). Metoda dedukcyjna, opozycyjna do indukcyjnej, wpierw tworzy teorię a potem weryfikuje ją empirycznie, indukcja jedynie ogranicza się od uogólniania na podstawie pojedynczych przypadków (nawet wielokrotnie powtarzanych).

2) Dedukcyjne sprawdzanie teorii.

Z nowej koncepcji, która nie jest jeszcze uprawomocniona, wyciąga się wnioski drogą logicznej dedukcji. Wnioski te porównuje się, by stwierdzić, jakie związki logiczne miedzy nimi istnieją.

Są 4 drogi sprawdzania teorii:

a) logiczne porównywanie wniosków, sprawdzające wewnętrzną spójność systemu (Sh. Holmes:),

b) badanie (logicznej formy teorii) czy teoria jest empiryczna (naukowa), czy tautologiczna,

c) porównywanie jej z innymi teoriami by ustalić, czy teoria będzie krokiem naprzód w rozwoju nauki,

d) sprawdzanie stosowalności wniosków, które można z niej wyprowadzić; jeżeli wnioski są możliwe do przyjęcia, czyli zostały zweryfikowane, wówczas czasowo teoria przetrwała test i nie ma powodu by ją odrzucać; gdy wniosków nie można przyjąć, gdy zostały sfalsyfikowane, fałszywa jest również cała teoria.

Z teorii dedukuje się pewne zdania jednostkowe (przewidywania) za pomocą uprzednio przyjętych zdań. Spośród owych zdań wybiera się te, których nie można wywieść z teorii obiegowej, a zwłaszcza te, które są z tą teorią sprzeczne. Następnie podejmuje się decyzje co do tych wydedukowanych zdań, porównując je z wynikami zastosowań praktycznych i eksperymentów. Jeżeli jednostkowe wnioski okazały się możliwe do przyjęcia, czyli zostały zweryfikowane, wówczas teoria czasowo przetrwała test. Jeśli wnioski zostały sfalsyfikowane, falsyfikacja wniosków falsyfikuje również teorie, z której zostały one logicznie wyprowadzone. Decyzja pozytywna dostarcza teorii poparcia jedynie czasowego - teoria zostaje tu potwierdzona (corroborated) - każda późniejsza decyzja negatywna może ją obalić!

3) Problem demarkacji.

Odrzucając metody indukcji powstaje zarzut, że pozbawia się nauki empiryczne tego, co najważniejsze – znosi niejako przez to bariery oddzielające naukę od spekulacji metafizycznej. Zdaniem Poppera metoda indukcyjna nie dostarcza dogodnego kryterium demarkacji. (vide pkt. 6).

4) Doświadczenie jako metoda.

Empiryczny system teoretyczny musi spełniać 3 warunki:

a) jest syntetyczny - by reprezentować niesprzeczny, możliwy świat.

b) spełnia kryterium demarkacji - nie jest metafizyczny i daje się weryfikować empirycznie (Koło W.) c) jest sprawdzalnym systemem wyróżnionym spośród. Jest sprawdzany (dedukcją) i z prób tych wyszedł zwycięsko.

5) Falsyfikowalność jako kryterium demarkacji.

Wg logiki indukcyjnej prawdziwość oraz fałszywość wszystkich zdań nauki empirycznej powinna być ostatecznie rozstrzygalna: powinno być możliwe zarówno ich zweryfikowanie, jak też sfalsyfikowanie. Zdaniem Poppera nie ma czegoś takiego jak indukcja, zatem teorie nigdy nie są weryfikowane empirycznie. Tylko wówczas traktuje on pewien system jako empiryczny lub naukowy, gdy poddane są on sprawdzeniu w doświadczeniu, bowiem pozytywiści popełniają błąd eliminacji tego, czego nie potrafią dowieść. Za kryterium demarkacji należy przyjąć nie weryfikowalność, lecz falsyfikowalność systemu. System musi mieć taką formę logiczną, aby testy pozwalały na decyzję w sensie negatywnym: musi być możliwe obalenie empirycznego systemu przez doświadczenie. Propozycja to opiera się na różnicy między weryfikowalnością a falsyfikowalnością, na asymetrii biorącej się, z logicznej formy zdań uniwersalnych. Nie są one bowiem nigdy wyprowadzalne ze zdań jednostkowych, ale mogą stać z nimi w sprzeczności. Można drogą wnioskowań czysto dedukcyjnych (modus tollens) wnosić o fałszywości zdań uniwersalnych na podstawie prawdziwości zdań jednostkowych. Sposobem uniknięcia falsyfikacji może być wprowadzenie ad hoc jakiejś hipotezy; Popper te sposoby jednak wyklucza.

- Np. zdanie: „Jutro będzie tu padało lub nie będzie padało” - nie jest empiryczne, bo nie można go obalić, zaś zdanie: „Jutro będzie tu padało” empirycznym jest, bo da się je zweryfikować i obalić.

6) Problem "bazy empirycznej".

Aby falsyfikowalność była kryterium demarkacji musimy dysponować zdaniami, które mogą posłużyć jako przesłanki we wnioskowaniach falsyfikujących. Są to zdania bazowe (stwierdzające fakt jednostkowy). Związek pomiędzy doznaniami zmysłowymi a zdaniami bazowymi polega na traktowaniu owych doznań jako źródła pewnego typu uzasadnienia dla zdań bazowych. Odróżnia doznania subiektywne (uczucia, przekonania), które nigdy nie są miarodajne dla zdań, od obiektywnych relacji logicznych między różnymi systemami twierdzeń naukowych. (opinia vs. fakt)

7) Dlaczego rozstrzygnięcia metodologiczne są niezbędne.

Żadna teoria nie zostanie obalona definitywnie, bo zawsze można powiedzieć, że wyniki eksperymentu nie są miarodajne, bo nie jesteśmy w stanie wykluczyć istnienia metafizyki. Stąd należy zwracać uwagę na metody badań.

8) Naturalistyczne podejście do teorii metody.

Wg pozytywistów metodologia jest nauką empiryczną - badaniem faktycznych zachowań naukowych lub faktycznych procedur stosowanych w nauce – naturalistyczne ujęcie. Popper odrzuca bezkrytycyzm naturalizmu, którego wyznawcom wydaje się, że odkryli jakiś fakt, a de facto zaproponowali pewną konwencję, przekształcającą się w dogmat, który nie jest nigdy podważany.

Czy nauka ma cel?

• K. R. Popper (2002/1972, s. 231):

– „różni uczeni mają różne cele, sama nauka zaś (cokolwiek to słowo znaczy) nie ma celów”

– „działalność naukowa (…) sprawia wrażenie działalności racjonalnej, [czyli] musi posiadać jakiś cel”

– „celem nauki jest poszukiwanie dobrych wyjaśnień dla wszystkiego, co wg nas potrzebuje wyjaśnienia”.

2.Zmienne niezalezne, podział

Jeżeli o danej właściwości można powiedzieć, że przybiera ona różne wartości (co najmniej dwie), to jest to zmienna.
Zmienna, która jest przedmiotem badania, której związki z innymi zmiennymi chcemy określić nosi nazwę zmiennej zależnej. A zmienne od których zmienna zależna zależy, które na nią oddziaływają noszą nazwę zmiennych niezależnych. Zmienną zależną oznaczamy symbolem Y, a zmienną niezależną symbolem X.

Zmienne niezależne z różną siłą oddziaływają na zmienną zależna Y. Jedne silniej inne słabiej. Te które oddziaływają najsilniej nazywamy zmiennymi niezależnymi – głównymi (Xg) (kontrolowane), zmienne niezależne – uboczne (Xu) ( kontrolowane i niekontrolowane) to te które oddziaływają słabo. Zmienne niezależne główne i uboczne to zmienne ważne (W ) dla zmiennej zależnej Y. Oddziaływają też na nią inne zmienne niezależne – zakłócające (Z) takie jak nastawienie osoby badanej do badacza, temperatura w pomieszczeniu. Zmienne te mają interferencyjny wpływ na zależność, która wiąże zmienne ważne ze zmienną zależną. Zmienne zakłócające dzielimy na nieskorelowane z aktem badania empirycznego (niekontrolowane) – są ‘na zewnątrz’ sytuacji badawczej, nie można ich przewidzieć np. indywidualna tolerancja na ciśnienie atmosferyczne, która może wpływać na reakcję i skorelowane z aktem badania empirycznego są ‘pochodną’ interakcji badacz – osoba badana, np. lęk przed oceną, status motywacyjny os. badanej, oczekiwania interpersonalne badacza, dzielimy je na uniwersalne (kontrolowane i nie kontrolowane) występują zawsze ilekroć występują pozostałe zmienne niezależne istotne dla zmiennej zależnej Y, oraz na okazjonalne (kontrolowane i niekontrolowane)np. ból głowy, zmęczenie os. badanej, czasem występują czasem nie.

Zestaw 21

1.Wynik na skali pomiarowej jako wskaźnik zmiennej ilościowej (coś w tym stylu)

Jak konstruujemy wskaźniki w opracowaniu skal narzędzi badawczych w określaniu wyników.

Przy użyciu testów psychologicznych, kwestionariuszy czy innych narzędzi zawierających skale, wskaźnikiem jest zsumowany wynik ilościowy tej skali. Wskaźniki te konstruuje się za pomocą następującej procedury:

  1. ustalenie założeń dotyczących zmiennej i narzędzia badawczego (iż ma ono skalę)

  2. ustalenie operacyjnej funkcji skalującej (która przyporządkowuje liczby przedmiotom, a więc zamienia przedmioty na zbiór na skali) i relacji nierozróżnialności (która dzieli przedmioty na klasy abstrakcji)

Jeśli mielibyśmy narzędzie idealne, to funkcja operacyjna byłaby funkcją jedno-jednoznaczną (a więc zbiory na skalach są identyczne jak zbiory przedmiotów). Im bardziej zbliżone są te dwa zbiory, tym większa jest „moc dyskryminatywna” narzędzia.

2.Powiązania metodologii z logiką - różne warianty.

Zestaw 22

1. Idealizacyjna koncepcja operacjonaizacji zmiennych

.Idealizacyjna koncepcja operacjonalizacji. Etapy operacjonalizacji wg Hornowskiej. ( 103 pdf B )

  1. Do jakich aspektów świata rzeczywistego odnosi się problem badawczy?

  2. Jak dalece wybrane wielkości i istniejące między nimi powiązania dostępne są obserwacji?

  3. W jakim zakresie wybrane przez badacza obserwacje dostarczą mu informacji o wyjściowym problemie badawczym?

  1. konstruowanie obrazu (wielkości) zmiennej teoretycznej (czynnika)

  2. dobieranie do niego wskaźników (zmiennej, jako zoperacjonalizowanego obrazu wielkości)

1) Rekonstrukcja czynnika teoretycznego; konstrukcja wielkości (obrazu czynnika)
2) Konceptualizacja wielkości, dobieranie wskaźników; konstruowanie zmiennej, konstruowanie indeksu – zagregowanej miary, utworzonej z dwóch i więcej wskaźników, wielkości

3) dobór narzędzia pomiarowego i pomiar zmiennej.

2. eksplikacja

Zestaw 23

1. Rodzaje, wady, zalety, zastosowanie nielosowego doboru proby badawczej.

2. Pytania zle postawione, kategorycznie nierostrzygalne, zasadniczo

nierozstrzygalne. Porownac.

Pytania źle postawione, zasadniczo nierozstrzygalne, praktycznie nierozstrzygalne.

Pytanie źle postawione – inaczej o fałszywych

ch, logicznie wadliwe, niewłaściwe;

Pytanie nierozstrzygalne – takie, w którym brak jest kryteriów wyboru odpowiedzi prawdziwych lub fałszywych, mogą być nierozstrzygalne:

Logika zdań pytających (logika erotetyczna; od erōtēma = pytanie)

Zestaw 24

1.Określanie należytej wielkości próby i testowanie losowości próby (od strony

statystycznej jak to wygląda)

2.Quasi-eksperymentalny model badawczy.

Model quasi-eksperymentalny to model podobny do modelu eksperymentalnego ale bez zasady randomizacji.

Jest to więc taki model sprawdzania hipotez o zależnościach pomiędzy zmienny zależnymi i niezależnymi, który zakłada:

a) manipulację co najmniej jedną zmienną niezależną (główną) za pomocą wersji „wszystko albo nic” (1 - grupa eksperymentalna, 0 – grupa kontrola) lub wersji ANOVA bez zachowania zasady randomizacji (przydzielania wartości zmiennej niezależnej, a więc doboru grup w sposób losowy);

b) kontrolę – pozostałych zmiennych niezależnych, uznanych za istotne przez badacza (np. przez metodę doboru parami);

c) obserwację / pomiar – zmian zmiennej zależnej wywołanych zamierzonymi przez badacza wpływami zmiennej niezależnej.

W modelu quasi-eksperymentalnym można też dokonywać tylko kontroli (bez manipulacji) zmiennych niezależnych. Dokonujemy tego poprzez przydzielanie osób do grup ze względu na posiadane wartości zmiennej niezależnej.

Zestaw 25

1.Odmiany, zalety i wady losowego doboru do próby

2.Racjonalizacja czynności i idealizacja świadomości

(1) Racjonalizacja czynności:

Charakteryzuję logiczną teorię języka i logiczną teorię nauk

  1. Idealizacja:

jest zabiegiem poznawczym, w ramach którego przypisujemy danemu obiektowi czy zjawisku określone cechy w stopniu „krańcowym”, w jakim one nie tylko im nie przysługują, ale nawet nie mogą przysługiwać

Idealizacja świadomość podmiotu czynności racjonalnych – założenie, że owa świadomość obejmuje wszystkie elementy niezbędne dla dokonania racjonalizacji czynności czyli podmiot czynności jest w pełni świadomy swoich celów i zna skutki możliwych do podjęcia czynności, czyli dysponuje pełną wiedzą konieczną i wystarczającą dla zrealizowania swoich dążeń

W naukach humanistycznych jest związana z racjonalizacją, która bez idealizacji byłaby niemożliwa i często związana z wartościowaniem.

Zestaw 27

1.Warunki poprawnego stosowania testów istotności różnic w badaniach

Empirycznych

2.”Zmienne pośredniczące" a "konstrukty hipotetyczne" w perspektywie realizmu i

instrumentalizmu metodologicznego

a) k. h. o fizjologicznym znaczeniu dodatkowym (procesy organiczne)

b) k. h. o mentalistycznym znaczeniu dodatkowym (procesy mentalistyczne)

  1. k. h. o mentalnym znaczeniu dodatkowym (procesy neutralne)

pojęcia posiadające nadznaczenie; nie są całkowicie sprowadzalne do zbioru cech obserwowalnych (np. popęd, emocje); wprowadzamy je, aby lepiej zrozumieć dane zjawisko i konstruować teorie (np. gen, osobowość)

Zmienne hipotetyczne – twierdzenia wyjaśniające z niejasnym znaczeniem dodatkowym, również termin wspólny dla powyższych.

Zestaw 29

1. Def. równowartościowe i wielowartościowe

  1. Definicja równościowa - składa się na nią wyłącznie:

zastąpiony równoznacznymi zwrotami „to tyle, co”, „znaczy tyle, co” itp.),

  1. Definicja nierównościowa:

  1. warunkowa:

- predykat „f” formułuje warunek, przy spełnieniu którego ustala się równoznaczność łączącą określone definiendum (g) z definiens (h).

  1. indukcyjna:

2. Algorytm wyboru optymalnego testu

Różnica między wyborem optymalnego testu istosności różnic a wyboru optymalnego testu odnosi się do charakteru grup porównawczych. W pierwszym przypadku mówiło się o grupach niezależnych, tutaj o zależnych.
Dane zależne można uzyskać w dwojaki sposób:
a) przez porównanie stanu początkowego ze stanem końcowym zmiennej zależnej, na tej samej grupie osób badanych lub na grupach równoważnych uzyskanych metodą doboru parami
b)przez przeprowadzenie serii porównań stanów zmiennej zależnej, na tej samej grupie lub grupach równoważnych
W efekcie takiego rozróżnienia mamy dwa podzbiory testów.
wielkość grupy n? gr duża – test z
gr mała – test t
skala porządkowa –test Wilcoxona
skala nominalna – test McNermara
(brak pytania o wariancje)
Czy rozkład różnic d jest normalny?
Czy macierz wariancji-kowariancji jest równa i symetryczna? Jeśli TAK – test F analizy wariancji, jeśli NIE- konserwatywny test F lub T2
skala porządkowa test Friedmana
skala nominalna test Cochrana

Zestaw 31

1.Model ex post facto - charakterystyka i dwa rodzaje

Model Ex Post Facto - odmiana konfirmacyjna, charakterystyka metodologiczna, ocena istotności zmiennych, sposób zbierania danych).

  1. odmiana eksploracyjna (EPF-E)

Stosowana w przypadku rozwiązywania problemów istotnościowych, które przyjmują postać następującej kwestii : „ jakie zmienne niezależne są istotne dla zmiennej zależnej”

  1. odmiana konfirmacyjna (EPF-K)

Różnica: badacz formułuje hipotezę , która mówi, że zmienna Xj wpływa na zmienną Y. W związku z tym jest on nastawiony na udzielenie rozstrzygającej odpowiedzi : albo Xj jest istotne dla Y albo nie jest.

. Odmiany modelu EPF.

Istota modelu ex-post facto: próba zidentyfikowania zmiennych niezależnych, których wystąpienie spowodowało przybranie przez zmienną zależną określonych wartości dla osób z badanej populacji. Zmienne niezależne zadziałały już wcześniej, badacz nie ma możliwości manipulacji nimi.

Dwie odmiany:

  1. EKSPLORACYJNA

1. Operacjonalizacja zmiennej zależnej i dobór grup porównawczych
2. Określenie populacji, na której będą prowadzone badania
3. Opracowanie schematów wywiadów i systemu kodowania danych
4. Analiza danych: odpowiedź na pytanie 1. (Czy wartość danego wskaźnika siły związku między Xi, a Y przekracza wartość progową?)
5. Analiza danych: odpowiedź na pytanie 2. (Czy zależność Y od Xi jest zależnością rzeczywistą, a nie pozorną?)
6. Analiza danych: odpowiedź na pytanie 3. (Które ze zmiennych X1, ..., Xn należą do obrazu przestrzeni zmiennych istotnych dla Y?)
7. Analiza danych: odpowiedź na pytanie 4. (Które ze zmiennych O(PY) są bardziej, a które są mniej ważne dla Y?)

  1. KONFIRMACYJNA
    1. Operacjonalizacja zmiennej zależnej i dobór grup porównawczych
    2. Określenie populacji, na której będą prowadzone badania
    3. Uszczegółowienie hipotezy badawczej
    4. Zoperacjonalizowanie hipotezy badawczej
    4. Analiza danych: odpowiedź na pytanie 1. (Czy dane kryterium Kj różnicuje grupy porównawcze?)
    5. Analiza danych: odpowiedź na pytanie 2. (Czy dane kryterium Kj różnicuje grupy porównawcze rzeczywiście, a nie pozornie?)
    6. Podjęcie decyzji dotyczącej hipotezy badawczej (W jakim stopniu hipoteza została potwierdzona?)
    7. Analiza danych: odpowiedź na pytanie 4. (Które ze zmiennych O(PY) są bardziej, a które są mniej ważne dla Y?).

2.Liberalizm metodologiczny - podejście do teorii naukowej

Zestaw 32

1.Główne zadania metodologii pragmatycznej według Ajdukiewicza

2.Ocena istotności zmiennych niezależnych w modelu ex post facto

Ocena istotności zmiennych w modelu Ex Post Facto.

Zestaw 33

1.Wady i zalety modelu EPF

Wady i zalety modelu EPF

Wady:

Brak możliwości manipulowania zmiennymi niezależnymi istotnymi, gdyż zadziałały już one na zmienną Y w jakieś chwili tj. odległej od tej, w której badacz dokonuje pomiaru zmiennej zależnej Y. Badacz może zaobserwować jedynie efekt tych oddziaływań po upływie określonego czasu.

„grube metody” (wywiad, skale szacunkowe) wprowadzają dość dużą wariancję błędu

Niedogodność natury praktycznej - EPF wymaga celowego doboru grup porównawczych

Zalety:

Względy natury etycznej lub technicznej nie pozwalają badaczowi na zastosowanie modelu eksperymentalnego do rozwiązania danego problemu badawczego.

2.Indywidualizm a antyindywidualizm

Zestaw 34

1.Hipotezy według Madsena

Według niego hipotezy to sformułowania symboliczne, dotyczące nie zaobserwowanych i prawdopodobnie niemożliwych do zaobserwowania zależności funkcjonalnych.

Klasyfikacja według ich składowych terminów:

  1. hipotezy częściowo empiryczne – zawierają zarówno terminy hipotetyczne, jak i opisowe. Te terminy opisowe reprezentują obserwowane zmienne, które można podzielić na zmienne zależne (Y) i niezależne (X)

    1. hipotezy X-H – zawierają termin opisowy reprezentujący zmienną X i termin hipotetyczny, reprezentujący zmienną H. Są twierdzeniami wyjaśniającymi, dotyczącymi zależności funkcjonalnych między zmiennymi X a H

    2. hipotezy Y-H – zawierają termin hipotetyczny, reprezentujący zmienną H i termin opisowy, reprezentujący zmienną Y

  2. hipotezy teoretyczne – zawierają wyłącznie terminy hipotetyczne, określają zależności między 2 lub więcej zmiennymi H.

klasyfikacja według stopnia ich złożoności

  1. jednowymiarowe – dotyczą prostych zależności funkcjonalnych

  2. wielowymiarowe – dotyczą skomplikowanych zależności funkcjonalnych, w których kilka zmiennych determinują inną zmienną

Klasyfikacja według typu zależności funkcjonalnych:

  1. zależność funkcjonalna – regularna zależność między zmienną niezależną a zmienną zależną, obejmuje zarówno przypadki, w których po zmiennej niezależnej zawsze występuje zmienna zależna (charakter przyczynowy), jak i przypadki, gdy nie zawsze występuje, mniej lub bardzie często (charakter probabilistyczny)

  2. determinizm – teoria, która utrzymuje, że w przyrodzie występują absolutne związki przyczynowe tego rodzaju, że możliwe jest formułowanie praw przyczynowych, na podstawie których można wyjaśnić i przewidywać skutek jeśli przyczyna jest znana

  3. indeterminizm – teoria, która utrzymuje, że w przyrodzie nie występuje absolutna przyczynowość, zjawiska występują losowo, możemy formułować jedynie prawa statystyczne, na podstawie, których możemy wyjaśniać i przewidywać z pewnym stopniem prawdopodobieństwo.

2.Teoria i pomiar testu psychologicznego

Zestaw 36

1. Rodzaje, wady, zalety, zastosowanie nielosowego doboru proby badawczej. BYŁO

2. Pytania zle postawione, kategorycznie nierostrzygalne, zasadniczo nierozstrzygalne.

Porownac. BYŁO

Zestaw 37

1.Zmienne według Stevensa
.Klasyfikacja zmiennych wg Stevensa

S. Stevens wyróżnia cztery skale : 

- nominalną,

- porządkową,

- interwałową,

- ilorazowa.

              Typy skal wskazują nam jakie operacje empiryczne możemy wykonać  na danej zmiennej,

przynależącej do konkretnej skal

 

Zmienne nominalne

Pozwalają one podzielić obiekty wg wartości, jakie przyjmują zmienne dla danych obiektów.

Przykładem jest tutaj „płeć” – każda z osób przyjmuje jedną z wartości tej zmiennej.

Zmienne nominalne to zmienne jakościowe

 

Zmienne porządkowe

Pozwalają uporządkować obiekty wg wartości, jakie przyjmują zmienne dla tych obiektów.

( obiekty  mogą być równe lub różne pod danym względem) możemy wskazać któremu z dwóch obiektów dana zmienna przysługuje w danym stopniu.

Np. możemy uporządkować ludzi wg ich wysokości samooceny.

 

Zmienne interwałowe

Pozwalają na stwierdzenie o ile natężenie zmiennej dla obiektu A jest większe ( mniejsze )  od natężenia dla obiektu B np. iloraz inteligencji

Zmienne ilorazowe / stosunkowe

Pozwalają na stwierdzenie, ze natężenie zmiennej X dla obiektu A jest k razy większe niż natężenie tej zmiennej dla obiektu B.

2.Podstawowe teoriomnogościowe kategorie ontologiczne.

Zestaw 38

1.Obiektywna sytuacja problemowa

2.Zasady przenoszenia predykatu nieobserwowalnego na język nauki empirycznej

Zestaw 39

1. Pojęcie wskaźnika rzeczowe i definicyjne.

Pojęcie wskaźnika – wskaźniki rzeczowe i definicyjne.Konstrukcja wskaźnika.

2. Optymalne cele nauki wg. Watkinsa.

A. Maksymalizować prawdopodobieństwo

B1-B2. Zawierać „głębię i jedność” wyjaśnień (depth-cum-unity)

B3. Zwiększać zdolności prewidystyczne (poprzez wzrost kompetencji empirycznych).

Zestaw 40

1.Podział wskaźników wg Nowaka - zestaw 39 BYŁO

2.Kuhna teoria rozwoju nauki

  1. odkrycie doświadczalne zgadza się z przewidywaniami sformułowanymi na podstawie panujących teorii - mówimy wtedy o potwierdzeniu teorii przez fakty;

  2. na podstawie nowych doświadczeń rozwija się teorię dodając do niej nowe prawa bez zmieniania starych i rozszerzając w ten sposób zakres jej zastosowań (np. w połowie XVIII w. dodano do mechaniki klasycznej prawo Coulomba);

  3. nowe wyniki doświadczeń sugerują zbudowanie teorii bardziej ogólnej niż teorie zastane, przy czym te ostatnie okazują się szczególnymi przypadkami teorii nowej. Taki stosunek między teoriami określany jest mianem relacji redukcji, jego klasyczny przykład to stosunek fizyki statystycznej do termodynamiki klasycznej.

  4. nowe fakty doświadczalne wykazują, iż w pewnym zakresie zastana teoria zawodzi. Inspirowani przez tego typu odkrycia naukowcy tworzą teorie nowe, które dziedziczą po swych poprzedniczkach ich sukcesy, przezwyciężając zarazem ich słabości: teorie wcześniejsze wynikają z nowych jako tzw. przypadki graniczne. Taki stosunek między teoriami określa się często mianem relacji korespondencji.

Zestaw 41
1.Proces badawczy jako kontrola wariancji

2.Społeczno – praktyczne i poznwczo - naukowe przesłanki prowadzenia badań

Zestaw 43
1.Cechy dobrze sformułowanej hipotezy

Cechy dobrze sformułowanej hipotezy.

d) musi mieć moc wyjaśniania także faktów innych niż te, do których wyjaśnienia została powołana

e) musi być tak sformułowana, by łatwo było przyjąć lub odrzucić

f) nie powinna przyjmować postaci szerokiej generalizacji

g) ZAWSZE w postaci zdań twierdzących.

Cechy dobrze sformułowanego problemu badawczego.


2.Porównaj wyjaśnianie faktów szczegółowych i prawdziwości

Zestaw 45
1.Istota i rodzaje praw naukowych

2.Model ANOVA a model wielokrotnej regresji (MR)

Zestaw 46
1.Kontrola zmiennej niezależnej na przykładzie modelu eksperymentalnego. Zmienna zależna w modelu eksperymentalnym.
(a)
Manipulacja” i „kontrola” odróżniają model E od innych modeli badawczych, zwłaszcza ex post facto. Podejmowane przez badacza zabiegi, wykonywane w celu poddania kontroli zmiennych niezależnych, mają zróżnicowany charakter zależnie od:

Jakość kontroli zmiennej niezależnej jest uzależniona od skali pomiarowej zmiennej zależnej (powinna to być skala interwałowa lub ilorazowa)

Metody kontroli zmiennej niezależnej stosowane w planach jedno-jednozmiennoeych, dwuwartościowych („0-1”) 146 pdf

Metoda A

Lub

Wada tej metody: ten sposób kontrolowania zmiennej niezależnych ubocznych ma wpływ na zakres wniosków, które jesteśmy upoważnieniu generalizować z poziomu próby na poziom populacji. Można popełnić błąd w fazie uogólniania procesu badawczego

Metoda B

Analiza statystyczna: tak utworzone grupy mają charakter grup zależnych, trzeba więc stosować testy istotności różnic między średnimi dla grup zależnych. W przypadku rozszerzenia tej metody na dowolną liczbę grup porównawczych mówimy o doborze wiązanym (metoda ta ma zastosowanie w planach opartych na modelu ANOVA)

Inna odmiana tej metody: badacz może tworzyć „pary” badając dwukrotnie tą samą osobę – raz w warunkach eksperymentalnych, raz w kontrolnych (osoba badana tworzy parę sama z sobą)

Wada: nie jest łatwo skonstruować pary dla zmiennych psychologicznych, w drugiej odmianie tej metody może wystąpić efekt wyuczenia, czy efekt transferu; i tak jak w przypadku pierwszego modelu nie można ilościowo określić procentowego udziału danej zmiennej niezależnej ubocznej w wyjaśnianiu całkowitej zmiennej zależnej

(b) Statystyczne aspekty kontroli zmiennych – analiza wariancji zmiennej zależnej Y:

Zróżnicowanie międzygrupowe, zróżnicowanie wewnątrzgrupowe

Różnie wyodrębnione przez badacza zmienne niezależne będą w różnym stopniu zwiększały zróżnicowanie międzygrupowe i zmniejszały wewnątrzgrupowe. Miara owego zróżnicowania badanych osób ze względu na interesującą nas zmienną zależną to wariancja var

Obliczanie:

a) każdy konkretny wynik odjąć od średniej arytmetycznej (grupowej)

b) każde odchylenie podnieść do kwadratu

c) zsumować kwadraty odchyleń

d) podzielić otrzymaną sumę kwadratów odchyleń przez liczbę wyników, czyli obliczyć średnią arytmetyczną

Pochodna względem var miara to odchylenie standardowe (pierwiastek kwadratowy z var)

Wariancja jako miara zróżnicowania wewnątrzgrupowego i zewnątrzgrupowego oraz całkowitego

Wariancja całkowita – dzieli się na dwie wariancje cząstkowe (varc=varMG +var WG)

Wariancja wewnątrzgrupowa (WG) (liczy się ją jako średnią arytmetyczną wariancji grupowych, inaczej: wariancja niekontrolowana, wariancja błędu, wariancja resztkowa) – to miara precyzji prowadzonego eksperymentu, wielkość błędu

Wariancja zewnątrzgrupowa (MG) (liczy się ją jako wariancję średnich arytmetycznych wyróżnionych grup, inaczej: wariancja kontrolowana) – to miara stopnia kontroli zmienności zmiennych zależnych przez wprowadzoną do eksperymentu zmienną niezależną

Dwie dyrektywy:

W jedno-jednozmiennowej odmianie modelu eksperymentalnego możliwe jest kontrolowanie tylko jednej zmiennej zależnej przez tylko jedną zmienną niezależną.

2.Prawa idealizacyjne i ich sprawdzanie

- REGUŁY AKSJOMATYCZNE – nakazują bezwarunkowo uznawać za prawdziwe pewne ustalone zdania, określając je jako tezy

- REGUŁY INFERENCYJNE – nakazujące uznawać pewne zdania, w sytuacji, gdy uznane już zostały za prawdziwe określone zdania (zwykłe) inne; (jakie zdania są tezami, jeśli tezami są pewne zdania inne)

Zestaw 49
1.Zasady prawidlowej klasyfikacji
Zasady poprawnej(w sensie logicznym) klasyfikacji (podzialu)

2.Trafnosc zewnetrzna planu eksperymentalnego i czynniki ja zaklócajace

Ograniczenia: brak symetrii pomiędzy próbą a populacją, wykorzystywanie w badaniach ochotników, brak losowego doboru próby, osoby specjalne np. studenci, żołnierze, lęk przed oceną, wskazówki sugerujące hipotezę, OIB, motywacja os. badanej.

Zestaw 50
1.Trafnosc zewnetrzna.

2.Porównaj: klasyfikacje, typologie, systematyzacje.
Klasyfikacją
nazywamy podział pewnego zbioru na podzbiory, który spełnia warunki adekwatności i rozłączności.

a). warunek adekwatności polega na tym, że suma podzbiorów jest równa całemu dzielonemu zbiorowi

b). warunek rozłączności polega na tym, że poszczególne podzbiory nie mają elementów wspólnych.

Klasyfikacją n-członową nazywamy podział zbioru na n członów. Klasyfikacją k-stopniową nazywamy podział zbioru ze względu na k kryteriów (np. Podział ludzi ze względu na płeć jest podziałem 2-członowym i jednostopniowym).

przechodnia relacja nieodróżnialności to relacja nieodróżnialności między dwoma elementami x, y zbioru X występuje wtedy i tylko wtedy, gdy ani x nie jest wcześniejszy od y w częściowym porządku, ani y nie jest wcześniejszy od x. Można na przykładzie tak to zilustrować: utwór x reprezentuje ten sam okres literacki co utwór y. Innymi słowy w systematyzacji nie wiadomo, który element jest wcześniejszy w zbiorze. Czyli mając zbiór „romantyzm”, systematyzacja nie mówi, czy wcześniejszym utworem była oda do młodości, czy pan Tadeusz.

relację przeciwsymetryczną - to znaczy: jeśli x został ukończony przed y, to y nie mógł zostać ukończony przed x. Romantyzm był wcześniej niż Pozytywizm.

relacja przechodnia – jeśli x został ukończony przed y, a y przed z, to x został ukończony przed z. Skoro romantyzm był wcześniej niż pozytywizm, a pozytywizm wcześniej niż Młoda Polska, to romantyzm był wcześniej niż młoda polska.

częściowy porządek R w zbiorze X, częściowy, bo są trzy relacje i brakuje tu jednej z nich - relacji spójności: jeśli x i y są różnymi utworami, to bądź x został ukończony przed y, bądź y przed x. Romantyzm mógł być wcześniej niż młoda polska lub młoda polska mogła być wcześniej niż romantyzm.

relacją wyprzedzania generalnego – to relacja, która mówi o tym, że coś jest ułożone w porządku chronologicznym (na chłopski rozum ), profesjonalnie: jeżeli elementy zbioru X są wcześniejsze od elementów zbioru Y, to zbiór X jest wcześniejszy od Y. Jeżeli romantyzm był wcześniej niż pozytywizm, to oda do młodości musiała być wcześniej niż lalka.

Zestaw 51
1.Reguly prawdziwosci zdan.
Reguły prawdziwości zdań.

Zdanie Z języka J jest prawdziwe w dziedzinie D(J) wtedy i tylko wtedy, gdy:

  1. zdanie Z jest postaci „f(a)”, np. („Mickiewicz był poetą”, predykat ma postać „x był poetą”) – denotację predykatu „f(x)” stanowi w D (J) (dziedzinie języka) zbiór K (czyli zbiór poetów),denotację terminu jednostkowego „a” stanowi przedmiot α (w tym wypadku Mickiewicz), który należy do zbioru K.

  2. zdanie Z jest postaci „f(a,b)”, np. („Piotr mówi do Jana”, predykat ma postać „ x mówi do y”) – denotację predykatu „f(a,b)” stanowi D (J) relacja R (relacja komunikowania się), denotację terminów jednostkowych „a” i „b” przedmioty α i β oraz α i β muszą być faktycznie w relacji.

  3. Zdanie Z jest postaci „^x f(x)”, np. („Każdy pies jest miły”, predykat ma postać „każdy x jest miły”) – predykat „f(x)” posiada w D(J) denotację identyczną z uniwersum D(J), tzn. z wszystkimi elementami dziedziny tego języka.

  4. Zdanie Z jest postaci „^x,yf(x,y)”, (np. „Każdy pies nie lubi kotów”, predykat ma postać „każdy x nie lubi y) – predykat „f(x,y)” posiada jako denotację w D(J) relację, do której należy każda para uporządkowana utworzona z elementów uniwersum D(J).

Prawdziwość zdania można sprawdzić metodą 0-1, ale też metodą wprost (zdanie prawdziwe, bo przesłanki prawdziwe) i nie-wprost (zaprzeczenie wniosku daje sprzeczność z założeniami), używając reguł prawdziwości. Należą do nich:

2.Nastawienie osoby badanej a wspólpraca z badaczem.

Zestaw 54
1.KRL- opisac, scharakteryzowac

2.Opis statystyczny zmiennych i sposób przedstawiania (tego opisu)- chodzilo mu o miary rozproszenia, mody, rozklad standardowy itp histogramy, kolowe itp.- Strelau

Zestaw 55
1.Interpretacyjne aspekty i problemy korelacji i regresji

2.Rozwój poznania naukowego w perspektywie epistemologii historycznej

Zestaw 56
1.Róznice pomiedzy j. potocznym, a jez. Formalizowanym

2.Znaczenie teorii dla badan eksperymentalnych

Zestaw 57 :

1. model eksperymentalny a potoczne znaczenie slowa eksperyment
Eksperymentalny model badawczy a eksperyment w znaczeniu potocznym.

2. spoleczna swiadomosc metodologiczna (czym jest, funkcje, struktura)

Pojęcie, struktura i funkcjonowanie świadomości metodologicznej.

Świadomość metodologiczna – to system kulturowych reguł wyznaczających dozwolone sposoby uprawiania praktyki badawczej w ramach dyscyplin naukowych oraz określających standardy dla wyników tych badań. Są to więc reguły (zwykle zwerbalizowane, ale niekoniecznie) przestrzegane przez wszystkich badaczy, niezależnie od tego, czy zostały przez kogoś zrelacjonowane i opisane. Reguły te nie są z góry zaplanowane i opisane; ich autorami są wszyscy uczestnicy procesu badawczego. Zgodnie ze stanowiskiem m.in. epistemologii historycznej o uprawomocnieniu reguł i norm świadomości metodologicznej decyduje efektywność stosowania tych norm, a konieczność ich stosowania dyktowana jest przez możliwość zaobserwowania błędów wynikających z niezastosowania reguł.

Świadomość metodologiczna może być:

  1. społeczna – to społeczno-subiektywny kontekst praktyki naukowej, jedna z głównych dyrektyw tej praktyki, dzieli się na świadomość normatywną (hierarchizującą wartości poznawcze + normy moralne – J.B.) oraz dyrektywną (określającą sposób realizacji tych wartości, jt. metodologia w znaczeniu 3 jako społeczna świadomość metodologiczna jako taka);

  2. indywidualna – to posiadany przez jednostką, mniej lub bardziej uproszczony („zdeformowany” - Z.S.) fragment świadomość społecznej, inaczej: jest to zobiektywizowany system przekonań, wartości, idei, sądów „wypreparowanych” z osobistego doświadczenia jednostki.

Proces badawczy w kontekście świadomości metodologicznej.

Zestaw 58
1.Porównanie modeli badawczych wg róznych autorów - chodzilo o podobienstwa i róznice, cechy wyrózniajace modele Nachmiasów, Babbiego

2.Rodzaje i funkcje regul semantycznych
Reguły odniesienia przedmiotowego

  1. imionom własnym – obiekty indywidualne, np. Adam Mickiewicz

  2. predykatom jednoargumentowym – zbiory obiektów indywidualnych, np. Adam Mickiewicz był poetą romantycznym, Juliusz Słowacki był poetą romantycznym, więc =zbiór poetów romantycznych

  3. predykatom dwuargumentowym – relacje między obiektami indywidualnymi, np. antagonizm (Mickiewicz i Słowacki nie przepadali za sobą)

  4. predykatom wyższego rzędu – zbiory lub relacje wyższego rzędu

2) Reguły prawdziwości („nieanalitycznej) – wg nich rozstrzygamy kwestię prawdziwości zdań danego języka J:

- proste (dla zdań atomicznych i generalnych)

- złożone (dla zdań egzystencjalnych i molekularnych).

Zestaw 59
1.Psychologia stosowana a stosowanie psychologii - argumentacje.

2.Glówne teoretyczne kierunki rozwoju poznania naukowego.

Zestaw 61
1.Sposoby pojmowania "teorii naukowej" - rygoryzm metodologiczny

Logiczna teoria nauki - rygoryzm metodologiczny

2.Zmienne ilosciowe w liniowym modelu wielokrotnej regresji.
Zmienne ilosciowe w modelu regresji jednoliniowej (MR)

Zestaw 62
1.Postac i odmiany modelu Ex Post Facto (plus dopytywal o opis wariantów testów istotnosci róznic stosowanych w tym modelu) BYŁO

2.Teoria naukowa a liberalizm metodologiczny

Zestaw 63
1.Poznanie naukowe inne

2.Modele eksperymentalne jedno-wielozmiennowe wielowartosciowe

Zestaw 64
1. "znaczenie" w rozumieniu LTJ oraz teorii pomiaru
Pojęcie znaczenia w teorii pomiaru i jego paralele z LTJ (podobno wg. Coombsa).

Zdanie, w którym występują wartości liczbowe jest formalnie znaczące wtedy i tylko wtedy, gdy jego prawdziwość (lub fałszywość) nie zmienia się przy dopuszczalnych przekształceniach na skali. Zależy od modelu pomiarowego, w którym otrzymano wartości liczbowe.

Jak można usprawiedliwić przyporządkowanie przedmiotom liczb, jeśli nie jest ono powiązane z jakimś twierdzeniem o istnieniu?

a) przewidywanie – wskaźniki liczbowe są wykorzystywane, by przewidywać wartości pewnej zmiennej zależnej za pomocą wartości zmiennych niezależnych

b) opis – w pewnych sytuacjach liczby przyporządkowane obiektom traktowane są jako opisowe wskaźniki statystyczne dotyczące danej próbki lub populacji

c) przyporządkowania bezpośrednie – skale liczbowe uzyskiwane są nie za pośrednictwem relacji reprezentowania, lecz tworzone bezpośrednio przez osoby badane, które działają zgodnie z określoną instrukcją

2. ocena istotnosci zmiennych niezaleznych w modelu eksperymentalnym

Im większa próba, tym łatwiej odrzucić hipotezę zerową – wystarczy więc przebadać wystarczającą ilość osób, by zdobyć potwierdzenie własnej hipotezy

- jeśli zastosowaliśmy test t-Studenta to możemy odwołać się do tzw. wskaźnika omega-kwadrat. Po przemnożeniu jego wartości przez 100% uzyskujemy procentowo wyrażoną tę część wariancji całkowitej zmiennej zależnej, która tłumaczona jest przez zmienną niezależną X.


Zestaw 65
1.Niespecyficzne zmienne zagregowane
Pytania badawcze

• Czy i jak wzrost zależy od wieku?

• Czy i jak poziom zainteresowania metodologią zależy od płci?

• Czy i jak to, jak studenci uprawiają seks, zależy od uczelni, na której studiują?

• Co łączy ww. pytania?

• Niespecyficzne zmienne zagregowane (NZZ) w roli predyktorów = (rzekomych) przyczyn

„niespecyficzny”, „agregat”

Niespecyficzny – 1. niecharakterystyczny, nieswoisty dla czegoś. 2. niepodający specyfikacji, niewyliczający czegoś, niewyszczególniający

Agregat – całość powstała przez mechaniczne połączenie niejednorodnych części; zbiór w sensie kolektywnym; skupisko; konglomerat

Niespecyficzne zmienne zagregowane (NZZ)

• Zmienne (poniekąd) „drugiego rzędu” (wtórne)

• „AGREGAT” wartości zmiennych pierwotnych + „ETYKIETA” („zastępcza”)

– wartości NZZ są skupiskami współwystępujących ze sobą przeciętnych (lub nawet nieznanych!) wartości wielu zmiennych „pierwszego rzędu”, charakterystycznych dla pewnej podpopulacji

– „etykieta” jest nazwą jednej z tzw. zmiennych socjodemograficznych (np. wiek, płeć, wykształcenie, miejsce zamieszkania itp.), wartości której posłużyły do wyodrębnienia ww. podpopulacji

• Nieuporządkowana lub uporządkowana rodzina teoriomnogościowych iloczynów klas abstrakcji

• Owe klasy abstrakcji to wartości zmiennych niższego rzędu (pierwotnych) w pewnej podpopulacji

Dwa elementy są nieodróżnialne ze względu na wartość zmiennej-etykiety  są (rzekomo!) nieodróżnialne ze względu na wartości innych zmiennych (tj. zmiennych pierwotnych)

Zazwyczaj nieuporządkowana rodzina teoriomnogościowych iloczynów klas abstrakcji utworzonych w z wartości (klas abstrakcji) zmiennych niższego rzędu za pomocą relacji nieodróżnialności, mająca pełnić funkcję zmiennej niezależnej.

2.Statystyczny kontekst trafnosci w planach eksperymentalych


Trafność wewnętrzna i czynniki zakłócające planu eksperymentalnego
trafność wewnętrzna –
odpowiada na pytanie o to, czy dana zmienna niezależna X rzeczywiście zadziałała na zmienną zależną Y w badaniu; plan trafny wewnętrznie to taki plan, który pozwala wyeliminować alternatywne (od ujętych w hipotezie) wyjaśnienia zaobserwowanej zmienności zmiennej Y

czynniki zakłócające trafność wewnętrzną planu E lub qE:

  1. historia – działanie zmiennych z kontekstu zewnętrznego

  2. dojrzewanie – źródłem zakłóceń jest sam organizm osoby badanej (dojrzewanie fizjologiczne i psychologiczne)

  3. selekcja – stronniczy dobór osób do grup (eksp. i kontr.) może zwiększać prawdopodobieństwo potwierdzenia hipotezy badawczej

  4. testowanie – uwrażliwienie z powodu pretestu, ale też z powodu samego faktu badania (np. aktywizacja instrumentacja – wpływ związany ze zmianami narzędzi pomiarowych, procedury ich stosowania i obliczania wyników, ze zwiększeniem doświadczenia osób stosujących te narzędzia, zmianą osób dokonujących pomiarów itp.

  5. regresja statystyczna – związane z tendencją do podwyższania, w postteście Y, skrajnie niskich i obniżania skrajnie wysokich wyników (nie brać osób „skrajnych” do badania)

  6. utrata osób badanych – zmniejszenie liczebności próby

  7. interakcja selekcji z historią, dojrzewaniem, instrumentacją – niekorzystne zbiegnięcie się wpływów czynnika selekcji z wymienionymi (np. różne tempo rozwoju dzieci i prowadzenie badań przez rok)

  8. przenikanie informacji związanych z postępowaniem eksperymentalnym z grupy do grupy albo imitowanie postępowania eksperymentalnego – niemożność fizycznego odseparowania grup eksp. i kontr. (badania laboratoryjne wolne od tych zakłóceń)

  9. kompensujące, programowe zróżnicowanie grup porównawczych, wyrównanie ich traktowania – inicjatywy grupy mające na celu zniesienie nierównego traktowania grup przez eksperymentatora

10.kmpensowanie mniej pożądanych warunków i spowodowane nimi rywalizacyjne zachowanie się osób badanych – jeśli postępowanie eksperymentalne postrzegane jest jako atrakcyjne i wyróżniające, to osoby z grupy kontrolnej mogą zachowywać się rywalizacyjnie (pokazanie że te osoby też zasługują na „lepsze” traktowanie)

11. obrażanie się osób, które znalazły się w mniej pożądanych warunkach – okazywanie niechęci wobec eksperymentatora i celowe zachowywanie się gorzej, poniżej swoich możliwości

nietrafność wewnętrzna – wnioski wyciągnięte z wyników eksperymentu mogą nie być dokładnym odbiciem tego, co działo się w samym eksperymencie; zagrożenie nietrafnością wewnętrzną zachodzi zawsze, gdy cokolwiek innego niż bodziec mogło wpłynąć na zmienną zależną

źródła nietrafności wewnętrznej:

Zestaw 66
1. Definicje nominalna, realna, operacyjna. porównanie.
Klasyfikacja definicji.

1. Nominalne – zdanie orzekające bądź ustanawiające równoznaczność dwóch wyrażeń

- funkcja/wartość logiczna:

-język/stosunek do języka:

- budowa:

2. Realne – zdanie opisujące właściwości przysługujące wszystkim elementom należącym do danego zbioru.

3. Operacyjne – zdanie wprowadzające (ustanawiające) wskaźnik i/lub opisujące czynności konieczne dla wywołania i/lub zaobserwowania danego zjawiska lub procesu

2. Zmienna jakosciowa w liniowym modelu wielokrotnej regresji MR. konstruowanie zmiennych instrumentalnych

Główne zadania i zakres stosowalności współczesnych teorii testów. IRT(1) Zadania teorii testów

- Formalizacja zbioru pojęć służących opisowi pomiaru

pojęcia charakteryzujące „dobroć” pomiaru (rzetelność, trafność, homogeniczność) są parametrami testu:

pojęcia charakteryzujące formalną strukturę treści pomiaru, tj. pojęcie struktury czynnikowej i pojęcie struktury latentnej – są one związane z jednoczesnym pomiarem wieloma narzędziami, analizuje się zależności między wynikami pomiarów

(2) Zakres stosowalności współczesnej teorii testów

wielokrotny pomiar jest potrzebny aby przekonać się czy nie ma braków w narzędziu, czy zawsze narzędzie będzie dawało taki sam rezultat.

Zastosowanie modeli IRT:

-do tłumaczeń językowych, adaptacji językowych testów

-w testowaniu adaptacyjnym (interakcyjnym)

-do szacowania stronniczości pozycji testowych

Pojecie i założenia logicznej teorii języka. LTJ

- LTN (i cała metodologia) opiera się na pojęciach i ustaleniach logicznej teorii języka (LTJ), gdyż systematyczna racjonalizacja czynności badawczych wymaga uprzedniej systematycznej racjonalizacji określonych czynności językowych

czyli dostarczenia przesłanek udzielenia odpowiedzi na pytanie:

Jakiego rodzaju wiedza o języku jest

wystarczająca i niezbędna do tego, aby

podejmować w sposób całkowicie świadomy

czynności językowe mające realizować pewne

typowe dla nich cele (komunikacyjno - poznawcze),

czyli czynności, których sensem

ma być komunikowanie zachodzenia pewnych

stanów rzeczy (m.in. faktów) lub rozpoznawanie

zakomunikowanych stanów rzeczy?

Co musisz o języku wiedzieć wystarczajaco i niezbędnie aby komunikowac w tym języku i rozpoznawac komuniakty.

- Stany rzeczy, które mogą być komunikowane, to m.in.:

• fakty (za pomocą zdań oznajmujących; logika klasyczna)

• problemy (za pomocą zdań pytających; logika erotetyczna)

• wartości (za pomocą zdań rozkazujących; logika modalna)

Logiczna teoria języka – czyli inaczej logika w węższym znaczeniu lub logika formalna. Centralnym zadaniem badawczym logicznej teorii języka (LTJ) jest systematyczna racjonalizacja pewnych czynności językowych, polegających na komunikacyjno – poznawczym użyciu języka. Racjonalizacja polega na dostarczeniu odpowiedzi na pytanie: jakiego rodzaju wiedza o języku jest wystarczająca i niezbędna do tego, aby podejmować w sposób całkowicie świadomy czynności językowe realizując pewne typowe dla nich cele? Jest to racjonalizacja systematyczna, czyli, że owa wiedza wystarczająca i niezbędna do świadomego podejmowania czynności językowych logika ujmuje w postaci pewnego systemu teoretycznego, pewnego układu twierdzeń, w postaci teorii, nie zaś jako zbiór nie powiązanych ze sobą, oddzielnych wskazówek określających sposób wykonywania każdej indywidualnej czynności z osobna.

Podsumowując...Zadanie LTJ i LTN

LTJ: „Jakiego rodzaju wiedza o języku jest

wystarczająca i niezbędna do tego, aby

podejmować w sposób całkowicie świadomy

czynności językowe, których sensem ma być

komunikowanie faktów?”

• Opis ww. wiedzy w postaci systemu reguł

językowych

• Analogicznie LTN to system reguł

metodologicznych.

Motywacja osoby badanej (SM).

Schematy wnioskowania statystycznego.

(1) Estymacja

(2) Weryfikacja hipotez statystycznych

1. Sformułowanie hipotezy zerowej i alternatywnej

H1: θ1 ≠ θ2

H1: θ1 > θ2

H1: θ1 < θ2

2. Wybór statystyki testowej

Budujemy pewną statystykę W, która jest funkcją wyników z próby losowej W = f(x1, x2, ..., xn) i wyznaczamy jej rozkład przy założeniu, że hipoteza zerowa jest prawdziwa. Funkcję W nazywa się statystyką testową lub funkcją testową.

3. Określenie poziomu istotności α

Na tym etapie procedury weryfikacyjnej przyjmujemy prawdopodobieństwo popełnienia błędu I rodzaju, który polega na odrzuceniu hipotezy zerowej wtedy, gdy jest ona prawdziwa. Prawdopodobieństwo to jest oznaczane symbolem α i nazywane poziomem istotności. Na ogół przyjmujemy prawdopodobieństwo bliskie zeru, ponieważ chcemy aby ryzyko popełnienia błędu było jak najmniejsze. Najczęściej zakładamy, że poziom istotności α≤ 0.1 (np. α=0.01 ; α=0.05 ; α=0.1)

4. Wyznaczenie obszaru krytycznego testu

Obszar krytyczny - obszar znajdujący się zawsze na krańcach rozkładu. Jeżeli obliczona przez nas wartość statystyki testowej znajdzie się w tym obszarze to weryfikowaną przez nas hipotezę H0 odrzucamy. Wielkość obszaru krytycznego wyznacza dowolnie mały poziom istotności α, natomiast jego położenie określane jest przez hipotezę alternatywną.

Obszar krytyczny od pozostałej części rozkładu statystyki odzielony jest przez tzw. wartości krytyczne testu (wα), czyli wartości odczytane z rozkładu statystyki przy danym α, tak aby spełniona była relacja zależna od sposobu sformułowania H1:

P{|w|≥wα} = α gdy H1: θ1 ≠ θ2 (obszar dwustronny)

P{w ≥wα} = α gdy H1: θ1 > θ2 (obszar prawostronny)

P{w ≤wα} = α gdy H1: θ1 < θ2 (obszar lewostronny)

5. Obliczenie statystyki na podstawie próby

Wyniki próby opracowujemy w odpowiedni sposób, zgodnie z procedurą wybranego testu i są one podstawą do obliczenia statystyki testowej. Większość statystyk testowych, mających dokładny rozkład normalny, t-Studenta lub graniczny rozkład normalny, obliczamy w następujący sposób:

W=(a-b)/c

gdzie:

W - Statystyka testowa

a - Statystyka obliczona z próby

b - Hipotetyczna wartość parametru(ów)

c - Odchylenie standardowe rozkładu statystyki

6. Podjęcie decyzji

Wyznaczoną na podstawie próby wartość statystyki porównujemy z wartością krytyczną testu.

Jeżeli wartość ta znajdzie się w obszarze krytycznym to hipotezę zerową należy odrzucić jako nieprawdziwą. Stąd wniosek, że prawdziwa jest hipoteza alternatywna.

Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, oznacza to, że brak jest podstaw do odrzucenia hipotezy zerowej. Stąd wniosek, że hipoteza zerowa może, ale nie musi, być prawdziwa.

Reguły postępowania przy weryfikacji hipotez są określane mianem testów statystycznych.

Wynik prawdziwy: Gulliksen, Lord i Novick.

Klasyfikacja hipotez wg Nowaka.

  1. Hipotezy dotyczące wartości zmiennych

  2. Hipotezy dotyczące związków między zmiennymi
    1. Hipotezy istotnościowe
    a) „Zmienne niezależne X1, ..., Xn są istotne dla Y”
    b) „Zmienne z O(PY) uporządkowane są – wg relacji bycia bardziej istotną dla Y niż... - w następujący sposób” albo „Zmienna X1 jest bardziej istotna dla Y niż zmienna X2.”
    c') „O(SY) jest interakcyjny” - zmienne niezależne istotne dla Y wchodzą ze sobą w interakcje
    c) „O(SY) jest izolowany” - zmienne niezależne istotne dla Y nie wchodzą ze sobą w interakcje
    2. Hipotezy dotyczące „kształtu” zależności.

Równoznaczność, pojęcie, znaczenie. Wynikanie.

RÓWNOZNACZNOŚĆ dwóch zdań. Zdania Z1 i Z2 języka J są równoznaczne (posiadają to samo znaczenie) w języku J wtedy i tylko wtedy, gdy tezami języka J są dwa okresy warunkowe typu: „Jeśli Z1, to Z2” oraz „Jeśli Z2, to Z1”. Np. mamy 2 zdania: „Warszawa jest stolicą Polski” i „Warszawa jest siedzibą rządu Polski” i są one równoznaczne, gdyż tezami języka polskiego są okresy warunkowe: ” Jeżeli Warszawa jest stolicą Polski to Warszawa jest siedzibą rządu Polski” oraz „Jeżeli Warszawa jest siedzibą rządu Polski to Warszawa jest stolicą Polski”.

Równoważność dwóch wyrażeń to, to samo tylko zamiast Z1 jest W1, a zamiast Z2 jest W2.

ZNACZENIE wyrażenia W języka J jest to ta własność wyrażenia W, która przysługuje wszystkim wyrażeniom równoznacznym, w języku J, z wyrażeniem W, i tylko tym wyrażeniom. Np. barwa przedmioty x jest to własność tego przedmiotu, która przysługuje wszystkim przedmiotom (z większą lub mniejszą dokładnością) równobarwnym z nim, i tylko tym przedmiotom.

POJĘCIEM nazywamy znaczenie jakiegoś terminu. Pojęcie T w języku J jest to znaczenie terminu T w języku J. Np. pojęcie stołu w języku polskim jest to znaczenie terminu „stół” w języku polskim.

WYNIKANIE – „ze zdania Z języka J wynika zdanie Z’ wtedy i tylko wtedy, gdy zdanie Z’ jest pośrednią lub bezpośrednią konsekwencją inferencyjną aksjomatów języka J oraz zdania Z.”

Zasady klasyfikacji modeli badawczych.

  1. kryterium manipulacji zmienną niezależną – główną

  1. zakładające manipulację co najmniej jedną zmienną niezależną (TO MODEL EKSPERYMENTALNY)

  2. wykluczające manipulację zmiennymi niezależnymi (TO MODEL WIELOKROTNEJ REGRESJI = MODEL KORELACYJNY = MODEL WIELOKROTNEJ REGRESJI/KORELACJI = MCR ORAZ MODEL EX POST FACTO)

  1. kryterium jednoczesności oddziaływania zmiennej X na Y oraz pomiaru skutków tego oddziaływania

  1. zakładające równoczesność oddziaływania jednej zmiennej na drugą oraz pomiarów skutków tego oddziaływania. dziś oddziałuje zmienna, badacz dokonuje pomiaru dziś (MODEL WIELOKROTNEJ REGRESJI) „dziś-dziś”

  2. zakładające przesunięcie w czasie oddziaływania zmiennej X na Y oraz pomiaru skutków;

Aksjomaty teoretyczne Gulliksena, Lorda i Novicka.

(1) Aksjomatyka Gulliksena

(2) Aksjomaty Lorda i Novicka

Klasyfikacja nauk.

Nauka (poznanie naukowe) to taki rodzaj działalności, który polega na kontrolowaniu prawdziwości twierdzeń i hipotez. Klasyfikacja nauk bazuje na rodzaju tej kontroli oraz na przedmiocie zainteresowań danej dziedziny nauki:

  1. nauki formalne – polegają na dowodzeniu, uprzywilejowane są aksjomaty

  2. nauki empiryczne – polegają na sprawdzaniu, tu uprzywilejowane są zdania obserwacyjne

- nauki przyrodnicze (prawa naturalne)

- nauki humanistyczne (z założeniem o racjonalności)

- nauki społeczne (prawa społeczne, historyczne i ekonomiczne)

psychologia jako dziedzina z pogranicza trzech ww.

Podział epistemologiczny w/g Madsena.

Jest oparty na języku danych i na kategorii terminów hipotetycznych stosowanych w danej teorii

  1. teorie czysto opisowe – teksty bez warstwy hipotetycznej ani wyraźnej metawarstwy, tu: t. o. behawioralne, fenomenologiczne, fizjologiczne;

2) teorie wyjaśniające – teksty zawierające warstwę hipotetyczną i metawarstwę, tu: t. w. fizjologiczne, neutralne, mentalistyczne;

3 ) teorie interpretacyjne – teorie, które nie wyjaśniają ani przewidują zachowania przy użyciu wyjaśnień, intuicyjne.

Zdania fikcjonalne.

.IRT

Teoria odpowiadania na pozycje testowe, to zbiór twierdzeń opisujących sposób w jaki osoba badana odpowiada na pozycje testu. Pozwala na określenie związku między odpowiedziami udzielanymi przez osobę badaną, a zakładaną, nieobserwowalną cecha leżącą u podstaw zachowań testowych. Modele formułowane w ramach IRT mają postać funkcji matematycznych, wiążących prawdopodobieństwo udzielenia odpowiedzi prawidłowej na dana pozycje testową z ogólnym poziomem mierzonej cechy u osoby badanej.

3 podstawowe założenia:

1.o wymiarach przestrzeni latentnej (zachowanie osoby badanej w teście można przypisać pojedynczej cesze nieobserwowalnej, cecha latentna to zmienna wyznaczająca zachowanie osób w danym tescie, determinuje obserwowalne zależności statystyczne między pozycjami testu)

2.o lokalnej niezależności pozycji testowych (odpowiedzi każdej osoby badanej na jedna pozycję testowa nie zależą od jej odpowiedzi na jakakolwiek inną pozycję tego testu, wyniki pozycji testowych są statystycznie niezależne, jeżeli test jest jednowymiarowy (założenie 1) to założenie 2 jest spełnione)

3.o krzywej charakterystycznej pozycji testowej (krzywa charakterystyczna pozycji testowej to graficzny obraz funkcji matematycznej wiążącej prawdopodobieństwo udzielenia odpowiedzi prawidłowej na dana pozycje testową z poziomem cechy, operacyjnie wyznaczonym przez ogólny wynik w teście np. prawdopodobieństwo sukcesu jest funkcją ogólnego poziomu zdolności); krzywe ICC

Zastosowanie modeli IRT:

-do tłumaczeń językowych, adaptacji językowych testów

-w testowaniu adaptacyjnym (interakcyjnym)

-do szacowania stronniczości pozycji testowych

(Hornowska)

(Strelau)

Cel IRT → określenie zasad pomiaru cechy psychologicznych ludzi , cechy są nieobserwowane bezpośrednio (latentne). Ideą jest stworzenie takich zasad konstrukcji testu, aby błąd standardowy pomiaru nie był związany z konkretna populacją i aby nie były z nią związane parametry opisujące poszczególne pozycje testowe. W ramach IRT oszacowania poziomu badanej cechy dokonuje się oddzielnie dla każdej odpowiedzi testowej, kontrolując jednocześnie parametry danej pozycji testu. IRT pozwala na określenie związku pomiędzy odpowiedziami udzielanymi przez osobę badaną, a zakładaną nieobesrwowalną cechą leżącą u podstaw zachowań testowych. Założenia IRT:

Istnieje jeden czynnik wyjaśniający obserwowane kowariancje pomiędzy wszystkimi pozycjami testowanymi, tym czynnikiem jest zmienna latentna.

Związek pomiędzy cechą latentną, a obserwowaną odpowiedzią na dana pozycje testu ma określony kształt – krzywa charakterystyczną pozycji testowej.

Każdą krzywą ICC można opisać za pomocą określonych parametrów: parametru a – odpowiadającemu klasycznemu współczynnikowi mocy dyskryminacyjnej i/lub parametru b odpowiadającemu współczynnikowi trudności i/lub parametru c odpowiadającemu współczynnikowi zgadywania. Wartości parametrów są ustalane empirycznie.

Parametry krzywych ICC są niezależne względem badanych grup osób.

Istnieje wiele matematycznych sposobów, modeli opisywania krzywych ICC.

W IRT wykorzystuje się pojęcie wskaźnika informacji i przyjmuje się, że każda pozycja testowa ma swój odrębny wkład w stopień redukcji niepewności przez cały test.

Zmienne instrumentalne w MR.

  1. jedna zmienna dwukategorialna – kodowanie przy zastosowaniu kodu 0-1 dla grup, a następnie liczenie wsp. regresji i korelacji;

  2. jedna zmienna wielokategorialna – kodowanie 0-1 (gdzie 1 ma wybrana grupa, cała reszta ma 0) lub kodowanie quasi-eksperymentalne (wybrana grupa 1, ostania grupa -1, reszta 0), kodowanie ortogonalne (skonstruowanie nowych zmiennych instrumentalnych, pomiędzy którymi wsp. korelacji wynosi 0)

  3. dwie zmienne wielokategorialne – zamiana tych zmiennych w nowe, poprzez mnożenie wszystkich wektorów instrumentalnych z X1 przez wektory (po kolei) z X2, potem j.w.

Zmienna pośrednicząca a konstrukt hipotetyczny.

a) k. h. o fizjologicznym znaczeniu dodatkowym (procesy organiczne)

b) k. h. o mentalistycznym znaczeniu dodatkowym (procesy mentalistyczne)

  1. k. h. o mentalnym znaczeniu dodatkowym (procesy neutralne)

pojęcia posiadające nadznaczenie; nie są całkowicie sprowadzalne do zbioru cech obserwowalnych (np. popęd, emocje); wprowadzamy je, aby lepiej zrozumieć dane zjawisko i konstruować teorie (np. gen, osobowość)

Zmienne hipotetyczne – twierdzenia wyjaśniające z niejasnym znaczeniem dodatkowym, również termin wspólny dla powyższych.

Praktyka i teoria wg Siemianowskiego.

  1. „nie zawierająca żadnego twierdzenia mogącego stanowić podstawę naukowego wyjaśniania znanych faktów lub przewidywania faktów nieznanych

  2. umożliwiająca wyjaśnienie i przewidywanie, ale bez dostarczania żadnych informacji użytecznych w działaniach praktycznych”

  1. naczelnym zadaniem nauk empirycznych jest dostarczanie wyjaśnień faktów, regularności oraz prawidłowości empirycznych

  2. problemy formułowane na gruncie nauk to problemy badawcze (odpowiedź na pytanie: dlaczego?)

  3. podstawowe zdania formułowane w tych naukach to prawa empiryczne stanowiące podstawę naukowego wyjaśnienia

  4. prawa empiryczne podlegają sprawdzeniu

  5. informacje występujące w formułowanych przez badaczy przewidywaniach wykorzystywane są przy rozwiązywaniu praktycznych problemów decyzyjnych.


Trafność teoretyczna testów psychologicznych.

Przez trafność testu rozumiemy odpowiedź na pytanie, czy test na pewno mierzy to, co ma mierzyć. Jest ona powiązana z rzetelnością testu. Trafność teoretyczna, jest takim rodzajem trafności testu, który wykazuje stopień, w jakim jednostka posiada jakąś cechę lub właściwość ujawnianą na podstawie badania danym testem. Sposoby sprawdzania tej trafności:

  1. metoda sprawdzania różnic międzygrupowych (wykazywanie różnic miedzy tymi grupami, miedzy którymi różnice te powinny występować zgodnie z założeniami testu)

  2. metoda analizy macierzy korelacji i analizy czynnikowej (analiza korelacji między różnymi testami badającymi daną cechę)

  3. metoda badania wewnętrznej struktury testu (stopień jednorodności, a więc związek między pozycjami testu)

  4. metoda badania zmian nieprzypadkowych (stałość testu w powtórnym badaniu, czy raczej modyfikowanie i sprawdzanie, czy test je „wychwycił”)

  5. metoda badania procesu rozwiązywania testu (analiza procesu rozwiązywania testu przez badanych, co pozwala na poprawę jego konstrukcji, a więc też trafności.

Pojęcie i rodzaje zmiennych.

(a) ze względu na wielkość zbioru, z którego dana zmienna przyjmuje wartości:

(zmienne zdychotomizowane – wielowartościowe, które z jakiegoś powodu sprowadzono do dychotomicznych)

(b) ze względu na ciągłość wartości:

(c)

(d) klasyfikacja Stevensa:

  1. - zależna (Y) – jest przedmiotem naszego badania. Jej związki z innymi zmiennymi chcemy wyjaśnić

    • niezależna (X) – zmienna, od której zależy zmienna zależna. Zmienne niezależne można uporządkować pod względem siły oddziaływania na zmienną zależną (Xg – główne, najsilniej oddziałujące. Xu – uboczne)

    • Xg + Xu = W (zmienne ważne dla danej zmiennej zależnej Y)

    • Zzmienne niezależne-zakłócające (mają inferencyjny wpływ na zależność, która wiąże zmienne ważne ze zmienną zależną). Dzielą się na 2 klasy:

      • na zewnątrz” sytuacji badawczej („nie skorelowane” z aktem badania empirycznego). Ich wpływ – „niespecyficzny”, np. indywidualna tolerancja na zmiany ciśnienia atmosferycznego

      • „wewnętrzne” względem sytuacji badawczej („skorelowane” z aktem badania empirycznego). To np. zmienne konteksty psychologicznego badania, zmienne będące „pochodną” wchodzenia badacza z osobą badaną w interakcję – oczekiwania badacza, lęk przed oceną, itp.

    • N – zmienne niezależne-niekontrolowane = zmienne niezależne-uboczne nie kontrolowane + zmienne niezależne-zakłócające

    • K – zmienne niezależne-kontrolowane = zmienne niezależne-główne + reszta zmiennych niezależnych-ubocznych, których wpływ na Y badacz uwzględnia

    • Zmienne niezależne istotne dla Y = zm. niezależne-główne + zm. niezależne-uboczne + zm. niezależne-zakłócające.

Kategorie gramatyczne oraz ich indeksy. Reguły formowania.

Aspekty trafności testu psychologicznego.


Trzy procedury kontroli WSH:

  1. badania posteksperymentalne:

  1. niby-eksperyment:

  1. symulacja eksperymentalna:

Rodzaje metodologii:

(1)

Metodologia ogólna – traktująca o prawidłowościach rządzących procesem poznawczym, wspólnych dla wszystkich nauk (np. klasyfikowanie, definiowanie, wnioskowanie, wyjaśnianie itp.)

metodologia szczegółowa – dotyczącą danej dyscypliny naukowej i zajmującą się charakterystycznymi dla tej właśnie dyscypliny naukowej procedurami poznawczymi (np. planowanie eksperymentów w psychologii czy budowa testów psychologicznych).

(2)

Badania nad działaniami poznawczymi mogą być prowadzone w dwojaki sposób:

  1. Metodologia opisowa – dokonywanie rekonstrukcji i opisu rzeczywistego postępowania badawczego osób zajmujących się nauką (w jaki sposób uczestnik procesu realizuje swoje cele – jakie środki stosuje)

  2. Metodologia normatywna – wskazania, jak powinni postępować badacze, aby zminimalizować błędy i zmaksymalizować osiągnięcia badawcze.

(3)

  1. Metodologia nauk empirycznych (psychologii, pedagogiki, fizyki, biologii)

  2. Metodologia nauk formalnych (matematyka, logika)

- rozpoznawanie podstawowych czynności badawczych

- rekonstruowanie procesu postępowania badawczego

-rozpoznawanie celów poznania naukowego – kodyfikacja norm poprawnego postępowania badawczego

Klasyczny rachunek logiczny.

[rachunek zdań i rachunek kwantyfikatorów = dyscypliny formalne (czyli dyscypliny, które określają wyłącznie reguły formowania i reguły dedukcyjne); przyjmuje się tu wyłącznie tezy językowe!]

Spójnik Zapis Czyta się
Negacji ~ Nie jest tak, że (nie)
Koniunkcji Λ Oraz (i)
Alternatywy V lub
Okresu warunkowego (implikacji) Jeżeli, … to
Równoważności Wtedy i tylko wtedy, gdy
p chcesz być psychologiem
q zdanie metodologii
r bycie psychologiem z dużym prawdopodobieństwem

schemat tautologiczny zwany sylogizmem hipotetycznym
(p -> q) i (q -> r) -> (p -> r)

tautologia logiczna języka potocznego
Jeżeli to, że chcesz być psychologiem implikuje że zdasz metodologię oraz to że zdanie metodologii implikuje z dużym prawdopodobieństwem bycie psychologiem, to to że chcesz być psychologiem implikuje że z dużym prawdopodobieństwem będziesz psychologiem.

Psychologia a model nauk praktycznych.

Formy podziału teorii wg Madsena.

  1. Teoria jako całość- formalne właściwości teorii można rozpatrywać w trzech aspektach:

    1. systematyczna organizacja teorii- cechuje teorie naukowe w różnym stopniu:

- szkice wyjaśniające- luźno zorganizowane teksty, przypominają informacyjne opracowania z życia codziennego, bez żadnej stratyfikacji na trzy poziomy abstrakcji i bez wyraźnych, sformalizowanych twierdzeń wyjaśniających;

- teorie systematyczne- występuje w nich podział na warstwy (opisową, hipotetyczną i metawarstwę) oraz pewne ważne twierdzenia formułowane explicite w każdej warstwie (jako zasady, praw itd.);

- teorie dedukcyjne- zorganizowane jako system dedukcyjny w logiczną hierarchię aksjomatów lub postulatów i pochodnych teorematów.

  1. ścisłość sposobu przedstawiania- może być powiązana z systematyczną organizacją- choć nie zawsze; są to:

- teorie czysto słowne- formułowane wyłącznie za pomocą słów i zdań z języka potocznego;

- teorie częściowo symbolizowane- które w pewnym stopniu wykorzystują symbole logiczne, matematyczne i inne jako zastępujące słowa;

- teorie matematyczne- zawierające kompletny system wzorów matematycznych jako odpowiednich sformułowań słownych.

  1. klasyfikacja modelu wg właściwości formalnych- cztery kategorie:

- analogie słowne- słowne wyjaśnienia posługujące się przenośniami/analogiami, bez ścisłego ich przedstawienia;

- modele dwuwymiarowe- wykresy, mapy;

- modele trójwymiarowe- np. globus;

- programy symulacji komputerowej.

2) Epistemologiczna klasyfikacja teorii- oparta na języku danych i na kategorii terminów hipotetycznych stosowanych w danej teorii:

- teorie czysto opisowe, czyli teksty psychologiczne nie mające żadnej warstwy hipotetycznej ani metawarstwy (behawioralne, fenomenologiczne, fizjologiczne)

- teorie wyjaśniające - zawierające zarówno warstwę hipotetyczną, jak i metawarstwę (fizjologiczne, neutralne, mentalistyczne)

- teorie interpretacyjne lub teorie M- reprezentują bardziej intuicyjne zrozumienie psychiki ludzkiej.

3) Klasyfikacja wg stosunku t/e. (stosunek teoria - empiria, stosunek warstwy hipotetycznej do warstwy opisowej):

- teorie głównie spekulatywne, tj. teorie z wysokim stosunkiem t/e

- teorie głównie empiryczne, tj. teorie z niskim stosunkiem t/e.

Problem badawczy i jego rodzaje.

(1)

(2)

Podział na czynną i bierną znajomość metodologii .Cele nauczania metodologii.

Mówiąc o biernej znajomości metodologii mamy na myśli 3 zasadnicze konteksty korzystania z wiedzy metodologicznej dotyczącej standardów prowadzenia badań empirycznych w psychologii (i dyscyplinach pokrewnych):

a) kontekst studiowania, ze zrozumieniem, literatury psychologicznej – czytelnik powinien umieć rozszyfrować specjalistyczne terminy, symbole i wzory. Powinien sobie wyrobić krytyczne sądy na temat zastosowanej przez autora danego artykułu procedury badawczej, narzędzia pomiarowego, techniki doboru próby, zastosowanych testów statystycznych i współczynników korelacji. Nie można przecież polegać tylko na tym co sam o swoim wytworze napisał autor.

b) kontekst poprawnego wykorzystania, w praktyce psychologicznej, rezultatów badawczych zaczerpniętych z literatury przedmiotu – zanim psycholog sięgnie po jakąś koncepcje, winien się wpierw upewnić, czy rzeczywiście zasługuje ona na miano „teorii” i jako taka może stać się podstawą do wykorzystania w rozwiązaniu określonego problemu badawczego, a dopiero potem przystąpić do wyprowadzenia z jej twierdzeń dyrektyw praktycznego działania.

c) kontekst umiejętnego formułowania pytań adresowanych do specjalistów z zakresu metodologii i statystyki od psychologa – badacza oczekuje się, iż będzie zwracał się on o pomoc do specjalisty – metodologa, psychometry czy statystyka. Gwałtowny rozwój metodologii badań empirycznych uniemożliwia – zwłaszcza psychologowi, który musi śledzić rozwój wiedzy w zakresie swojej specjalizacji – dotrzymywanie kroku specjalistom z zakresu metodologii, którzy tylko nią się profesjonalnie zajmują. Przynosi natomiast ujmę nieujawnianie swojej niewiedzy metodologicznej w obawie przed utratą swoiście pojmowanego prestiżu zawodowego. Aby zadawać pytania niezbędne jest pewne minimalne kompetencje metodologiczne. Chodzi bowiem o wysławianie się w języku zrozumiałym dla specjalisty i chodzi też o to, aby zrozumieć to, co nam specjalista powie.

Czynna znajomość metodologii badań psychologicznych obejmuje cztery konteksty:

a) kontekst prowadzenia własnych badań empirycznych – jest to główny cel wykładu metodologii. To, jaka będzie psychologia jako nauka – zależy przede wszystkim od tego, jaka będzie świadomość metodologiczny społeczności psychologów – badaczy. Idealny psycholog, to taki, który nie tylko zna teorie psychologiczne, umie posłużyć się nimi w procesie diagnostycznym i terapeutycznym, ale także potrafi samodzielnie przeprowadzić badanie empiryczne, w którym poddane będą kontroli empirycznej jego oryginalne pomysły teoretyczne.

b) kontekst integrowania rezultatów badawczych powstałych w różnych pracowniach – znajomość metodologii jest pomocna także wówczas, gdy chcemy dokonać integracji wyników badań tego samego problemu, prowadzonych przez różnych badaczy, w określonym przedziale czasu. Takie zestawienie rezultatów badawczych są ostatnio prowadzone z wykorzystaniem nowoczesnych metod tzw. Meta analizy.

c) kontekst powtarzania (replikacji) badań empirycznych – nie zawsze badanie jest powtarzane ze 100% odtworzeniem oryginalnych warunków. Czasem nowe badanie prowadzone jest ze zmianami scenariusza badania, badacz używa np. bardziej nowoczesnych narzędzi, lub przeprowadzane jest w odmiennych warunkach kulturowych. Zagrożeniem dla pełnej replikowalności badań psychologicznych są takie zmienne, jak: oczekiwania interpersonalne badacza, wskazówki sugerujące osobie badanej treść hipotez badawczych, lęk przed oceną, status motywacyjny osoby badanej, itp.

d) kontekst psychologii badania empirycznego (psychologicznego!) i etyki zachowań badawczych psychologa – osobliwością badań empirycznych prowadzonych przez psychologów jest to, że wchodzą oni, jako badacze, w interakcję z osobami badanymi, co ma poważne konsekwencje metodologiczne (wyniki badań empirycznych mogą się różnić z powtórzenia na powtórzenie) oraz etyczne (nie wszystko, co technicznie wykonalne, możliwe jest do przeprowadzenia, gdyż nie pozwalają na to zasady etyczne). Na badaczu, jako człowieku i członku społeczności psychologicznej spoczywa szczególna odpowiedzialność za to, jak będzie się czuła osoba badana (a zwłaszcza dziecko czy osoba chora), która mu zaufała i zgodziła się wziąć udział w prowadzonych przez niego badaniach.

Cele nauczania metodologii:

  1. metodologia niezbędna jest do zrozumienia naukowych tekstów i procedur zawartych w naukowych publikacjach

  2. nauka samodzielnego zaprojektowania, przeprowadzenia i zinterpretowania wyników badania empirycznego.

Predykcja, postdykcja i retrodykcja.

Predykcja – czynność związana z faktem szczegółowym następstwem logicznym dotyczącym tego, co dopiero ma wystąpić;

Postdykcja – czynność związana z faktem za pomocą następstwa logicznego dotyczącego stanu rzeczy wcześniejszego od czasu dokonania postdykcji, a warunki początkowe dotyczą faktu jeszcze wcześniejszego;

Retrodykcja – tu hipotetyczne następstwo logiczne dotyczy stanu rzeczy wcześniejszego zarówno od czasu dokonania retrodykcji, jak i od stanu początkowego.

Pojęcie i podst. odmiany modelu wielokrotnej regresji MR.

Model MR – najczęściej stosowany w psychologii, jest wielozmiennowym modelem statystycznym, którego głównym warunkiem jest, aby zmienne niezależne były mierzone przynajmniej na poziomie interwałowym. Polega na mierzeniu przynajmniej dwóch zmiennych (zależnej i niezależnej), a następnie sprawdzaniu, czy zachodzi pomiędzy nimi jakaś zależność, a jeśli tak, to jaki ona ma kierunek i natężenie.

Podstawowe odmiany MR:

  1. ze względu na ilość zmiennych niezależnych (lub zależnych)

- odmiana jednozmiennowa

- odmiana wielozmiennowa

  1. ze względu na złożoność operacjonalizacji

- operacjonalizacja prosta

  1. ze względu na zależności między zmiennymi X i Y:

- odmiana liniowa

- odmiana krzywoliniowa.

  1. Odmiany modelu MR ze względu na sposób operacjonalizacji i ilość zmiennych zależnych:

    1. Odmiana jedno-jednozmiennowa – zmienna zależna jest jednowymiarowa (prosta operacjonalizacja  jeśli dla N-osobowej grupy uzyska się wektor wyników o wymiarach N∙1), występuje jedna zmienna niezależna;

    2. Odmiana jedno-wielozmiennowa – zmienna zależna jest jednowymiarowa, zmiennych niezależnych jest wiele;

    3. Odmiana wielo-jednozmiennowa – zmienna zależna jest wielowymiarowa (operacjonalizacja za pomocą wielu kryteriów  macierz wyników N∙r [r- liczba zastosowanych przez badacza kryteriów, czyli np. ilość skal w teście]), występuje jedna zmienna niezależna;

    4. Odmiana wielo-wielozmiennowa – zmienna zależna jest wielowymiarowa, zmiennych niezależnych jest wiele.

  2. Odmiany modelu MR ze względu na postać zależności, wiążącej Y ze zmiennymi dla niej istotnymi:

    1. Odmiana liniowa

    2. Odmiana krzywoliniowa – tą w psychologii stosuje się bardzo, bardzo rzadko

  3. Model liniowy jedno-jednozmiennowy – model ten opiera się na równaniu regresji liniowej (ze statystyki), na podstawie którego wyznacza się linię najmniejszych kwadratów. Następnie oblicza się współczynnik korelacji r-Pearsona, którego użycie jest uzasadnione, kiedy:

    1. Zależność między zmiennymi jest liniowa

    2. Rozkłady obu zmiennych są symetryczne (jeśli są skośne, ważne jest, aby oba były albo lewoskośne, albo prawoskośne)

Jeżeli linia kwadratów idealnie pokrywa się z punktami, oznaczającymi wyniki osób badanych, wówczas współczynnik korelacji r =1. Ponadto wyniki surowe często (zwłaszcza w przypadku modeli wielozmiennowych) są wyrażone za pomocą różnych skal i trzeba je wystandaryzować . Dlatego określa się wagę beta – standaryzowany współczynnik regresji, która mówi, o ile zmieni się Y wskutek standaryzowanej zmiany zmiennej X. Kolejno testuje się istotność współczynnika r przez testowanie H0 przeciwko H1 testem t. H0 odrzuca się na rzecz H1, gdy ttα,df.

Maksymalne uproszczenie: regresja, korelacja, standaryzacja i test t.

  1. Model liniowy jedno-wielozmiennowy – rozpatrywana jest zależność zmiennej Y od wielu (2 i więcej) zmiennych niezależnych. Tu również zastosowanie ma równanie regresji liniowej, ale dla 2 lub 3 zmiennych (gdy zmiennych jest więcej, trzeba liczyć programami komputerowymi); uzyskuje się geometryczny model równania dzięki metodzie najmniejszych kwadratów i jest nim płaszczyzna leżąca w przestrzeni trójwymiarowej. Odbywa się standaryzacja zmiennych, liczy się wagę, stosuje się współczynnik korelacji wielokrotnej, za pomocą którego określa się siłę związku między Y i X-ami (traktowanymi łącznie). Skoro X-y traktuje się łącznie, to współczynnik korelacji mówi o łącznym wyjaśnianiu wariancji przez te zmienne. Badacz jednakże najczęściej jest zainteresowany udziałem każdej zmiennej w wyjaśnianiu wariancji, wobec tego musi zastosować współczynnik determinacji semicząstkowej (wzór na 359) dla jednej zmiennej X, a dla drugiej X współczynnik determinacji cząstkowej. Kolejno testuje się istotność współczynników determinacji.

Przekształcenia homorficzne i izomorficzne.

Realizm życiowy i realizm psychologiczny.

Pojęcie planu eksperymentalnego.

  1. rozdziela osoby badane do co najmniej 2 grup porównawczych: eksperymentalnej i kontrolnej, stosując się do zasady randomizacji (czyli manipuluje co najmniej jedną zmienną niezależną-główną)

  2. dokonuje pomiarów zmiennej zależnej Y(pretesty Y i posttesty Y)

  3. kontroluje zmienne niezależne – uboczne i zakłócające.

Rodzaje planów eksperymentalnych.

Plan badawczy – wystandaryzowany sposób postępowania w zakresie analizy statystycznej danych (tu: eksperymentalnych)

Oznaczenia:

X – zmienna niezależna-główna o wartości 1 – postępowanie eksperymentalne

~X – zmienna niezależna-główna o wartości 0 – nie oddziałuje na Y, grupa kontrolna

Y – zmienna zależna

Yp –pomiar początkowy zmiennej zależnej (pretest)

Yk – pomiar końcowy zmiennej zależnej (posttest)

R – randomizacja

  1. Plany jedno-jednozmiennowe = dwuwartościowe = dychotomiczne (0-1)

Graficzny schemat Przebieg badania Warunki potwierdzenia hipotezy badawczej Kontrola czynników zakłócających trafność wew. i zew. planu Zastosowania planu

Plan z grupą kontrolną, z pomiarem początkowym i końcowym zmiennej zależnej

1.

Grupa 1 Grupa 2

- pretest w obu grupach

- wprowadzenie do grupy eksperymentalnej zmiennej X, do kontrolnej ~X

- posttest

- warunek wstępny (grupy „startują” z tego samego poziomu) Y1p= Y1k (wg mnie w Brzeziu jest błąd i powinno być Y1p= Y2p)

- Y1k> Y2k

- Y2k= Y2p

2 ostatnie, jeżeli nie zakładamy, że w grupie kontrolnej także powinny wystąpić zmiany

- kontrola czynników zakłócających trafność istnieje dzięki randomizacji oraz przeprowadzeniu pretestu i posttestu

- jeżeli wystąpi interakcja pretestu Y z postępowaniem eksperymentalnym X, dojdzie do zakłócenia trafności zew-należy zrezygnować z modelu.

Podstawowy plan E – wchodzi w skład bardziej rozbudowanych planów. Zawodzi, gdy badacz stosuje metody, wprowadzające efekt pretestu (dodatkowe niekontrolowane źródło wariancji Y)

R

Y1p

X

Y1k

R

Y2p

~X

Y2k

Plan z grupą kontrolną, bez pomiaru początkowego zmiennej zależnej

2.

Grupa 1 Grupa 2

- wprowadzenie X do grupy eksperymentalnej

- posttest Y w obu grupach

- potwierdzona, jeżeli

Y1k> Y2k

- wyeliminowane przez randomizację, jeśli grupa jest liczna oraz przez rezygnację z uwrażliwiającego wpływu na badanych pretestu Y k

R

X

Y1k

R

~X

Y2k

Plan z pomiarem początkowym i końcowym zmiennej zależnej w różnych grupach

3.

Grupa 1 Grupa 2

- pretest Y w grupie kontrolnej

- X i ~X

- posttest Y w grupie eksperymentalnej

Potwierdzona, jeżeli

Y2k>Y2p

- randomizacja zapewnia kontrolę czynnika selekcji

- wpływ czynnika dojrzewania i historii wpływa na obniżenie trafności wew.

- dobry, gdy okoliczności nie pozwalają na równoległą obserwację grup i przeprowadzenie na tej podstawie pre i posttestu

- w wersji qE wykorzystywany w badaniach edukacyjnych

R

X

Y1k

R

Y2p

~X

Plan czterogrupowy Solomona

4.

G1-E G2-K G3-E G4-K

- pretest w G1 i G2

- X do G1 i G3, ~X do G2 i G4

- posttest we wszystkich gupach

- sposób elementarny

Należy przeprowadzić porównania:

Y1k> Y2k

Y3k> Y4k

Y1p= Y2p

D1>D2, czyli:

(Y1k- Y1p )>(Y2k- Y2p)

Aby kontrolować efekt pretestu:

Y1k= Y3k oraz

Y2k= Y4k

Jeśli w kontrolnej nie powinny wystąpić zmiany, to dodatkowo:

Y4k= Y1p oraz

Y4k= Y2p

- sposób zaawansowany (ANOVA) str.329-330 

Pozwala kontrolować wszystkie czynniki zakłócające trafność wew.i zew. , a zwłaszcza wpływ testowania

Szczególnie w badaniach nad efektywnością psychoterapii, nad zmiana postaw i opinii, w badaniach edukacyjnych i nad rozwojem

Str 330-331, jak kto chce przeczytać szczegóły wykorzystania planu do zmiany postaw 

R

Y1p

X

Y1k

R

Y2p

~X

Y2k

R

X

Y3k

R

~X

Y4k

Plan trzygrupowy, z podwojonym pomiarem początkowym i jednym pomiarem końcowym zmiennej zależnej

5.

G1- E G2-K G3-K

- pretest w G3

- pretest w G2

- X i ~X

-posttest w G1

-równe odstępy czasu między:

Y3p i Y2p

Y2p i Y1k

- potwierdzona, jeśli:

Y1k> Y2p

Y1k> Y3p

Y2p= Y3p

- jeśli nie zadziałał czynnik dojrzewania, to:

(Y1k- Y2p )>(Y2p- Y3p)

Jeśli relacja nie zachodzi, mógł zadziałać czynnik dojrzewania

- podobna do planu nr 3., jednakże tutaj specjalnej kontroli podlega czynnik dojrzewania Gdy chcemy się dowiedzieć, czy nie zadziałał czynnik dojrzewania i do badań edukacyjnych.

R

X

Y1k

R

Y2p

~X

R

Y3p

X

Plan czterogrupowy, z pomiarem początkowym i końcowym zmiennej zależnej w różnych grupach

6.

G1-E1 G2-K1 G3-E2 G4-K2

-podwojenie planu 3

- pretest w G2

- X do G1 i ~X do G2

-pomiar końcowy q G1 i pretest w G4

- X i ~X

- końcowy w G3

-potwierdzona, jeśli:

Y1k>Y2p oraz

Y3k>Y4p

Jeśli nie zadziałał czynnik historii, to:

(Y1k-Y2p)

większa lub mniejsza od

(Y3k-Y4p)

Aby wykluczyć wystąpienie czynnika historii W badaniach edukacyjnych i socjologicznych, prowadzonych w warunkach braku stabilności społecznej i politycznej, gdy wydarzenia zew.mogą mieć wpływ na odbiór eksperymentu

R

X

Y1k

R

Y2p

~X

R

X

Y3k

R

Y4p

~X

  1. Ograniczenia planów 0-1

    • Jedno badanie-jedna zmienna 0-1

    • Niemożność testowania hipotez o wpływie na zmienną zależną interakcji między zmiennymi niezależnymi

    • Konieczność badania wpływu na Y tylko zmiennych dwuwartościowych

    • Testowanie wyłącznie zależności liniowych między zmiennymi X i Y

  2. Plany jedno-wielozmiennowe = wielowartościowe oparte na procedurze statystycznej ANOVA. Pozwalają:

  1. plany wielo-wielozmiennowe = MANOVA – pozwalają badać wiele zmiennych zależnych.

Pojęcie dziedziny języka, modelu semantycznego i standardowego języka.

(a) Dziedzina przyporządkowana językowi J przez reguły S [DS(J)] – taki system relacyjny, którego:

uniwersum jest identyczne z uniwersum ustalonym dla J

– charakterystyka obejmuje wszystkie denotacje terminów pierwotnych.

(b) Model semantyczny języka J – każda i tylko taka DS(J), w której prawdziwe są wszystkie tezy J, czyli: tautologie logiczne, aksjomaty pozalogiczne oraz ich konsekwencje

(c) Model standardowy języka S:

Standardowy model (empiryczny) MS języka J (z uwagi na wiedzę W) – taki jego model semantyczny, który spełnia następujące warunki:

1) jego uniwersum ma charakter fizykalny (elementy posiadają charakterystykę czasoprzestrzenną)

2) imiona własne posiadają standardowe (ustalone) denotacje

3) prawdziwe są w nim wszystkie zdania należące do W.

(d) Wiedza W

• Stanowi relatywny układ odniesienia

• Zawiera:

– wszystkie zdania analityczne analityczne (przede wszystkim tezy, czyli aksjomaty logiczne [tautologie] i pozalogiczne) języka J

– niektóre zdania syntetyczne syntetyczne (nieanalityczne i niekontradyktoryczne), a także ich konsekwencje

• Zdania analityczne a tezy języka J – zagadnienie zupełności systemów aksjomatycznych.

Pojęcie i funkcje normalizacji testu psychologicznego.

Moc predykatywna predykatorów teoretycznych.

Moc predykatywna jest warunkiem sprawdzalności i niezbędności hipotez zawierających predykaty teoretyczne. Wiąże się z pojęciem przewidywania. W mocy predykatywnej chodzi o to, by znaleźć takie predykaty obserwacyjne, które gwarantują, że jeśli dana osoba znajdzie się w sytuacji S i wystąpią u niej cechy (zachowania) określone przez predykaty obserwacyjne U (warunki początkowe), to znaczy, że przejawia ona cechę (zachowanie) określone przez predykat teoretyczny T. Jednak warunki początkowe nie mogą być równoznaczne z predykatem teoretycznym, musi on oznaczać „coś więcej”.

Pojęcie dyskryminatywności narzędzia badawczego.

Zagadnienie jednoznaczności reprezentacji jako jednego z podstawowych problemów teorii pomiaru .

O zagadnieniu jednoznaczności pisał np. Coombs. Zagadnienie jednoznaczności – ujawnia się po rozwiązaniu zagadnienia istnienia reprezentacji a więc po udowodnieniu istnienia i zbudowaniu odpowiedniej skali. Zagadnienie jednoznaczności odpowiada na pytanie, jak wiele swobody w przypisywaniu przedmiotom liczb pozostawia dobrana procedura pomiaru, a więc czy są one jednoznaczne, czy też dowolnie dobierane. Dopuszczalne są przekształcenia zachowujące reprezentowanie systemu empirycznego przez system formalny. Przekształcenia dopuszczalne nie zmieniają wartości logicznej zdań zawierających wartości liczbowe.

Zbiór wszystkich dopuszczalnych przekształceń określa typ skali (skale wg Stevensa).

OIOB – Oczekiwania Interpersonalne Osoby Badanej. (formułowane pod adresem badacza)

- Odwrócenie OIB

Nomologiczno-dedukcyjny model wyjaśniania.

W modelu nomologiczno-dedukcyjnym wyjaśnia się zdarzenie poprzez wykazanie, że zdania stwierdzające zajście tego zdarzenia wynikają z pewnych zdań ogólnych i ze zdań stwierdzających zajście zdarzeń opisanych przez poprzedniki tych zdań ogólnych. W modelu tym wyróżniamy następujące zmienne:

1)ekspalanandum – zmienna wyjaśniana (odpowiednik zmiennej zależnej Y), czyli twierdzenie lub zbiór twierdzeń opisujących zdarzenie lub stan rzeczy, który chcemy wyjaśnić;

2) ekspanans – zmienna wyjaśniająca (odpowiednik zmiennej X), to zespół twierdzeń wyjaśniających własność lub zdarzenie opisane w eksplanandum, zmienna ta powinna składać się z dwóch rodzajów twierdzeń:

Idealizacyjna koncepcja operacjonalizacji. Etapy operacjonalizacji wg Hornowskiej. ( 103 pdf B )

  1. Do jakich aspektów świata rzeczywistego odnosi się problem badawczy?

  2. Jak dalece wybrane wielkości i istniejące między nimi powiązania dostępne są obserwacji?

  3. W jakim zakresie wybrane przez badacza obserwacje dostarczą mu informacji o wyjściowym problemie badawczym?

  1. konstruowanie obrazu (wielkości) zmiennej teoretycznej (czynnika)

  2. dobieranie do niego wskaźników (zmiennej, jako zoperacjonalizowanego obrazu wielkości)

1) Rekonstrukcja czynnika teoretycznego; konstrukcja wielkości (obrazu czynnika)
2) Konceptualizacja wielkości, dobieranie wskaźników; konstruowanie zmiennej, konstruowanie indeksu – zagregowanej miary, utworzonej z dwóch i więcej wskaźników, wielkości

3) dobór narzędzia pomiarowego i pomiar zmiennej.

Proces badawczy jako analiza wariancji.

Proces badawczy to całokształt czynności służących wysunięciu i sprawdzeniu hipotezy o rodzaju zależności zachodzącej miedzy zmiennymi (a więc pytania / hipotezy kierunkowe). Wariancja jest miarą zróżnicowania, wyróżniamy wariancje: międzygrupową, wewnętrzgrupową, całkowitą. Kowariancja jest miarą zasobu zmienności wspólnej.

Kontrola zmienności – to kontrola zróżnicowania zmiennej Y wyjaśnianego (przewidywanego) przez zróżnicowanie zmiennej X. Kontrola ta może być mierzona przez: wielkość wariancji międzygrupowej lub zasób zmienności wspólnej.

W zależności od przyjętego modelu za punkt wyjścia można przyjąć:

Podstawowe typy relacji.

Paradygmaty w naukach społecznych.

Paradygmat („miejsce, z którego się patrzy”) - to fundamentalny model czy układ odniesienia, który służy do porządkowania obserwacji i rozumowania, zwykle głęboko ukryte, zakładane z góry za oczywiste („tak już po prostu jest”) W naukach społecznych wyróżniamy następujące paradygmaty:

  1. wczesny pozytywizm – społeczeństwo można badać w sposób naukowy

  2. darwinizm społeczny – przetrwają najlepiej przystosowani

  3. paradygmat konfliktu – Marks, zachowania społeczne jako ciągła walka o dominację

  4. symboliczny interakcjonizm – Mead, interakcje dzięki użyciu języka i systemów symbolicznych

  5. etnometodologia – Garfinkel, każdy człowiek „badaczem”, jego zachowanie efektem norm społecznych

  6. funkcjonalizm strukturalny – teoria systemów społecznych, byt społeczny traktowany jako organizm

  7. paradygmaty feministyczne – różnice miedzy płciami

  8. racjonalna obiektywność – i odróżnianie jej od doświadczenia subiektywnego.

Co to jest nauka - omów stanowiska.

(a) Brzeziński, Ajdukiewicz

(b) Kmita

(c) Frankfort – Nachmias

(d) Madsen

Budowa/konstrukcje predykatów teoretycznych.

Predykat teoretyczny – to jaki rodzaj terminu deskryptywnego, który denotuje cechy lub relacje niemożliwe do bezpośredniego zaobserwowania, zgodnie z warunkiem intersubiektywności. Wyróżniamy dwa rodzaje predykatów:

Aby predykat teoretyczny był sprawdzalny, musi posiadać moc predyktywną, a więc musi być powiązanych z predykatami obserwacyjnymi (np. „x się poci”, „x wykonuje szybkie ruchy”).

Zasady doboru próby.


Pozametodologiczne wyznaczniki przebiegu procesu badawczego.

(a) kontekst interakcji: badacz – osoba badana

  1. oczekiwania badacza

  2. zmienne sugerujące hipotezę badawczą

  3. lęk przed oceną

  4. status motywacyjny osoby badanej

  5. aprobata społeczna.

(b) kontekst interakcji: badacz –instytucja społeczna

Wyjaśnianie i wyjaśnienie. Wyjaśnienie a wynikanie.

Postępowanie badawcze i postępowanie diagnostyczne -podobieństwa i różnice.

Etap Postępowanie badawcze Postępowanie diagnostyczne
Konceptualizacja Rozpoznanie i zwerbalizowanie problemu badawczego, sformułowanie wstępnej hipotezy, tu może być także ukazanie okoliczności podjęcia problemu Wstępne rozpoznanie i ocena problemy, zwykle nieprawidłowości, uzasadnienie podjęcia problemu, wskazanie standardów, do którego będzie porównywany przedmiot postępowania
Konkretyzacja Umiejscowienie problemu i hipotezy w jakimś kontekście teoretycznym, określenie założeń i sformułowanie hipotez szczegółowych Sformułowanie pytań i hipotez szczegółowych, dotyczących genezy i mechanizmu zjawiska z uwzględnieniem zakresu wniosków
Operacjonalizacja Określenie kryteriów empirycznej stosowalności i ilościowego ujmowania dla terminów nieobserwacyjnych (jako zmiennych) zawartych w hipotezach szczegółowych Zaplanowanie (lub wybór odpowiedniego wzoru) postępowania oraz dobór odpowiednich metod
Konfrontacja Wybór modeli gromadzenia doświadczenia z treścią implikacji empirycznych hipotez i modeli analizy danych (zastosowanie modeli statystycznych) Zebranie danych i analiza wyników w kontekście ich zgodności z postawionymi hipotezami
Aplikacja

Sformułowanie wniosków na temat prawdziwości sprawdzanych hipotez oraz wskazanie dopuszczalnego zakresu odniesienia rezultatów badań do:

- przyjętych założeń i hipotez

- możliwości formułowania kolejnych problemów, tj. wysuwania postulatów badawczych

- formułowania dyrektyw praktycznego działania

Sformułowanie diagnozy i postulatów dotyczących dalszego trybu postępowania oraz reguł współpracy z innymi specjalistami czy też instytucjami

Porównanie procesów badawczych wg Brzezińskiego, Spendla.

Bunge 1959 Brzeziński, 1978 Brzeziński, 1987 Brzeziński, 1991 Babbie, 2003 Nachmias, 2001 Spendel, 2000
Ujęcie problemu Pytania o zależności Pytania o zależności Sformułowanie problemu i hipotezy Zainteresowania – idea - teoria Problem Konceptualizacja
Zbudowanie modelu teoretycznego Pytania i hipotezy istotnościowe Pytania i hipotezy istotnościowe Określenie obrazu przestrzeni zmiennych Konceptualizacja pojęć Hipoteza Konkretyzacja
Wyprowadzenie szczegółowych konsekwencji Hipotezy o zależnościach Operacjonalizacja Operacjonalizacja zmiennych Operacjonalizacja Pomiar Operacjonalizacja
Hipotezy o zależnościach
Sprawdzenie hipotez Sprawdzanie hipotez o zależnościach Sprawdzanie hipotez o zależnościach Wybór modelu badawczego Wybór metod badawczych Plan badawczy Konfrontacja
Dobór próby Dobór próby
Zbieranie danych Zbieranie danych
Wybór modelu statystycznego Przetwarzanie danych Analiza danych
Akceptacja lub odrzucenie hipotezy Analiza danych
Ocena, interpretacja i generalizacja wyników
Wprowadzenie do teorii wniosków Generalizacja rezultatów badania empirycznego Generalizacja Uogólnianie Aplikacja 1* i 2*
- - - Odbiór rezultatu badawczego - Aplikacja 3*
Podjęcie działania praktycznego

Rodzaje nieadekwatności w definicjach sprawozdawczych.

a) błędy niezgodności zakresów (błędy nieadekwatności)
- definicja za szeroka: zakres definiensa nadrzędny względem zakresu definiendum
- definicja za wąska: zakres definiensa podrzędny względem zakresu definiendum
- za szeroka i za wąska: zakresy krzyżują się („Ołówek jest to przyrząd do pisania w metalowej oprawce”)
- błąd wykluczania się zakresów: szczególny przypadek – błąd przesunięcia kategorialnego (zakresy definiendum i definiensa należą do różnych kategorii ontologicznych)

Poza tym warto wiedzieć o takich błędach
b) błędne koło bezpośrednie (idem per idem) – wyrażenie definiowane występuje tak w
definiendum, jak i w definiensie („Potomek osobnika a jest to dziecko osobnika a lub potomek dziecka osobnika a.”)
c) błędne koło pośrednie – w ciągu kilku definicji, wyrażenie definiowane w pierwszej pojawia sie w definiensie ostatniej („Ciężar ciała to ta jego cecha, która jest mu wspólna ze wszystkimi ciałami równoważącymi sie z nim na wadze rzetelnej. Waga rzetelna to waga, która pozostaje w równowadze przy obciążeniu obu jej szalek równymi ciężarami.”)
d) błąd definiowania nieznane przez nieznane (ignotum per ignotum) - tłumacząc znaczenie terminu odbiorcy nieznanego, używa do tego celu wyrażeń, których znaczenia są odbiorcy również nieznane.

Rodzaje nieadekwatności w definicjach sprawozdawczych.

  1. błędy niezgodności zakresów (błędy nieadekwatności)
    - definicja za szeroka: zakres definiensa nadrzędny względem zakresu definiendum
    - definicja za wąska: zakres definiensa podrzędny względem zakresu definiendum
    - za szeroka i za wąska: zakresy krzyżują się („Ołówek jest to przyrząd do pisania w metalowej oprawce”)
    - błąd wykluczania się zakresów: szczególny przypadek – błąd przesunięcia kategorialnego (zakresy definiendum i definiensa należą do różnych kategorii ontologicznych)

Poza tym warto wiedzieć o takich błędach:
b) błędne koło bezpośrednie (idem per idem) – wyrażenie definiowane występuje tak w
definiendum, jak i w definiensie („Potomek osobnika a jest to dziecko osobnika a lub potomek dziecka osobnika a.”)
c) błędne koło pośrednie – w ciągu kilku definicji, wyrażenie definiowane w pierwszej pojawia sie w definiensie ostatniej („Ciężar ciała to ta jego cecha, która jest mu wspólna ze wszystkimi ciałami równoważącymi sie z nim na wadze rzetelnej. Waga rzetelna to waga, która pozostaje w równowadze przy obciążeniu obu jej szalek równymi ciężarami.”)
d) błąd definiowania nieznane przez nieznane (ignotum per ignotum) - tłumacząc znaczenie terminu odbiorcy nieznanego, używa do tego celu wyrażeń, których znaczenia są odbiorcy również nieznane.

Argumenty za i przeciw podziałowi na psychologie akademicka i stosowaną.

ZA:
- psycholog praktyczny stoi bliżej problemu, niż teoretyczny, a więc ma cenniejszą wiedzę
- psychologia teoretyczna jest oderwana od rzeczywistości
Zdaniem Brzezińskiego oba argumenty za są MITAMI.

PRZECIW:
- dezintegracja

- rozczłonkowanie psychologii
- sięganie po wyjaśnienia pozanaukowe

- poszczególne „psychologie” często są odmienne od siebie tylko pozornie
- finansowanie wyłącznie badań bezpośrednio użytecznych
- empirycy znają skutek, nie znając przyczyn – teoretycy znają obie

- psychologia praktyczna powinna wdrażać założenia psychologii teoretycznej w konkretnych sytuacjach
- mieszanie autentycznego zapotrzebowania na wyjaśnienia naukowe z zapotrzebowaniem ideologicznym

Eksperyment klasyczny wg. Milla a eksperyment statystyczny Fishera.

  1. Eksperyment (klasyczny) deterministyczny Milla – opiera się na deterministycznym widzeniu świata, zgodny z kanonami indukcji Milla, a więc z kanonem:

- jedynej różnicy – osobniki z grup są identyczne za wyjątkiem jednej różnicy (np. wyciętego kawałka mózgu),

- jedynej zgodności – oznacza, że jako przyczynę faktu uznaje się ten czynnik, który występuje u wszystkich osób z grupy, a całą resztę traktuje się jako zmienne towarzyszące,

- zmian towarzyszących – przyjmowanie, że jeśli systematycznie zmienianemu czynnikowi towarzyszą systematyczne zmiany zjawiska, to zjawisko to zależy od tego czynnika;

  1. Eksperyment statystyczny Fischera – opiera się na stworzonych przez Fischera zasadach:

- identyczności grup – uzyskiwanej za pomocą randomizacji lub doboru parami;

- bodźca eksperymentalnego – możliwości operowania bodźcem przez badacza (występuje w grupie eksperymentalnej lub kontrolnej),

- zmian zmiennej zależnej – porównaniu wartości zmiennej w grupach po zastosowaniu bodźca.

. Cechy wiedzy naukowej.

  1. Pewność
    a) psychologiczna – subiektywne przekonanie o pewności - wiarygodność
    b) epistemologiczna – stopień udowodnienia - konfirmacja
    c) logiczna – stopień niezawodności w świetle teorii prawdopodobieństwa

  2. Wysoka informatywna zawartość – centralne położenie, warunkuje pozostałe

  3. Ogólność

  4. Prostota
    a) matematyczna – potrzebny prosty aparat matematyczno-statystyczny
    b) logiczna – proste założenia wyjściowe
    Im dalej w las, tym prostsze założenia logiczne i tym mniejsza prostota matematyczna

5. Ścisłość.

Jak konstruujemy wskaźniki w opracowaniu skal narzędzi badawczych w określaniu wyników.

Przy użyciu testów psychologicznych, kwestionariuszy czy innych narzędzi zawierających skale, wskaźnikiem jest zsumowany wynik ilościowy tej skali. Wskaźniki te konstruuje się za pomocą następującej procedury:

  1. ustalenie założeń dotyczących zmiennej i narzędzia badawczego (iż ma ono skalę)

  2. ustalenie operacyjnej funkcji skalującej (która przyporządkowuje liczby przedmiotom, a więc zamienia przedmioty na zbiór na skali) i relacji nierozróżnialności (która dzieli przedmioty na klasy abstrakcji)

Jeśli mielibyśmy narzędzie idealne, to funkcja operacyjna byłaby funkcją jedno-jednoznaczną (a więc zbiory na skalach są identyczne jak zbiory przedmiotów). Im bardziej zbliżone są te dwa zbiory, tym większa jest „moc dyskryminatywna” narzędzia.

Założenia dotyczące natury narzędzia pomiarowego. Pojęcie funkcji operacyjnej i pojęcie idealnego narzędzia. Funkcja pomiaru w psychologii.

  1. x i y należą do tej samej klasy abstrakcji, a więc zmienna A przyjmuje dla nich tę samą wartość (relacja nieodróżnialności)

  2. x i y należą do różnych klas abstrakcji, a więc zmienna A przyjmuje dla nich różne wartości.

Podział nauk wg Groblera.

Podzielił on nauki ze względu na dominujący sposób wyjaśniania na:

1)nauki dedukcyjne (wyjaśniające przez dowód)

2)nauki przyrodnicze np. fizyka, chemia, geologia (wyjaśnianie przyczynowe)

3)nauki o życiu (wyjaśnianie przyczynowe i funkcjonalne)

4)nauki społeczne (wyjaśnianie funkcjonalne i intencjonalne)

5)nauki o zachowaniu (wyjaśnianie intencjonalne i przyczynowe)

6)dyscypliny pogranicza (np. biochemia, pedagogika)

7)nauki interdyscplinarne (będące „poza” typologią, łączące w sobie kilka dziedzin)

8)psychologia jako nauka wymykająca się podziałowi.

Epistemologia historyczna.

• J. Kmita:

– etap nauki przedteoretycznej

– etap nauki teoretycznej

– P.K. Feyerabenda teza o niewspółmierności a „korespondencja istotnie korygująca”

– funkcjonalno-genetyczna determinacja rozwoju

– „możliwość historyczna” a „konieczność historyczna”

Epistemologia historyczna (m.in. Kmita, 1976, 1980)

• (Obiektywna) funkcja (społecznej) praktyki naukowej:

– „kodyfikowanie i dedukcyjne systematyzowanie prewidystycznych elementów bezpośredniego, subiektywnego kontekstu społecznego innych typów praktyki społecznej”

– dotyczy przedteoretycznego etapu rozwoju nauki

– na etapie teoretycznym – dostarczanie przesłanek dla wytwarzania obiektywnie nowych elementów wzmiankowanego rodzaju

– wytwarzanie wiedzy potencjalnie technologicznie efektywnejmetodologia (3: SŚM) jako reprezentacja „zapotrzebowań obiektywnych”


Współpraca badacza z badanym.

a) Orne – osoba badana chce przede wszystkim pomóc badaczowi, mieć opinię „dobrej osoby badanej”

b) Riecken – osoba badana dąży przede wszystkim do jak najlepszej oceny własnego „ja”

c) Sigall, Aronson, Van Hoose – współpraca z badaczem jest wtórna wobec oceny własnego „ja”. Jeśli osoba badana uzna, że współpraca z badanym przyniesie jej szkodę (np. zaświadczy o jej niskim poziomie inteligencji), to będzie przede wszystkim starała się osiągnąć wysoki wynik, a nie pomagać badaczowi.


Konstrukcja i zdań pytających. Ajdukiewicz (109 pdf B )

a) rozstrzygnięcia

  1. pytania dopełnienia

Założenia pytań:

  1. istnienia

  1. pozytywne

  1. negatywne

Klasyfikacja pytań N.Belnapa. (110 pdf B )

Klasyfikacje pytań badawczych.

Pytania badawcze klasyfikuje się (podobnie jak hipotezy) ze względu na treść na:

  1. Pytania diagnostyczne – dotyczące wartości zmiennych

- jaką wartość przyjmuje zmienna zależna Y, gdy zmienna niezależna X ma wartość v(X)=m?

- jaką wartość przyjmuje zmienna niezależna X, gdy zmienna zależna Y ma wartość v(Y)=w?

- jaką wartość przyjmuje zmienna zależna Y w populacji P?

  1. Pytania badawcze – dotyczące zależności między zmiennymi

- pytania istotnościowe – esencjalne (jakie zmienne niezależne są istotne dla zmiennej Y?), stratyfikujące (które zmienne niezależne są bardziej, a które mniej istotne dla zmiennej zależnej Y?), strukturalizujące (czy zmienne niezależne wchodzą ze sobą w interakcje?)

- pytania kierunkowe – in. zależnościowe, jaką postać (kierunek, funkcję) ma związek łączący zmienną zależną Y ze zmienną niezależną X?

Sprawdzanie hipotez statystycznych i niestatystycznych.

Sprawdzanie hipotez jest podstawową formą kontroli zdań (syntetycznych) proponowanych na twierdzenia dyscyplin empirycznych.

Istnieją dwa sposoby sprawdzania hipotez.

(1)

Sprawdzanie hipotez statystycznych

Mamy hipotezę H głoszącą, że częstość elementów K w zbiorze L wynosi P.

  1. Jeśli klasa L posiada niewielką ilość elementów, to liczymy po prostu wszystkie te elementy L, które należą jednocześnie do zbioru K, dzielimy przez liczbę wszystkich elementów L i sprawdzamy, czy uzyskany ułamek równa się liczbie p.

  2. Jeśli zbiór jest zbyt liczny, to pobieramy w sposób losowy (tzn. taki, że każdy element L ma równą szansę wylosowania) pewną ilość elementów L, które stanowią tzw. próbę. Rachunek prawdopodobieństwa umożliwia wyliczenie prawdopodobieństwa tego, że na n elementów próby, k z nich należy od zbioru K. Jeśli p będzie mniejsze od określonej liczby q to hipotezę odrzucamy (obszar krytyczny i obszar przyjęcia).

Podsumowując, czynność sprawdzania – na gruncie wiedzy E empirycznej – hipotezy statystycznej, komunikującej, że częstość elementów zbioru K w zbiorze L wynosi p, polega na:

  1. wylosowaniu próby ze zbioru L

  2. wyznaczeniu obszaru krytycznego

  3. stwierdzeniu, że w wylosowanej próbie na n jej elementów k elementów należy do zbioru K

  4. obliczenie P (n, k, p)

  5. przyjęciu lub odrzuceniu hipotezy – stosownie do podjętej w ramach punktu (2) decyzji.

(2)

Sprawdzanie hipotez niestatystycznych

  1. dobieramy zdania obserwacyjne ( z uwagi na E) Z1, Z2,....,Zn, takie, że z hipotezy H oraz pewnego fragmentu E’ wiedzy E wynikają (w języku wiedzy E) zdania Z1,Z2,...,Zn, przy czym H i E’ występując w sposób istotny

  2. sprawdzamy bezpośrednio w oparciu o obserwację zdania Z1,Z2,....,Zn. Jeśli kolejne zdania zostaną potwierdzone obserwacją, hipotezę przyjmujemy. Jeśli choć jedno zdanie będzie niepotwierdzone – odrzucamy ją.

Definicje, charakterystyka formalna i charakterystyka pojęciowa zadań.

Warunkiem niezbędnym intersubiektywnej kontrolowalności zdań proponowanych na twierdzenia dyscyplin naukowych jest intersubiektywna komunikowalność. Zdanie Z języka J jest intersubiektywnie komunikowalne w danej grupie osób tylko wtedy, gdy posiada to samo odniesienie przedmiotowe w modelu języka J stosowanego przez każdą z osób tej grupy, przy czym model ten wyznaczony jest przez wiedzę W zakładaną przez każdą z tych osób.

Jednym z najbardziej skutecznych środków służących do uzyskania zbliżonych dostatecznie do siebie języków są definicje. Formułuje się je zawsze na gruncie określonego języka J, a jednocześnie formułuje się je dla określonego języka J’, w celu zmniejszenia różnic dzielących oba języki.

Definicja sformułowana na gruncie języka J może być:

  1. zdaniem komunikującym równoznaczność dwóch określonych wyrażeń w języku J -> definicja metajęzykowa

  1. zdaniem sformułowanym w języku J, które – ze względu na to, że jest tezą języka J – ustanawia równoznaczność dwu odpowiednich wyrażeń języka J -> definicja przedmiotowa

Inny podział definicji to: równościowe i nierównościowe (zagadnienie nr 61).

Podział definicje ze względu na zadanie, cel:

(a) Definicje sprawozdawcze:

  1. język J’ jest fragmentem języka J

  2. wyrażenie W należy tylko do J, zaś wyrażenie W’ należy do J oraz do J’.

(b) Definicje regulujące:

  1. Eksplikacja jako rodzaj definicji (zagadnienie 57).

Wyjaśnianie prawa w znaczeniu szerokim (prawdziwości) i wyjaśnianie faktu szczegółowego.

Wyjaśnianie prawa w znaczeniu szerokim, prawidłowości:

  1. w eksplanansie muszą wystąpić co najmniej dwa prawa w szerokim znaczeniu,

  2. jedno z owych praw występujących w eksplanansie musi być ogólniejsze od prawa stanowiącego eksplanandum,

  3. dane empiryczne potwierdzające eksplanandum muszą być inne od tych, które potwierdzają eksplanans.

Warunki poprawności wyjaśniania praw w węższym rozumieniu:
1) w eksplanansie musi wystąpić przynajmniej jedno prawo w węższym znaczeniu
2) eksplanandum musi być zdaniem faktualnym (ściśle ogólnym), lub prawem (w węższym znaczeniu) zawierającym o jeden przynajmniej warunek idealizujący mniej niż owo prawo występujące w eksplanansie.
3) dane empiryczne potwierdzające eksplanandum muszą być inne od potwierdzających eksplanans.

Fakty szczegółowe (zagadnienie nr 96).

Prawa idealizacyjne i ich sprawdzanie.

Idealizacja to przypisanie skrajnego natężenia cechy. Wyabstrahowuje się istotę.

Prawa idealizacyjne mówią o czystych zależnościach Y od X, a przez to o tym co realnie nie może zaistnieć. (Co więcej jest sprzeczne z ogółem wiedzy) Np. Frustracja powoduje agresję. Prawa idelizacyjne są nieweryfikowalne.

Zasady koordynacji łączą idealny model prawa idealizacyjnego z rzeczywistymi fenomenami. Np. Frustracja powoduje agresję, pod warunkiem/ami... Skonkretyzowane prawa idealizacyjne są weryfikowalne.

Ostatni wykład

Warunek konieczny i wystarczający.
są 2 zjawiska: zjawisko A i zjawisko B.

Jeżeli do tego, żeby zaistniało zjawisko B jest KONIECZNE zjawisko A, to A jest warunkiem koniecznym.

Natomiast jeśli do zaistnienia B jest konieczne zaistnienie A1 LUB A2 LUB A3 itd. to wtedy są one warunkami wystarczającymi bo WYSTARCZY żeby zaistniał tylko jeden z nich.

Pomiar w psychologii.

Pomiar w sensie logicznym („konstruowanie narzędzia”)

Polega na ustanowieniu (odkryciu i sformułowaniu) odpowiedniej funkcji (skalującej) zachowującej homomorfizm pomiędzy strukturą empiryczną (empirycznym systemem relacyjnym), tj. rodziną klas abstrakcji (wartościami zmiennej), a strukturą numeryczną (liczbowym systemem relacyjnym), tj. skalą narzędzia pomiarowego (zbiorem miar zmiennej)

Pomiar w sensie empirycznym (czynność mierzenia)

Polega na odpowiednim przyporządkowywaniu wynikom obserwacji wielkości liczbowych, tj. posłużeniu się liczbami w taki sposób, aby relacje między liczbami odpowiadały relacjom między obiektami obserwacji, a działaniom wykonywalnym na liczbach – możliwe do wykonania operacje na tych obiektach

Rodzaje błędów standardowych.

Błąd prognozy – błąd związany z formułowaniem prognozy wyniku testu równoległego na podstawie wyniku danego testu
Błąd zastąpienia – zachodzi wówczas, gdy dokonując prognozy wyniku otrzymanego w jednym teście równoległym na podstawie wyniku otrzymanego w drugim teście zakładamy, że wynik w teście równoległym jest równy wynikowi w drugim teście błędy standardowe w badaniu psychometrycznym.

-błąd pomiaru wyniku otrzymanego SEM jest to odchylenie standardowe rozkładu różnic między wynikiem otrzymanym a prawdziwym, ma rozkład normalny, inaczej jest to odchylenie standardowe rozkładu błędu jaki popełniamy, wtedy kiedy przyjmujemy, że wynikiem prawdziwy danej osoby jest średni wynik jaki uzyskałaby ona w nieskończenie wielu pomiarach tym samym testem, na jego podstawie budujemy przedziały ufności w których znajduje się wynik prawdziwy, kiedy rzetelność jest większa o 0,8

-błąd estymacji wyniku prawdziwego SEE

Jest różnicą miedzy estymowana przez badawcza wartością wyniku prawdziwego a jego rzeczywistą wartością. Jest to błąd powstały na skutek niedokładności odtworzenia faktycznej wartości wyniku prawdziwego.  SEE jest odchyleniem standardowym rozkładu z próby różnic

-standardowy błąd pomiaru wyniku prawdziwego ( skorelowany z wynikiem praw.)SEM(T) może być ujmowany jako błąd warunkowy, wykorzystywany do przedziałowej estymacji wyniku prawdziwego. ( górna i dolna granica) Standardowy błąd pomiaru wyniku prawdziwego – Dokonując pomiaru testowego uzyskujemy określone wartości wyniku otrzymanego. Na tej podstawie możemy dokonywać estymacji wartości wyników prawdziwych. W rzeczywistości jest jednak tak, że osoby o identycznych wynikach prawdziwych mogą otrzymywać różne estymowane wyniki prawdziwe, gdyż uzyskały one różne wyniki otrzymane. Owa rozbieżność zachodząca między estymowanymi wynikami prawdziwymi, a uzyskanymi przez osoby o identycznych wynikach prawdziwych, to właśnie błąd pomiaru wyniku prawdziwego

-błąd prognozy SEP

jest to różnica wyników testu danego i równoległego

związany jest z formułowaniem prognozy wyniku testu równoległego na podstawie wyniku danego testu. Ten błąd, to różnica owych dwóch wyników.

-błąd zastąpienia SES

mamy z nim do czynienia wówczas, gdy dokonując prognozy wyniku otrzymanego w jednym teście równoległym na podstawie wyniku otrzymanego w drugim teście zakładamy, że wynik w teście równoległym jest równy wynikowi w drugim teście.

-SED standardowy błąd różnicy.


Wyszukiwarka

Podobne podstrony:
metodologia zestaw
Zestaw pytania z tematami 21-40, II semestr bezpieczeństwo narodowe - przedmioty, metodologia badań
Metodologia zestawienie
Zestaw zagadnień do egzaminu z metodologii?dań nad językiem
zestawy Ł & C, Uniwersytet Jagielloński, metodologia nauk geograficznych
metodologia zestaw
metodologia zestaw
metodologia zestaw
metodologia zestaw 11
metodologia zestaw 13
metodologia zestaw 13
metodologia zestaw 11
metodologia badan wydatkow i szacowanie budzetu rekomowego
podstawy metodologii
Metodologia SPSS Zastosowanie komputerów Golański Standaryzacja
Metodologia SPSS Zastosowanie komputerów Golański Anowa założenia

więcej podobnych podstron