--Zestaw 20
1.Nauka wg. Lakatosa i Poppera
WG. LAKATOSA
Lakatosa podejście do filozofii nauki było próbą wypracowania kompromisu między falsyfikacjonizmem Poppera a teorią rewolucji głoszoną przez Kuhna. Teoria Poppera wymaga, by naukowcy zarzucali swe teorie, gdy tylko napotkają na obserwacje, które je falsyfikują, a w to miejsce tworzyli śmiałe hipotezy. Zdaniem Kuhna, nauka to ciąg przeplatających się okresów nauki normalnej, gdy uczeni obstają przy swych teoriach mimo gromadzenia się przeczących im obserwacji oraz rewolucji naukowych, polegających na zmianach w sposobie myślenia, przy czym przyczyny owych rewolucji często pozbawione są zdaniem Kuhna racjonalnego podłoża.
Lakatos szukał podejścia metodologicznego, które pozwalałoby pogodzić te sprzeczne stanowiska, a jednocześnie mogłoby dostarczyć racjonalnego i zgodnego z faktami historycznymi oglądu postępu dokonującego się w nauce.
Dla Lakatosa to, co uważamy za "teorie" to w gruncie rzeczy zespoły teorii odwołujących się do wspólnych idei – twardego rdzenia (ang. hard core) w terminologii Lakatosa. Owe zespoły teorii Lakatos nazwał programami badawczymi – uczeni zaangażowani w dany program badawczy będą starali się chronić jego rdzeń przed falsyfikacją za pomocą hipotez pomocniczych. Podczas gdy dla Poppera podejście takie dyskredytuje tworzone ad hoc hipotezy, Lakatos pokazuje, że budowanie pasa ochronnego hipotez roboczych wokół rdzenia programu badawczego nie zawsze jest czymś złym. Zamiast pytać, czy hipoteza jest prawdziwa czy fałszywa, Lakatos sugeruje, by rozważyć, czy program badawczy jest postępowy czy się degeneruje. Postępowy program badawczy rozpoznajemy po odkrywaniu przez niego nowych i zdumiewających faktów. Program, który się degeneruje przejawia się brakiem rozrostu, lub tym, że jego pas ochronny nie prowadzi do niczego nowego.
Falsyfikacjonizm przyjmował bowiem, że naukowcy tworzą teorie, a Natura ogranicza się do wyrażenia swego NIE w formie niespójności obserwacji. Według Poppera, podtrzymywanie teorii w sytuacji, gdy Natura je odrzuciła jest irracjonalne, a jednak Kuhn pokazał, że jest to dość powszechną praktyką. Według Lakatosa zaś nie jest tak, że my przedkładamy teorię, a Natura zgłasza swe weto; jest raczej tak, że przedkładamy całą gęstwinę teorii, a natura mówi <<to niespójne>>. Niespójność tę można usunąć nie zmieniając programu badawczego – można zostawić twardy rdzeń, a zmienić jedynie hipotezy pomocnicze.
Jednym z przykładów jest historia zasad dynamiki Newtona.W fizyce Newtona (programie badawczym) prawa te, jak sądził Lakatos, nie są poddawane falsyfikacji, gdyż stanowią twardy rdzeń programu. W tym sensie program badawczy jest podobny do Kuhnowskiego paradygmatu.
Lakatos był przekonany, że program badawczy zawiera zarówno reguły metodologiczne, które wskazują w jakich kierunkach nie prowadzić badań (Lakatos nazwał to heurystyką negatywną) jak i takie, które sugerują w jakim kierunku badania prowadzić (heurystyka pozytywna).
Lakatos utrzymywał, że nie wszystkie zmiany hipotez pomocniczych (problem shifts) w obrębie systemu badawczego są równie dopuszczalne. Wierzył, że wartość zmian może być oceniana na podstawie ich zdolności do wyjaśniania obaleń i możliwości przewidywania nowych faktów. Jeśli tak jest, to zmiany takie są postępowe; jeśli nie, jeśli są po prostu ad-hoc, należy określić je jako degenerujące.
Co więcej, Lakatos wierzył, że jeśli program badawczy jest postępowy, wówczas rzeczą rozsądną jest zmieniać hipotezy pomocnicze, by mogły stawiać czoła anomaliom. Jeśli natomiast program badawczy jest degenerujący się, to napotyka on programy konkurencyjne i może być "sfalsyfikowany" przez zwykłe zastąpienie go lepszym (czyli bardziej postępowym) programem badawczym. Te właśnie zmiany są Kuhnowskimi rewolucjami naukowymi i to właśnie określa ich racjonalność – nie są one zwyczajnymi zmianami przekonań w obrębie społeczności uczonych (jak zdaniem Lakatosa pojmował je Kuhn).
WG. PROPERA
1) Problem indukcji.
Wg Poppera wychodzenie od zdań szczegółowych do uogólnień (indukcja) jest z gruntu błędne i niedoskonałe. Problem indukcji - czy i kiedy jest indukcja uprawomocniona. Uogólnianie na podstawie pojedynczych przypadków jest logicznym błędem, nawet gdy na dowód tezy lub hipotezy mamy milion przypadków ją potwierdzających, to i tak znajdzie się jeden przypadek jej zaprzeczający. Dla Poppera indukcja to tautologia, zdanie syntetyczne, czyli wewnętrznie niesprzeczne jest równie uprawomocnione co dedukcja (a priori). Zasada indukcji łatwo może doprowadzić do sprzeczności, bo wg jej zwolenników (logiczni pozytywiści z Koła Wiedeńskiego, od których się odciął) musiałaby być zdaniem uniwersalnym (bez nazw własnych), prawdziwym w oparciu o empirię i aby móc ją uprawomocnić, należałoby posłużyć się wnioskowaniami indukcyjnymi tzw. indukcji wyższego rzędu. To zdaniem Poppera trudność nie do przezwyciężenia. Metoda indukcyjna osiągnąć może tylko pewien określony stopień prawdopodobieństwa (wnioskowanie probabilistyczne, podobne do aprioryzmu). Metoda dedukcyjna, opozycyjna do indukcyjnej, wpierw tworzy teorię a potem weryfikuje ją empirycznie, indukcja jedynie ogranicza się od uogólniania na podstawie pojedynczych przypadków (nawet wielokrotnie powtarzanych).
2) Dedukcyjne sprawdzanie teorii.
Z nowej koncepcji, która nie jest jeszcze uprawomocniona, wyciąga się wnioski drogą logicznej dedukcji. Wnioski te porównuje się, by stwierdzić, jakie związki logiczne miedzy nimi istnieją.
Są 4 drogi sprawdzania teorii:
a) logiczne porównywanie wniosków, sprawdzające wewnętrzną spójność systemu (Sh. Holmes:),
b) badanie (logicznej formy teorii) czy teoria jest empiryczna (naukowa), czy tautologiczna,
c) porównywanie jej z innymi teoriami by ustalić, czy teoria będzie krokiem naprzód w rozwoju nauki,
d) sprawdzanie stosowalności wniosków, które można z niej wyprowadzić; jeżeli wnioski są możliwe do przyjęcia, czyli zostały zweryfikowane, wówczas czasowo teoria przetrwała test i nie ma powodu by ją odrzucać; gdy wniosków nie można przyjąć, gdy zostały sfalsyfikowane, fałszywa jest również cała teoria.
Z teorii dedukuje się pewne zdania jednostkowe (przewidywania) za pomocą uprzednio przyjętych zdań. Spośród owych zdań wybiera się te, których nie można wywieść z teorii obiegowej, a zwłaszcza te, które są z tą teorią sprzeczne. Następnie podejmuje się decyzje co do tych wydedukowanych zdań, porównując je z wynikami zastosowań praktycznych i eksperymentów. Jeżeli jednostkowe wnioski okazały się możliwe do przyjęcia, czyli zostały zweryfikowane, wówczas teoria czasowo przetrwała test. Jeśli wnioski zostały sfalsyfikowane, falsyfikacja wniosków falsyfikuje również teorie, z której zostały one logicznie wyprowadzone. Decyzja pozytywna dostarcza teorii poparcia jedynie czasowego - teoria zostaje tu potwierdzona (corroborated) - każda późniejsza decyzja negatywna może ją obalić!
3) Problem demarkacji.
Odrzucając metody indukcji powstaje zarzut, że pozbawia się nauki empiryczne tego, co najważniejsze – znosi niejako przez to bariery oddzielające naukę od spekulacji metafizycznej. Zdaniem Poppera metoda indukcyjna nie dostarcza dogodnego kryterium demarkacji. (vide pkt. 6).
4) Doświadczenie jako metoda.
Empiryczny system teoretyczny musi spełniać 3 warunki:
a) jest syntetyczny - by reprezentować niesprzeczny, możliwy świat.
b) spełnia kryterium demarkacji - nie jest metafizyczny i daje się weryfikować empirycznie (Koło W.) c) jest sprawdzalnym systemem wyróżnionym spośród. Jest sprawdzany (dedukcją) i z prób tych wyszedł zwycięsko.
5) Falsyfikowalność jako kryterium demarkacji.
Wg logiki indukcyjnej prawdziwość oraz fałszywość wszystkich zdań nauki empirycznej powinna być ostatecznie rozstrzygalna: powinno być możliwe zarówno ich zweryfikowanie, jak też sfalsyfikowanie. Zdaniem Poppera nie ma czegoś takiego jak indukcja, zatem teorie nigdy nie są weryfikowane empirycznie. Tylko wówczas traktuje on pewien system jako empiryczny lub naukowy, gdy poddane są on sprawdzeniu w doświadczeniu, bowiem pozytywiści popełniają błąd eliminacji tego, czego nie potrafią dowieść. Za kryterium demarkacji należy przyjąć nie weryfikowalność, lecz falsyfikowalność systemu. System musi mieć taką formę logiczną, aby testy pozwalały na decyzję w sensie negatywnym: musi być możliwe obalenie empirycznego systemu przez doświadczenie. Propozycja to opiera się na różnicy między weryfikowalnością a falsyfikowalnością, na asymetrii biorącej się, z logicznej formy zdań uniwersalnych. Nie są one bowiem nigdy wyprowadzalne ze zdań jednostkowych, ale mogą stać z nimi w sprzeczności. Można drogą wnioskowań czysto dedukcyjnych (modus tollens) wnosić o fałszywości zdań uniwersalnych na podstawie prawdziwości zdań jednostkowych. Sposobem uniknięcia falsyfikacji może być wprowadzenie ad hoc jakiejś hipotezy; Popper te sposoby jednak wyklucza.
- Np. zdanie: „Jutro będzie tu padało lub nie będzie padało” - nie jest empiryczne, bo nie można go obalić, zaś zdanie: „Jutro będzie tu padało” empirycznym jest, bo da się je zweryfikować i obalić.
6) Problem "bazy empirycznej".
Aby falsyfikowalność była kryterium demarkacji musimy dysponować zdaniami, które mogą posłużyć jako przesłanki we wnioskowaniach falsyfikujących. Są to zdania bazowe (stwierdzające fakt jednostkowy). Związek pomiędzy doznaniami zmysłowymi a zdaniami bazowymi polega na traktowaniu owych doznań jako źródła pewnego typu uzasadnienia dla zdań bazowych. Odróżnia doznania subiektywne (uczucia, przekonania), które nigdy nie są miarodajne dla zdań, od obiektywnych relacji logicznych między różnymi systemami twierdzeń naukowych. (opinia vs. fakt)
7) Dlaczego rozstrzygnięcia metodologiczne są niezbędne.
Żadna teoria nie zostanie obalona definitywnie, bo zawsze można powiedzieć, że wyniki eksperymentu nie są miarodajne, bo nie jesteśmy w stanie wykluczyć istnienia metafizyki. Stąd należy zwracać uwagę na metody badań.
8) Naturalistyczne podejście do teorii metody.
Wg pozytywistów metodologia jest nauką empiryczną - badaniem faktycznych zachowań naukowych lub faktycznych procedur stosowanych w nauce – naturalistyczne ujęcie. Popper odrzuca bezkrytycyzm naturalizmu, którego wyznawcom wydaje się, że odkryli jakiś fakt, a de facto zaproponowali pewną konwencję, przekształcającą się w dogmat, który nie jest nigdy podważany.
Czy nauka ma cel?
• K. R. Popper (2002/1972, s. 231):
– „różni uczeni mają różne cele, sama nauka zaś (cokolwiek to słowo znaczy) nie ma celów”
– „działalność naukowa (…) sprawia wrażenie działalności racjonalnej, [czyli] musi posiadać jakiś cel”
– „celem nauki jest poszukiwanie dobrych wyjaśnień dla wszystkiego, co wg nas potrzebuje wyjaśnienia”.
2.Zmienne niezalezne, podział
Jeżeli o danej właściwości można powiedzieć, że przybiera ona różne wartości (co najmniej dwie), to jest to zmienna.
Zmienna, która jest przedmiotem badania, której związki z innymi zmiennymi chcemy określić nosi nazwę zmiennej zależnej. A zmienne od których zmienna zależna zależy, które na nią oddziaływają noszą nazwę zmiennych niezależnych. Zmienną zależną oznaczamy symbolem Y, a zmienną niezależną symbolem X.
Zmienne niezależne z różną siłą oddziaływają na zmienną zależna Y. Jedne silniej inne słabiej. Te które oddziaływają najsilniej nazywamy zmiennymi niezależnymi – głównymi (Xg) (kontrolowane), zmienne niezależne – uboczne (Xu) ( kontrolowane i niekontrolowane) to te które oddziaływają słabo. Zmienne niezależne główne i uboczne to zmienne ważne (W ) dla zmiennej zależnej Y. Oddziaływają też na nią inne zmienne niezależne – zakłócające (Z) takie jak nastawienie osoby badanej do badacza, temperatura w pomieszczeniu. Zmienne te mają interferencyjny wpływ na zależność, która wiąże zmienne ważne ze zmienną zależną. Zmienne zakłócające dzielimy na nieskorelowane z aktem badania empirycznego (niekontrolowane) – są ‘na zewnątrz’ sytuacji badawczej, nie można ich przewidzieć np. indywidualna tolerancja na ciśnienie atmosferyczne, która może wpływać na reakcję i skorelowane z aktem badania empirycznego są ‘pochodną’ interakcji badacz – osoba badana, np. lęk przed oceną, status motywacyjny os. badanej, oczekiwania interpersonalne badacza, dzielimy je na uniwersalne (kontrolowane i nie kontrolowane) występują zawsze ilekroć występują pozostałe zmienne niezależne istotne dla zmiennej zależnej Y, oraz na okazjonalne (kontrolowane i niekontrolowane)np. ból głowy, zmęczenie os. badanej, czasem występują czasem nie.
Zestaw 21
1.Wynik na skali pomiarowej jako wskaźnik zmiennej ilościowej (coś w tym stylu)
Jak konstruujemy wskaźniki w opracowaniu skal narzędzi badawczych w określaniu wyników.
Przy użyciu testów psychologicznych, kwestionariuszy czy innych narzędzi zawierających skale, wskaźnikiem jest zsumowany wynik ilościowy tej skali. Wskaźniki te konstruuje się za pomocą następującej procedury:
ustalenie założeń dotyczących zmiennej i narzędzia badawczego (iż ma ono skalę)
ustalenie operacyjnej funkcji skalującej (która przyporządkowuje liczby przedmiotom, a więc zamienia przedmioty na zbiór na skali) i relacji nierozróżnialności (która dzieli przedmioty na klasy abstrakcji)
Jeśli mielibyśmy narzędzie idealne, to funkcja operacyjna byłaby funkcją jedno-jednoznaczną (a więc zbiory na skalach są identyczne jak zbiory przedmiotów). Im bardziej zbliżone są te dwa zbiory, tym większa jest „moc dyskryminatywna” narzędzia.
2.Powiązania metodologii z logiką - różne warianty.
Metodologia jako dyscyplina naukowa i społeczna świadomość metodologiczna to działy logiki
Logika jako rezultat systematycznej rekonstrukcji i werbalizacji społecznej świadomości metodologicznej tzn. pewien system reguł stanowi narzędzie metodologii
Elementy logiki i filozofii mogą stanowić „logiczny” i „filozoficzny” nurt metodologii
Neopozytywizm – teorie związane z logiką poznania naukowego
Metodologia i logika „zazębiają” się poprzez dział „logiczna teoria nauki” (w którego skład wchodzi m.in. logiczna teoria języka)
Metodologia pojmowana jako dział historii nauki („opisowo”) – konfrontuje poszczególne wersje systematycznej racjonalizacji czynności badawczych z rzeczywistą praktyką badań naukowych
Metodologia pojmowana jako dyscyplina praktyczna („normatywna”) – poszukuje odpowiedzi na pytanie, jak należy wykonać poszczególne czynności badawcze w ramach tej czy innej nauki, aby można było otrzymać efekty możliwie najbardziej wartościowe poznawczo.
Zestaw 22
1. Idealizacyjna koncepcja operacjonaizacji zmiennych
.Idealizacyjna koncepcja operacjonalizacji. Etapy operacjonalizacji wg Hornowskiej. ( 103 pdf B )
Koncepcja ta nawiązuje do idealizacyjnej teorii nauki
Operacjonalizacja – procedura konstruowania sensu empirycznego terminów teoretycznych, która ma umożliwić badaczowi odpowiedzi na pytania:
Do jakich aspektów świata rzeczywistego odnosi się problem badawczy?
Jak dalece wybrane wielkości i istniejące między nimi powiązania dostępne są obserwacji?
W jakim zakresie wybrane przez badacza obserwacje dostarczą mu informacji o wyjściowym problemie badawczym?
Operacjonalizacja sprowadza się do zastępowania jednych pojęć innymi:
konstruowanie obrazu (wielkości) zmiennej teoretycznej (czynnika)
dobieranie do niego wskaźników (zmiennej, jako zoperacjonalizowanego obrazu wielkości)
Czynnik – pojęcie o charakterze ontologicznym, które odnosi się do opisywanej przez badacza rzeczywistości; mówi o tym, jaka jest badana rzeczywistość. Rodzina klas abstrakcji od relacji równościowej określonej w zbiorze obiektów U – czynnik nominalny. Jeśli rodzina ta uporządkowana jest przez relację generalnego uporządkowania – czynnik porządkowy. Czynnik = zmienna teoretyczna w rozumieniu Brzezińskiego
Wielkość (obraz zmiennej teoretycznej) – pojęcie epistemologiczne, zdaje sprawę z tego, w jaki sposób badacz postrzega rzeczywistość, którą analizuje. Obraz czynnika ustalonym na gruncie określonej wiedzy badacza
Zmienna (wskaźnik) – przyjęty przez badacza sposób przejawiania się wielkości na poziomie manifestacji (obserwacji)
Etapy operacjonalizacji:
1) Rekonstrukcja czynnika teoretycznego; konstrukcja wielkości (obrazu czynnika)
2) Konceptualizacja wielkości, dobieranie wskaźników; konstruowanie zmiennej, konstruowanie indeksu – zagregowanej miary, utworzonej z dwóch i więcej wskaźników, wielkości3) dobór narzędzia pomiarowego i pomiar zmiennej.
2. eksplikacja
kolejny rodzaj definicji, który służy do zmniejszenia wieloznaczności
stosowana do wyrażenia wieloznacznego. Ale ograniczenie wieloznaczności osiągamy inną drogą niż w przypadku definicji regulującej: nie pozostajemy przy niektórych dotychczasowych znaczeniach eksplikowanego wyrażenia, ale respektujemy te znaczenia tylko w pewnej mierze. W pewnej mierze konstruujemy nowe znaczenie
jak przeprowadzamy eksplikację:
1. wypisz wybraną listę zdań, które zawierają wyrażenie W i są tezami przy niektórych znaczeniach wyrażenia W. Te zdania to kryterium adekwatności eksplikacji, jaką chcemy sformułować (jeśli z naszej eksplikacji te zdania będą wynikać, to spełnia ona kryterium adekwatności)
2. wybierz język eksplikujący – język zewnętrzny w stosunku do języków, w których dotychczas występowało wyrażenie W
3. sformułuj eksplikację, której definiendum (określane tu jako eksplikandum) jest identyczne z wyrażeniem W. A definiensem (eksplikansem) jest pewne wyrażenie W1 języka eksplikującego
4. sprawdź, czy eksplikacja jest adekwatna (czyli czy wynikają z niej wybrane uprzednio przez nas zdania stanowiące kryterium tej adekwatności)
eksplikacja wyrażenia W, które należy do jednorodnych gramatycznie języków J1, J2, J3 – definicja wyrażenia W sformułowana dla języków J1, J2, J3 na gruncie języka J prim (który jest sumą jednego z języków J1, J2, J3 oraz pewnego języka J, zewnętrznego w stosunku do tych języków i zawierającego definiens (eksplikans) tej eksplikacji
funkcja eksplikacji – ograniczenie wieloznaczności wyrażenia eksplikowanego + po to, by zastosować nowy, zwykle bardziej precyzyjny, aparat pojęciowy, ukształtowany w ramach języka eksplikującego (zewnętrznego) do problemów rozpatrywanych tradycyjnie w języku zawierającym eksplikandum i niejednokrotnie intersubiektywnie nierozstrzygalnych.
Zestaw 23
1. Rodzaje, wady, zalety, zastosowanie nielosowego doboru proby badawczej.
dobór celowy (próba kwotowa) – to dobór polegający na celowym wybieraniu osób do próby, albo samodzielnie, albo bazując na opiniach ekspertów; np. dobór osób chorych na konkretne zaburzenie psychicznie z populacji wszystkich pacjentów kliniki. Nie jest to jednak próba reprezentacyjna, co oznacza, że wyników badań nie można odnosić do populacji.
dobór ochotników – jest bardziej „losowy” od doboru celowego, ale także nie spełnia wymogów reprezentacyjności próby. Ochotnicy mogą różnić się od ogółu populacji np. strukturą osobowości (bo dlaczego akurat oni przeczytali nasze ogłoszenie i mieli ochotę przyjść??), co oznacza, że w tym przypadku wnioski także należy wyprowadzać z największą ostrożnością.
2. Pytania zle postawione, kategorycznie nierostrzygalne, zasadniczo
nierozstrzygalne. Porownac.
Pytania źle postawione, zasadniczo nierozstrzygalne, praktycznie nierozstrzygalne.
Pytanie źle postawione – inaczej o fałszywych
ch, logicznie wadliwe, niewłaściwe;
Pytanie nierozstrzygalne – takie, w którym brak jest kryteriów wyboru odpowiedzi prawdziwych lub fałszywych, mogą być nierozstrzygalne:
zasadniczo (teoretycznie)
praktycznie.
Logika zdań pytających (logika erotetyczna; od erōtēma = pytanie)
Zestaw 24
1.Określanie należytej wielkości próby i testowanie losowości próby (od strony
statystycznej jak to wygląda)
2.Quasi-eksperymentalny model badawczy.
Model quasi-eksperymentalny to model podobny do modelu eksperymentalnego ale bez zasady randomizacji.
Jest to więc taki model sprawdzania hipotez o zależnościach pomiędzy zmienny zależnymi i niezależnymi, który zakłada:
a) manipulację co najmniej jedną zmienną niezależną (główną) za pomocą wersji „wszystko albo nic” (1 - grupa eksperymentalna, 0 – grupa kontrola) lub wersji ANOVA bez zachowania zasady randomizacji (przydzielania wartości zmiennej niezależnej, a więc doboru grup w sposób losowy);
b) kontrolę – pozostałych zmiennych niezależnych, uznanych za istotne przez badacza (np. przez metodę doboru parami);
c) obserwację / pomiar – zmian zmiennej zależnej wywołanych zamierzonymi przez badacza wpływami zmiennej niezależnej.
W modelu quasi-eksperymentalnym można też dokonywać tylko kontroli (bez manipulacji) zmiennych niezależnych. Dokonujemy tego poprzez przydzielanie osób do grup ze względu na posiadane wartości zmiennej niezależnej.
Zestaw 25
1.Odmiany, zalety i wady losowego doboru do próby
dobór losowy – jest oczywiście najlepszy, a także niezbyt trudny do zastosowania (wg Brzezińskiego). Polega na ustaleniu operatu losowania, czyli spisu wszystkich jednostek populacji (populacją może być Polska, miasto Bytom, dzielnica Nikiszowiec, klasa Va, itp.). Potem ustalamy liczbę k (oczywiście odpowiednią do operatu) i losujemy z operatu co k-tą jednostkę - osobę do próby. Należy też dodać, że jednostką losowania nie musi być pojedyncza osoba, możemy np. wylosować do badań co k-tą klasę ze wszystkich szkół na Śląsku.
2.Racjonalizacja czynności i idealizacja świadomości
(1) Racjonalizacja czynności:
Charakteryzuję logiczną teorię języka i logiczną teorię nauk
Racjonalizacja czynności to takie jej ujęcie, przy którym traktujemy tą czynność jako wynik: dążności podmiotu tej czynności do realizacji określonego celu oraz wiedzy tegoż podmiotu o tym, że podejmując odnośną czynność, uzyska on realizację postawionego sobie celu
Dążność i wiedzę podmiotu opisuje się w danym języku za pomocą odpowiednich zdań: normatywnych i dyrektywnych (reguł)
Odniesieniami przedmiotowymi tych zdań są przekonania na temat: subiektywnej wartości pewnych stanów rzeczy i działań powodujących zaistnienie tych stanów lub przynajmniej sprzyjających ich zaistnieniu
Racjonalizacja polega na dostarczeniu odpowiedzi na pytanie: jakiego rodzaju wiedza o języku jest wystarczająca i niezbędna do tego, aby podejmować w sposób całkowicie świadomy czynności językowe realizując pewne typowe dla nich cele?
Jest to racjonalizacja systematyczna, czyli, że owa wiedza wystarczająca i niezbędna do świadomego podejmowania czynności językowych bądź badawczych logika ujmuje w postaci pewnego systemu teoretycznego, pewnego układu twierdzeń, w postaci teorii, nie zaś jako zbiór nie powiązanych ze sobą, oddzielnych wskazówek określających sposób wykonywania każdej indywidualnej czynności z osobna
Racjonalizując czynność podjęta przez jednostkę przypisujemy jej świadomość, nawet w odniesieniu do spontanicznego, nawykowego czy odruchowego działania
Przypisując jednostce pełną świadomość postawionego celu oraz wiedzę, przy pomocy której ten cel należy realizować, jednostkę tę idealizujemy
Idealizacja:
jest zabiegiem poznawczym, w ramach którego przypisujemy danemu obiektowi czy zjawisku określone cechy w stopniu „krańcowym”, w jakim one nie tylko im nie przysługują, ale nawet nie mogą przysługiwać
Idealizacja – przypisanie jakiemuś obiektowi właściwość w stopniu faktycznie nie przysługującym mu w celu lepszego uchwycenia istoty tego obiektu, jak również zjawisk, w których ów obiekt uczestniczy, struktur, których jest elementem, a także relacji i procesów, które go dotyczą
Idealizacja świadomość podmiotu czynności racjonalnych – założenie, że owa świadomość obejmuje wszystkie elementy niezbędne dla dokonania racjonalizacji czynności czyli podmiot czynności jest w pełni świadomy swoich celów i zna skutki możliwych do podjęcia czynności, czyli dysponuje pełną wiedzą konieczną i wystarczającą dla zrealizowania swoich dążeń
Postępujemy tak, aby lepiej uchwycić zależność między pozostałymi cechami odnośnego obiektu czy zjawiska
Idealizacja jest zabiegiem powszechnie stosowanym w naukach przyrodniczych i humanistycznych
W naukach humanistycznych jest związana z racjonalizacją, która bez idealizacji byłaby niemożliwa i często związana z wartościowaniem.
Zestaw 27
1.Warunki poprawnego stosowania testów istotności różnic w badaniach
Empirycznych
2.”Zmienne pośredniczące" a "konstrukty hipotetyczne" w perspektywie realizmu i
instrumentalizmu metodologicznego
Zmienna pośrednicząca – to twierdzenie wyjaśniające nie zawierające znaczeń dodatkowych
Konstrukt hipotetyczny – to twierdzenie wyjaśniające, zawierające znaczenia dodatkowe, tu:
a) k. h. o fizjologicznym znaczeniu dodatkowym (procesy organiczne)
b) k. h. o mentalistycznym znaczeniu dodatkowym (procesy mentalistyczne)
k. h. o mentalnym znaczeniu dodatkowym (procesy neutralne)
pojęcia posiadające nadznaczenie; nie są całkowicie sprowadzalne do zbioru cech obserwowalnych (np. popęd, emocje); wprowadzamy je, aby lepiej zrozumieć dane zjawisko i konstruować teorie (np. gen, osobowość)
Zmienne hipotetyczne – twierdzenia wyjaśniające z niejasnym znaczeniem dodatkowym, również termin wspólny dla powyższych.
Zestaw 29
1. Def. równowartościowe i wielowartościowe
Podział z punktu widzenia ich budowy językowej:
Definicja równościowa - składa się na nią wyłącznie:
definiendum lub jego nazwa (definiendum, czyli to co ma być zdefiniowane, wyrażenie definiowane)
spójka definicyjna (w definicji najczęściej reprezentuje ją zwrot „jest to”, który może być
zastąpiony równoznacznymi zwrotami „to tyle, co”, „znaczy tyle, co” itp.),
definiens lub jego nazwa (człon definiujący - wyrażenie definiujące, czyli wyrażenie, przy pomocy którego definicja informuje o znaczeniu wyrazu definiowanego)
Definicja nierównościowa:
warunkowa:
- predykat „f” formułuje warunek, przy spełnieniu którego ustala się równoznaczność łączącą określone definiendum (g) z definiens (h).
indukcyjna:
składa się ze zdania pierwszego, będącego sformułowaniem tzw. warunku wstępnego oraz ze zdania drugiego, tzw. warunku indukcyjnego
warunek wstępny ustala znaczenie najprostszego kontekstu, w ramach którego może wystąpić wyrażenie definiowane
warunek indukcyjny charakteryzuje sposób sprowadzania bardziej skomplikowanych kontekstów wyrażenia definiowane do kontekstów uwzględnionych w warunku wstępnym.
2. Algorytm wyboru optymalnego testu
Różnica między wyborem optymalnego testu istosności różnic a wyboru optymalnego testu odnosi się do charakteru grup porównawczych. W pierwszym przypadku mówiło się o grupach niezależnych, tutaj o zależnych.
Dane zależne można uzyskać w dwojaki sposób:
a) przez porównanie stanu początkowego ze stanem końcowym zmiennej zależnej, na tej samej grupie osób badanych lub na grupach równoważnych uzyskanych metodą doboru parami
b)przez przeprowadzenie serii porównań stanów zmiennej zależnej, na tej samej grupie lub grupach równoważnych
W efekcie takiego rozróżnienia mamy dwa podzbiory testów.
wielkość grupy n? gr duża – test z
gr mała – test t
skala porządkowa –test Wilcoxona
skala nominalna – test McNermara
(brak pytania o wariancje)
Czy rozkład różnic d jest normalny?
Czy macierz wariancji-kowariancji jest równa i symetryczna? Jeśli TAK – test F analizy wariancji, jeśli NIE- konserwatywny test F lub T2
skala porządkowa test Friedmana
skala nominalna test Cochrana
Zestaw 31
1.Model ex post facto - charakterystyka i dwa rodzaje
Model Ex Post Facto - odmiana konfirmacyjna, charakterystyka metodologiczna, ocena istotności zmiennych, sposób zbierania danych).
Stosowany jest gdy niemożliwe jest zastosowanie modelu eksperymentalnego.
EPF stanowi jakby odwrócenie kolejności czynności badawczych w stosunku do modelu eksperymentalnego. O ile w modelu E chodziło o to, by przez manipulację co najmniej jedną zmienną niezależną – główną wywołać obserwowane zmiany zmiennej zależnej, o tyle w EPF badacz usiłuje zidentyfikować nie znane mu zmienne niezależne, które spowodowały, iż zmienna zależna podjęła określone wartości dla osób z badanej populacji.
Dwie odmiany Modelu EPF:
odmiana eksploracyjna (EPF-E)
Stosowana w przypadku rozwiązywania problemów istotnościowych, które przyjmują postać następującej kwestii : „ jakie zmienne niezależne są istotne dla zmiennej zależnej”
odmiana konfirmacyjna (EPF-K)
Różnica: badacz formułuje hipotezę , która mówi, że zmienna Xj wpływa na zmienną Y. W związku z tym jest on nastawiony na udzielenie rozstrzygającej odpowiedzi : albo Xj jest istotne dla Y albo nie jest.
. Odmiany modelu EPF.
Istota modelu ex-post facto: próba zidentyfikowania zmiennych niezależnych, których wystąpienie spowodowało przybranie przez zmienną zależną określonych wartości dla osób z badanej populacji. Zmienne niezależne zadziałały już wcześniej, badacz nie ma możliwości manipulacji nimi.
Dwie odmiany:
EKSPLORACYJNA
1. Operacjonalizacja zmiennej zależnej i dobór grup porównawczych
2. Określenie populacji, na której będą prowadzone badania
3. Opracowanie schematów wywiadów i systemu kodowania danych
4. Analiza danych: odpowiedź na pytanie 1. (Czy wartość danego wskaźnika siły związku między Xi, a Y przekracza wartość progową?)
5. Analiza danych: odpowiedź na pytanie 2. (Czy zależność Y od Xi jest zależnością rzeczywistą, a nie pozorną?)
6. Analiza danych: odpowiedź na pytanie 3. (Które ze zmiennych X1, ..., Xn należą do obrazu przestrzeni zmiennych istotnych dla Y?)
7. Analiza danych: odpowiedź na pytanie 4. (Które ze zmiennych O(PY) są bardziej, a które są mniej ważne dla Y?)
KONFIRMACYJNA
1. Operacjonalizacja zmiennej zależnej i dobór grup porównawczych
2. Określenie populacji, na której będą prowadzone badania
3. Uszczegółowienie hipotezy badawczej
4. Zoperacjonalizowanie hipotezy badawczej
4. Analiza danych: odpowiedź na pytanie 1. (Czy dane kryterium Kj różnicuje grupy porównawcze?)
5. Analiza danych: odpowiedź na pytanie 2. (Czy dane kryterium Kj różnicuje grupy porównawcze rzeczywiście, a nie pozornie?)
6. Podjęcie decyzji dotyczącej hipotezy badawczej (W jakim stopniu hipoteza została potwierdzona?)
7. Analiza danych: odpowiedź na pytanie 4. (Które ze zmiennych O(PY) są bardziej, a które są mniej ważne dla Y?).
2.Liberalizm metodologiczny - podejście do teorii naukowej
Zestaw 32
1.Główne zadania metodologii pragmatycznej według Ajdukiewicza
2.Ocena istotności zmiennych niezależnych w modelu ex post facto
Ocena istotności zmiennych w modelu Ex Post Facto.
W tym modelu najczęściej stosowanym testem jest chi- kwadrat. Jeżeli wartość statystki x2 wpada w obszar odrzuceń hipotezy zerowej, uznaje się daną zmienną za istotną dla zmiennej Y. Natomiast jako wskaźnik stopnia, w jakim dana zmienna x1 jest istotna dla Y, używa się współczynnika korelacji punktowo-czteropolowej albo współczynnika Q-Kendalla czy lambda Goldmana i Kruskala.
Bywa i tak, że o tym czy dana zmienna X1jest istotną dla Y badacze decydują na podstawie przeprowadzonych porównań frekwencyjnych, które mogą wyglądać następująco : zmienna zależna Y, jeżeli jest ona zmienną de facto wielowartościową, podaję się dychotomizacji w jakimś punkcie krytycznym i wyróżnia się 2 grupy osób. Także jako dychotomiczną traktuje się zmienną niezależną i dzieli się całą próbę badana na te osoby, dla których zmienna X1 przyjmuje wartość 1 i dla których przyjmuje wartość 0. Oblicza się procent tych wszystkich 4 kombinacji. Różnica między nimi przekraczająca arbitralnie przez badacza ustaloną wartość progową jest wskaźnikiem istotności zmiennej X1 dla zmiennej Y.
Zestaw 33
1.Wady i zalety modelu EPF
Wady i zalety modelu EPF
Wady:
Brak możliwości manipulowania zmiennymi niezależnymi istotnymi, gdyż zadziałały już one na zmienną Y w jakieś chwili tj. odległej od tej, w której badacz dokonuje pomiaru zmiennej zależnej Y. Badacz może zaobserwować jedynie efekt tych oddziaływań po upływie określonego czasu.
„grube metody” (wywiad, skale szacunkowe) wprowadzają dość dużą wariancję błędu
Niedogodność natury praktycznej - EPF wymaga celowego doboru grup porównawczych
Zalety:
Względy natury etycznej lub technicznej nie pozwalają badaczowi na zastosowanie modelu eksperymentalnego do rozwiązania danego problemu badawczego.
2.Indywidualizm a antyindywidualizm
Indywidualizm metodologiczny zakłada istnienie celów czynności, a więc założonych z góry przez badacza, antycypowanych stanów rzeczy, do których dąży i ma możliwość je osiągnąć (zdaniem Poppera sama nauka nie ma celów, mają je tylko badacze). Możliwe jest więc istnienie i odzwierciedlenie zjawisk z zakresu świadomości społecznej także w świadomości indywidualnej.
Antyindywidualizm (np. epistemologia historyczna) zaś zakłada tylko funkcje, a więc zadania, które mają obiektywnie realizować określony element struktury (systemu relacyjnego). Nie dopuszcza możliwości, by zjawiska z zakresu świadomości społecznej dały się całkowicie odzwierciedlić w świadomości indywidualnej (choć wersja umiarkowana antyindywidualizmu dopuszcza pewnie niektóre zjawiska, które się odzwierciedlają). W wersji skrajnej antyindywidualizm neguje wręcz istnienie czegoś takiego jak świadomość indywidualna – ponieważ jest ona zawarta w świadomości społecznej.
Zestaw 34
1.Hipotezy według Madsena
Według niego hipotezy to sformułowania symboliczne, dotyczące nie zaobserwowanych i prawdopodobnie niemożliwych do zaobserwowania zależności funkcjonalnych.
Klasyfikacja według ich składowych terminów:
hipotezy częściowo empiryczne – zawierają zarówno terminy hipotetyczne, jak i opisowe. Te terminy opisowe reprezentują obserwowane zmienne, które można podzielić na zmienne zależne (Y) i niezależne (X)
hipotezy X-H – zawierają termin opisowy reprezentujący zmienną X i termin hipotetyczny, reprezentujący zmienną H. Są twierdzeniami wyjaśniającymi, dotyczącymi zależności funkcjonalnych między zmiennymi X a H
hipotezy Y-H – zawierają termin hipotetyczny, reprezentujący zmienną H i termin opisowy, reprezentujący zmienną Y
hipotezy teoretyczne – zawierają wyłącznie terminy hipotetyczne, określają zależności między 2 lub więcej zmiennymi H.
klasyfikacja według stopnia ich złożoności
jednowymiarowe – dotyczą prostych zależności funkcjonalnych
wielowymiarowe – dotyczą skomplikowanych zależności funkcjonalnych, w których kilka zmiennych determinują inną zmienną
Klasyfikacja według typu zależności funkcjonalnych:
zależność funkcjonalna – regularna zależność między zmienną niezależną a zmienną zależną, obejmuje zarówno przypadki, w których po zmiennej niezależnej zawsze występuje zmienna zależna (charakter przyczynowy), jak i przypadki, gdy nie zawsze występuje, mniej lub bardzie często (charakter probabilistyczny)
determinizm – teoria, która utrzymuje, że w przyrodzie występują absolutne związki przyczynowe tego rodzaju, że możliwe jest formułowanie praw przyczynowych, na podstawie których można wyjaśnić i przewidywać skutek jeśli przyczyna jest znana
indeterminizm – teoria, która utrzymuje, że w przyrodzie nie występuje absolutna przyczynowość, zjawiska występują losowo, możemy formułować jedynie prawa statystyczne, na podstawie, których możemy wyjaśniać i przewidywać z pewnym stopniem prawdopodobieństwo.
2.Teoria i pomiar testu psychologicznego
Zestaw 36
1. Rodzaje, wady, zalety, zastosowanie nielosowego doboru proby badawczej. BYŁO
2. Pytania zle postawione, kategorycznie nierostrzygalne, zasadniczo nierozstrzygalne.
Porownac. BYŁO
Zestaw 37
1.Zmienne według Stevensa
.Klasyfikacja zmiennych wg Stevensa
S. Stevens wyróżnia cztery skale :
- nominalną,
- porządkową,
- interwałową,
- ilorazowa.
Typy skal wskazują nam jakie operacje empiryczne możemy wykonać na danej zmiennej,
przynależącej do konkretnej skal
Zmienne nominalne
Pozwalają one podzielić obiekty wg wartości, jakie przyjmują zmienne dla danych obiektów.
Przykładem jest tutaj „płeć” – każda z osób przyjmuje jedną z wartości tej zmiennej.
Zmienne nominalne to zmienne jakościowe
Zmienne porządkowe
Pozwalają uporządkować obiekty wg wartości, jakie przyjmują zmienne dla tych obiektów.
( obiekty mogą być równe lub różne pod danym względem) możemy wskazać któremu z dwóch obiektów dana zmienna przysługuje w danym stopniu.
Np. możemy uporządkować ludzi wg ich wysokości samooceny.
Zmienne interwałowe
Pozwalają na stwierdzenie o ile natężenie zmiennej dla obiektu A jest większe ( mniejsze ) od natężenia dla obiektu B np. iloraz inteligencji
Zmienne ilorazowe / stosunkowe
Pozwalają na stwierdzenie, ze natężenie zmiennej X dla obiektu A jest k razy większe niż natężenie tej zmiennej dla obiektu B.
2.Podstawowe teoriomnogościowe kategorie ontologiczne.
kategorie ontologiczne (kategorie przedmiotów) [ontologia = ogólna nauka o bycie]
semantyka logiczna wykorzystuje kategorie ontologiczne wyodrębnione w teorii mnogości – bo kategorie ontologiczne teorii mnogości najlepiej odpowiadają kategoriom gramatycznym wyrażeń językowych [teoria mnogości należy do matematyki]
podstawowe teoriomnogościowe kategorie ontologiczne:
obiekt indywidualny
zbiór obiektów indywidualnych
relacja między obiektami indywidualnymi
zbiór lub relacja wyższego rzędu
system relacyjny (struktura)
„zbiór” – 2 główne znaczenia:
sens kolektywny (agregat): „zbiór obiektów indywidualnych” = zespół fizycznych elementów tworzących pewną fizyczną całość”
sens dystrybutywny: „zbiór obiektów indywidualnych” = „ogół tych wszystkich obiektów indywidualnych, które posiadają pewną cechę wspólną (spełniających pewien predykat jednoargumentowy)” [w teorii mnogości zbiór jest pojmowany w tym sensie!]
związek między cechą a predykatem: przedmiot a posiada cechę f wtedy i tylko wtedy, gdy a spełnia predykat f(x)
relacje są pewnego rodzaju zbiorami:
zbiór w szerszym sensie jest relacją (zbiór par uporządkowanych, trójek uporządkowanych, itp.)
zbiór w węższym sensie jest odpowiednikiem cechy
suma zbiorów X i Y = zbiór wszystkich i tylko tych przedmiotów, które należą do zbioru X lub zbioru Y (inaczej: do sumy zbiorów X i Y należy każdy taki i tylko taki przedmiot, który należy do X lub Y)
iloczyn zbiorów X i Y = zbiór tych wszystkich i tylko tych przedmiotów, które należą zarazem do zbioru X oraz do zbioru Y (inaczej: do iloczynu zbiorów X i Y należy każdy i tylko taki przedmiot, który należy zarówno do X, jak i do Y)
inkluzja (zbiór X zawiera się w zbiorze Y) = gdy każdy element zbioru X jest także elementem zbioru Y
zbiór X jest identyczny ze zbiorem pełnym = gdy każdy spośród rozważanych przedmiotów należy do zbioru X
zbiór X jest identyczny ze zbiorem pustym = gdy żaden przedmiot do niego nie należy
zbiór X jest identyczny z dopełnieniem zbioru X = gdy jest on zbiorem tych wszystkich przedmiotów ze zbioru pełnego, które nie należą do zbioru X
RELACJA
relacja R zawiera się w relacji S wtedy i tylko wtedy, gdy każde 2 przedmioty, między którymi zachodzi relacja R, wchodzą także między sobą w relację S (np. relacja kuzynostwa zawiera się w relacji pokrewieństwa)
relacja R jest zwrotna w zbiorze X wtedy i tylko wtedy, gdy każdy element zbioru X pozostaje w tej relacji do siebie samego (np. relacja bycia rówieśnikiem w zbiorze ludzi). Stosuje się tu kwantyfikator z ograniczeniem (dla każdego x należącego do zbioru X)
relacja R jest przeciwzwrotna w zbiorze X wtedy i tylko wtedy, gdy żaden element ze zbioru X nie pozostaje w tej relacji do siebie samego (np. relacja starszeństwa w zbiorze ludzi)
relacja R jest niezwrotna w zbiorze X wtedy i tylko wtedy, gdy nie każdy element zbioru X pozostaje w tej relacji do siebie samego (np. relacja oceny postępowania, bo nie każdy człowiek ocenia swoje własne postępowanie)
relacja R jest symetryczną w zbiorze X gdy zachodząc między dwoma dowolnymi elementami tego zbioru x i y, zachodzi także między y i x (np. relacja bycia rówieśnikiem)
relacja R jest przeciwsymetryczną w zbiorze X gdy zachodząc między dowolnymi elementami tego zbioru x i y, nie zachodzi nigdy między y i x (np. relacja starszeństwa)
relacja R jest niesymetryczną w zbiorze X gdy zachodząc między dowolnymi elementami tego zbioru x i y, nie zawsze zachodzi między y i x (np. relacja oceny postępowania)
relacja R jest przechodnią w zbiorze X gdy dla dowolnych trzech elementów tego zbioru x, y, z: jeśli zachodzi ona między x i y oraz między y i z, to zachodzi również między x i z (np. relacja starszeństwa)
relacja R jest spójną w zbiorze X gdy dla każdych dwóch różnych elementów tego zbioru x i y bądź relacja zachodzi między x i y, bądź między y i x (np. relacja większości)
R jest funkcją określoną na zbiorze X i biorącą wartości z Y gdy każdemu elementowi ze zbioru X odpowiada jeden i tylko jeden element ze zbioru Y
relacja R jest konwersem relacji R (np. relacja większości jest konwersem relacji mniejszości)
R jest funkcją jedno-jednoznaczną określoną na zbiorze X i biorącą wartości ze zbioru Y gdy R jest funkcją określoną na X i biorącą wartości z Y, oraz R jest funkcją określoną na Y i biorącą wartości z X
SYSTEM RELACYJNY (STRUKTURA) = układ elementów, które tworzą pewien zbiór U (uniwersum). Poszczególne elementy należą do zbiorów X1, X2…, zachodzą między nimi relacje R1, R2…
Zestaw 38
1.Obiektywna sytuacja problemowa
2.Zasady przenoszenia predykatu nieobserwowalnego na język nauki empirycznej
Zestaw 39
1. Pojęcie wskaźnika rzeczowe i definicyjne.
Pojęcie wskaźnika – wskaźniki rzeczowe i definicyjne.Konstrukcja wskaźnika.
Def. S.Nowaka: „wskaźnik zdarzenia (własności) Z to takie zdarzenie (taka własność) W, że stwierdzenie jej istnienia, pojawienia się lub stopnia intensywności bądź faktycznie jest wykorzystane jako przesłanka, bądź zasadnie nadaje się na przesłankę wnioskowania, iż w określonych przypadkach z pewnością, z określonym prawdopodobieństwem lub przynajmniej z prawdopodobieństwem wyższym niż przeciętne wystąpiło zdarzenie (własność) Z”
Wskaźnik musi być zawsze „czymś”, co da się zaobserwować, natomiast zjawisko (cecha) wskaźnikowane, czyli indicatum, najczęściej jest nieobserwowalne
Jakieś zjawisko czy cecha może być wskaźnikiem innego zjawiska (cechy) wtedy i tylko wtedy, gdy zachodzi między nimi określony związek. Związek ten może mieć charakter bezwyjątkowej lub statystycznej regularności
Związki zachodzące między wskaźnikiem a indicatum różnią się: (1) pod względem struktury logicznej (2) pod względem charakteru związku
Zdania wprowadzające wskaźniki mogą przyjmować postać: (a) implikacji, (b) równoważności (c) zależności probabilistycznej
Związek łączący wskaźnik z indicatum może mieć charakter (a) umowny (b) naturalny. W pierwszym przypadku zdanie wprowadzające jest twierdzeniem empirycznym (prawdziwym lub fałszywym), w drugim – postulatem znaczeniowym (ustala ono sens indicatum za pomocą wskaźnika)
Wskaźniki konstruujemy poprzez wprowadzenie ich za pomocą zdania przyjmującego postać implikacji, równoważności lub zależności probabilistycznej. W dwóch pierwszych przypadkach zdanie wprowadzające wskaźnik jest twierdzeniem empirycznych – może być prawdziwe lub fałszywe w zależności od jego zgodności ze stanem faktycznym. W ostatnim przypadku danie to jest postulatem znaczeniowym – ustala sens indicatum za pomocą wskaźnika.
2. Optymalne cele nauki wg. Watkinsa.
Dla Watkinsa cel adekwatny musi spełniać następujące warunki: spójność, osiągalność, bezstronność, możliwość stosowania jako kryterium przy ocenie rywalizujących teorii, zawieranie idei prawdy.
Jednak, aby cel był optymalny, musi także:
A. Maksymalizować prawdopodobieństwo
B1-B2. Zawierać „głębię i jedność” wyjaśnień (depth-cum-unity)
B3. Zwiększać zdolności prewidystyczne (poprzez wzrost kompetencji empirycznych).
Zestaw 40
1.Podział wskaźników wg Nowaka - zestaw 39 BYŁO
2.Kuhna teoria rozwoju nauki
metodologia indukcjonistyczna: wiedza naukowa wywodzi się z wyników doświadczeń i w faktach empirycznych znajduje swe ostateczne uzasadnienie.
Jest to rozwój kumulatywny, przebiegający na cztery sposoby:
odkrycie doświadczalne zgadza się z przewidywaniami sformułowanymi na podstawie panujących teorii - mówimy wtedy o potwierdzeniu teorii przez fakty;
na podstawie nowych doświadczeń rozwija się teorię dodając do niej nowe prawa bez zmieniania starych i rozszerzając w ten sposób zakres jej zastosowań (np. w połowie XVIII w. dodano do mechaniki klasycznej prawo Coulomba);
nowe wyniki doświadczeń sugerują zbudowanie teorii bardziej ogólnej niż teorie zastane, przy czym te ostatnie okazują się szczególnymi przypadkami teorii nowej. Taki stosunek między teoriami określany jest mianem relacji redukcji, jego klasyczny przykład to stosunek fizyki statystycznej do termodynamiki klasycznej.
nowe fakty doświadczalne wykazują, iż w pewnym zakresie zastana teoria zawodzi. Inspirowani przez tego typu odkrycia naukowcy tworzą teorie nowe, które dziedziczą po swych poprzedniczkach ich sukcesy, przezwyciężając zarazem ich słabości: teorie wcześniejsze wynikają z nowych jako tzw. przypadki graniczne. Taki stosunek między teoriami określa się często mianem relacji korespondencji.
Rozwój nauki odbywa się poprzez rewolucję naukową. Na bazie paradygmatu powstają łamigłówki (problemy wynikające z paradygmatów), czasami są nierozwiązywalne i wtedy potrzebny jest nowy paradygmat, przy czym nie musi być w tym postępu, bo każdy nowy paradygmat wnosi coś innego.
Zestaw 41
1.Proces badawczy jako kontrola wariancji
2.Społeczno – praktyczne i poznwczo - naukowe przesłanki prowadzenia badań
Przesłanki społeczne – potrzeba zmieniania i ulepszania otaczającego nas świata, a więc motywacja praktyczna, pochodząca ze źródeł społecznych, w tym:
same sytuacje społeczne
wartości badacza
system klasowych nierówności
konflikty w zakładzie przemysłowym
aspiracje młodzieży wiejskiej
Przesłanki naukowo-poznawcze – tutaj zawierają się następujące motywacje:
ciekawość
świadomość istnienia „białych plam”
istnienie dwóch sprzecznych hipotez lub konkurencyjnych teorii
„odkrycie metodologiczne”.
Zestaw 43
1.Cechy dobrze sformułowanej hipotezy
Cechy dobrze sformułowanej hipotezy.
Hipoteza – wynika z problemu badawczego, jest odpowiedzią na pytanie zawarte w problemie.
Warunki prawidłowej hipotezy:
a) musi być sprawdzalna (powiązana związkami wynikania ze zdaniami obserwacyjnymi
b ) musi być adekwatną odpowiedzią na problem
c ) musi być najprostszą odpowiedzią na problem (im prostsza, tym łatwiej sprawdzić)
d) musi mieć moc wyjaśniania także faktów innych niż te, do których wyjaśnienia została powołana
e) musi być tak sformułowana, by łatwo było przyjąć lub odrzucić
f) nie powinna przyjmować postaci szerokiej generalizacji
g) ZAWSZE w postaci zdań twierdzących.
Cechy dobrze sformułowanego problemu badawczego.
S.Nowak: „problem badawczy to tyle, co pewne pytanie lub zespół pytań, na które odpowiedzi ma dostarczyć badanie”
Od tego, jak dany problem badawczy będzie sformułowany zależy stopień jego dojrzałości. Formułując jakikolwiek problem badawczy wyznaczamy jakieś ramy jego rozwiązania. Przesądza to już, w jakimś stopniu, stosunek badacza do pytań bardzie podstawowych, np. dotyczących natury badanej rzeczywistości oraz charakteru związków w niej zachodzących. Tak więc stopień, w którym sformułowanie problemu mieści w sobie wskazówki co do jego rozwiązania, należy uznać za jedno z kryteriów dojrzałości problemu.
Dużą rolę w procesie formułowania problemu odgrywa intuicja badacza. Akt tworzenia problemu jest przede wszystkim aktem twórczym. Od intuicyjnego postawienia problemu mija jakiś czas, w trakcie którego problem stopniowo „dojrzewa”, tzn. że kolejne jego przeformułowania zawierają większą liczbę wskazówek co do jego rozwiązania.
2.Porównaj wyjaśnianie faktów szczegółowych i prawdziwości
Zestaw 45
1.Istota i rodzaje praw naukowych
2.Model ANOVA a model wielokrotnej regresji (MR)
Zestaw 46
1.Kontrola zmiennej niezależnej na przykładzie modelu eksperymentalnego. Zmienna zależna w modelu eksperymentalnym.
(a) Manipulacja” i „kontrola” odróżniają model E od innych modeli badawczych, zwłaszcza ex post facto. Podejmowane przez badacza zabiegi, wykonywane w celu poddania kontroli zmiennych niezależnych, mają zróżnicowany charakter zależnie od:
Statusu pomiarowego poddanej operacjonalizacji zm. zależnej
Możliwości stwarzanych przez dany plan eksperymentalny: dwie klasy planów eksperymentalnych: „wszystko albo nic” (można analizować wpływ tylko jednej zmiennej niezależnej (głównej i tylko dwuwartościowej) i ANOVA (można badać wpływ dowolnej liczby zmiennych niezależnych (o dowolnej licznie wartości)
Jakość kontroli zmiennej niezależnej jest uzależniona od skali pomiarowej zmiennej zależnej (powinna to być skala interwałowa lub ilorazowa)
Metody kontroli zmiennej niezależnej stosowane w planach jedno-jednozmiennoeych, dwuwartościowych („0-1”) 146 pdf
Metoda A
Ustalenie stałej wartości kontrolowanej zmiennej w obu grupach porównawczych
Lub
Obie grupy wyrównuje się , aby zagwarantować przybliżoną równość średnich i odchyleń standardowych rozkładu zmiennej zależnej przed wprowadzeniem manipulacji eksperymentalnej (etap pretestu)
Wada tej metody: ten sposób kontrolowania zmiennej niezależnych ubocznych ma wpływ na zakres wniosków, które jesteśmy upoważnieniu generalizować z poziomu próby na poziom populacji. Można popełnić błąd w fazie uogólniania procesu badawczego
Metoda B
Do każdej osoby z 1 grupy dobiera się najbardziej do niej podobną osobę z 2 grupy (gdy mamy dwie grupy metoda ta nazywana jest metodą doboru parami), po utworzeniu danej liczby par przystępuje się do losowego rozdzielenia osób z poszczególnych par na dwie grupy, kontrolną i eksperymentalną
Analiza statystyczna: tak utworzone grupy mają charakter grup zależnych, trzeba więc stosować testy istotności różnic między średnimi dla grup zależnych. W przypadku rozszerzenia tej metody na dowolną liczbę grup porównawczych mówimy o doborze wiązanym (metoda ta ma zastosowanie w planach opartych na modelu ANOVA)
Inna odmiana tej metody: badacz może tworzyć „pary” badając dwukrotnie tą samą osobę – raz w warunkach eksperymentalnych, raz w kontrolnych (osoba badana tworzy parę sama z sobą)
Wada: nie jest łatwo skonstruować pary dla zmiennych psychologicznych, w drugiej odmianie tej metody może wystąpić efekt wyuczenia, czy efekt transferu; i tak jak w przypadku pierwszego modelu nie można ilościowo określić procentowego udziału danej zmiennej niezależnej ubocznej w wyjaśnianiu całkowitej zmiennej zależnej
(b) Statystyczne aspekty kontroli zmiennych – analiza wariancji zmiennej zależnej Y:
Zróżnicowanie międzygrupowe, zróżnicowanie wewnątrzgrupowe
Różnie wyodrębnione przez badacza zmienne niezależne będą w różnym stopniu zwiększały zróżnicowanie międzygrupowe i zmniejszały wewnątrzgrupowe. Miara owego zróżnicowania badanych osób ze względu na interesującą nas zmienną zależną to wariancja var
Obliczanie:
a) każdy konkretny wynik odjąć od średniej arytmetycznej (grupowej)
b) każde odchylenie podnieść do kwadratu
c) zsumować kwadraty odchyleń
d) podzielić otrzymaną sumę kwadratów odchyleń przez liczbę wyników, czyli obliczyć średnią arytmetyczną
Pochodna względem var miara to odchylenie standardowe (pierwiastek kwadratowy z var)
Wariancja jako miara zróżnicowania wewnątrzgrupowego i zewnątrzgrupowego oraz całkowitego
Wariancja całkowita – dzieli się na dwie wariancje cząstkowe (varc=varMG +var WG)
Wariancja wewnątrzgrupowa (WG) (liczy się ją jako średnią arytmetyczną wariancji grupowych, inaczej: wariancja niekontrolowana, wariancja błędu, wariancja resztkowa) – to miara precyzji prowadzonego eksperymentu, wielkość błędu
Wariancja zewnątrzgrupowa (MG) (liczy się ją jako wariancję średnich arytmetycznych wyróżnionych grup, inaczej: wariancja kontrolowana) – to miara stopnia kontroli zmienności zmiennych zależnych przez wprowadzoną do eksperymentu zmienną niezależną
Dwie dyrektywy:
Dobierać osoby do grup porównawczych tak, aby zminimalizować var WG
Manipulować zmienną niezależna, aby zmaksymalizować var MG
Var MG można rozbić na dowolną liczbę wariancji składowych, co prowadzi do zmniejszenia var WG i zwiększenia var MG
W jedno-jednozmiennowej odmianie modelu eksperymentalnego możliwe jest kontrolowanie tylko jednej zmiennej zależnej przez tylko jedną zmienną niezależną.
2.Prawa idealizacyjne i ich sprawdzanie
Zestaw 48
1. Algorytm wyboru optymalnej sily zwiazku miedzy zmiennymi.
2. Pojecie regul dedukcyjnych i ich funkcje w jezyku
Zbiór tez każdego języka wyznaczony jest przez REGUŁY DEDUKCYJNE tego języka. Są to reguły dwojakiego rodzaju:
- REGUŁY AKSJOMATYCZNE – nakazują bezwarunkowo uznawać za prawdziwe pewne ustalone zdania, określając je jako tezy
- REGUŁY INFERENCYJNE – nakazujące uznawać pewne zdania, w sytuacji, gdy uznane już zostały za prawdziwe określone zdania (zwykłe) inne; (jakie zdania są tezami, jeśli tezami są pewne zdania inne)
Reguły dedukcyjne należą do reguł składniowych (syntaktycznych). Aby zakomunikować jakiś fakt, zbudować zdanie kompetentne języka należy posługiwać się regułami formowania (reguły ustalające słownik języka J, ustalające kategorie gramatyczne, ustalające sposoby budowy zdań) oraz regułami dedukcyjnymi.
Do komunikowania jakiś faktów używa się zdań oznajmujących, jednak nie wszystkie zdania oznajmujące komunikują jakiś fakt, np. faktu nie komunikują normy, albo kontr tezy. Nie możemy posługiwać się wtedy poczuciem oczywistości.
W języku sformalizowanym, nie jest specjalne trudne ocenienie, czy dane zdanie jest tezą czy nie, gorzej jest z językami potocznymi. Wtedy trzeba stosować kryteria intuicyjne. Dla rozstrzygnięcia, czy dane zdanie jest tezą, stawiamy pytanie: Czy zdanie to jest uznawane za prawdziwe tylko Zr względu na samo znaczenie zawartych w nim słów? Albo: Czy nieuznanie tego zdania za zdanie prawdziwe byłoby świadectwem tego, że odnośna osoba nie zna znaczenia zawartych w nim słów? Nie musimy wiedzieć gdzie leży Berlin i Poznań, żeby uznać, że zdanie: „Jeśli Berlin znajduje się na zachód od Poznania, to Poznań leży na wschód od Berlina.” W praktyce reguły dedukcyjne rodzimego języka potocznego są przez nas do tego stopnia przyswojone, że stosujemy się do nich w sposób dość rygorystyczny, a jednocześnie zautomatyzowany.
w języku potocznym, gdy chcemy rozstrzygnąć, czy dane zdanie jest tezą, można posłużyć się kryterium praktycznym – pytaniem: Czy zdanie to jest uznawane za prawdziwe tylko ze względu na samo znaczenie zawartych w nim słów? albo: Czy nieuznanie tego zdania za prawdziwe byłoby świadectwem, że dana osoba nie zna znaczenia zawartych w nim słów? [zdanie języka potocznego uznawane za prawdziwe tylko ze względu na samą znajomość znaczenia zawartych w nim słów, a nie ze względu na jakąkolwiek inną wiedzę, jest tezą języka potocznego]
wniosek: w skład kompetencji językowej wystarczającej i niezbędnej dla formułowania wyrażeń języka J będących jego zdaniami (oznajmującymi), a przy tym nie będących kontrtezami języka J, wchodzą:
reguły formowania
reguły dedukcyjne ( aksjomatyczne i inferencyjne )
działy logicznej teorii języka:
składnia logiczna – bada reguły formowania i reguły dedukcyjne
semantyka logiczna – bada związki między językiem a rzeczywistością.
Zestaw 49
1.Zasady prawidlowej klasyfikacji
Zasady poprawnej(w sensie logicznym) klasyfikacji (podzialu)
2.Trafnosc zewnetrzna planu eksperymentalnego i czynniki ja zaklócajace
Trafność zewnętrzna wyraża się w zagadnieniu reprezentacyjności (generalizowności) wyników eksperymentu, a więc w pytaniu, na jaką populację można odnieść wyniki badania, związana z generalizowaniem rezultatów badawczych z prób na populację
Czynniki zakłócające:
reaktywne lub interakcyjne efekty testowania (np. uwrażliwiania osób badanych podczas przeprowadzania pomiaru początkowego, przed wprowadzeniem zmiennej niezależnej)
efekt interakcji stronniczej – wywołany niewłaściwym doborem osób do grup porównywanych.
Ograniczenia: brak symetrii pomiędzy próbą a populacją, wykorzystywanie w badaniach ochotników, brak losowego doboru próby, osoby specjalne np. studenci, żołnierze, lęk przed oceną, wskazówki sugerujące hipotezę, OIB, motywacja os. badanej.
Zestaw 50
1.Trafnosc zewnetrzna.
Ten rodzaj trafności, który związany jest z prawomocnością zabiegu generalizowania rezultatu badawczego z próby na populację, nazwiemy trafnością zewnętrzną
Po przeprowadzeniu badania empirycznego (trafnego wewnętrznie) i po podjęciu trafnej decyzji dotyczącej hipotezy badawczej, należy uogólnić (zgeneralizować) rezultat badawczy (dokładnie: treść hipotezy potwierdzonej w badaniu empiryczny) na wszystkie te elementy populacji (najczęściej populacja obejmuje zbiór osób o znanych badaczowi właściwościach), które reprezentowane były w próbie, na której przeprowadzono właściwe badanie empiryczne testujące hipotezę badawczą.
Generalizacji podlegają także elementy sytuacji badania (wytworzone przez badacza w laboratorium), w której w określony sposób zachowują się osoby badane wchodzące w skład próby. Zakłada się przy tym milcząco, że elementy sytuacji badania stanowią uproszczony, ale w miarę wierny, obraz realnej sytuacji życiowej. (Realizm psychologiczny i realizm życiowy).
Dane badanie empiryczne jest trafne zewnętrznie, jeżeli na poziomie populacji opisanej podzakresami wartości zmiennych niezależnych oraz zmiennej zależnej można będzie przenieść rezultat badawczy uzyskany z badania przeprowadzonego na poziomie próby. Inaczej mówiąc, zabieg przeniesienia (generalizacji) rezultatu badawczego z próby na populację będzie uprawniony, jeżeli O(Py) – próby będzie tożsamy z O(Py) – populacji pod względem tych samych podzakresów wartości Xj oraz Y opisujących próbę i populację.
2.Porównaj: klasyfikacje, typologie, systematyzacje.
Klasyfikacją nazywamy podział pewnego zbioru na podzbiory, który spełnia warunki adekwatności i rozłączności.
a). warunek adekwatności polega na tym, że suma podzbiorów jest równa całemu dzielonemu zbiorowi
b). warunek rozłączności polega na tym, że poszczególne podzbiory nie mają elementów wspólnych.
Klasyfikacją n-członową nazywamy podział zbioru na n członów. Klasyfikacją k-stopniową nazywamy podział zbioru ze względu na k kryteriów (np. Podział ludzi ze względu na płeć jest podziałem 2-członowym i jednostopniowym).
Systematyzacją zbioru X nazywamy jednostopniową klasyfikację tego zbioru, której zasadą jest przechodnia relacja nieodróżnialności z uwagi na częściowy porządek R w zbiorze X. Człony systematyzacji (czyli np. tytuły utworów literackich), której zasadą jest relacja nieodróżnialności z uwagi na częściowy porządek R w danym zbiorze X, uporządkowane są relacją wyprzedzania generalnego. Oznacza to ,że człon Xi wyprzedza człon Xj jeśli każdy element członu Xi jest wcześniejszy w porządku R od każdego elementu członu Xj. Częściowy porządek oznacza relację przeciwsymetryczną i przechodnią. Nie ma trzeciego – spójności.
przechodnia relacja nieodróżnialności to relacja nieodróżnialności między dwoma elementami x, y zbioru X występuje wtedy i tylko wtedy, gdy ani x nie jest wcześniejszy od y w częściowym porządku, ani y nie jest wcześniejszy od x. Można na przykładzie tak to zilustrować: utwór x reprezentuje ten sam okres literacki co utwór y. Innymi słowy w systematyzacji nie wiadomo, który element jest wcześniejszy w zbiorze. Czyli mając zbiór „romantyzm”, systematyzacja nie mówi, czy wcześniejszym utworem była oda do młodości, czy pan Tadeusz.
relację przeciwsymetryczną - to znaczy: jeśli x został ukończony przed y, to y nie mógł zostać ukończony przed x. Romantyzm był wcześniej niż Pozytywizm.
relacja przechodnia – jeśli x został ukończony przed y, a y przed z, to x został ukończony przed z. Skoro romantyzm był wcześniej niż pozytywizm, a pozytywizm wcześniej niż Młoda Polska, to romantyzm był wcześniej niż młoda polska.
częściowy porządek R w zbiorze X, częściowy, bo są trzy relacje i brakuje tu jednej z nich - relacji spójności: jeśli x i y są różnymi utworami, to bądź x został ukończony przed y, bądź y przed x. Romantyzm mógł być wcześniej niż młoda polska lub młoda polska mogła być wcześniej niż romantyzm.
relacją wyprzedzania generalnego – to relacja, która mówi o tym, że coś jest ułożone w porządku chronologicznym (na chłopski rozum ), profesjonalnie: jeżeli elementy zbioru X są wcześniejsze od elementów zbioru Y, to zbiór X jest wcześniejszy od Y. Jeżeli romantyzm był wcześniej niż pozytywizm, to oda do młodości musiała być wcześniej niż lalka.
Jeżeli w danym szeregu członów systematyzacji wybierzemy człony graniczne, sumując następnie człony znajdujące się pomiędzy członami granicznymi oraz człony graniczne, to czynność naszą nazwiemy typologią, zaś uzyskane sumu- typami. Typologia może być jednowymiarowa lub wielowymiarowa (np. Klasyfikacją dzieł literackich na rodzaje i gatunki ). Typologia jednowymiarowa opiera się na 1 systematyzacji, zaś wielowymiarowa na kilku systematyzacjach.
Zestaw 51
1.Reguly prawdziwosci zdan.
Reguły prawdziwości zdań.
Zdanie Z języka J jest prawdziwe w dziedzinie D(J) wtedy i tylko wtedy, gdy:
zdanie Z jest postaci „f(a)”, np. („Mickiewicz był poetą”, predykat ma postać „x był poetą”) – denotację predykatu „f(x)” stanowi w D (J) (dziedzinie języka) zbiór K (czyli zbiór poetów),denotację terminu jednostkowego „a” stanowi przedmiot α (w tym wypadku Mickiewicz), który należy do zbioru K.
zdanie Z jest postaci „f(a,b)”, np. („Piotr mówi do Jana”, predykat ma postać „ x mówi do y”) – denotację predykatu „f(a,b)” stanowi D (J) relacja R (relacja komunikowania się), denotację terminów jednostkowych „a” i „b” przedmioty α i β oraz α i β muszą być faktycznie w relacji.
Zdanie Z jest postaci „^x f(x)”, np. („Każdy pies jest miły”, predykat ma postać „każdy x jest miły”) – predykat „f(x)” posiada w D(J) denotację identyczną z uniwersum D(J), tzn. z wszystkimi elementami dziedziny tego języka.
Zdanie Z jest postaci „^x,yf(x,y)”, (np. „Każdy pies nie lubi kotów”, predykat ma postać „każdy x nie lubi y) – predykat „f(x,y)” posiada jako denotację w D(J) relację, do której należy każda para uporządkowana utworzona z elementów uniwersum D(J).
Prawdziwość zdania można sprawdzić metodą 0-1, ale też metodą wprost (zdanie prawdziwe, bo przesłanki prawdziwe) i nie-wprost (zaprzeczenie wniosku daje sprzeczność z założeniami), używając reguł prawdziwości. Należą do nich:
reguła odrywania
reguła dołączania
reguła dołączania (lub odrywania) kwantyfikatora (ogólnego lub szczegółowego).
2.Nastawienie osoby badanej a wspólpraca z badaczem.
Zestaw 54
1.KRL- opisac, scharakteryzowac
2.Opis statystyczny zmiennych i sposób przedstawiania (tego opisu)- chodzilo mu o miary rozproszenia, mody, rozklad standardowy itp histogramy, kolowe itp.- Strelau
Zestaw 55
1.Interpretacyjne aspekty i problemy korelacji i regresji
2.Rozwój poznania naukowego w perspektywie epistemologii historycznej
Zestaw 56
1.Róznice pomiedzy j. potocznym, a jez. Formalizowanym
język potoczny = etniczny, naturalny
charakter języka naturalnego sprawia, że niemożliwe jest skonstruowanie wyczerpującego systemu reguł zdających w pełni sprawę ze sposobu używania języka (reguł formowania i reguł dedukcyjnych), o których można byłoby stwierdzić, że ich stosowanie byłoby wystarczające dla zbudowania dowolnego zdania języka naturalnego. Jest tak dlatego, że język naturalny:
nie powstał w sposób zaplanowany (jak język sztuczny), ale jest rezultatem upowszechnienia się różnego rodzaju niekoordynowanych ze sobą inicjatyw indywidualnych. System jego reguł = niezwykle skomplikowana całość, którą trudno byłoby ogarnąć świadomością
jest tworem dynamicznym, nieustannie rozwijającym się. Można go przeciwstawić językowi sztucznemu:
słownictwo naturalnego nie da się scharakteryzować wyczerpująco przez proste wyliczenie, bo bez przerwy pojawiają się nowe słowa i znikają dotychczasowe
poszczególne słowa i większe całości słowne naturalnego zmieniają swoje kategorie gramatyczne, często, nie tracąc starych, uzyskują nowe i stają się w ten sposób wyrażeniami gramatycznie okazjonalnymi
tak więc użycie języka naturalnego posiada charakter twórczy
reguły można sformułować dla języków sztucznych, tak jak robi to logiczna teoria języka, która studiuje reguły językowe charakteryzujące sposób użycia wyrażeń języków sformalizowanych
języki sformalizowane:
wszystkie ich reguły wymienione są w sposób wyraźny
poszczególne kategorie gramatyczne wyrażeń rozpoznawalne są na podstawie formalnych cech tych wyrażeń
język sformalizowany = płodna poznawczo idealizacja języka naturalnego. Można za jego pomocą badać ogólny sposób funkcjonowania każdego języka naturalnego w procesie komunikacji międzyludzkiej, a także różne sposoby funkcjonowania tego języka w ramach głównych odmian procesów komunikacyjnych [stosunek logicznej teorii języka do badań językoznawczych = taki jak stosunek geometrii do opisowej wiedzy o poszczególnych obiektach fizycznych]
formalnologiczne badania nad językiem – różny stopień ogólności:
najmniej ogólne – gdy dotyczą jakiegoś jednego języka sformalizowanego → założenia wyjściowe = reguły wyznaczające jeden określony język
bardziej ogólne – gdy dotyczą całej obszernej klasy takich języków → założenia wyjściowe charakteryzują ogólnie typ języka reprezentujący cały zbiór różnych, konkretnych języków sformalizowanych, z których każdy ma inne reguły.
2.Znaczenie teorii dla badan eksperymentalnych
Zestaw 57 :
1. model eksperymentalny a potoczne znaczenie slowa eksperyment
Eksperymentalny model badawczy a eksperyment w znaczeniu potocznym.
Brzeziński sugeruje, że te pojęcia są równoznaczne.
Ważne, że model eksperymentalny jest metodą, która wymaga dokładnego zaplanowania całego toku postępowania badawczego oraz spełnienia określonych założeń.
Z kolei potoczne rozumienie pojęcia eksperyment oznacza zbiór działań wzbudzających w obiektach materialnych określone reakcje i zjawiska w warunkach pozwalających kontrolować wszelkie istotne czynniki, które poddaje się dokładnej obserwacji.
Model eksperymentalny jest techniką przeprowadzania eksperymentu.
2. spoleczna swiadomosc metodologiczna (czym jest, funkcje, struktura)
Pojęcie, struktura i funkcjonowanie świadomości metodologicznej.
Świadomość metodologiczna – to system kulturowych reguł wyznaczających dozwolone sposoby uprawiania praktyki badawczej w ramach dyscyplin naukowych oraz określających standardy dla wyników tych badań. Są to więc reguły (zwykle zwerbalizowane, ale niekoniecznie) przestrzegane przez wszystkich badaczy, niezależnie od tego, czy zostały przez kogoś zrelacjonowane i opisane. Reguły te nie są z góry zaplanowane i opisane; ich autorami są wszyscy uczestnicy procesu badawczego. Zgodnie ze stanowiskiem m.in. epistemologii historycznej o uprawomocnieniu reguł i norm świadomości metodologicznej decyduje efektywność stosowania tych norm, a konieczność ich stosowania dyktowana jest przez możliwość zaobserwowania błędów wynikających z niezastosowania reguł.
Świadomość metodologiczna może być:
społeczna – to społeczno-subiektywny kontekst praktyki naukowej, jedna z głównych dyrektyw tej praktyki, dzieli się na świadomość normatywną (hierarchizującą wartości poznawcze + normy moralne – J.B.) oraz dyrektywną (określającą sposób realizacji tych wartości, jt. metodologia w znaczeniu 3 jako społeczna świadomość metodologiczna jako taka);
indywidualna – to posiadany przez jednostką, mniej lub bardziej uproszczony („zdeformowany” - Z.S.) fragment świadomość społecznej, inaczej: jest to zobiektywizowany system przekonań, wartości, idei, sądów „wypreparowanych” z osobistego doświadczenia jednostki.
Proces badawczy w kontekście świadomości metodologicznej.
Zapotrzebowanie społeczne zgłaszane pod adresem określonej dyscypliny naukowej „trafia” na określony stan społecznej świadomości metodologicznej – to, jaką wartość będzie miała odpowiedź psychologii na to zapotrzebowanie, będzie w znaczącym stopniu zależało od stanu owej świadomości.
Analogicznie zachodzi powiązanie stanu społecznej SM z realizowaną na gruncie danej dyscypliny naukowej praktyką badawczą. Owa praktyka realizowana jest przez poszczególnych badaczy, których cechuje określony stan indywidualnej SM, która jest swoistą konkretyzacją społecznej SM. Sam opis danego bloku przekonań indywidualnych może być dokonany jedynie w terminach zakładających określoną charakterystykę odpowiedniego bloku przekonań ze sfery świadomości społecznej.
W skład SM wchodzi:
wiedza na temat badanego obiektu
kanon teorii naukowych (za ich pomocą badacz może opisywać, wyjaśniać i przewidywać zachodzenie zmian badanych zjawisk)
oprócz języka teorii badacz musi znać język metod badawczych, narzędzi właściwych psychologii
wiedza dotycząca sposobów empirycznej weryfikacji formułowanych przez siebie twierdzeń
wiedza o modelach badań psychologicznych powinna być operatywna, umożliwiająca badaczowi nie tylko powielanie typowych rozwiązań badawczych opisanych w podręcznikach, ale również stosowanie ich twórczych przekształceń
perspektywa ontologiczna – ustalenia co do natury rzeczywistości, wybór modelu świata; badacz strukturyzuje rzeczywistość uznając pewne typy ontologiczne za podstawowe, inne za pochodne – sprowadzalne do tych pierwszych; wskazuje to badaczowi, z jakich świat składa się przedmiotów, a tym samym – jakim przedmiotom przysługują zmienne; następnie badacz przeprowadza stratyfikację esencjalną zmiennych, wyróżniając ze zbioru wszystkich możliwych zmiennych te, które są istotne (wywierają wpływ) – potem ustala rodzaj zależności pomiędzy nimi; TBO
perspektywa epistemologiczna – dotyczy wyboru języka, w którym badacz będzie opisywał poznawaną rzeczywistość
perspektywa aksjologiczna – kwalifikuje wybory badacza jako dopuszczalne (z etycznego punktu widzenia) bądź jako niedopuszczalne.
Teoria badanego obiektu:
decydując się na określoną TBO badacz przesądza o tym, jakie będzie formułował pytanie badawcze i które zmienne niezależne będą przez niego efektywnie kontrolowane – ma to znaczący wpływ na trafność wewnętrzną przeprowadzanego przez psychologa badania
Teoria operacjonalizacji zmiennych:
operacjonalizacja zmiennych z podzbioru zmiennych niezależnych związana jest z doborem i konstrukcją (lub adaptacją kulturową już istniejących) narzędzi pomiarowych – jest przeprowadzana w celu nadania zmiennym (mającym status konstruktu teoretycznego – sensu empirycznego)
to, jaka będzie postać finalna konstruowanego przez psychologa testu psychologicznego, zależeć będzie przede wszystkim od założonej w punkcie wyjścia TOZ (np. „klasyczna” teoria testów Gulliksena, „statystyczna” teoria testów Lorda i Novicka).
uzyskany za pomocą narzędzia pomiarowego wynik musi być interpretowalny w terminach przyjętej przez badacza TBO.
Teoria badania empirycznego i teoria statystyki:
związane z wyborem modelu badawczego i statystycznego, w ramach których będą testowane hipotezy badawcze
znajomość i konsekwentne przestrzeganie TBE przy planowaniu badania umożliwia uzyskanie rzetelnego wyniku i podjęcie trafnej decyzji co do hipotezy badawczej
obejmuje zbiór zasad odnoszących się do planowania i prowadzenia badania sprawdzającego hipotezę badawczą
zarówno TBE jak i TS muszą być zgodne z TBO
Zestaw 58
1.Porównanie modeli badawczych wg róznych autorów - chodzilo o podobienstwa i róznice, cechy wyrózniajace modele Nachmiasów, Babbiego
2.Rodzaje i funkcje regul semantycznych
Reguły odniesienia przedmiotowego
reguła ustalania uniwersum dla języka J , np. zbiór pisarzy romantycznych
reguły denotowania, przyporządkowują:
imionom własnym – obiekty indywidualne, np. Adam Mickiewicz
predykatom jednoargumentowym – zbiory obiektów indywidualnych, np. Adam Mickiewicz był poetą romantycznym, Juliusz Słowacki był poetą romantycznym, więc =zbiór poetów romantycznych
predykatom dwuargumentowym – relacje między obiektami indywidualnymi, np. antagonizm (Mickiewicz i Słowacki nie przepadali za sobą)
predykatom wyższego rzędu – zbiory lub relacje wyższego rzędu
2) Reguły prawdziwości („nieanalitycznej”) – wg nich rozstrzygamy kwestię prawdziwości zdań danego języka J:
- proste (dla zdań atomicznych i generalnych)
- złożone (dla zdań egzystencjalnych i molekularnych).
Zestaw 59
1.Psychologia stosowana a stosowanie psychologii - argumentacje.
2.Glówne teoretyczne kierunki rozwoju poznania naukowego.
Zestaw 61
1.Sposoby pojmowania "teorii naukowej" - rygoryzm metodologiczny
Logiczna teoria nauki - rygoryzm metodologiczny
2.Zmienne ilosciowe w liniowym modelu wielokrotnej regresji.
Zmienne ilosciowe w modelu regresji jednoliniowej (MR)
Zestaw 62
1.Postac i odmiany modelu Ex Post Facto (plus dopytywal o opis wariantów testów istotnosci róznic stosowanych w tym modelu) BYŁO
2.Teoria naukowa a liberalizm metodologiczny
Zestaw 63
1.Poznanie naukowe inne
2.Modele eksperymentalne jedno-wielozmiennowe wielowartosciowe
Zestaw 64
1. "znaczenie" w rozumieniu LTJ oraz teorii pomiaru
Pojęcie znaczenia w teorii pomiaru i jego paralele z LTJ (podobno wg. Coombsa).
Zdanie, w którym występują wartości liczbowe jest formalnie znaczące wtedy i tylko wtedy, gdy jego prawdziwość (lub fałszywość) nie zmienia się przy dopuszczalnych przekształceniach na skali. Zależy od modelu pomiarowego, w którym otrzymano wartości liczbowe.
Jak można usprawiedliwić przyporządkowanie przedmiotom liczb, jeśli nie jest ono powiązane z jakimś twierdzeniem o istnieniu?
a) przewidywanie – wskaźniki liczbowe są wykorzystywane, by przewidywać wartości pewnej zmiennej zależnej za pomocą wartości zmiennych niezależnych
b) opis – w pewnych sytuacjach liczby przyporządkowane obiektom traktowane są jako opisowe wskaźniki statystyczne dotyczące danej próbki lub populacji
c) przyporządkowania bezpośrednie – skale liczbowe uzyskiwane są nie za pośrednictwem relacji reprezentowania, lecz tworzone bezpośrednio przez osoby badane, które działają zgodnie z określoną instrukcją
2. ocena istotnosci zmiennych niezaleznych w modelu eksperymentalnym
Jak liczne powinny być grupy?
Im większa próba, tym łatwiej odrzucić hipotezę zerową – wystarczy więc przebadać wystarczającą ilość osób, by zdobyć potwierdzenie własnej hipotezy
Kryterium istotności, które musi być spełnione, aby można było uznać różnicę między średnimi czy korelacje między zmiennymi za istotne, jest poziom istotności statystycznej α = 0,05. Im bardziej wartość p będzie odbiegała od wartości 0,05 tym wyniki będą bardziej trafne.
Nastawienie na kontrolę błędu I i II rodzaju
Badacz przystępujący do testowania jakiejś hipotezy statystycznej może podjąć jedną z 4 decyzji, z których dwie są obarczone błędem
Prawdopodobieństwo popełnienia błędu I (odrzucenie hipotezy zerowej, gdy jest ona prawdziwa) rodzaju równe jest α, czyli stawia się znak równości między prawdopodobieństwem tego błędu i poziomem istotności statystycznej
Prawdopodobieństwo popełnienia błędu II rodzaju związane jest z pojęciem mocy testu (1- β; prawdopodobieństwo nieodrzucenia hipotezy zerowej, gdy jest ona fałszywa)
Utrzymując na stałym poziomie błąd I rodzaju badacz może zmniejszyć błąd II rodzaju dokonując stosunkowo prostego zabiegu, a mianowicie zwiększając liczebność próby.
Wskaźniki istotności zmiennej X (postępowania eksperymentalnego):
- jeśli zastosowaliśmy test t-Studenta to możemy odwołać się do tzw. wskaźnika omega-kwadrat. Po przemnożeniu jego wartości przez 100% uzyskujemy procentowo wyrażoną tę część wariancji całkowitej zmiennej zależnej, która tłumaczona jest przez zmienną niezależną X.
• Czy i jak wzrost zależy od wieku?
• Czy i jak poziom zainteresowania metodologią zależy od płci?
• Czy i jak to, jak studenci uprawiają seks, zależy od uczelni, na której studiują?
• Co łączy ww. pytania?
• Niespecyficzne zmienne zagregowane (NZZ) w roli predyktorów = (rzekomych) przyczyn
„niespecyficzny”, „agregat”
• Niespecyficzny – 1. niecharakterystyczny, nieswoisty dla czegoś. 2. niepodający specyfikacji, niewyliczający czegoś, niewyszczególniający
• Agregat – całość powstała przez mechaniczne połączenie niejednorodnych części; zbiór w sensie kolektywnym; skupisko; konglomerat
Niespecyficzne zmienne zagregowane (NZZ)
• Zmienne (poniekąd) „drugiego rzędu” (wtórne)
• „AGREGAT” wartości zmiennych pierwotnych + „ETYKIETA” („zastępcza”)
– wartości NZZ są skupiskami współwystępujących ze sobą przeciętnych (lub nawet nieznanych!) wartości wielu zmiennych „pierwszego rzędu”, charakterystycznych dla pewnej podpopulacji
– „etykieta” jest nazwą jednej z tzw. zmiennych socjodemograficznych (np. wiek, płeć, wykształcenie, miejsce zamieszkania itp.), wartości której posłużyły do wyodrębnienia ww. podpopulacji
NZZ – definicja sformalizowana: wytyczne
• Nieuporządkowana lub uporządkowana rodzina teoriomnogościowych iloczynów klas abstrakcji
• Owe klasy abstrakcji to wartości zmiennych niższego rzędu (pierwotnych) w pewnej podpopulacji
• Dwa elementy są nieodróżnialne ze względu na wartość zmiennej-etykiety są (rzekomo!) nieodróżnialne ze względu na wartości innych zmiennych (tj. zmiennych pierwotnych)
NZZ – definicja sformalizowana: wnioski
Zazwyczaj nieuporządkowana rodzina teoriomnogościowych iloczynów klas abstrakcji utworzonych w z wartości (klas abstrakcji) zmiennych niższego rzędu za pomocą relacji nieodróżnialności, mająca pełnić funkcję zmiennej niezależnej.
2.Statystyczny kontekst trafnosci w planach eksperymentalych
Trafność wewnętrzna i czynniki zakłócające planu eksperymentalnego
trafność wewnętrzna – odpowiada na pytanie o to, czy dana zmienna niezależna X rzeczywiście zadziałała na zmienną zależną Y w badaniu; plan trafny wewnętrznie to taki plan, który pozwala wyeliminować alternatywne (od ujętych w hipotezie) wyjaśnienia zaobserwowanej zmienności zmiennej Y
czynniki zakłócające trafność wewnętrzną planu E lub qE:
historia – działanie zmiennych z kontekstu zewnętrznego
dojrzewanie – źródłem zakłóceń jest sam organizm osoby badanej (dojrzewanie fizjologiczne i psychologiczne)
selekcja – stronniczy dobór osób do grup (eksp. i kontr.) może zwiększać prawdopodobieństwo potwierdzenia hipotezy badawczej
testowanie – uwrażliwienie z powodu pretestu, ale też z powodu samego faktu badania (np. aktywizacja instrumentacja – wpływ związany ze zmianami narzędzi pomiarowych, procedury ich stosowania i obliczania wyników, ze zwiększeniem doświadczenia osób stosujących te narzędzia, zmianą osób dokonujących pomiarów itp.
regresja statystyczna – związane z tendencją do podwyższania, w postteście Y, skrajnie niskich i obniżania skrajnie wysokich wyników (nie brać osób „skrajnych” do badania)
utrata osób badanych – zmniejszenie liczebności próby
interakcja selekcji z historią, dojrzewaniem, instrumentacją – niekorzystne zbiegnięcie się wpływów czynnika selekcji z wymienionymi (np. różne tempo rozwoju dzieci i prowadzenie badań przez rok)
przenikanie informacji związanych z postępowaniem eksperymentalnym z grupy do grupy albo imitowanie postępowania eksperymentalnego – niemożność fizycznego odseparowania grup eksp. i kontr. (badania laboratoryjne wolne od tych zakłóceń)
kompensujące, programowe zróżnicowanie grup porównawczych, wyrównanie ich traktowania – inicjatywy grupy mające na celu zniesienie nierównego traktowania grup przez eksperymentatora
10.kmpensowanie mniej pożądanych warunków i spowodowane nimi rywalizacyjne zachowanie się osób badanych – jeśli postępowanie eksperymentalne postrzegane jest jako atrakcyjne i wyróżniające, to osoby z grupy kontrolnej mogą zachowywać się rywalizacyjnie (pokazanie że te osoby też zasługują na „lepsze” traktowanie)
11. obrażanie się osób, które znalazły się w mniej pożądanych warunkach – okazywanie niechęci wobec eksperymentatora i celowe zachowywanie się gorzej, poniżej swoich możliwości
nietrafność wewnętrzna – wnioski wyciągnięte z wyników eksperymentu mogą nie być dokładnym odbiciem tego, co działo się w samym eksperymencie; zagrożenie nietrafnością wewnętrzną zachodzi zawsze, gdy cokolwiek innego niż bodziec mogło wpłynąć na zmienną zależną
źródła nietrafności wewnętrznej:
historia – wydarzenia historyczne, mające wpływ np. na poglądy badanych
dojrzewanie – zmiana samych badanych w czasie
pomiar – chęć pokazania się od jak najlepszej strony
narzędzia – pretest i posttest muszą być wykonane tym samym narzędziem, żeby można było porównać wyniki
regresja statystyczna – zmiany, które zaszły ze względu na dobór osób ze skrajnych pozycji, zostaną błędnie przypisane wpływowi bodźca
obciążenie doboru – porównania nie będą miały sensu, jeśli grupy (eksp. i kontr.) nie będą porównywalne od początku
wymieranie grup – rezygnowanie/odpadanie z eksperymentu przed jego zakończeniem
przyczynowy porządek czasowy – dwuznaczność dotycząca przyczyny i skutku (co jest bodźcem, a co zmienną zależną)
rozpowszechnianie lub naśladowanie – gdy członkowie grup (eksp. i kontr.) mogą się ze sobą kontaktować, mogą być przekazane elementy bodźca „skażona” grupa kontrolna
rekompensata – osoby z grupy kontr. często są pozbawione czegoś uważanego za wartościowe
rywalizacja o rekompensatę – osoby pozbawione bodźca eksperymentalnego mogą chcieć zrekompensować sobie go cięższą pracą
zniechęcenie – poczucie straty w grupie kontr.
Zestaw 66
1. Definicje nominalna, realna, operacyjna. porównanie.
Klasyfikacja definicji.
1. Nominalne – zdanie orzekające bądź ustanawiające równoznaczność dwóch wyrażeń
Odmiany definicji nominalnych:
- funkcja/wartość logiczna:
sprawozdawcze (analityczne)
projektujące (syntetyczne): regulujące i projektujące właściwe
-język/stosunek do języka:
przedmiotowe (wewnątrzjęzykowe, w stylizacji przedmiotowej) – są zdaniem sformułowanym w języku J, które – ze względu na to, że jest tezą języka J – ustanawia równoznaczność dwu odpowiednich wyrażeń języka J.
metajęzykowe (w stylizacji językowej – syntaktycznej bądź semantycznej) – są zdaniem komunikującym równoznaczność dwóch określonych wyrażeń w języku J; występują tu terminy będące nazwami wyrażeń języka J, np. reguły określonego języka.
- budowa:
równościowe
nierównościowe.
2. Realne – zdanie opisujące właściwości przysługujące wszystkim elementom należącym do danego zbioru.
3. Operacyjne – zdanie wprowadzające (ustanawiające) wskaźnik i/lub opisujące czynności konieczne dla wywołania i/lub zaobserwowania danego zjawiska lub procesu
2. Zmienna jakosciowa w liniowym modelu wielokrotnej regresji MR. konstruowanie zmiennych instrumentalnych
Główne zadania i zakres stosowalności współczesnych teorii testów. IRT(1) Zadania teorii testów
- Formalizacja zbioru pojęć służących opisowi pomiaru
pojęcia charakteryzujące „dobroć” pomiaru (rzetelność, trafność, homogeniczność) są parametrami testu:
parametry charakteryzujące rzetelność testu pozwalają wnioskować o dokładności pomiaru
parametry charakteryzujące trafność testu pozwalają wnioskować o przydatności testu do prognozy takich czy innych zachowań się
parametry charakteryzujące homogeniczność pozwalają kontrolować, w jakim stopniu poszczególne zadania testu mierzą tą samą cechę, którą mierzy cały test
pojęcia charakteryzujące formalną strukturę treści pomiaru, tj. pojęcie struktury czynnikowej i pojęcie struktury latentnej – są one związane z jednoczesnym pomiarem wieloma narzędziami, analizuje się zależności między wynikami pomiarów
dla danego zbioru narzędzi teorie te pozwalają określić formalną strukturę zbioru cech mierzonych przez te narzędzia, analiza treści psychologicznych tych narzędzi prowadzi do interpretacji psychologicznej wyodrębnionych cech
za pomocą tych teorii można weryfikować hipotezę, że określony zbiór narzędzi mierzy trafnie wyodrębniony przez twórcę testu zbiór konstruktów – można wyjść od deskrypcji zbioru testów i za ich pomocą definiować konstrukt, bądź wyjść od zbioru konstruktów i sprawdzać czy określone deskrypcje (testy) są dla nich adekwatne.
(2) Zakres stosowalności współczesnej teorii testów
stosuje się w tych samych sytuacjach w których nie można dokonywać wielokrotnych pomiarów tego samego obiektu, liczba ta jest ograniczona do dwóch i o cechach obiektu należy wnioskować poprzez obserwację większej liczby pomiarów różnych obiektów
wielokrotny pomiar jest potrzebny aby przekonać się czy nie ma braków w narzędziu, czy zawsze narzędzie będzie dawało taki sam rezultat.
Zastosowanie modeli IRT:
-do tłumaczeń językowych, adaptacji językowych testów
-w testowaniu adaptacyjnym (interakcyjnym)
-do szacowania stronniczości pozycji testowych
Pojecie i założenia logicznej teorii języka. LTJ
- LTN (i cała metodologia) opiera się na pojęciach i ustaleniach logicznej teorii języka (LTJ), gdyż systematyczna racjonalizacja czynności badawczych wymaga uprzedniej systematycznej racjonalizacji określonych czynności językowych
czyli dostarczenia przesłanek udzielenia odpowiedzi na pytanie:
Jakiego rodzaju wiedza o języku jest
wystarczająca i niezbędna do tego, aby
podejmować w sposób całkowicie świadomy
czynności językowe mające realizować pewne
typowe dla nich cele (komunikacyjno - poznawcze),
czyli czynności, których sensem
ma być komunikowanie zachodzenia pewnych
stanów rzeczy (m.in. faktów) lub rozpoznawanie
zakomunikowanych stanów rzeczy?
Co musisz o języku wiedzieć wystarczajaco i niezbędnie aby komunikowac w tym języku i rozpoznawac komuniakty.
- Stany rzeczy, które mogą być komunikowane, to m.in.:
• fakty (za pomocą zdań oznajmujących; logika klasyczna)
• problemy (za pomocą zdań pytających; logika erotetyczna)
• wartości (za pomocą zdań rozkazujących; logika modalna)
Logiczna teoria języka – czyli inaczej logika w węższym znaczeniu lub logika formalna. Centralnym zadaniem badawczym logicznej teorii języka (LTJ) jest systematyczna racjonalizacja pewnych czynności językowych, polegających na komunikacyjno – poznawczym użyciu języka. Racjonalizacja polega na dostarczeniu odpowiedzi na pytanie: jakiego rodzaju wiedza o języku jest wystarczająca i niezbędna do tego, aby podejmować w sposób całkowicie świadomy czynności językowe realizując pewne typowe dla nich cele? Jest to racjonalizacja systematyczna, czyli, że owa wiedza wystarczająca i niezbędna do świadomego podejmowania czynności językowych logika ujmuje w postaci pewnego systemu teoretycznego, pewnego układu twierdzeń, w postaci teorii, nie zaś jako zbiór nie powiązanych ze sobą, oddzielnych wskazówek określających sposób wykonywania każdej indywidualnej czynności z osobna.
Podsumowując...Zadanie LTJ i LTN
• LTJ: „Jakiego rodzaju wiedza o języku jest
wystarczająca i niezbędna do tego, aby
podejmować w sposób całkowicie świadomy
czynności językowe, których sensem ma być
komunikowanie faktów?”
• Opis ww. wiedzy w postaci systemu reguł
językowych
• Analogicznie LTN to system reguł
metodologicznych.
Motywacja osoby badanej (SM).
Analizując wyniki, od których zależy trafność badania empirycznego, powinniśmy odpowiedzieć na pytanie: „co osobę badaną skłoniło do tego, że zgodziła się wziąć udział w badaniu”
Lokalizacja osoby badanej na kontinuum „zgłoszenie dobrowolne osoby badanej – zgłoszenie przymusowe osoby badanej” ma wpływ na trafność badań empirycznych
Sytuacja eksperymentu psychologicznego może być dla osoby badanej sytuacją konfliktową, gdyż z jednej strony jako dobra osoba badana chce ona współpracować z badaczem, a z drugiej zależy jej na tym, by badacz postrzegał ją jako inteligentną, dojrzałą emocjonalnie itd.
Problem obciążenia wyników badań psychologicznych z udziałem ochotników - dlaczego próba złożona z ochotników jest stronnicza?
bo zgłosiła się na badanie, w odróżnieniu od osób, które takiej chęci nie wykazały!!
Badania Rosenthala i Rosnowa - cechy charakterystyczne różniące ochotników od nie-ochotników:
Dominujące i najlepiej udokumentowane (wyższy poziom wykształcenia, wyższy poziom inteligencji, wyższy status społeczno – ekonomiczny, wyższy poziom zmiennej aprobaty społecznej, większe zsocjalizowanie
Średnio udokumentowane (zwiększona tendencja do poszukiwania stymulacji, zwiększona tendencja do zachowań niekonwencjonalnych, raczej kobiety chyba, że stres to wtedy mężczyźni, niższy poziom autorytaryzmu, w populacji amerykańskiej raczej Żyd niż protestant i raczej protestant niż katolik, niższy poziom konformizmu, chyba, że kobiety w badaniach klinicznych
Najmniej udokumentowane (mniejsze miasta, zwiększone zainteresowanie religią, większy poziom altruizmu, bardziej otwarci, w badaniach medycznych niższy poziom przystosowania, są młodsi chyba, że badania są laboratoryjne i biorą w nim udział kobiety).
Schematy wnioskowania statystycznego.
Wnioskowanie statystyczne to dział statystyki zajmujący się problemami uogólniania wyników badania próby losowej na całą populację oraz szacowania błędów wynikających z takiego uogólnienia (patrz badanie statystyczne).
Wyróżnia się dwie grupy metod uogólniania wyników, definiujące jednocześnie dwa działy wnioskowania statystycznego:
(1) Estymacja
dział wnioskowania statystycznego będący zbiorem metod pozwalających na uogólnianie wyników badania próby losowej na nieznaną postać i parametry rozkładu zmiennej losowej całej populacji oraz szacowanie błędów wynikających z tego uogólnienia. Wyrażenie nieznana postać jest kluczem do odróżnienia estymacji od drugiego działu wnioskowania statystycznego, jakim jest weryfikacja hipotez statystycznych, w którym najpierw stawiamy przypuszczenia na temat rozkładu, a następnie sprawdzamy ich poprawność.
W zależności od szukanej cechy rozkładu można podzielić metody estymacji na dwie grupy:
Estymacja parametryczna - metody znajdowania nieznanych wartości parametrów rozkładu
Estymacja nieparametryczna - metody znajdowania postaci rozkładu populacji.
W praktyce estymacja nieparametryczna jest zastępowana prostszymi metodami bazującymi na weryfikacji hipotez statystycznych.
Metody estymacji parametrycznej można w zależności od sposobu szacowania szukanego parametru podzielić na dwie grupy:
Estymacja punktowa - oceną wartości szukanego parametru jest konkretna wartość uzyskana z próby (estymator)
Estymacja przedziałowa - operuje się pojęciem przedziału ufności, czyli przedziału, do którego z pewnym prawdopodobieństwem należy szukana wartość.
Inny podział metod estymacji wynika ze sposobu doboru wielkości próby.
Estymacja z ustaloną wielkością próby
Estymacja sekwencyjna
(2) Weryfikacja hipotez statystycznych
Weryfikacją hipotez nazywamy sprawdzanie sądów o populacji, sformułowanych bez zbadania jej całości. Przebieg procedury weryfikacyjnej wygląda następująco:
1. Sformułowanie hipotezy zerowej i alternatywnej
Hipoteza zerowa (H0) - Jest to hipoteza poddana procedurze weryfikacyjnej, w której zakładamy, że różnica między analizowanymi parametrami lub rozkładami wynosi zero. Przykładowo wnioskując o parametrach hipotezę zerową zapiszemy jako: H0: θ1 = θ2 .
Hipoteza alternatywna (H1) - hipoteza przeciwstawna do weryfikowanej. Możemy ją zapisać na trzy sposoby w zależności od sformułowania badanego problemu:
H1: θ1 ≠ θ2
H1: θ1 > θ2
H1: θ1 < θ2
2. Wybór statystyki testowej
Budujemy pewną statystykę W, która jest funkcją wyników z próby losowej W = f(x1, x2, ..., xn) i wyznaczamy jej rozkład przy założeniu, że hipoteza zerowa jest prawdziwa. Funkcję W nazywa się statystyką testową lub funkcją testową.
3. Określenie poziomu istotności α
Na tym etapie procedury weryfikacyjnej przyjmujemy prawdopodobieństwo popełnienia błędu I rodzaju, który polega na odrzuceniu hipotezy zerowej wtedy, gdy jest ona prawdziwa. Prawdopodobieństwo to jest oznaczane symbolem α i nazywane poziomem istotności. Na ogół przyjmujemy prawdopodobieństwo bliskie zeru, ponieważ chcemy aby ryzyko popełnienia błędu było jak najmniejsze. Najczęściej zakładamy, że poziom istotności α≤ 0.1 (np. α=0.01 ; α=0.05 ; α=0.1)
4. Wyznaczenie obszaru krytycznego testu
Obszar krytyczny - obszar znajdujący się zawsze na krańcach rozkładu. Jeżeli obliczona przez nas wartość statystyki testowej znajdzie się w tym obszarze to weryfikowaną przez nas hipotezę H0 odrzucamy. Wielkość obszaru krytycznego wyznacza dowolnie mały poziom istotności α, natomiast jego położenie określane jest przez hipotezę alternatywną.
Obszar krytyczny od pozostałej części rozkładu statystyki odzielony jest przez tzw. wartości krytyczne testu (wα), czyli wartości odczytane z rozkładu statystyki przy danym α, tak aby spełniona była relacja zależna od sposobu sformułowania H1:
P{|w|≥wα} = α gdy H1: θ1 ≠ θ2 (obszar dwustronny)
P{w ≥wα} = α gdy H1: θ1 > θ2 (obszar prawostronny)
P{w ≤wα} = α gdy H1: θ1 < θ2 (obszar lewostronny)
5. Obliczenie statystyki na podstawie próby
Wyniki próby opracowujemy w odpowiedni sposób, zgodnie z procedurą wybranego testu i są one podstawą do obliczenia statystyki testowej. Większość statystyk testowych, mających dokładny rozkład normalny, t-Studenta lub graniczny rozkład normalny, obliczamy w następujący sposób:
W=(a-b)/c
gdzie:
W - Statystyka testowa
a - Statystyka obliczona z próby
b - Hipotetyczna wartość parametru(ów)
c - Odchylenie standardowe rozkładu statystyki
6. Podjęcie decyzji
Wyznaczoną na podstawie próby wartość statystyki porównujemy z wartością krytyczną testu.
Jeżeli wartość ta znajdzie się w obszarze krytycznym to hipotezę zerową należy odrzucić jako nieprawdziwą. Stąd wniosek, że prawdziwa jest hipoteza alternatywna.
Jeżeli natomiast wartość ta znajdzie się poza obszarem krytycznym, oznacza to, że brak jest podstaw do odrzucenia hipotezy zerowej. Stąd wniosek, że hipoteza zerowa może, ale nie musi, być prawdziwa.
Reguły postępowania przy weryfikacji hipotez są określane mianem testów statystycznych.
Wynik prawdziwy: Gulliksen, Lord i Novick.
Wg Gulliksena (podejście platońskie) – wynik prawdziwy jest zabsolutyzowany i zewnętrzny w stosunku do pomiaru.
Wg Lorda i Novicka (podejście statystyczne) – wynik prawdziwy jest wartością oczekiwaną rozkładu skłonności o charakterze relatywnym do narzędzia pomiaru.
Gulliksen założył, że przy dokonywaniu pomiaru obserwujemy wartości prawdziwe mierzonej cechy, zakłóconym błędem równym różnicy między obserwowaną wartością wyniku pomiaru a nieobserwowalną wartością prawdziwą mierzonej cechy; w konsekwencji więc i wartość prawdziwa i błąd pomiaru są nieobserwowalne.
Aby móc stworzyć metody estymacji wartości prawdziwej na podstawie obserwowanej, trzeba było przyjąć założenia dotyczące źródeł losowości. Założono, że losowość wyniku prawdziwego na charakter podwójny: jej źródłem są zakłócenia przypadkowe w pomiarze wartości prawdziwej cechy tej osoby oraz jej źródłem jest przypadkowość wyboru tej osoby z danej populacji
Wynik prawdziwy danej osoby jest interpretowany jako realizacja zmiennej losowej, której rozkład wyznaczony jest przez przyjętą metodę wyboru danej osoby z badanej podpopulacji
Z aksjomatów Gulliksena wynika, że współczynnik korelacji między dwoma kolejnymi pomiarami jest równy rzetelności pomiaru, czyli równy jest stosunkowi wariancji wyniku prawdziwego do wariancji wyniku obserwowanego.
Lord i Novick podjęli próbę aksjomatyzacji teorii testów, przy której zachowałyby się twierdzenia Gulliksena, ale jednocześnie przyjęte przez nie aksjomaty dawałyby się weryfikować empirycznie
Punktem wyjścia jest rozkład skłonności dla danej osoby i danego testu – konstrukt teoretyczny, wynik testu jest interpretowany jako realizacja pewnej zmiennej losowej, której wartościami są wszystkie możliwe u danej osoby wyniki testu, a rozkład prawdopodobieństwa tych wyników jest charakterystyczny dla tej osoby
Wynik prawdziwy to wartość oczekiwana rozkładu skłonności. Ma on charakter relatywny do danego narzędzia, będącego źródłem statystycznych próbek określonych zachowań się badanego, jest też definicją cechy, jako wartość parametru rozkładu częstości tych zachowań się. Błąd pomiaru to różnica między wartością obserwowaną i wartością prawdziwą.
Klasyfikacja hipotez wg Nowaka.
Hipotezy dotyczące wartości zmiennych
Hipotezy dotyczące związków między zmiennymi
1. Hipotezy istotnościowe
a) „Zmienne niezależne X1, ..., Xn są istotne dla Y”
b) „Zmienne z O(PY) uporządkowane są – wg relacji bycia bardziej istotną dla Y niż... - w następujący sposób” albo „Zmienna X1 jest bardziej istotna dla Y niż zmienna X2.”
c') „O(SY) jest interakcyjny” - zmienne niezależne istotne dla Y wchodzą ze sobą w interakcje
c) „O(SY) jest izolowany” - zmienne niezależne istotne dla Y nie wchodzą ze sobą w interakcje
2. Hipotezy dotyczące „kształtu” zależności.
Równoznaczność, pojęcie, znaczenie. Wynikanie.
RÓWNOZNACZNOŚĆ dwóch zdań. Zdania Z1 i Z2 języka J są równoznaczne (posiadają to samo znaczenie) w języku J wtedy i tylko wtedy, gdy tezami języka J są dwa okresy warunkowe typu: „Jeśli Z1, to Z2” oraz „Jeśli Z2, to Z1”. Np. mamy 2 zdania: „Warszawa jest stolicą Polski” i „Warszawa jest siedzibą rządu Polski” i są one równoznaczne, gdyż tezami języka polskiego są okresy warunkowe: ” Jeżeli Warszawa jest stolicą Polski to Warszawa jest siedzibą rządu Polski” oraz „Jeżeli Warszawa jest siedzibą rządu Polski to Warszawa jest stolicą Polski”.
Równoważność dwóch wyrażeń to, to samo tylko zamiast Z1 jest W1, a zamiast Z2 jest W2.
ZNACZENIE wyrażenia W języka J jest to ta własność wyrażenia W, która przysługuje wszystkim wyrażeniom równoznacznym, w języku J, z wyrażeniem W, i tylko tym wyrażeniom. Np. barwa przedmioty x jest to własność tego przedmiotu, która przysługuje wszystkim przedmiotom (z większą lub mniejszą dokładnością) równobarwnym z nim, i tylko tym przedmiotom.
POJĘCIEM nazywamy znaczenie jakiegoś terminu. Pojęcie T w języku J jest to znaczenie terminu T w języku J. Np. pojęcie stołu w języku polskim jest to znaczenie terminu „stół” w języku polskim.
WYNIKANIE – „ze zdania Z języka J wynika zdanie Z’ wtedy i tylko wtedy, gdy zdanie Z’ jest pośrednią lub bezpośrednią konsekwencją inferencyjną aksjomatów języka J oraz zdania Z.”
Zasady klasyfikacji modeli badawczych.
kryterium manipulacji zmienną niezależną – główną
zakładające manipulację co najmniej jedną zmienną niezależną (TO MODEL EKSPERYMENTALNY)
wykluczające manipulację zmiennymi niezależnymi (TO MODEL WIELOKROTNEJ REGRESJI = MODEL KORELACYJNY = MODEL WIELOKROTNEJ REGRESJI/KORELACJI = MCR ORAZ MODEL EX POST FACTO)
kryterium jednoczesności oddziaływania zmiennej X na Y oraz pomiaru skutków tego oddziaływania
zakładające równoczesność oddziaływania jednej zmiennej na drugą oraz pomiarów skutków tego oddziaływania. dziś oddziałuje zmienna, badacz dokonuje pomiaru dziś (MODEL WIELOKROTNEJ REGRESJI) „dziś-dziś”
zakładające przesunięcie w czasie oddziaływania zmiennej X na Y oraz pomiaru skutków;
„wczoraj-dziś” – X oddziaływała na Y wczoraj (w mniej lub bardziej odległej przeszłości) przez jakiś okres czasu; a badacz dziś (posttest) próbuje identyfikować zmienną i określać wielkość oddziaływania (MODEL EX POST FACTO)
„dziś-jutro” – X oddziałuje na Y dziś; badacz dokonuje pomiaru skutków oddziaływania w trakcie (intertest) lub bezpośrednio po (posttest); tu często zdarza się też, że badacz dokonuje pomiaru zmiennej Y bezpośrednio przed oddziaływaniem (pretest) (MODEL EKSPERYMENTALNY)
Aksjomaty teoretyczne Gulliksena, Lorda i Novicka.
(1) Aksjomatyka Gulliksena
Dla zbudowania teorii testów przyjął on trzy aksjomaty nakładające warunki na rozkłady prawdopodobieństwa wyniku prawdziwego i błędu:
Wartość oczekiwana błędu równa się zeru
Błąd pomiaru i wynik prawdziwy są nieskorelowane
Błędy w dwóch kolejnych próbach są nieskorelowane
Z aksjomatów Gulliksena wynika, że współczynnik korelacji między dwoma kolejnymi pomiarami jest równy rzetelności pomiaru, czyli równy jest stosunkowi wariancji wyniku prawdziwego do wariancji wyniku obserwowanego.
Znajomość rzetelności, osiągnięta drogą oszacowania korelacji wyników dwukrotnego badania tym samym testem tej samej grupy osób, oraz oszacowanie wariancji wyniku obserwowanego w tej grupie osób – pozwala na estymację wariancji wyniku prawdziwego, tzn. również na estymację wariancji błędu
W ten sposób przyjęcie aksjomatów Gulliksena pozwala na stworzenie metod szacowania wariancji błędu i w konsekwencji na budowę przedziałów ufności dla nieznanego wyniku prawdziwego danej osoby.
Krytyka Gulliksena:
Założenia o obiektywnym i niezależnym od faktu dokonywaniu pomiaru istnienia wyniku prawdziwego
Przyjęcie postulatów, dla których weryfikacji nie istnieją empiryczne procedury.
(2) Aksjomaty Lorda i Novicka
Podjęli próbę aksjomatyzacji teorii testów, przy której zachowałyby się twierdzenia Gulliksena, ale jednocześnie przyjęte przez nie aksjomaty dawałyby się weryfikować empirycznie
Punktem wyjścia jest rozkład skłonności dla danej osoby i danego testu – konstrukt teoretyczny, wynik testu jest interpretowany jako realizacja pewnej zmiennej losowej, której wartościami są wszystkie możliwe u danej osoby wyniki testu, a rozkład prawdopodobieństwa tych wyników jest charakterystyczny dla tej osoby
Aksjomaty Lorda i Novicka:
Rozkład skłonności każdej osoby ma skończoną wariancję – jego prawdziwość wynika z dedukcyjnie przyjętych definicji
Twierdzenie o liniowej eksperymentalnej niezależności pomiarów, założenie dotyczące powtarzania pomiarów – wynik prawdziwy jest względnie stały i niezależny od faktu mierzenia.
Klasyfikacja nauk.
Nauka (poznanie naukowe) to taki rodzaj działalności, który polega na kontrolowaniu prawdziwości twierdzeń i hipotez. Klasyfikacja nauk bazuje na rodzaju tej kontroli oraz na przedmiocie zainteresowań danej dziedziny nauki:
nauki formalne – polegają na dowodzeniu, uprzywilejowane są aksjomaty
nauki empiryczne – polegają na sprawdzaniu, tu uprzywilejowane są zdania obserwacyjne
- nauki przyrodnicze (prawa naturalne)
- nauki humanistyczne (z założeniem o racjonalności)
- nauki społeczne (prawa społeczne, historyczne i ekonomiczne)
psychologia jako dziedzina z pogranicza trzech ww.
Podział epistemologiczny w/g Madsena.
Jest oparty na języku danych i na kategorii terminów hipotetycznych stosowanych w danej teorii
teorie czysto opisowe – teksty bez warstwy hipotetycznej ani wyraźnej metawarstwy, tu: t. o. behawioralne, fenomenologiczne, fizjologiczne;
2) teorie wyjaśniające – teksty zawierające warstwę hipotetyczną i metawarstwę, tu: t. w. fizjologiczne, neutralne, mentalistyczne;
3 ) teorie interpretacyjne – teorie, które nie wyjaśniają ani przewidują zachowania przy użyciu wyjaśnień, intuicyjne.
Zdania fikcjonalne.
takie zdania języka J, które nie komunikują żadnego faktu z uwagi na wiedzę W.
Rodzaje zdań fikcjonalnych:
zdania kontradyktoryczne - zdania fałszywe w każdym modelu języka z uwagi na wiedzę W (kontrtezy) np. „Dotknęła go twarda ręka losu”
niekontradyktoryczne zdania kontrempiryczne - zdania syntetyczne( zdania syntetyczne – jest to takie zdanie, którego wartość logiczna (prawda lub fałsz) nie może być ustalona bez odwoływania się do rzeczywistości. ) języka niezgodne z wiedzą W, w związku z tym fałszywe w modelu M- z uwagi na wiedzę W (niezgodne z naszą zwykłą wiedzą) np. „skamieniał z przerażenia”
zdania niekontrempiryczne - zdania zawierające terminy jednostkowe, których denotacjami nie są przedmioty fizyczne, w związku z tym nie posiadają w ogóle odniesienia przedmiotowego np. „Wokulski mieszkał w Warszawie”.
.IRT
Teoria odpowiadania na pozycje testowe, to zbiór twierdzeń opisujących sposób w jaki osoba badana odpowiada na pozycje testu. Pozwala na określenie związku między odpowiedziami udzielanymi przez osobę badaną, a zakładaną, nieobserwowalną cecha leżącą u podstaw zachowań testowych. Modele formułowane w ramach IRT mają postać funkcji matematycznych, wiążących prawdopodobieństwo udzielenia odpowiedzi prawidłowej na dana pozycje testową z ogólnym poziomem mierzonej cechy u osoby badanej.
3 podstawowe założenia:
1.o wymiarach przestrzeni latentnej (zachowanie osoby badanej w teście można przypisać pojedynczej cesze nieobserwowalnej, cecha latentna to zmienna wyznaczająca zachowanie osób w danym tescie, determinuje obserwowalne zależności statystyczne między pozycjami testu)
2.o lokalnej niezależności pozycji testowych (odpowiedzi każdej osoby badanej na jedna pozycję testowa nie zależą od jej odpowiedzi na jakakolwiek inną pozycję tego testu, wyniki pozycji testowych są statystycznie niezależne, jeżeli test jest jednowymiarowy (założenie 1) to założenie 2 jest spełnione)
3.o krzywej charakterystycznej pozycji testowej (krzywa charakterystyczna pozycji testowej to graficzny obraz funkcji matematycznej wiążącej prawdopodobieństwo udzielenia odpowiedzi prawidłowej na dana pozycje testową z poziomem cechy, operacyjnie wyznaczonym przez ogólny wynik w teście np. prawdopodobieństwo sukcesu jest funkcją ogólnego poziomu zdolności); krzywe ICC
Zastosowanie modeli IRT:
-do tłumaczeń językowych, adaptacji językowych testów
-w testowaniu adaptacyjnym (interakcyjnym)
-do szacowania stronniczości pozycji testowych
(Hornowska)
(Strelau)
Cel IRT → określenie zasad pomiaru cechy psychologicznych ludzi , cechy są nieobserwowane bezpośrednio (latentne). Ideą jest stworzenie takich zasad konstrukcji testu, aby błąd standardowy pomiaru nie był związany z konkretna populacją i aby nie były z nią związane parametry opisujące poszczególne pozycje testowe. W ramach IRT oszacowania poziomu badanej cechy dokonuje się oddzielnie dla każdej odpowiedzi testowej, kontrolując jednocześnie parametry danej pozycji testu. IRT pozwala na określenie związku pomiędzy odpowiedziami udzielanymi przez osobę badaną, a zakładaną nieobesrwowalną cechą leżącą u podstaw zachowań testowych. Założenia IRT:
Istnieje jeden czynnik wyjaśniający obserwowane kowariancje pomiędzy wszystkimi pozycjami testowanymi, tym czynnikiem jest zmienna latentna.
Związek pomiędzy cechą latentną, a obserwowaną odpowiedzią na dana pozycje testu ma określony kształt – krzywa charakterystyczną pozycji testowej.
Każdą krzywą ICC można opisać za pomocą określonych parametrów: parametru a – odpowiadającemu klasycznemu współczynnikowi mocy dyskryminacyjnej i/lub parametru b odpowiadającemu współczynnikowi trudności i/lub parametru c odpowiadającemu współczynnikowi zgadywania. Wartości parametrów są ustalane empirycznie.
Parametry krzywych ICC są niezależne względem badanych grup osób.
Istnieje wiele matematycznych sposobów, modeli opisywania krzywych ICC.
W IRT wykorzystuje się pojęcie wskaźnika informacji i przyjmuje się, że każda pozycja testowa ma swój odrębny wkład w stopień redukcji niepewności przez cały test.
Zmienne instrumentalne w MR.
jedna zmienna dwukategorialna – kodowanie przy zastosowaniu kodu 0-1 dla grup, a następnie liczenie wsp. regresji i korelacji;
jedna zmienna wielokategorialna – kodowanie 0-1 (gdzie 1 ma wybrana grupa, cała reszta ma 0) lub kodowanie quasi-eksperymentalne (wybrana grupa 1, ostania grupa -1, reszta 0), kodowanie ortogonalne (skonstruowanie nowych zmiennych instrumentalnych, pomiędzy którymi wsp. korelacji wynosi 0)
dwie zmienne wielokategorialne – zamiana tych zmiennych w nowe, poprzez mnożenie wszystkich wektorów instrumentalnych z X1 przez wektory (po kolei) z X2, potem j.w.
Zmienna pośrednicząca a konstrukt hipotetyczny.
Zmienna pośrednicząca – to twierdzenie wyjaśniające nie zawierające znaczeń dodatkowych
Konstrukt hipotetyczny – to twierdzenie wyjaśniające, zawierające znaczenia dodatkowe, tu:
a) k. h. o fizjologicznym znaczeniu dodatkowym (procesy organiczne)
b) k. h. o mentalistycznym znaczeniu dodatkowym (procesy mentalistyczne)
k. h. o mentalnym znaczeniu dodatkowym (procesy neutralne)
pojęcia posiadające nadznaczenie; nie są całkowicie sprowadzalne do zbioru cech obserwowalnych (np. popęd, emocje); wprowadzamy je, aby lepiej zrozumieć dane zjawisko i konstruować teorie (np. gen, osobowość)
Zmienne hipotetyczne – twierdzenia wyjaśniające z niejasnym znaczeniem dodatkowym, również termin wspólny dla powyższych.
Praktyka i teoria wg Siemianowskiego.
Podział na psychologię teoretyczną i stosowaną jest nie do utrzymania
Można by go było respektować, gdyby istniała chociaż jedna dyscyplina empiryczna spełniająca 1 z dwóch warunków:
„nie zawierająca żadnego twierdzenia mogącego stanowić podstawę naukowego wyjaśniania znanych faktów lub przewidywania faktów nieznanych
umożliwiająca wyjaśnienie i przewidywanie, ale bez dostarczania żadnych informacji użytecznych w działaniach praktycznych”
stanowisko Siemianowskiego dotyczące nauk empirycznych:
naczelnym zadaniem nauk empirycznych jest dostarczanie wyjaśnień faktów, regularności oraz prawidłowości empirycznych
problemy formułowane na gruncie nauk to problemy badawcze (odpowiedź na pytanie: dlaczego?)
podstawowe zdania formułowane w tych naukach to prawa empiryczne stanowiące podstawę naukowego wyjaśnienia
prawa empiryczne podlegają sprawdzeniu
informacje występujące w formułowanych przez badaczy przewidywaniach wykorzystywane są przy rozwiązywaniu praktycznych problemów decyzyjnych.
Trafność teoretyczna testów psychologicznych.
Przez trafność testu rozumiemy odpowiedź na pytanie, czy test na pewno mierzy to, co ma mierzyć. Jest ona powiązana z rzetelnością testu. Trafność teoretyczna, jest takim rodzajem trafności testu, który wykazuje stopień, w jakim jednostka posiada jakąś cechę lub właściwość ujawnianą na podstawie badania danym testem. Sposoby sprawdzania tej trafności:
metoda sprawdzania różnic międzygrupowych (wykazywanie różnic miedzy tymi grupami, miedzy którymi różnice te powinny występować zgodnie z założeniami testu)
metoda analizy macierzy korelacji i analizy czynnikowej (analiza korelacji między różnymi testami badającymi daną cechę)
metoda badania wewnętrznej struktury testu (stopień jednorodności, a więc związek między pozycjami testu)
metoda badania zmian nieprzypadkowych (stałość testu w powtórnym badaniu, czy raczej modyfikowanie i sprawdzanie, czy test je „wychwycił”)
metoda badania procesu rozwiązywania testu (analiza procesu rozwiązywania testu przez badanych, co pozwala na poprawę jego konstrukcji, a więc też trafności.
Pojęcie i rodzaje zmiennych.
Zmienna – dana właściwość, o której można powiedzieć, że przyjmuje ona różne (co najmniej dwie) wartości (Kerlinger).
Podziały zmiennych:
(a) ze względu na wielkość zbioru, z którego dana zmienna przyjmuje wartości:
dwuwartościowe (dychotomiczne)
(zmienne zdychotomizowane – wielowartościowe, które z jakiegoś powodu sprowadzono do dychotomicznych)
wielowartościowe (politomiczne)
trójwartościowe (trychotomiczne)
(b) ze względu na ciągłość wartości:
zmienne ciągłe – gdy wartości tworzą kontinuum, a pomiędzy dwiema sąsiednimi wartościami zawsze możemy znaleźć trzecią
dyskretne – gdy pomiędzy dwiema sąsiednimi wartościami nie występuje trzecia (np. typ wykształcenia)
(c)
jakościowe – zaliczamy do nich: dychotomiczne, oraz te zmienne politomiczne, które z punktu widzenia logiki są klasyfikacjami
ilościowe – zmienne ciągłe; psychologowie podciągają pod te zmienne także zmienne zoperacjonalizowane za pomocą jakichś testów
(d) klasyfikacja Stevensa:
zbiór wartości zmiennej przyjmuje postać 1 z 4 skal wyróżnionych przez Stevensa
typ skali – określa podstawowe operacje empiryczne, jakie można przeprowadzić na zbiorze wartości danej zmiennej, wskazuje dopuszczalne przekształcenia matematyczne, określa jakie statystyki, miary korelacji i testy statystyczne można stosować. Nazwą skali pomiarowej przyjęło się określać typ zmiennej.
nominalne – pozwalają nam tylko na pogrupowanie obiektów wg wartości, jakie przyjmują zmienne dla tych obiektów; jakościowe
porządkowe – pozwalają na uporządkowanie obiektów wg wartości, jakie przyjmują zmienne dla tych obiektów
interwałowe – pozwalają na stwierdzanie, o ile natężenie zmiennej X dla obiektu A jest większe (mniejsze) od natężenia zmiennej dla obiektu B
ilorazowe – pozwalają na stwierdzenie, że natężenie zmiennej X dla obiektu A jest k razy większe niż natężenie tej zmiennej dla obiektu B.
- zależna (Y) – jest przedmiotem naszego badania. Jej związki z innymi zmiennymi chcemy wyjaśnić
niezależna (X) – zmienna, od której zależy zmienna zależna. Zmienne niezależne można uporządkować pod względem siły oddziaływania na zmienną zależną (Xg – główne, najsilniej oddziałujące. Xu – uboczne)
Xg + Xu = W (zmienne ważne dla danej zmiennej zależnej Y)
Z – zmienne niezależne-zakłócające (mają inferencyjny wpływ na zależność, która wiąże zmienne ważne ze zmienną zależną). Dzielą się na 2 klasy:
„na zewnątrz” sytuacji badawczej („nie skorelowane” z aktem badania empirycznego). Ich wpływ – „niespecyficzny”, np. indywidualna tolerancja na zmiany ciśnienia atmosferycznego
„wewnętrzne” względem sytuacji badawczej („skorelowane” z aktem badania empirycznego). To np. zmienne konteksty psychologicznego badania, zmienne będące „pochodną” wchodzenia badacza z osobą badaną w interakcję – oczekiwania badacza, lęk przed oceną, itp.
N – zmienne niezależne-niekontrolowane = zmienne niezależne-uboczne nie kontrolowane + zmienne niezależne-zakłócające
K – zmienne niezależne-kontrolowane = zmienne niezależne-główne + reszta zmiennych niezależnych-ubocznych, których wpływ na Y badacz uwzględnia
Zmienne niezależne istotne dla Y = zm. niezależne-główne + zm. niezależne-uboczne + zm. niezależne-zakłócające.
Kategorie gramatyczne oraz ich indeksy. Reguły formowania.
Składnia logiczna czyli reguły formowania, kategorie gramatyczne oraz reguły dedukcyjne.
W skład reguł formowania wchodzą :
reguły ustalające słownik języka J
reguły ustalające kategorie gramatyczne zdań oraz elementów dystynktywnych zdań
reguły ustalające sposób budowania zdań z wyrażeń o określonych kategoriach gramatycznych.
Aspekty trafności testu psychologicznego.
aspekt zbieżny – aspekt zbieżny trafności testu psychologicznego (TZ) związany jest z jej ocenianiem na podstawie korelacji między nim a innym testem do mierzenia tej samej cechy. Najczęściej psychologowie zadowalają się wysoką trafnością w tym aspekcie, choć prowadzić to może do uproszczeń, przykładowo jeśli zapominają o badaniu drugiego aspektu albo nie oceniają zbieżności wyniku testowego z jakimś kryterium nietekstowym
aspekt różnicowy - aspekt różnicowy trafności testu psychologicznego (TR) wiąże się z brakiem korelacji wyników w teście z wynikami testu do mierzenia cechy innej niż ta, którą mierzy dany test.
Trzy procedury kontroli WSH:
badania posteksperymentalne:
przeprowadzenie z osobami badanymi wywiadów na temat tego, co myślą o procedurze, które oddziaływaniu były poddane
jeżeli okaże się, że osoba badana uświadamiała sobie cel badania w takim stopniu, który może podważać rzetelność jej odpowiedzi, badacz będzie zmuszony zrezygnować albo z jej wyników, albo z dalszego jej udziału w badaniach
przeprowadzenie wywiadu z osobami badanymi może napotykać na różne przeszkody, np. w postaci trudności w werbalizowaniu przez badanych odczuć w czasie eksperymentu.
niby-eksperyment:
tworzy się dwie równoważne grupy osób badanych wylosowanych z tej samej populacji
grupę A poddaje się działaniu procedury eksperymentalnej, a osoby z grupy B prosi się, żeby wyobraziły sobie, że są osobami poddanymi badaniom właściwym (zapoznaje się jej ze scenariuszem badania, z aparaturą i narzędziami pomiarowymi, z pomieszczeniem, z osobami przeprowadzającymi itp.)
następnie badacz porównuje rezultaty otrzymane z badania obu grup – jeżeli okaże się, że rezultaty te są zbieżne, można przypuszczać, że osoby poddane badaniom odgadły ich cel
symulacja eksperymentalna:
zadaniem osób badanych jest symulowanie rzeczywistego zachowania się osób poddanych oddziaływaniom zmiennych eksperymentalnych
inny badacz planuje badanie i analizuje jego wyniki, a inny przeprowadza samo badanie (nie wie on, że w badanej grupie znajdują się osoby, które nie reagują na zmienne w sposób naturalny, lecz tylko symulują)
osoby badane-symulujące powinny być poinformowane, że osoba przeprowadzająca badanie nie zna ich statusu
niedoinformowanie badacza ma na celu kontrolowanie czynnika jego stronniczości.
Rodzaje metodologii:
(1)
Metodologia ogólna – traktująca o prawidłowościach rządzących procesem poznawczym, wspólnych dla wszystkich nauk (np. klasyfikowanie, definiowanie, wnioskowanie, wyjaśnianie itp.)
metodologia szczegółowa – dotyczącą danej dyscypliny naukowej i zajmującą się charakterystycznymi dla tej właśnie dyscypliny naukowej procedurami poznawczymi (np. planowanie eksperymentów w psychologii czy budowa testów psychologicznych).
(2)
Badania nad działaniami poznawczymi mogą być prowadzone w dwojaki sposób:
Metodologia opisowa – dokonywanie rekonstrukcji i opisu rzeczywistego postępowania badawczego osób zajmujących się nauką (w jaki sposób uczestnik procesu realizuje swoje cele – jakie środki stosuje)
Metodologia normatywna – wskazania, jak powinni postępować badacze, aby zminimalizować błędy i zmaksymalizować osiągnięcia badawcze.
(3)
Metodologia nauk empirycznych (psychologii, pedagogiki, fizyki, biologii)
Metodologia nauk formalnych (matematyka, logika)
Zadania metodologii pragmatycznej (nauka jako praktyka):
- rozpoznawanie podstawowych czynności badawczych
- rekonstruowanie procesu postępowania badawczego
-rozpoznawanie celów poznania naukowego – kodyfikacja norm poprawnego postępowania badawczego
Zadania metodologii pragmatycznej ( nauka jako wiedza):
rekonstruowanie formalnej struktury założeń i wytworów poznania naukowego
logiczna analiza relacji pomiędzy składnikami ww. wytworów (rezultatów badawczych)
Cele nauczania metodologii:
metodologia niezbędna jest do zrozumienia naukowych tekstów i procedur
metodologia niezbędna jest do samodzielnego zaprojektowania, przeprowadzenia i zinterpretowania badań empirycznych
Madsen:
metodologia zajmuje się empirycznymi metodami nauki
opisuje i analizuje problemy związane z takimi metodami, jak ogólna obserwacja, eksperyment, studium przypadku
składowa filozofii nauki.
Klasyczny rachunek logiczny.
stałe logiczne – kwantyfikatory i spójniki takie jak „nie jest tak, że”, „oraz”, „lub”, „jeżeli… to”, „wtedy i tylko wtedy, gdy”
forma logiczna (schemat logiczny) – schemat zdania, które uzyskamy, pozostawiając bez zmian stałe logiczne oraz pozostałe wyrażenia zastępując zmiennymi
cecha specyficzna schematów logicznych – to, że zastępując w nich zmienne dowolnymi stałymi, uzyskamy znowu tezy języka
tautologia logiczna języka J – teza języka J o takiej formie logicznej, że każde zdanie języka J posiadające tę samą formę logiczną jest również tezą języka J. Ustalanie czy coś jest tautologią logiczną odbywa się tak, że ustala się najpierw, jakie schematy logiczne są schematami tautologicznymi (jeśli jakieś zdanie podpada pod schemat tautologiczny, wiadomo, że jest ono tautologią logiczną) → czyli najpierw definiuje się pojęcie schematu tautologicznego a potem określa się tautologię logiczną jako podstawienie pewnego schematu tautologicznego
schemat tautologiczny – forma (schemat) logiczna zdania będącego tautologią logiczną
klasyczny rachunek logiczny
dyscyplina pomocnicza logicznej teorii języka, system logiczny na który składają się rachunek zdań i rachunek kwantyfikatorów.
odpowiada na pytanie „jakie schematy logiczne są schematami tautologicznymi?”Klasyczny rachunek logiczny w pełni wystarcza do przeprowadzenia zdecydowanej większości rozumowań matematycznych.
rachunek zdań: odpowiedź na pytanie, jakie schematy logiczne zbudowane wyłącznie ze spójników i zmiennych zdaniowych są schematami tautologicznymi
rachunek kwantyfikatorów: odpowiedź, jakie schematy logiczne zbudowane z wszelkich stałych logicznych i odpowiednich zmiennych są schematami tautologicznymi
rachunek kwantyfikatorów 1-go rzędu (węższy rachunek funkcyjny) – gdy kwantyfikatory wiążą wyłącznie zmienne indywiduowe
[rachunek zdań i rachunek kwantyfikatorów = dyscypliny formalne (czyli dyscypliny, które określają wyłącznie reguły formowania i reguły dedukcyjne); przyjmuje się tu wyłącznie tezy językowe!]
w rachunku zdań spójniki zapisuje się w skrótowej postaci:
Spójnik | Zapis | Czyta się |
Negacji | ~ | Nie jest tak, że (nie) |
Koniunkcji | Λ | Oraz (i) |
Alternatywy | V | lub |
Okresu warunkowego (implikacji) | → | Jeżeli, … to |
Równoważności | ≡ | Wtedy i tylko wtedy, gdy |
reguły formowania rachunku zdań:
reguła ustalająca słownik: znaki kształtu „p”, „q”, „r” oraz znaki kształtu „~” i „→” są słowami rachunku zdań
reguły ustalające kategorie gramatyczne wyrażeń rachunku zdań: jeżeli dowolne wyrażenie A ma indeks „z”, to wyrażenie „~A” też ma indeks „z”; jeżeli dowolne wyrażenia A, B mają indeks „z”, to wyrażenie „A→B” też ma indeks „z”
schematy rachunkowo-zdaniowe – wyrażenia rachunku zdań, którym przysługuje indeks „z”
reguły dedukcyjne (języka) rachunku zdań:
aksjomatyczna – tezy rachunku zdań:
(p→q) → [(q→r) → (p→r)]
(~ p → p) → p
p → (~ p→q)
inferencyjne
podstawiania: jeżeli A jest tezą rachunku zdań, to tezą jest wyrażenie B powstałe z A przez zastąpienie w A dowolnego wyrażenia „p”, „q”, „r” dowolnym schematem rachunkowo-zdaniowym na wszystkich pozycjach, na których wyrażenie to występowało w A
odrywania: jeśli tezami rachunku zdań są wyrażenia kształtu A oraz A→B, to tezą rachunku zdań jest wyrażenie B
zastępowania: jeśli tezą rachunku zdań jest wyrażenie C, to jest nią też wyrażenie D powstałe z C w ten sposób, że występujący w C schemat rachunkowo-zdaniowy zastąpiony został schematem rachunkowo-zdaniowym odpowiadającym mu na mocy równości definicyjnych
zdania wykluczają się = 2 zdania sprzeczne ze sobą nie mogą być jednocześnie prawdziwe
zdania dopełniają się = 2 zdania sprzeczne ze sobą nigdy nie są fałszywe
zdania niezgodne = 2 zdania, które się wykluczają
„prawa De Morgana”
prawo a: zaprzeczenie komunikacji jest równoważne alternatywie zaprzeczeń
prawo b: zaprzeczenie alternatywy jest równoważne koniunkcji zaprzeczeń
p Λ (p → q) → q
modus ponens – łac. tryb stwierdzający: jeśli prawdziwy jest poprzednik prawdziwego okresu warunkowego, to prawdziwy jest następnik tego okresu: ~ q Λ (p→ q) → ~ p
modus tollens – łac. tryb obalający: jeśli fałszywy jest następnik prawdziwego okresu warunkowego, to fałszywy jest i poprzednik tego okresu: (p→ q) Λ (q→ r) → (p → r) [sylogizm hipotetyczny].
p chcesz być psychologiem q zdanie metodologii r bycie psychologiem z dużym prawdopodobieństwem schemat tautologiczny zwany sylogizmem hipotetycznym (p -> q) i (q -> r) -> (p -> r) tautologia logiczna języka potocznego Jeżeli to, że chcesz być psychologiem implikuje że zdasz metodologię oraz to że zdanie metodologii implikuje z dużym prawdopodobieństwem bycie psychologiem, to to że chcesz być psychologiem implikuje że z dużym prawdopodobieństwem będziesz psychologiem. |
Psychologia a model nauk praktycznych.
Tomaszewski: „Psychologia jest nauką o czynnościach człowieka i o człowieku jako ich podmiocie”.
Podział na psychologię teoretyczną (akademicką) i stosowaną:
Nauki teoretyczne (opisujące i wyjaśniające dany stan rzeczy) i nauki praktyczne (projektujące pożądany stan rzeczy)
Dla nauk praktycznych charakterystyczne są zdania dyrektywalne: „chcąc osiągnąć postulowany stan rzeczy A musisz wykonać działanie B”
Brzeziński uważa, że istnieje jedna psychologia, która powinna dostarczać gruntownie sprawdzonej wiedzy teoretycznej, stanowiącej konieczną dla efektywnego, praktycznego działania w różnych sferach praktyki społecznej bazę teoretyczną
Niekiedy w psychoterapii stosuje się działanie intuicyjne
Bywa, że racje naukowe nie zgadzają się z racjami pozanaukowymi – najważniejszym kryterium pozanaukowym decydującym o przydatności danej teorii do praktyki społecznej jest dobro podmiotu.
Formy podziału teorii wg Madsena.
Teoria jako całość- formalne właściwości teorii można rozpatrywać w trzech aspektach:
systematyczna organizacja teorii- cechuje teorie naukowe w różnym stopniu:
- szkice wyjaśniające- luźno zorganizowane teksty, przypominają informacyjne opracowania z życia codziennego, bez żadnej stratyfikacji na trzy poziomy abstrakcji i bez wyraźnych, sformalizowanych twierdzeń wyjaśniających;
- teorie systematyczne- występuje w nich podział na warstwy (opisową, hipotetyczną i metawarstwę) oraz pewne ważne twierdzenia formułowane explicite w każdej warstwie (jako zasady, praw itd.);
- teorie dedukcyjne- zorganizowane jako system dedukcyjny w logiczną hierarchię aksjomatów lub postulatów i pochodnych teorematów.
ścisłość sposobu przedstawiania- może być powiązana z systematyczną organizacją- choć nie zawsze; są to:
- teorie czysto słowne- formułowane wyłącznie za pomocą słów i zdań z języka potocznego;
- teorie częściowo symbolizowane- które w pewnym stopniu wykorzystują symbole logiczne, matematyczne i inne jako zastępujące słowa;
- teorie matematyczne- zawierające kompletny system wzorów matematycznych jako odpowiednich sformułowań słownych.
klasyfikacja modelu wg właściwości formalnych- cztery kategorie:
- analogie słowne- słowne wyjaśnienia posługujące się przenośniami/analogiami, bez ścisłego ich przedstawienia;
- modele dwuwymiarowe- wykresy, mapy;
- modele trójwymiarowe- np. globus;
- programy symulacji komputerowej.
2) Epistemologiczna klasyfikacja teorii- oparta na języku danych i na kategorii terminów hipotetycznych stosowanych w danej teorii:
- teorie czysto opisowe, czyli teksty psychologiczne nie mające żadnej warstwy hipotetycznej ani metawarstwy (behawioralne, fenomenologiczne, fizjologiczne)
- teorie wyjaśniające - zawierające zarówno warstwę hipotetyczną, jak i metawarstwę (fizjologiczne, neutralne, mentalistyczne)
- teorie interpretacyjne lub teorie M- reprezentują bardziej intuicyjne zrozumienie psychiki ludzkiej.
3) Klasyfikacja wg stosunku t/e. (stosunek teoria - empiria, stosunek warstwy hipotetycznej do warstwy opisowej):
- teorie głównie spekulatywne, tj. teorie z wysokim stosunkiem t/e
- teorie głównie empiryczne, tj. teorie z niskim stosunkiem t/e.
Problem badawczy i jego rodzaje.
S. Nowak wymienia dwie kategorie problemów:
(1)
dotyczy samych własności przedmiotów i zmian, jakim podlegają: czy przedmioty te cechują się posiadaniem określonych własności bądź podlegają określonym zdarzeniom, zmianom i procesom, jakie było natężenie pewnych cech o charakterze ilościowym czy intensywność przemian”
pytania o wartości zmiennych.
(2)
dotyczy tego, czy zachodzą pewne relacje (zależności) między własnościami badanych przedmiotów
pytania o zależności między zmiennymi.
Podział na czynną i bierną znajomość metodologii .Cele nauczania metodologii.
Mówiąc o biernej znajomości metodologii mamy na myśli 3 zasadnicze konteksty korzystania z wiedzy metodologicznej dotyczącej standardów prowadzenia badań empirycznych w psychologii (i dyscyplinach pokrewnych):
a) kontekst studiowania, ze zrozumieniem, literatury psychologicznej – czytelnik powinien umieć rozszyfrować specjalistyczne terminy, symbole i wzory. Powinien sobie wyrobić krytyczne sądy na temat zastosowanej przez autora danego artykułu procedury badawczej, narzędzia pomiarowego, techniki doboru próby, zastosowanych testów statystycznych i współczynników korelacji. Nie można przecież polegać tylko na tym co sam o swoim wytworze napisał autor.
b) kontekst poprawnego wykorzystania, w praktyce psychologicznej, rezultatów badawczych zaczerpniętych z literatury przedmiotu – zanim psycholog sięgnie po jakąś koncepcje, winien się wpierw upewnić, czy rzeczywiście zasługuje ona na miano „teorii” i jako taka może stać się podstawą do wykorzystania w rozwiązaniu określonego problemu badawczego, a dopiero potem przystąpić do wyprowadzenia z jej twierdzeń dyrektyw praktycznego działania.
c) kontekst umiejętnego formułowania pytań adresowanych do specjalistów z zakresu metodologii i statystyki – od psychologa – badacza oczekuje się, iż będzie zwracał się on o pomoc do specjalisty – metodologa, psychometry czy statystyka. Gwałtowny rozwój metodologii badań empirycznych uniemożliwia – zwłaszcza psychologowi, który musi śledzić rozwój wiedzy w zakresie swojej specjalizacji – dotrzymywanie kroku specjalistom z zakresu metodologii, którzy tylko nią się profesjonalnie zajmują. Przynosi natomiast ujmę nieujawnianie swojej niewiedzy metodologicznej w obawie przed utratą swoiście pojmowanego prestiżu zawodowego. Aby zadawać pytania niezbędne jest pewne minimalne kompetencje metodologiczne. Chodzi bowiem o wysławianie się w języku zrozumiałym dla specjalisty i chodzi też o to, aby zrozumieć to, co nam specjalista powie.
Czynna znajomość metodologii badań psychologicznych obejmuje cztery konteksty:
a) kontekst prowadzenia własnych badań empirycznych – jest to główny cel wykładu metodologii. To, jaka będzie psychologia jako nauka – zależy przede wszystkim od tego, jaka będzie świadomość metodologiczny społeczności psychologów – badaczy. Idealny psycholog, to taki, który nie tylko zna teorie psychologiczne, umie posłużyć się nimi w procesie diagnostycznym i terapeutycznym, ale także potrafi samodzielnie przeprowadzić badanie empiryczne, w którym poddane będą kontroli empirycznej jego oryginalne pomysły teoretyczne.
b) kontekst integrowania rezultatów badawczych powstałych w różnych pracowniach – znajomość metodologii jest pomocna także wówczas, gdy chcemy dokonać integracji wyników badań tego samego problemu, prowadzonych przez różnych badaczy, w określonym przedziale czasu. Takie zestawienie rezultatów badawczych są ostatnio prowadzone z wykorzystaniem nowoczesnych metod tzw. Meta analizy.
c) kontekst powtarzania (replikacji) badań empirycznych – nie zawsze badanie jest powtarzane ze 100% odtworzeniem oryginalnych warunków. Czasem nowe badanie prowadzone jest ze zmianami scenariusza badania, badacz używa np. bardziej nowoczesnych narzędzi, lub przeprowadzane jest w odmiennych warunkach kulturowych. Zagrożeniem dla pełnej replikowalności badań psychologicznych są takie zmienne, jak: oczekiwania interpersonalne badacza, wskazówki sugerujące osobie badanej treść hipotez badawczych, lęk przed oceną, status motywacyjny osoby badanej, itp.
d) kontekst psychologii badania empirycznego (psychologicznego!) i etyki zachowań badawczych psychologa – osobliwością badań empirycznych prowadzonych przez psychologów jest to, że wchodzą oni, jako badacze, w interakcję z osobami badanymi, co ma poważne konsekwencje metodologiczne (wyniki badań empirycznych mogą się różnić z powtórzenia na powtórzenie) oraz etyczne (nie wszystko, co technicznie wykonalne, możliwe jest do przeprowadzenia, gdyż nie pozwalają na to zasady etyczne). Na badaczu, jako człowieku i członku społeczności psychologicznej spoczywa szczególna odpowiedzialność za to, jak będzie się czuła osoba badana (a zwłaszcza dziecko czy osoba chora), która mu zaufała i zgodziła się wziąć udział w prowadzonych przez niego badaniach.
Cele nauczania metodologii:
metodologia niezbędna jest do zrozumienia naukowych tekstów i procedur zawartych w naukowych publikacjach
nauka samodzielnego zaprojektowania, przeprowadzenia i zinterpretowania wyników badania empirycznego.
Predykcja, postdykcja i retrodykcja.
Czynności związane z faktem szczegółowym
Ich cechą wspólną jest to, że polegają na sformułowaniu zdania będącego zawsze mniej lub bardziej rozbudowaną koniunkcją zdań prostszych, która zawiera warunki początkowe, z których wynika logicznie pewne zdanie atomiczne lub molekularne.
A różnice są takie:
we wszystkich 3 przypadkach zdanie będące następstwem logicznym jest hipotezą nie włączoną jeszcze do odnośnego systemu wiedzy empirycznej E
w przypadku przewidywania odnośne, hipotetyczne następstwo logiczne dotyczy stanu rzeczy, który ma nastąpić później niż chwila, w której dokonano przewidywania
w przypadku postdykcji odnośne, hipotetyczne następstwo logiczne dotyczy stanu wcześniejszego od czasu dokonania postdykcji
w przypadku retrodykcji odnośne, hipotetyczne następstwo logiczne dotyczy stanu rzeczy wcześniejszego zarówno od czasu dokonania retrodykcji, jak i od czasu wystąpienia faktu stwierdzonego przez warunki początkowe.
Predykcja – czynność związana z faktem szczegółowym następstwem logicznym dotyczącym tego, co dopiero ma wystąpić;
Postdykcja – czynność związana z faktem za pomocą następstwa logicznego dotyczącego stanu rzeczy wcześniejszego od czasu dokonania postdykcji, a warunki początkowe dotyczą faktu jeszcze wcześniejszego;
Retrodykcja – tu hipotetyczne następstwo logiczne dotyczy stanu rzeczy wcześniejszego zarówno od czasu dokonania retrodykcji, jak i od stanu początkowego.
Pojęcie i podst. odmiany modelu wielokrotnej regresji MR.
Model MR – najczęściej stosowany w psychologii, jest wielozmiennowym modelem statystycznym, którego głównym warunkiem jest, aby zmienne niezależne były mierzone przynajmniej na poziomie interwałowym. Polega na mierzeniu przynajmniej dwóch zmiennych (zależnej i niezależnej), a następnie sprawdzaniu, czy zachodzi pomiędzy nimi jakaś zależność, a jeśli tak, to jaki ona ma kierunek i natężenie.
Podstawowe odmiany MR:
ze względu na ilość zmiennych niezależnych (lub zależnych)
- odmiana jednozmiennowa
- odmiana wielozmiennowa
ze względu na złożoność operacjonalizacji
- operacjonalizacja prosta
operacjonalizacja wielowymiarowa
ze względu na zależności między zmiennymi X i Y:
- odmiana liniowa
- odmiana krzywoliniowa.
Odmiany modelu MR ze względu na sposób operacjonalizacji i ilość zmiennych zależnych:
Odmiana jedno-jednozmiennowa – zmienna zależna jest jednowymiarowa (prosta operacjonalizacja jeśli dla N-osobowej grupy uzyska się wektor wyników o wymiarach N∙1), występuje jedna zmienna niezależna;
Odmiana jedno-wielozmiennowa – zmienna zależna jest jednowymiarowa, zmiennych niezależnych jest wiele;
Odmiana wielo-jednozmiennowa – zmienna zależna jest wielowymiarowa (operacjonalizacja za pomocą wielu kryteriów macierz wyników N∙r [r- liczba zastosowanych przez badacza kryteriów, czyli np. ilość skal w teście]), występuje jedna zmienna niezależna;
Odmiana wielo-wielozmiennowa – zmienna zależna jest wielowymiarowa, zmiennych niezależnych jest wiele.
Odmiany modelu MR ze względu na postać zależności, wiążącej Y ze zmiennymi dla niej istotnymi:
Odmiana liniowa
Odmiana krzywoliniowa – tą w psychologii stosuje się bardzo, bardzo rzadko
Model liniowy jedno-jednozmiennowy – model ten opiera się na równaniu regresji liniowej (ze statystyki), na podstawie którego wyznacza się linię najmniejszych kwadratów. Następnie oblicza się współczynnik korelacji r-Pearsona, którego użycie jest uzasadnione, kiedy:
Zależność między zmiennymi jest liniowa
Rozkłady obu zmiennych są symetryczne (jeśli są skośne, ważne jest, aby oba były albo lewoskośne, albo prawoskośne)
Jeżeli linia kwadratów idealnie pokrywa się z punktami, oznaczającymi wyniki osób badanych, wówczas współczynnik korelacji r =1. Ponadto wyniki surowe często (zwłaszcza w przypadku modeli wielozmiennowych) są wyrażone za pomocą różnych skal i trzeba je wystandaryzować . Dlatego określa się wagę beta – standaryzowany współczynnik regresji, która mówi, o ile zmieni się Y wskutek standaryzowanej zmiany zmiennej X. Kolejno testuje się istotność współczynnika r przez testowanie H0 przeciwko H1 testem t. H0 odrzuca się na rzecz H1, gdy t≥tα,df.
Maksymalne uproszczenie: regresja, korelacja, standaryzacja i test t.
Model liniowy jedno-wielozmiennowy – rozpatrywana jest zależność zmiennej Y od wielu (2 i więcej) zmiennych niezależnych. Tu również zastosowanie ma równanie regresji liniowej, ale dla 2 lub 3 zmiennych (gdy zmiennych jest więcej, trzeba liczyć programami komputerowymi); uzyskuje się geometryczny model równania dzięki metodzie najmniejszych kwadratów i jest nim płaszczyzna leżąca w przestrzeni trójwymiarowej. Odbywa się standaryzacja zmiennych, liczy się wagę, stosuje się współczynnik korelacji wielokrotnej, za pomocą którego określa się siłę związku między Y i X-ami (traktowanymi łącznie). Skoro X-y traktuje się łącznie, to współczynnik korelacji mówi o łącznym wyjaśnianiu wariancji przez te zmienne. Badacz jednakże najczęściej jest zainteresowany udziałem każdej zmiennej w wyjaśnianiu wariancji, wobec tego musi zastosować współczynnik determinacji semicząstkowej (wzór na 359) dla jednej zmiennej X, a dla drugiej X współczynnik determinacji cząstkowej. Kolejno testuje się istotność współczynników determinacji.
Przekształcenia homorficzne i izomorficzne.
Potrzebne, gdy chcemy przekształcić wartości danej zmiennej w wartości skali narzędzia pomiarowego
Homomorficzność – gdy każdemu elementowi ze zbioru A jest przyporządkowany jeden lub więcej elementów ze zbioru B;
Izomorficzność – gdy każdemu elementowi ze zbioru A jest przyporządkowany jeden i tylko jeden element ze zbioru B.
Realizm życiowy i realizm psychologiczny.
Idealny eksperyment to taki, w którym psycholog kontroluje wszystkie wpływy, jakim podlega osoba badana. Rzecz jasna idealne eksperymenty istnieją tylko w wyobraźni badacza. W rzeczywistości musi on dokonywać wyborów kompromisowych. Badacz często musi wybierać miedzy kontrolą, a wiernością imitacji warunków życiowych przez warunki stworzone przez badacza w laboratorium psychologiczny. Każdy eksperyment może być realistyczny dwojako:
- można na niego patrzeć pod kątem jego podobieństwa do sytuacji, którą wymyśla życie. REALIZM ŻYCIOWY
- eksperyment, jak dobry film, powinien wciągać osobę badaną. Powinna ona wczuć się w swoją rolę, tak jakby rzeczywiście była strażnikiem czy więźniem. Identyfikowanie się osoby badanej z narzuconą, jej, przez scenariusz badania eksperymentalnego, rolą oraz utożsamianie warunków eksperymentalnych z warunkami życiowymi, określa REALIZM PSYCHOLOGICZNY
Należy jednak zwracać uwagę na konsekwencje etyczne.
Pojęcie planu eksperymentalnego.
Określony schemat, wg którego prowadzi się postępowanie badawcze w modelu E
Wystandaryzowany sposób postępowania badawczego, a także określony sposób postępowania w zakresie analizy statystycznej danych eksperymentalnych
Zgodnie z planem eksperymentalnym psycholog:
rozdziela osoby badane do co najmniej 2 grup porównawczych: eksperymentalnej i kontrolnej, stosując się do zasady randomizacji (czyli manipuluje co najmniej jedną zmienną niezależną-główną)
dokonuje pomiarów zmiennej zależnej Y(pretesty Y i posttesty Y)
kontroluje zmienne niezależne – uboczne i zakłócające.
Rodzaje planów eksperymentalnych.
Plan z grupą kontrolną, pomiarem początkowym i końcowym – manipulacja jedną zmienną niezależną dwuwartościową, bez kontroli pozostałych zmiennych niezależnych
Plan z grupą kontrolną, bez pomiaru początkowego - manipulacja jedną zmienną niezależną dwuwartościową, z kontrolą pozostałych zmiennych niezależnych
Plan czterogrupowy Solomona - manipulacja jedną zmienną niezależną dwuwartościową, z kontrolą pozostałych zmiennych niezależnych (w dwóch grupach z pomiarem początkowym, z dwóch – bez)
Plany zwielokrotnione z grupą kontrolną, z pomiarem początkowym lub bez niego – jak w planie 1 i 2
Plany jednoczynnikowe – manipulacja dowolną liczbą zmiennych niezależnych wielowartościowych, z kontrolą pozostałych zmiennych niezależnych
Plan wieloczynnikowy – j.w, w tym: plan trzyczynnikowy (kwadrat łaciński) i czteroczynnikowy (kwadrat grecko-łaciński)
Plan badawczy – wystandaryzowany sposób postępowania w zakresie analizy statystycznej danych (tu: eksperymentalnych)
Oznaczenia:
X – zmienna niezależna-główna o wartości 1 – postępowanie eksperymentalne
~X – zmienna niezależna-główna o wartości 0 – nie oddziałuje na Y, grupa kontrolna
Y – zmienna zależna
Yp –pomiar początkowy zmiennej zależnej (pretest)
Yk – pomiar końcowy zmiennej zależnej (posttest)
R – randomizacja
Plany jedno-jednozmiennowe = dwuwartościowe = dychotomiczne (0-1)
Graficzny schemat | Przebieg badania | Warunki potwierdzenia hipotezy badawczej | Kontrola czynników zakłócających trafność wew. i zew. planu | Zastosowania planu | ||
Plan z grupą kontrolną, z pomiarem początkowym i końcowym zmiennej zależnej 1. |
Grupa 1 | Grupa 2 | - pretest w obu grupach - wprowadzenie do grupy eksperymentalnej zmiennej X, do kontrolnej ~X - posttest |
- warunek wstępny (grupy „startują” z tego samego poziomu) Y1p= Y1k (wg mnie w Brzeziu jest błąd i powinno być Y1p= Y2p) - Y1k> Y2k - Y2k= Y2p 2 ostatnie, jeżeli nie zakładamy, że w grupie kontrolnej także powinny wystąpić zmiany |
- kontrola czynników zakłócających trafność istnieje dzięki randomizacji oraz przeprowadzeniu pretestu i posttestu - jeżeli wystąpi interakcja pretestu Y z postępowaniem eksperymentalnym X, dojdzie do zakłócenia trafności zew-należy zrezygnować z modelu. |
Podstawowy plan E – wchodzi w skład bardziej rozbudowanych planów. Zawodzi, gdy badacz stosuje metody, wprowadzające efekt pretestu (dodatkowe niekontrolowane źródło wariancji Y) |
R Y1p X Y1k |
R Y2p ~X Y2k |
|||||
Plan z grupą kontrolną, bez pomiaru początkowego zmiennej zależnej 2. |
Grupa 1 | Grupa 2 | - wprowadzenie X do grupy eksperymentalnej - posttest Y w obu grupach |
- potwierdzona, jeżeli Y1k> Y2k |
- wyeliminowane przez randomizację, jeśli grupa jest liczna oraz przez rezygnację z uwrażliwiającego wpływu na badanych pretestu Y | k |
R X Y1k |
R ~X Y2k |
|||||
Plan z pomiarem początkowym i końcowym zmiennej zależnej w różnych grupach 3. |
Grupa 1 | Grupa 2 | - pretest Y w grupie kontrolnej - X i ~X - posttest Y w grupie eksperymentalnej |
Potwierdzona, jeżeli Y2k>Y2p |
- randomizacja zapewnia kontrolę czynnika selekcji - wpływ czynnika dojrzewania i historii wpływa na obniżenie trafności wew. |
- dobry, gdy okoliczności nie pozwalają na równoległą obserwację grup i przeprowadzenie na tej podstawie pre i posttestu - w wersji qE wykorzystywany w badaniach edukacyjnych |
R X Y1k |
R Y2p ~X |
Plan czterogrupowy Solomona 4. |
G1-E | G2-K | G3-E | G4-K | - pretest w G1 i G2 - X do G1 i G3, ~X do G2 i G4 - posttest we wszystkich gupach |
- sposób elementarny Należy przeprowadzić porównania: Y1k> Y2k Y3k> Y4k Y1p= Y2p D1>D2, czyli: (Y1k- Y1p )>(Y2k- Y2p) Aby kontrolować efekt pretestu: Y1k= Y3k oraz Y2k= Y4k Jeśli w kontrolnej nie powinny wystąpić zmiany, to dodatkowo: Y4k= Y1p oraz Y4k= Y2p - sposób zaawansowany (ANOVA) str.329-330 |
Pozwala kontrolować wszystkie czynniki zakłócające trafność wew.i zew. , a zwłaszcza wpływ testowania | Szczególnie w badaniach nad efektywnością psychoterapii, nad zmiana postaw i opinii, w badaniach edukacyjnych i nad rozwojem Str 330-331, jak kto chce przeczytać szczegóły wykorzystania planu do zmiany postaw |
|
R Y1p X Y1k |
R Y2p ~X Y2k |
R X Y3k |
R ~X Y4k |
||||||
Plan trzygrupowy, z podwojonym pomiarem początkowym i jednym pomiarem końcowym zmiennej zależnej 5. |
G1- E | G2-K | G3-K | - pretest w G3 - pretest w G2 - X i ~X -posttest w G1 -równe odstępy czasu między: Y3p i Y2p Y2p i Y1k |
- potwierdzona, jeśli: Y1k> Y2p Y1k> Y3p Y2p= Y3p - jeśli nie zadziałał czynnik dojrzewania, to: (Y1k- Y2p )>(Y2p- Y3p) Jeśli relacja nie zachodzi, mógł zadziałać czynnik dojrzewania |
- podobna do planu nr 3., jednakże tutaj specjalnej kontroli podlega czynnik dojrzewania | Gdy chcemy się dowiedzieć, czy nie zadziałał czynnik dojrzewania i do badań edukacyjnych. | ||
R X Y1k |
R Y2p ~X |
R Y3p X |
Plan czterogrupowy, z pomiarem początkowym i końcowym zmiennej zależnej w różnych grupach 6. |
G1-E1 | G2-K1 | G3-E2 | G4-K2 | -podwojenie planu 3 - pretest w G2 - X do G1 i ~X do G2 -pomiar końcowy q G1 i pretest w G4 - X i ~X - końcowy w G3 |
-potwierdzona, jeśli: Y1k>Y2p oraz Y3k>Y4p Jeśli nie zadziałał czynnik historii, to: (Y1k-Y2p) większa lub mniejsza od (Y3k-Y4p) |
Aby wykluczyć wystąpienie czynnika historii | W badaniach edukacyjnych i socjologicznych, prowadzonych w warunkach braku stabilności społecznej i politycznej, gdy wydarzenia zew.mogą mieć wpływ na odbiór eksperymentu | |
R X Y1k |
R Y2p ~X |
R X Y3k |
R Y4p ~X |
Ograniczenia planów 0-1
Jedno badanie-jedna zmienna 0-1
Niemożność testowania hipotez o wpływie na zmienną zależną interakcji między zmiennymi niezależnymi
Konieczność badania wpływu na Y tylko zmiennych dwuwartościowych
Testowanie wyłącznie zależności liniowych między zmiennymi X i Y
Plany jedno-wielozmiennowe = wielowartościowe oparte na procedurze statystycznej ANOVA. Pozwalają:
badać wpływ na Y dowolnej liczby zmiennych niezależnych
badać wpływ na Y interakcji zmiennych niezależnych, co pozwala rozbić efekt ich interakcji na efekty proste; otrzymujemy precyzyjna informację o wpływie na Y jednej zmiennej niezależnej
badać wpływ na Y zmiennych, które mogą być wielowartościowe, ale nie ciągłe; wielowartościowe zmienne muszą być sprowadzone do zmiennych dyskretnych (podzielone na interwały co n)
badać zależności nie tylko liniowe, ale i krzywoliniowe
badać dynamikę zmian Y pod wpływem wielokrotnego stosowania postępowania eksperymentalnego na tej samej grupie
by zastosować ANOVA, trzeba spełnić warunki:
normalność rozkładów zmiennej zależnej Y w porównywanych populacjach
homogeniczność wariancji rozkładów zmiennej zależnej w porównywanych populacjach
plany wielo-wielozmiennowe = MANOVA – pozwalają badać wiele zmiennych zależnych.
Pojęcie dziedziny języka, modelu semantycznego i standardowego języka.
(a) Dziedzina przyporządkowana językowi J przez reguły S [DS(J)] – taki system relacyjny, którego:
– uniwersum jest identyczne z uniwersum ustalonym dla J
– charakterystyka obejmuje wszystkie denotacje terminów pierwotnych.
(b) Model semantyczny języka J – każda i tylko taka DS(J), w której prawdziwe są wszystkie tezy J, czyli: tautologie logiczne, aksjomaty pozalogiczne oraz ich konsekwencje
(c) Model standardowy języka S:
Standardowy model (empiryczny) MS języka J (z uwagi na wiedzę W) – taki jego model semantyczny, który spełnia następujące warunki:
1) jego uniwersum ma charakter fizykalny (elementy posiadają charakterystykę czasoprzestrzenną)
2) imiona własne posiadają standardowe (ustalone) denotacje
3) prawdziwe są w nim wszystkie zdania należące do W.
(d) Wiedza W
• Stanowi relatywny układ odniesienia
• Zawiera:
– wszystkie zdania analityczne analityczne (przede wszystkim tezy, czyli aksjomaty logiczne [tautologie] i pozalogiczne) języka J
– niektóre zdania syntetyczne syntetyczne (nieanalityczne i niekontradyktoryczne), a także ich konsekwencje
• Zdania analityczne a tezy języka J – zagadnienie zupełności systemów aksjomatycznych.
Pojęcie i funkcje normalizacji testu psychologicznego.
Normalizacja – procedura znajdywania funkcji pozwalającej na przekształcanie wyników surowych w teście na wyniki w jednej lub kilku skalach standardowych, może polegać na obliczaniu średnich, odchyleń standardowych dla różnych grup lub na transformacji wyników surowych na wyniki skal standardowych (stenowa, centylowa, tenowa, staninowa).
Funkcją normalizacji jest umożliwienie zorientowania się co do miejsca badanej osoby w grupie lub porównywanie wyników różnych testów.
Moc predykatywna predykatorów teoretycznych.
Moc predykatywna jest warunkiem sprawdzalności i niezbędności hipotez zawierających predykaty teoretyczne. Wiąże się z pojęciem przewidywania. W mocy predykatywnej chodzi o to, by znaleźć takie predykaty obserwacyjne, które gwarantują, że jeśli dana osoba znajdzie się w sytuacji S i wystąpią u niej cechy (zachowania) określone przez predykaty obserwacyjne U (warunki początkowe), to znaczy, że przejawia ona cechę (zachowanie) określone przez predykat teoretyczny T. Jednak warunki początkowe nie mogą być równoznaczne z predykatem teoretycznym, musi on oznaczać „coś więcej”.
Pojęcie dyskryminatywności narzędzia badawczego.
O narzędziu można powiedzieć, że jest bardziej dyskryminatywne od drugiego narzędzia ze względu na zmienną wtedy i tylko wtedy, gdy dla większej liczby klas abstrakcji [składających się na N/ niż na A^ spełniony jest warunek: Nt jest podzbiorem właściwym N',] z jednego zbioru są podzbiorem drugiego. Narzędzie idealne cechuje maksymalna dyskryminatywność oraz idealny zakres pomiarowy. Dla każdej zmiennej istnieje narzędzie o idealnym zakresie pomiarowym , a więc o idealnej dyskryminatywności.
Przykładem nieidealnego narzędzia jest Skala Inteligencji Wechslera – nie można tam zmierzyć inteligencji osób bardzo upośledzonych albo osób, których inteligencja przekracza maksymalną wartość skali narzędzia.
Zagadnienie jednoznaczności reprezentacji jako jednego z podstawowych problemów teorii pomiaru .
O zagadnieniu jednoznaczności pisał np. Coombs. Zagadnienie jednoznaczności – ujawnia się po rozwiązaniu zagadnienia istnienia reprezentacji a więc po udowodnieniu istnienia i zbudowaniu odpowiedniej skali. Zagadnienie jednoznaczności odpowiada na pytanie, jak wiele swobody w przypisywaniu przedmiotom liczb pozostawia dobrana procedura pomiaru, a więc czy są one jednoznaczne, czy też dowolnie dobierane. Dopuszczalne są przekształcenia zachowujące reprezentowanie systemu empirycznego przez system formalny. Przekształcenia dopuszczalne nie zmieniają wartości logicznej zdań zawierających wartości liczbowe.
Zbiór wszystkich dopuszczalnych przekształceń określa typ skali (skale wg Stevensa).
OIOB – Oczekiwania Interpersonalne Osoby Badanej. (formułowane pod adresem badacza)
- Odwrócenie OIB
Wpływają na kształt zachowania badacza i przebieg samego badania (efekt Galatei Golemana)
Polegają na tym, że osoba badana konfrontuje informacje przedbadawcze (a więc swoje uprzednie doświadczenia z psychologami, wiedzę o instytucji, w dla której pracuje psycholog, obiegowe sądy na temat badań psychologicznych) z informacjami dotyczącymi samego badania (jego celu i hipotez, które osoba badana sama sobie formułuje).
Potem, na podstawie owych informacji i samooceny tych części osobowości, które jej zdaniem mają być badane, oraz z ewentualnych konsekwencji dla niej samej, wytwarza się u niej mniejszy lub większy lęk przed oceną LPO i chęć przekonania badacza do własnych hipotez.
Nomologiczno-dedukcyjny model wyjaśniania.
W modelu nomologiczno-dedukcyjnym wyjaśnia się zdarzenie poprzez wykazanie, że zdania stwierdzające zajście tego zdarzenia wynikają z pewnych zdań ogólnych i ze zdań stwierdzających zajście zdarzeń opisanych przez poprzedniki tych zdań ogólnych. W modelu tym wyróżniamy następujące zmienne:
1)ekspalanandum – zmienna wyjaśniana (odpowiednik zmiennej zależnej Y), czyli twierdzenie lub zbiór twierdzeń opisujących zdarzenie lub stan rzeczy, który chcemy wyjaśnić;
2) ekspanans – zmienna wyjaśniająca (odpowiednik zmiennej X), to zespół twierdzeń wyjaśniających własność lub zdarzenie opisane w eksplanandum, zmienna ta powinna składać się z dwóch rodzajów twierdzeń:
ze zdań ogólnych mających kształt okresu warunkowego, w których następnikiem jest zdanie stwierdzające zajście zdarzenia opisanego w eksplanandum;
z pewnych zdań jednostkowych stwierdzających, iż zaszły zdarzenia oznaczone poprzednik zdań ogólnych.
Idealizacyjna koncepcja operacjonalizacji. Etapy operacjonalizacji wg Hornowskiej. ( 103 pdf B )
Koncepcja ta nawiązuje do idealizacyjnej teorii nauki
Operacjonalizacja – procedura konstruowania sensu empirycznego terminów teoretycznych, która ma umożliwić badaczowi odpowiedzi na pytania:
Do jakich aspektów świata rzeczywistego odnosi się problem badawczy?
Jak dalece wybrane wielkości i istniejące między nimi powiązania dostępne są obserwacji?
W jakim zakresie wybrane przez badacza obserwacje dostarczą mu informacji o wyjściowym problemie badawczym?
Operacjonalizacja sprowadza się do zastępowania jednych pojęć innymi:
konstruowanie obrazu (wielkości) zmiennej teoretycznej (czynnika)
dobieranie do niego wskaźników (zmiennej, jako zoperacjonalizowanego obrazu wielkości)
Czynnik – pojęcie o charakterze ontologicznym, które odnosi się do opisywanej przez badacza rzeczywistości; mówi o tym, jaka jest badana rzeczywistość. Rodzina klas abstrakcji od relacji równościowej określonej w zbiorze obiektów U – czynnik nominalny. Jeśli rodzina ta uporządkowana jest przez relację generalnego uporządkowania – czynnik porządkowy. Czynnik = zmienna teoretyczna w rozumieniu Brzezińskiego
Wielkość (obraz zmiennej teoretycznej) – pojęcie epistemologiczne, zdaje sprawę z tego, w jaki sposób badacz postrzega rzeczywistość, którą analizuje. Obraz czynnika ustalonym na gruncie określonej wiedzy badacza
Zmienna (wskaźnik) – przyjęty przez badacza sposób przejawiania się wielkości na poziomie manifestacji (obserwacji)
Etapy operacjonalizacji:
1) Rekonstrukcja czynnika teoretycznego; konstrukcja wielkości (obrazu czynnika)
2) Konceptualizacja wielkości, dobieranie wskaźników; konstruowanie zmiennej, konstruowanie indeksu – zagregowanej miary, utworzonej z dwóch i więcej wskaźników, wielkości3) dobór narzędzia pomiarowego i pomiar zmiennej.
Proces badawczy jako analiza wariancji.
Proces badawczy to całokształt czynności służących wysunięciu i sprawdzeniu hipotezy o rodzaju zależności zachodzącej miedzy zmiennymi (a więc pytania / hipotezy kierunkowe). Wariancja jest miarą zróżnicowania, wyróżniamy wariancje: międzygrupową, wewnętrzgrupową, całkowitą. Kowariancja jest miarą zasobu zmienności wspólnej.
Kontrola zmienności – to kontrola zróżnicowania zmiennej Y wyjaśnianego (przewidywanego) przez zróżnicowanie zmiennej X. Kontrola ta może być mierzona przez: wielkość wariancji międzygrupowej lub zasób zmienności wspólnej.
W zależności od przyjętego modelu za punkt wyjścia można przyjąć:
kowariancję – w badaniu korelacyjnym
wariancję zmiennej X – w badaniach eksperymentalnych i quasi-eksperymentalnych
wariancje zmiennej Y – w badaniu EPF.
Podstawowe typy relacji.
Relacja dwuczłonowa między przedmiotami indywidualnymi – zbiór uporządkowanych par obiektów indywidualnych spełniających pewien predykat dwuargumentowy; między przedmiotem +alfa+ oraz przedmiotem +beta+ zachodzi relacja dwuczłonowa f wtedy i tylko wtedy, gdy para uporządkowana <+alfa+, +beta+> spełnia dwuargumentowy predykat „f (x, y)”. Przykład:
Między Kochanowskim i Horacym zachodzi relacja wzorowania się (na), gdyż para uporządkowana <Kochanowski, Horacy> spełnia dwuargumentowy predykat „x wzorował się na y”. Relacje mogą być dwuczłonowe, trójczłonowe, czteroczłonowe itd. Relacje pierwszego rzędu – relacje między przedmiotami indywidualnymi. Relacje wyższego rzędu – relacje między zbiorami lub relacje między relacjami.
Rodzaje relacji:
a) zwrotna: R jest relacją zwrotną w zbiorze X, gdy każdy element zbioru X pozostaje w relacji R do siebie samego (np. relacja bycia rówieśnikiem – każdy człowiek jest swoim rówieśnikiem)
b) przeciwzwrotna: gdy żaden element zbioru X nie pozostaje w relacji R do siebie samego (np. relacja „bycia wyższym od”)
c) niezwrotna: gdy nie każdy element zbioru X pozostaje w relacji R do siebie samego – ale niektóre pozostają (np. relacja oceny postępowania – ktoś ocenia swoje postępowanie, ktoś inny nie)
d) symetryczna: relacja R jest symetryczna w zbiorze X wtedy i tylko wtedy, gdy zachodząc między dowolnymi elementami tego zbioru x i y , zachodzi także między y i x. Np. relacja bycia rówieśnikiem, relacja pokrewieństwa.
e) przeciwsymetryczna: gdy relacja R zachodzi między elementami x i y, ale nie zachodzi nigdy między y i x. Np. relacja starszeństwa (gdy x jest starszy od y, to y nigdy nie jest starszy od x)
f) niesymetryczna: R jest relacją niesymetryczną, wtedy i tylko wte
g) przechodnia: jeśli relacja R zachodzi między elementami x i y oraz y i z, to zachodzi również między x i z.
h) spójna (w zbiorze X): zachodzi między wszystkimi elementami zbioru X
i) relacja R jest funkcją określoną na zbiorze X i biorącą wartości ze zbioru Y wtedy i tylko wtedy, gdy każdemu elementowi ze zbioru X odpowiada – z uwagi na tę relację – jeden i tylko jeden element ze zbioru Y. Oznacza się ją: F(x) = y. Np. funkcja określona na zbiorze dzieł literackich o jednym autorze i biorąca wartości ze zbioru autorów: F(„Lalka”) = Bolesław Prus.
j) konwers relacji: „odwrotność” relacji – np. relacja starszeństwa jest konwersem relacji bycia młodszym, relacja mniejszości jest konwersem relacji większości itd.
k) funkcja jedno-jednoznaczna określona na zbiorze X i biorąca wartości ze zbioru Y: wtedy i tylko wtedy, gdy R jest funkcją określoną na X i biorącą wartości ze zbioru Y, oraz jej konwers jest funkcją określoną na Y i biorącą wartości z X.
Paradygmaty w naukach społecznych.
Paradygmat („miejsce, z którego się patrzy”) - to fundamentalny model czy układ odniesienia, który służy do porządkowania obserwacji i rozumowania, zwykle głęboko ukryte, zakładane z góry za oczywiste („tak już po prostu jest”) W naukach społecznych wyróżniamy następujące paradygmaty:
wczesny pozytywizm – społeczeństwo można badać w sposób naukowy
darwinizm społeczny – przetrwają najlepiej przystosowani
paradygmat konfliktu – Marks, zachowania społeczne jako ciągła walka o dominację
symboliczny interakcjonizm – Mead, interakcje dzięki użyciu języka i systemów symbolicznych
etnometodologia – Garfinkel, każdy człowiek „badaczem”, jego zachowanie efektem norm społecznych
funkcjonalizm strukturalny – teoria systemów społecznych, byt społeczny traktowany jako organizm
paradygmaty feministyczne – różnice miedzy płciami
racjonalna obiektywność – i odróżnianie jej od doświadczenia subiektywnego.
Co to jest nauka - omów stanowiska.
(a) Brzeziński, Ajdukiewicz
rzemiosło uczonych, czyli ogół czynności wykonywanych przez uczonych jako takich
wytwór tych czynności, więc system twierdzeń, do których uznania doszyli uczeni w swym dążeniu do poznania rzeczywistości
(b) Kmita
odnoszony jest on do określonego systemu czynności badawczych- „praktyka badawcza”
odnoszony jest do odpowiedniego zbioru założeń badań naukowych oraz ich rezultatów wyrażonych w postaci zdań – „nauka”
(c) Frankfort – Nachmias
Nauka to całokształt wiedzy osiąganej za pomocą metodologii naukowej. Nie odnosi się do jakiejś ogólnej lub konkretnej wiedzy, lecz do odmiennej metodologii. Odrzucenie przez naukowców jakiejś dziedziny wiedzy, oparte jest zawsze na przesłankach metodologicznych. - Sama nauka ciągle się zmienia – wiedza dzisiaj uznawana za naukową jutro może okazać się nie naukowa.
Podejście naukowe opiera się na zbiorze założeń, które nie są dowiedzione i których się nie dowodzi. Są to warunki wstępne konieczne do prowadzenia naukowej dysputy.
(d) Madsen
Nauka – termin obejmujący zarówno nauki przyrodnicze, jak i nauki humanistyczne i społeczne.
Termin ten odnosi się zarówno do procesu lub działalności jak i do rezultatów tej działalności. Ta działalność to tzw. zachowania badawcze (eksploracyjne). Symboliczne zachowanie eksploracyjne, które łączą się ze stosowaniem systemów symboli w postaci języka oraz symboli matematycznych i innych to zachowanie epistemiczne. Motywowane jest ono ciekawością.
Badanie naukowe to rodzaj zachowania nastawionego na poszukiwanie informacji, czyli zachowanie epistemiczne. Aby takie zachowanie mogło być uznane za naukowe musi podlegać pewnym regułom, które mnogą się różnić w zespołach badawczych a nawet stać ze sobą w konflikcie, ale zasadniczym elementem ich jest definicja właściwości, którymi musi odznaczać się zachowanie epistemiczne. Gdy wprowadzane są nowe reguły wywołuje to „rewolucje naukową”.
Budowa/konstrukcje predykatów teoretycznych.
Predykat teoretyczny – to jaki rodzaj terminu deskryptywnego, który denotuje cechy lub relacje niemożliwe do bezpośredniego zaobserwowania, zgodnie z warunkiem intersubiektywności. Wyróżniamy dwa rodzaje predykatów:
I-szego rzędu – np. „x jest ekstrawertykiem”, „x doznaje uczucia strachu”.
wyższych rzędów – odwołują się do przekształceń i terminów abstrakcyjnych, jak „osobowość”, „społeczeństwo”.
Aby predykat teoretyczny był sprawdzalny, musi posiadać moc predyktywną, a więc musi być powiązanych z predykatami obserwacyjnymi (np. „x się poci”, „x wykonuje szybkie ruchy”).
Zasady doboru próby.
Wyróżniamy 3 sposoby doboru próby:
dobór celowy (próba kwotowa) – to dobór polegający na celowym wybieraniu osób do próby, albo samodzielnie, albo bazując na opiniach ekspertów; np. dobór osób chorych na konkretne zaburzenie psychicznie z populacji wszystkich pacjentów kliniki. Nie jest to jednak próba reprezentacyjna, co oznacza, że wyników badań nie można odnosić do populacji.
dobór ochotników – jest bardziej „losowy” od doboru celowego, ale także nie spełnia wymogów reprezentacyjności próby. Ochotnicy mogą różnić się od ogółu populacji np. strukturą osobowości (bo dlaczego akurat oni przeczytali nasze ogłoszenie i mieli ochotę przyjść??), co oznacza, że w tym przypadku wnioski także należy wyprowadzać z największą ostrożnością.
dobór losowy – jest oczywiście najlepszy, a także niezbyt trudny do zastosowania (wg Brzezińskiego). Polega na ustaleniu operatu losowania, czyli spisu wszystkich jednostek populacji (populacją może być Polska, miasto Bytom, dzielnica Nikiszowiec, klasa Va, itp.). Potem ustalamy liczbę k (oczywiście odpowiednią do operatu) i losujemy z operatu co k-tą jednostkę - osobę do próby. Należy też dodać, że jednostką losowania nie musi być pojedyncza osoba, możemy np. wylosować do badań co k-tą klasę ze wszystkich szkół na Śląsku. – wysoka trafność zewnętrzna
Pozametodologiczne wyznaczniki przebiegu procesu badawczego.
(a) kontekst interakcji: badacz – osoba badana
Psychologiczny charakter badania, którego wyrazem jest zachodząca pomiędzy obydwoma przedmiotami tego badania, badaczem-psychologiem i osobą badaną, interakcja; do najważniejszych czynników kontekstu tej interakcji należą:
oczekiwania badacza
zmienne sugerujące hipotezę badawczą
lęk przed oceną
status motywacyjny osoby badanej
aprobata społeczna.
(b) kontekst interakcji: badacz –instytucja społeczna
Badacz na ogół nie ma wpływu, jak wyniki jego projektu zostaną odczytane przez praktyków, jaki zostanie nadany mu sens praktyczny, co w nim interesującego dostrzeże praktyk i jakim podda go zabiegom adaptacyjnym
Niebezpieczeństwo związane z bezpośrednim uzależnieniem badacza od danej instytucji społecznej, z prowadzeniem badań pod jej dyktando (sfałszowanie badań, pominięcie trudności metodologicznych i ograniczeń interpretacyjnych projektu)
Instytucja może też potrzebować naukowego uzasadnienia swojej – niekoniecznie moralnie czystej – działalności.
Wyjaśnianie i wyjaśnienie. Wyjaśnienie a wynikanie.
3 warunki wyjaśniania faktów szczegółowych:
1) dane empiryczne potwierdzające eksplanandum muszą być inne od potwierdzających eksplanans
2) w eksplanansie musi występować w sposób istotny co najmniej jedno prawo
3) w eksplanansie oprócz prawa muszą występować tzw. założenia początkowe, tj. przynajmniej jedno zdanie atomiczne lub molekularne.
Bez spełnienia warunku 1) – wyjaśnienie ad hoc (BŁĄD)
Od wyjaśniania faktów szczegółowych należy odróżnić: przewidywanie, postdykcję, retrodykcję.
Rodzaje wyjaśniania faktów szczegółowych:
1) wyjaśnianie przyczynowe – w eksplanansie prócz warunków początkowych występują wyłącznie prawa przyczynowe
2) proste wyjaśnianie genetyczne – charakteryzuje się tym, że:
a) warunki początkowe zachodzące w eksplanansie stwierdzają zachodzenie jednej lub kilku serii wydarzeń lub procesów uporządkowanych czasowo w ramach jednej serii, przy czym proces lub wydarzenie A, bezpośrednio poprzedzające w ramach danej serii wydarzenie lub proces B, stanowi warunek niezbędny B
b) prócz tych warunków początkowych wstępują w eksplanansie wyłącznie prawa następstwa czasowego i przyczynowe lub prawa następstwa czasowego, przyczynowe i prawa funkcjonalne (w tym drugim przypadku – wyjaśnianie funkcjonalno-genetyczne)
3) wyjaśnianie funkcjonalno-genetyczne
4) wyjaśnianie funkcjonalne
5) interpretacja humanistyczna
Wynikanie
Ze zdania Z w języku J wynika w tym języku zdanie Z’ tego języka wtedy i tylko wtedy, gdy zdanie Z’ jest inferencyjną konsekwencją aksjomatów (ogólnie – tez) języka J oraz zdania Z, a zatem – gdy okres warunkowy „Jeśli Z, to Z’ ” jest tezą języka J. - a więc chodzi tu o reguły dedukcyjne języka.
Postępowanie badawcze i postępowanie diagnostyczne -podobieństwa i różnice.
Etap | Postępowanie badawcze | Postępowanie diagnostyczne |
Konceptualizacja | Rozpoznanie i zwerbalizowanie problemu badawczego, sformułowanie wstępnej hipotezy, tu może być także ukazanie okoliczności podjęcia problemu | Wstępne rozpoznanie i ocena problemy, zwykle nieprawidłowości, uzasadnienie podjęcia problemu, wskazanie standardów, do którego będzie porównywany przedmiot postępowania |
Konkretyzacja | Umiejscowienie problemu i hipotezy w jakimś kontekście teoretycznym, określenie założeń i sformułowanie hipotez szczegółowych | Sformułowanie pytań i hipotez szczegółowych, dotyczących genezy i mechanizmu zjawiska z uwzględnieniem zakresu wniosków |
Operacjonalizacja | Określenie kryteriów empirycznej stosowalności i ilościowego ujmowania dla terminów nieobserwacyjnych (jako zmiennych) zawartych w hipotezach szczegółowych | Zaplanowanie (lub wybór odpowiedniego wzoru) postępowania oraz dobór odpowiednich metod |
Konfrontacja | Wybór modeli gromadzenia doświadczenia z treścią implikacji empirycznych hipotez i modeli analizy danych (zastosowanie modeli statystycznych) | Zebranie danych i analiza wyników w kontekście ich zgodności z postawionymi hipotezami |
Aplikacja | Sformułowanie wniosków na temat prawdziwości sprawdzanych hipotez oraz wskazanie dopuszczalnego zakresu odniesienia rezultatów badań do: - przyjętych założeń i hipotez - możliwości formułowania kolejnych problemów, tj. wysuwania postulatów badawczych - formułowania dyrektyw praktycznego działania |
Sformułowanie diagnozy i postulatów dotyczących dalszego trybu postępowania oraz reguł współpracy z innymi specjalistami czy też instytucjami |
Porównanie procesów badawczych wg Brzezińskiego, Spendla.
Bunge 1959 | Brzeziński, 1978 | Brzeziński, 1987 | Brzeziński, 1991 | Babbie, 2003 | Nachmias, 2001 | Spendel, 2000 |
Ujęcie problemu | Pytania o zależności | Pytania o zależności | Sformułowanie problemu i hipotezy | Zainteresowania – idea - teoria | Problem | Konceptualizacja |
Zbudowanie modelu teoretycznego | Pytania i hipotezy istotnościowe | Pytania i hipotezy istotnościowe | Określenie obrazu przestrzeni zmiennych | Konceptualizacja pojęć | Hipoteza | Konkretyzacja |
Wyprowadzenie szczegółowych konsekwencji | Hipotezy o zależnościach | Operacjonalizacja | Operacjonalizacja zmiennych | Operacjonalizacja | Pomiar | Operacjonalizacja |
Hipotezy o zależnościach | ||||||
Sprawdzenie hipotez | Sprawdzanie hipotez o zależnościach | Sprawdzanie hipotez o zależnościach | Wybór modelu badawczego | Wybór metod badawczych | Plan badawczy | Konfrontacja |
Dobór próby | Dobór próby | |||||
Zbieranie danych | Zbieranie danych | |||||
Wybór modelu statystycznego | Przetwarzanie danych | Analiza danych | ||||
Akceptacja lub odrzucenie hipotezy | Analiza danych | |||||
Ocena, interpretacja i generalizacja wyników | ||||||
Wprowadzenie do teorii wniosków | Generalizacja rezultatów badania empirycznego | Generalizacja | Uogólnianie | Aplikacja 1* i 2* | ||
- | - | - | Odbiór rezultatu badawczego | - | Aplikacja 3* | |
Podjęcie działania praktycznego |
Rodzaje nieadekwatności w definicjach sprawozdawczych.
a) błędy niezgodności zakresów (błędy nieadekwatności)
- definicja za szeroka: zakres definiensa nadrzędny względem zakresu definiendum
- definicja za wąska: zakres definiensa podrzędny względem zakresu definiendum
- za szeroka i za wąska: zakresy krzyżują się („Ołówek jest to przyrząd do pisania w metalowej oprawce”)
- błąd wykluczania się zakresów: szczególny przypadek – błąd przesunięcia kategorialnego (zakresy definiendum i definiensa należą do różnych kategorii ontologicznych)Poza tym warto wiedzieć o takich błędach
b) błędne koło bezpośrednie (idem per idem) – wyrażenie definiowane występuje tak w
definiendum, jak i w definiensie („Potomek osobnika a jest to dziecko osobnika a lub potomek dziecka osobnika a.”)
c) błędne koło pośrednie – w ciągu kilku definicji, wyrażenie definiowane w pierwszej pojawia sie w definiensie ostatniej („Ciężar ciała to ta jego cecha, która jest mu wspólna ze wszystkimi ciałami równoważącymi sie z nim na wadze rzetelnej. Waga rzetelna to waga, która pozostaje w równowadze przy obciążeniu obu jej szalek równymi ciężarami.”)
d) błąd definiowania nieznane przez nieznane (ignotum per ignotum) - tłumacząc znaczenie terminu odbiorcy nieznanego, używa do tego celu wyrażeń, których znaczenia są odbiorcy również nieznane.
Rodzaje nieadekwatności w definicjach sprawozdawczych.
błędy niezgodności zakresów (błędy nieadekwatności)
- definicja za szeroka: zakres definiensa nadrzędny względem zakresu definiendum
- definicja za wąska: zakres definiensa podrzędny względem zakresu definiendum
- za szeroka i za wąska: zakresy krzyżują się („Ołówek jest to przyrząd do pisania w metalowej oprawce”)
- błąd wykluczania się zakresów: szczególny przypadek – błąd przesunięcia kategorialnego (zakresy definiendum i definiensa należą do różnych kategorii ontologicznych)
Poza tym warto wiedzieć o takich błędach:
b) błędne koło bezpośrednie (idem per idem) – wyrażenie definiowane występuje tak w
definiendum, jak i w definiensie („Potomek osobnika a jest to dziecko osobnika a lub potomek dziecka osobnika a.”)
c) błędne koło pośrednie – w ciągu kilku definicji, wyrażenie definiowane w pierwszej pojawia sie w definiensie ostatniej („Ciężar ciała to ta jego cecha, która jest mu wspólna ze wszystkimi ciałami równoważącymi sie z nim na wadze rzetelnej. Waga rzetelna to waga, która pozostaje w równowadze przy obciążeniu obu jej szalek równymi ciężarami.”)
d) błąd definiowania nieznane przez nieznane (ignotum per ignotum) - tłumacząc znaczenie terminu odbiorcy nieznanego, używa do tego celu wyrażeń, których znaczenia są odbiorcy również nieznane.
Argumenty za i przeciw podziałowi na psychologie akademicka i stosowaną.
ZA:
- psycholog praktyczny stoi bliżej problemu, niż teoretyczny, a więc ma cenniejszą wiedzę
- psychologia teoretyczna jest oderwana od rzeczywistości
Zdaniem Brzezińskiego oba argumenty za są MITAMI.PRZECIW:
- dezintegracja- rozczłonkowanie psychologii
- sięganie po wyjaśnienia pozanaukowe- poszczególne „psychologie” często są odmienne od siebie tylko pozornie
- finansowanie wyłącznie badań bezpośrednio użytecznych
- empirycy znają skutek, nie znając przyczyn – teoretycy znają obie- psychologia praktyczna powinna wdrażać założenia psychologii teoretycznej w konkretnych sytuacjach
- mieszanie autentycznego zapotrzebowania na wyjaśnienia naukowe z zapotrzebowaniem ideologicznym
Eksperyment klasyczny wg. Milla a eksperyment statystyczny Fishera.
Eksperyment (klasyczny) deterministyczny Milla – opiera się na deterministycznym widzeniu świata, zgodny z kanonami indukcji Milla, a więc z kanonem:
- jedynej różnicy – osobniki z grup są identyczne za wyjątkiem jednej różnicy (np. wyciętego kawałka mózgu),
- jedynej zgodności – oznacza, że jako przyczynę faktu uznaje się ten czynnik, który występuje u wszystkich osób z grupy, a całą resztę traktuje się jako zmienne towarzyszące,
- zmian towarzyszących – przyjmowanie, że jeśli systematycznie zmienianemu czynnikowi towarzyszą systematyczne zmiany zjawiska, to zjawisko to zależy od tego czynnika;
Eksperyment statystyczny Fischera – opiera się na stworzonych przez Fischera zasadach:
- identyczności grup – uzyskiwanej za pomocą randomizacji lub doboru parami;
- bodźca eksperymentalnego – możliwości operowania bodźcem przez badacza (występuje w grupie eksperymentalnej lub kontrolnej),
- zmian zmiennej zależnej – porównaniu wartości zmiennej w grupach po zastosowaniu bodźca.
. Cechy wiedzy naukowej.
Cechy wiedzy naukowej (cele wewnętrzne wiedzy naukowej):
Pewność
a) psychologiczna – subiektywne przekonanie o pewności - wiarygodność
b) epistemologiczna – stopień udowodnienia - konfirmacja
c) logiczna – stopień niezawodności w świetle teorii prawdopodobieństwa
Wysoka informatywna zawartość – centralne położenie, warunkuje pozostałe
Ogólność
Prostota
a) matematyczna – potrzebny prosty aparat matematyczno-statystyczny
b) logiczna – proste założenia wyjściowe
Im dalej w las, tym prostsze założenia logiczne i tym mniejsza prostota matematyczna
5. Ścisłość.
Jak konstruujemy wskaźniki w opracowaniu skal narzędzi badawczych w określaniu wyników.
Przy użyciu testów psychologicznych, kwestionariuszy czy innych narzędzi zawierających skale, wskaźnikiem jest zsumowany wynik ilościowy tej skali. Wskaźniki te konstruuje się za pomocą następującej procedury:
ustalenie założeń dotyczących zmiennej i narzędzia badawczego (iż ma ono skalę)
ustalenie operacyjnej funkcji skalującej (która przyporządkowuje liczby przedmiotom, a więc zamienia przedmioty na zbiór na skali) i relacji nierozróżnialności (która dzieli przedmioty na klasy abstrakcji)
Jeśli mielibyśmy narzędzie idealne, to funkcja operacyjna byłaby funkcją jedno-jednoznaczną (a więc zbiory na skalach są identyczne jak zbiory przedmiotów). Im bardziej zbliżone są te dwa zbiory, tym większa jest „moc dyskryminatywna” narzędzia.
Założenia dotyczące natury narzędzia pomiarowego. Pojęcie funkcji operacyjnej i pojęcie idealnego narzędzia. Funkcja pomiaru w psychologii.
W psychologicznej praktyce badawczej bardzo często stosuje się wskaźniki, które są odpowiedziami w różnego typu testach psychologicznych.
O danym narzędziu π służącym do pomiaru natężenia zmiennej A zakłada się tylko tyle, iż ma ono skalę. Skalę narzędzia oznaczać będziemy symbolem v(π), przy czym v(π) jest podzbiorem właściwym zbioru wszystkich miar zmiennej A. Ponadto zbiór v(π) jest zbiorem skończonym i uporządkowanym od minimum (m0) do maksimum (mx).
Można wyróżnić operacyjną funkcję skalującą SAπ. Przyporządkowuje ona liczby ze zbioru v(π) przedmiotom należącym do zakresu zmiennej A (Z(A)). SAπ jest określona na Z(A), a przybiera wartości ze zbioru v(π)..
W grę mogą wchodzić dwa przypadki:
x i y należą do tej samej klasy abstrakcji, a więc zmienna A przyjmuje dla nich tę samą wartość (relacja nieodróżnialności)
x i y należą do różnych klas abstrakcji, a więc zmienna A przyjmuje dla nich różne wartości.
Dla każdego przedmiotu x, y należącego do danej klasy abstrakcji np. N1 przyrząd π ustala tę samą miarę q1.
Podział nauk wg Groblera.
Podzielił on nauki ze względu na dominujący sposób wyjaśniania na:
1)nauki dedukcyjne (wyjaśniające przez dowód)
2)nauki przyrodnicze np. fizyka, chemia, geologia (wyjaśnianie przyczynowe)
3)nauki o życiu (wyjaśnianie przyczynowe i funkcjonalne)
4)nauki społeczne (wyjaśnianie funkcjonalne i intencjonalne)
5)nauki o zachowaniu (wyjaśnianie intencjonalne i przyczynowe)
6)dyscypliny pogranicza (np. biochemia, pedagogika)
7)nauki interdyscplinarne (będące „poza” typologią, łączące w sobie kilka dziedzin)
8)psychologia jako nauka wymykająca się podziałowi.
Epistemologia historyczna.
• J. Kmita:
– etap nauki przedteoretycznej
– etap nauki teoretycznej
– P.K. Feyerabenda teza o niewspółmierności a „korespondencja istotnie korygująca”
– funkcjonalno-genetyczna determinacja rozwoju
– „możliwość historyczna” a „konieczność historyczna”
Epistemologia historyczna (m.in. Kmita, 1976, 1980)
• (Obiektywna) funkcja (społecznej) praktyki naukowej:
– „kodyfikowanie i dedukcyjne systematyzowanie prewidystycznych elementów bezpośredniego, subiektywnego kontekstu społecznego innych typów praktyki społecznej”
– dotyczy przedteoretycznego etapu rozwoju nauki
– na etapie teoretycznym – dostarczanie przesłanek dla wytwarzania obiektywnie nowych elementów wzmiankowanego rodzaju
– wytwarzanie wiedzy potencjalnie technologicznie efektywnej – metodologia (3: SŚM) jako reprezentacja „zapotrzebowań obiektywnych”
Współpraca badacza z badanym.
a) Orne – osoba badana chce przede wszystkim pomóc badaczowi, mieć opinię „dobrej osoby badanej”
b) Riecken – osoba badana dąży przede wszystkim do jak najlepszej oceny własnego „ja”
c) Sigall, Aronson, Van Hoose – współpraca z badaczem jest wtórna wobec oceny własnego „ja”. Jeśli osoba badana uzna, że współpraca z badanym przyniesie jej szkodę (np. zaświadczy o jej niskim poziomie inteligencji), to będzie przede wszystkim starała się osiągnąć wysoki wynik, a nie pomagać badaczowi.
Konstrukcja i zdań pytających. Ajdukiewicz (109 pdf B )
a) rozstrzygnięcia
rozpoczynają się od partykuły pytajnej „czy” i można udzielić na nie jednej z dwóch wykluczających odpowiedzi „tak” lub „nie”
w zależności od liczby prezentowanych przez pytanie alternatyw, wyróżniamy pytania rozstrzygnięcia o różnej liczbie członów
można je zamienić na zdania oznajmujące o postaci wieloczłonowej alternatywy – przysługuje im wtedy wartość logiczna.
pytania dopełnienia
nie ujawniają alternatyw, podają tylko ogólny schemat odpowiedzi (jest nim funkcja zdaniowa)
po podstawieniu odpowiednich wartości w miejsce zmiennej otrzymuje się każdorazowo nowe zdanie – prawdziwe lub fałszywe.
Założenia pytań:
istnienia
założenie istnienia przedmiotu badań
pozytywne
istnieje przynajmniej jedna bezpośrednia odpowiedź prawdziwa
negatywne
należy również założyć, że przynajmniej jedna odpowiedź może być fałszywa.
Klasyfikacja pytań N.Belnapa. (110 pdf B )
Każde pytanie przedstawia określony zbiór alternatyw – odpowiedź natomiast dokonuje wyboru pewnego podzbioru tego zbioru. W zależności od tego, w jaki sposób wybór ten ma być przeprowadzony, z tego samego zbioru alternatyw można zbudować różne pytania.
Poza zbiorem alternatyw i żądaniem wyboru, innym czynnikiem determinującym typ pytania jest żądanie roszczenia zupełności. Określa ono, jaka część prawdziwych alternatyw zawartych w tym pytaniu znajduje się, wedle osoby odpowiadającej, w bezpośredniej odpowiedzi na nie. Maksymalne żądanie roszczenia zupełności jest zawarte w pytaniu: „Jakiego znasz przedstawiciela kierunku psychoanalitycznego?”. Żądanie to określa się za pomocą takich zwrotów jak: „wszystkie alternatywy”, „x procent...” itp.
Typy pytań:
2.1 Pytanie typu „czy” o jednej alternatywie – pytanie o dowolnej liczbie alternatyw, żądające wyboru jednej (jedynej) prawdziwej – maksymalne roszczenie zupełności, wybór jednej alternatywy oznacza jednocześnie, że wszystkie pozostałe są błędne. Np. Czy książka Kmity jest beznadziejna? Tak, książka Kmity jest beznadziejna
2.2 Pytanie typu „który” o jednej alternatywie – takie samo żądanie wyboru i roszczenie zupełności, jak w 2.1, ale podaje alternatywy do wyboru. Np. Które z poniższych książek są nudne: Kmita, Sherlock Holmes? Kmita jest nudną książką.
2.3 Pytanie typu „czy” o pełnej liczbie alternatyw – prezentuje alternatywy, w odpowiedzi trzeba podać wszystkie prawdziwe odpowiedzi, jednocześnie zaprzeczając pozostałym. Np. Czy wymienieni ludzie byli prezydentami USA: Ronald Reagan, Thomas Jefferson, Reggie Miller, Władimir Putin? Ronald Reagan i Thomas Jefferson byli prezydentami USA, a Reggie Miller i Władimir Putin nie byli prezydentami USA.
2.4 Pytanie typu „który” o pełnej liczbie alternatyw – różni się od poprzedniego sposobem prezentacji alternatyw. Maksymalne roszczenie zupełności. Np. Kto jest egzaminatorem przedmiotu metodologia ze statystyką na UŚ? Egzaminatorem tego przedmiotu na UŚ jest dr hab. Zbigniew Spendel i jest to jedyny egzaminator tego przedmiotu na UŚ.
2.5 Pytanie typu „czy” o nierozłącznej liczbie alternatyw – minimalne roszczenie zupełności, żądanie wyboru wymaga, żeby podać jedną z prawdziwych alternatyw. Np. Czy Montreal Canadiens wygrali Puchar Stanley'a? Tak, Montreal Canadiens wygrali Puchar Stanley'a.
2.6 Pytanie typu „który” o nierozłącznej liczbie alternatyw – różni się od poprzedniego sposobem prezentowania alternatyw. Np. Który z włoskich samochodów jest produkowany przez Fiata? Panda jest produkowany przez Fiata.
Klasyfikacje pytań badawczych.
Pytania badawcze klasyfikuje się (podobnie jak hipotezy) ze względu na treść na:
Pytania diagnostyczne – dotyczące wartości zmiennych
- jaką wartość przyjmuje zmienna zależna Y, gdy zmienna niezależna X ma wartość v(X)=m?
- jaką wartość przyjmuje zmienna niezależna X, gdy zmienna zależna Y ma wartość v(Y)=w?
- jaką wartość przyjmuje zmienna zależna Y w populacji P?
Pytania badawcze – dotyczące zależności między zmiennymi
- pytania istotnościowe – esencjalne (jakie zmienne niezależne są istotne dla zmiennej Y?), stratyfikujące (które zmienne niezależne są bardziej, a które mniej istotne dla zmiennej zależnej Y?), strukturalizujące (czy zmienne niezależne wchodzą ze sobą w interakcje?)
- pytania kierunkowe – in. zależnościowe, jaką postać (kierunek, funkcję) ma związek łączący zmienną zależną Y ze zmienną niezależną X?
Sprawdzanie hipotez statystycznych i niestatystycznych.
Sprawdzanie hipotez jest podstawową formą kontroli zdań (syntetycznych) proponowanych na twierdzenia dyscyplin empirycznych.
Istnieją dwa sposoby sprawdzania hipotez.
(1)
Sprawdzanie hipotez statystycznych
hipotezy statystyczne są zdaniami statystycznymi o postaci: „Częstość przedmiotów należących do zbioru K w zbiorze L wynosi p”, gdzie p symbolizuje określoną liczbę rzeczywistą nie mniejszą od 0 i nie większą od 1.
Mamy hipotezę H głoszącą, że częstość elementów K w zbiorze L wynosi P.
Jeśli klasa L posiada niewielką ilość elementów, to liczymy po prostu wszystkie te elementy L, które należą jednocześnie do zbioru K, dzielimy przez liczbę wszystkich elementów L i sprawdzamy, czy uzyskany ułamek równa się liczbie p.
Jeśli zbiór jest zbyt liczny, to pobieramy w sposób losowy (tzn. taki, że każdy element L ma równą szansę wylosowania) pewną ilość elementów L, które stanowią tzw. próbę. Rachunek prawdopodobieństwa umożliwia wyliczenie prawdopodobieństwa tego, że na n elementów próby, k z nich należy od zbioru K. Jeśli p będzie mniejsze od określonej liczby q to hipotezę odrzucamy (obszar krytyczny i obszar przyjęcia).
Podsumowując, czynność sprawdzania – na gruncie wiedzy E empirycznej – hipotezy statystycznej, komunikującej, że częstość elementów zbioru K w zbiorze L wynosi p, polega na:
wylosowaniu próby ze zbioru L
wyznaczeniu obszaru krytycznego
stwierdzeniu, że w wylosowanej próbie na n jej elementów k elementów należy do zbioru K
obliczenie P (n, k, p)
przyjęciu lub odrzuceniu hipotezy – stosownie do podjętej w ramach punktu (2) decyzji.
(2)
Sprawdzanie hipotez niestatystycznych
pojęcie zdania obserwacyjnego:
zdanie obserwacyjne języka J danej dyscypliny empirycznej E jest to każde takie syntetyczne zdanie języka J, które składa się z atomicznego lub molekurnego predykatu obserwacyjnego z uwagi na E oraz z terminu jednostkowego denotującego przedmiot obserwowalny
predykat obserwacyjny z uwagi na wiedzę E jest to taki predykat, który orzekamy pozytywnie albo negatywnie o przedmiotach obserwowalnych bezpośrednio – w oparciu o ich obserwację – oraz orzeczenie to może zostać ewentualnie zakwestionowane tylko wtedy, gdy jest ono niezgodne z wiedzą E
przedmiot obserwowalny jest to makroskopowy przedmiot fizyczny
schemat sprawdzania hipotezy niestatystycznej:
dobieramy zdania obserwacyjne ( z uwagi na E) Z1, Z2,....,Zn, takie, że z hipotezy H oraz pewnego fragmentu E’ wiedzy E wynikają (w języku wiedzy E) zdania Z1,Z2,...,Zn, przy czym H i E’ występując w sposób istotny
sprawdzamy bezpośrednio w oparciu o obserwację zdania Z1,Z2,....,Zn. Jeśli kolejne zdania zostaną potwierdzone obserwacją, hipotezę przyjmujemy. Jeśli choć jedno zdanie będzie niepotwierdzone – odrzucamy ją.
Definicje, charakterystyka formalna i charakterystyka pojęciowa zadań.
Warunkiem niezbędnym intersubiektywnej kontrolowalności zdań proponowanych na twierdzenia dyscyplin naukowych jest intersubiektywna komunikowalność. Zdanie Z języka J jest intersubiektywnie komunikowalne w danej grupie osób tylko wtedy, gdy posiada to samo odniesienie przedmiotowe w modelu języka J stosowanego przez każdą z osób tej grupy, przy czym model ten wyznaczony jest przez wiedzę W zakładaną przez każdą z tych osób.
Jednym z najbardziej skutecznych środków służących do uzyskania zbliżonych dostatecznie do siebie języków są definicje. Formułuje się je zawsze na gruncie określonego języka J, a jednocześnie formułuje się je dla określonego języka J’, w celu zmniejszenia różnic dzielących oba języki.
Definicja sformułowana na gruncie języka J może być:
zdaniem komunikującym równoznaczność dwóch określonych wyrażeń w języku J -> definicja metajęzykowa
metajęzyk względem języka J nazywamy język, który zawiera terminy posiadające to samo odniesienie przedmiotowe, co odpowiednie terminy języka J, a ponadto występują w nim terminy będące nazwami wyrażeń języka J
mowa jest o wyrażeniach języka J
zdaniem sformułowanym w języku J, które – ze względu na to, że jest tezą języka J – ustanawia równoznaczność dwu odpowiednich wyrażeń języka J -> definicja przedmiotowa
nie mówi się o wyrażeniach języka J, lecz po prostu używa się.
Inny podział definicji to: równościowe i nierównościowe (zagadnienie nr 61).
Podział definicje ze względu na zadanie, cel:
(a) Definicje sprawozdawcze:
osoba O chce zakomunikować osobie O’ pewien fakt za pomocą zdania zawierającego wyrażenie W, które należy do słownika języka J, ale nie należy do słownika języka J’
Definicją sprawozdawczą wyrażenia W dla języka J’ sformułowaną na gruncie J nazywamy definicję zawierającą jako definiendum wyrażenie W, wtedy i tylko wtedy, gdy spełnione są warunki następujące:
język J’ jest fragmentem języka J
wyrażenie W należy tylko do J, zaś wyrażenie W’ należy do J oraz do J’.
(b) Definicje regulujące:
stosowana wówczas, gdy użyte ma być wyrażenie posiadające jednocześnie szereg różnych znaczeń
znaczenie wyrażenia jest wyznaczone przez reguły dedukcyjne
jej celem jest zmniejszenie ilości znaczeń wieloznacznego wyrażenia W przez utożsamienie go pod względem znaczenia z jednoznacznym lub przynajmniej mniej wieloznacznym wyrażeniem W’
definicja o definiendum i deniniensie należących do jednorodnych gramatycznie języków, sformułowana dla tych języków.
Eksplikacja jako rodzaj definicji (zagadnienie 57).
Wyjaśnianie prawa w znaczeniu szerokim (prawdziwości) i wyjaśnianie faktu szczegółowego.
Wyjaśnianie prawa w znaczeniu szerokim, prawidłowości:
prawidłowość jest to stan rzeczy stwierdzany przez prawo w szerokim znaczeniu tego słowa
trzy warunki:
w eksplanansie muszą wystąpić co najmniej dwa prawa w szerokim znaczeniu,
jedno z owych praw występujących w eksplanansie musi być ogólniejsze od prawa stanowiącego eksplanandum,
dane empiryczne potwierdzające eksplanandum muszą być inne od tych, które potwierdzają eksplanans.
Warunki poprawności wyjaśniania praw w węższym rozumieniu:
1) w eksplanansie musi wystąpić przynajmniej jedno prawo w węższym znaczeniu
2) eksplanandum musi być zdaniem faktualnym (ściśle ogólnym), lub prawem (w węższym znaczeniu) zawierającym o jeden przynajmniej warunek idealizujący mniej niż owo prawo występujące w eksplanansie.
3) dane empiryczne potwierdzające eksplanandum muszą być inne od potwierdzających eksplanans.
Fakty szczegółowe (zagadnienie nr 96).
Prawa idealizacyjne i ich sprawdzanie.
Idealizacja to przypisanie skrajnego natężenia cechy. Wyabstrahowuje się istotę.
Prawa idealizacyjne mówią o czystych zależnościach Y od X, a przez to o tym co realnie nie może zaistnieć. (Co więcej jest sprzeczne z ogółem wiedzy) Np. Frustracja powoduje agresję. Prawa idelizacyjne są nieweryfikowalne.
Zasady koordynacji łączą idealny model prawa idealizacyjnego z rzeczywistymi fenomenami. Np. Frustracja powoduje agresję, pod warunkiem/ami... Skonkretyzowane prawa idealizacyjne są weryfikowalne.
Kmita str. 173
Ostatni wykład
Warunek konieczny i wystarczający.
są 2 zjawiska: zjawisko A i zjawisko B.
Jeżeli do tego, żeby zaistniało zjawisko B jest KONIECZNE zjawisko A, to A jest warunkiem koniecznym.
Natomiast jeśli do zaistnienia B jest konieczne zaistnienie A1 LUB A2 LUB A3 itd. to wtedy są one warunkami wystarczającymi bo WYSTARCZY żeby zaistniał tylko jeden z nich.
Pomiar w psychologii.
Pomiar w sensie logicznym („konstruowanie narzędzia”)
• Polega na ustanowieniu (odkryciu i sformułowaniu) odpowiedniej funkcji (skalującej) zachowującej homomorfizm pomiędzy strukturą empiryczną (empirycznym systemem relacyjnym), tj. rodziną klas abstrakcji (wartościami zmiennej), a strukturą numeryczną (liczbowym systemem relacyjnym), tj. skalą narzędzia pomiarowego (zbiorem miar zmiennej)
Pomiar w sensie empirycznym (czynność mierzenia)
• Polega na odpowiednim przyporządkowywaniu wynikom obserwacji wielkości liczbowych, tj. posłużeniu się liczbami w taki sposób, aby relacje między liczbami odpowiadały relacjom między obiektami obserwacji, a działaniom wykonywalnym na liczbach – możliwe do wykonania operacje na tych obiektach
Rodzaje błędów standardowych.
Błąd pomiaru wyniku otrzymanego – definiowany jako odchylenie standardowe rozkładu różnic
Błąd estymacji wyniku prawdziwego – odchylenie standardowe rozkładu z próby różnic
Błąd pomiaru wyniku prawdziwego – rozbieżność zachodząca między estymowanymi wynikami prawdziwymi uzyskanymi przez osoby o identycznych wynikach prawdziwych
Błąd prognozy – błąd związany z formułowaniem prognozy wyniku testu równoległego na podstawie wyniku danego testu
Błąd zastąpienia – zachodzi wówczas, gdy dokonując prognozy wyniku otrzymanego w jednym teście równoległym na podstawie wyniku otrzymanego w drugim teście zakładamy, że wynik w teście równoległym jest równy wynikowi w drugim teście błędy standardowe w badaniu psychometrycznym.
-błąd pomiaru wyniku otrzymanego SEM– jest to odchylenie standardowe rozkładu różnic między wynikiem otrzymanym a prawdziwym, ma rozkład normalny, inaczej jest to odchylenie standardowe rozkładu błędu jaki popełniamy, wtedy kiedy przyjmujemy, że wynikiem prawdziwy danej osoby jest średni wynik jaki uzyskałaby ona w nieskończenie wielu pomiarach tym samym testem, na jego podstawie budujemy przedziały ufności w których znajduje się wynik prawdziwy, kiedy rzetelność jest większa o 0,8
-błąd estymacji wyniku prawdziwego SEE
Jest różnicą miedzy estymowana przez badawcza wartością wyniku prawdziwego a jego rzeczywistą wartością. Jest to błąd powstały na skutek niedokładności odtworzenia faktycznej wartości wyniku prawdziwego. SEE jest odchyleniem standardowym rozkładu z próby różnic
-standardowy błąd pomiaru wyniku prawdziwego ( skorelowany z wynikiem praw.)SEM(T) może być ujmowany jako błąd warunkowy, wykorzystywany do przedziałowej estymacji wyniku prawdziwego. ( górna i dolna granica) Standardowy błąd pomiaru wyniku prawdziwego – Dokonując pomiaru testowego uzyskujemy określone wartości wyniku otrzymanego. Na tej podstawie możemy dokonywać estymacji wartości wyników prawdziwych. W rzeczywistości jest jednak tak, że osoby o identycznych wynikach prawdziwych mogą otrzymywać różne estymowane wyniki prawdziwe, gdyż uzyskały one różne wyniki otrzymane. Owa rozbieżność zachodząca między estymowanymi wynikami prawdziwymi, a uzyskanymi przez osoby o identycznych wynikach prawdziwych, to właśnie błąd pomiaru wyniku prawdziwego
-błąd prognozy SEP
jest to różnica wyników testu danego i równoległego
związany jest z formułowaniem prognozy wyniku testu równoległego na podstawie wyniku danego testu. Ten błąd, to różnica owych dwóch wyników.
-błąd zastąpienia SES
mamy z nim do czynienia wówczas, gdy dokonując prognozy wyniku otrzymanego w jednym teście równoległym na podstawie wyniku otrzymanego w drugim teście zakładamy, że wynik w teście równoległym jest równy wynikowi w drugim teście.
-SED standardowy błąd różnicy.