Wróbel Psycholog jako intelektualny położnik Problem wiedzy utajonej i jej wydobycia

background image

SZYMON WRÓBEL

PSYCHOLOG JAKO INTELEKTUALNY POŁOŻNIK.
PROBLEM WIEDZY UTAJONEJ I JEJ WYDOBYCIA


Menon: Zanim cię spotkałem, Sokratesie, słyszałem, że i sam pogrążony jesteś w

wątpliwościach, i innych doprowadzasz do zwątpienia. I teraz, jak mi się wydaje, zaczarowałeś
mnie i opętałeś jakimś magicznym napojem, tak że stałem się pełen wątpliwości. Jeśli wolno mi
zażartować, zdajesz mi się tak z wyglądu, jak i pod innymi względami, zupełnie podobny do tej
płaskiej ryby morskiej zwanej drętwikiem. Sprawia ona bowiem, że ten, kto się do niej zbliży i jej
dotknie, drętwieje; tak i ty, jak mi się wydaje, postąpiłeś ze mną.

Platon

1


Widząc kogoś, kto ciągnie równocześnie za dwa końce sznurka, możemy uznać, że walczy

on sam ze sobą, że chce przesunąć sznurek w dwóch niezgodnych kierunkach. Wyjaśnienie takie
wymagałoby wyszukanego uzasadnienia. Jeśli natomiast uznamy, że człowiek ów chce zerwać
sznurek, nie powstanie żaden problem.

Donald Davidson

2



1. Idea normy założonej a idea normy wyprowadzanej

Wydaje się, że przez ostatnie dziesięciolecia rozwoju poznawczej psychologii

eksperymentalnej w sposób mniej lub bardziej jawny zaostrzał się pewien spór
metateoretyczny, dotyczący prawomocnej strategii interpretowania danych empirycznych.
Jest to spór pomiędzy metodą normy założonej a metodą normy wyprowadzanej

3

. Przy czym

wydaje się, należy natychmiast dodać, że metoda normy założonej jest silniej akceptowana na
gruncie badań empirycznych i stanowi niejako ich milczące założenie. Odstępstwo od niej
traktowane jest jako rodzaj eksperymentu lub nawet ekstrawagancji myślowej. Idea normy
wyprowadzanej jest rozwijana mniej lub bardziej jawnie przez wszystkie te teorie, które zdają
się zakładać, że ludzie generalnie wiedzą znacznie więcej, niż im (lub badaczom) wydaje się,
że wiedzą. Jest ona nade wszystko preferowana przez tych badaczy, którzy uznali, że
psychologia niekoniecznie jest dyscypliną zajmującą się ludzkim zachowaniem, a raczej, że
podstawowym źródłem informacji o człowieku jest intuicja lingwistyczna, matematyczna,
fizykalna, statystyczna, geometryczna, etc.; zadanie zaś psychologii sprowadza się do prób
wydobycia tej intuicji i nadania jej bardziej sformalizowanego kształtu. Wydaje się ponadto,
że prace Noama Chomsky’ego, przeciwstawiające się tendencjom behawiorystycznym w
psychologii, były tu najbardziej inspirujące.

Zadaniem prezentowanego tekstu będzie pokazanie, że powyższy spór pomiędzy

dwoma konkurencyjnymi strategiami badawczymi nie dotyczy jedynie jakiegoś

1

Platon, Menon, tłum. Paweł Siwek, Warszawa 1991, s. 159.

2

Donald Davidson, Myśl i mowa, tłum. Barbara Stanosz, w: Język w świetle nauki, (red.) Barbara Stanosz,

Warszawa 1980, s. 346.

3

Pojęcie normy założonej (The Preconceived Norm Method) oraz normy wyprowadzanej (The Norm Extraction

Method) wprowadził L. Jonathan Cohen w serii artykułów polemicznych wobec badań nad zjawiskiem tzw.
konserwatyzmu poznawczego w procesie integrowania informacji, szacowania przez ludzi prawdopodobieństwa
koniunkcji oraz ustalania znaczenia proporcji – „próbka : populacja”. Patrz: L. Jonathan Cohen, On the
Psychology of Prediction: Whose is the Fallacy?,
„Cognition” 1979, s. 385-407; Idem, Can Human Irrationality
Be Experimentally Demonstrated?,
„Behavioral and Brain Sciences” 1981, 4, s. 317-370; Idem, Are People
Programmed to Commit Fallacies. Further Thoughts About the Interpretation of Experimental Data On
Probability Judgment
, „Journal for the Theory of Social Behaviour”, 1982, 12 (3), s. 251-274.

1

background image

fragmentarycznego wycinka zagadnień psychologicznych, np. obliczeń statystycznych
dokonywanych przez ludzi, ale stanowi centralną kwestię dla większości, jeśli nie wszystkich,
zagadnień, jak i dla samego sposobu uprawiania psychologii.

Zgodnie z ideą normy założonej badacz przeważnie postuluje, że problem

postawiony osobom uczestniczącym w eksperymencie (badaniu) może być rozwiązany
prawidłowo tylko na gruncie pewnej uznanej w nauce koncepcji (logicznej, statystycznej,
lingwistycznej, etc.), którą sam przyjmuje i uważa za zasadną. Jeżeli odpowiedzi niektórych
osób są błędne (np. błędnie szacują prawdopodobieństwo danego zdarzenia, błędnie ustalają
regułę gramatyczną lub wyprowadzają nieprawidłowe wnioski z posiadanych przesłanek), to
błąd ten może być przez badacza przypisany jedynie pewnej stałej cesze definiującej ludzki
sposób przetwarzania danych. Zatem w obrębie tej strategii, powiada się, że ludzie
wyposażeni są w wadliwe metody rozwiązywania problemów, co jest szczególnie ważne gdy
błędy popełniane przez ludzi są statystycznie istotne, tj. charakteryzują się minimalną
regularnością statystyczną.

Metoda wyprowadzania normy, zakłada natomiast, że wszystkie osoby badane

rozumują (w wyznaczonym przez badacza zakresie, tj. np. w temacie prawdopodobieństwa,
wnioskowania, czy ustalania reguł gramatycznych, etc.) prawidłowo; nikt nie jest
zaprogramowany do popełniania błędów i ulegania złudzeniom. Jeśli sądy ludzi w danym
temacie nie są zdeformowane jakimiś czynnikami zmiennymi, tj. takimi jak uwaga,
ograniczenia pamięciowe, błędne nastawienia, czynniki popędowe lub motywacyjne, etc., to
zasadniczo nie rozmijają się z prawdą (lub prawomocnością). Przyjmujemy tu zatem, że stałe
wyposażenie ludzkiego przetwornika danych jest odpowiednie do rozwiązania stawianych
problemów. Szczególnie istotną cechą paradygmatu wyprowadzania normy wydaje się być to,
że rzekome powszechne błędy związane z jakimś tematem (np. złudzenie gracza), interpretuje
się tutaj w taki sposób, że interpretacja ta pozwala na stwierdzenie, że w reakcjach ludzi nie
ma w ogóle nic błędnego.

Pierwszy sposób wyjaśnienia błędów poznawczych, zgodny z metodą normy

założonej, polega na odwołaniu się do czynników stałych, np. stałej własności w
zaprogramowaniu ludzi, polegającej na tym, że nie są oni posiadaczami programów
stosownych i trafnych dla postawionego zadania, względnie w wersji mocnej – są
zaprogramowani do stosowania zasad nieodpowiednich czy błędnych. Druga strategia
uzasadniania zachowania poznawczego człowieka, zgodna z metodą wyprowadzania normy,
wiąże się z odwołaniem do czynników zmiennych, tj. do chwilowego zaburzenia w
funkcjonowaniu prawidłowego programu na stałe wmontowanego w ludzki system
przetwarzania danych. Stawiając przed badanymi problem określonego rodzaju, badacz
oczekuje, że z odpowiedzi badanych odkryje (lub na ich bazie sformułuje, skonstruuje,
sformalizuje) koncepcję (logiczną, prawdopodobieństwa, lingwistyczną, etc.) milcząco przez
badanych przyjmowaną.

Dlaczego powyższe rozróżnienie jest istotne, mimo że tak wyartykułowana

kontrowersja nie ma prawdopodobnie charakteru kontrowersji rozstrzygalnej za pomocą
eksperymentu krzyżowego, z tej choćby racji, iż dotyczy ona raczej paradygmatu badań, tj.
metod interpretowania danych, niż ich uzyskiwania? Powyższy spór jest istotny m.in. z tego
względu, że opowiedzenie się za jednym lub drugim modelem postępowania poznawczego
przesądza o przyjmowanych przez nas mechanizmach przetwarzania danych. Wydaje się, że
metoda wyprowadzania normy jest bardziej oszczędna pod względem różnorodności
uwzględnianych przez nią czynników wyjaśniających i w tym sensie spełnia wymóg
ekonomii poznawczej. Dopuszcza ona wyłącznie mechanizmy normatywnie prawidłowe;
ewentualne odchylenia są wynikiem oddziaływania czynników przypadkowych. Metoda
normy założonej dopuszcza natomiast nie tylko czynniki obydwu typów, ale również pewne
nieefektywne heurystyki – procedury poznawcze, które niekiedy generują odpowiedzi

2

background image

prawidłowe, a niekiedy nie. Dzieje się tak głównie dlatego, że tam, gdzie odpowiedzi
badanych nie spełniają przyjętej przez badacza normy, ale wydają się zbyt regularne i
uporządkowane, by przypisać je przyczynom przypadkowym, metoda ta odwołuje się do
hipotezy zakładającej istnienie specjalnej kategorii błędnych programów.

Egzemplifikacja z zakresu teorii prawdopodobieństwa:

Amos Tversky, Daniel Kahneman, Massimo Piattelli–Palmarini stosując metodę

normy założonej, zgromadzili dane świadczące na rzecz „analfabetyzmu statystycznego”
zwyczajnych ludzi, tj. zgromadzili materiał dowodowy pokazujący, że mamy skłonność do
lekceważenia podstawowych kanonów prawdopodobieństwa

4

.

Np. bardziej boimy się latać samolotami niż jeździć samochodami, chociaż

statystycznie podróż samolotem jest bezpieczniejsza. Oznacza to, ich zdaniem, że nasz system
poznawczy posługuje się prostą heurystyką praktyczną typu: im bardziej pamiętne
wydarzenie, tym bardziej prawdopodobne, że powtórzy się ono w przyszłości. Zamiast
odwołać się do danych statystycznych, posługujemy się tą nietrafną heurystyką.

Ponadto mamy trudności w szacowaniu prawdopodobieństwa koniunkcji pewnych

zdarzeń. Kiedy słyszymy, że Agata ma 31 lat, jest samotna, elokwentna i bardzo zdolna.
Ponadto ukończyła socjologię, a jako studentka była głęboko przejęta problemami
dyskryminacji oraz brała udział w manifestacjach antynuklearnych. Następnie zaś ktoś nas
prosi, abyśmy oszacowali – po pierwsze prawdopodobieństwo, że Agata pracuje jako kasjerka
w banku oraz po drugie – prawdopodobieństwo, że Agata, jest kasjerką w banku i działa w
ruchu feministycznym, to mamy skłonność wyżej oceniać prawdopodobieństwo bycia
feministyczną kasjerką (koniunkcja), niż prawdopodobieństwo bycia tylko kasjerką. Mimo, że
jest niemożliwe, by „A i B” było bardziej prawdopodobne niż samo „A”. W tym przypadku
również nasz mózg posługuje się prostą i nietrafną heurystyką: im bardziej jednostka
przypomina stereotyp, tym większe prawdopodobieństwo, że należy do danej kategorii (Agata
bardziej pasuje do naszego stereotypu feministycznej kasjerki niż tylko kasjerki, jest więc
bardziej prawdopodobne, że jest feministką i kasjerką).

Psycholog posługujący się metodą normy wyprowadzanej, zamiast oceniać

zachowanie ludzi, tj. wykazywać im niewiedzę w zakresie prawdopodobieństwa, powinien
raczej zadać sobie pytanie: czy w świecie, w którym ocenianie prawdopodobieństw zdarzeń
może mieć istotny sens dla powodzenia wielu przedsięwzięć, ludzki umysł mógłby sobie
pozwolić na całkowitą ignorancję w temacie statystyki? Czy obliczenia statystyczne
przekraczają możliwości przetwarzania informacji ludzkiego mózgu? Philip N. Johnson–
Laird powiada np.: „Każdy człowiek, od Arystotelesa do aborygenów, uprawia myślenie
probabilistyczne, niezależnie od tego, czy wie cokolwiek o rachunku prawdopodobieństwa”

5

.

Wnioskowanie probabilistyczne jest prawdopodobnie częścią uniwersalnych ludzkich
zdolności, które nie muszą być uzależnione od jawnych umiejętności operowania liczbami
czy miarami ilościowymi. L. Jonathan Cohen, podążając tym tropem zasugerował, że
wszystko co trzeba zrobić, aby wyjaśnić „błąd koniunkcji” w naszym przykładzie z Agatą, to
przyjąć, że osoby badane usiłują oszacować wiarygodność przedstawionej im charakterystyki
osobowej, a nie po prostu częstości względne różnych typów zachowań. Problem interpretacji

4

Daniel Kahneman, Amos Tversky, On the Study of Statistical Intuitions, „Cognition”, nr 11, 1982, s. 123-141;

Choices, Values and Frames, „American Psychologist”, nr 39, 1984, s. 341-350; On the Reality of Cognitive
Illusion: A Reply to Gigerenzer’s Critique
, „Psychological Review”, nr 103, 1996, s. 582-591.

5

Philip N. Johnson–Laird, Modele umysłowe a myślenie probabilistyczne, tłum. Józef Radzicki, w: Modele

umysłu, red. Zdzisław Chlewiński, Warszawa 1999, s. 216.

6

L. Jonathan Cohen, Are People Programmed to Commit Fallacies. Further Thoughts About the Interpretation

of Experimental Data On Probability Judgment, „Journal for the Theory of Social Behaviour”, 1982, nr 12 (3), s.
267.

3

background image

danych psychologicznych wynika zatem z tego, jak odpowiadamy na pytanie: co ludzie
rzeczywiście próbują obliczyć w trakcie myślenia probabilistycznego? Nie ma wcale
konieczności zakładania istnienia błędnego mechanizmu, należy raczej przyjąć, że badani
założyli, iż tym, czego się od nich wymaga, jest oszacowanie, na ile wiarygodne jest
wystąpienie zdarzenia (bycie kasjerką) jako względnie izolowanego rezultatu, które mogłoby
być z powodzeniem mniej wiarygodne niż wystąpienie określonej sekwencji przyczynowej
zawierającej to zdarzenie (bycie kasjerką i feministką)

6

.

Egzemplifikacja z zakresu logiki naiwnej:

W dziś już bardzo znanym eksperymencie Philip N. Johnson–Laird i Peter Wason,

stosując metodę normy założonej, chcieli zademonstrować, jak ludzie radzą sobie z
dowodzeniem fałszywości hipotez

7

. Wason powiedział badanym, że zestaw kart, który trzyma

w ręce, ma po jednej stronie litery, a po drugiej cyfry, i poprosił o sprawdzenie reguły: „Jeśli
karta ma literę D po jednej stronie, to ma liczbę 3 po drugiej”. Badanym pokazywano cztery
karty i pytano, które odwrócić, żeby zobaczyć, czy reguła jest prawdziwa. Powiedzmy, że
mamy następującą sekwencję kart: D F 3 7. Większość wybrała kartę D, albo kartę D i kartę
3. Poprawna odpowiedź brzmi D i 7. Dlaczego? Otóż, zdanie o kształcie „P wynika z Q” (jeśli
Q to P) jest fałszywe tylko w jednym przypadku, mianowicie, gdy Q jest prawdziwe, a P
fałszywe (z prawdziwej przesłanki dochodzimy do fałszywego wniosku). Dlatego zasadnicza
jest karta z liczbą 7; gdyby miała D po drugiej stronie, reguła okazałaby się fałszywa. Z racji,
że reguła stwierdza, że D ma 3, a nie, że 3 ma D, karta z liczbą 3 jest nieistotna. Z
powyższego eksperymentu można by pochopnie wyprowadzić wniosek, że większość z nas w
trakcie szacowania prawdziwości danego zdania (lub reguły) preferuje strategie
weryfikacyjne, tj. poszukuje przypadków potwierdzających dane zdanie (regułę); niechętnie
natomiast stosujemy strategie falsyfikacyjne, tj. nakierowane na poszukiwanie przypadków
zaprzeczających prawdziwości zdania (lub reguły).

Wyobraźmy sobie jednak, że ktoś prosi nas o zweryfikowanie reguły: „Jeśli pracownik

dostaje emeryturę, to przepracował dwadzieścia lat”

8

. Z pewnością żeby zweryfikować tę

regułę nie będziemy sprawdzać osób, które dostają emeryturę i przepracowały więcej niż
dwadzieścia lat. Nie będziemy też weryfikować ludzi, którzy przepracowali mniej niż
dwadzieścia lat i nie dostają emerytury. W zależności od tego, czy reprezentujemy punkt
widzenia pracowników najemnych, czy punkt widzenia pracodawców, będziemy poszukiwać
albo pracujących przez więcej niż dwadzieścia lat bez emerytury, albo pracujących mniej niż
dwadzieścia lat, którzy jednak emeryturę posiadają. Poszukiwanie sytuacji, względnie takie
konstruowanie zadań, które wyzwoliły w ludziach skłonności do falsyfikowania danych jest
zgodne z ideałem normy wyprowadzanej.

2. Co przesądza o realności psychologicznej norm?


Źródłem tak wyartykułowanej kontrowersji jest ponadto (a może przede wszystkim)

obecny stan ludzkiej wiedzy, cechujący się raczej pluralizmem niż jednomyślnością. Z faktu,
że istnieje wiele niewspółmiernych teorii w danym zakresie, wynika niepewność, do której z
nich mamy się odwołać jako do normy, z którą porównywać będziemy ludzkie sądy (reakcje
lub zachowania). Ponieważ możliwa jest więcej niż jedna koncepcja prawdopodobieństwa,

7

Philip N. Johnson–Laird, Peter C. Wason, A Theoretical Analysis of Insight in to Reasoning Task, „Cognitive

Psychology”, nr 1, 1970, s, 134-148.

8

R.A. Griggs, J. R. Cox, The Elusive Thematic-materials Effect in Wason’s Selection Task, „British Journal of

Psychology”, nr 73, 1982, Lance J. Rips, Reasoning, „Annual Review of Psychology”, nr 41, 1990, 321-353;
407-420; Steven Pinker, Jak działa umysł, tłum. Małgorzata Koraszewska, Warszawa 2002, s. 366.

4

background image

więcej niż jedna gramatyka opisująca empirycznie stwierdzone regularności językowe, więcej
niż jedna logika opisująca obserwowalne rozumowania, etc., badacz ma za zadanie ustalić,
którą z tych możliwych teorii (prawdopodobieństwa, gramatyki, logiki, etc.) posługują się
osoby badane.

Najbardziej problematyczna wydaje się kwestia wyboru sztucznego systemu, wedle

którego modeluje się jakąś funkcję języka naturalnego lub własność poznawczą umysłu.
Inaczej rzecz ujmując, najbardziej bolącą kwestią wydaje się pytanie: co przesądza o realności
psychologicznej norm? Można bowiem twierdzić, że języki sztuczne stanowią w tym sensie
idealizacje języków naturalnych, w jakim idealizacjami stanów i przedmiotów fizycznych są:
próżnia doskonała, sztywny pręt lub gaz idealny, jednak dopóki idealizacje
psycholingwistyczne lub psychologiczne posługują się pojęciami, które nie mają interpretacji
w zastosowaniu języków naturalnych, fałszem jest utrzymywać, że posiadają one moc
wyjaśniającą. Zważywszy więc na to, że języki sztuczne mogą się wielce różnić, jeśli chodzi
o typy przedstawianych struktur, np. w jednej idealizacji języka naturalnego dane zdanie S
może okazać się analityczne, a w innej syntetyczne, uczony proponujący jakąś idealizację
winien odczuwać powinność dowiedzenia jej izomorficzności względem zasadniczych cech
badanego zjawiska.

Problem wyostrza się, gdy zdamy sobie sprawę z wymogu, który spoczywa na

psychologach, charakterystycznego w ogóle dla nauk empirycznych, tj. weryfikacji
stawianych hipotez drogą eksperymentalną. Większość psychologów uznała, że nie wystarczy
jedynie dowieść teoretycznej konieczności istnienia danego mechanizmu formalnie
scharakteryzowanego, należy ponadto wskazać dane behawioralne, które wymusiły
postulowanie tego mechanizmu, tj. które nie dałyby się wyjaśnić bez postulowania jego
obecności. Weryfikacja hipotezy o mechanizmach intelektualnych musi się dokonać nie tylko
na drodze introspekcji osób badanych, lecz przez analizę wyników ich pracy intelektualnej.
Chcę przez to powiedzieć, że zdaniem wielu psychologów nie mamy prawa wnioskować o
wyposażeniu intelektualnym umysłu na podstawie tego, co jednostki na swój temat mówią,
ale jedynie na podstawie tego, co robią postawione wobec określonego problemu. Takie
instrumenty poznawcze, jak naturalna i bezpośrednia intuicja np. liczby naturalnej czy idei
gramatyczności, pojęcia przypadku, pojęcia sprawiedliwości, itp., w świetle doświadczeń
wcale nie muszą się okazać pierwotne i naturalne. Mogą się one natomiast okazać rezultatem
długotrwałego procesu konstruowania struktur poznawczych, aniżeli jego warunkiem, czy
niezbywalnym wyposażeniem

9

.

Z drugiej jednak strony domniemana, przez przeciwników stosowania procedur

idealizacyjnych, asystemowość języka naturalnego lub nielogiczność, względnie
kontekstualność, żywiołowość lub intuicyjność ludzkich procesów poznawczych, jest być
może jedynie projekcją porażki, którą ponosimy, usiłując dać jego odpowiedni obraz

10

Nawoływanie do weryfikacji hipotez z zakresu psychologii poznawczej, nie oznacza więc, że
mamy zrezygnować z używania modeli w naukach behawioralnych i wrócić do
kolekcjonowania faktów, znaczy to jedynie, że winniśmy wymuszać na sobie symulację
procesów poznawczych opartą na ścisłej ekwiwalencji, a zatem winniśmy poszukiwać nie
tylko testów rzetelności naszych narzędzi badawczych (adekwatności wewnętrznej), ale i
testów trafności (adekwatności opisowej)

11

.

9

Jean Piaget, Epistemologia genetyczna, tłum. Zofia Zakrzewska, w: Idem, Psychologia i epistemologia,

Warszawa 1977, s. 19.

10

Jerrold Katz, Jerry A. Fodor, Na co cierpi filozofia języka?, tłum. Adam Nowaczyk, w: Barbara Stanosz, (red.)

Lingwistyka i filozofia, Warszawa 1977, s. 91.

11

Odwołuję się w tym miejscu do znanego rozróżnienia Pylyshyna. Patrz: Zenon W. Pylyshyn, Computation

and Cognition: Issues in the Foundations of Cognitive Science, „The Behavioral and Brain Sciences”, nr 3,
1980, s. 111–132; Zenon W. Pylyshyn, Computation and Cognition: Toward a Foundations of Cognitive
Science,
MIT Press Cambridge 1984.

5

background image

Egzemplifikacja z zakresu gramatyki generatywnej:

Jedną z bardziej nietrywialnych konsekwencji teorii Noama Chomsky’ego jest

założenie, że wiedza zawarta w teorii gramatycznej powinna być reprezentowana w umyśle,
ale same reguły użyte do formalnej specyfikacji zdań nie muszą koniecznie brać
bezpośredniego udziału w procesie rozumienia lub wytwarzania zdań. Jerry A. Fodor pisze
np.: programy mogą, a struktury danych muszą być reprezentowane explicite. Już wczesne
pomysły psycholingwistyczne zakładały, że reguły struktur frazowych nie mają nic
wspólnego z procesami umysłowymi, gdy jednak stało się jasne, że złożoność psychologiczna
nie odpowiada złożoności transformacyjnej, trzeba było także uznać, że jakiś składnik teorii
jest fałszywy

12

. Z czysto empirycznego punktu widzenia powstały przesłanki, by dowodzić,

że teoria kompetencji zawiodła i że formalnie scharakteryzowana teoria derywacji zdań nie
powinna zawierać teorii transformacji.

W rzeczywistości jednak, to nie teorię odrzucono (ją podtrzymano), a w zamian

odrzucono przekonanie, że transformacje pełnią jakąkolwiek bezpośrednią rolę w wykonaniu
– przynajmniej w procesie generowania i rozumienia zdań u ludzi dorosłych. Procesy
transformacyjne zastąpiono prostymi heurystykami. Z tego faktu da się jednak wyprowadzić
prosta konsekwencja, że ani reguły struktur frazowych, ani reguły transformacyjne nie
odgrywają żadnej roli w wykonaniu. Innymi słowy: odgrywają one rolę w reprezentowaniu
wiedzy gramatycznej (kompetencja), lecz nie odgrywają one roli przy stosowaniu tej wiedzy
(wykonanie). Wydaje się, że umysł powinien wykorzystywać reguły gramatyki, jeżeli
gramatyka ma być poważnie traktowana jako opis nieuświadomionej wiedzy, która pozwala
mówić i rozumieć wypowiedzi. W przeciwnym razie teoria skazuje się na rodzaj
niezrozumiałej rozrzutności eksplanacyjnej: postuluje ona istnienie mechanizmu, którego rola
przyczynowa nie jest jasna.

Uzasadnieniem tej rozrzutności może być jedynie podział zadań poznawczych: (1)

lingwistyka w tym podziale ma zmierzać do określenia funkcji, którą umysł musi obliczyć,
aby sprostać danemu zadaniu; (2) psychologia (względnie neuropsychologia) ma dążyć do
określenia procedur, za pomocą których funkcje te są liczone, co jest istotne gdy
uświadomimy sobie, że istnieje wiele sposobów liczenia tej samej funkcji. W tym ujęciu
jednak gramatyka jest opisem funkcji, którą umysł liczy, ale niekoniecznie jest opisem
nieświadomej wiedzy językowej mówiącego, której reprezentacja może mieć całkiem inną
postać

13

.

Egzemplifikacja z zakresu fizyki:

Gilbert Harman, wiele lat temu w polemice z ideami Noama Chomsky’ego, postawił

nas wobec następującego problemu

14

. Wyobraźmy sobie, że naszym zadaniem jest

sformułowanie teorii nabywania umiejętności jazdy na rowerze. Rowerzysta nade wszystko
musi posiąść umiejętność utrzymywania równowagi. To, czego mu trzeba, by równowagę
zachował, narzucone jest przez zasady mechaniki, których nie jest świadom, szczególnie, jeśli
jest on np. niewyedukowanym sześciolatkiem. Można sobie wyobrazić, że model rowerzysty
zawierałby przedstawienie odnośnych zasad mechaniki i że zakładałby zdolność posługiwania

12

J. D. Fodor, J. A. Fodor, M. Garrett, The Psychological Unreality of Semantic Representations, „Linguistic

Inquiry”, nr 6, 1975, s. 515-532.

13

Patrz w tej sprawie m.in.: Jerrold Katz, Mentalizm w lingwistyce, tłum. Barbara Stanosz, w: Barbara Stanosz

(red.) Lingwistyka a filozofia, Warszawa 1977, s.171.

14

Gilbert Harman, Psychologiczne aspekty teorii składni, tłum. Urszula Niklas, w: Barbara Stanosz (red.)

Lingwistyka a filozofia, Warszawa 1977, s. 328.

6

background image

się nimi przy obliczaniu co należy zrobić, by zachować równowagę. Idąc śladem modelu
Chomsky’ego powiedzielibyśmy, że rowerzysta posiada wewnętrzne przedstawienie zasad
mechaniki. Czy wobec tego należałoby powiedzieć, że każdy rowerzysta ma intuicyjną lub
utajoną znajomość zasad mechaniki? Podobnie, czy każdy pływak posiada utajoną
umiejętność wykorzystywania praw hydrodynamiki?

Istnieje ogromna pokusa, by twierdzić, że posiadamy, na przykład, ukrytą znajomość

wielkich praw mechaniki

15

. Nasz organizm jest tak skonstruowany, że ilekroć działamy

przestrzennie za pomocą naszych mięśni i kości, to automatycznie odczuwamy prawa
mechaniki, a zatem posiadamy ich ukrytą znajomość. Z tego punktu widzenia badania
naukowe można traktować jako pewien rodzaj wyjaśnienia struktur, które wewnątrz nas
samych już od dawna preegzystują. Badania umożliwiają zatem przejście od wiedzy ukrytej
(cichej, milczącej) do wiedzy jawnej. Na ogół wiedzę ukrytą krępują mechanizmy „cenzury”,
przez co zwyczajna introspekcja nie może bez oporu uwalniać owych ukrytych struktur.
Doświadczenie spełnia nierzadko rolę bodźca spustowego, tj. przezwyciężającego „cenzurę”
utrudniającą widzenie własnych struktur. Tak np., kiedy Archimedes pływał w wannie i miał
za instrument tylko własne ciało odkrył (uświadomił sobie) podstawowe prawo statyki:
wiążąc obserwację z refleksją zdał sobie sprawę, że w wodzie jest znacznie lżejszy niż w
powietrzu. Zwyczajna introspekcja nie może bez oporu uwalniać owej wiedzy nieświadomej,
jednakże doświadczenie mogłoby odgrywać ważną rolę akuszerską pozwalając
przezwyciężyć mechanizmy „cenzury” utrudniające widzenie własnych struktur.

Wydaje się, że podobne wątpliwości targały Nedem Blockiem, który proponuje nam

następujący eksperyment myślowy

16

. Proponuje on mianowicie wyobrazić sobie, iż badacze

zajmujący się procesami poznawczymi, odkryli, że delfiny potrafią korzystać z tego, co wedle
naszych standardów stanowi wyrafinowany aspekt hydrodynamiki ich otoczenia.
Psychologowie będący zwolennikami metafory komputerowej mogą badać modele, które
zawierają jawne reprezentacje różnorodnych równań hydrodynamiki, a następnie
wykorzystywać maszyny liczące do rozwiązywania tych równań. Takie postawienie sprawy
może być jednak błędne. Prawidłowe podejście mogłoby polegać na poszukiwaniu
mechanizmów neuronalnych, które same spełniałyby różnorodne równania o tej samej formie
co równania hydrodynamiki. Modele tego rodzaju skłaniałyby do ujmowania wyposażenia
nawigacyjnego delfina jako analogii modelu samolotu w tunelu hydrodynamicznym.

Eksperyment myślowy Harmana opiera się na założeniu, że zdolność do posługiwania

się językiem może w jakimś istotnym aspekcie przypominać zdolność do jazdy na rowerze. Z
punktu widzenia Chomsky’ego analogia taka jest oczywiście chybiona, albowiem nie ma
podstaw do przypuszczenia, że znajomość języka da się scharakteryzować w kategoriach
„wiedzy jak”. Znajomość języka, dla Chomsky’ego, nie jest zwykłą umiejętnością, sumą
nawyków lub czymś podobnym. Eksperyment myślowy Blocka opiera się natomiast na
przyjęciu założenia, że istnieje ostry podział między nauką zajmującą się poznaniem
(cognitive science) oraz nauką zajmującą się układem nerwowym (neuroscience) oraz na
sugestii, że przedstawiciele nauk o poznaniu być może chcą wyjaśnić zbyt wiele przy
odwołaniu się jedynie do swych własnych metod i pojęć. Nie znam ostatecznych
argumentów, które uzasadniałyby tak dramatyczny podział problematyki w naukach
behawioralnych. Tym niemniej jednak i jeden i drugi eksperyment myślowy, zmuszają nas do
zastanowienia się nad realnością psychologiczną (biologiczną) postulowanych przez nas
bytów teoretycznych.

15

Patrz w tej sprawie m.in.: René Thom, Parabole i katastrofy. Rozmowy o matematyce, nauce i filozofii, tłum.

Roman Duda, Warszawa 1991, s.128.

16

Ned Block, Mental Pictures and Cognitive Science, „Philosophical Review”, 1983, 92, s. 499-541.

7

background image

Egzemplifikacja z zakresu teorii sprawiedliwości:

John Rawls w swej monumentalnej Teorii sprawiedliwości, powiada, że filozofię

moralną można uznać za próbę opisu naszej zdolności do dokonywania decyzji moralnych, a
teorię sprawiedliwości jako opis naszego zmysłu moralnego. Teoria tak pojęta nie miałaby
dostarczyć listy sądów moralnych, jakie jesteśmy skłonni wydawać, oraz a fortiori listy
działań do jakich jesteśmy gotowi, ale jej zadanie polegałoby raczej na sformułowaniu zbioru
zasad, które pozwalałyby na ferowanie tego rodzaju sądów lub inicjowanie tego typu działań.

Pożyteczne, zdaniem Rawlsa, jest tu porównanie z problemem opisu poczucia

gramatyczności zdań języka. Gdyby udało nam się opisać czyjeś poczucie poprawności
gramatycznej, z pewnością dowiedzielibyśmy się wielu rzeczy na temat ogólnej struktury
języka. Podobnie, gdybyśmy byli w stanie scharakteryzować poczucie sprawiedliwości
pewnej osoby, uzyskalibyśmy punkt wyjścia dla ogólnej teorii sprawiedliwości. „Możemy
przypuszczać – pisze Rawls – że w każdym z nas odnaleźć można gotową formę koncepcji
moralnej [...]”

17

.

Ponadto rysuje się jeszcze inna analogia z lingwistyką. Choć nie możemy się

spodziewać gruntownej rewizji naszego poczucia poprawności gramatycznej pod wpływem
jakiejś teorii lingwistycznej, to zmiana taka nie jest nie do pomyślenia, i bez wątpienia teoria
taka może mieć jakiś wpływ na nasze poczucie gramatyczności. W tym samym sensie
filozofia moralna ma charakter sokratejski: możemy chcieć zmienić nasze dotychczasowe
sądy moralne, gdyby zostały wydobyte na światło dzienne zasady regulatywne rządzące
naszym poczuciem sprawiedliwości. Znajomość tych zasad może bowiem budzić refleksje,
które prowadzą do zmiany naszych sądów. Podobnej zmiany nie można by oczekiwać w
wypadku fizyki; uświadomienie sobie praw rządzących ruchem nie wpłynie w żaden sposób
na mechanikę naszego ciała i jeśli wbrew mechanice będziemy usiłowali wykonać pewien
ruch, to skończy się to zapewne dla nas bardzo niefortunnie.

Powstaje pytanie: czy rzeczywiście możemy oczekiwać, iż w każdym istnieniu

ludzkim da się odnaleźć gotową formę koncepcji sprawiedliwości, w taki samym sensie, w
jakim da się odnaleźć gotową formę gramatyki uniwersalnej lub gotową formę logiki ogólnej,
wreszcie gotową formę mechaniki ruchów (praw fizycznych), z tą jedynie różnicą, że
wyartykułowanie (uświadomienie sobie) tej ostatniej w niczym jej nie zmodyfikuje? Co
usprawiedliwia przyjęcie założenia, że nasze umysły lub mózgi wyposażone są w cichą
znajomość reguł sprawiedliwości? Czy takim usprawiedliwieniem nie mogłaby stać się
akceptacja kognitywizmu etycznego, mającego swe źródła u Sokratesa, a zgodnie z którym,
wiedza na temat tego, czym jest dobro jest konieczną i wystarczającą przesłanką do tego, aby
dobro czynić? Czy zatem zgodnie z ideałem normy wyprowadzanej, ekstrapolowanej do
problemów etycznych, nie jesteśmy zdolni do błędów moralnych (czynienia zła) tak jak nie
jesteśmy zdolni do błędów poznawczych (nietrafnych wnioskowań)?

3. Skąd się biorą normy? Problem arbitralności opisu


Stale prześladującą badaczy wątpliwością jest zatem pytanie: czy struktury formalne

odkryte (lub zaledwie postulowane) przez psychologa odzwierciedlają istotnie czynności
podmiotu, czy też są wytworem wiedzy psychologa, który je obserwuje, zwłaszcza jeśli zna
on w pewnym zakresie logikę teoretyczną (teorię prawdopodobieństwa, gramatykę, fizykę,
etc.)? Wydaje się, że jest taki zbiór danych, który mógłby nas upewnić, iż formalizacja
działań podmiotu nie jest projekcją myśli badacza: spontaniczne tworzenie się opisywanych
struktur w trakcie rozwoju poznawczego człowieka. Niestety, źródło to jest wielce niepewne,

17

John Rawls, Teoria sprawiedliwości, tłum. M. Panufnik, J. Pasek, A. Romaniuk, Warszawa 1994, s. 67-77.

8

background image

albowiem nawet najbardziej wyszukana obserwacja, jak i najbardziej subtelne eksperymenty,
mogą pozostać nieczułe na ocenę „spontaniczności”, tj. mogą mieć kłopot z odróżnieniem
tych faktów, które zostały wywołane przez edukację i funkcjonowanie w kulturze, od tych
które są wynikiem dojrzewania, albo ujawnienia wiedzy wrodzonej.

Można jednak argumentować w inny sposób: mimo że psychologii brak kompetencji

do ustalania norm poprawności rozumowania, normy takie ustalają ci, którzy są przedmiotem
jej badań. Chcę przez to powiedzieć, że fundamentalnym założeniem psychologii poznawczej
jest to, że podmiot jako taki, w każdym wieku, uznaje normy. Rola psychologa to rola
akuszerki, to rola Sokratesa z Menona, który próbuje za pomocą obserwacji działań wydobyć
i opisać w języku nauki owe normy, których podmiot najczęściej sobie nie uświadamia. Jeśli
jednak tak jest, to znaczy to, że opozycja między dyscyplinami normatywnymi (logika,
matematyka, gramatyka) a psychologią empiryczną (zorientowaną na fakty) nie powinna być
traktowana jako ostateczna. Dyscypliny normatywne dostarczają niewątpliwie słowniki, w
których możemy normy opisać, psychologia zaś stara się pokazać, które z tych norm
(słowników) są faktami, tzn. które z nich są przestrzegane przez ludzi w ich poznawczej
działalności.

Wydaje się, że na razie nie dysponujemy tego rodzaju materiałem dowodowym, który

mógłby nam unaocznić, w jaki sposób struktury abstrakcyjne wcielają się w konkretny system
fizyczny, jak i nie dysponujemy materiałem dowodowym, który by przesądził jednoznacznie,
jak bogaty wrodzony system reprezentacyjny musimy założyć, by móc wyjaśnić spontaniczne
tworzenie intuicji gramatycznych, logicznych, czy statystycznych, czy wreszcie nawet
moralnych. Nie znaczy to jednak, że powinniśmy przestać pracować nad tym problemem.

Egzemplifikacja z zakresu epistemologii genetycznej:

Epistemologia genetyczna Jeana Piageta doprowadziła do sformułowania wielu

istotnych ustaleń dotyczących kształtowania się podstawowych intuicji geometrycznych,
fizycznych i arytmetycznych w trakcie rozwoju poznawczego człowieka. Tak np. Piaget
zauważył, że operacje przestrzenne w tracie spontanicznego rozwoju intelektualnego tworzą
się w odwrotnej kolejności niż tej, w jakiej powstały w historii matematyki, gdzie najpierw
pojawiło się mierzenie w przestrzeni euklidesowej, następnie wyodrębniły się intuicje
projekcyjne i wreszcie nastąpiło odkrycie związków topologicznych. W ontogenezie rozwój
intuicji geometrycznych jest bardziej zgodny z porządkiem teoretycznym: na początku
wytwarzają się intuicje topologiczne, a później równolegle – euklidesowe i projekcyjne.
Najpierw zatem uzyskujemy intuicje dotyczące sąsiedztwa, ciągłości, zamknięcia, etc., a
dopiero później kształtuje się w nas umiejętność koordynowania różnych punktów widzenia
oraz mierzenia w kilku wymiarach

18

.

W innym miejscu natomiast Piaget sugeruje, że choć nie istnieje pierwotna intuicja

uniwersalnego i bezwzględnego czasu, to istnieje pierwotna intuicja prędkości. Ta pierwotna
intuicja prędkości jest w zasadzie synonimiczna z intuicją wyprzedzania kinematycznego.
Gdy w pewnym momencie T

1

ruchomy przedmiot A znajduje się za B, a w momencie T

2

przesunie się przed B, jest oceniany jako szybszy, i to przez dzieci w każdym wieku. Czas
trwania jakiegoś zdarzenia jest natomiast dla dziecka, niezależnie od wieku, składową
prędkości: dzieciom bardzo długo trudno zaakceptować fakt, iż jeśli dwa przedmioty A i B
wyruszają jednocześnie z tego samego punktu, poruszają się w tym samym kierunku i
zatrzymują się w tym samym momencie, choć poruszają się z różną prędkością to czasy
trwania ich ruchu są takie same. Z tego punktu widzenia: nie istnieje wspólny czas dla dwóch
różnych prędkości.

18

Jean Piaget, Epistemologia genetyczna, tłum. Zofia Zakrzewska, w: Idem, Psychologia i epistemologia,

Warszawa 1977, s. 25-28.

9

background image

Dlaczego te wyniki badań są tak interesujące? Otóż głównie z tego powodu, iż istnieje

pokusa, której Piaget ulega, odniesienia ich do ustaleń fizykalnych. W klasycznej mechanice
newtonowskiej czas i przestrzeń to wartości bezwzględne, odpowiadające intuicjom prostym.
W mechanice relatywistycznej, przeciwnie, prędkość jest wartością bezwzględną, a czas jest
pochodną. Zatem pierwotne intuicje dziecka, zdaniem Piageta, są bliższe fizyce
relatywistycznej, zaś intuicje człowieka dorosłego pokrywają się w większym zakresie z
fizyką newtonowską. Jak zatem wyjaśnić fakt, iż mimo, że pojęcia topologiczne winny być
nam najbliższe, topologia w historii dyscyplin geometrycznych powstaje najpóźniej?
Podobnie, jak wyjaśnić fakt, iż mimo, że relatywistyczne intuicje fizykalne rodzą się w nas
najszybciej, to jednak fizyka relatywistyczna nie poprzedzała w historii nauki fizyki
Newtonowskiej?

Czy materiał empiryczny zgromadzony przez Piageta pozwala na konstatacje, że

intuicje topologiczne poprzedzają w rozwoju poznawczym człowieka intuicje dotyczące
geometrii rzutowej i euklidesowej? Podobnie, czy dysponujemy wystarczająco mocnymi
danymi, aby zasugerować, iż intuicje czasu i prędkości dziecka bliższe są ujęciu
relatywistycznemu, a te same intuicje człowieka dorosłego dadzą się zinterpretować w
kategoriach fizyki newtonowskiej? Czy dziecko jest rzeczywiście wyznawcą fizyki
relatywistycznej (tzn. posiada nieświadomą lub niedeklaratywną wiedzę na jej temat), dopóki
obcowanie ze światem przedmiotów średniej wielkości, nie wymusi na nim stanie się
zwolennikiem teorii Newtona? Czy też może raczej psycholog bezradny wobec danych
eksperymentalnych, nie wiedząc do jakiego języka opisu się odwołać, zapożycza się w języku
historii fizyki (geometrii, etc.), doszukując się nieuzasadnionych analogii pomiędzy rozwojem
historycznym a ontogenetycznym? Dlaczego np. nie odwołać się do fizyki Arystotelesa w
celu opisu intuicji fizykalnych dziecka, skoro mechanika Arystotelesa, w której kamienie
spadają na ziemię, poszukując swego naturalnego miejsca spoczynku, nie jest wcale odległa
od wyjaśnień formułowanych przez dzieci faktu unoszenia się balonów w powietrzu, mówią
wtedy one nierzadko, że balonom w powietrzu jest po prostu dobrze

19

? Być może dla dzieci,

tak jak dla Arystotelesa, położenie jest „jakością”, a ciało, które zmieniło położenie pozostaje
co prawda tym samym ciałem, ale w tym problematycznym sensie, w jakim dziecko stając się
dorosłym pozostaje tą samą jednostką. Kuhn powiada przecież: „rozumienia fizyki
Arystotelesa nauczyli mnie mali pacjenci Piageta”

20

.

Ponadto, czy wobec powyższych konstatacji, należy stwierdzić, że Piaget w swych

badaniach posługiwał się ideą normy założonej, czy też pozostawał wierny ideałowi normy
wyprowadzanej? Piaget przyjmował, zgodnie z ideałem normy wyprowadzanej, pluralizm
teoretyczny nauk, a zatem miał świadomość, że istnieje kilka konkurencyjnych systemów
geometrycznych, tak jak istnieją konkurujące ze sobą fizyki; te fizyki czy geometrie nie

19

Patrz w tej sprawie: Thomas Samuel Kuhn, Przewrót kopernikański, tłum. Stefan Amsterdamski, Warszawa

1966, s. 148-154. Kuhn pisze explicite: „Dziś naukowy, nowożytny pogląd na przyrodę wykazuje szereg
istotnych analogii do poglądów Arystotelesa, lecz analogie te występują z zadziwiającą częstością i w poglądach
dzieci, plemion pierwotnych i ludzi cofniętych w rozwoju umysłowym” /Ibidem, s.150/. Analogia jest tym
bardziej uderzająca, że Arystotelesowskie pojęcie przestrzeni zasadniczo różni się od przestrzeni
Newtonowskiej, którą wszyscy posługujemy się, zazwyczaj nie zdając sobie z tego sprawy. Przestrzeń
Newtonowska
jest fizycznie neutralna. Ciało znajdować się musi w przestrzeni i poruszać się przez przestrzeń,
ale dany obszar przestrzenny i dany kierunek ruchu nie wpływają na ciało. Przestrzeń zatem jest bezwładnym
substratem wszelkich ciał. Żadne położenie i żaden kierunek nie jest wyróżniony. W przeciwieństwie do tego,
Arystotelesowskie pojęcie przestrzeni bliższe jest przestrzeni życiowej lub organicznej. Każde położenie jest
położeniem jakiegoś obiektu lub położeniem wskazującym miejsce, w których coś charakterystycznego
zachodzi. Każdy obszar i każdy kierunek przestrzeni różni się czymś od innych, a różnice te częściowo
wyznaczają zachowanie się ciał w tym obszarze. Przestrzeń Arystotelesa jest aktywną, dynamiczną przestrzenią
życia. Zapewne tylko w drodze koincydencji przestrzeń występująca w ogólnej teorii względności Einsteina jest,
pod wieloma względami, bliższa pojęciu Arystotelesowskiemu niż Newtonowskiemu.

20

Idem, Dwa bieguny, tłum. Stefan Amsterdamski, Warszawa 1985, s. 53-54.

10

background image

konkurują jednak ze sobą, by tak rzec, synchronicznie, ale diachronicznie, tj. tworzą kolejne
fazy rozwoju historii geometrii (czy fizyki) lub formalizacje kolejnych faz krystalizowania się
intuicji geometrycznych czy fizycznych. Nie wydaje się zatem, aby Piaget przyjmował, że są
one tak samo uzasadnione teoretycznie lub empirycznie.

4. Wyprowadzanie normy czy też wezwanie do nieuzasadnionej tolerancji?

Wydaje się idea normy wyprowadzanej byłaby dość łatwa do skarykaturowania.

Można by w niej pochopnie upatrywać pewnej polityki nadmiernej tolerancji wobec
wypowiedzi, rozumowań, czy obliczeń osób badanych. Ta polityka tolerancji byłaby taką
linią postępowania, zgodnie z którą zawsze, czy prawie zawsze, interpretowalibyśmy reakcje
osób badanych w taki sposób, że okazywałyby się one prawidłowe. Nasze zadanie badacza
ludzkich możliwości poznawczych sprowadzałoby się do poszukiwania usprawiedliwień dla
nawet największych absurdów.

Takie postępowanie badawcze byłoby – jak mniemam – zgodne z ideą nauk

społecznych wyartykułowaną przez Petera Wincha. Oczekiwał on od przedstawicieli nauk
społecznych, aby analizowali systemy przekonań (szczególnie te, które przynależą do innych
niż nasz własny paradygmatów myślowych lub wzorców kulturowych) w kategoriach
poszukiwania tzw. przyczyn wiarygodności tych systemów. Te przyczyny wiarygodności to
racje (nie zawsze dane explicite), które wymusiły na członkach odmiennej niż nasza
wspólnoty kulturowej wytworzenie danego twierdzenia, obyczaju, wzorca percepcyjnego,
zasady etycznej, normy obyczajowej, które prima facie wydają się nam fałszywe,
nieestetyczne, niemoralne, lub niecywilizowany. Zgodnie z ideą nauk społecznych naszym
obowiązkiem jest wzbogacać swą gotowość percepcyjną na przyjęcie racjonalności tam, gdzie
prima facie widzimy tylko zlepek chaotycznych działań. Musimy być otwarci na nowe
możliwości czegoś, co można przywołać i zaakceptować w rubryce „racjonalne” –
możliwości, które są podsuwane i ograniczane przez to, co dotychczas akceptowaliśmy jako
racjonalne, lecz w żadnym wypadku nie są przez to jednoznacznie określane

21

. Winch zatem

sugeruje, że jeśli chcemy trafnie zrozumieć kogoś, to należy być wyrozumiałym wobec jego
wypowiedzi i raczej założyć, że to, co ktoś mówi, nie jest nielogiczne.

Argument przeciwko ideałowi normy wyprowadzanej mógłby, w tym kontekście,

brzmieć tak oto jeszcze. W niektórych dziedzinach nauki rzeczywiście do dziś nie udało
wytworzyć się jednolitej teorii, która przez wszystkich członków danej społeczności
badawczej byłaby akceptowana. Jeśli uprawnione są np. wątpliwości co do jednolitości
gramatyki, to nie można jednak mieć wątpliwości co do jednolitości logiki. Ludzie różnią się
pod względem logicznego myślenia, ale nie przypisujemy tego różnicom w systemach
logicznych, które starają się oni stosować. Przypisujemy je różnicom indywidualnym w
zdolności do posługiwania się zbiorem logik. Osobę mało pojętną w zakresie logiki
nazywamy po prostu osobą mniej inteligentną, nie zaś człowiekiem posługującym się inną
logiką. Niewątpliwie, istnieją różnice między systemami logicznymi, na przykład rachunkiem
zdań a rachunkiem predykatów, ale wydaje się, że wszystkie te logiki mieszczą się w pojęciu
jednej logiki ogólnej. I nawet jeśli ta ostatnia myśl jest podważalna, można mieć nadzieję, że
idea różnorodnych logik wydaje się sensowna właśnie tym osobom, których logiczna
przenikliwość jest najgłębsza.

21

Peter Winch, Idea nauki o społeczeństwie i jej związki z filozofią, tłum. Bohdan Chwedeńczuk, Warszawa

1995. Patrz dyskusja w tej sprawie: Steven Lukes, Relativism in its Place, w: Rationalism and Relativism, Ed.
Martin Hollis, Steven Lukes, Cambridge 1982, s. 261-305; Dan Sperber, Apparently Irrational Beliefs, w:
Rationalism and Relativism, Ed. Martin Hollis, Steven Lukes, Cambridge 1982; Steven Lukes, Some Problems
about Rationality,
w: Rationality, Ed. Bryan R. Wilson, Basil Blackwell 1984, s. 195-213.

11

background image

Czy zatem próbując uzasadnić błędy logiczne, błędy przynajmniej z punktu widzenia

uznanej przez nas logiki, nie akceptujemy błędu w ogóle i nie deprecjonujemy tym samym
norm, dając zezwolenie na najbardziej nonszalanckie i nieuzasadnione procesy myślowe?
Ponadto, jeśli we wszystkich logikach wielowartościowych odrzuca się zasadę wyłączonego
środka to czy nie zagraża to jakoś stanowisku postulującemu istnienie koniecznych i
powszechnych intuicji logicznych w skład, których wchodzi właśnie owa zasada? Czy należy
przyjąć, że najsilniejsza logika, jaką można dziś wskazać, jest najlepszym dostępnym obecnie
przewodnikiem po naszej kompetencji logicznej? Czy może czymś bardziej sensownym
byłoby przyjęcie, że logika naturalnego języka opiera się bardziej na logice kategorii, a nie
logice zbiorów?

Ta pozorna dowolność interpretacyjna implikowana przez metodę normy

wyprowadzanej jest jednak w istotny sposób ograniczana. Nie wydaje mi się, aby
opowiedzenie się za ideą normy wyprowadzanej prowadziło w prostej linii do anarchizmu
metodologicznego, o ile przynajmniej przez ten ostatni rozumiemy trywialną akceptację
zasady: anything goes. Idea normy wyprowadzanej jest ograniczana przez założenie, że ludzie
sami spontanicznie (przez nikogo nie pouczeni) przestrzegają pewnych norm. Oczywiście
ludzie niekiedy przeczą sami sobie lub dokonują błędnych dedukcji, nasze wypowiedzi pełne
są agramatyzmów, a nasze szacunki prawdopodobieństwa określonych zdarzeń nie rzadko nie
dadzą się w żaden sposób usprawiedliwić. Jednak normy, które zostają wtedy pogwałcone,
można wyprowadzić z ludzkich intuicji. Podmiot jest zdolny do uświadomienia sobie faktu,
że popada w sprzeczności, wypowiada agramatyzmy i źle szacuje prawdopodobieństwo, nie
tylko poprzez fakt, że ktoś z zewnątrz koryguje jego działania, ale również poprzez fakt
samodzielnej korekcji swego postępowania. Siła wyjaśnienia opartego na idei normy
wyprowadzanej polega nade wszystko na próbie ujawnienia przez ten typ wyjaśniania
konsekwentnego schematu w zachowaniu ludzkim.

Egzemplifikacja antropologiczna:

Claude Lévi–Strauss, posługując się metodą normy wyprowadzanej, próbował

przezwyciężyć fałszywą antynomię między umysłowością logiczną i prelogiczną. Myśl
nieoswojona jest logiczna w tym samym sensie i w ten sam sposób, co myśl logiczna.
Robimy zatem błąd, uważając za Lucien Lévi–Bruhlem, że istnieje historyczna różnica
pomiędzy prelogiczną mentalnością ludów pierwotnych i logiczną mentalnością ludzi
współczesnych. Lévi–Bruhl, z tego punktu widzenia, posługiwał się ideałem normy
założonej. Zdaniem Lévy–Bruhla rozmaitym typom społeczeństw odpowiadają rozmaite typy
umysłowości. Ustalenie typów umysłowości jest potrzebą tak samo palącą jak ustalenie
typów społeczeństw

22

. Analiza wyobrażeń zbiorowych społeczeństw pierwotnych

doprowadziła Lévy–Bruhla do wniosku o generalnej odrębności dwu typów umysłowości i
dwu typów myśli: właściwych społeczeństwom pierwotnym z jednej strony, i nowożytnym
społeczeństwom cywilizowanym – z drugiej. Lévy–Bruhl badał system wiedzy pierwotnej
jako autonomiczną, odrębną całość, nie szukając w niej żadnych początków wiedzy
filozoficznej czy wiedzy naukowej właściwej społeczeństwom cywilizowanym. Lévy–Bruhla
koncepcja umysłowości pierwotnej była formułowana zatem w opozycji wobec stanowiska
animistycznej szkoły Tylora i Frazera, zakładających ewolucyjną ciągłość i tożsamość umysłu
ludzkiego oraz czynności umysłowych we wszystkich społeczeństwach.

Stanowisko Lévi–Straussa bliższe jest ideałowi normy wyprowadzanej i zmierza do

wykazania fałszywej antynomii myśli pierwotnej i cywilizowanej

23

. (1) Nieprawdziwe jest

22

Lucien Lévi–Bruhl, Czynności umysłowe w społeczeństwach pierwotnych, tłum. Bella Szwarcman–Czarnota,

Warszawa 1992.

23

Claude Lévi-Strauss, Myśl nieoswojona, tłum. Andrzej Zajączkowski, Warszawa 1969, s. 198-199.

12

background image

nade wszystko twierdzenie, że członkowie społeczeństw pierwotnych myślą konkretnie, a
człowiek nowożytny myśli abstrakcyjnie. W języku chinook – używanym przez Indian na
północnym zachodzie Ameryki Północnej zdanie – „Zły człowiek zabił biedne dziecko”,
można (należy) tłumaczyć na zdanie – „Złość człowieka zabiła biedę dziecka”. Bogactwo
wyrazów abstrakcyjnych nie jest zatem wyłącznym udziałem języków cywilizowanych. (2)
Ponadto często zasadniczym rysem postępowania poznawczego umysłu pierwotnego, nie
spotykanego z taką obfitością w społecznościach cywilizowanych, jest niewyczerpana
znajomość królestwa flory i fauny. Wiedza ta obejmuje nie tylko gatunkową identyfikację
ogromnej ilości roślin, ptaków, ssaków, owadów, lecz także znajomość zwyczajów i
obyczajów każdego gatunku. Co ważniejsze wiedza ta spełnia wymogi intelektualne
uprzednie lub alternatywne wobec konieczności zaspokajania potrzeb. (3) Wreszcie umysł
pierwotny tworzy skomplikowane systemy klasyfikacyjne zarówno porządkujące dane
dotyczące świata przyrody, jak i dane dotyczące świata kultury. Totemizm jest tylko
szczególnym przypadkiem ogólnego zagadnienia klasyfikacji i jednym spośród wielu
przykładów roli przypisywanej kategoriom w celu wypracowania klasyfikacji społecznych.

Czy psychologia odwołująca się do ideału normy założonej popełnia ten sam błąd, co

Lévi–Bruhl interpretując dane antropologiczne w kategoriach zapożyczonych z obrębu naszej
kultury? Czy Piaget dostrzegając wiele nielogicznych skłonności w myśleniu dzieci ulegał
temu samemu przekonaniu co Lévi–Bruhl, iż istnieje jakościowa przepaść pomiędzy
myśleniem prelogicznym dzieci, a logicznym myśleniem dorosłych?

4. Hipoteza „logiki umysłu”


John Macnamara twierdzi, że jeśli zaakceptujemy rozróżnienie Chomsky’ego na

kompetencję i realizację w dziedzinie ludzkiego rozumowania, a nie tylko w wąskiej
dziedzinie umiejętności językowych, to logika stanie się idealnym kandydatem na teorię
kompetencji ujmującą część ludzkiego myślenia. Macnamara wyprowadza stąd wniosek, że
jeśli pójdziemy ścieżką wyznaczoną przez Chomsky’ego, który – jak wiadomo – przypisywał
wypowiedzi niegramatyczne czynnikom innym niż kompetencja językowa, takim jak błędy
uwagi, ograniczenia pamięci krótkotrwałej, to w podobny sposób możemy uzasadnić błędy
logiczne jako wynikające z parametrów związanych z realizacją, np. presją czasu. Wszelkie
argumenty, jakie Chomsky przytacza na rzecz związku językoznawstwa z psychologią języka
znajdują również, mutatis mutandis, zastosowanie do związku logiki z psychologią. Jeśli
przyjmiemy zatem, że głównym zadaniem psychologa badającego ludzkie możliwości
poznawcze, jest wyjaśnienie naszych intuicji dotyczących prawomocności logicznej i jeśli
uświadomimy sobie, że zbiór prawomocnych wnioskowań jest nieskończony, to wynika z
tego, że nasz umysł musi mieć dostęp do reguł, które da się łączyć, tworząc nieskończony
zbiór wnioskowań. Aby wyjaśnić tą umiejętność musimy odwołać się do hipotezy logiki
umysłu.

Zgadzam się z sądem wypowiedzianym inter alia przez Macnamarę, iż należy przyjąć

do wiadomości lekcję Fregego i Husserla

24

, którzy być może w sposób najbardziej istotny

przyczynili się do upadku psychologizmu, tj. poglądu popularnego jeszcze w XIX wieku,
zgodnie z którym logikę uważano za część psychologii, z drugiej jednak strony należy także
pokazywać, że logicy i psychologowie mimo wszystko potrzebują się nawzajem, nawet jeśli
dziś zachowują się jak „kobiety i mężczyźni w synagodze”

25

.

Należy zgodzić się z Fregem, że prawa logiczne są z góry założone u podstaw

wszystkich praw empirycznych; nie mogą one zatem być sprowadzone do praw

24

Edmund Husserl, Badania logiczne, tłum. Janusz Sidorek, tom I, Toruń 1996, s. 58-103.

25

John Macnamara, O nazywaniu rzeczy: Uwagi na temat związku między logiką a psychologią, tłum. Kalina

Domańska, w: I. Kurcz, J. Bobryk, D. Kędzielawa (red.) Wiedza a język, Wrocław 1986, s. 37-54.

13

background image

empirycznych

26

. Prawdy logiczne mają zatem wyższy poziom konieczności niż prawa

empiryczne, w rezultacie wszystkie nauki empiryczne (w tym psychologia) opierają się na
logice (a nie na odwrót). Twierdzę jednak, że czym innym jest powiedzenie, czym prawdy
logiczne są, tj. czym innym jest ustalenie ich statusu, a czym innym jest odpowiedź na
pytanie: w jaki sposób umysł wyposażony jest w zasób środków logicznych pozwalających
mu: (1) zrozumieć sens zdań logicznych, (2) wyrażać zdania logiczne, (3) wreszcie oceniać
prawomocność (lub jej brak) w przypadku wnioskowań. Zgadzam się zatem z Macnamarą, że
nawet gdy przyjmujemy najbardziej skrajne antypsychologistyczne stanowisko, nawet gdy
przyjmujemy pogląd, że struktury logiczne istnieją poza umysłem, w obszarze znajdującym
się poza czasem i przestrzenią, a zatem nawet wtedy, zmuszeni jesteśmy wyjaśnić, w jaki
sposób struktury te urzeczywistniają się w naszych umysłach, skoro zdarza nam się stosować
je w swoim myśleniu

27

. Podobnie, jeśli zgodzimy się z Jerroldem Katzem

28

, że język ze swoją

gramatyką jest abstrakcyjnym bytem platońskim, który nie jest obecny w umyśle, to jednak
musi on być reprezentowany w umyśle w jakiejś postaci, która będzie kierować zarówno
uczeniem się języków naturalnych, jak i intuicjami dotyczącymi gramatyczności ciągów słów.

Tu jednak rodzi się kolejna niejasność. Prawdopodobnie, jeśli udałoby się prześledzić

konkretne, zadowalające ludzi formy wnioskowania, aż do podstawowych zasobów środków
logicznych umysłu, to wówczas mielibyśmy prawo stwierdzić, że doszliśmy do adekwatnego
wyjaśnienia tych form wnioskowań. Oznacza to, jak sądzę, że w ostatnim stadium analizy,
interpretacja nie może zostać dokonana przy użyciu zdań. Prawdopodobnie, aby dokonać
interpretacji, niezbędny jest pewien mechanizm, który wprowadza umysł w intencjonalny
kontakt z wartościami semantycznymi składników zdań i ich kombinacji. Czy oznacza to, że
zasoby środków logicznych mają swe źródło w działaniach od logiki niezależnych, tak jak to
ujmują niektóre prace inspirowane późnym Wittgensteinem, Piagetem lub Quinem, uznaję za
sprawę otwartą i wymagającą osobnej gruntownej dyskusji.

Czy logika powinna stanowić dla psychologii źródło, z którego czerpie się hipotezy do

eksperymentów, czy też raczej winna ona być istotnym składnikiem samej teorii umysłu?
Twierdzę, że opowiedzenie się za pierwszą możliwością, tj. przyjęcie, założenia, że istnieje
istotna, jakościowa różnica dzieląca pracę myślową laika i procedury stosowane przez logika,
tj. przyjęcie, że logika stanowi dla psychologii jedynie wzorzec, z którym porównuje się
rzeczywiste funkcjonowanie intelektualne człowieka, jest synonimiczne z opowiedzeniem się
za strategią normy założonej. Natomiast opowiedzenie się za drugim członem tej alternatywy,
tj. przyjęcie założenia, że umiejętności logiczne nie stanowią nadzwyczajnych i raczej rzadko
spotykanych kompetencji, tak jak znajomość łaciny, czy kultury Kwakiutlów, a w
konsekwencji, postulowanie, że umysł pozbawiony intuicji logicznych (podobnie zresztą –
arytmetycznych, fizycznych, językowych, geometrycznych, etc.) nie mógł by ich sobie w
ogóle przyswoić, jest charakterystyczne dla zwolenników idei normy wyprowadzanej.

Twierdzę ponadto, że czołowym przedstawicielem tego pierwszego stanowiska jest we

współczesnej psychologii Philip Johnson–Laird, drugiego zaś Johna Macnamara. Johnson–
Laird interesuje się nade wszystko tym, dlaczego wielu pozornie inteligentnych ludzi
(przypadkowo wybranych z populacji) bardzo często błędnie rozwiązuje proste zadania
dedukcyjne. Macnamara natomiast interesuje się bardziej tym, dlaczego wielu ludzi, w tym
dzieci (a zatem pozornie mniej inteligentnych), jest w stanie przestrzegać wielu reguł
logicznych i z dużą łatwością ustosunkowywać się krytycznie do rozumowań im

26

Gottlob Frege, Myśl – studium logiczne, tłum. Bogusław Wolniewicz, w: Idem, Pisma semantyczne, Warszawa

1977, s. 101-128.

27

Idem, Logika i psychologia. Rozważania z pogranicza nauk, tłum. Michał Zagrodzki, Warszawa 1993, s. 8.

28

Jerrold Katz, Language and Other Abstract Objects, Rowman and Littlefield Publishers 1981; Idem,

Metaphysics of Meaning, MIT Press 1992.

14

background image

podkładanych pod rozwagę. W rezultacie Johnson–Laird twierdzi, że nie może istnieć nic
takiego, jak logika umysłu, której realności psychologicznej broni właśnie Macnamara

29

.

Johnson–Laird twierdzi, że skoro nie udało się stworzyć takiego sposobu

sformalizowania rachunku, aby możliwe było przeprowadzenie w jego obrębie każdego
prawomocnego wnioskowania (konsekwencja twierdzenia Gödla); jeżeli zatem niemożliwe
jest istnienie logiki formalnej, obejmującej wszystkie ważne dedukcje, to tym bardziej
niemożliwe jest istnienie logiki umysłu. Macnamara replikuje jednak, że jest to argument na
rzecz niepełności logiki umysłu, ale nie przeciwko niej samej. Dlaczego logika miały być
pełna z tego tylko powodu, że jest logiką umysłu?

Istnieje jednak jeszcze inny zarzut wobec logiki umysłu, wysuwany przez

psychologów. Psychologowie poznawczy muszą odróżniać w swojej teorii wnioskowanie
prawomocne od nieprawomocnego, tak samo jak muszą odróżniać obliczenia poprawne od
błędnych, tak samo jak lingwiści muszą być zdolni różnicować zdania gramatyczne od zdań
niepoprawnych. Ostatecznie błędy należy wyjaśniać w inny sposób niż czynności poprawne.
Jeśli teraz postulowalibyśmy istnienie logiki umysłu, w której prawa logiczne pozostawałyby
do myślenia tak jak, powiedzmy, prawa ruchu do poruszania się obiektów fizycznych, to błąd
logiczny wydawałby się wykluczony. Gdyby np. prawo sprzeczności było podstawowym
warunkiem myślenia, tak jak prawa ruchu są podstawowym warunkiem poruszania się
obiektów fizycznych, to istnienie błędów logicznych byłoby co najmniej niezrozumiałe. Jak
zatem zwolennicy postulowania istnienia logiki umysłu, radzą sobie z wyjaśnianiem istnienia
błędów logicznych?

Jeśli wytwarzanie następstwa myśli wyznaczałyby prawa logiczne, to rzeczywiście

żadne takie następstwo nie mogłoby zostać wytworzone z pogwałceniem tychże praw. Fakt
ten wykluczałby nie tylko błąd logiczny, ale również wiele fantastycznych myśli, do których
wszyscy jesteśmy zdolni. Podobnie, gdybyśmy przyjęli, że mechanizmy generujące
następstwo myśli funkcjonują automatycznie bez udziału świadomości, to również błąd
logiczny byłby trudny do wyjaśnienia. Ponadto w takiej sytuacji, mechanizmy generujące
mogłyby zostać wyłączone jedynie poprzez jakąś usterkę mechaniczną lub po prostu śmierć.
Z tych powodów być może należy uznać, że mechanizmy ustalające prawomocne relacje
między myślami są dostępne dla świadomości. Zaczynają one prawdopodobnie działać
retrospektywnie wtedy, gdy pewne sekwencje zdań logicznych zostały już wytworzone.
Ścisłej rzecz biorąc prawa wnioskowania nie są prawami wytwarzania myśli, ale prawami
oceny prawomocności myśli, stąd nie wykluczają one możliwości błędu.

Jaakko Hintikka o logice:

Twórczość filozoficzna Hintikki jest wielokierunkowa. Obejmuje ona: logikę

klasyczną, logikę deontyczną (system dedukcyjny, w którego twierdzeniach występują stałe
deontyczne takie jak: „jest obowiązkowe to, że”, „jest dozwolone to, że”, „jest zakazane to,
że”), logikę epistemiczną (system dedukcyjny, w którego twierdzeniach występują stałe
epistemiczne takie jak: „wierzyć”, „uznawać”, „być przekonanym”, „przypuszczać”,
„rozumieć”, „odrzucać”, etc.), logikę erotetyczną (logika pytań), logikę istnienia, logikę
indukcji, filozofię logiki i matematyki, filozofię języka, filozofię nauki oraz historię filozofii.
Ta wielość zainteresowań logicznych jest nieprzypadkowa

30

.

U podstaw jego filozofii leży przekonanie o fundamentalnej roli logiki w dociekaniach

filozoficznych. Hintikka podziela przeświadczenie charakterystyczne dla filozofii
analitycznej, iż właściwą domeną dociekań filozoficznych jest formalistyczna rekonstrukcja.

29

Philip N. Johnson–Laird, Mental Models, Cambridge 1983, s. 140-141.

30

Jaakko Hintikka, Logika epistemiczna i metody analizy filozoficznej, w: Idem, Eseje logiczno–filozoficzne,

tłum. Adam Grobler, Warszawa 1992, s. 27-51.

15

background image

Twierdzi on, że współczesna logika dostarcza adekwatnych narzędzi do formalizacji
obszernych fragmentów języka potocznego. Jego zdaniem logika formalna nie stanowi jednak
ani rygoryzacji istotnych wycinków mowy potocznej, ani też rewizji naszego naturalnego
podejścia do pojęć. Poszczególne gałęzie logiki najlepiej traktować jako model wyjaśniający,
który pozwala uchwycić pewne aspekty funkcjonowania języka potocznego. Można w
pewnych przypadkach uznać, że taki model ujawnia „logikę głęboką” ukrytą pod
powierzchnią skomplikowanych realiów potocznego użycia wyrażeń epistemicznych i
pozwala wyjaśnić owe zawiłości. Dlatego stanowi on nie tylko propozycję modyfikacji języka
potocznego, ile próbę pełniejszego jego zrozumienia. Hintikka stara się połączyć idee późnej
filozofii Wittgensteina, związaną z problemem gier językowych, z metafilozoficzną opcją
formalistów w analizie filozoficznej. Jego pogląd można sformułować w postaci twierdzenia:
różne gry językowe dają się wyrazić za pomocą różnych systemów logicznych.

5. Problem kompetencji

Gramatyka generatywna za przedmiot swego opisu uznała tzw. idealnego użytkownika

języka tj. takiego, który należy do całkowicie jednorodnej społeczności językowej i zna
język w sposób doskonały. Wykorzystując swoją znajomość języka podczas czynnego
zachowania językowego nie podlega on też takim gramatycznie nieistotnym
uwarunkowaniom, jak ograniczoność pamięci, rozproszenie uwagi, przerzuty zainteresowania
oraz błędy (przypadkowe lub systematyczne). Chomsky czyni podstawowe rozróżnienie
między kompetencją – znajomością języka, która za pomocą skończonego zestawu reguł
umożliwia nam tworzenie praktycznie nieograniczonego zakresu zdań; oraz wykonaniem
praktycznym użyciem języka w konkretnych sytuacjach. Wykonanie stanowi bardzo rzadko
bezpośrednie odzwierciedlenie kompetencji (wiedzy). W zasadzie jest tylko jeden taki
przypadek i ten właśnie przypadek jest przedmiotem analizy teorii Chomsky’ego. Jest to
mianowicie przypadek idealnego użytkownika języka.

Kompetencja językowa (faculté de langage) stanowi tylko jeden składnik

całościowego systemu operacji myślowych stosowanego przez człowieka do rozwiązywania
problemów i tworzenia pojęć, stanowi tylko jedną z władz umysłu. Mimo, że należy
oczekiwać różnicy w sposobie, w jaki organizm będzie przystępował do rozpracowania
systemów przypominających język oraz takich, które języka nie przypominają, to jednak
można przyjąć, że istnieje analogia w badaniach nad kompetencją i wykonaniem w zakresie
innych władz umysłu (percepcji, budowania pojęć, szacowania prawdopodobieństw, etc.).
Badania nad gramatyką generatywną usiłują ustalić to, co użytkownik języka faktycznie wie,
a nie to, co może zrelacjonować o swej wiedzy gramatycznej. Podobnie teoria percepcji musi
wyjaśnić to, co faktycznie widzi analizator percepcyjny; nie może więc ograniczać się do
sądów percepcyjnych osoby spostrzegającej

31

.

Mimo, że sfera realizacji – wedle sugestii Chomsky’ego – jest zawsze tylko pochodną

sfery kompetencji, to jednak z racji niedostępności empirycznej sfery utajonej wiedzy
podmiotu, skazani jesteśmy na wyniki badań nad wykonaniem. Innymi słowy, mimo, że
Chomsky twierdził – „badanie wykonania posunie się jedynie o tyle, o ile pozwoli na to
zrozumienie leżącej u jego podstaw kompetencji”

32

, to jednak wszystko, co wiemy o

kompetencji, wiemy poprzez badanie realizacji. Kompetencja, którą Chomsky usiłuje
wyjaśniać, to gramatyka uniwersalna, ale ta ujawnia się tylko przy uczeniu się kompetencji
gramatycznej konkretnych języków, a także w intuicji językowej oraz możliwości
funkcjonowania tych języków. Gramatyka uniwersalna jest zatem podwójnie oddalona od

31

Zenon W. Pylyshyn, Competence and Psychological Reality, „American Psychologist”, nr 27, 1972, s. 546-

552.

32

Noam Chomsky, Zagadnienia teorii składni, tłum. Ireneusz Jakubczak, Warszawa 1982, s. 23.

16

background image

danych empirycznych. Językoznawcy muszą zbudować (a) gramatyki konkretnych języków,
by następnie (b) przewidzieć zbiór uniwersalnych wyznaczników kształtujących te gramatyki.

Z pojęciem kompetencji w filozofii umysłu jest mniej więcej tak, jak z pojęciem

paradygmatu w filozofii nauki: zrobiło ono ogromną karierę mimo niejasności znaczeniowej.
Pojęcie kompetencji w tekstach Chomsky’ego nigdy nie stało się jasne i jednoznaczne.
Przenoszone do innych dziedzin, pozajęzykowych, staje się jeszcze bardziej zagadkowe.
Myślę, że można mu nadać kilka znaczeń.

(1) Chomsky upiera się przy twierdzeniu, że kompetencja językowa jest „wiedzą, że”,

co oznacza, że jest wiedzą (a nie zbiorem umiejętności) o możliwościach języka
naturalnego

33

. Powiada on wielokrotnie całkiem wyraźnie, że wiedza, na którą wskazuje

pojęcie kompetencji, nie jest nawykiem ani zbiorem nawyków. Nie jest jednak jasne, czy
wszystkie rodzaje kompetencji, w tym kompetencja logiczna, dadzą się wyjaśnić w
kategoriach przekonań, tj. w kategoriach wiedzy deklaratywnej. Prawdopodobnie, będzie
czymś koniecznym, postulowanie istnienia mechanizmów, które wykonują pewne operacje,
gdy spełnione są wyznaczone warunki. Usiłowanie dokonania interpretacji jednych zdań za
pomocą innych zdań (i tylko zdań) prowadzi bowiem do nieskończonej regresji. Aczkolwiek
mimo, że musimy użyć zdania, aby wyrazić jakąś formułę, pokroju – „W okolicznościach X,
wykonaj O”, to procedura sama w sobie nie jest zdaniem, lecz mechanizmem, który wykonuje
operacje. Należy zatem oczekiwać, że opis kompetencji, w szczególności w sferach
pozajęzykowych, dokona się, przynajmniej częściowo w kategoriach „wiedzy, jak”.

(2) Kompetencja językowa to opis intuicji językowych, a zatem automatycznych ocen

gramatycznego statusu ciągu słów. Ponieważ gramatyczność nie daje się opisać za pomocą
dostępnych spostrzeżeniowo cech ciągów słów i ponieważ nie potrafimy zapamiętać zbioru
ciągów słów, które możemy ocenić jako gramatyczne, nasza ocena gramatyczności musi
opierać się na zbiorze reguł. Nie jest jasne, czy tak rozumiana kompetencja da się, na zasadzie
ekstrapolacji, wykorzystać do opisu innych rejonów funkcjonowania poznawczego człowieka.
Czy zatem kompetencja logiczna jest opisem intuicji dotyczących warunków prawdziwości; a
intuicja matematyczna opisem intuicji dotyczących prawomocnych obliczeń; kompetencja
fizyczna opisem intuicji dotyczących np. mechaniki ciał; kompetencja percepcyjna opisem
intuicji optycznych; kompetencja moralna opisem intuicji wchodzących w skład teorii
sprawiedliwości; etc.? Problem jest tym bardziej dotkliwy, że w niektórych sferach (np.
optyka czy gramatyka) opis intuicji jest w zasadzie opisem urządzenia funkcjonującego poza
wolą i świadomością, w innych jednak dziedzinach (np. logika i moralność) nie może być to
opis tylko urządzenia funkcjonującego w sposób pozaintencjonalny i nieświadomy.

(3) Teoria kompetencji jest w ujęciu Chomsky’ego częścią psychologii, która skupia

uwagę na jednej specyficznej dziedzinie poznawczej i na jednej z władz umysłu, tj. władzy
językowej. Taka deklaracja kwalifikuje stanowisko Chomky’ego jako jawnie
psychologistyczne. Jeśli chcielibyśmy utrzymać w mocy krytykę psychologizmu dokonaną
przez Husserla i Fregego, to musimy dostrzec ograniczenia analogii pomiędzy kompetencją
gramatyczną a logiczną.

Są jeszcze inne konteksty znaczeniowe wyrażenia „kompetencja” takie jak idealizacja

i abstrakcja od wykonania, które poruszałem już wcześniej, nie będę zatem do tego wracał w
tym momencie.

33

Noam Chomsky, Aspects of The Theory of Syntax, MIT Press, 1965; Language and Mind, New York 1968;

Reflections on Language, Pantheon, 1975; The Logical Structure of Linguistic Theory, University of Chicago
Press, 1975; Rules and Representations, Columbia University Press, 1980; Theory of Government and Binding,
MIT Press, 1982; Knowledge of Language: Its Nature, Origin and Use, New York and Philadelphia 1986.

17

background image

Piaget o logice i psychologii. Fodor o epistemologii genetycznej:

Z racji, że Piaget dopuszczał ścisłą odpowiedniość między logiką a mechanizmami

przetwarzania informacji w umyśle człowieka dorosłego, a zarazem twierdził, że struktury
logiczne, które przypisujemy dorosłym, nie występują u dzieci, można by go posądzić o
stosowanie strategii normy założonej: logika człowieka dorosłego pozwala zobaczyć, jak
bardzo myślenie dzieci od nich odbiega. Z drugiej jednak strony sugerował on, że logika
matematyczna może być aksjomatyzacją operacji umysłowych, niezależnie od poziomu
rozwoju i wieku

34

. Próbował dookreślić charakterystyczne dla danego okresu rozwojowego

zasady postępowania myślowego.

Rozwój poznawczy, w tym ujęciu, to ciąg coraz silniejszych formalizacji. Na pewnym

poziomie n przedmioty stanowią treść pierwszej formy, którą podmiot do nich stosuje, ale na
następnym poziomie (n + 1) ta właśnie forma staje się treścią formy wyższego rzędu, która
nie ma już bezpośredniego kontaktu z przedmiotami. Na poziomie n + 2 forma n + 1 zostaje
włączona do następnej nowszej formy jako jej treść. W tym sensie przedmioty tracą coraz
bardziej swą funkcję znaczeniową. Z tego właśnie powodu prędzej czy później dla podmiotu
staje się łatwe zastąpienie konkretnego przedmiotu przez obiekty symboliczne i wejście na
drogę, która ostatecznie będzie prowadzić do myślenia formalnego. Ostatnim poziomem, w
tak pojętym rozwoju, jest poziom osiągany przez myśl w czystej matematyce.

Ta wizja ontogenezy umysłu – jako następstwa coraz silniejszych „logik”, silniejszych

w tym sensie, że zbiór prawd, które mogą być wyrażone przy użyciu pojęć na etapie i jest
podzbiorem prawd, które mogą być wyrażone za pomocą pojęć dostępnych na etapie i + 1,
może się okazać jednak trudna do uzasadnienia teoretycznego, jeśli zważyć tezę Fodora.
Autor Języka myśli dowodzi mianowicie, że nie ma teorii uczenia się, a nawet, że takiej
teorii być nie może, że sama idea uczenia się pojęć jest pomyłką. Zmiany formacji
myślowych (kolejnych faz ontogenezy) nie mogą być wynikiem procesu uczenia się, mogą
być one jedynie wynikiem procesu utrwalania przekonań. Jeżeli przez uczenie rozumieć
formułowanie i sprawdzanie hipotez, to nie jest nigdy możliwe nauczenie się logiki bogatszej
na bazie logiki słabszej. Jest tak, bowiem za pomocą aparatu pojęciowego dostępnego na
poziomie i nie możemy formułować hipotez dotyczących warunków prawdziwości formuł
dostępnych na poziomie i + 1, bo to właśnie z tego względu logika i + 1 jest silniejsza od
logiki i

35

.

Niewykluczone jednak, że teza Fodora doprowadza do wniosków o wiele bardziej

paradoksalnych, niż konstruktywizm Piageta. Jednym z tych wniosków jest taka oto
implikacja: mechanizmy darwinowskie nie są zdolne do tego, by wytworzyć sekwencję form
wiodącą do powstania gatunku Homo sapiens. Z tego zaś wynika: że wszystkie gatunki i ich
kolejne formy zawarte były w protoinformacji genetycznej. Nie jestem pewny, czy sam Fodor
byłby skłonny przyjąć tego rodzaju twierdzenie. Podobnie, należy przyjąć, że język myśli
wyposażony jest w logikę w wyartykułowanym sensie najsilniejszą. Chomsky ograniczał się
do twierdzenia, że gramatyka uniwersalna musi: (1) z jednej strony być dostatecznie bogata,
aby wyjaśnić łatwość i szybkość przyswajania języka etnicznego przez dziecko; (2) z drugiej
jednak strony musi być na tyle uboga w szczegółowe rozwiązania gramatyczne, aby stanowić
punkt wyjścia nie tylko dla wszystkich znanych języków etnicznych, ale i dla wszystkich w
ogóle języków dających się pomyśleć. Te dwa warunki stanowiły istotne ograniczenie
inżynieryjne dla projektów gramatyki uniwersalnej. W projekcie języka myśli Fodora te
ograniczenia nie są już tak oczywiste.

34

Patrz w tej sprawie m.in.: Leon Koj, Psychologiczna geneza pojęcia zbioru, w: Idem, Myśl i znak, Białystok

1990, s. 85-110.

35

Jerry A. Fodor, 1995, Utrwalanie przekonań i nabywanie pojęć, tłum. Michał Tempczyk, w: Katarzyna Rosner

(red.) Noama .Chomsky’ego próba rewolucji naukowej, Warszawa 1995, s.155.

18

background image

Piaget o nauce spójników zdaniowych. Macnamara o niemożności nauczenia się

znaczeń tych spójników:

Piaget rozważając relacje pomiędzy kształtowaniem się intuicji logicznych i

gramatycznych zauważył, że dziecko, jeszcze w wieku 7–9 lat nie jest w stanie posługiwać się
jednoznacznie wyrażeniem „ponieważ”

36

. W języku dziecka słowo to służy do wyrażania

wszelkiego typu związków: przyczynowych, celowych, relacji następstwa czy wynikania;
przy czym dziecko nie zdaje się być zupełnie zakłopotane tą różnorodnością. Ponadto Piaget
zasugerował, że dzieci poniżej 11–12 roku nie rozumieją praktycznie wcale znaczeń
spójników niezgodności, takich jak: „jakkolwiek”, „mimo że”, „chociaż”. itp. Gdy chodzi o
związki przyczynowe, dziecko samorzutnie zastępuje w swym języku „ponieważ” przez
zwykłe „i”; co oznacza, że zachowuje się tak, jakby połączenia przyczynowe można było
zastąpić jakimś połączeniem nieokreślonym. Podobnie, jeśli chodzi o niezgodność, dziecko
nie ma w swym języku żadnego wyrazu, oznaczającego ten związek, stąd wyraża pewien
rodzaj niezgodności w zaczątkowej formie za pomocą słowa „ale”. Piaget wyciąga wniosek
ogólny z tych danych: dziecko do pewnego czasu używa spójnika „ponieważ” podstawiając
pod nie znaczenie spójnika „i”, podobnie używa spójnika „chociaż” podstawiając pod nie
znaczenie słowa „ale”.

Nie jest to przypadek, albowiem „ale” znajduje się w takim samym stosunku do

„chociaż”, jak „i” do „ponieważ”. Podobnie jak zdanie: „Szklanka stłukła się, ponieważ
spadła” można przekształcić na: „Szklanka spadła i stłukła się”, tak można też zastąpić
„jakkolwiek” w zdaniu: „Szklanka nie stłukła się, jakkolwiek spadła” przez „ale”: „Szklanka
spadła, ale się nie stłukła”. Zdaniem Piageta „ale” nie wyraża istotnej niezgodności, lecz
ogranicza się tylko do wypowiadania „poczucia niezgodności”, podobnie jak „i”, zamiast
wyrażać rzeczywistą przyczynowość lub wynikanie, ogranicza się do oznaczania „poczucia
łączności”.

Powstaje jednak pytanie, skąd Piaget wie, co oznacza dla dorosłych słowo

„ponieważ”, skąd w nim pewność, że dorośli nie popadają w konfuzję semantyczną w trakcie
posługiwania się tym wyrażeniem? Kiedy rozważymy następujące trzy zdania: „Połową
liczby 10 jest liczba 5 ponieważ 5 + 5 równa się 10”, „Janek upadł ponieważ potknął się o
wystający kamień”, „Zosia pocałowała Janka ponieważ się w nim zakochała” zdamy sobie
sprawę, że znaczenie tego słowa wcale nie jest i dla nas dorosłych oczywiste i jednoznaczne.
Może ono znaczyć prosty związek przyczynowo–skutkowy, może oznaczać relację
wynikania, a może też oznaczać relacje łączące postawy mentalne z zachowaniami. Piaget
zatem zakłada, posługując się metodą normy założonej, że sens słowa „ponieważ” jest
zrozumiały i powszechnie w środowisku ludzi dorosłych akceptowalny. Nie bierze pod uwagę
np. dyskusji nad przyczynowością inspirowaną naukami przyrodniczymi. Ponadto, co to
znaczy wiedzieć jak posługiwać się spójnikiem „i”; czy znaczy to mieć świadomość, że
koniunkcja dwóch zdań składowych jest tylko wtedy prawdziwa, gdy oba te zdania są
prawdziwe?

Piaget sugeruje, że spójnik „i” lub „albo” używany jest przez dziecko znacznie

wcześniej niż spójnik „ponieważ” lub „chociaż” ponieważ jest mniej „wymagający
logicznie”. Spójnik „i” wyraża jedynie „poczucie łączności” tak jak spójnik „albo” wyraża
jedynie „poczucia niezgodności”. Macnamara, dyskutując z poglądami Piageta, twierdzi, że
dzieci, które dysponowałyby pojęciem prawdy i fałszu, a nie dysponowałyby żadnym
funktorem prawdziwościowym, nie byłyby w stanie nauczyć się całego zbioru tych
funktorów, którymi operuje logika zdań. Ponieważ spójnik „i” jest funkcją prawdziwościową

36

Jean Piaget, Sąd i rozumowanie u dziecka, tłum. J. Pini–Suchodolska, Lwów 1939, s. 18-67.

19

background image

od wartości logicznej, to uczenie się jego znaczenia zakłada pojęcie prawdy i zdolność do
identyfikowania obiektów, mogących zająć jego miejsca argumentowe, tj. zinterpretowanych
zdań.

Oczywiście wiadomo, że za pomocą jednych funktorów można zdefiniować pozostałe.

Np. implikację materialną można zdefiniować przy użyciu funktorów i i nie: (p → q) wtedy i
tylko wtedy gdy ~ (p i ~ q). Dzieci, które znają zarówno „i” jak i „nie”, a w dodatku potrafią
wyrażać definicje, mogą nauczyć się znaczenia implikacji materialnej. Podobnie „i” można
zdefiniować za pomocą innych funktorów, na przykład „nie” i „lub”.

Macnamara pyta jednak nie o to, czy dzieci potrafią nauczyć się takiej czy innej

funkcji, ale czy mogą nauczyć się całego zbioru funktorów prawdziwościowych. Jeśli jest tak,
jak sugeruje Piaget, że dzieci przez długi okres czasu nie potrafią przypisywać jednostek do
klas, znaczyłoby to również, że nie potrafią się one posługiwać predykatami, bo na tym
właśnie polega ta umiejętność. Przy takim braku nie potrafiłyby one sformułować ani
zrozumieć zdania, z tego by jednak wynikało, że nie mogłyby w adekwatny sposób rozumieć
funktora zdaniowego, w tym funktora „i”. Ponadto, za pomocą pojęć referencji i prawdy
możemy zdefiniować predykaty jako takie składniki, które w połączeniu z wyrażeniami
referencyjnymi dają w efekcie obiekty posiadające wartość logiczną. Prawda jednak sama w
sobie jest predykatem. Jak zatem ktoś, kto nie potrafi posługiwać się predykatami, mógłby
posługiwać się predykatami „prawdziwy” lub „fałszywy”? Wniosek Macnamary jest
następujący: funktor „i” należy traktować jako funktor podstawowy, tj. jako niewyuczony
funktor należący do języka myśli, co oznacza, że dzieci nie uczą się funkcji wyrażanej przez
„i” w jego prawdziwościowej roli.

5. Psycholog jako intelektualny położnik

Kusi myśl, by powiedzieć, że w ten sposób ponownie odkryliśmy Sokratesa. Możemy

prowadzić dyskusje z ludźmi na dwa sposoby, tj. możemy udawać położników, by
wykazywać badanym osobom, że wiedzą znacznie więcej niż zdaje im się, że wiedzą, a zatem
możemy stosować majeutykę. Możemy też jednak udowadniać ludziom bezzasadność ich
roszczeń poznawczych; tj. możemy im pokazywać, że żyją jedynie złudzeniami a nie
przekonaniami, a zatem wiedzą o wiele mniej niż im się wydaje, że wiedzą; w rezultacie
możemy stosować metodę elenktyczną. Czy psychologowie rzeczywiście dzielą się na
położników przeprowadzających udane porody wiedzy, stosując metodę normy
wyprowadzanej i akuszerki doprowadzające do poronień, stosując metodę normy założonej?

Z faktu, iż rachunek prawdopodobieństwa jest gałęzią matematyki, którą niewielu

ludzi opanowało w pełni, wielu psychologów, stosujących metodę elenktyczną (normy
założonej), wyprowadziło wniosek, iż ludzie są niezdolni do obliczania prawdopodobieństwa
zdarzeń zgodnie z wymogami nauki. Powiada się też, że osoby, które nie potrafią posługiwać
się liczbami, nie mogą przyporządkować swemu wnioskowi liczby określającej stopień
pewności, a nawet ludzie sprawnie operujący liczbami mogą w swojej reprezentacji
poznawczej nie mieć gotowości do liczbowego określania przekonań. Z tych „danych”
wyprowadza się wniosek, że przekonania jednostek rzeczywiście mogą się różnić pod
względem subiektywnej siły pewności, nie wynika z tego jednak, że takie różnice wymagają
umysłowej reprezentacji numerycznych prawdopodobieństw. Podobnie z faktu, iż nasze
rozumowania uwikłane są w konteksty sytuacyjne i wielu z nas nie rozróżnia podstawowych
schematów wnioskowań takich jak modus ponens czy modus tollens, wielu wyprowadziło
wniosek o bezużyteczności logiki formalnej do opisu i zrozumienia wnioskowań potocznych.
Wreszcie z faktu, iż wiele zdań w pełni gramatycznych jest dla nas niezrozumiała, a wiele
zdań niegramatycznych jest dla nas dopuszczalna i zrozumiała, wielu wyprowadziło wniosek
o bezużyteczności metod składniowych dla zrozumienia naszych umiejętności językowych.

20

background image

Myślę, że powyższe wnioski są przedwczesne, pochopne i nietrafne. Fakt, że ludzi

można nauczyć z różnym skutkiem pewnych praw lub zasad i że czasem popełniają oni błędy,
stosując je poza zakresem ich obowiązywania, nie mówi nam nic o tym, jaką postać
przyjmują te prawa w umysłach ludzi. Mogą one przyjmować postać schematów lub
specyficznych względem treści reguł wnioskowania, lecz mogą też być reprezentowane w
sposób deklaratywny. Nie wiadomo jak prawa te wpływają na sam proces myślenia. Kiedy
np. zdziwię się bardziej wtedy, gdy moneta upadnie orłem na wierzch dziesięć razy z rzędu,
niż wtedy, gdy upadnie tylko trzy razy z rzędu w ten sam sposób, to czy należy stąd
wyprowadzić wniosek, że posiadam ukrytą, cichą znajomość prawa wielkich liczb, zgodnie z
którym: im większa jest próbka z populacji, tym mniej jej średnia będzie się różnić od
średniej z populacji? Nie sądzę, wystarczy przyjąć, że umysł jest tak skonstruowany, że
trudno mu uznać istnienie serii zdarzeń wobec siebie zupełnie niezależnych. W istocie, w
przyrodzie zdarzenia następujące po sobie i względem siebie zupełnie niezależne należą do
rzadkości.

Mówiąc jeszcze inaczej, istnieje pewna bardzo prosta procedura wprowadzania ludzi

w błąd. Niestety, nadużywana przez psychologów. Aby jej doświadczyć rozważmy prosty
przykład. Przypuśćmy, że psycholog zajmujący się (niby) badaniem intuicji gramatyczności
zadaje nam pytanie: czy bardziej poprawne jest powiedzenie, że żółtko jest białe, czy też, że
żółtka są białe?; a psycholog zajmujący się (niby) rozumieniem wyrażeń wchodzących w
skład słownika pokrewieństwa, zadaje nam pytanie: czy Kościół katolicki pozwala
mężczyźnie na poślubienie siostry wdowy po nim? Jeśli jesteśmy dostatecznie czujni i
stanowczy na pierwsze pytanie odpowiadamy, że żółtka nie są białe, ale żółte; a na drugie, że
martwi mężczyźni nie wchodzą w związki małżeńskie. Jeśli jednak nasz poziom stanowczości
jest mniejszy, tj. wykazujemy tendencje do podporządkowywania się innym osobom, to być
może będziemy czuli się w obowiązku sformułowania odpowiedzi bezpośrednio na zadane
pytanie, a nie podważenia samego pytania. Twierdzę, że z tych właśnie powodów, ludzie
godzą się ze stwierdzeniami pokroju, że liczba „3” jest lepszym przykładem liczby
nieparzystej niż liczba „13” lub że „matka” jest doskonalszym przykładem „kobiety” niż
„aktorka komediowa”; równocześnie jednak zdolni są dokonania refleksji, że liczba jest albo
parzysta, albo nieparzysta oraz że osoba jest albo kobietą, albo mężczyzną, i nie ma tu
żadnych stopni pośrednich.

Podobnie, kiedy stawiamy ludzi wobec problemu typu: załóżmy, że w szufladzie w

ciemnym pokoju znajduje się 24 czerwone i 24 niebieskie skarpety; jaka jest najmniejsza
liczba skarpet, jaką muszę wyciągnąć z szuflady, by mieć pewność, że mam co najmniej dwie
skarpety w tym samym kolorze? Na co słyszymy odpowiedź: 25 (a nie jak oczekujemy: 3), to
niekoniecznie musimy wyprowadzać wniosek, że ludzie są bezradni wobec tego typu
problemów, możemy przyjąć w zamian, że odpowiadają oni zapewne na inne pytanie, tj. na
pytanie: jaka jest najmniejsza liczba skarpet, jaką muszę wyciągnąć z szuflady, by mieć
pewność, że mam co najmniej dwie skarpety w różnym kolorze? Wszystko sprawia wrażenie,
że psychologowie odwołujący się do idei normy założonej, usiłują na nowo przyswoić w
sposób niezwykle wybiórczy pojęcie ironii Sokratejskiej; sprawiają oni bowiem, że ten, kto
się do niej zbliży i ich dotknie, „intelektualnie drętwieje”.

21

background image

René Thom o porodach i poronieniach:

Dla Thoma każdy dowód jest odkryciem nowej struktury, której elementy leżą

niepowiązane w intuicji człowieka, dopóki rozumowanie człowieka ich nie złoży w jedną
całość. W tym sensie każdy dowód jest doświadczeniem sokratycznym; chodzi o wywołanie
w umyśle osoby „uczącej się” procesu koniecznego dla wyłonienia prawdy, której wszystkie
dane już są umocowane w umyśle tej osoby, lecz pozostają jeszcze ukryte i
niesformułowane

37

. Program aksjomatyzacji matematyki przedstawiony przez Hilberta, próba

oparcia matematyki na teorii zbiorów Cantora, czy wreszcie formalistyczno–
strukturalistyczny program Bourbakistów, a w szczególności pedagogiczne pomysły
nauczania matematyki w oparciu lub odwołaniu do tych programów, są dla Thoma
kolosalnymi pomyłkami. Nauczanie matematyki w formie wielkich struktur abstrakcyjnych
stworzonych przez matematykę współczesną nie jest skutecznym czynnikiem ułatwiającym
naukę.

Jak pisze sam Thom, odwołując się do metafory położniczej, „wielkie struktury

abstrakcyjnej logiki, jak pojęcie relacji równoważności, silne środki abstrakcji, mocno
przypominają brutalne narzędzia ingerencji chirurgicznej jak kleszcze czy cesarskie cięcie”

38

.

Zdaniem Thoma, jeśli zastosuje się cesarskie cięcie przedwcześnie, nie pozwolimy na udany
poród dziecka i ryzykujemy zdrowiem matki. Jeśli, natomiast przeciwnie, pozwolimy dziecku
rozwijać się, dojrzewać, dostarczając mu odpowiedniego środowiska pokarmowego,
oddzielenie się od macierzystej struktury odbędzie się samo z siebie, w sposób naturalny i bez
pomocy silnych i nieczułych narzędzi, jakimi są abstrakcyjne pojęcia logiki. Dać zarodkowi
dojrzewać, to w istocie rzeczy doprowadzić go stopniowo do świadomości, a zatem nadać mu
sens i znaczenie.

Thom przeciwstawia się zasadzie ekstensjonalności, zgodnie z którą znaczenie danego

pojęcia to jego zakres zastosowania. Któż mógłby się pochwalić, że dysponuje pełną
znajomością zbioru czerwonych przedmiotów we wszechświecie? Jeśli nikt, to nikt nie zna
znaczenia słowa „czerwony”. Zdaniem Thoma myślenie zawsze oparte jest na rozumieniu
treści pojęcia (intensji) i prawie nigdy jego zakresu (ekstensji). Geometria jest dla Thoma
naturalnym i niemożliwym do zastąpienia łącznikiem między językiem potocznym a
sformalizowanym żargonem matematycznym, w którym każdy obiekt jest zredukowany do
roli symbolu. Z jego punktu widzenia stadium myślenia geometrycznego jest etapem nie do
ominięcia w normalnym rozwoju racjonalnej działalności człowieka. Intuicja ciągłości
wyprzedza intuicje nieciągłości, tak jak intuicje geometryczne wyprzedzają intuicje
arytmetyczne.

Zdaniem Thoma musimy zatem odróżnić położników, którzy potrafią doprowadzić do

szczęśliwych porodów, od położników, którzy doprowadzają jedynie do poronień. Ci pierwsi
starają się budować swe teorie odwołując się do ubogich składniowo i bogatych treściowo
naturalnych intuicji językowych badanych; ci drudzy natomiast usiłują modelować intuicje
badanych odwołując się do rozbudowanych składniowo, ale ubogich semantycznie modeli.

6. Bilans zysków i strat

Metoda normy założonej, przyjmuje, że reakcje osób badanych powinny być zgodne z

przyjętymi założeniami, natomiast metoda normy wyprowadzanej traktuje każdą reakcję jako
potencjalnie wskazującą na normę, stosowaną, co prawda w sposób naiwni i najczęściej
nieuświadomiony, przez osobę badaną. W ten sposób znika dylemat, czy uzyskane rezultaty

37

René Thom, Czy istnieje matematyka nowoczesna?, tłum. Roman Duda, „Wiadomości Matematyczne”, 1981,

nr 23, s. 130–142;

38

Ibidem, s. 136.

22

background image

badań są rzeczywistymi wynikami eksperymentu, tj. wskaźnikami zdolności do dokonywania
oszacowań, obliczeń, czy przeprowadzania rozumowań, czy też są raczej artefaktami
wynikającymi z takiej czy innej instrukcji, takiej czy innej sugestii, lub wreszcie efektem
odgadnięcia oczekiwać badacza przez badanego.

Jeżeli badacz stawia osobom badanym zadania związane z realnymi sytuacjami

życiowymi i nie instruuje ich z góry, jak też sam a priori nie przesądza, jaką koncepcją mają
się posługiwać, to zmuszony jest wywnioskować z ich zachowania, jaką koncepcją się
rzeczywiście posługują. Gdy jednak instruuje badanych, jaką koncepcją będzie się on, a w
konsekwencji jaką koncepcją mają się oni posługiwać, to nie mamy już do czynienia z
osobami naiwnymi, nieuprzedzonymi. Popełniane przez badanych błędy mogą być wówczas
uznane za miarę irracjonalności badanych lub... za miarę nieodpowiedniości stosowanych
przez badacza instrukcji

39

.

Tversky, Kahneman w swoich badaniach nad „analfabetyzmem statystycznym” ludzi

zasugerowali, że wyniki ich badań nie potwierdzają modelu „prawda plus błąd”, który
zakłada istnienie spójnego systemu przekonań, podlegającego różnego rodzaju deformacjom i
błędom. Piszą oni: „Nie podzielamy optymistycznej opinii Dennisa Lindleya, według której
we wnętrzu każdej niespójnej osoby znajduje się osoba spójna, która stara się wydostać na
zewnątrz, i podejrzewamy, że niespójność nie jest zjawiskiem powierzchownym, lecz sięga
głębiej”

40

. Badacze powiadają także, że w myśleniu, podobnie jak w spostrzeganiu, te same

mechanizmy wytwarzają zarówno sądy prawomocne jak i nieprawomocne.

Otóż wydaje się, że powyższa analogia między złudzeniami wzrokowymi a błędami w

myśleniu (np. złudzeniem gracza) jest chybiona, głównie dlatego, że gdy pouczy się daną
osobę, że złudzenie, któremu ulega jest właśnie złudzeniem, że np. prosty patyk, zanurzony w
wodzie, jedynie wygląda jakby był złamany, to nic to nie zmieni w percepcji tej osoby: ona
nadal będzie ulegała złudzeniu, co właśnie jest dowodem na to, że złudzenia wzrokowe są
wytworem sprawnie działającego układu wzrokowego. Natomiast, kiedy uświadomimy
ludziom, że moneta nie ma pamięci i że kolejne rzuty monetą są niezależne od wcześniejszej
historii rzutów tą monetą, powstanie szansa na to, że złudzenie gracza zniknie, a zatem ludzie
nie będą mu ulegać. Ludzkie myślenie zatem jest łatwiejsze do skorygowania, niż ludzkie
doznania wzrokowe, co oznacza, że myślenie opiera się na mechanizmach dostępnych dla
naszej woli i świadomości.

Być może nadszedł czas, by zachować się jak księgowa i przeprowadzić klarowny

bilans zysków i strat dwóch omawianych strategii badawczych.

Bilans

Metoda normy założonej

Metoda normy wyprowadzanej

Prawdopodobne
zalety

1. Koncentracja na danych
eksperymentalnych i większa podatność
na
ewentualną falsyfikację.
2. Nie rozbija psychologii na dwa działy:
(a) zajmujący się sferą kompetencji; (b)
zajmujący się sferą wykonania. W
rezultacie broni jedności rozważań
psychologicznych; prawomocny model
wyjaśniający powinien radzić sobie z
przewidywaniami faktycznych zachowań

1.

Oszczędność eksplanacyjna:

przyjmowanie istnienia tylko normatywnie
prawidłowych mechanizmów rozumowania.
2. Pluralizm interpretacyjny oparty na
zasadzie życzliwości, zgodnie z którą
należy tak interpretować zachowanie i
wypowiedzi osób badanych, aby dały się
one uzasadnić w świetle jakiejś koncepcji ze
zbioru dostępnych teorii. Względnie należy
tak interpretować znaczenie

39

Patrz w tej sprawie na serię artykułów autorstwa Miltona J. Rosenberga, Roberta Rosenthala i innych,

pokazujących rodzaje wpływów i nacisków skierowanych na osoby badane wywoływanych przez osobę badacza
(eksperymentatora): Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów, (red.) Jerzy
Brzeziński i Jerzy Siuta, Poznań 1991.

40

Amos Tversky, Daniel Kahneman, Extensional Versus Intuitive Reasoning, „Psychological Review”, nr 90,

1983, s.313.

23

background image

ludzi.

niezrozumiałych terminów zawartych w
zdaniach, aby maksymalizować wartość
logiczną zdania.
3. Próba wykazania istnienia
konsekwentnego schematu postępowania w
ludzkiej aktywności poznawczej.
4. Nie rozbijanie ludzkiej aktywności na
sferę racjonalną (dojrzałą, cywilizowaną,
etc.) i kontrracjonalną (infantylną,
prelogiczną, etc.). Dostrzeżenie ciągłości w
historii ludzkiego poznania (tak w wymiarze
gatunkowym, jak i jednostkowym).

Prawdopodobne
wady

1. Eksplanacyjna rozrzutność:
przyjmowanie zarówno istnienia
normatywnie prawidłowych, jak i
wadliwych mechanizmów rozumowania.
2.

Arbitralność

postępowania

wyjaśniającego: przyjmowanie jako
zasadnej tylko jednej linii interpretacyjnej
dla danego zbioru danych.
3. Wyjaśnianie ludzkich zachowań
poprzez odwołanie się do
nieracjonalnych lub dezadaptacyjnych
heurystyk o niejasnym celu i
problematycznej genezie.
4. Niezdolność wyjaśniania form
myślenia rozbieżnego (dywergencyjnego),
tj. występującego przy rozwiązywaniu
zadań kilkoma sposobami. Próba
sprowadzenia wszystkich form myślenia
do typu zbieżnego (konwergencyjnego),
tj. występującego w zadaniach z jednym
rozwiązaniem.

1. Nadmierna i często nieuzasadniona
tolerancja
w kwestii wyjaśniania ludzkich
zachowań i wypowiedzi.
2.

Problematyczna falsyfikowalność

stawianych na jej bazie hipotez, wynikająca
z przerostu terminów teoretycznych nad
obserwacyjnymi.
3. Idealizacyjność stosowanych metod
postępowania wyjaśniającego, która rzutuje
na ograniczenia predykcyjne, tj. niską
zdolność do przewidywania faktycznego
zachowania ludzi.
4. Brak jasnej odpowiedzi na problem
adekwatności opisowej tj. wyboru
sztucznego systemu, wedle którego
modeluje się jakąś funkcję

języka

naturalnego lub własność poznawczą
umysłu.
5. Ignorowanie realności psychologicznej
postulowanych mechanizmów przetwarzania
danych.

Powyższa tabela, jak widać, niczego nie przesądza; suma zysków i strat wcale nie

bilansuje się na korzyść jednej czy drugiej strategii. Wynika z niej jedynie, że udało mi się
znaleźć więcej pozytywów dla strategii normy wyprowadzanej, ale też i niestety więcej
negatywów. Z racji jednak, że tabela nie pretenduje do kompletności, spór ciągle nie wydaje
mi się zamknięty.

24


Wyszukiwarka

Podobne podstrony:
PSYCHOANALIZA JAKO METODA TERAPII I LECZENIA
Rehabilitacja jako pomoc w rozwiązywaniu problemów życiowych niepełnosprawnych
PSYCHOLOGIA JAKO NAUKA
Bezrobocie jako jeden z najpoważniejszych problemów polskiej polityki społecznej, Pedagogika
kodeks PTP psycholog jako prakt , badacz !!!
Arteterapia dla osób z niepełnosprawno ciš intelektualnš Wybrane problemy teorii i praktyki
I psychologia jako nauka2
I psychologia jako nauka1
PSYCHOPATOLOGIA JAKO TEMAT I PRZEDMIOT ZAINTERESOWANIA W PROZIE XX
Psychologia ogólna - Historia psychologii - wykład 4 - Psychologia jako nauka o świadomości, Wykład
Psychologia rozwoju człowieka, Ściąga - psychologia, TEMAT 1: Przedmiot, podstawowe problemy i zaga
Metodologia badań z logiką dr Karyłowski wykład 1 Psychologia jako nauka empiryczna
Psychologia jako nauka wykład
psychologiczne aspekty połogu, Położnictwo, ginekologia
I Psychologia jako nauka - wyk-ad I, Psychologia

więcej podobnych podstron