background image

SZYMON WRÓBEL 

 

PSYCHOLOG JAKO INTELEKTUALNY POŁOŻNIK. 
PROBLEM WIEDZY UTAJONEJ I JEJ WYDOBYCIA  

 
 

Menon: Zanim cię spotkałem, Sokratesie, słyszałem,  że i sam pogrążony jesteś w 

wątpliwościach, i innych doprowadzasz do zwątpienia. I teraz, jak mi się wydaje, zaczarowałeś 
mnie i opętałeś jakimś magicznym napojem, tak że stałem się pełen wątpliwości. Jeśli wolno mi 
zażartować, zdajesz mi się tak z wyglądu, jak i pod innymi względami, zupełnie podobny do tej 
płaskiej ryby morskiej zwanej drętwikiem. Sprawia ona bowiem, że ten, kto się do niej zbliży i jej 
dotknie, drętwieje; tak i ty, jak mi się wydaje, postąpiłeś ze mną.  

Platon

1

 
 

Widząc kogoś, kto ciągnie równocześnie za dwa końce sznurka, możemy uznać, że walczy 

on sam ze sobą, że chce przesunąć sznurek w dwóch niezgodnych kierunkach. Wyjaśnienie takie 
wymagałoby wyszukanego uzasadnienia. Jeśli natomiast uznamy, że człowiek ów chce zerwać 
sznurek, nie powstanie żaden problem. 

Donald Davidson

2

 

 
 
1. Idea normy założonej a idea normy wyprowadzanej 
 

Wydaje się,  że przez ostatnie dziesięciolecia rozwoju poznawczej psychologii 

eksperymentalnej w sposób mniej lub bardziej jawny zaostrzał się pewien spór 
metateoretyczny, dotyczący prawomocnej strategii interpretowania danych empirycznych. 
Jest to spór pomiędzy metodą normy założonej a metodą normy wyprowadzanej

3

. Przy czym 

wydaje się, należy natychmiast dodać, że metoda normy założonej jest silniej akceptowana na 
gruncie badań empirycznych i stanowi niejako ich milczące założenie. Odstępstwo od niej 
traktowane jest jako rodzaj eksperymentu lub nawet ekstrawagancji myślowej. Idea normy 
wyprowadzanej jest rozwijana mniej lub bardziej jawnie przez wszystkie te teorie, które zdają 
się zakładać, że ludzie generalnie wiedzą znacznie więcej, niż im (lub badaczom) wydaje się, 
że wiedzą. Jest ona nade wszystko preferowana przez tych badaczy, którzy uznali, że 
psychologia niekoniecznie jest dyscypliną zajmującą się ludzkim zachowaniem, a raczej, że 
podstawowym  źródłem informacji o człowieku jest intuicja lingwistyczna, matematyczna, 
fizykalna, statystyczna, geometryczna, etc.; zadanie zaś psychologii sprowadza się do prób 
wydobycia tej intuicji i nadania jej bardziej sformalizowanego kształtu. Wydaje się ponadto, 
że prace Noama Chomsky’ego, przeciwstawiające się tendencjom behawiorystycznym w 
psychologii, były tu najbardziej inspirujące.  

Zadaniem prezentowanego tekstu będzie pokazanie, że powyższy spór pomiędzy 

dwoma konkurencyjnymi strategiami badawczymi nie dotyczy jedynie jakiegoś 
                                                 

1

 Platon, Menon, tłum. Paweł Siwek, Warszawa 1991, s. 159.  

2

 

Donald Davidson, Myśl i mowa, tłum. Barbara Stanosz, w: Język w świetle nauki, (red.) Barbara Stanosz, 

Warszawa 1980, s. 346.  

3

 Pojęcie normy założonej (The Preconceived Norm Method) oraz normy wyprowadzanej (The Norm Extraction 

Method) wprowadził L. Jonathan Cohen w serii artykułów polemicznych wobec badań nad zjawiskiem tzw. 
konserwatyzmu poznawczego w procesie integrowania informacji, szacowania przez ludzi prawdopodobieństwa 
koniunkcji oraz ustalania znaczenia proporcji – „próbka : populacja”. Patrz: L. Jonathan Cohen, On the 
Psychology of Prediction: Whose is the Fallacy?, 
„Cognition” 1979, s. 385-407; IdemCan Human Irrationality 
Be Experimentally Demonstrated?, 
„Behavioral and Brain Sciences” 1981, 4, s. 317-370; Idem,  Are People 
Programmed to Commit Fallacies. Further Thoughts About the Interpretation of Experimental Data On 
Probability Judgment
, „Journal for the Theory of Social Behaviour”, 1982, 12 (3), s. 251-274.  

 

1

background image

fragmentarycznego wycinka zagadnień psychologicznych, np. obliczeń statystycznych 
dokonywanych przez ludzi, ale stanowi centralną kwestię dla większości, jeśli nie wszystkich, 
zagadnień, jak i dla samego sposobu uprawiania psychologii.  

Zgodnie z ideą  normy założonej  badacz przeważnie postuluje, że problem 

postawiony osobom uczestniczącym w eksperymencie (badaniu) może być rozwiązany 
prawidłowo tylko na gruncie pewnej uznanej w nauce koncepcji (logicznej, statystycznej, 
lingwistycznej, etc.), którą sam przyjmuje i uważa za zasadną. Jeżeli odpowiedzi niektórych 
osób są błędne (np. błędnie szacują prawdopodobieństwo danego zdarzenia, błędnie ustalają 
regułę gramatyczną lub wyprowadzają nieprawidłowe wnioski z posiadanych przesłanek), to 
błąd ten może być przez badacza przypisany jedynie pewnej stałej cesze definiującej ludzki 
sposób przetwarzania danych. Zatem w obrębie tej strategii, powiada się,  że ludzie 
wyposażeni są w wadliwe metody rozwiązywania problemów, co jest szczególnie ważne gdy 
błędy popełniane przez ludzi są statystycznie istotne, tj. charakteryzują się minimalną 
regularnością statystyczną.  

Metoda wyprowadzania normy, zakłada natomiast, że wszystkie osoby badane 

rozumują (w wyznaczonym przez badacza zakresie, tj. np. w temacie prawdopodobieństwa, 
wnioskowania, czy ustalania reguł gramatycznych, etc.) prawidłowo; nikt nie jest 
zaprogramowany do popełniania błędów i ulegania złudzeniom. Jeśli sądy ludzi w danym 
temacie nie są zdeformowane jakimiś czynnikami zmiennymi, tj. takimi jak uwaga, 
ograniczenia pamięciowe, błędne nastawienia, czynniki popędowe lub motywacyjne, etc., to 
zasadniczo nie rozmijają się z prawdą (lub prawomocnością). Przyjmujemy tu zatem, że stałe 
wyposażenie ludzkiego przetwornika danych jest odpowiednie do rozwiązania stawianych 
problemów. Szczególnie istotną cechą paradygmatu wyprowadzania normy wydaje się być to, 
że rzekome powszechne błędy związane z jakimś tematem (np. złudzenie gracza), interpretuje 
się tutaj w taki sposób, że interpretacja ta pozwala na stwierdzenie, że w reakcjach ludzi nie 
ma w ogóle nic błędnego.  

Pierwszy sposób wyjaśnienia błędów poznawczych, zgodny z metodą normy 

założonej, polega na odwołaniu się do czynników stałych, np. stałej własności w 
zaprogramowaniu ludzi, polegającej na tym, że nie są oni posiadaczami programów 
stosownych i trafnych dla postawionego zadania, względnie w wersji mocnej – są 
zaprogramowani do stosowania zasad nieodpowiednich czy błędnych. Druga strategia 
uzasadniania zachowania poznawczego człowieka, zgodna z metodą wyprowadzania normy, 
wiąże się z odwołaniem do czynników zmiennych, tj. do chwilowego zaburzenia w 
funkcjonowaniu prawidłowego programu na stałe wmontowanego w ludzki system 
przetwarzania danych. Stawiając przed badanymi problem określonego rodzaju, badacz 
oczekuje,  że z odpowiedzi badanych odkryje (lub na ich bazie sformułuje, skonstruuje, 
sformalizuje) koncepcję (logiczną, prawdopodobieństwa, lingwistyczną, etc.) milcząco przez 
badanych przyjmowaną.  

Dlaczego powyższe rozróżnienie jest istotne, mimo że tak wyartykułowana 

kontrowersja nie ma prawdopodobnie charakteru kontrowersji rozstrzygalnej za pomocą 
eksperymentu krzyżowego, z tej choćby racji, iż dotyczy ona raczej paradygmatu badań, tj. 
metod interpretowania danych, niż ich uzyskiwania? Powyższy spór jest istotny m.in. z tego 
względu,  że opowiedzenie się za jednym lub drugim modelem postępowania poznawczego 
przesądza o przyjmowanych przez nas mechanizmach przetwarzania danych. Wydaje się, że 
metoda wyprowadzania normy jest bardziej oszczędna  pod względem różnorodności 
uwzględnianych przez nią czynników wyjaśniających i w tym sensie spełnia wymóg 
ekonomii poznawczej. Dopuszcza ona wyłącznie mechanizmy normatywnie prawidłowe; 
ewentualne odchylenia są wynikiem oddziaływania czynników przypadkowych. Metoda 
normy założonej dopuszcza natomiast nie tylko czynniki obydwu typów, ale również pewne 
nieefektywne heurystyki – procedury poznawcze, które niekiedy generują odpowiedzi 

 

2

background image

prawidłowe, a niekiedy nie. Dzieje się tak głównie dlatego, że tam, gdzie odpowiedzi 
badanych nie spełniają przyjętej przez badacza normy, ale wydają się zbyt regularne i 
uporządkowane, by przypisać je przyczynom przypadkowym, metoda ta odwołuje się do 
hipotezy zakładającej istnienie specjalnej kategorii błędnych programów.  

 

Egzemplifikacja z zakresu teorii prawdopodobieństwa: 

 

Amos Tversky, Daniel Kahneman, Massimo Piattelli–Palmarini stosując  metodę 

normy założonej, zgromadzili dane świadczące na rzecz „analfabetyzmu statystycznego” 
zwyczajnych ludzi, tj. zgromadzili materiał dowodowy pokazujący,  że mamy skłonność do 
lekceważenia podstawowych kanonów prawdopodobieństwa

4

.  

Np. bardziej boimy się latać samolotami niż jeździć samochodami, chociaż 

statystycznie podróż samolotem jest bezpieczniejsza. Oznacza to, ich zdaniem, że nasz system 
poznawczy posługuje się prostą heurystyką praktyczną typu: im bardziej pamiętne 
wydarzenie, tym bardziej prawdopodobne, że powtórzy się ono w przyszłości. Zamiast 
odwołać się do danych statystycznych, posługujemy się tą nietrafną heurystyką. 

Ponadto mamy trudności w szacowaniu prawdopodobieństwa koniunkcji pewnych 

zdarzeń. Kiedy słyszymy,  że Agata ma 31 lat, jest samotna, elokwentna i bardzo zdolna. 
Ponadto ukończyła socjologię, a jako studentka była głęboko przejęta problemami 
dyskryminacji oraz brała udział w manifestacjach antynuklearnych. Następnie zaś ktoś nas 
prosi, abyśmy oszacowali – po pierwsze prawdopodobieństwo, że Agata pracuje jako kasjerka 
w banku oraz po drugie – prawdopodobieństwo, że Agata, jest kasjerką w banku i działa w 
ruchu feministycznym, to mamy skłonność wyżej oceniać prawdopodobieństwo bycia 
feministyczną kasjerką (koniunkcja), niż prawdopodobieństwo bycia tylko kasjerką. Mimo, że 
jest niemożliwe, by „A i B” było bardziej prawdopodobne niż samo „A”. W tym przypadku 
również nasz mózg posługuje się prostą i nietrafną heurystyką: im bardziej jednostka 
przypomina stereotyp, tym większe prawdopodobieństwo, że należy do danej kategorii (Agata 
bardziej pasuje do naszego stereotypu feministycznej kasjerki niż tylko kasjerki, jest więc 
bardziej prawdopodobne, że jest feministką i kasjerką).  

Psycholog posługujący się  metodą normy wyprowadzanej, zamiast oceniać 

zachowanie ludzi, tj. wykazywać im niewiedzę w zakresie prawdopodobieństwa, powinien 
raczej zadać sobie pytanie: czy w świecie, w którym ocenianie prawdopodobieństw zdarzeń 
może mieć istotny sens dla powodzenia wielu przedsięwzięć, ludzki umysł mógłby sobie 
pozwolić na całkowitą ignorancję w temacie statystyki? Czy obliczenia statystyczne 
przekraczają możliwości przetwarzania informacji ludzkiego mózgu? Philip N. Johnson–
Laird powiada np.: „Każdy człowiek, od Arystotelesa do aborygenów, uprawia myślenie 
probabilistyczne, niezależnie od tego, czy wie cokolwiek o rachunku prawdopodobieństwa”

5

Wnioskowanie probabilistyczne jest prawdopodobnie częścią uniwersalnych ludzkich 
zdolności, które nie muszą być uzależnione od jawnych umiejętności operowania liczbami 
czy miarami ilościowymi. L. Jonathan Cohen, podążając tym tropem zasugerował,  że 
wszystko co trzeba zrobić, aby wyjaśnić „błąd koniunkcji” w naszym przykładzie z Agatą, to 
przyjąć, że osoby badane usiłują oszacować wiarygodność przedstawionej im charakterystyki 
osobowej, a nie po prostu częstości względne różnych typów zachowań. Problem interpretacji 
                                                 

4

 Daniel Kahneman, Amos Tversky, On the Study of Statistical Intuitions, „Cognition”, nr 11, 1982, s. 123-141; 

Choices, Values and Frames, „American Psychologist”, nr 39, 1984, s. 341-350; On the Reality of Cognitive 
Illusion: A Reply to Gigerenzer’s Critique
, „Psychological Review”, nr 103, 1996, s. 582-591.  

5

 Philip N. Johnson–Laird, Modele umysłowe a myślenie probabilistyczne, tłum. Józef Radzicki, w: Modele 

umysłu, red. Zdzisław Chlewiński, Warszawa 1999, s. 216.  

6

 L. Jonathan Cohen, Are People Programmed to Commit Fallacies. Further Thoughts About the Interpretation 

of Experimental Data On Probability Judgment, „Journal for the Theory of Social Behaviour”, 1982, nr 12 (3), s. 
267. 

 

3

background image

danych psychologicznych wynika zatem z tego, jak odpowiadamy na pytanie: co ludzie 
rzeczywiście próbują obliczyć w trakcie myślenia probabilistycznego? Nie ma wcale 
konieczności zakładania istnienia błędnego mechanizmu, należy raczej przyjąć,  że badani 
założyli, iż tym, czego się od nich wymaga, jest oszacowanie, na ile wiarygodne jest 
wystąpienie zdarzenia (bycie kasjerką) jako względnie izolowanego rezultatu, które mogłoby 
być z powodzeniem mniej wiarygodne niż wystąpienie określonej sekwencji przyczynowej 
zawierającej to zdarzenie (bycie kasjerką i feministką)

6

 

 

Egzemplifikacja z zakresu logiki naiwnej: 

 

W dziś już bardzo znanym eksperymencie Philip N. Johnson–Laird i Peter Wason, 

stosując  metodę normy założonej, chcieli zademonstrować, jak ludzie radzą sobie z 
dowodzeniem fałszywości hipotez

7

. Wason powiedział badanym, że zestaw kart, który trzyma 

w ręce, ma po jednej stronie litery, a po drugiej cyfry, i poprosił o sprawdzenie reguły: „Jeśli 
karta ma literę D po jednej stronie, to ma liczbę 3 po drugiej”. Badanym pokazywano cztery 
karty i pytano, które odwrócić,  żeby zobaczyć, czy reguła jest prawdziwa. Powiedzmy, że 
mamy następującą sekwencję kart: D F 3 7. Większość wybrała kartę D, albo kartę D i kartę 
3. Poprawna odpowiedź brzmi D i 7. Dlaczego? Otóż, zdanie o kształcie „P wynika z Q” (jeśli 
Q to P) jest fałszywe tylko w jednym przypadku, mianowicie, gdy Q jest prawdziwe, a P 
fałszywe (z prawdziwej przesłanki dochodzimy do fałszywego wniosku). Dlatego zasadnicza 
jest karta z liczbą 7; gdyby miała D po drugiej stronie, reguła okazałaby się fałszywa. Z racji, 
że reguła stwierdza, że D ma 3, a nie, że 3 ma D, karta z liczbą 3 jest nieistotna. Z 
powyższego eksperymentu można by pochopnie wyprowadzić wniosek, że większość z nas w 
trakcie szacowania prawdziwości danego zdania (lub reguły) preferuje strategie 
weryfikacyjne, tj. poszukuje przypadków potwierdzających dane zdanie (regułę); niechętnie 
natomiast stosujemy strategie falsyfikacyjne, tj. nakierowane na poszukiwanie przypadków 
zaprzeczających prawdziwości zdania (lub reguły).  

Wyobraźmy sobie jednak, że ktoś prosi nas o zweryfikowanie reguły: „Jeśli pracownik 

dostaje emeryturę, to przepracował dwadzieścia lat”

8

. Z pewnością  żeby zweryfikować  tę 

regułę nie będziemy sprawdzać osób, które dostają emeryturę i przepracowały więcej niż 
dwadzieścia lat. Nie będziemy też weryfikować ludzi, którzy przepracowali mniej niż 
dwadzieścia lat i nie dostają emerytury. W zależności od tego, czy reprezentujemy punkt 
widzenia pracowników najemnych, czy punkt widzenia pracodawców, będziemy poszukiwać 
albo pracujących przez więcej niż dwadzieścia lat bez emerytury, albo pracujących mniej niż 
dwadzieścia lat, którzy jednak emeryturę posiadają. Poszukiwanie sytuacji, względnie takie 
konstruowanie zadań, które wyzwoliły w ludziach skłonności do falsyfikowania danych jest 
zgodne z ideałem normy wyprowadzanej

 

 

2. Co przesądza o realności psychologicznej norm? 

 
Źródłem tak wyartykułowanej kontrowersji jest ponadto (a może przede wszystkim) 

obecny stan ludzkiej wiedzy, cechujący się raczej pluralizmem niż jednomyślnością. Z faktu, 
że istnieje wiele niewspółmiernych teorii w danym zakresie, wynika niepewność, do której z 
nich mamy się odwołać jako do normy, z którą porównywać będziemy ludzkie sądy (reakcje 
lub zachowania). Ponieważ możliwa jest więcej niż jedna koncepcja prawdopodobieństwa, 
                                                 

7

 Philip N. Johnson–Laird, Peter C. Wason, A Theoretical Analysis of Insight in to Reasoning Task, „Cognitive 

Psychology”, nr 1, 1970, s, 134-148.  

8

 R.A. Griggs, J. R. Cox, The Elusive Thematic-materials Effect in Wason’s Selection Task, „British Journal of 

Psychology”, nr 73, 1982, Lance J. Rips, Reasoning, „Annual Review of Psychology”, nr 41, 1990, 321-353; 
407-420; Steven Pinker, Jak działa umysł, tłum. Małgorzata Koraszewska, Warszawa 2002, s. 366.  

 

4

background image

więcej niż jedna gramatyka opisująca empirycznie stwierdzone regularności językowe, więcej 
niż jedna logika opisująca obserwowalne rozumowania, etc., badacz ma za zadanie ustalić, 
którą z tych możliwych teorii (prawdopodobieństwa, gramatyki, logiki, etc.) posługują się 
osoby badane.  

Najbardziej problematyczna wydaje się kwestia wyboru sztucznego systemu, wedle 

którego modeluje się jakąś funkcję  języka naturalnego lub własność poznawczą umysłu. 
Inaczej rzecz ujmując, najbardziej bolącą kwestią wydaje się pytanie: co przesądza o realności 
psychologicznej norm? Można bowiem twierdzić, że języki sztuczne stanowią w tym sensie 
idealizacje języków naturalnych, w jakim idealizacjami stanów i przedmiotów fizycznych są: 
próżnia doskonała, sztywny pręt lub gaz idealny, jednak dopóki idealizacje 
psycholingwistyczne lub psychologiczne posługują się pojęciami, które nie mają interpretacji 
w zastosowaniu języków naturalnych, fałszem jest utrzymywać,  że posiadają one moc 
wyjaśniającą. Zważywszy więc na to, że języki sztuczne mogą się wielce różnić, jeśli chodzi 
o typy przedstawianych struktur, np. w jednej idealizacji języka naturalnego dane zdanie 
może okazać się analityczne, a w innej syntetyczne, uczony proponujący jakąś idealizację 
winien odczuwać powinność dowiedzenia jej izomorficzności względem zasadniczych cech 
badanego zjawiska. 

Problem wyostrza się, gdy zdamy sobie sprawę z wymogu, który spoczywa na 

psychologach, charakterystycznego w ogóle dla nauk empirycznych, tj. weryfikacji 
stawianych hipotez drogą eksperymentalną. Większość psychologów uznała, że nie wystarczy 
jedynie dowieść teoretycznej konieczności istnienia danego mechanizmu formalnie 
scharakteryzowanego, należy ponadto wskazać dane behawioralne, które wymusiły 
postulowanie tego mechanizmu, tj. które nie dałyby się wyjaśnić bez postulowania jego 
obecności. Weryfikacja hipotezy o mechanizmach intelektualnych musi się dokonać nie tylko 
na drodze introspekcji osób badanych, lecz przez analizę wyników ich pracy intelektualnej. 
Chcę przez to powiedzieć,  że zdaniem wielu psychologów nie mamy prawa wnioskować o 
wyposażeniu intelektualnym umysłu na podstawie tego, co jednostki na swój temat mówią, 
ale jedynie na podstawie tego, co robią postawione wobec określonego problemu. Takie 
instrumenty poznawcze, jak naturalna i bezpośrednia intuicja np. liczby naturalnej czy idei 
gramatyczności, pojęcia przypadku, pojęcia sprawiedliwości, itp., w świetle doświadczeń 
wcale nie muszą się okazać pierwotne i naturalne. Mogą się one natomiast okazać rezultatem 
długotrwałego procesu konstruowania struktur poznawczych, aniżeli jego warunkiem, czy 
niezbywalnym wyposażeniem

9

.  

Z drugiej jednak strony domniemana, przez przeciwników stosowania procedur 

idealizacyjnych, asystemowość  języka naturalnego lub nielogiczność, względnie 
kontekstualność,  żywiołowość lub intuicyjność ludzkich procesów poznawczych, jest być 
może jedynie projekcją porażki, którą ponosimy, usiłując dać jego odpowiedni obraz

10

 

Nawoływanie do weryfikacji hipotez z zakresu psychologii poznawczej, nie oznacza więc, że 
mamy zrezygnować z używania modeli w naukach behawioralnych i wrócić do 
kolekcjonowania faktów, znaczy to jedynie, że winniśmy wymuszać na sobie symulację 
procesów poznawczych opartą na ścisłej ekwiwalencji, a zatem winniśmy poszukiwać nie 
tylko testów rzetelności naszych narzędzi badawczych (adekwatności wewnętrznej), ale i 
testów trafności (adekwatności opisowej)

11

.  

                                                 

9

 Jean Piaget, Epistemologia genetyczna, tłum. Zofia Zakrzewska, w: Idem,  Psychologia i epistemologia

Warszawa 1977, s. 19.  

10

 Jerrold Katz, Jerry A. Fodor, Na co cierpi filozofia języka?, tłum. Adam Nowaczyk, w: Barbara Stanosz, (red.) 

Lingwistyka i filozofia, Warszawa 1977, s. 91. 

11

 Odwołuję się w tym miejscu do znanego rozróżnienia Pylyshyna. Patrz: Zenon W. Pylyshyn, Computation 

and Cognition: Issues in the Foundations of Cognitive Science, „The Behavioral and Brain Sciences”, nr 3, 
1980, s. 111–132; Zenon W. Pylyshyn, Computation and Cognition: Toward a Foundations of Cognitive 
Science, 
MIT Press Cambridge 1984. 

 

5

background image

 

Egzemplifikacja z zakresu gramatyki generatywnej: 

 

Jedną z bardziej nietrywialnych konsekwencji teorii Noama Chomsky’ego jest 

założenie, że wiedza zawarta w teorii gramatycznej powinna być reprezentowana w umyśle, 
ale same reguły użyte do formalnej specyfikacji zdań nie muszą koniecznie brać 
bezpośredniego udziału w procesie rozumienia lub wytwarzania zdań. Jerry A. Fodor pisze 
np.: programy mogą, a struktury danych muszą być reprezentowane explicite.  Już wczesne 
pomysły psycholingwistyczne zakładały,  że reguły struktur frazowych nie mają nic 
wspólnego z procesami umysłowymi, gdy jednak stało się jasne, że złożoność psychologiczna 
nie odpowiada złożoności transformacyjnej, trzeba było także uznać, że jakiś składnik teorii 
jest fałszywy

12

. Z czysto empirycznego punktu widzenia powstały przesłanki, by dowodzić, 

że teoria kompetencji zawiodła i że formalnie scharakteryzowana teoria derywacji zdań nie 
powinna zawierać teorii transformacji.  

W rzeczywistości jednak, to nie teorię odrzucono (ją podtrzymano), a w zamian 

odrzucono przekonanie, że transformacje pełnią jakąkolwiek bezpośrednią rolę w wykonaniu 
– przynajmniej w procesie generowania i rozumienia zdań u ludzi dorosłych. Procesy 
transformacyjne zastąpiono prostymi heurystykami. Z tego faktu da się jednak wyprowadzić 
prosta konsekwencja, że ani reguły struktur frazowych, ani reguły transformacyjne nie 
odgrywają  żadnej roli w wykonaniu. Innymi słowy: odgrywają one rolę w reprezentowaniu 
wiedzy gramatycznej (kompetencja), lecz nie odgrywają one roli przy stosowaniu tej wiedzy 
(wykonanie). Wydaje się,  że umysł powinien wykorzystywać reguły gramatyki, jeżeli 
gramatyka ma być poważnie traktowana jako opis nieuświadomionej wiedzy, która pozwala 
mówić i rozumieć wypowiedzi. W przeciwnym razie teoria skazuje się na rodzaj 
niezrozumiałej rozrzutności eksplanacyjnej: postuluje ona istnienie mechanizmu, którego rola 
przyczynowa nie jest jasna.  

Uzasadnieniem tej rozrzutności może być jedynie podział zadań poznawczych: (1) 

lingwistyka w tym podziale ma zmierzać do określenia funkcji, którą umysł musi obliczyć, 
aby sprostać danemu zadaniu; (2) psychologia (względnie neuropsychologia) ma dążyć do 
określenia procedur, za pomocą których funkcje te są liczone, co jest istotne gdy 
uświadomimy sobie, że istnieje wiele sposobów liczenia tej samej funkcji. W tym ujęciu 
jednak gramatyka jest opisem funkcji, którą umysł liczy, ale niekoniecznie jest opisem 
nieświadomej wiedzy językowej mówiącego, której reprezentacja może mieć całkiem inną 
postać

13

.  

 

Egzemplifikacja z zakresu fizyki: 

 

Gilbert Harman, wiele lat temu w polemice z ideami Noama Chomsky’ego, postawił 

nas wobec następującego problemu

14

. Wyobraźmy sobie, że naszym zadaniem jest 

sformułowanie teorii nabywania umiejętności jazdy na rowerze. Rowerzysta nade wszystko 
musi posiąść umiejętność utrzymywania równowagi. To, czego mu trzeba, by równowagę 
zachował, narzucone jest przez zasady mechaniki, których nie jest świadom, szczególnie, jeśli 
jest on np. niewyedukowanym sześciolatkiem. Można sobie wyobrazić, że model rowerzysty 
zawierałby przedstawienie odnośnych zasad mechaniki i że zakładałby zdolność posługiwania 

                                                 

12

 J. D. Fodor, J. A. Fodor, M. Garrett, The Psychological Unreality of Semantic Representations, „Linguistic 

Inquiry”, nr 6, 1975, s. 515-532.  

13

 Patrz w tej sprawie m.in.: Jerrold Katz, Mentalizm w lingwistyce, tłum. Barbara Stanosz, w: Barbara Stanosz 

(red.) Lingwistyka a filozofia, Warszawa 1977, s.171.  

14

 Gilbert Harman, Psychologiczne aspekty teorii składni,  tłum. Urszula Niklas, w: Barbara Stanosz (red.) 

Lingwistyka a filozofia, Warszawa 1977, s. 328.  

 

6

background image

się nimi przy obliczaniu co należy zrobić, by zachować równowagę. Idąc  śladem modelu 
Chomsky’ego powiedzielibyśmy,  że rowerzysta posiada wewnętrzne przedstawienie zasad 
mechaniki. Czy wobec tego należałoby powiedzieć,  że każdy rowerzysta ma intuicyjną lub 
utajoną znajomość zasad mechaniki? Podobnie, czy każdy pływak posiada utajoną 
umiejętność wykorzystywania praw hydrodynamiki?  

Istnieje ogromna pokusa, by twierdzić, że posiadamy, na przykład, ukrytą znajomość  

wielkich praw mechaniki

15

. Nasz organizm jest tak skonstruowany, że ilekroć działamy  

przestrzennie za pomocą naszych mięśni i kości, to automatycznie odczuwamy prawa 
mechaniki, a zatem posiadamy ich ukrytą znajomość. Z tego punktu widzenia badania 
naukowe można traktować jako pewien rodzaj wyjaśnienia struktur, które wewnątrz nas 
samych już od dawna preegzystują. Badania umożliwiają zatem przejście od wiedzy ukrytej 
(cichej, milczącej) do wiedzy jawnej. Na ogół wiedzę ukrytą krępują mechanizmy „cenzury”, 
przez co zwyczajna introspekcja nie może bez oporu uwalniać owych ukrytych struktur. 
Doświadczenie spełnia nierzadko rolę bodźca spustowego, tj. przezwyciężającego „cenzurę” 
utrudniającą widzenie własnych struktur. Tak np., kiedy Archimedes pływał w wannie i miał 
za instrument tylko własne ciało odkrył (uświadomił sobie) podstawowe prawo statyki: 
wiążąc obserwację z refleksją zdał sobie sprawę,  że w wodzie jest znacznie lżejszy niż w 
powietrzu. Zwyczajna introspekcja nie może bez oporu uwalniać owej wiedzy nieświadomej, 
jednakże doświadczenie mogłoby odgrywać ważną rolę akuszerską pozwalając 
przezwyciężyć mechanizmy „cenzury” utrudniające widzenie własnych struktur.  

Wydaje się, że podobne wątpliwości targały Nedem Blockiem, który proponuje nam 

następujący eksperyment myślowy

16

. Proponuje on mianowicie wyobrazić sobie, iż badacze 

zajmujący się procesami poznawczymi, odkryli, że delfiny potrafią korzystać z tego, co wedle 
naszych standardów stanowi wyrafinowany aspekt hydrodynamiki ich otoczenia. 
Psychologowie będący zwolennikami metafory komputerowej mogą badać modele, które 
zawierają jawne reprezentacje różnorodnych równań hydrodynamiki, a następnie 
wykorzystywać maszyny liczące do rozwiązywania tych równań. Takie postawienie sprawy 
może być jednak błędne. Prawidłowe podejście mogłoby polegać na poszukiwaniu 
mechanizmów neuronalnych, które same spełniałyby różnorodne równania o tej samej formie 
co równania hydrodynamiki. Modele tego rodzaju skłaniałyby do ujmowania wyposażenia 
nawigacyjnego delfina jako analogii modelu samolotu w tunelu hydrodynamicznym.  

Eksperyment myślowy Harmana opiera się na założeniu, że zdolność do posługiwania 

się językiem może w jakimś istotnym aspekcie przypominać zdolność do jazdy na rowerze. Z 
punktu widzenia Chomsky’ego analogia taka jest oczywiście chybiona, albowiem nie ma 
podstaw do przypuszczenia, że znajomość  języka da się scharakteryzować w kategoriach 
„wiedzy jak”. Znajomość  języka, dla Chomsky’ego, nie jest zwykłą umiejętnością, sumą 
nawyków lub czymś podobnym. Eksperyment myślowy Blocka opiera się natomiast na 
przyjęciu założenia,  że istnieje ostry podział między nauką zajmującą się poznaniem 
(cognitive science) oraz nauką zajmującą się układem nerwowym (neuroscience) oraz na 
sugestii,  że przedstawiciele nauk o poznaniu być może chcą wyjaśnić zbyt wiele przy 
odwołaniu się jedynie do swych własnych metod i pojęć. Nie znam ostatecznych 
argumentów, które uzasadniałyby tak dramatyczny podział problematyki w naukach 
behawioralnych. Tym niemniej jednak i jeden i drugi eksperyment myślowy, zmuszają nas do 
zastanowienia się nad realnością psychologiczną (biologiczną) postulowanych przez nas 
bytów teoretycznych.  

 

                                                                                                                                                         

15

 Patrz w tej sprawie m.in.: René Thom, Parabole i katastrofy. Rozmowy o matematyce, nauce i filozofii, tłum. 

Roman Duda, Warszawa 1991, s.128.  

16

 Ned Block, Mental Pictures and Cognitive Science, „Philosophical Review”, 1983, 92, s. 499-541.  

 

7

background image

Egzemplifikacja z zakresu teorii sprawiedliwości: 

 

John Rawls w swej monumentalnej Teorii sprawiedliwości, powiada, że filozofię 

moralną można uznać za próbę opisu naszej zdolności do dokonywania decyzji moralnych, a 
teorię sprawiedliwości jako opis naszego zmysłu moralnego. Teoria tak pojęta nie miałaby 
dostarczyć listy sądów moralnych, jakie jesteśmy skłonni wydawać, oraz a fortiori listy 
działań do jakich jesteśmy gotowi, ale jej zadanie polegałoby raczej na sformułowaniu zbioru 
zasad, które pozwalałyby na ferowanie tego rodzaju sądów lub inicjowanie tego typu działań. 

Pożyteczne, zdaniem Rawlsa, jest tu porównanie z problemem opisu poczucia 

gramatyczności zdań  języka. Gdyby udało nam się opisać czyjeś poczucie poprawności 
gramatycznej, z pewnością dowiedzielibyśmy się wielu rzeczy na temat ogólnej struktury 
języka. Podobnie, gdybyśmy byli w stanie scharakteryzować poczucie sprawiedliwości 
pewnej osoby, uzyskalibyśmy punkt wyjścia dla ogólnej teorii sprawiedliwości. „Możemy 
przypuszczać – pisze Rawls – że w każdym z nas odnaleźć można gotową formę koncepcji 
moralnej [...]”

17

.  

Ponadto rysuje się jeszcze inna analogia z lingwistyką. Choć nie możemy się 

spodziewać gruntownej rewizji naszego poczucia poprawności gramatycznej pod wpływem 
jakiejś teorii lingwistycznej, to zmiana taka nie jest nie do pomyślenia, i bez wątpienia teoria 
taka może mieć jakiś wpływ na nasze poczucie gramatyczności. W tym samym sensie 
filozofia moralna ma charakter sokratejski: możemy chcieć zmienić nasze dotychczasowe 
sądy moralne, gdyby zostały wydobyte na światło dzienne zasady regulatywne rządzące 
naszym poczuciem sprawiedliwości. Znajomość tych zasad może bowiem budzić refleksje, 
które prowadzą do zmiany naszych sądów. Podobnej zmiany nie można by oczekiwać w 
wypadku fizyki; uświadomienie sobie praw rządzących ruchem nie wpłynie w żaden sposób 
na mechanikę naszego ciała i jeśli wbrew mechanice będziemy usiłowali wykonać pewien 
ruch, to skończy się to zapewne dla nas bardzo niefortunnie.  

Powstaje pytanie: czy rzeczywiście możemy oczekiwać, iż w każdym istnieniu 

ludzkim da się odnaleźć gotową formę koncepcji sprawiedliwości, w taki samym sensie, w 
jakim da się odnaleźć gotową formę gramatyki uniwersalnej lub gotową formę logiki ogólnej, 
wreszcie gotową formę mechaniki ruchów (praw fizycznych), z tą jedynie różnicą,  że 
wyartykułowanie (uświadomienie sobie) tej ostatniej w niczym jej nie zmodyfikuje? Co 
usprawiedliwia przyjęcie założenia,  że nasze umysły lub mózgi wyposażone są w cichą 
znajomość reguł sprawiedliwości? Czy takim usprawiedliwieniem nie mogłaby stać się 
akceptacja kognitywizmu etycznego, mającego swe źródła u Sokratesa, a zgodnie z którym, 
wiedza na temat tego, czym jest dobro jest konieczną i wystarczającą przesłanką do tego, aby 
dobro czynić? Czy zatem zgodnie z ideałem normy wyprowadzanej, ekstrapolowanej do 
problemów etycznych, nie jesteśmy zdolni do błędów moralnych (czynienia zła) tak jak nie 
jesteśmy zdolni do błędów poznawczych (nietrafnych wnioskowań)?  

 

3. Skąd się biorą normy? Problem arbitralności opisu  

 
Stale prześladującą badaczy wątpliwością jest zatem pytanie: czy struktury formalne 

odkryte (lub zaledwie postulowane) przez psychologa odzwierciedlają istotnie czynności 
podmiotu, czy też są wytworem wiedzy psychologa, który je obserwuje, zwłaszcza jeśli zna 
on w pewnym zakresie logikę teoretyczną (teorię prawdopodobieństwa, gramatykę, fizykę, 
etc.)? Wydaje się,  że jest taki zbiór danych, który mógłby nas upewnić, iż formalizacja 
działań podmiotu nie jest projekcją myśli badacza: spontaniczne tworzenie się opisywanych 
struktur w trakcie rozwoju poznawczego człowieka. Niestety, źródło to jest wielce niepewne, 

                                                 

17

 John Rawls, Teoria sprawiedliwości, tłum. M. Panufnik, J. Pasek, A. Romaniuk, Warszawa 1994, s. 67-77. 

 

8

background image

albowiem nawet najbardziej wyszukana obserwacja, jak i najbardziej subtelne eksperymenty, 
mogą pozostać nieczułe na ocenę „spontaniczności”, tj. mogą mieć  kłopot z odróżnieniem 
tych faktów, które zostały wywołane przez edukację i funkcjonowanie w kulturze, od tych 
które są wynikiem dojrzewania, albo ujawnienia wiedzy wrodzonej.  

Można jednak argumentować w inny sposób: mimo że psychologii brak kompetencji 

do ustalania norm poprawności rozumowania, normy takie ustalają ci, którzy są przedmiotem 
jej badań. Chcę przez to powiedzieć, że fundamentalnym założeniem psychologii poznawczej 
jest to, że podmiot jako taki, w każdym wieku, uznaje normy. Rola psychologa to rola 
akuszerki, to rola Sokratesa z Menona, który próbuje za pomocą obserwacji działań wydobyć 
i opisać w języku nauki owe normy, których podmiot najczęściej sobie nie uświadamia. Jeśli 
jednak tak jest, to znaczy to, że opozycja między dyscyplinami normatywnymi (logika, 
matematyka, gramatyka) a psychologią empiryczną (zorientowaną na fakty) nie powinna być 
traktowana jako ostateczna. Dyscypliny normatywne dostarczają niewątpliwie słowniki, w 
których możemy normy opisać, psychologia zaś stara się pokazać, które z tych norm 
(słowników) są faktami, tzn. które z nich są przestrzegane przez ludzi w ich poznawczej 
działalności. 

Wydaje się, że na razie nie dysponujemy tego rodzaju materiałem dowodowym, który 

mógłby nam unaocznić, w jaki sposób struktury abstrakcyjne wcielają się w konkretny system 
fizyczny, jak i nie dysponujemy materiałem dowodowym, który by przesądził jednoznacznie, 
jak bogaty wrodzony system reprezentacyjny musimy założyć, by móc wyjaśnić spontaniczne 
tworzenie intuicji gramatycznych, logicznych, czy statystycznych, czy wreszcie nawet 
moralnych. Nie znaczy to jednak, że powinniśmy przestać pracować nad tym problemem.  

 

Egzemplifikacja z zakresu epistemologii genetycznej: 

 

Epistemologia genetyczna Jeana Piageta doprowadziła do sformułowania wielu 

istotnych ustaleń dotyczących kształtowania się podstawowych intuicji geometrycznych, 
fizycznych i arytmetycznych w trakcie rozwoju poznawczego człowieka. Tak np. Piaget 
zauważył, że operacje przestrzenne w tracie spontanicznego rozwoju intelektualnego tworzą 
się w odwrotnej kolejności niż tej, w jakiej powstały w historii matematyki, gdzie najpierw 
pojawiło się mierzenie w przestrzeni euklidesowej, następnie wyodrębniły się intuicje 
projekcyjne i wreszcie nastąpiło odkrycie związków topologicznych. W ontogenezie rozwój 
intuicji geometrycznych jest bardziej zgodny z porządkiem teoretycznym: na początku 
wytwarzają się intuicje topologiczne, a później równolegle – euklidesowe i projekcyjne. 
Najpierw zatem uzyskujemy intuicje dotyczące sąsiedztwa, ciągłości, zamknięcia, etc., a 
dopiero później kształtuje się w nas umiejętność koordynowania różnych punktów widzenia 
oraz mierzenia w kilku wymiarach

18

.  

W innym miejscu natomiast Piaget sugeruje, że choć nie istnieje pierwotna intuicja 

uniwersalnego i bezwzględnego czasu, to istnieje pierwotna intuicja prędkości. Ta pierwotna 
intuicja prędkości jest w zasadzie synonimiczna z intuicją wyprzedzania kinematycznego. 
Gdy w pewnym momencie T

1 

ruchomy przedmiot A znajduje się za B, a w momencie T

2 

przesunie się przed B, jest oceniany jako szybszy, i to przez dzieci w każdym wieku. Czas 
trwania jakiegoś zdarzenia jest natomiast dla dziecka, niezależnie od wieku, składową 
prędkości: dzieciom bardzo długo trudno zaakceptować fakt, iż jeśli dwa przedmioty A i B 
wyruszają jednocześnie z tego samego punktu, poruszają się w tym samym kierunku i 
zatrzymują się w tym samym momencie, choć poruszają się z różną prędkością to czasy 
trwania ich ruchu są takie same. Z tego punktu widzenia: nie istnieje wspólny czas dla dwóch 
różnych prędkości.  
                                                 

18

 Jean Piaget, Epistemologia genetyczna, tłum. Zofia Zakrzewska, w: Idem,  Psychologia i epistemologia

Warszawa 1977, s. 25-28.  

 

9

background image

Dlaczego te wyniki badań są tak interesujące? Otóż głównie z tego powodu, iż istnieje 

pokusa, której Piaget ulega, odniesienia ich do ustaleń fizykalnych. W klasycznej mechanice 
newtonowskiej czas i przestrzeń to wartości bezwzględne, odpowiadające intuicjom prostym. 
W mechanice relatywistycznej, przeciwnie, prędkość jest wartością bezwzględną, a czas jest 
pochodną. Zatem pierwotne intuicje dziecka, zdaniem Piageta, są bliższe fizyce 
relatywistycznej, zaś intuicje człowieka dorosłego pokrywają się w większym zakresie z 
fizyką newtonowską. Jak zatem wyjaśnić fakt, iż mimo, że pojęcia topologiczne winny być 
nam najbliższe, topologia w historii dyscyplin geometrycznych powstaje najpóźniej? 
Podobnie, jak wyjaśnić fakt, iż mimo, że relatywistyczne intuicje fizykalne rodzą się w nas 
najszybciej, to jednak fizyka relatywistyczna nie poprzedzała w historii nauki fizyki 
Newtonowskiej?  

Czy materiał empiryczny zgromadzony przez Piageta pozwala na konstatacje, że 

intuicje topologiczne poprzedzają w rozwoju poznawczym człowieka intuicje dotyczące 
geometrii rzutowej i euklidesowej? Podobnie, czy dysponujemy wystarczająco mocnymi 
danymi, aby zasugerować, iż intuicje czasu i prędkości dziecka bliższe są ujęciu 
relatywistycznemu, a te same intuicje człowieka dorosłego dadzą się zinterpretować w 
kategoriach fizyki newtonowskiej? Czy dziecko jest rzeczywiście wyznawcą fizyki 
relatywistycznej (tzn. posiada nieświadomą lub niedeklaratywną wiedzę na jej temat), dopóki 
obcowanie ze światem przedmiotów średniej wielkości, nie wymusi na nim stanie się 
zwolennikiem teorii Newtona? Czy też może raczej psycholog bezradny wobec danych 
eksperymentalnych, nie wiedząc do jakiego języka opisu się odwołać, zapożycza się w języku 
historii fizyki (geometrii, etc.), doszukując się nieuzasadnionych analogii pomiędzy rozwojem 
historycznym a ontogenetycznym? Dlaczego np. nie odwołać się do fizyki Arystotelesa w 
celu opisu intuicji fizykalnych dziecka, skoro mechanika Arystotelesa, w której kamienie 
spadają na ziemię, poszukując swego naturalnego miejsca spoczynku, nie jest wcale odległa 
od wyjaśnień formułowanych przez dzieci faktu unoszenia się balonów w powietrzu, mówią 
wtedy one nierzadko, że balonom w powietrzu jest po prostu dobrze

19

? Być może dla dzieci, 

tak jak dla Arystotelesa, położenie jest „jakością”, a ciało, które zmieniło położenie pozostaje 
co prawda tym samym ciałem, ale w tym problematycznym sensie, w jakim dziecko stając się 
dorosłym pozostaje tą samą jednostką. Kuhn powiada przecież: „rozumienia fizyki 
Arystotelesa nauczyli mnie mali pacjenci Piageta”

20

.  

Ponadto, czy wobec powyższych konstatacji, należy stwierdzić,  że Piaget w swych 

badaniach posługiwał się ideą normy założonej, czy też pozostawał wierny ideałowi normy 
wyprowadzanej? Piaget przyjmował, zgodnie z ideałem normy wyprowadzanej, pluralizm 
teoretyczny nauk, a zatem miał  świadomość,  że istnieje kilka konkurencyjnych systemów 
geometrycznych, tak jak istnieją konkurujące ze sobą fizyki; te fizyki czy  geometrie nie 
                                                                                                                                                         

19

 Patrz w tej sprawie: Thomas Samuel Kuhn, Przewrót kopernikański, tłum. Stefan Amsterdamski, Warszawa 

1966, s. 148-154. Kuhn pisze explicite: „Dziś naukowy, nowożytny pogląd na przyrodę wykazuje szereg 
istotnych analogii do poglądów Arystotelesa, lecz analogie te występują z zadziwiającą częstością i w poglądach 
dzieci, plemion pierwotnych i ludzi cofniętych w rozwoju umysłowym” /Ibidem, s.150/. Analogia jest tym 
bardziej uderzająca,  że Arystotelesowskie pojęcie przestrzeni zasadniczo różni się od przestrzeni 
Newtonowskiej, którą wszyscy posługujemy się, zazwyczaj nie zdając sobie z tego sprawy. Przestrzeń 
Newtonowska 
jest fizycznie neutralna. Ciało znajdować się musi w przestrzeni i poruszać się przez przestrzeń, 
ale dany obszar przestrzenny i dany kierunek ruchu nie wpływają na ciało. Przestrzeń zatem jest bezwładnym 
substratem wszelkich ciał. Żadne położenie i żaden kierunek nie jest wyróżniony. W przeciwieństwie do tego, 
Arystotelesowskie pojęcie przestrzeni bliższe jest przestrzeni życiowej lub organicznej. Każde położenie jest 
położeniem jakiegoś obiektu lub położeniem wskazującym miejsce, w których coś charakterystycznego 
zachodzi. Każdy obszar i każdy kierunek przestrzeni różni się czymś od innych, a różnice te częściowo 
wyznaczają zachowanie się ciał w tym obszarze. Przestrzeń Arystotelesa jest aktywną, dynamiczną przestrzenią 
życia. Zapewne tylko w drodze koincydencji przestrzeń występująca w ogólnej teorii względności Einsteina jest, 
pod wieloma względami, bliższa pojęciu Arystotelesowskiemu niż Newtonowskiemu.  

20

 IdemDwa bieguny, tłum. Stefan Amsterdamski, Warszawa 1985, s. 53-54. 

 

10

background image

konkurują jednak ze sobą, by tak rzec, synchronicznie, ale diachronicznie, tj. tworzą kolejne 
fazy rozwoju historii geometrii (czy fizyki) lub formalizacje kolejnych faz krystalizowania się 
intuicji geometrycznych czy fizycznych. Nie wydaje się zatem, aby Piaget przyjmował, że są 
one tak samo uzasadnione teoretycznie lub empirycznie.  

 

4. Wyprowadzanie normy czy też wezwanie do nieuzasadnionej tolerancji? 

 

Wydaje się idea normy wyprowadzanej byłaby dość  łatwa do skarykaturowania. 

Można by w niej pochopnie upatrywać pewnej polityki nadmiernej tolerancji wobec 
wypowiedzi, rozumowań, czy obliczeń osób badanych. Ta polityka tolerancji byłaby taką 
linią postępowania, zgodnie z którą zawsze, czy prawie zawsze, interpretowalibyśmy reakcje 
osób badanych w taki sposób, że okazywałyby się one prawidłowe. Nasze zadanie badacza 
ludzkich możliwości poznawczych sprowadzałoby się do poszukiwania usprawiedliwień dla 
nawet największych absurdów.  

Takie postępowanie badawcze byłoby – jak mniemam – zgodne z ideą nauk 

społecznych wyartykułowaną przez Petera Wincha. Oczekiwał on od przedstawicieli nauk 
społecznych, aby analizowali systemy przekonań (szczególnie te, które przynależą do innych 
niż nasz własny paradygmatów myślowych lub wzorców kulturowych) w kategoriach 
poszukiwania tzw. przyczyn wiarygodności tych systemów. Te przyczyny wiarygodności to 
racje (nie zawsze dane explicite), które wymusiły na członkach odmiennej niż nasza 
wspólnoty kulturowej wytworzenie danego twierdzenia, obyczaju, wzorca percepcyjnego, 
zasady etycznej, normy obyczajowej, które prima facie wydają się nam fałszywe, 
nieestetyczne, niemoralne, lub niecywilizowany. Zgodnie z ideą nauk społecznych naszym 
obowiązkiem jest wzbogacać swą gotowość percepcyjną na przyjęcie racjonalności tam, gdzie 
prima facie widzimy tylko zlepek chaotycznych działań. Musimy być otwarci na nowe 
możliwości czegoś, co można przywołać i zaakceptować w rubryce „racjonalne” – 
możliwości, które są podsuwane i ograniczane przez to, co dotychczas akceptowaliśmy jako 
racjonalne, lecz w żadnym wypadku nie są przez to jednoznacznie określane

21

. Winch zatem 

sugeruje, że jeśli chcemy trafnie zrozumieć kogoś, to należy być wyrozumiałym wobec jego 
wypowiedzi i raczej założyć, że to, co ktoś mówi, nie jest nielogiczne.  

Argument przeciwko ideałowi normy wyprowadzanej mógłby, w tym kontekście, 

brzmieć tak oto jeszcze. W niektórych dziedzinach nauki rzeczywiście do dziś nie udało 
wytworzyć się jednolitej teorii, która przez wszystkich członków danej społeczności 
badawczej byłaby akceptowana. Jeśli uprawnione są np. wątpliwości co do jednolitości 
gramatyki, to nie można jednak mieć wątpliwości co do jednolitości logiki. Ludzie różnią się 
pod względem logicznego myślenia, ale nie przypisujemy tego różnicom w systemach 
logicznych, które starają się oni stosować. Przypisujemy je różnicom indywidualnym w 
zdolności do posługiwania się zbiorem logik. Osobę mało pojętną w zakresie logiki 
nazywamy po prostu osobą mniej inteligentną, nie zaś człowiekiem posługującym się inną 
logiką. Niewątpliwie, istnieją różnice między systemami logicznymi, na przykład rachunkiem 
zdań a rachunkiem predykatów, ale wydaje się, że wszystkie te logiki mieszczą się w pojęciu 
jednej logiki ogólnej. I nawet jeśli ta ostatnia myśl jest podważalna, można mieć nadzieję, że 
idea różnorodnych logik wydaje się sensowna właśnie tym osobom, których logiczna 
przenikliwość jest najgłębsza.  

                                                 

21

 Peter Winch, Idea nauki o społeczeństwie i jej związki z filozofią,  tłum. Bohdan Chwedeńczuk, Warszawa 

1995. Patrz dyskusja w tej sprawie: Steven Lukes, Relativism in its Place, w: Rationalism and Relativism, Ed. 
Martin Hollis, Steven Lukes, Cambridge 1982, s. 261-305; Dan Sperber, Apparently Irrational Beliefs, w: 
Rationalism and Relativism, Ed. Martin Hollis, Steven Lukes, Cambridge 1982; Steven Lukes, Some Problems 
about Rationality, 
w: Rationality, Ed. Bryan R. Wilson, Basil Blackwell 1984, s. 195-213.  

 

11

background image

Czy zatem próbując uzasadnić błędy logiczne, błędy przynajmniej z punktu widzenia 

uznanej przez nas logiki, nie akceptujemy błędu w ogóle i nie deprecjonujemy tym samym 
norm, dając zezwolenie na najbardziej nonszalanckie i nieuzasadnione procesy myślowe? 
Ponadto, jeśli we wszystkich logikach wielowartościowych odrzuca się zasadę wyłączonego 
środka to czy nie zagraża to jakoś stanowisku postulującemu istnienie koniecznych i 
powszechnych intuicji logicznych w skład, których wchodzi właśnie owa zasada? Czy należy 
przyjąć, że najsilniejsza logika, jaką można dziś wskazać, jest najlepszym dostępnym obecnie 
przewodnikiem po naszej kompetencji logicznej? Czy może czymś bardziej sensownym 
byłoby przyjęcie, że logika naturalnego języka opiera się bardziej na logice kategorii, a nie 
logice zbiorów?  

Ta pozorna dowolność interpretacyjna implikowana przez metodę normy 

wyprowadzanej jest jednak w istotny sposób ograniczana. Nie wydaje mi się, aby 
opowiedzenie się za ideą normy wyprowadzanej prowadziło w prostej linii do anarchizmu 
metodologicznego, o ile przynajmniej przez ten ostatni rozumiemy trywialną akceptację 
zasady: anything goes. Idea normy wyprowadzanej jest ograniczana przez założenie, że ludzie 
sami spontanicznie (przez nikogo nie pouczeni) przestrzegają pewnych norm. Oczywiście 
ludzie niekiedy przeczą sami sobie lub dokonują błędnych dedukcji, nasze wypowiedzi pełne 
są agramatyzmów, a nasze szacunki prawdopodobieństwa określonych zdarzeń nie rzadko nie 
dadzą się w żaden sposób usprawiedliwić. Jednak normy, które zostają wtedy pogwałcone, 
można wyprowadzić z ludzkich intuicji. Podmiot jest zdolny do uświadomienia sobie faktu, 
że popada w sprzeczności, wypowiada agramatyzmy i źle szacuje prawdopodobieństwo, nie 
tylko poprzez fakt, że ktoś z zewnątrz koryguje jego działania, ale również poprzez fakt 
samodzielnej korekcji swego postępowania. Siła wyjaśnienia opartego na idei normy 
wyprowadzanej polega nade wszystko na próbie ujawnienia przez ten typ wyjaśniania 
konsekwentnego schematu w zachowaniu ludzkim. 

 

Egzemplifikacja antropologiczna: 

 

Claude Lévi–Strauss, posługując się metodą normy wyprowadzanej, próbował 

przezwyciężyć  fałszywą antynomię  między umysłowością logiczną i prelogiczną. Myśl 
nieoswojona jest logiczna w tym samym sensie i w ten sam sposób, co myśl logiczna. 
Robimy zatem błąd, uważając za Lucien Lévi–Bruhlem, że istnieje historyczna różnica 
pomiędzy prelogiczną mentalnością ludów pierwotnych i logiczną mentalnością ludzi 
współczesnych. Lévi–Bruhl, z tego punktu widzenia, posługiwał się ideałem normy 
założonej. Zdaniem Lévy–Bruhla rozmaitym typom społeczeństw odpowiadają rozmaite typy 
umysłowości. Ustalenie typów umysłowości jest potrzebą tak samo palącą jak ustalenie 
typów społeczeństw

22

. Analiza wyobrażeń zbiorowych społeczeństw pierwotnych 

doprowadziła Lévy–Bruhla do wniosku o generalnej odrębności dwu typów umysłowości i 
dwu typów myśli: właściwych społeczeństwom pierwotnym z jednej strony, i nowożytnym 
społeczeństwom cywilizowanym – z drugiej. Lévy–Bruhl  badał system wiedzy pierwotnej 
jako autonomiczną, odrębną całość, nie szukając w niej żadnych początków wiedzy 
filozoficznej czy wiedzy naukowej właściwej społeczeństwom cywilizowanym. Lévy–Bruhla 
koncepcja umysłowości pierwotnej była formułowana zatem w opozycji wobec stanowiska 
animistycznej szkoły Tylora i Frazera, zakładających ewolucyjną ciągłość i tożsamość umysłu 
ludzkiego oraz czynności umysłowych we wszystkich społeczeństwach. 

Stanowisko Lévi–Straussa bliższe jest ideałowi normy wyprowadzanej i zmierza do 

wykazania fałszywej antynomii myśli  pierwotnej i cywilizowanej

23

.  (1) Nieprawdziwe  jest 

                                                 

22

 Lucien Lévi–Bruhl, Czynności umysłowe w społeczeństwach pierwotnych, tłum. Bella Szwarcman–Czarnota, 

Warszawa 1992. 

23

 Claude Lévi-Strauss, Myśl nieoswojona, tłum. Andrzej Zajączkowski, Warszawa 1969, s. 198-199. 

 

12

background image

nade wszystko twierdzenie, że członkowie społeczeństw pierwotnych myślą konkretnie, a 
człowiek nowożytny myśli abstrakcyjnie. W języku chinook – używanym przez Indian na 
północnym zachodzie Ameryki Północnej zdanie – „Zły człowiek zabił biedne dziecko”, 
można (należy) tłumaczyć na zdanie – „Złość człowieka zabiła biedę dziecka”. Bogactwo 
wyrazów abstrakcyjnych nie jest zatem wyłącznym udziałem języków cywilizowanych. (2) 
Ponadto często zasadniczym rysem postępowania poznawczego umysłu pierwotnego, nie 
spotykanego z taką obfitością w społecznościach cywilizowanych, jest niewyczerpana 
znajomość królestwa flory i fauny. Wiedza ta obejmuje nie tylko gatunkową identyfikację 
ogromnej ilości roślin, ptaków, ssaków, owadów, lecz także znajomość zwyczajów i 
obyczajów każdego gatunku. Co ważniejsze wiedza ta spełnia wymogi intelektualne 
uprzednie lub alternatywne wobec konieczności zaspokajania potrzeb. (3) Wreszcie umysł 
pierwotny tworzy skomplikowane systemy klasyfikacyjne zarówno porządkujące dane 
dotyczące  świata przyrody, jak i dane dotyczące  świata kultury. Totemizm jest tylko 
szczególnym przypadkiem ogólnego zagadnienia klasyfikacji i jednym spośród wielu 
przykładów roli przypisywanej kategoriom w celu wypracowania klasyfikacji społecznych. 

Czy psychologia odwołująca się do ideału normy założonej popełnia ten sam błąd, co 

Lévi–Bruhl interpretując dane antropologiczne w kategoriach zapożyczonych z obrębu naszej 
kultury? Czy Piaget dostrzegając wiele nielogicznych skłonności w myśleniu dzieci ulegał 
temu samemu przekonaniu co Lévi–Bruhl, iż istnieje jakościowa przepaść pomiędzy 
myśleniem prelogicznym dzieci, a logicznym myśleniem dorosłych?  

 

4. Hipoteza „logiki umysłu” 

 
John Macnamara twierdzi, że jeśli zaakceptujemy rozróżnienie Chomsky’ego na 

kompetencję i realizację w dziedzinie ludzkiego rozumowania, a nie tylko w wąskiej 
dziedzinie umiejętności językowych, to logika stanie się idealnym kandydatem na teorię 
kompetencji ujmującą część ludzkiego myślenia. Macnamara wyprowadza stąd wniosek, że 
jeśli pójdziemy ścieżką wyznaczoną przez Chomsky’ego, który – jak wiadomo – przypisywał 
wypowiedzi niegramatyczne czynnikom innym niż kompetencja językowa, takim jak błędy 
uwagi, ograniczenia pamięci krótkotrwałej, to w podobny sposób możemy uzasadnić  błędy 
logiczne jako wynikające z parametrów związanych z realizacją, np. presją czasu. Wszelkie 
argumenty, jakie Chomsky przytacza na rzecz związku językoznawstwa z psychologią języka 
znajdują również,  mutatis mutandis, zastosowanie do związku logiki z psychologią. Jeśli 
przyjmiemy zatem, że głównym zadaniem psychologa badającego ludzkie możliwości 
poznawcze, jest wyjaśnienie naszych intuicji dotyczących prawomocności logicznej i jeśli 
uświadomimy sobie, że zbiór prawomocnych wnioskowań jest nieskończony, to wynika z 
tego,  że nasz umysł musi mieć dostęp do reguł, które da się  łączyć, tworząc nieskończony 
zbiór wnioskowań. Aby wyjaśnić  tą umiejętność musimy odwołać się do hipotezy logiki 
umysłu.  

Zgadzam się z sądem wypowiedzianym inter alia przez Macnamarę, iż należy przyjąć 

do wiadomości lekcję Fregego i Husserla

24

, którzy być może w sposób najbardziej istotny 

przyczynili się do upadku psychologizmu, tj. poglądu popularnego jeszcze w XIX wieku, 
zgodnie z którym logikę uważano za część psychologii, z drugiej jednak strony należy także 
pokazywać, że logicy i psychologowie mimo wszystko potrzebują się nawzajem, nawet jeśli 
dziś zachowują się jak „kobiety i mężczyźni w synagodze”

25

.  

Należy zgodzić się z Fregem, że prawa logiczne są z góry założone u podstaw 

wszystkich praw empirycznych; nie mogą one zatem być sprowadzone do praw 
                                                 

24

 Edmund Husserl, Badania logiczne, tłum. Janusz Sidorek, tom I, Toruń 1996, s. 58-103.  

25

 John Macnamara, O nazywaniu rzeczy: Uwagi na temat związku między logiką a psychologią, tłum. Kalina 

Domańska, w: I. Kurcz, J. Bobryk, D. Kędzielawa (red.) Wiedza a język, Wrocław 1986, s. 37-54. 

 

13

background image

empirycznych

26

. Prawdy logiczne mają zatem wyższy poziom konieczności niż prawa 

empiryczne, w rezultacie wszystkie nauki empiryczne (w tym psychologia) opierają się na 
logice (a nie na odwrót). Twierdzę jednak, że czym innym jest powiedzenie, czym prawdy 
logiczne są, tj. czym innym jest ustalenie ich statusu, a czym innym jest odpowiedź na 
pytanie: w jaki sposób umysł wyposażony jest w zasób środków logicznych pozwalających 
mu: (1) zrozumieć sens zdań logicznych, (2) wyrażać zdania logiczne, (3) wreszcie oceniać 
prawomocność (lub jej brak) w przypadku wnioskowań. Zgadzam się zatem z Macnamarą, że 
nawet gdy przyjmujemy najbardziej skrajne antypsychologistyczne stanowisko, nawet gdy 
przyjmujemy pogląd, że struktury logiczne istnieją poza umysłem, w obszarze znajdującym 
się poza czasem i przestrzenią, a zatem nawet wtedy, zmuszeni jesteśmy wyjaśnić, w jaki 
sposób struktury te urzeczywistniają się w naszych umysłach, skoro zdarza nam się stosować 
je w swoim myśleniu

27

. Podobnie, jeśli zgodzimy się z Jerroldem Katzem

28

że język ze swoją 

gramatyką jest abstrakcyjnym bytem platońskim, który nie jest obecny w umyśle, to jednak 
musi on być reprezentowany w umyśle w jakiejś postaci, która będzie kierować zarówno 
uczeniem się języków naturalnych, jak i intuicjami dotyczącymi gramatyczności ciągów słów.  

Tu jednak rodzi się kolejna niejasność. Prawdopodobnie, jeśli udałoby się prześledzić 

konkretne, zadowalające ludzi formy wnioskowania, aż do podstawowych zasobów środków 
logicznych umysłu, to wówczas mielibyśmy prawo stwierdzić, że doszliśmy do adekwatnego 
wyjaśnienia tych form wnioskowań. Oznacza to, jak sądzę,  że w ostatnim stadium analizy, 
interpretacja nie może zostać dokonana przy użyciu zdań. Prawdopodobnie, aby dokonać 
interpretacji, niezbędny jest pewien mechanizm, który wprowadza umysł w intencjonalny 
kontakt z wartościami semantycznymi składników zdań i ich kombinacji. Czy oznacza to, że 
zasoby środków logicznych mają swe źródło w działaniach od logiki niezależnych, tak jak to 
ujmują niektóre prace inspirowane późnym Wittgensteinem, Piagetem lub Quinem, uznaję za 
sprawę otwartą i wymagającą osobnej gruntownej dyskusji.  

Czy logika powinna stanowić dla psychologii źródło, z którego czerpie się hipotezy do 

eksperymentów, czy też raczej winna ona być istotnym składnikiem samej teorii umysłu? 
Twierdzę, że opowiedzenie się za pierwszą możliwością, tj. przyjęcie, założenia, że istnieje 
istotna, jakościowa różnica dzieląca pracę myślową laika i procedury stosowane przez logika, 
tj. przyjęcie,  że logika stanowi dla psychologii jedynie wzorzec, z którym porównuje się 
rzeczywiste funkcjonowanie intelektualne człowieka, jest synonimiczne z opowiedzeniem się 
za strategią normy założonej. Natomiast opowiedzenie się za drugim członem tej alternatywy, 
tj. przyjęcie założenia, że umiejętności logiczne nie stanowią nadzwyczajnych i raczej rzadko 
spotykanych kompetencji, tak jak znajomość  łaciny, czy kultury Kwakiutlów, a w 
konsekwencji, postulowanie, że umysł pozbawiony intuicji logicznych (podobnie zresztą – 
arytmetycznych, fizycznych, językowych, geometrycznych, etc.) nie mógł by ich sobie w 
ogóle przyswoić, jest charakterystyczne dla zwolenników idei normy wyprowadzanej.  

Twierdzę ponadto, że czołowym przedstawicielem tego pierwszego stanowiska jest we 

współczesnej psychologii Philip Johnson–Laird, drugiego zaś Johna Macnamara. Johnson–
Laird interesuje się nade wszystko tym, dlaczego wielu pozornie inteligentnych ludzi 
(przypadkowo wybranych z populacji) bardzo często błędnie rozwiązuje proste zadania 
dedukcyjne. Macnamara natomiast interesuje się bardziej tym, dlaczego wielu ludzi, w tym 
dzieci (a zatem pozornie mniej inteligentnych), jest w stanie przestrzegać wielu reguł 
logicznych i z dużą  łatwością ustosunkowywać się krytycznie do rozumowań im 

                                                 

26

 Gottlob Frege, Myśl – studium logiczne, tłum. Bogusław Wolniewicz, w: IdemPisma semantyczne, Warszawa 

1977, s. 101-128.  

27

 IdemLogika i psychologia. Rozważania z pogranicza nauk, tłum. Michał Zagrodzki, Warszawa 1993, s. 8.  

28

 Jerrold Katz, Language and Other Abstract Objects, Rowman and Littlefield Publishers 1981; Idem

Metaphysics of Meaning, MIT Press 1992.  

 

14

background image

podkładanych pod rozwagę. W rezultacie Johnson–Laird twierdzi, że nie może istnieć nic 
takiego, jak logika umysłu, której realności psychologicznej broni właśnie Macnamara

29

.  

Johnson–Laird twierdzi, że skoro nie udało się stworzyć takiego sposobu 

sformalizowania rachunku, aby możliwe było przeprowadzenie w jego obrębie każdego 
prawomocnego wnioskowania (konsekwencja twierdzenia Gödla); jeżeli zatem niemożliwe 
jest istnienie logiki formalnej, obejmującej wszystkie ważne dedukcje, to tym bardziej 
niemożliwe jest istnienie logiki umysłu. Macnamara replikuje jednak, że jest to argument na 
rzecz niepełności logiki umysłu, ale nie przeciwko niej samej. Dlaczego logika miały być 
pełna z tego tylko powodu, że jest logiką umysłu?  

Istnieje jednak jeszcze inny zarzut wobec logiki umysłu, wysuwany przez 

psychologów. Psychologowie poznawczy muszą odróżniać w swojej teorii wnioskowanie 
prawomocne od nieprawomocnego, tak samo jak muszą odróżniać obliczenia poprawne od 
błędnych, tak samo jak lingwiści muszą być zdolni różnicować zdania gramatyczne od zdań 
niepoprawnych. Ostatecznie błędy należy wyjaśniać w inny sposób niż czynności poprawne. 
Jeśli teraz postulowalibyśmy istnienie logiki umysłu, w której prawa logiczne pozostawałyby 
do myślenia tak jak, powiedzmy, prawa ruchu do poruszania się obiektów fizycznych, to błąd 
logiczny wydawałby się wykluczony. Gdyby np. prawo sprzeczności było podstawowym 
warunkiem myślenia, tak jak prawa ruchu są podstawowym warunkiem poruszania się 
obiektów fizycznych, to istnienie błędów logicznych byłoby co najmniej niezrozumiałe. Jak 
zatem zwolennicy postulowania istnienia logiki umysłu, radzą sobie z wyjaśnianiem istnienia 
błędów logicznych?  

Jeśli wytwarzanie następstwa myśli wyznaczałyby prawa logiczne, to rzeczywiście 

żadne takie następstwo nie mogłoby zostać wytworzone z pogwałceniem tychże praw. Fakt 
ten wykluczałby nie tylko błąd logiczny, ale również wiele fantastycznych myśli, do których 
wszyscy jesteśmy zdolni. Podobnie, gdybyśmy przyjęli,  że mechanizmy generujące 
następstwo myśli funkcjonują automatycznie bez udziału  świadomości, to również  błąd 
logiczny byłby trudny do wyjaśnienia. Ponadto w takiej sytuacji, mechanizmy generujące 
mogłyby zostać wyłączone jedynie poprzez jakąś usterkę mechaniczną lub po prostu śmierć. 
Z tych powodów być może należy uznać,  że mechanizmy ustalające prawomocne relacje 
między myślami są dostępne dla świadomości. Zaczynają one prawdopodobnie działać 
retrospektywnie wtedy, gdy pewne sekwencje zdań logicznych zostały już wytworzone. 
Ścisłej rzecz biorąc prawa wnioskowania nie są prawami wytwarzania myśli, ale prawami 
oceny prawomocności myśli, stąd nie wykluczają one możliwości błędu.  

 

Jaakko Hintikka o logice: 

 

Twórczość filozoficzna Hintikki jest wielokierunkowa. Obejmuje ona: logikę 

klasyczną, logikę deontyczną (system dedukcyjny, w którego twierdzeniach występują stałe 
deontyczne takie jak: „jest obowiązkowe to, że”, „jest dozwolone to, że”, „jest zakazane to, 
że”), logikę epistemiczną (system dedukcyjny, w którego twierdzeniach występują stałe 
epistemiczne takie jak: „wierzyć”, „uznawać”, „być przekonanym”, „przypuszczać”, 
„rozumieć”, „odrzucać”, etc.), logikę erotetyczną (logika pytań), logikę istnienia, logikę 
indukcji, filozofię logiki i matematyki, filozofię języka, filozofię nauki oraz historię filozofii. 
Ta wielość zainteresowań logicznych jest nieprzypadkowa

30

.  

U podstaw jego filozofii leży przekonanie o fundamentalnej roli logiki w dociekaniach 

filozoficznych. Hintikka podziela przeświadczenie charakterystyczne dla filozofii 
analitycznej, iż właściwą domeną dociekań filozoficznych jest formalistyczna rekonstrukcja. 
                                                 

29

 Philip N. Johnson–Laird, Mental Models, Cambridge 1983, s. 140-141.  

30

 Jaakko Hintikka, Logika epistemiczna i metody analizy filozoficznej, w: IdemEseje logiczno–filozoficzne, 

tłum. Adam Grobler, Warszawa 1992, s. 27-51.  

 

15

background image

Twierdzi on, że współczesna logika dostarcza adekwatnych narzędzi do formalizacji 
obszernych fragmentów języka potocznego. Jego zdaniem logika formalna nie stanowi jednak 
ani rygoryzacji istotnych wycinków mowy potocznej, ani też rewizji naszego naturalnego 
podejścia do pojęć. Poszczególne gałęzie logiki najlepiej traktować jako model wyjaśniający, 
który pozwala uchwycić pewne aspekty funkcjonowania języka potocznego. Można w 
pewnych przypadkach uznać,  że taki model ujawnia „logikę  głęboką” ukrytą pod 
powierzchnią skomplikowanych realiów potocznego użycia wyrażeń epistemicznych i 
pozwala wyjaśnić owe zawiłości. Dlatego stanowi on nie tylko propozycję modyfikacji języka 
potocznego, ile próbę pełniejszego jego zrozumienia. Hintikka stara się połączyć idee późnej 
filozofii Wittgensteina, związaną z problemem gier językowych, z metafilozoficzną opcją 
formalistów w analizie filozoficznej. Jego pogląd można sformułować w postaci twierdzenia: 
różne gry językowe dają się wyrazić za pomocą różnych systemów logicznych. 

 

5. Problem kompetencji  
 

Gramatyka generatywna za przedmiot swego opisu uznała tzw. idealnego użytkownika 

języka  –  tj. takiego, który należy do całkowicie jednorodnej społeczności językowej i zna 
język w sposób doskonały. Wykorzystując swoją znajomość  języka podczas czynnego 
zachowania językowego nie podlega on też takim gramatycznie nieistotnym 
uwarunkowaniom, jak ograniczoność pamięci, rozproszenie uwagi, przerzuty zainteresowania 
oraz błędy (przypadkowe lub systematyczne). Chomsky czyni podstawowe rozróżnienie 
między  kompetencją  – znajomością  języka, która za pomocą skończonego zestawu reguł 
umożliwia nam tworzenie praktycznie nieograniczonego zakresu zdań; oraz wykonaniem  – 
praktycznym użyciem języka w konkretnych sytuacjach. Wykonanie stanowi bardzo rzadko 
bezpośrednie odzwierciedlenie kompetencji (wiedzy). W zasadzie jest tylko jeden taki 
przypadek i ten właśnie przypadek jest przedmiotem analizy teorii Chomsky’ego. Jest to 
mianowicie przypadek idealnego użytkownika języka.  

Kompetencja językowa (faculté de langage)  stanowi tylko jeden składnik 

całościowego systemu operacji myślowych stosowanego przez człowieka do rozwiązywania 
problemów i tworzenia pojęć, stanowi tylko jedną z władz umysłu. Mimo, że należy 
oczekiwać różnicy w sposobie, w jaki organizm będzie przystępował do rozpracowania 
systemów przypominających język oraz takich, które języka nie przypominają, to jednak 
można przyjąć, że istnieje analogia w badaniach nad kompetencją i wykonaniem w zakresie 
innych władz umysłu (percepcji, budowania pojęć, szacowania prawdopodobieństw, etc.). 
Badania nad gramatyką generatywną usiłują ustalić to, co użytkownik języka faktycznie wie, 
a nie to, co może zrelacjonować o swej wiedzy gramatycznej. Podobnie teoria percepcji musi 
wyjaśnić to, co faktycznie widzi analizator percepcyjny; nie może więc ograniczać się do 
sądów percepcyjnych osoby spostrzegającej

31

Mimo, że sfera realizacji – wedle sugestii Chomsky’ego – jest zawsze tylko pochodną 

sfery kompetencji, to jednak z racji niedostępności empirycznej sfery utajonej wiedzy 
podmiotu, skazani jesteśmy na wyniki badań nad wykonaniem. Innymi słowy, mimo, że 
Chomsky twierdził – „badanie wykonania posunie się jedynie o tyle, o ile pozwoli na to 
zrozumienie leżącej u jego podstaw kompetencji”

32

, to jednak wszystko, co wiemy o 

kompetencji, wiemy poprzez badanie realizacji. Kompetencja, którą Chomsky usiłuje 
wyjaśniać, to gramatyka uniwersalna, ale ta ujawnia się tylko przy uczeniu się kompetencji 
gramatycznej konkretnych języków, a także w intuicji językowej oraz możliwości 
funkcjonowania tych języków. Gramatyka uniwersalna jest zatem podwójnie oddalona od 
                                                 

31

 Zenon W. Pylyshyn, Competence and Psychological Reality, „American Psychologist”, nr 27, 1972, s. 546-

552.  

32

 Noam Chomsky, Zagadnienia teorii składni, tłum. Ireneusz Jakubczak, Warszawa 1982, s. 23.  

 

16

background image

danych empirycznych. Językoznawcy muszą zbudować (a) gramatyki konkretnych języków, 
by następnie (b) przewidzieć zbiór uniwersalnych wyznaczników kształtujących te gramatyki.  

Z pojęciem kompetencji w filozofii umysłu jest mniej więcej tak, jak z pojęciem 

paradygmatu w filozofii nauki: zrobiło ono ogromną karierę mimo niejasności znaczeniowej. 
Pojęcie kompetencji w tekstach Chomsky’ego nigdy nie stało się jasne i jednoznaczne. 
Przenoszone do innych dziedzin, pozajęzykowych, staje się jeszcze bardziej zagadkowe. 
Myślę, że można mu nadać kilka znaczeń.  

(1) Chomsky upiera się przy twierdzeniu, że kompetencja językowa jest „wiedzą, że”, 

co oznacza, że jest wiedzą  (a nie zbiorem umiejętności) o możliwościach języka 
naturalnego

33

. Powiada on wielokrotnie całkiem wyraźnie,  że wiedza, na którą wskazuje 

pojęcie kompetencji, nie jest nawykiem ani zbiorem nawyków. Nie jest jednak jasne, czy 
wszystkie rodzaje kompetencji, w tym kompetencja logiczna, dadzą się wyjaśnić w 
kategoriach przekonań, tj. w kategoriach wiedzy deklaratywnej. Prawdopodobnie, będzie 
czymś koniecznym, postulowanie istnienia mechanizmów, które wykonują pewne operacje, 
gdy spełnione są wyznaczone warunki. Usiłowanie dokonania interpretacji jednych zdań za 
pomocą innych zdań (i tylko zdań) prowadzi bowiem do nieskończonej regresji. Aczkolwiek 
mimo, że musimy użyć zdania, aby wyrazić jakąś formułę, pokroju – „W okolicznościach X
wykonaj O”, to procedura sama w sobie nie jest zdaniem, lecz mechanizmem, który wykonuje 
operacje. Należy zatem oczekiwać,  że opis kompetencji, w szczególności w sferach 
pozajęzykowych, dokona się, przynajmniej częściowo w kategoriach „wiedzy, jak”.  

(2) Kompetencja językowa to opis intuicji językowych, a zatem automatycznych ocen 

gramatycznego statusu ciągu słów. Ponieważ gramatyczność nie daje się opisać za pomocą 
dostępnych spostrzeżeniowo cech ciągów słów i ponieważ nie potrafimy zapamiętać zbioru 
ciągów słów, które możemy ocenić jako gramatyczne, nasza ocena gramatyczności musi 
opierać się na zbiorze reguł. Nie jest jasne, czy tak rozumiana kompetencja da się, na zasadzie 
ekstrapolacji, wykorzystać do opisu innych rejonów funkcjonowania poznawczego człowieka. 
Czy zatem kompetencja logiczna jest opisem intuicji dotyczących warunków prawdziwości; a 
intuicja matematyczna opisem intuicji dotyczących prawomocnych obliczeń; kompetencja 
fizyczna opisem intuicji dotyczących np. mechaniki ciał; kompetencja percepcyjna opisem 
intuicji optycznych; kompetencja moralna opisem intuicji wchodzących w skład teorii 
sprawiedliwości; etc.? Problem jest tym bardziej dotkliwy, że w niektórych sferach (np. 
optyka czy gramatyka) opis intuicji jest w zasadzie opisem urządzenia funkcjonującego poza 
wolą i świadomością, w innych jednak dziedzinach (np. logika i moralność) nie może być to 
opis tylko urządzenia funkcjonującego w sposób pozaintencjonalny i nieświadomy.  

(3) Teoria kompetencji jest w ujęciu Chomsky’ego częścią psychologii, która skupia 

uwagę na jednej specyficznej dziedzinie poznawczej i na jednej z władz umysłu, tj. władzy 
językowej. Taka deklaracja kwalifikuje stanowisko Chomky’ego jako jawnie 
psychologistyczne. Jeśli chcielibyśmy utrzymać w mocy krytykę psychologizmu dokonaną 
przez Husserla i Fregego, to musimy dostrzec ograniczenia analogii pomiędzy kompetencją 
gramatyczną a logiczną.  

Są jeszcze inne konteksty znaczeniowe wyrażenia „kompetencja” takie jak idealizacja 

i abstrakcja od wykonania, które poruszałem już wcześniej, nie będę zatem do tego wracał w 
tym momencie.  

 

                                                 

33

 Noam Chomsky, Aspects of The Theory of Syntax, MIT Press, 1965; Language and Mind, New York 1968; 

Reflections on Language, Pantheon, 1975; The Logical Structure of Linguistic Theory, University of Chicago 
Press, 1975; Rules and Representations, Columbia University Press, 1980; Theory of Government and Binding
MIT Press, 1982; Knowledge of Language: Its Nature, Origin and Use, New York and Philadelphia 1986.  

 

17

background image

Piaget o logice i psychologii. Fodor o epistemologii genetycznej: 

 

Z racji, że Piaget dopuszczał  ścisłą odpowiedniość między logiką a mechanizmami 

przetwarzania informacji w umyśle człowieka dorosłego, a zarazem twierdził,  że struktury 
logiczne, które przypisujemy dorosłym, nie występują u dzieci, można by go posądzić o 
stosowanie strategii normy założonej: logika człowieka dorosłego pozwala zobaczyć, jak 
bardzo myślenie dzieci od nich odbiega. Z drugiej jednak strony sugerował on, że logika 
matematyczna może być aksjomatyzacją operacji umysłowych, niezależnie od poziomu 
rozwoju i wieku

34

. Próbował dookreślić charakterystyczne dla danego okresu rozwojowego 

zasady postępowania myślowego.  

Rozwój poznawczy, w tym ujęciu, to ciąg coraz silniejszych formalizacji. Na pewnym 

poziomie przedmioty stanowią treść pierwszej formy, którą podmiot do nich stosuje, ale na 
następnym poziomie (n + 1) ta właśnie forma staje się treścią formy wyższego rzędu, która 
nie ma już bezpośredniego kontaktu z przedmiotami. Na poziomie n + 2 forma n + 1 zostaje 
włączona do następnej nowszej formy jako jej treść. W tym sensie przedmioty tracą coraz 
bardziej swą funkcję znaczeniową. Z tego właśnie powodu prędzej czy później dla podmiotu 
staje się  łatwe zastąpienie konkretnego przedmiotu przez obiekty symboliczne i wejście na 
drogę, która ostatecznie będzie prowadzić do myślenia formalnego. Ostatnim poziomem, w 
tak pojętym rozwoju, jest poziom osiągany przez myśl w czystej matematyce. 

Ta wizja ontogenezy umysłu – jako następstwa coraz silniejszych „logik”, silniejszych 

w tym sensie, że zbiór prawd, które mogą być wyrażone przy użyciu pojęć na etapie i  jest 
podzbiorem prawd, które mogą być wyrażone za pomocą pojęć dostępnych na etapie i + 1
może się okazać jednak trudna do uzasadnienia teoretycznego, jeśli zważyć tezę Fodora. 
Autor  Języka myśli  dowodzi mianowicie, że  nie ma teorii uczenia się, a nawet, że takiej 
teorii być nie może,  że sama idea uczenia się pojęć jest pomyłką. Zmiany formacji 
myślowych (kolejnych faz ontogenezy) nie mogą być wynikiem procesu uczenia się, mogą 
być one jedynie wynikiem procesu utrwalania przekonań. Jeżeli przez uczenie rozumieć 
formułowanie i sprawdzanie hipotez, to nie jest nigdy możliwe nauczenie się logiki bogatszej 
na bazie logiki słabszej. Jest tak, bowiem za pomocą aparatu pojęciowego dostępnego na 
poziomie  i nie możemy formułować hipotez dotyczących warunków prawdziwości formuł 
dostępnych na poziomie i + 1, bo to właśnie z tego względu logika i + 1 jest silniejsza od  
logiki i

35

Niewykluczone jednak, że teza Fodora doprowadza do wniosków o wiele bardziej 

paradoksalnych, niż konstruktywizm Piageta. Jednym z tych wniosków jest taka oto 
implikacja: mechanizmy darwinowskie nie są zdolne do tego, by wytworzyć sekwencję form 
wiodącą do powstania gatunku Homo sapiens. Z tego zaś wynika: że wszystkie gatunki i ich 
kolejne formy zawarte były w protoinformacji genetycznej. Nie jestem pewny, czy sam Fodor 
byłby skłonny przyjąć tego rodzaju twierdzenie. Podobnie, należy przyjąć,  że język myśli 
wyposażony jest w logikę w wyartykułowanym sensie najsilniejszą. Chomsky ograniczał się 
do twierdzenia, że gramatyka uniwersalna musi: (1) z jednej strony być dostatecznie bogata, 
aby wyjaśnić łatwość i szybkość przyswajania języka etnicznego przez dziecko; (2) z drugiej 
jednak strony musi być na tyle uboga w szczegółowe rozwiązania gramatyczne, aby stanowić 
punkt wyjścia nie tylko dla wszystkich znanych języków etnicznych, ale i dla wszystkich w 
ogóle języków dających się pomyśleć. Te dwa warunki stanowiły istotne ograniczenie 
inżynieryjne dla projektów gramatyki uniwersalnej. W projekcie języka myśli Fodora te 
ograniczenia nie są już tak oczywiste.  
                                                 

34

 Patrz w tej sprawie m.in.: Leon Koj, Psychologiczna geneza pojęcia zbioru, w: IdemMyśl i znak, Białystok 

1990, s. 85-110.  

35

 Jerry A. Fodor, 1995, Utrwalanie przekonań i nabywanie pojęć, tłum. Michał Tempczyk, w: Katarzyna Rosner 

(red.) Noama .Chomsky’ego próba rewolucji naukowej, Warszawa 1995, s.155.  

 

18

background image

 

Piaget o nauce spójników zdaniowych. Macnamara o niemożności nauczenia się 

znaczeń tych spójników: 

 

Piaget rozważając relacje pomiędzy kształtowaniem się intuicji logicznych i 

gramatycznych zauważył, że dziecko, jeszcze w wieku 7–9 lat nie jest w stanie posługiwać się 
jednoznacznie wyrażeniem „ponieważ”

36

. W języku dziecka słowo to służy do wyrażania 

wszelkiego typu związków: przyczynowych, celowych, relacji następstwa czy wynikania; 
przy czym dziecko nie zdaje się być zupełnie zakłopotane tą różnorodnością. Ponadto Piaget 
zasugerował,  że dzieci poniżej 11–12 roku nie rozumieją praktycznie wcale znaczeń 
spójników niezgodności, takich jak: „jakkolwiek”, „mimo że”, „chociaż”. itp. Gdy chodzi o 
związki przyczynowe, dziecko samorzutnie zastępuje w swym języku „ponieważ” przez 
zwykłe „i”; co oznacza, że zachowuje się tak, jakby połączenia przyczynowe można było 
zastąpić jakimś połączeniem nieokreślonym. Podobnie, jeśli chodzi o niezgodność, dziecko 
nie ma w swym języku  żadnego wyrazu, oznaczającego ten związek, stąd wyraża pewien 
rodzaj niezgodności w zaczątkowej formie za pomocą słowa „ale”. Piaget wyciąga wniosek 
ogólny z tych danych: dziecko do pewnego czasu używa spójnika „ponieważ” podstawiając 
pod nie znaczenie spójnika „i”, podobnie używa spójnika „chociaż” podstawiając pod nie 
znaczenie słowa „ale”.  

Nie jest to przypadek, albowiem „ale” znajduje się w takim samym stosunku do 

„chociaż”, jak „i” do „ponieważ”. Podobnie jak zdanie: „Szklanka stłukła się, ponieważ 
spadła” można przekształcić na: „Szklanka spadła i stłukła się”, tak można też zastąpić 
„jakkolwiek” w zdaniu: „Szklanka nie stłukła się, jakkolwiek spadła” przez „ale”: „Szklanka 
spadła, ale się nie stłukła”. Zdaniem Piageta „ale” nie wyraża istotnej niezgodności, lecz 
ogranicza się tylko do wypowiadania „poczucia niezgodności”, podobnie jak „i”, zamiast 
wyrażać rzeczywistą przyczynowość lub wynikanie, ogranicza się do oznaczania „poczucia 
łączności”.  

Powstaje jednak pytanie, skąd Piaget wie, co oznacza dla dorosłych słowo 

„ponieważ”, skąd w nim pewność, że dorośli nie popadają w konfuzję semantyczną w trakcie 
posługiwania się tym wyrażeniem? Kiedy rozważymy następujące trzy zdania: „Połową 
liczby 10 jest liczba 5 ponieważ 5 + 5 równa się 10”, „Janek upadł ponieważ potknął się o 
wystający kamień”, „Zosia pocałowała Janka ponieważ się w nim zakochała” zdamy sobie 
sprawę, że znaczenie tego słowa wcale nie jest i dla nas dorosłych oczywiste i jednoznaczne. 
Może ono znaczyć prosty związek przyczynowo–skutkowy, może oznaczać relację 
wynikania, a może też oznaczać relacje łączące postawy mentalne z zachowaniami. Piaget 
zatem zakłada, posługując się metodą normy założonej,  że sens słowa „ponieważ” jest 
zrozumiały i powszechnie w środowisku ludzi dorosłych akceptowalny. Nie bierze pod uwagę 
np. dyskusji nad przyczynowością inspirowaną naukami przyrodniczymi. Ponadto, co to 
znaczy wiedzieć jak posługiwać się spójnikiem „i”; czy znaczy to mieć  świadomość,  że 
koniunkcja dwóch zdań składowych jest tylko wtedy prawdziwa, gdy oba te zdania są 
prawdziwe?  

Piaget sugeruje, że spójnik „i” lub „albo” używany jest przez dziecko znacznie 

wcześniej niż spójnik „ponieważ” lub „chociaż” ponieważ jest mniej „wymagający 
logicznie”. Spójnik „i” wyraża jedynie „poczucie łączności” tak jak spójnik „albo” wyraża 
jedynie „poczucia niezgodności”. Macnamara, dyskutując z poglądami Piageta, twierdzi, że 
dzieci, które dysponowałyby pojęciem prawdy i fałszu, a nie dysponowałyby  żadnym 
funktorem prawdziwościowym, nie byłyby w stanie nauczyć się całego zbioru tych 
funktorów, którymi operuje logika zdań. Ponieważ spójnik „i” jest funkcją prawdziwościową 

                                                 

36

 Jean Piaget, Sąd i rozumowanie u dziecka, tłum. J. Pini–Suchodolska, Lwów 1939, s. 18-67.  

 

19

background image

od wartości logicznej, to uczenie się jego znaczenia zakłada pojęcie prawdy i zdolność do 
identyfikowania obiektów, mogących zająć jego miejsca argumentowe, tj. zinterpretowanych 
zdań.  

Oczywiście wiadomo, że za pomocą jednych funktorów można zdefiniować pozostałe. 

Np. implikację materialną można zdefiniować przy użyciu funktorów i nie: (p → q) wtedy i 
tylko wtedy gdy ~ (p i ~ q). Dzieci, które znają zarówno „i” jak i „nie”, a w dodatku potrafią 
wyrażać definicje, mogą nauczyć się znaczenia implikacji materialnej. Podobnie „i” można 
zdefiniować za pomocą innych funktorów, na przykład „nie” i „lub”.  

Macnamara pyta jednak nie o to, czy dzieci potrafią nauczyć się takiej czy innej 

funkcji, ale czy mogą nauczyć się całego zbioru funktorów prawdziwościowych. Jeśli jest tak, 
jak sugeruje Piaget, że dzieci przez długi okres czasu nie potrafią przypisywać jednostek do 
klas, znaczyłoby to również,  że nie potrafią się one posługiwać predykatami, bo na tym 
właśnie polega ta umiejętność. Przy takim braku nie potrafiłyby one sformułować ani 
zrozumieć zdania, z tego by jednak wynikało, że nie mogłyby w adekwatny sposób rozumieć 
funktora zdaniowego, w tym funktora „i”. Ponadto, za pomocą pojęć referencji i prawdy 
możemy zdefiniować predykaty jako takie składniki, które w połączeniu z wyrażeniami 
referencyjnymi dają w efekcie obiekty posiadające wartość logiczną. Prawda jednak sama w 
sobie jest predykatem. Jak zatem ktoś, kto nie potrafi posługiwać się predykatami, mógłby 
posługiwać się predykatami „prawdziwy” lub „fałszywy”? Wniosek Macnamary jest 
następujący: funktor „i” należy traktować jako funktor podstawowy, tj. jako niewyuczony 
funktor należący do języka myśli, co oznacza, że dzieci nie uczą się funkcji wyrażanej przez 
„i” w jego prawdziwościowej roli.  

 

5. Psycholog jako intelektualny położnik 
 

Kusi myśl, by powiedzieć, że w ten sposób ponownie odkryliśmy Sokratesa. Możemy 

prowadzić dyskusje z ludźmi na dwa sposoby, tj. możemy udawać położników, by 
wykazywać badanym osobom, że wiedzą znacznie więcej niż zdaje im się, że wiedzą, a zatem 
możemy stosować majeutykę. Możemy też jednak udowadniać ludziom bezzasadność ich 
roszczeń poznawczych; tj. możemy im pokazywać,  że  żyją jedynie złudzeniami a nie 
przekonaniami, a zatem wiedzą o wiele mniej niż im się wydaje, że wiedzą; w rezultacie 
możemy stosować metodę elenktyczną. Czy psychologowie rzeczywiście dzielą się na 
położników przeprowadzających udane porody wiedzy, stosując metodę normy 
wyprowadzanej i akuszerki doprowadzające do poronień, stosując metodę normy założonej?  

Z faktu, iż rachunek prawdopodobieństwa jest gałęzią matematyki, którą niewielu 

ludzi opanowało w pełni, wielu psychologów, stosujących metodę elenktyczną (normy 
założonej), wyprowadziło wniosek, iż ludzie są niezdolni do obliczania prawdopodobieństwa 
zdarzeń zgodnie z wymogami nauki. Powiada się też, że osoby, które nie potrafią posługiwać 
się liczbami, nie mogą przyporządkować swemu wnioskowi liczby określającej stopień 
pewności, a nawet ludzie sprawnie operujący liczbami mogą w swojej reprezentacji 
poznawczej nie mieć gotowości do liczbowego określania przekonań. Z tych „danych” 
wyprowadza się wniosek, że przekonania jednostek rzeczywiście mogą się różnić pod 
względem subiektywnej siły pewności, nie wynika z tego jednak, że takie różnice wymagają 
umysłowej reprezentacji numerycznych prawdopodobieństw. Podobnie z faktu, iż nasze 
rozumowania uwikłane są w konteksty sytuacyjne i wielu z nas nie rozróżnia podstawowych 
schematów wnioskowań takich jak modus ponens czy  modus tollens, wielu wyprowadziło 
wniosek o bezużyteczności logiki formalnej do opisu i zrozumienia wnioskowań potocznych. 
Wreszcie z faktu, iż wiele zdań w pełni gramatycznych jest dla nas niezrozumiała, a wiele 
zdań niegramatycznych jest dla nas dopuszczalna i zrozumiała, wielu wyprowadziło wniosek 
o bezużyteczności metod składniowych dla zrozumienia naszych umiejętności językowych.  

 

20

background image

Myślę,  że powyższe wnioski są przedwczesne, pochopne i nietrafne. Fakt, że ludzi 

można nauczyć z różnym skutkiem pewnych praw lub zasad i że czasem popełniają oni błędy, 
stosując je poza zakresem ich obowiązywania, nie mówi nam nic o tym, jaką postać 
przyjmują te prawa w umysłach ludzi. Mogą one przyjmować postać schematów lub 
specyficznych względem treści reguł wnioskowania, lecz mogą też być reprezentowane w 
sposób deklaratywny. Nie wiadomo jak prawa te wpływają na sam proces myślenia. Kiedy 
np. zdziwię się bardziej wtedy, gdy moneta upadnie orłem na wierzch dziesięć razy z rzędu, 
niż wtedy, gdy upadnie tylko trzy razy z rzędu w ten sam sposób, to czy należy stąd 
wyprowadzić wniosek, że posiadam ukrytą, cichą znajomość prawa wielkich liczb, zgodnie z 
którym: im większa jest próbka z populacji, tym mniej jej średnia będzie się różnić od 
średniej z populacji? Nie sądzę, wystarczy przyjąć,  że umysł jest tak skonstruowany, że 
trudno mu uznać istnienie serii zdarzeń wobec siebie zupełnie niezależnych. W istocie, w 
przyrodzie zdarzenia następujące po sobie i względem siebie zupełnie niezależne należą do 
rzadkości.  

Mówiąc jeszcze inaczej, istnieje pewna bardzo prosta procedura wprowadzania ludzi 

w błąd. Niestety, nadużywana przez psychologów. Aby jej doświadczyć rozważmy prosty 
przykład. Przypuśćmy, że psycholog zajmujący się (niby) badaniem intuicji gramatyczności 
zadaje nam pytanie: czy bardziej poprawne jest powiedzenie, że żółtko jest białe, czy też, że 
żółtka są białe?; a psycholog zajmujący się (niby) rozumieniem wyrażeń wchodzących w 
skład słownika pokrewieństwa, zadaje nam pytanie: czy Kościół katolicki pozwala 
mężczyźnie na poślubienie siostry wdowy po nim? Jeśli jesteśmy dostatecznie czujni i 
stanowczy na pierwsze pytanie odpowiadamy, że żółtka nie są białe, ale żółte; a na drugie, że 
martwi mężczyźni nie wchodzą w związki małżeńskie. Jeśli jednak nasz poziom stanowczości 
jest mniejszy, tj. wykazujemy tendencje do podporządkowywania się innym osobom, to być 
może będziemy czuli się w obowiązku sformułowania odpowiedzi bezpośrednio na zadane 
pytanie, a nie podważenia samego pytania. Twierdzę,  że z tych właśnie powodów, ludzie 
godzą się ze stwierdzeniami pokroju, że liczba „3” jest lepszym przykładem liczby 
nieparzystej niż liczba „13” lub że „matka” jest doskonalszym przykładem „kobiety” niż 
„aktorka komediowa”; równocześnie jednak zdolni są dokonania refleksji, że liczba jest albo 
parzysta, albo nieparzysta oraz że osoba jest albo kobietą, albo mężczyzną, i nie ma tu 
żadnych stopni pośrednich. 

Podobnie, kiedy stawiamy ludzi wobec problemu typu: załóżmy,  że w szufladzie w 

ciemnym pokoju znajduje się 24 czerwone i 24 niebieskie skarpety; jaka jest najmniejsza 
liczba skarpet, jaką muszę wyciągnąć z szuflady, by mieć pewność, że mam co najmniej dwie 
skarpety w tym samym kolorze? Na co słyszymy odpowiedź: 25 (a nie jak oczekujemy: 3), to 
niekoniecznie musimy wyprowadzać wniosek, że ludzie są bezradni wobec tego typu 
problemów, możemy przyjąć w zamian, że odpowiadają oni zapewne na inne pytanie, tj. na 
pytanie: jaka jest najmniejsza liczba skarpet, jaką muszę wyciągnąć z szuflady, by mieć 
pewność, że mam co najmniej dwie skarpety w różnym kolorze? Wszystko sprawia wrażenie, 
że psychologowie odwołujący się do idei normy założonej, usiłują na nowo przyswoić w 
sposób niezwykle wybiórczy pojęcie ironii Sokratejskiej; sprawiają oni bowiem, że ten, kto 
się do niej zbliży i ich dotknie, „intelektualnie drętwieje”.  

 

 

21

background image

René Thom o porodach i poronieniach: 

 

Dla Thoma każdy dowód jest odkryciem nowej struktury, której elementy leżą 

niepowiązane w intuicji człowieka, dopóki rozumowanie człowieka ich nie złoży w jedną 
całość. W tym sensie każdy dowód jest doświadczeniem sokratycznym; chodzi o wywołanie 
w umyśle osoby „uczącej się” procesu koniecznego dla wyłonienia prawdy, której wszystkie 
dane już  są umocowane w umyśle tej osoby, lecz pozostają jeszcze ukryte i 
niesformułowane

37

. Program aksjomatyzacji matematyki przedstawiony przez Hilberta, próba 

oparcia matematyki na teorii zbiorów Cantora, czy wreszcie formalistyczno–
strukturalistyczny program Bourbakistów, a w szczególności pedagogiczne pomysły 
nauczania matematyki w oparciu lub odwołaniu do tych programów, są dla Thoma 
kolosalnymi pomyłkami. Nauczanie matematyki w formie wielkich struktur abstrakcyjnych 
stworzonych przez matematykę współczesną nie jest skutecznym czynnikiem ułatwiającym 
naukę.  

Jak pisze sam Thom, odwołując się do metafory położniczej, „wielkie struktury 

abstrakcyjnej logiki, jak pojęcie relacji równoważności, silne środki abstrakcji, mocno 
przypominają brutalne narzędzia ingerencji chirurgicznej jak kleszcze czy cesarskie cięcie”

38

Zdaniem Thoma, jeśli zastosuje się cesarskie cięcie przedwcześnie, nie pozwolimy na udany 
poród dziecka i ryzykujemy zdrowiem matki. Jeśli, natomiast przeciwnie, pozwolimy dziecku 
rozwijać się, dojrzewać, dostarczając mu odpowiedniego środowiska pokarmowego, 
oddzielenie się od macierzystej struktury odbędzie się samo z siebie, w sposób naturalny i bez 
pomocy silnych i nieczułych narzędzi, jakimi są abstrakcyjne pojęcia logiki. Dać zarodkowi 
dojrzewać, to w istocie rzeczy doprowadzić go stopniowo do świadomości, a zatem nadać mu 
sens i znaczenie.  

Thom przeciwstawia się zasadzie ekstensjonalności, zgodnie z którą znaczenie danego 

pojęcia to jego zakres zastosowania. Któż mógłby się pochwalić,  że dysponuje pełną 
znajomością zbioru czerwonych przedmiotów we wszechświecie? Jeśli nikt, to nikt nie zna 
znaczenia słowa „czerwony”. Zdaniem Thoma myślenie zawsze oparte jest na rozumieniu 
treści pojęcia (intensji) i prawie nigdy jego zakresu (ekstensji). Geometria jest dla Thoma 
naturalnym i niemożliwym do zastąpienia  łącznikiem między językiem potocznym a 
sformalizowanym  żargonem matematycznym, w którym każdy obiekt jest zredukowany do 
roli symbolu. Z jego punktu widzenia stadium myślenia geometrycznego jest etapem nie do 
ominięcia w normalnym rozwoju racjonalnej działalności człowieka. Intuicja ciągłości 
wyprzedza intuicje nieciągłości, tak jak intuicje geometryczne wyprzedzają intuicje 
arytmetyczne. 

Zdaniem Thoma musimy zatem odróżnić położników, którzy potrafią doprowadzić do 

szczęśliwych porodów, od położników, którzy doprowadzają jedynie do poronień. Ci pierwsi 
starają się budować swe teorie odwołując się do ubogich składniowo i bogatych treściowo 
naturalnych intuicji językowych badanych; ci drudzy natomiast usiłują modelować intuicje 
badanych odwołując się do rozbudowanych składniowo, ale ubogich semantycznie modeli.  
 
6. Bilans zysków i strat 
 

Metoda normy założonej, przyjmuje, że reakcje osób badanych powinny być zgodne z 

przyjętymi założeniami, natomiast metoda normy wyprowadzanej traktuje każdą reakcję jako 
potencjalnie wskazującą na normę, stosowaną, co prawda w sposób naiwni i najczęściej 
nieuświadomiony, przez osobę badaną. W ten sposób znika dylemat, czy uzyskane rezultaty 
                                                 

37

 René Thom, Czy istnieje matematyka nowoczesna?tłum. Roman Duda, „Wiadomości Matematyczne”, 1981, 

nr 23, s. 130–142; 

38

 Ibidem, s. 136.  

 

22

background image

badań są rzeczywistymi wynikami eksperymentu, tj. wskaźnikami zdolności do dokonywania 
oszacowań, obliczeń, czy przeprowadzania rozumowań, czy też  są raczej artefaktami 
wynikającymi z takiej czy innej instrukcji, takiej czy innej sugestii, lub wreszcie efektem 
odgadnięcia oczekiwać badacza przez badanego.  

Jeżeli badacz stawia osobom badanym zadania związane z realnymi sytuacjami 

życiowymi i nie instruuje ich z góry, jak też sam a priori nie przesądza, jaką koncepcją mają 
się posługiwać, to zmuszony jest wywnioskować z ich zachowania, jaką koncepcją się 
rzeczywiście posługują. Gdy jednak instruuje badanych, jaką koncepcją  będzie się on, a w 
konsekwencji jaką koncepcją mają się oni posługiwać, to nie mamy już do czynienia z 
osobami naiwnymi, nieuprzedzonymi. Popełniane przez badanych błędy mogą być wówczas 
uznane za miarę irracjonalności badanych lub... za miarę nieodpowiedniości stosowanych 
przez badacza instrukcji

39

.  

Tversky, Kahneman w swoich badaniach nad „analfabetyzmem statystycznym” ludzi 

zasugerowali,  że wyniki ich badań nie potwierdzają modelu „prawda plus błąd”, który 
zakłada istnienie spójnego systemu przekonań, podlegającego różnego rodzaju deformacjom i 
błędom. Piszą oni: „Nie podzielamy optymistycznej opinii Dennisa Lindleya, według której 
we wnętrzu każdej niespójnej osoby znajduje się osoba spójna, która stara się wydostać na 
zewnątrz, i podejrzewamy, że niespójność nie jest zjawiskiem powierzchownym, lecz sięga 
głębiej”

40

. Badacze powiadają także, że w myśleniu, podobnie jak w spostrzeganiu, te same 

mechanizmy wytwarzają zarówno sądy prawomocne jak i nieprawomocne.  

Otóż wydaje się, że powyższa analogia między złudzeniami wzrokowymi a błędami w 

myśleniu (np. złudzeniem gracza) jest chybiona, głównie dlatego, że gdy pouczy się daną 
osobę, że złudzenie, któremu ulega jest właśnie złudzeniem, że np. prosty patyk, zanurzony w 
wodzie, jedynie wygląda jakby był złamany, to nic to nie zmieni w percepcji tej osoby: ona 
nadal będzie ulegała złudzeniu, co właśnie jest dowodem na to, że złudzenia wzrokowe są 
wytworem sprawnie działającego układu wzrokowego. Natomiast, kiedy uświadomimy 
ludziom, że moneta nie ma pamięci i że kolejne rzuty monetą są niezależne od wcześniejszej 
historii rzutów tą monetą, powstanie szansa na to, że złudzenie gracza zniknie, a zatem ludzie 
nie będą mu ulegać. Ludzkie myślenie zatem jest łatwiejsze do skorygowania, niż ludzkie 
doznania wzrokowe, co oznacza, że myślenie opiera się na mechanizmach dostępnych dla 
naszej woli i świadomości.  

Być może nadszedł czas, by zachować się jak księgowa i przeprowadzić klarowny 

bilans zysków i strat dwóch omawianych strategii badawczych.  
 

Bilans 

 

Metoda normy założonej 

Metoda normy wyprowadzanej 

Prawdopodobne 
zalety  

1. Koncentracja na danych 
eksperymentalnych i większa  podatność 
na 
ewentualną falsyfikację.  
2. Nie rozbija psychologii na dwa działy: 
(a) zajmujący się sferą kompetencji; (b) 
zajmujący się sferą wykonania. W 
rezultacie broni jedności  rozważań 
psychologicznych; prawomocny model 
wyjaśniający powinien radzić sobie z 
przewidywaniami faktycznych zachowań 

1. 

Oszczędność eksplanacyjna: 

przyjmowanie istnienia tylko normatywnie 
prawidłowych mechanizmów rozumowania. 
2. Pluralizm interpretacyjny oparty na 
zasadzie  życzliwości, zgodnie z którą 
należy tak interpretować zachowanie i 
wypowiedzi osób badanych, aby dały się 
one uzasadnić w świetle jakiejś koncepcji ze 
zbioru dostępnych teorii. Względnie należy 
tak interpretować znaczenie 

                                                 

39

 Patrz w tej sprawie na serię artykułów autorstwa Miltona J. Rosenberga, Roberta Rosenthala i innych, 

pokazujących rodzaje wpływów i nacisków skierowanych na osoby badane wywoływanych przez osobę badacza 
(eksperymentatora): Społeczny kontekst badań psychologicznych i pedagogicznych. Wybór tekstów, (red.) Jerzy 
Brzeziński i Jerzy Siuta, Poznań 1991.  

40

 Amos Tversky, Daniel Kahneman, Extensional Versus Intuitive Reasoning, „Psychological Review”, nr 90, 

1983, s.313. 

 

23

background image

ludzi.  
 

niezrozumiałych terminów zawartych w 
zdaniach, aby maksymalizować wartość 
logiczną zdania.  
3. Próba wykazania istnienia 
konsekwentnego schematu postępowania w 
ludzkiej aktywności poznawczej. 
4. Nie rozbijanie ludzkiej aktywności na 
sferę racjonalną (dojrzałą, cywilizowaną, 
etc.) i kontrracjonalną (infantylną, 
prelogiczną, etc.). Dostrzeżenie  ciągłości  
historii ludzkiego poznania (tak w wymiarze 
gatunkowym, jak i jednostkowym). 

Prawdopodobne  
wady 

1. Eksplanacyjna rozrzutność
przyjmowanie zarówno istnienia 
normatywnie prawidłowych, jak i 
wadliwych mechanizmów rozumowania. 
2. 

Arbitralność 

postępowania 

wyjaśniającego: przyjmowanie jako 
zasadnej tylko jednej linii interpretacyjnej 
dla danego zbioru danych.  
3. Wyjaśnianie ludzkich zachowań 
poprzez odwołanie się do 
nieracjonalnych  lub dezadaptacyjnych 
heurystyk o niejasnym celu i 
problematycznej genezie.  
4. Niezdolność wyjaśniania form 
myślenia rozbieżnego (dywergencyjnego), 
tj. występującego przy rozwiązywaniu 
zadań kilkoma sposobami. Próba 
sprowadzenia wszystkich form myślenia 
do typu zbieżnego (konwergencyjnego), 
tj. występującego w zadaniach z jednym 
rozwiązaniem. 
 

1. Nadmierna i często  nieuzasadniona 
tolerancja  
w kwestii wyjaśniania ludzkich 
zachowań i wypowiedzi.  
2. 

Problematyczna falsyfikowalność 

stawianych na jej bazie hipotez, wynikająca 
z przerostu terminów teoretycznych nad 
obserwacyjnymi.  
3.  Idealizacyjność  stosowanych metod 
postępowania wyjaśniającego, która rzutuje 
na ograniczenia predykcyjne, tj. niską 
zdolność do przewidywania faktycznego 
zachowania ludzi.  
4. Brak jasnej odpowiedzi na problem 
adekwatności opisowej tj. wyboru 
sztucznego systemu, wedle którego 
modeluje się jakąś funkcję 

języka 

naturalnego lub własność poznawczą 
umysłu.  
5.  Ignorowanie  realności psychologicznej 
postulowanych mechanizmów przetwarzania 
danych.  
 

 

Powyższa tabela, jak widać, niczego nie przesądza; suma zysków i strat wcale nie 

bilansuje się na korzyść jednej czy drugiej strategii. Wynika z niej jedynie, że udało mi się 
znaleźć więcej pozytywów dla strategii normy wyprowadzanej, ale też i niestety więcej 
negatywów. Z racji jednak, że tabela nie pretenduje do kompletności, spór ciągle nie wydaje 
mi się zamknięty.  

 

24