Adam Grobler
O metodzie i strukturze nauki
Adam Grobler, O metodzie i strukturze nauki ii
Wstęp
Niniejsza książka jest przeglądem zagadnień metodologii, działu filozofii nauki. Składa się
z czterech nierównych rozmiarów części, omawiających różne grupy problemów. Część
Pierwsza, najobszerniejsza, Indukcja i wyjaśnianie, jest rozwinięciem moich wykładów, które
pod tym tytułem prowadziłem na Uniwersytecie Jagiellońskim w latach 90-tych,
uzupełnionych materiałem 12-godzinnego cyklu wykładów pt. Modes of Justification in
Science, przeznaczonego dla uczestników III Szkoły Letniej z Teorii Wiedzy, zorganizowanej
w r. 2000 w Mądralinie k. Warszawy przez Polską Akademię Nauk i Central European
University. Przedstawiam w niej wady i zalety głównych propozycji rozwiązania problemu
indukcji czyli podstaw akceptacji lub preferencji hipotez naukowych: probabilizmu,
falsyfikacjonizmu i abdukcjonizmu. Przy tej ostatniej okazji omawiam najważniejsze koncepcje
wyjaśniania naukowego. Bowiem według abdukcjonizmu lub eksplanacjonizmu, właściwą
miarą wartości poznawczej hipotez jest ich moc wyjaśniająca. I ten właśnie pogląd staram się
uzasadnić.
Choć podstawą Części Pierwszej są moje wcześniejsze wykłady, zawiera ona liczne
nowości. Zwłaszcza w rozdziale I.4 przedstawiam pomysły zupełnie świeże, które
wykrystalizowały się pod wpływem współpracy z Andrzejem Wiśniewskim (Uniwersytet
Zielonogórski), wybitnym teoretykiem logiki pytań, częściowo przy okazji zaproszenia do
dyskusji z Theo Kuipersem (Uniwersytet w Groningen, Holandia). Znajdują one później
zastosowanie pod koniec rozdziału I.5 i w rozdziale II.11.
Znacznie krótsza Część Druga prezentuje zagadnienie struktury nauki. Omawiam w niej
m.in. pojęcia teorii, prawa, idealizacji, modelu, dziedziny oraz relacje między tymi pojęciami.
Kwestię definiowania terminów naukowych, aby odejść od podręcznikowej konwencji
wyliczanki różnych typów definicji, starałem się w miarę (moich) możliwości wpleść w materiał
bardziej problemowy. Punktem wyjścia tej części jest tradycyjne ujęcie empiryzmu logicznego,
by dojść do pojęć ukształtowanych w wyniku krytyki „poglądu otrzymanego”. Następnie
przedstawiam – płodną, mam nadzieję – krzyżówkę pomysłów niedocenianego filozofa
amerykańskiego, Dudleya Shapere’a, Wiśniewskiego i moich. Tę część kończy omówienie
problemu redukcji i jedności nauki, który stanowi przejście do problematyki jeszcze krótszej
Części Trzeciej.
Adam Grobler, O metodzie i strukturze nauki iii
Jej przedmiotem są domniemane różnice metodologiczne między różnymi typami nauk.
Generalnie twierdzę, że są one zazwyczaj wyolbrzymiane, zarówno w literaturze, jak i w
obiegowej opinii. W rozdziale na temat tzw. nauk dedukcyjnych próbuję m.in. odbrązowić
metodę aksjomatyczną matematyki i potraktować ją analogicznie do metod identyfikacji
dziedziny w sensie III.10 i III.11. Logikę zaś przedstawiam jako idealizacyjną teorię języka
naturalnego, zwłaszcza jego funkcji argumentacyjnej. W rozdziale o naukach społecznych znane
z literatury przeciwieństwa między naturalizmem a antynaturalizmem oraz indywidualizmem
metodologicznym a holizmem staram się zbliżyć do siebie i potraktować jako komplementarne
strategie realizacji zasady wnioskowania do najlepszego wyjaśnienia. Następnie ze związków
psychologii z naukami przyrodniczymi, z jednej strony, a społecznymi, z drugiej, wyciągam
wnioski (negatywne) na temat możliwości jej redukcji. Na koniec łagodzę przeciwstawienie
nauk nomologicznych i idiograficznych.
Część Trzecią potraktowałem, niestety, bardzo skrótowo, z dwóch powodów. Po pierwsze,
w zakreślonych dla tej książki ramach musiała ustąpić miejsca Części Pierwszej, najbardziej
rozwiniętej ze względu na podstawowy charakter rozważanych w niej problemów. Po drugie,
unikam podejmowania tematów, w których nie mam własnych przemyśleń i szkicowy charakter
Części Trzeciej odpowiada początkowemu stadium zaawansowania moich dociekań w zakresie
jej zagadnień. Zdecydowałem się je poruszyć dlatego, że wyczuwam takie zapotrzebowanie ze
strony czytelnika. Być może w przyszłości będę mógł je rozwinąć w sposób, na który zasługują.
Część Czwarta, ostatnia, jest niemal encyklopedycznie zwięzła z odmiennych powodów.
Na temat realizmu pisałem obszernie w poprzednich książkach (wymienionych w bibliografii)
i nie widzę powodu, aby się powtarzać bardziej, niż to niezbędne dla wprowadzenia czytelnika
w podstawowe zagadnienia w tej materii.
Bibliografia tej książki jest bardzo selektywna. Obejmuje tylko te pozycje, do których
wyraźnie odwołuję się w tekście oraz historyczne źródła podstawowych idei. Przy pozycjach
tłumaczonych na język polski podaję dwie daty: najpierw datę pierwodruku oryginału, nawet
tam gdzie, nie byłem w stanie ustalić wydawcy i miejsca pierwszego wydania a podstawą
przekładu były wydania późniejsze, a następnie datę najnowszego, wedle mojego rozeznania,
wydania polskiego. Pierwszą podaję gwoli informacji historycznej, drugą dla wygody
czytelnika, który zechciałby sięgnąć po dalsze lektury. Pominąłem w bibliografii opracowania z
zakresu historii nauki, z których czerpałem informacje i przykłady ilustrujące moje wywody.
Adam Grobler, O metodzie i strukturze nauki iv
Daty wydarzeń wspomnianych w tekście umieszczam w nawiasach okrągłych (xxxx). Daty
w nawiasach kwadratowych [xxxx] odsyłają do bibliografii.
Na koniec pragnę podziękować osobom, które przyczyniły się do powstania tej książki jako
jednej z części projektu pt. Podstawy filozofii, zrealizowanego przy wsparciu Komitetu Badań
Naukowych: Włodzimierzowi Galewiczowi, pomysłodawcy i inicjatorowi całego
przedsięwzięcia, Władysławowi Stróżewskiemu, który wziął na siebie ciężar kierowania
projektem, Jerzemu Szymurze, który dał się namówić na udział w nim i Małgorzacie
Baranowskiej, której pomoc znacznie ułatwiła nasze zbiorowe zadanie. Niektóre fragmenty tej
książki zyskały na precyzji dzięki rozmowom i dyskusjom z Kazimierzem Jodkowskim, Theo
Kuipersem, Wojciechem Sadym i Andrzejem Wiśniewskim, za co jestem im bardzo wdzięczny.
W pozostałych fragmentach zdałem się na własne siły, z rezultatem im odpowiadającym.
Osobne podziękowania kieruję w stronę Rodziny, żony Joanny i dzieci Gosi, Kasi, Basi
i Pawłowi, która wyrozumiale znosi moją duchową, a często również fizyczną nieobecność.
Kraków-Zielona Góra, wrzesień 2002
Spis treści
I. INDUKCJA I WYJAŚNIANIE..................................................................................................2
I.1. Problem indukcji: rys prawie historyczny..........................................................................................................2
I.2. Nauka jako wiedza prawdopodobna.................................................................................................................13
I.2.1. Droga do logiki indukcji............................................................................................................................13
I.2.2. Program Carnapa i jego główne trudności.............................................................17
I.2.3. Bayesianizm i problem
istotności świadectwa empirycznego...........................................................26
I.2.4. Niektóre in
ne trudności probabilizmu..................................................................................................31
I.2.5. Trudności ogólniejszej natury: paradoksy potwierdzania........................................................35
I.3. Falsyfikacj
onizm i jego trudności.....................................................................................42
I.3.1. Motywy falsyfikacjonizmu.........................................................................................................................42
I.3.2. Uteoretyzowanie obserwacji i problem bazy empirycznej........................................................................46
I.3.3. Problem rewizji wiedzy zastanej jako wersja problemu Duhema.............................................................56
I.3.4. Próba rozwiązania: metodologia naukowych programów badawczych.....................................61
I.3.5. Problem bazy empirycznej po raz drugi....................................................................................................64
I.4. Czy istnieje “logika nauki”?.............................................................................................................................67
I.4.1. Problem
zmiany pojęciowej.......................................................................................67
I.4.2. Logika pytań w analizie metodologicznej.......................................................................................72
I.5.
Wyjaśnianie a ocena hipotez..........................................................................................................................80
I.5.1. Zasada wnioskowania do najlepszego wyjaśnienia................................................81
I.5.2. Klasyczna koncepcja wyjaśniania i jej trudności....................................................82
I.5.3. Erotetyczna koncepcja
wyjaśniania.........................................................................................................91
I.5.4. Porównywanie mocy
wyjaśniającej hipotez.......................................................................................99
II. STRUKTURA NAUKI..........................................................................................................................................
II.1. Pojęcie teorii naukowej..................................................................................................................................
II.2. Problem redukcji terminów teoretycznych a definiowanie pojęć....................................
II.3. Operacjonizm, definicje operacyjne i pojęcie pomiaru...................................................
II.4. Definicje częściowe........................................................................................................
II.5. Terminy klasyfikacyjne i typologiczne...............................................................................................................
II.6. Pojęcie prawa.................................................................................................................
II.7. Idealizacje i warunki ceteris paribus...................................................................................................................
II.8. Teorie a modele...................................................................................................................................................
II.9. Koncepcja niezdaniowa teorii naukowych..........................................................................................................
II.10. Dziedziny a teorie..............................................................................................................................................
II.11. Identyfikacja dziedziny w ujęciu logiki pytań...............................................................
II.12. Problem redukcji i jedności nauki.................................................................................
III. TYPY NAUK I ICH ODMIENNOŚCI METODOLOGICZNE........................................................
III.1. Nauki dedukcyjne i empiryczne.........................................................................................................................
III.2. Nauki przyrodnicze i społeczne.....................................................................................
III.3. Psychologia........................................................................................................................................................
III.4. Nauki nomotetyczne i idiograficzne..................................................................................................................
IV. STATUS POZNAWCZY NAUKI.......................................................................................................................
IV.1. Zagadnienie realizmu.........................................................................................................................................
IV.2. Realizm pluralistyczny......................................................................................................................................
Bibliografia
Indeks osób
Indeks przedmiotowy
Adam Grobler, O metodzie i strukturze nauki 2
I. INDUKCJA I WYJAŚNIANIE
I.1. Problem indukcji: rys prawie historyczny.
Poznanie naukowe ma charakter empiryczn
y. Jest to stwierdzenie prawie że
banalne, przynajmniej gdy pominąć tzw. nauki dedukcyjne: matematykę i
logikę. Osobliwości tych dwóch szacownych dyscyplin odłóżmy na później.
W każdym razie do uprawiania nauk empirycznych nie wystarczą
dedukcyjne metody rozumowania, które charakteryzują się miłą
niezawodnością: z prawdziwych przesłanek wynikają wyłącznie prawdziwe
wnioski. Błąd jest możliwy tylko wtedy, gdy przesłanki są fałszywe lub
rozumowanie zostało wadliwie przeprowadzone. Natomiast hipotezy i teorie
naukowe z natury rzeczy wykraczają poza przesłanki doświadczalne.
Rozumowanie prowadzące do ich akceptacji nie może zatem być ani
dedukcyjne, ani niezawodne. Problem zatem przedstawia się następująco.
Skoro rozumowania stosowane w nauce, zwane rozumowaniami
indukcyjnymi, a czasem ampliatywnymi lub twórczymi, są zawodne, to czy
są w ogóle prawomocne? Jaki status poznawczy mają wnioski indukcyjne?
Dzięki czemu wnioski indukcyjne mają w ogóle jakiś status poznawczy?
Pierwsza poważna próba rozwiązania problemu indukcji pochodzi od
Francisa Bacona [1620]. Odróżnił on indukcję eliminacyjną od indukcji
enumeracyjnej, czyli indukcji przez proste wyliczenie
przypadków. Ta druga, która
polega na bezpośrednim uogólnieniu w rodzaju: jeżeli A
1
jest B, A
2
jest B,... A
n
jest B
, to każde A jest B, jest metodą naiwną i niegodną miana naukowej. Tę
ocenę dosadnie ilustruje przypowieść Bertranda Russella. Pewnego
kurczaka nakarmiono w poniedziałek, we wtorek i we środę. Kurczak myśli
sobie: “Aha, codziennie będą mnie karmić”. Tymczasem w sobotę
ugotowano z kurczaka rosół.
Adam Grobler, O metodzie i strukturze nauki 3
Metoda indukcji eliminacyjnej jest bardziej wyrafinowana. Zgodni
e z nią, zamiast
dokonywać prostolinijnych uogólnień materiału doświadczenia, należy
wpierw sformułować wyczerpującą listę wzajemnie wykluczających się
hipotez na interesujący nas temat. Na takiej liście, skoro jest ona
wyczerpująca, znajduje się hipoteza prawdziwa. Z kolei, skoro hipotezy z
tej listy wzajemnie się wykluczają, jest na niej tylko jedna hipoteza
prawdziwa. Zadanie uczonego polega teraz na tym, aby tę hipotezę
zidentyfikować. Można to uczynić eliminując kolejno hipotezy fałszywe, aż
zostanie tylko jedna, ta prawdziwa. Narzędziem eliminacji jest
eksperyment. Eksperyment należy więc tak projektować, aby jego dowolny
rezultat eliminował co najmniej jedną z alternatywnych hipotez.
Eksperyment o tej własności nazywa się eksperymentem krzyżowym.
Odpo
wiedni dobór eksperymentów krzyżowych na wydaje się na dłuższą
metę gwarantować osiągnięcie celu.
Bacon sądził, że znalazł niezawodną metodę postępowania naukowego.
Gdyby tak było, ciąg dalszy tej książki nie mógłby nastąpić. Trwały wkład
Bacona do filozofii nauki polega na wprowadzeniu idei eksperymentu.
Eksperyment nie jest prostą obserwacją tego, co doświadczenie przynosi.
Eksperyment polega na zaaranżowaniu sytuacji stwarzającej daje okazję
do obserwacji, która bez planowego działania uczonego mogłaby się nie
nadarzyć. Ujmując rzecz nieco frywolnie, eksperyment różni się od
obserwacji tym, czym przesłuchiwanie od podsłuchiwania w śledztwie
prowadzonym w sprawie przyrody. Plan eksperymentu jest
podporządkowany określonemu zadaniu: dyskryminacji wysuniętych
wcześniej hipotez. W ten sposób hipotezy odgrywają kierującą rolę
w badaniu naukowym. Dostrzeżenie tego jest również wielką zasługą
Bacona.
Bacon jednak nie w pełni docenił rolę hipotez. Planując eksperyment
należy zadbać o wyeliminowanie wpływu czynników ubocznych. Bacon
sądził, że do tego wystarczy przestrzeganie sformułowanych przezeń
drobiazgowych reguł metodologicznych dotyczących posługiwania się
Adam Grobler, O metodzie i strukturze nauki 4
tablicami obecności, nieobecności i stopni. Skąd jednak wiadomo, które
czynniki należy w ogóle uwzględniać przy sporządzaniu tablic na użytek
konkretnego problemu naukowego? Weźmy, dla przykładu, badanie
zależności czasu spadania ciała od wysokości, z której spada. Jest dość
oczywiste, że proces spadania może być zakłócony przez wiatr. Wynika
stąd, że eksperymenty należy prowadzić przy bezwietrznej pogodzie lub w
miejscu osłoniętym od wiatru. Nawet pod nieobecność wiatru opór
powietrza może znacznie hamować spadanie ciała, gdy jego powierzchnia
jest duża w porównaniu z jego masą. Dlatego do eksperymentów należy
dobierać ciała o kształtach obłych, niewielkiej objętości i stosunkowo dużej
masie. I tak dalej. Jednak liczba czynników, które można wziąć pod uwagę,
musi być ograniczona, jeżeli problem ma być rozwiązany w jakimś
rozsądnym czasie, powiedzmy, w czasie kilku, kilkudziesięciu, kilkuset czy
kilku tysięcy lat. Toteż przed przystąpieniem do projektowania
eksperymentu trzeba przeprowadzić wstępną selekcję czynników. Na jakiej
podstawie? Na podstawie wcześniej przyjętych hipotez. One to,
w przypadku spadania ciał, nakazują uwzględnienie wpływu oporu
powietrza czy np. położenia geograficznego, a pominięcie wpływu składu
chemicznego spadającego ciała, jego wartości rynkowej, stanu zdrowia
eksperymentatora, narodzin słoniątka w ogrodzie zoologicznym w Berlinie,
przebiegu negocjacji w sprawie przystąpienia Polski do Unii Europejskiej,
ruchu cen na giełdzie w Tokio i niezliczonych innych okoliczności. Metoda
eliminacji hipotez nie może więc działać bez wcześniej przyjętych hipotez.
Z drugiej strony, według Bacona, hipotezę wolno przyjąć dopiero po
wyeliminowaniu, jego metodą, hipotez alternatywnych. W ten sposób
metoda Bacona nie może nawet wystartować. Kierująca rola hipotez
okazuje się większa, niż przypuszczał.
Spróbujmy uchylić element czasu. Załóżmy, że od metody naukowej
oczekuje się tylko tego, aby w ogóle prowadziła do wartościowych
wyników poznawczych, bez względu na czas potrzebny do realizacji jej
zadania: niechby i miliony lat. Albo że zastosowanie nowoczesnych
Adam Grobler, O metodzie i strukturze nauki 5
komputerów, czy jeszcze nowocześniejszych komputerów przyszłości,
pozwoli dokonywać wystarczająco wydajnych analiz baconowskich tablic
sporządzonych bez wstępnej selekcji czynników. Wówczas może metoda
indukcji eliminacyjnej mogłaby zadziałać. Po cóż jednak mielibyśmy się
kłopotać uruchomieniem tak nieporęcznej metody, skoro od czasów
Bacona do dziś nauka, najwyraźniej innymi metodami, poczyniła
znakomite postępy. Są one wprawdzie obarczone ryzykiem: wczorajsze
“prawdy” naukowe są dzisiejszymi fałszami, więc i dzisiejsze “prawdy”
wypada uznać za tymczasowe. Bacon zaś obiecywał uzyskanie pewności.
Czy nie warto dla niej podjąć ciężar ołowiu, który wedle jego słów jest
nauce bardziej potrzebny od geniuszu? Może. Choć sprawa jest
dyskusyjna. Według Williama Jamesa, trzeba odróżnić dążenie do prawdy
o
d unikania błędu. Kto nazbyt wysoko ceni sobie pewność, ten skłonny jest
pierwsze zaniedbywać dla drugiego. Podobny morał można wyciągnąć
porównując naukę do gry ekonomicznej: bez podejmowania ryzykownych
przedsięwzięć trudno osiągnąć wielkie zyski.
Z dr
ugiej strony, trudno powiedzieć, że amatorzy zysków skromnych a
bezpiecznych są nierozsądni. “Tisze jediesz, dalsze budiesz”, jak mówili
starożytni Rosjanie. Może więc Bacon oferuje opcję atrakcyjną dla tych,
którzy woleliby, by nauka czyniła wolniejsze postępy, a za to pewniejsze?
Niestety. Nawet najszybsze komputery w nawet najdłuższym czasie mogą
przeanalizować tablice uwzględniające nawet bardzo wielką, ale
skończoną liczbę czynników. Skąd jednak wiemy, że liczba czynników
występujących w przyrodzie jest skończona? Jeśli nawet jest skończona, to
podobne pytanie powstaje w związku baconowskim zaleceniem
sformułowania wyczerpującej listy wzajemnie wykluczających się hipotez.
Żeby eliminacja hipotez fałszywych mogła doprowadzić uczonego do
uwieńczenia jego dzieła, wspomniana lista hipotez musi mieć skończoną
długość. Skąd wiemy, że na dany temat można sformułować wyczerpującą
i zarazem skończoną listę hipotez? Założenie, że to jest możliwe, nosi
nazwę zasady ograniczonej różnorodności świata. Zasadę tę Bacon
Adam Grobler, O metodzie i strukturze nauki 6
milcząco przyjął za oczywistą. Zapewne zasugerował się tym, że w języku
naturalnym występuje skończona liczba wyrazów, a zatem da się w nim
sformułować skończoną liczbę zdań postaci “A jest B”. Taką właśnie formę
powinny, według niego, mieć hipotezy.
Że liczba alternatywnych hipotez nie jest skończona, poucza bardzo
prosty przykład. Rozważmy, skądinąd fałszywą, hipotezę: “Słońce
wschodzi co 24 godziny”. Prawdziwe twierdzenie na ten temat jest nieco
bardziej skomplikowane. Hipotez alternatywnych zaś jest nieskończenie
wiele, bo nieskończenie wiele jest 365-elementowych ciągów wyrażających
długości kolejnych dób roku. Sprawę komplikują jeszcze lata przestępne,
nie mówiąc już o tym, że długość doby mogłaby się zmieniać nie w cyklu
rocznym, ale np. tygodniowym albo stuletnim. Samo użycie liczb, nie
mówiąc już o bardziej zaawansowanych pojęciach matematycznych,
dostarcza nieograniczonych możliwości konstruowania hipotez
alternatywnych wobec dowolnej hipotezy. Wiele praw nauki ma postać
zależności funkcyjnej między dwiema lub kilkoma mierzalnymi
wielkościami. Najdrobniejsza nawet modyfikacja równania (wyjąwszy
przekształcenia równoważnościowe) prowadzi do sformułowania hipotezy
alternatywnej. Nie sposób sporządzić listy możliwych modyfikacji.
Na tym polega jedn
o ze współczesnych utrapień filozofii nauki, wyrażające
się w tezie o niedookreśleniu teorii przez dane empiryczne. Mówi
ona, że po wyeliminowaniu wszystkich hipotez niezgodnych z dowolnie
obszernym zespołem danych empirycznych zawsze zostaje nieskończenie
wiele hipotez do wyeliminowania. Szczególnym wariantem tej tezy jest paradoks doboru
krzywej
. Weźmy pod uwagę zbiór hipotez na temat zależności między
dwiema wielkościami, wyrażających się za pomocą równań, powiedzmy,
dla uproszczenia, algebraicznych. Każdą taką hipotezę reprezentuje pewna
krzywa w układzie współrzędnych na płaszczyźnie. Dowolny zbiór danych
empirycznych można przedstawić w postaci skończonego zbioru punktów
tej płaszczyzny
. Można łatwo udowodnić, że istnieje nieskończenie wiele
1
.
Jeżeli pominąć błąd pomiarowy. Uwzględniając margines błędu należałoby każdy punkt
Adam Grobler, O metodzie i strukturze nauki 7
krzywych algebraicznych, przechodzących przez wszystkie punkty tego
zbioru. Dołączanie kolejnych danych eksperymentalnych eliminuje
niektóre krzywe, za każdym razem jednak pozostaje ich nieskończenie
wiele.
Bacon nie zdawał sobie sprawy z tych kłopotów przypuszczalnie
dlatego, że nie brał pod uwagę możliwości stosowania matematyki do
poznania przyrody. Wciąż znajdował się pod wpływem starożytnego
rozróżnienia na szlachetną episteme, do której zaliczano matematykę
i astronomię, traktujące o przedmiotach wiecznych i niezmiennych
raz
pospolitą doxa, obejmującą dociekania o rzeczach kapryśnych
i przemijających. Tradycję tę przełamał Galileusz, który aforyzmem
“księga przyrody pisana jest językiem kół i trójkątów” podniósł fizykę do
godności autentycznej nauki. Jednak nawet gdyby poznanie przyrody
miało ograniczać się do ustalania praw jakościowych, praw postaci “Każde
A jest B”, zasadę ograniczonej różnorodności świata należałoby uznać za
złudzenie. Nie ma bowiem żadnej gwarancji, że w świecie nie istnieje
jakość, na określenie której brakuje w naszym języku odpowiedniego
wyrazu. Gdyby taki wyraz wynaleźć i dołączyć do słownictwa
rozpatrywanego języka, można byłoby sformułować hipotezę, która nie
występowała dotąd na żadnej liście hipotez. Ponieważ nigdy nie można
wykluczyć odkrycia nowych jakości i idącego za nim rozszerzenia
dotychczasowego języka, żadnej listy hipotez nie można uznać za
wyczerpującą. Wspaniałym przykładem wynalazków językowych – nie do
pomyślenia w czasach Bacona – na określenie nowo odkrytych jakości są
“kolory” kwarków
Metoda indukcji eliminacyjnej nie daje gwarancji odkrycia prawdy
nawet gdyby zasada ograniczonej różnorodności świata obowiązywała.
reprezentujący dane zastąpić kołem o środku w tym punkcie i promieniu równym wielkości
błędu. To uściślenie dodatkowo zaostrza omawiany paradoks. Paradoks jest tym ostrzejszy,
że prócz funkcji algebraicznych można oczywiście dopuścić funkcje przestępne.
2
.
Za takie uważano gwiazdy i planety, zanim uznano je za ciała fizyczne zasadniczo tej
samej natury, co ciała znajdujące się w ”sferze podksiężycowej”.
3
.
Nb. jakości odkrytych, a może tylko postulowanych, dzięki wyrafinowanemu
aparatowi matematycznemu teorii.
Adam Grobler, O metodzie i strukturze nauki 8
Przypuśćmy bowiem, że udało się wyeliminować wszystkie hipotezy, prócz
jednej, z pewnej wyczerpującej listy hipotez. Czy stąd wynika, że ta
ostatnia pozostała hipoteza jest prawdziwa? Aby można było taki wniosek
wyciągnąć, trzeba jeszcze założyć, że w ogóle istnieje jakaś hipoteza
prawdziwa. Gdy idzie o hipotezy na temat długości doby, trzeba założyć,
że kolejne wschody słońca występują zgodnie z jakąś regułą. Gdyby słońce
zachowywało się całkowicie kapryśnie, czyli gdyby Ziemia obracała się raz
szybciej, raz wolniej, według jakiegoś widzimisię, żadna hipoteza na temat
długości doby nie byłaby prawdziwa. Krótko mówiąc, metoda może być
wiarygodna jedynie przy założeniu, że w przyrodzie występują jakieś
prawidłowości.
Bacon przyjmował na to miejsce inne założenie, charakterystyczne dla
tradycji, zwłaszcza scholastycznej, której wpływom nieświadomie i
mimowolnie ulegał. Uznając “Każde A jest B” za wzorcową formę hipotezy
naukowej przyjął, że hipoteza przypisuje rzeczom pewnego rodzaju (A)
pewną istotną jakość (B), tj. jakość, która przysługuje im z istoty rzeczy.
Odkrycie tej istoty miało być zadaniem metody naukowej. Bacon zakładał
więc esencjalizm, tj. pogląd, wedle którego rzeczy mają swoją istotę, coś bez
czego nie byłyby tym, czym są. Przeciwko esencjalizmowi można jednak
wysunąć poważne argumenty. Wittgenstein [2000/1953] dowodził, że nie
ma nic takiego, co byłoby wspólne wszystkim grom. Różne zajęcia określa
się mianem gry nie dlatego, że mają wspólną istotę, że prawdą jest dla
jakiegoś B, iż “Każda gra jest B”, lecz dlatego, że gry łączy ze sobą
“podobieństwo rodzinne”. Gry mają jedne cechy wspólne z jednymi grami,
inne cechy wspólne z innymi grami. Nie można wykluczyć, że
spostrzeżenie Wittgensteina na temat gier może mieć zastosowanie
również do rodzajów rzeczy występujących w przyrodzie. Takie podejrzenie
może powstać m.in. w obliczu trudności w zdefiniowaniu pojęcia gatunku
biologicznego. Wedle popularnej definicji, dwa typy organizmów należy
uznać za odmiany tego samego gatunku, jeżeli zdolne są do krzyżowania
się i ich krzyżówki są płodne. Tymczasem istnieją pewne odmiany mew,
Adam Grobler, O metodzie i strukturze nauki 9
zamieszkujące różne rejony geograficzne, o tej własności, że krzyżują się z
odmianami zamieszkującymi sąsiednie rejony, a nie krzyżują się z
odmianami z rejonów odległych. Istnieją więc odmiany, powiedzmy, A, B i
C takie, że – na mocy przytoczonej definicji – A i B należą do tego samego
gatunku, B i C należą do tego samego gatunku, natomiast A i C należą do
różnych gatunków.
Po Baconie dość szybko zainteresowania poznawcze z istoty rzeczy
przesunęły się w stronę prawidłowości zjawisk, prawidłowości nadających
się do ujęcia w formie praw przyrody. Żeby jednak naukę potraktować jako
poszukiwanie praw przyrody, trzeba założyć, że takie prawa istnieją, że
przyroda nie rządzi się nieprzewidywalnym kaprysem. To przesunięcie
akcentów nie jest bynajmniej porzuceniem, lecz modyfikacją esencjalizmu.
Prawa przyrody mówią bowiem, najogólniej rzecz biorąc, że rzeczy
określonego rodzaju w określonych warunkach zachowują się w określony
sposób
. Pojęcie prawa zakłada więc, że rzeczy będące przedmiotem badania
naukowego dzielą się na rodzaje.
Jak z tego widać, ażeby uznać prawomocność metody indukcji
eliminacyjnej, trzeba przyjąć szereg założeń o niejasnym statusie
poznawczym. Jak później dowodził David Hume [1751], metody
indukcyjnej nie sposób uzasadnić. W szczególności, według Hume’a, nie
możemy niczego się dowiedzieć o związkach przyczynowych albo
koniecznych między zjawiskami. Jeżeli raz zaobserwujemy, że po A
nastąpiło B, nie twierdzimy jeszcze, i słusznie, że A jest przyczyną B.
Twierdzimy tak dopiero wtedy, gdy podobną sekwencję zjawisk
zaobserwujemy wielokrotnie. Jednak kolejne obserwacje, będąc z założenia
podobne do poprzednich, nie wnoszą żadnych nowych informacji.
Wywołują w nas co najwyżej przyzwyczajenie połączone z oczekiwaniem,
że również w przyszłości po A będzie zawsze następować B. W ten sposób
mówiąc o przyczynach w świecie mamy w gruncie rzeczy na myśli własne
przyzwyczajenia i oczekiwania. Nauka zatem nie dostarcza wiedzy o
świecie, lecz jest zbiorem przesądów opartych na przyzwyczajeniach.
Adam Grobler, O metodzie i strukturze nauki 10
Pożytecznych wprawdzie, lecz niczym nie uzasadnionych przesądów. W
ten sposób Hume podał negatywne rozwiązanie problemu indukcji.
Jest ono nie do przyjęcia m.in. dlatego, że zostawia bez odpowiedzi
pytanie, dlaczego przesądy naukowe są bardziej pożyteczne od innych
przesądów. Ostatecznie kurczak Russella też miał oczekiwania oparte na
przyzwyczajeniu. Efektywną strategię odparcia Hume’owskiego sceptycyzmu
przyjął Immanuel Kant [1781]. Będąc młodszym od Hume’a miał większe
zaufanie do nauki. W jego czasach fizyka Newtona zdobyła sobie w końcu
powszechne uznanie. Długotrwały opór przed jej akceptacją wynikał z
odrzucania, jako niezrozumiałej, idei oddziaływania na odległość,
zakładaną przez prawo grawitacji. Do tej pory wszelkie oddziaływania w
przyrodzie pojmowano na wzór popchnięć. I choć przez lata nie stało się
nic, co by uczyniło pomysł Newtona łatwiejszym do zrozumienia, to
zadziałało przyzwyczajenie, poparte spektakularnymi sukcesami jego teorii
w zakresie przewidywania i wyjaśniania zjawisk. W tym stanie rzeczy Kant,
zamiast poszukiwać rozumowania, które by prowadziło do wniosku, że
metoda indukcji jest prawomocna, odwrócił kierunek myślenia. To, że
nauka jest autentycznym poznaniem, a zatem jej metoda musi być
prawomocna, przyjął za punkt wyjścia rozumowania nazwanego
argumentem transcendentalnym
. W największym skrócie, argument ten ma
formę następującą. Jeżeli poznanie naukowe ma być możliwe, to musi być
tak a tak. Poznanie naukowe jest faktem, więc musi być tak a tak.
Komentując metodę zaproponowaną przez Bacona napisałem, że aby ta
metoda mogła zadziałać, trzeba wcześniej przyjąć pewne przesłanki. Hume
udowodnił, że niezbędnych po temu przesłanek nie da się przyjąć na
podstawie samego tylko doświadczenia. Kant doszedł do wniosku, że w
takim razie trzeba je przyjąć a priori. Reszta jego argumentu
transcendentalnego zmierza do ustalenia tego, co właściwie trzeba przyjąć
a priori
. Nie wchodząc w szczegóły można powiedzieć, że Kant doszedł do
wniosku, iż podmiot poznający musi być a priori wyposażony w pewne
mechanizmy porządkowania doświadczenia, nazwane formami
Adam Grobler, O metodzie i strukturze nauki 11
zmysłowości i kategoriami (pojęciami) czystego intelektu. Jedną
z (dwunastu) kategorii jest pojęcie przyczyny, na które Hume narzekał, że
nie można go wywieść z doświadczenia. Skoro nie pochodzi ono
z doświadczenia, a jest niezbędne do formułowania praw przyrody, czyli do
uprawiania nauki, więc musimy je mieć a priori. Tak można streścić
argument transcendentalny w tym szczególnym zastosowaniu. Mieć a priori
kategorię przyczyny to tyle, co mieć niejako gotową a priori matrycę do
wydawania sądów postaci “... jest przyczyną ...”. Metoda indukcji służy zaś
do wypełniania pustych miejsc w blankietach wyprodukowanych za
pomocą tej matrycy. Posiadanie a priori kategorii przyczyny jest niejako
równoznaczne ze znajomością a priori zasady przyczynowości, zasady,
wedle której jednakowe przyczyny wywołują każdorazowo jednakowe
skutki.
Kant jako pierwszy przeprowadził wyraźne rozróżnienie między nauką a
metafizyką. Naukę określił jako działalność intelektualno-zmysłową, tj.
działalność posługującą się (łącznie) apriorycznymi formami zmysłowości i
kategoriami czystego intelektu. Do metafizyki zaliczył każde
przedsięwzięcie rozumowe, które te ramy przekracza. W szczególności
sama doktryna, wedle której podmiot poznający jest wyposażony w
aprioryczne formy i kategorie, należy do metafizyki. Innymi słowy, Kant
dostarczył metafizycznego uzasadnienia metody naukowej. Przestało ono
wystarczać po zdyskredytowaniu metafizyki przez pozytywizm i inne
empirystyczne kierunki. Niemniej pomysły Kanta, odpowiednio
przekształcone, do dziś odgrywają ogromną rolę w filozofii nauki.
W szczególności, argument transcendentalny, tak atrakcyjny w obronie
przed sceptycyzmem, nadaje się do zastosowania również na gruncie
empiryzmu.
Przykładem może być uzasadnienie indukcji podane przez Johna Stuarta
Milla [1843]. Upraszczając metodę Bacona, sformułował on pięć kanonów
metody indukcji eliminacyjnej. Dla przykładu przytoczę kanon różnicy:
“Jeżeli przypadek, w którym dane zjawisko badane zachodzi, oraz
Adam Grobler, O metodzie i strukturze nauki 12
przypadek, w którym ono nie zachodzi, mają wszelkie okoliczności
wspólne, wyjąwszy jedną, i przy tym ta jedna zachodzi tylko w przypadku
pierwszym, to okoliczność, co do której jedynie te dwa przypadki się
różnią, jest skutkiem albo przyczyną, albo nieodzowną częścią przyczyny
danego zjawiska”. Łączne zastosowanie wszystkich kanonów prowadzi do
ustalenia praw wyrażających związki przyczynowe między zjawiskami. Tym
s
amym metoda Milla zakłada zasadę przyczynowości. Pytanie brzmi, jak
uzasadnić tę zasadę, jeżeli nie a priori, jak Kant, i nie za pomocą indukcji
eliminacyjnej, co prowadziłoby do błędnego koła. Mill znalazł wyjście:
odwołał się do metody indukcji enumeracyjnej. Dla uzasadnienia zasady
przyczynowości, Mill gotów jest wyjątkowo zaufać tej skądinąd
niewiarygodnej metodzie. Powiada, że zasada przyczynowości jest
potwierdzona w przypadkach tak licznych, w porównaniu z potwierdzeniem
jakiegokolwiek szczególnego prawa przyczynowego, że zrobienie
wyjątkowego użytku z metody indukcji enumeracyjnej jest uzasadnione.
Myślę, że to rozumowanie Milla można uznać za odmianę argumentu
transcendentalnego: wyjątkowy użytek poza tym niewiarygodnej metody
jest uzasadniony tym, że w przeciwnym razie bardziej wiarygodna metoda
indukcji eliminacyjnej pozostałaby bez uzasadnienia.
Wprowadzenie zasady przyczynowości niestety nie rozwiązuje
wszystkich problemów wspomnianych w komentarzu na temat metody
Bacona. W szczególności, nie rozwiązuje problemu wstępnej selekcji
czynników, która jest absolutnie niezbędna. Wspomniany wyżej kanon
różnicy w jego dosłownym brzmieniu jest nie do zastosowania: jak
skonstruować przypadki różniące się dokładnie pod jednym względem?
Podobnie rzecz się przedstawia z pozostałymi kanonami. W praktyce
metodą indukcji można posługiwać się jedynie w sposób bardziej
swobodny, porównując poszczególne przypadki pod względami uznanymi
za istotne w danym kontekście badawczym. Do odróżnienia czynników
istotnych od nieistotnych trzeba mieć uprzednio zaakceptowane hipotezy.
Skąd je wziąć przy pierwszym zastosowaniu metody?
Adam Grobler, O metodzie i strukturze nauki 13
Dlatego w XX wieku podjęto na nowo próby rozwiązania problemu
indukcji. W rozdziale I omówię najważniejsze z nich: probabilizm,
falsyfikacjonizm i abdukcjonizm.
I.2. Nauka jako wiedza prawdopodobna
I.2.1. Droga do logiki indukcji
Metoda indukcji eliminacyjnej miała na celu zawodne wnioskowanie
indukcyjne przekształcić w coś równie niezawodnego, jak wnioskowanie
dedukcyjne. Okazuje się jednak, że nawet najbogatsze, lecz z natury
rzeczy skończone świadectwo empiryczne, nie może wystarczyć do
wyczerpującego uzasadnienia żadnej hipotezy uniwersalnej. Z drugiej
strony, trudno nie przyznać, że świadectwo empiryczne w jakiś sposób
przyczynia się do dyskryminacji hipotez, że przemawia na korzyść jednych
i niekorzyść innych hipotez. Świadectwo empiryczne zatem przynajmniej
częściowo uzasadnia wybór hipotez. Takie rozumowanie prowadzi do
stanowiska nazwanego przez Lakatosa [1971]
słabym justyfikacjonizmem.
Zgodnie z nim żadna hipoteza nigdy nie jest wyczerpująco uzasadniona,
ale może być lepiej lub gorzej potwierdzona przez świadectwo.
Potwierdzenie jest więc stopniowalne. Pytanie brzmi: jak mierzyć stopień
potwierdzenia? Są dwa poważne argumenty, aby stopień potwierdzenia
hipotezy traktować jako prawdopodobieństwo jej prawdziwości, dokładniej,
prawdopodobieństwo warunkowe ze względu na świadectwo.
Po pierwsze, za pomocą pojęcia prawdopodobieństwa warunkowego
można zdefiniować relację między zdaniami
– z których jedno wyraża
hipotezę, a drugie świadectwo – będącą uogólnieniem zwykłej implikacji.
4
Czytelnik może być przyzwyczajony do tego, że prawdopodobieństwo określa się nie na
zdaniach, ale na zdarzeniach pojmowanych jako zbiory. W istocie nie ma wielkiej różnicy:
wystarczy zbiór zastąpić zdaniem będącym jego opisem a operacje mnogościowe
∪
,
∩
, ’,
zastąpić logicznymi
∨
,
∧
,
¬
. W szczeg
ólności, Prawdopodobieństwo warunkowe hipotezy H ze
względu na świadectwo E definiuje się wzorem: P(H|E) = P(H
∧
E)/P(E).
Adam Grobler, O metodzie i strukturze nauki 14
Mianowicie, równość P(H|E) = 1 znaczy tyle, że jeżeli zachodzi E (E jest
zdaniem prawdziwym), to P(H) = 1, czyli H jest pewne
, a zatem
prawdziwe. Innymi słowy, P(H|E) = 1 jest praktycznie równoważne
implikacji E à H. Z kolei równość P(H|E) = 0 znaczy tyle, że jeżeli zachodzi
E (E jest zdaniem prawdziwym), to P(H) = 0, czyli H jest niemożliwe
, czyli
fałszywe. Innymi słowy, P(H|E) = 0 jest praktycznie równoważne implikacji
E à
¬
H. Przypadki pośrednie, tzn. P(H|E) = r, 0 < r < 1, reprezentują więc
sytuację, w której E “częściowo implikuje” H, tj. prawdziwość E nie
przesądza wartości logicznej H, ale ją niejako sugeruje: im większe r, tym
bardziej prawdopodobne, że H jest prawdziwe. Wydaje się, że świadectwo
empiryczne wchodzi w tego rodzaju relacje z hipotezami: nie implikuje ich,
lecz uprawdopodabnia.
Po drugie, wydaje się, że za pomocą pojęcia prawdopodobieństwa
można należycie określić stopień racjonalnego przekonania
o prawdziwości hipotezy. Z braku wyczerpujących dowodów, uczony nigdy
nie może być pewny swoich hipotez. Stąd jednak nie wynika, że musi, jak
starożytny sceptyk, przestrzegać zasady równowagi sądzenia. Przeciwnie,
świadectwa słusznie skłaniają uczonych do dyskryminacji hipotez: uczeni
są w mniejszym lub większym stopniu przekonani o ich prawdziwości.
Pytanie brzmi: co to znaczy, że ktoś jest przekonany w stopniu r o
prawdziwości H? Stopień przekonania najlepiej jest mierzyć skłonnością do
działania na podstawie danej hipotezy. Najlepiej skłonnością do przyjęcia
zakładu na temat jej prawdziwości. Kto jest w wysokim stopniu przekonany
o prawdziwości pewnej hipotezy, ten gotów jest postawić na nią dolary
przeciw orzechom. W przeciwnym przypadku nie postawi ani grosza. Niech s
1
będzie
stawką, którą gracz stawia w zakładzie, a s
2
będzie stawką jego
przeciwnika. Wówczas s
1
/ s
1
+ s
2
nazywa się ilorazem zakładu dla tego
gracza. Stopniem przekonania gracza (o tym, że wygra zakład) można
5 Przy założeniu, że przestrzeń prawdopodobieństwa jest skończona. W przeciwnym razie
P(H) = 1 jest równoważne temu, że zbiór przypadków sprzyjających nie-H jest miary zero
(lecz może być niepusty).
6 Dokładniej: zbiór przypadków sprzyjających H jest miary zero (choć może być niepusty).
Adam Grobler, O metodzie i strukturze nauki 15
nazwać najwyższy iloraz, przy którym gracz skłonny jest zakład przyjąć.
Jeżeli więc gracz gotów jest postawić 9 zł, ale ani grosza więcej, przeciw 1
zł na to, że następne wybory prezydenckie wygra Jolanta Kwaśniewska to
znaczy, iż jest w 90% przekonany, że tak właśnie się stanie.
Teraz należy odpowiedzieć na pytanie, jakie warunki muszą być
spełnione, aby stopień przekonania był racjonalny. Na pewno stopień
przekonania musi być modyfikowalny – według jakiejś reguły – w miarę
pozyskiwania nowych świadectw. To jednak nie wystarczy. Wyjściowy
układ przekonań racjonalnego podmiotu nie może być zupełnie dowolny.
Przypuśćmy, że wspomniany przed chwilą gracz gotów jest przyjąć zakład,
w którym postawiłby 2 zł przeciw 8 zł na wygraną w wyborach Andrzeja
Leppera. Wówczas gdyby nasz gracz przystąpił do obydwu zakładów, w
przypadku sukcesu obecnej pierwszej damy wygrywa 1 zł, ale przegrywa 2
zł, w przypadku zwycięstwa Leppera wygrywa 8 zł, ale przegrywa 9 zł.
Jeszcze gorzej, gdy wygra ktoś postronny. Bez względu na wynik wyborów
nasz gracz musi dopłacić do interesu. Toteż gracz, który przyjmuje taki
system
zakładów, zwany w literaturze holenderskim (Dutch-book) jest
nieracjonalny. Warunkiem racjonalności gracza zawierającego zakłady jest
to, by przystępując do systemu zakładów miał szanse wygrać. Okazuje się,
że kompletny system zakładów (tj. taki, w którym gracz obstawia wszystkie
możliwe wyniki) nie jest systemem holenderskim wtedy i tylko wtedy, gdy
układ stopni przekonania gracza, mierzony ilorazem zawieranych przez
niego zakładów, spełnia aksjomaty rachunku prawdopodobieństwa
Z powyższych rozważań wynika, że wyjściowy układ stopni przekonania
powinien spełniać aksjomaty rachunku prawdopodobieństwa, a następnie
powinien być modyfikowany pod wpływem świadectwa, również zgodnie z
aksjomatami rachunku prawdopodobieństwa. Ten drugi warunek jest
spełniony, jeżeli stopień przekonania o prawdziwości hipotezy ze względu
na dane świadectwo ująć jako prawdopodobieństwo warunkowe.
7 Zanim Kołmogorow sformułował klasyczny układ aksjomatów, jeden z pionierów rachunku
prawdopodobieństwa, Thomas Bayes, używał argumentu z holenderskiego systemu
zakładów dla uzasadnienia swoich twierdzeń.
Adam Grobler, O metodzie i strukturze nauki 16
Kłopot polega na tym, że samo pojęcie prawdopodobieństwa nie jest
całkiem jasne. To znaczy, z czysto matematycznego punktu widzenia
prawdopodobieństwo jest unormowaną miarą addytywną określoną na
pewnym zbiorze, tj. spełniającą pewne dodatkowe warunki funkcją o
wartościach z przedziału [0, 1], określoną na spełniającym pewne warunki
podzbiorze zbioru podzbiorów pewnego zbioru. Krótko mówiąc,
prawdopodobieństwo jako pojęcie matematyczne nie kryje w sobie żadnej
tajemnicy, przynajmniej dla wtajemniczonych. Natomiast z filozoficznego
punktu widzenia potrzebna jest jakaś interpretacja umożliwiająca
wyjaśnienie, dlaczego to matematyczne pojęcie ma zastosowanie do
rozwiązywania określonego typu problemów. W przypadku zastosowania
do problemu indukcji rozpatrywano trzy interpretacje: częstościową,
logiczną i subiektywną.
Interpretacja
częstościowa nawiązuje do tzw. klasycznej definicji
prawdopodobieństwa
, wyrażającej prostą intuicję, wedle której
prawdopodobieństwo interesującego nas zdarzenia jest miarą jego średniej
częstości w nieograniczenie długiej serii zdarzeń określonego typu. Np.
prawdopodobieństwo wyrzucenia reszki, przy założeniu, że moneta jest
prawidłowa, powinno wynosić 1/2, ponieważ w nieograniczenie długiej serii
rzutów monetą orły i reszki powinny występować jednakowo często. Nieco
zagadkowe pojęcie częstości, nie dość, że średniej, to jeszcze w
nieograniczenie długiej serii zdarzeń, ma całkiem ścisłą, matematyczną
definicję. Mianowicie, nieograniczenie długą serię zdarzeń można
przedstawić w formie nieskończonego ciągu skończonych ciągów n
początkowych zdarzeń tej serii. W każdej takiej skończonej podserii,
częstość - nazwijmy ją względną - interesującego nas zdarzenia można
określić po prostu jako stosunek liczby wystąpień tego zdarzenia w danej
podserii do długości tej podserii, np. stosunek liczby reszek do n - liczby
rzutów w podserii n
początkowych rzutów nieograniczenie długiej serii rzutów
8
Jest to dokładnie ta definicja, którą poznają uczniowie szkoły średniej: prawdopodobieństwo
danego zdarzenia jest równe stosunkowi liczby elementarnych zdarzeń sprzyjających temu
zdarzeniu do liczby wszystkich zdarzeń elementarnych.
Adam Grobler, O metodzie i strukturze nauki 17
monetą. W szczęśliwym przypadku, w którym ciąg częstości względnych
jest zbieżny, jego granicę można nazwać średnią częstością interesującego
nas zdarzenia. W pozostałych przypadkach średnia częstość nie jest
określona.
Interpretację częstościową prawdopodobieństwa próbował zastosować
do budowy logiki indukcji Hans Reichenbach [1949]. Ten pomysł ma
jednak wiele wad. Po pierwsze, wymaga traktowania hipotez jako zdań
eliptycznych o prawdopodobieństwie. Tj. hipotezę postaci (
∀
x)[W(x) à Z(x
)]
należy rozumieć nie dosłownie (każdy przedmiot, który znajdzie się
w warunkach W, zachowa się w sposób Z), lecz przenośnie: przedmiot,
który znajdzie się w warunkach W, prawdopodobnie zachowa się w sposób
Z. Po drugie, na co wskazywał von Mises [1957], wartości
prawdopodobieństwa w interpretacji częstościowej można szacować
jedynie na podstawie doświadczenia. Same szacunki zatem mają charakter
hipotez indukcyjnych. Wobec tego stosowanie pojęcia
prawdopodobieństwa w interpretacji częstościowej do uzasadnienia
procedur indukcyjnych zakrawa na błędne koło. Po trzecie, z czysto
matematycznego punktu widzenia średnia częstość zależy od kolejności
wyrazów ciągu względnych częstości. To znaczy, że przygodna zmiana
kolejności rejestrowania świadectw, bez zmiany samych świadectw, może
mieć istotny wpływ na ocenę prawdopodobieństwa hipotezy. Toteż
częstościowa interpretacja prawdopodobieństwa nie rokuje nadziei na
zbudowanie na niej logiki indukcji.
Pozostają dwie interpretacje: logiczna i subiektywna, które omówię
kolejno.
I.2.2. Program Carnapa i jego główne trudności
Na idei
prawdopodobieństwa logicznego opiera się sformułowany
przez Carnapa program logiki indukcji. Prawdopodobieństwo warunkowe
Adam Grobler, O metodzie i strukturze nauki 18
zdania H ze względu na zdanie E jest w tym sensie prawdopodobieństwem
logicznym, że zależy tzw. prawdopodobieństwa a priori zdań H i E oraz
czysto logicznego związku między nimi, związku będącego uogólnieniem
klasycznej implikacji, w sensie wspomnianym w I.2.1. Własności tego
związku można zatem opisać za pomocą odpowiedniego rachunku
logicznego. Konstrukcja takiego rachunku, sformułowana w [Carnap 1950],
przebiega następująco. Punktem wyjścia jest monadyczny język rachunku
predykatów pierwszego rzędu, to jest język, którego alfabet obejmuje:
zmienne i stałe indywiduowe: x, y, z, ..., a
1
, ... a
N
,
predykaty jednoargumentowe: p
1
, ..., p
r
,
spójniki logiczne:
¬
,
∨
,
∧
,
→
,
↔
,
kwantyfikatory:
∃
,
∀
.
Dodatkowo zakłada się, że w języku występują nazwy własne
wszystkich elementów jego uniwersum i każdy element uniwersum ma
tylko jedną nazwę. Innymi słowy, skoro w języku znajduje się N stałych
indywiduowych, uniwersum języka składa się z N indywiduów. Ponadto,
o predykatach p
1
, ..., p
r
zakłada się, że są proste, tzn. żaden z nich nie daje się
zdefiniować za pomocą innych predykatów. Natomiast za pomocą
predykatów prostych można zdefiniować szczególną klasę predykatów,
tzw. Q-predykatów:
Q
i
(x)
↔
±
p
1
(x)
∧
±
p
2
(x)
∧
...
∧
±
p
r
(x), i = 1, …, k, k = 2
r
,
gdzie symbol
±
p
j
(x
) oznacza bądź p
j
(x
), bądź
¬
p
j
(x). Szczególna rola Q
-
predykatów polega na tym, że gdy na miejsce zmiennej x podstawić nazwę
określonego indywiduum, powiedzmy a, Q-predykat orzeka o nim, które z
własności oznaczonych za pomocą predykatów elementarnych mu
przysługują, a które nie. Innymi słowy, podaje jego wyczerpujący opis, tzn.
Adam Grobler, O metodzie i strukturze nauki 19
wyczerpujący ze względu na siłę wyrazu rozpatrywanego języka.
Naturalnie, każdy Q-predykat podaje inny opis a, a więc tylko jeden z nich może
być prawdziwy. W ten sposób Q-predykaty wyznaczają wyczerpujący i
rozłączny podział uniwersum języka na Q-zbiory: zbiory “jednakowych”
indywiduów, tj. indywiduów spełniających ten sam Q-predykat. Każdemu
możliwemu podziałowi uniwersum na Q-zbiory można przypisać ciąg Q-
liczb, N
1
, …, N
k
, (N
1
+ … + N
k
= N
), określających liczebność poszczególnych Q-
zbiorów czyli, innymi słowy, rozkład statystyczny indywiduów na
poszczególne Q-zbiory.
Za pomocą Q-predykatów można zbudować szczególnego rodzaju
zdania, zwane opisami indywiduowymi. Mają one postać następującą:
S
i
↔
Q
i1
(a
1
)
∧
…
∧
Q
iN
(a
N
), i = 1, …, k
N
, i
j
= 1, …, k.
Zdanie tego typu jest wyczerpującym opisem uniwersum, ponieważ jest
koniunkcją wyczerpujących opisów wszystkich indywiduów. Każdy opis
indywiduowy definiuje pewien “możliwy świat”, tj. świat, o którym ten opis
jest prawdziwy. W szczególności, każdemu opisowi indywiduowemu
jednoznacznie odpowiada pewien ciąg Q-liczb (ale nie na odwrót: różnym
opisom indywiduowym może odpowiadać ten sam ciąg Q-liczb). Każde
inne zdanie rozpatrywanego języka daje się przedstawić w postaci
alternatywy opisów indywiduowych. Ponieważ każde dwa opisy
indywiduowe wykluczają się wzajemnie, ten fakt ma doniosłe znaczenie
dla dalszej konstrukcji rachunku. Wystarczy bowiem określić
prawdopodobieństwo a priori dla wszystkich opisów indywiduowych, aby
uzyskać – na mocy aksjomatu P(A
∨
B) = P(
A) + P(B), gdy A i B się wykluczają
– rozkład prawdopodobieństwa na zbiorze wszystkich zdań
rozpatrywanego języka.
Jak jednak to prawdopodobieństwo określić? Z aksjomatów rachunku
prawdopodobieństwa wynika, że musi być spełniony warunek: P(S
1
) + … +
Adam Grobler, O metodzie i strukturze nauki 20
P(S
kN
) = 1. Idąc po najmniejszej linii oporu można by przyjąć, zgodnie z tzw.
zasadą racji niedostatecznej, że wszystkie opisy indywiduowe są
równoprawdopodobne, czyli że P(S
i
) = 1/k
N
dla każdego i. Byłoby to jednak
równoznaczne –ponieważ opisy indywiduowe są symetryczne ze względu
na wszystkie Q-predykaty i nazwy wszystkich indywiduów – z założeniem,
że każdy rozkład własności na poszczególne indywidua jest jednakowo
prawdopodobny. Wówczas każde dwa zdania logicznie niezależne byłyby
zarazem probabilistycznie niezależne czyli prawdopodobieństwo
warunkowe dowolnego zdania ze względu na jakiekolwiek świadectwo
empiryczne byłoby równe prawdopodobieństwu a priori tego zdania. Taki
rachunek nie pozwalałby więc na wyprowadzanie żadnych wniosków
indukcyjnych.
Żeby więc można było zbudować rachunek logiczny, który dawałby
podstawy do wyciągania wniosków indukcyjnych, trzeba przypisać opisom
indywiduowym niejednakowe prawdopodobieństwa a priori. Ale jak? Carnap
uznał, że w tym celu wpierw należy określić prawdopodobieństwo zdań
innego typu, zdań zwanych opisami strukturalnymi albo statystycznymi.
Są to zdania o postaci alternatywy wszystkich opisów indywiduowych,
którym odpowiada ten sam ciąg Q-liczb. Opisy statystyczne mówią zatem
o tym, ile indywiduów należy do każdego z Q-zbiorów, tj. spełnia określony
Q
-predykat czyli ma określony asortyment elementarnych własności
(własności oznaczonych za pomocą predykatów elementarnych). Mówią
zatem o świecie wszystko to, co da się o nim powiedzieć przemilczając
kwestię tożsamości indywiduów. I to właśnie w stosunku do opisów
statystycznych Carnap zastosował zasadę racji niedostatecznej, tj.
przypisał im jednakowe prawdopodobieństwa.
Prawdopodobieństwo opisu statystycznego, zgodnie z aksjomatami
rachunku prawdopodobieństwa, musi być sumą prawdopodobieństw
opisów indywiduowych, których jest alternatywą. Teraz można przyjąć
zasadę racji niedostatecznej do opisów indywiduowych będących
składnikami tego samego opisu statystycznego i przypisać im jednakowe
Adam Grobler, O metodzie i strukturze nauki 21
prawdopodobieństwa. Widać stąd wyraźnie, że prawdopodobieństwo
a priori
opisu indywiduowego będzie odwrotnie proporcjonalne do liczby
opisów indywiduowych o tym samym ciągu Q-liczb. Będzie więc ono tym
większe, im bardziej ciąg Q-liczb jest “niezrównoważony”, tzn. im większe
będą różnice między poszczególnymi jego wyrazami
. Największe zaś
będzie dla ciągów, których jeden wyraz wynosi N a pozostałe są równe
zero. W takim razie opisy indywiduowe są tym bardziej a priori
prawdopodobne, im większej liczbie indywiduów przypisują im więcej
podobieństw (wspólnych własności elementarnych). Najbardziej
prawdopodobne a priori są te opisy indywiduowe, które mówią, że
wszystkie indywidua są jednakowe (mają te same własności elementarne).
Taki rozkład prawdopodobieństwa przypisuje więc a priori wyższe
prawdopodobieństwo temu, że w świecie występują (statystyczne) związki
współwystępowania (lub wykluczania się) między poszczególnymi
własnościami elementarnymi niż temu, że takich związków absolutnie
brak; i to tym wyższe prawdopodobieństwo, im więcej jest takich związków
współwystępowania (i im one są statystycznie istotniejsze). Takie
założenie można uznać za statystyczną wersję zasady jednostajności
przyrody. Prześledzimy teraz jego niektóre jego konsekwencje.
Oznaczmy teraz przez L
N, k
język, który zawiera N nazw indywiduowych i k Q-predykatów.
Określmy na zbiorze zdań tego języka rozkład prawdopodobieństwa zgodnie ze
sformułowaną wyżej zasadą racji niedostatecznej dla opisów statystycznych oraz zasadą
racji niedostatecznej dla opisów indywiduowych, którym odpowiadają te same ciągi Q-
liczb. Wó
wczas można zdefiniować funkcję potwierdzenia hipotezy H, sformułowanej w tym
języku, przez świadectwo empiryczne E (zdanie, opisujące to świadectwo) znanym
wzorem na prawdopodobieństwo warunkowe
W nauce interesuje nas przede wszystkim potwierdzanie hipotez uniwersalnych, tj. hipotez o ogólnej postaci
(
∀
x)[W(x)
→
Z(x
)]. W przypadku języka o skończonej liczbie nazw indywiduowych, w którym
każdy element uniwersum ma nazwę indywiduową – a takie języki na razie rozpatrujemy –
hipotezy uniwersaln
e redukują się do znacznie mniej interesujących zdań szczegółowych o
postaci skończonej koniunkcji: [W(a
1
)
→
Z(a
1
)]
∧
…
∧
[W(a
N
)
→
Z(a
N
)]. Żeby można było rozważać
kwestię potwierdzania hipotez uniwersalnych, trzeba dokonać uogólnienia funkcji
9 Liczba opisów indywidu
owych o tym samym ciągu Q-liczb N
1
, …, N
k
wyraża się wzorem:
!
...
!
!
!
2
1
k
N
N
N
N
⋅
⋅
⋅
10 Sam Carnap zamiast litery P na oznaczenie
prawdopodobieństwa używał m* (od słowa “miara” -
measure). Litera C pochodzi od confirmation.
Adam Grobler, O metodzie i strukturze nauki 22
potwierdzania na języki o nieskończonych uniwersach. W tym celu Carnap zdefiniował
prawdopodobieństwo a priori zdania języka L
∞
,k
– tj. monadycznego język– rachunku
predykatów pierwszego rzędu o nieskończonym uniwersum i k Q-predykatach – jako granicę
ciągu prawdopodobieństw tego zdania w językach L
N, k
przy rosnącym N
Okazuje się, że przy takiej definicji prawdopodobieństwo a priori hipotez
ściśle uniwersalnych (tj. nie redukujących się do skończonej koniunkcji zdań
szczegółowych) jest równe zeru. Wynika stąd, że prawdopodobieństwo
warunkowe dowolnej hipotezy ściśle uniwersalnej ze względu na dowolne
świadectwo empiryczne (które wyraża się zawsze za pomocą zdania
szczegółowego) również równe zero. Wniosek to dość osobliwy, mówi on
bowiem ni mniej, ni więcej jak to, że potwierdzenie dowolnej hipotezy
uniwersalnej przez dowolne skończone świadectwo empiryczne (a każde
świadectwo empiryczne jest skończone) jest zerowe. W przypadku hipotez
uniwersalnych załamuje się również projektowane uogólnienie logiki
dedukcyjnej, o którym była mowa w poprzednim rozdziale. Mianowicie, gdy
G
→
H
, to powinna zachodzić równość P(H|G) = 1. Tymczasem jeżeli G i H są
zdaniami uniwersalnymi, to P(H|G
) jest nieokreślone. Można więc powiedzieć, że
zdania uniwersalne wymykają się spod ogólnych założeń programu logiki
indukcji. Dalsze komentarze na temat tej nieco zagadkowej cechy programu
Carnapa odłożymy na później.
Przyjrzyjmy się teraz jednej z najbardziej interesującej własności
zdań szczegółowych. Niech M będzie predykatem o szerokości w
i
, tzn. M
i
jest a
lternatywą w Q-
predykatów. Symbolicznie: M
i
(x)
↔
Q
i1
(x)
∨
…
∨
Q
iw
. Następnie, niech E będzie zdaniem tej treści, że
spośród n zaobserwowanych przedmiotów, a
1
, …, a
n
, n
i
ma własność M
i
. Wówczas:
gdzie M
i
(a
n+1
) jest zdaniem, które mówi, że niezaobserwowany dotąd przedmiot
a
n+1
ma własność M
i
. Zilustrujmy treść tego wzoru na prostym przykładzie.
Rozważmy hipotezę, że po 8-krotnym wyrzucenia orła monetą za
jedenastym razem również wyrzucimy orła. W tym celu wystarczy
skonstruować prosty język L
N, 2
, N
≥
11, z co najmniej jedenastoma nazwami
11
Zakłada się, że słowniki tych języków różnią się jedynie zasobem nazw indywiduowych i
to w taki sposób, że dla każdego N i M, N
>
M,
słownik języka L
N, k
zawiera wszystkie nazwy
indywidu
owe ze słownika języka L
M, k
.
12 Dowód pomijamy.
Adam Grobler, O metodzie i strukturze nauki 23
indywiduowymi (kolejnych rzutów monetą) i jednym predykatem
elementarnym p
↔
“wypadł orzeł”. W tym języku są dwa Q-predykaty: Q
1
= p, Q
2
=
¬
p
. Podstawiając do wzoru n
i
= 8, w
i
= 1, n = 10, k
= 2 otrzymujemy stopień
potwierdzenia (prawdopodobieństwo warunkowe ze względu na świadectwo)
naszej hipotezy = 9/12 = ¾.
Dwie sprawy są tu godne uwagi. Po pierwsze, prawdopodobieństwo
wyrzucenia orła w jedenastym rzucie okazało się różne od
prawdopodobieństwa a priori (= ½). Zatem zastosowanie logiki indukcji do omawianego
zagadnienia polega
na przyjęciu śmiałego założenia, że między wynikami
kolejnych rzutów monetą zachodzi dodatnia zależność statystyczna. Po
drugie, prawdopodobieństwo, o którym mowa, aczkolwiek zależne od
wyników poprzednich dziesięciu rzutów, okazało się niższe od ilorazu liczby
orłów w dotychczasowych rzutach (= 8/10 = 4/5). Co znaczy, że wnioski
indukcyjne nie są aż tak śmiałe, jak prostolinijna ekstrapolacja
doświadczenia.
Zachodzi pytanie, czym takie wnioski mogą być uzasadnione. W
przypadkach gier w rodzaju rzutów monetą najczęściej przyjmujemy, że
wyniki kolejnych rzutów są od siebie statystycznie niezależne i
prawdopodobieństwo wyrzucenia orła za każdym razem wynosi ½. To
znaczy, tak przyjmujemy, gdy zakładamy, że gra jest uczciwa: moneta jest
prawidłowa a gracz nie przeprowadza żadnych manipulacji. Takie podejście
do zagadnienia naśladuje sądową zasadę domniemania niewinności: trzeba
mieć jakieś specjalne powody, by podejrzewać, że moneta jest
nieprawidłowa lub mają miejsce jakieś tajemne manipulacje. Natomiast
stosując logikę indukcji dajemy wyraz przekonaniu, że samo odchylenie
liczby orłów od przeciętnej skłania do podejrzeń, w stopniu zależnym ,
aczkolwiek nie wprost, od wielkości tego odchylenia. Na tej samej zasadzie
można byłoby posądzać o nieuczciwość każdego gracza, który dostał lepszą
kartę od przeciwnika.
Z drugiej strony, nie jest wykluczone, że nasza moneta jest
Adam Grobler, O metodzie i strukturze nauki 24
nieprawidłowa. Może więc z braku innych świadectw znaczne odchylenie
liczby orłów od przeciętnej należy uznać za wskazówkę, by taką możliwość
poważnie wziąć pod uwagę? Powstaje jednak pytanie, jak poważnie.
Dlaczego nie poważniej, albo nie mniej poważnie, niż wynika z rachunku?
Kolejny problem: dokładnie taki sam rachunek należałoby przeprowadzić w
przypadku rzutów różnymi monetami, być może o różnych nominałach a
nawet różnych walut. Wówczas wyciąganie wniosków na podstawie wyników
dotychczasowych rzutów wydaje się jeszcze bardziej bezpodstawne.
Rozważmy teraz taki przypadek. Zapytaliśmy 10 losowo wybranych osób
czy są zwolennikami przystąpienia Polski do Unii Europejskiej i otrzymaliśmy
8 odpowiedzi “tak”. Liczby te same, jak w przykładzie z monetą. Za to
wątpliwości co do zasadności zastosowania logiki indukcji znacznie mniejsze.
Wydaje się, że wynik takiej pobieżnej ankiety odzwierciedla, choćby i w
sposób bardzo przybliżony, stan opinii publicznej i w związku z tym
zdecydowanie ma wpływ na ocenę prawdopodobieństwa pozytywnej
odpowiedzi kolejnej zapytanej osoby. Założenie o dodatniej statystycznej
zależności między odpowiedziami na ankietę jest najzupełniej uzasadnione.
Kolejny przykład. Wyciągam z 10 kart talii (bez zwracania). Wśród nich
jest 8 czerwonych. Jakie jest prawdopodobieństwo, że jedenasta karta
będzie również czerwona? W tym przypadku stosowanie wzoru Carnapa jest
jawnie niedorzeczne. Prawdopodobieństwo wyciągnięcia czerwonej karty za
jedenastym razem nie tylko nie wzrosło, lecz zmalało, bowiem zmalał
stosunek liczby kart czerwonych do czarnych w pozostałej części talii.
Między wynikami kolejnych losowań występuje ujemna zależność statystyczna.
Z powyższych przykładów wyraźnie widać, że stosowanie logiki Carnapa
jest uzasadnione pod warunkiem, że założenie o dodatniej zależności
statystycznej między badanymi zdarzeniami jest wiarygodne. Nawet wtedy
jednak powstaje pytanie, jak wysoka jest ta zależność statystyczna, to jest
jak bardzo świadectwo empiryczne wpływa na ocenę prawdopodobieństwa
spełnienia się przewidywania. Ten problem Carnap próbował rozwiązać wprowadzając w
Adam Grobler, O metodzie i strukturze nauki 25
[1952] “kontinuum metod indukcyjnych”, które uzależnia funkcję potwierdzania od wartości
dodatkowego parametru
λ
. Wzór pr
zedstawia się następująco:
Wielkość
λ
wyraża skłonność do wyciągania wniosków indukcyjnych.
Gdy
λ
= 0 funkcja potwierdzania jest równa po prostu n
i
/n czyli ilorazowi liczby
wystąpień badanej własności do liczby zaobserwowanych przypadków. Gdy
λ
→
∞
, funkcja potwierdzania zmierza do 1/k, t
j. do prawdopodobieństwa a priori,
niezależnego od świadectwa. W ten sposób Carnap sugeruje, że dobór
odpowiedniej wartości parametru
λ
zależy od rodzaju zagadnienia, do
którego stosuje się logikę indukcji. Jednak wskazówki na temat tego doboru
próżno szukać w samej logice indukcji. Wartość
λ
zależy od założenia na
temat zależności statystycznej rozpatrywanych zdarzeń. Założenie to tkwi
w definicji prawdopodobieństwa a priori, wyjściowym rozkładzie
prawdopodobieństwa na zbiorze zdań rozpatrywanego języka. Jasne jest, że
w wyborze wyjściowego rozkładu prawdopodobieństwa nie możemy
kierować się logiką indukcji, bo od niego zależy cały rachunek logiczny.
Chyba żeby rozważyć całą klasę możliwych rozkładów prawdopodobieństwa
a priori
jako zbiór hipotez sformułowanych w pewnym metajęzyku, dla
którego można zbudować rachunek logiki indukcji niejako drugiego rzędu i
zastosować go do wyboru rozkładu prawdopodobieństwa a priori na zbiorze
zdań języka przedmiotowego. Wówczas jednak powstaje problem wyboru
wyjściowego rozkładu prawdopodobieństwa na zbiorze zdań metajęzyka,
który albo pozostaje bez rozwiązania, albo do jego rozwiązania zostanie
zastosowany rachunek logiki indukcji dla odpowiedniego metametajęzyka
itd. w nieskończoność. Krótko mówiąc, powstaje dylemat: albo wybór
wyjściowego rozkładu prawdopodobieństwa jest całkowicie arbitralny, albo
powstaje regres w nieskończoność.
Próbę ominięcia tego problemu
podjął bayesianizm, o którym zaraz
13 W porównaniu z tym wszystkie inne znane z litera
tury zarzuty pod adresem logiki Carnapa
wydają mi się drugorzędne. Ich przegląd przynosi m.in. Mortimer [1982].
Adam Grobler, O metodzie i strukturze nauki 26
będzie mowa.
I.2.3. Bayesianizm i problem
istotności świadectwa empirycznego
Bay
esianizm opiera się na subiektywnej koncepcji prawdopodobieństwa,
tj. prawdopodobieństwa nie jako miary stopnia obiektywnego potwierdzenia
hipotezy, lecz jako miary stopnia subiektywnego przekonania uczonego o
prawdziwości hipotezy. Obiektywność metodzie opartej na tej koncepcji
zapewnia mechanizm modyfikowania prawdopodobieństw pod wpływem
świadectwa empirycznego. Polega on na systematycznym stosowaniu
twierdzenia Bayesa:
To znaczy: stosujący metodę określa wyjściowy rozkład
prawdopodobieństwa na zbiorze zdań danego języka w sposób zupełnie
dowolny, byle zgodny z aksjomatami rachunku prawdopodobieństwa.
Następnie, po uzyskaniu świadectwa empirycznego E, określa rozkład
prawdopodobieństwa na nowo, przypisując każdej hipotezie
prawdopodobieństwo równe jej prawdopodobieństwu warunkowemu ze
względu na E, obliczone według wzoru Bayesa. W następnej rundzie, po
uzyskaniu kolejnego świadectwa E’, twierdzenie Bayesa stosuje się już do rozkładu
prawdopodobieństwa otrzymanego w wyniku poprzedniego zastosowania
tego twierdzenia. I tak dalej. Regułę postępowania, wedle której racjonalny
badacz powinien po otrzymaniu świadectwa empirycznego każdorazowo
modyfikować swój rozkład prawdopodobieństwa zgodnie z twierdzeniem
Bayesa, nazywa się regułą warunkowania (conditionalization rule)
. Jej
działanie zilustrujmy na następującym przykładzie:
Przychodzę pierwszy raz do klubu szachowego, w którym nikogo nie
znam, ale wiem, że wśród jego członków są mistrzowie i gracze mniej więcej
na moim poziomie. Siadam go gry z nieznajomym przeciwnikiem i chcę
empirycznie ustalić, do której kategorii graczy on należy. Zakładam, że w
przypadku przeciwnika równorzędnego mam 25% szans na zwycięstwo i
50% szans na remis, zaś grając z mistrzem mam tylko 15% szans na
14 Tadeusz Baszniak w prze
kładzie Przewodnika po teorii poznania Adama Mortona użył niczym nie
uzasadnionego zapożyczenia: “reguła kondycjonalizacji”. Być może uznał za uwłaczające
godności uczonych skojarzenie modyfikowania ich nastawień do hipotez z wytwarzaniem
się odruchu ślinienia na dźwięk dzwonka u psa Pawłowa. Tymczasem termin
conditionalization rule
został ukuty dokładnie dla podkreślenia analogii wzorów wnioskowania
indukcyjnego i wzorów uczenia się do wzorów powstawania odruchów warunkowych.
Adam Grobler, O metodzie i strukturze nauki 27
zwycięstwo i 30% szans na remis
. Nie wiem, ilu mistrzów jest wśród
obecnych w klubie, ale zakładam na początek, zupełnie na pif-paf, że
prawdopodobieństwo hipotezy, iż moim przygodnym przeciwnikiem jest
mistrz wynosi 20%. Pierwszą partię przegrałem. Prawdopodobieństwo
porażki przy założeniu, że grałem z mistrzem, wynosi 65%. Do licznika wzoru
Bayesa wstawiam więc 65%
×
20% = 13%. Prawdopodobieństwo porażki
przy założeniu, że grałem z graczem równorzędnym, wynosi 25%. W
mianowniku wstawiam więc 65%
×
20% + 25%
×
80% = 33%. Po wykonaniu
dzielenia otrz
ymuję nowe prawdopodobieństwo hipotezy, że grałem z
mistrzem. Wynosi ono teraz niecałe 40%. Drugą partię udaje mi się
zremisować. Wykonując analogiczne rachunki (30%
×
40% podzielone przez 30%
×
40% + 50%
×
60%, zaokrąglając P(H) do 40%) otrzymuję kolejne
prawdopodobieństwo mojej hipotezy, równe teraz około 28,5%. Natomiast
gdybym drugą partię przegrał, prawdopodobieństwo mojej hipotezy
wzrosłoby do niecałych 64%
Mechanizm modyfikowania prawdopodobieństw wedle reguły
warunkowania jest jasny i jednoznaczny. Wątpliwości natomiast może budzić
fakt, że wyniki stosowania tej reguły przez różnych badaczy mogą być różne,
ponieważ określenie wyjściowego rozkładu prawdopodobieństwa jest
całkowicie dowolne. W omawianym przykładzie mogłem np. przyjąć na
początku, że prawdopodobieństwo, iż potykam się z mistrzem, wynosi 40%.
Wówczas już po pierwszej porażce rośnie ono do około 64%, a po drugiej aż
do około 82%. Jest jednak faktem matematycznym, że różnice w ocenie
prawdopodobieństwa po wielokrotnym zastosowaniu twierdzenia Bayesa do
różnych wyjściowych rozkładów prawdopodobieństwa maleje do zera, gdy
liczba zastosowań tego twierdzenia rośnie do nieskończoności. Można zatem
powiedzieć, że na dłuższą metę układy stopni przekonania racjonalnych –
wedle bayesiańskiej koncepcji racjonalności – badaczy dysponujących
jednakowym świadectwem empirycznym zbliżają się do siebie. Arbitralność
wyboru punktu wyjścia, tak kłopotliwa dla programu Carnapa,
z bayesiańskiego punktu widzenia, nie przeszkadza uprawomocnieniu
indukcji za pomocą metody szacowania prawdopodobieństwa hipotez.
Niektórzy jednak uważają, że w przypadku rażących rozbieżności
wyjściowego rozkładu prawdopodobieństwa do uzyskania zadowalającego
poziomu zbliżenia układów stopni przekonania może być potrzebne
tylokrotne zastosowanie twierdzenia Bayesa, że niewykonalne w rozsądnym
czasie, powiedzmy: 10 tysięcy lat. Osobiście wydaje mi się, że metoda
bayesowska ma znacznie poważniejszy mankament. Jego dobrą ilustracją
jest paradoks wynaleziony przez Tomasza Placka.
Przypuśćmy, że wybieramy się samochodem z Krakowa do Warszawy i
15
Te założenia nie są zupełnie dowolne, lecz oparte na zasadach wyliczania ocen
rankingowych szachistów. Przyjmuję jedynie dla uproszczenia, że wchodzą w rachubę
szachiści tylko dwóch kategorii i pomijam zróżnicowanie siły gry w obrębie każdej
kategorii (w szczególności, nieco optymistycznie oceniam własną siłę gry).
16
64
,
0
41
,
0
26
,
0
60
,
0
25
,
0
40
,
0
65
,
0
40
,
0
65
,
0
≈
=
×
+
×
×
Adam Grobler, O metodzie i strukturze nauki 28
z jakichś powodów wolimy po drodze nie tankować paliwa. Przyjmijmy, że
dla samochodu startującego z pełnym bakiem prawdopodobieństwo
dotarcia do celu bez tankowania wynosi 70%, a dojechania przynajmniej
do Grójca 90%. Pytanie: czy minąwszy Grójec wolno nam wnosić, na mocy
reguły warunkowania, że prawdopodobieństwo sukcesu wzrosło do 7/9? Co
takiego dowiedzieliśmy się, dotarłszy do Grójca, co wzmacnia nasze
nadzieje?
Bas van Fraassen (w korespondencji z Plackiem) przedstawił
następujący argument na korzyść pozytywnej odpowiedzi. Na mocy
wyjściowego założenia, do Warszawy dojedzie 7 samochodów na 10, a z
tych dziesięciu jeden utknie już przed Grójcem. Minąwszy Grójec wiemy,
że nasz samochód jest jednym z dziewięciu, z których 7 dotrze do
Warszawy. Rozumowanie to byłoby całkiem trafne, gdyby proces był zupełnie
losowy
. Np. gdybyśmy udawali się w podróż losowo wybranym
samochodem i dla każdego z nich jakimś magicznym sposobem byłoby z
góry prze
sądzone, jak daleko dojedzie bez tankowania, bez względu na
okoliczn
ości podróży. Albo gdyby w trakcie podróży w zaświatach ciągnięto
losy, które samochody jadące z Krakowa do Warszawy bez tankowania
zatrzymywać w drodze. Tymczasem w naszym pytaniu zasadniczo chodzi
o to, na jak daleką podróż starczy nam paliwa. Dlatego ocena naszych
szans w Grójcu, jeżeli ma być pożyteczna
, nie może opierać się na
spekulacjach, ilu konkurentów startujących w tych samych zawodach
prawdopodobnie wy
eliminowalibyśmy po drodze, ale powinna zależeć od tego,
ile paliwa nam zostało w baku i jakie przypuszczalnie wystąpią warunki
drogowe na pozostałym do przebycia odcinku. Będziemy bowiem
potrzebować więcej paliwa, jeżeli przybyliśmy do Grójca w godzinach
17 Zob. [Placek , 1998].
18
Czytelnik może zapytać, do czego taka ocena może być pożyteczna. Sam problem
wydaje się bowiem zupełnie głupkowaty. Został on jednak sformułowany w czasach stanu
wojennego, kiedy jego rozwiązanie mogło mieć całkiem praktyczne znaczenie. Benzyna była
wówczas reglamentowana. Toteż dojeżdżając bez kartek na benzynę do ostatniej przed
Warszawą (tak było!) stacji paliw w Jankach stanęlibyśmy przed pytaniem, czy zaryzykować
próbę skorumpowania personelu stacji. Ocena prawdopodobieństwa, że zdołamy bez tego
dotrzeć do Warszawy, gdzie mamy zaprzyjaźnione źródło oktanów, mogłaby być kluczową
przesłanką dla podjęcia decyzji.
Adam Grobler, O metodzie i strukturze nauki 29
szczytu i w ulewnym deszczu, o śnieżycy nie wspominając, a mniej, jeżeli
w Grójcu zastała nas pogodna, letnia noc.
Czy to znaczy, że rachunek prawdopodobieństwa kłamie? Bo przecież
wydaje się, że równość P(W | G) = 7/9 bezsprzecznie wynika z twierdzenia Bayesa.
Tymczasem
stosując wzór na prawdopodobieństwo całkowite otrzymujemy:
P(W | G) = P(W | G
∧
B
1
)
×
P(G
∧
B
1
) + … + P(W | G
∧
B
n
)
×
P(G
∧
B
n
),
gdzie B
1
, …, B
n
są wzajemnie wykluczającymi się zdaniami i wyczerpującymi
wszystkie możliwości na temat poziomu paliwa w baku po dojechaniu do Grójca (np. B
i
= “pozostało mniej niż i, ale nie mniej niż i-1 cm
3
benzyny”). Po uzyskaniu
świadectwa E na temat poziomu paliwa, np. po odczytaniu wskazania licznika paliwa,
otrzymujemy:
P(W | G
∧
E) = P(W | G
∧
B
1
∧
E)
×
P(G
∧
B
1
∧
E) + … + P(W | G
∧
B
n
∧
E)
×
P(G
∧
B
n
∧
E).
Niektóre z
prawdopodobieństw P(G
∧
B
i
∧
E
) są bardzo niskie. Przyjmijmy, dla
uproszczenia, że wszystkie z nich z wyjątkiem jednego są równe zero, tj.
istnieje takie j, że dla każdego i
≠
j P(G
∧
B
i
∧
E) = 0. Wówczas
P(W | G
∧
E) = P(W | G
∧
B
j
∧
E).
Teraz jest oczywiste, że P(W | G
∧
E
), tj. prawdopodobieństwo, że dotrzemy do
Warszawy bez tankowania pod warunkiem, że dotarliśmy do Grójca i mamy
świadectwo E na temat aktualnego poziomu paliwa w baku, może być
drastycznie różne od 7/9 = P(W | G), tj. prawdopodobieństwa, że dotrzemy do
Warszawy bez tankowania pod warunkiem, że dotarliśmy do Grójca przy
braku innych świadectw. Jeżeli do tego dołączymy jeszcze świadectwo D na
19 Ta część analizy pochodzi ode mnie.
20
Ponieważ przy tym założeniu P(G
∧
B
i
∧
E) = 1.
Adam Grobler, O metodzie i strukturze nauki 30
temat warunków drogowych na odcinku z Grójca do Warszawy, otrzymamy jeszcze inne
prawdopodobieństwo P(W | G
∧
E
∧
D).
Opisane wyżej modyfikacje prawdopodobieństwa dotarcia do Warszawy
wydają się bardzo trafnymi posunięciami w rozważanej przez nas sytuacji
epistemicznej. Zwolennik bayesianizmu twierdziłby zapewne, że można je
uzyskać jego metodą uwzględniając kolejno świadectwa E i D, tj. obliczając
prawdopodobieństwa P’(W | E) i P”(W | D), gdzie P’(W) = P(W | G) a P”(W) = P’(W | E).
Powstają jednak kłopotliwe pytania.Po pierwsze, skąd bayesianista ma
wiedzieć, że powinien szukać świadectw E i D? Dlaczego zamiast E nie będzie
rozważał np. świadectwa F na temat czasu podróży z Krakowa do Grójca?
Albo świadectwa na temat temperatury powietrza w Grójcu w chwili
przybycia? Oba na pozór absurdalne świadectwa nie są bynajmniej
probabilistycznie niezależne od W. Czas podróży zależy od średniej
prędkości, zaś temperatura powietrza ma związek z warunkami drogowymi .
Jedno i drugie ma wpływ na zużycie paliwa czyli na prawdopodobieństwo
dotarcia do Warszawy. Jednak z wedle naszej najlepszej wiedzy E i D mają
znacznie bardziej bezpośrednie z rozważanym problemem i nie ma żadnego
powodu, aby zamiast nich rozpatrywać świadectwa dające dużo gorsze
oszacowania prawdopodobieństwa. Po drugie, w świetle naszej wiedzy
wydaje się wysoce niewiarygodne, aby ktokolwiek stosował wzór Bayesa do
wyznaczenia np. P’(W | E). W tym celu bowiem należałoby wcześniej wyliczyć
P’(E | W), tj. prawdopodobieństwo, że licznik paliwa w Grójcu wskazywał
niespełna i cm
3
pod warunkiem, że samochód dojechał do Warszawy. To zaś
wydaje się bardziej skomplikowane od oszacowania za pomocą wiedzy na
temat wydajności silnika samochodu, bez użycia twierdzenia Bayesa,
prawdopodobieństwa dojechania do Warszawy pod warunkiem, że licznik
paliwa w Grójcu wskazywał niespełna i cm
3
.
Z powyższej dyskusji wynika, że aby stosować twierdzenie Bayesa z
pożytkiem, trzeba posługiwać się wiedzą na temat poziomu istotności
świadectw dla rozważanej hipotezy. W przykładzie samochodowym
posłużyliśmy się wiedzą potoczną na temat ogólnych mechanizmów spalania
Adam Grobler, O metodzie i strukturze nauki 31
paliwa. W innych przypadkach będzie podobnie: ocena użyteczności
świadectw dla szacowania prawdopodobieństwa danej hipotezy, a tym
samym ocena wartości poznawczej oszacowania tego prawdopodobieństwa,
będzie zależała od jakiejś wcześniejszej wiedzy, wiedzy empirycznej na
temat stałych związków między zjawiskami. Tego rodzaju wiedzę nabywamy
metodą indukcji. Gdyby bayesianizm był trafną rekonstrukcją metody
indukcyjnej, owa wcześniejsza wiedza byłaby również wiedzą
prawdopodobną. Do oszacowania jej prawdopodobieństwa trzeba byłoby
użyć jakichś świadectw. Ocena trafności doboru świadectw do oszacowania
prawdopodobieństwa wcześniejszej wiedzy zależałaby od jakiejś jeszcze
wcześniejszej wiedzy, która również byłaby tylko prawdopodobna itd. Znowu
otrzymujemy regres w nieskończoność.
Ostatecznie więc nawet jeżeli bayesianizm, inaczej niż program
Carnapa, radzi sobie z problemem arbitralności wyboru wyjściowego
rozkładu prawdopodobieństwa, to – podobnie jak program Carnapa –
nieuchronnie prowadzi do regresu w nieskończoność. Wydaje się, że jest to
nieodłączna cecha każdej propozycji rozwiązania problemu indukcji
w duchu probabilizmu. Prawdopodobieństwa bowiem nie spadają z nieba.
Zależności probabilistyczne między zdaniami wynikają z pewnych założeń.
Te założenia są albo arbitralne, co jest niedobrze, albo same podlegają
ocenie ze względu na stopień wiarygodności. Pierwsze jest nie do
przyjęcia. Drugie, na mocy głównej idei probabilizmu, w myśl której
stopień wiarygodności hipotezy zależy od oceny jej prawdopodobieństwa,
prowadzi do regresu.
I.2.4. Niektóre inne trudności probabilizmu
Probabili
zmowi zarzuca się m.in. niezgodność z praktyką naukową. Powiada
się, że uczeni ani dokonują oceny stopnia potwierdzenia hipotez za pomocą
metod Carnapa, ani nie kształtują stopnia własnego przekonania o trafności
Adam Grobler, O metodzie i strukturze nauki 32
hipotez za pomocą reguły warunkowania. Zarzut ten nie jest bardzo
poważny. Bowiem celem metodologii w ogóle, a teorii metody indukcyjnej
w szczególności, nie jest opis metod faktycznie stosowanych przez uczonych,
podobnie jak np. celem uprawiania logiki nie jest opis rzeczywistych
procesów rozumowania. Logika zajmuje się raczej rekonstrukcją idealnych,
normatywnych wzorców rozumowania. Zarówno program Carnapa, jak i
bayesianizm, dążą do zrekonstruowania czegoś, co zgodnie, aczkolwiek
niekoniecznie trafnie, nazywają logiką nauki czyli teorią idealnych wzorców
postępowania naukowego w zakresie oceny wartości poznawczej hipotez.
Poważniejszym problemem jest kwestia oceny hipotez uniwersalnych. W
logikach Carnapa, o czym była mowa wyżej, stopień potwierdzenia dowolnej
hipotezy uniwersalnej przez jakiekolwiek świadectwo (zdanie szczegółowe)
jest równy zeru. Tymczasem wysuwanie i sprawdzanie hipotez
uniwersalnych, tj. hipotez tej treści, że każdy obiekt x określonego rodzaju
zachowa się w sposób Z ilekroć zajdą warunki W, symbolicznie (
∀
x)[W(x)
→
Z(x
)],
należy do istoty działalności naukowej. Nic dziwnego, że program Carnapa
doczekał się korekty, która miała wyrównać jego rzekomy niedostatek.
Jaakko Hintikka [1966] sformułował uogólnienie metod Carnapa, tzw.
dwuwymiarowe kontinuum metod indukcyjnych, w których hipotezy
uniwersalne mogą mieć dodatni stopień potwierdzenia.
Sam Carnap zerowego stopnia potwierdzenia hipotez uniwersalnych nie
uważał za mankament proponowanych przez niego rachunków logicznych.
Uważał, że metody indukcyjne są przede wszystkim narzędziem oceny
stopnia wiarygodności przewidywań. U podłoża takiego stanowiska stoi
instrumentalizm, tj. pogląd, wedle którego hipotezy uniwersalne nie są
zdaniami kandydującymi do miana prawdziwych lub fałszywych, lecz
regułami wyprowadzania przewidywań ze zdań opisujących warunki
początkowe eksperymentu. Niezależnie od oceny instrumentalizmu, którą
zajmiemy się w części IV, wypada zaznaczyć, że z punktu widzenia
przeprowadzonej wyżej analizy, w myśl której probabilizm prowadzi do
regresu w nieskończoność, wstrzemięźliwość Carnapa w kwestii oceny
Adam Grobler, O metodzie i strukturze nauki 33
hipotez uniwersalnych przedstawia się dalekowzrocznie. Z uwagi na regres
w nieskończoność metody probabilistyczne należy uznać za niesamodzielne.
Tzn. mechanizm ocen probabilistycznych nie może wystartować bez
wcześniejszego założenia pewnych hipotez. To stawia pod znakiem
zapytania zdolność probabilizmu do sformułowania metody oceny hipotez
uniwersalnych. Nic jednak nie stoi na przeszkodzie, by zakładając pewne
hipotezy – w logikach Carnapa są nimi hipotezy na temat statystycznej zależności
zdarzeń – dokonywać na ich podstawie, metodami probabilistycznymi, ocen
prawdopodobieństwa spełnienia się określonych przewidywań. Wydaje się,
że tego rodzaju postępowanie w nauce jest dość typowe. Np. na podstawie
pewnych hipotez można oceniać prawdopodobieństwo spełnienia się
prognozy meteorologicznej.
Omawiając bayesianizm jako alternatywne wobec programu Carnapa podejście
probabilistyczne, skoncentrowałem się na trudnościach doboru świadectwa do zastosowania
we wzorze Bayesa, pomijając kwestię oceny hipotez uniwersalnych. Teraz pora to
przemilczenie nadrobić. Historia nauki odnotowała liczne eksperymenty dokonywane przez
bardzo młodych uczonych, polegające na upuszczaniu rozmaitych drobnych przedmiotów z
balkonu. Pytanie brzmi: która to hipoteza uniwersalna zawdzięcza swoje potwierdzenie
kosztem niejednego uszczerbku zasobów sreber rodowych. Przypuśćmy, że jest nią prawo
powszechnego ciążenia. Na mocy reguły warunkowania, zaginięcie każdej łyżeczki
podwyższa prawdopodobieństwo trafności domysłu Newtona zgodnie z wzorem:
gdzie H
= prawo powszechnego ciążenia, E = “upuszczona łyżeczka
spadła”. Jest oczywiste, że P(E | H) = 1. Jak ocenić, tj. prawdopodobieństwo,
że upuszczona łyżeczka upadnie, jeżeli prawo powszechnego ciążenia nie
obowiązuje? Nie wiadomo. Na użytek argumentacji przyjmijmy P(E |
¬
H) = ½.
Mamy wówczas:
Taki sam wynik otrzymamy jednak, jeżeli za H przyjmiemy jakąś inną
hipotez
ę wyjaśniającą spadanie upuszczanych łyżeczek, np.
arystotelesowskie prawo “ciała dążą do swojego miejsca naturalnego”.
Reguła warunkowania nie daje wystarczających podstaw dyskryminacji hipotez
wyjaśniających te same zjawiska, przynajmniej dopóki nie pojawi się
Adam Grobler, O metodzie i strukturze nauki 34
świadectwo sprzeczne z daną hipotezą
, tj. takie, że P(E | H) = 0.
Na powyższy argument bayesianista może odpowiedzieć, że wysiłki
młodych uczonych niezmiennie potwierdzają prawidłowość, iż wszystkie ciała
upuszczone spadają, niezależnie od tego, czy tę prawidłowość skłonni
jesteśmy wyjaśniać na gruncie fizyki Newtona czy Arystotelesa. Zgoda. W
ten sposób jednak bayesianista przyznaje, że spod jego metody wymykają
się hipotezy teoretyczne, tj. hipotezy sformułowane przy użyciu terminów
nieobserwacyjnych, tj. występujących w zdaniach wyrażających świadectwa.
Znowu jednak trzeba zaznaczyć, że hipotezy teoretyczne stanowią
najbardziej interesującą część nauki. Proszę sobie wyobrazić, cóż warta
byłaby nauka, gdyby trzeba było zrezygnować z oceny hipotez na temat,
powiedzmy, prądu elektrycznego, zadowalając się zdaniami na temat
światła żarówek, szumu silników, wstrząsów organizmu i piorunów.
Na
wet jeśli zrezygnować z oceny uniwersalnych hipotez teoretycznych i
próbować ograniczyć się do hipotez obserwacyjnych, to i tak w naszym
przykładowym zastosowaniu reguły warunkowania musieliśmy przyjąć
trudne do usprawiedliwienia założenie, że P(E |
¬
H) = ½. Bez problem
ów można
za to stosować twierdzenie Bayesa do hipotez zawierających terminy
zoperacjonalizowane statystycznie. Znakomitą ilustracją tej tezy jest nasz
przykład szachowy. Mistrzem szachowym zostaje ten, kto dwukrotnie
wypełni tzw. normę mistrzowską tj. osiągnie w turnieju wynik określony w
zależności od kategorii pozostałych jego uczestników. W przypadku gry
przeciw samym kandydatom na mistrza norma wynosi 70% możliwych do
zdobycia punktów. Innymi słowy, za mistrza uważa się kogoś, kto grając
przeciw kandydatom osiąga, statystycznie rzecz biorąc, 70-procentowy
wynik. Dlatego można śmiało założyć, jak w naszym przykładzie, że
kandydat na mistrza ma 15% szans na zwycięstwo z mistrzem i 30% szans
na remis.
21 Podobny argument wysunął Popper.
Adam Grobler, O metodzie i strukturze nauki 35
I.2.5. Trudności ogólniejszej natury: paradoksy potwierdzania
Probabilizm jest rozwinięciem myśli, że wprawdzie żadna skończona
liczba obserwacji czy eksperymentów nie może dostarczyć wyczerpującego
dowodu żadnej hipotezy uniwersalnej, to jednak obserwacje i eksperymenty
przyczyniają się do potwierdzenia hipotez. Hipotezy mogą być zatem
potwierdzone lepiej lub gorzej, tj. w większym lub mniejszym stopniu. Na
podstawie m.in. argumentu na temat holenderskiego systemu zakładów
uznano, że do eksplikacji czyli objaśnienia pojęcia stopnia potwierdzenia
nadaje się pojęcie prawdopodobieństwa warunkowego
(prawdopodobieństwa hipotezy ze względu na świadectwo empiryczne).
Okazuje się jednak, że samo pojęcie potwierdzenia, a co dopiero stopnia
potwierdzenia, jest kłopotliwe. wskazują na to pewne paradoksy.
Jednym z nich jest paradoks kruków
, rozważany m.in. przez Carla G. Hempla.
Weźmy pod uwagę hipotezę tej treści, że wszystkie kruki są czarne.
Symbolicznie: (
∀
x)[K(x)
→
C(x
)]. Intuicyjnie rzecz biorąc, każda obserwacja
czarnego kruka potwierdza tę hipotezę. Na mocy praw logiki hipoteza, o
której mowa, jest równoważna hipotezie, w myśl której wszystkie nieczarne
przedmioty są niekrukami. Symbolicznie: (
∀
x)[
¬
C(x)
→
¬
K(x
)]. Ta hipoteza zaś
jest potwierdzona przez każdą obserwację nieczarnego niekruka, np. białego
buta. Wydaje się, że jeżeli obserwacja potwierdza jakąś hipotezę, to
potwierdza każde sformułowanie tej hipotezie równoważne. Wówczas jednak
obserwacja białego buta potwierdza hipotezę, wedle której wszystkie kruki
są czarne. To zaś brzmi paradoksalnie.
Zdaniem Hempla
paradoks jest pozorny, ponieważ w gruncie rzeczy hipotezy
uniwersalne mówią coś o wszystkich przedmiotach w ogóle. W szczególności
hipoteza, że wszystkie kruki są czarne, mówi, że nie ma takiego przedmiotu,
który byłby zarazem krukiem i nieczarnym. Symbolicznie:
¬
(
∃
x)[K(x)
∧
¬
C(x
)].
Zdanie to mówi więc coś i o krukach, i o butach. Jednak według wielu
teoretyków – m.in. von Wrighta – uogólnienia indukcyjne dotyczą rodzajów
Adam Grobler, O metodzie i strukturze nauki 36
naturaln
ych, a nie wszystkich przedmiotów w ogóle. W tym przypadku
hipoteza, o której mowa, dotyczy kruków, bowiem kruki stanowią rodzaj
naturaln
y, a niekruki nie. Dlatego obserwacja czarnego kruka potwierdza tę
hipotezę, a białego buta nie. Ogólnie, według tzw. kryterium Nicoda, każda
obserwacja przedmiotów o cechach A i B potwierdza hipotezę, że każde A jest
B
, natomiast żadna obserwacja przedmiotów o cechach
¬
A i
¬
B
nie
potwierdza tej hipotezy. Z kolei Hosiasson-Lindenbaum uważa, że
obserwacja przedmiotów o cechach
¬
A i
¬
B
jednak potwierdza tę hipotezę,
ale słabiej od obserwacji przedmiotów o cechach A i B, o ile przedmiotów A jest
mniej niż przedmiotów
¬
B
. W związku z tym obserwacja białego buta słabiej
potwierdza hipotezę o krukach od obserwacji czarnego kruka, ponieważ
kurków jest mniej niż przedmiotów nieczarnych. W każdym razie żadne
rozwiązanie paradoksu kruków nie zyskało powszechnej aprobaty.
Innym klasyczny paradoks, zwany
paradoksem przechodniości, powstaje w
związku z tzw. predyktywnym kryterium potwierdzenia. Brzmi ono następująco.
Zbiór zdań E potwierdza hipotezę H, jeżeli istnieje rozłączny i wyczerpujący
podział E na dwa podzbiory, E
1
, E
2
(tj. E = E
1
∪
E
2
, E
1
∩
E
2
=
∅
) taki, że każde zdanie
z E
2
wynika z E
1
i H, ale nie wynika z samego E
1
. Kryterium nazywa się predyktywne,
ponieważ mówi ono tyle, że z hipotezy H i ze stwierdzenia, że zachodzą
warunki opisane przez zdania E
1
można wyprowadzić predykcję czyli
przewidywanie, że wystąpią okoliczności opisane przez zdania E
2
. Zarazem,
wedle tego kryterium, przewidywania, o którym mowa, nie da się
wyprowadzić z samego tylko stwierdzenia, że zachodzą warunki opisane
przez zdania E
1
, bez założenia hipotezy H. Dlatego właśnie o zbiorze E mówi
się, że potwierdza on hipotezę H.
J
eżeli E potwierdza H na mocy kryterium predyktywnego, i jeżeli H jest
konsekwencją hipotezy G (G à H), to G jest również, na mocy tego samego
kryterium, potwierdzone przez E. Jeżeli bowiem G à H, to G
∧
E
1
→
H
∧
E
1
. Jeżeli
ponadto H
∧
E
1
→
E
2
, to na mocy przechodniości implikacji G
∧
E
1
→
E
2
.
Adam Grobler, O metodzie i strukturze nauki 37
Rozważmy teraz przypadek przeciwny: niech G będzie konsekwencją H, tj. H
→
G. Naturaln
ie jest przyjąć, że konsekwencje logiczne hipotez potwierdzonych
same są również potwierdzone. Jeżeli więc E potwierdza H i H
→
G
, wypada
przyjąć, że E potwierdza również G. To jednak, łącznie z poprzednio
rozważaną własnością przechodniości, prowadzi do paradoksalnego
wniosku. Mianowicie, przypuśćmy, że pewien zbiór zdań E potwierdza
hipotezę H a G jest zupełnie dowolnym zdaniem. Na mocy logiki mamy H
∧
G
→
H
. Wobec tego, na mocy pierwszej własności przechodniości
potwierdzania, H
∧
G jest potwierdzone przez E. Z kolei, na mocy logiki mamy H
∧
G
→
G.
Skoro poprzednik implikacji jest potwierdzony przez E
to, na mocy drugiej własności
przechodniości potwierdzania, G jest potwierdzone przez E. Ale G było zupełnie
dowolnym zdaniem! Zatem jeżeli jakikolwiek zbiór zdań E potwierdza, na
mocy kryterium predyktywnego, jakąkolwiek hipotezę H, to E potwierdza
każde, zupełnie dowolne zdanie, nawet sprzeczne z H.
Paradoks przechodniości skłonił Hempla [1945] do odrzucenia
kryterium predyktywnego. Clark Glymour [1980] natomiast zachował
kryterium predyktywne, odrzucając drugą własność przechodniości. Tzn.
uznał, że indukcyjne potwierdzenie hipotezy nie przenosi się
automatycznie na jej konsekwencje logiczne. Na pozór wydaje się to
trudne do przyjęcia. Istotą rozumowania dedukcyjnego jest bowiem to, że
wnioski są równie wiarygodne, jak przesłanki. Toteż jeżeli przesłanki są w
pewnym stopniu potwierdzone, wnioski wypada uznać za równie
potwierdzone. Pomysł przeciwny Peter Lipton [1991] uznał za “ponury
żart”. Proponuję jednak, wzorem Zagłoby, potraktować dowcip z należną
mu atencją. Weźmy dla przykładu słynną już hipotezę, że wszystkie kruki
są czarne. Załóżmy, że jest ona potwierdzona przez liczne obserwacje
czarnych kruków. Konsekwencją tej hipotezy jest m.in. hipoteza, że
wszystkie kruki zamieszkujące wyspę Hula-Gula są czarne. Gdyby tak się
złożyło, że na wyspie Hula-Gula do tej pory nigdy nie obserwowano barwy
upierzenia kruków, bo np. żadna ekspedycja naukowa tam jeszcze nie
Adam Grobler, O metodzie i strukturze nauki 38
dotarła, powstałaby sytuacja, w której konsekwencja hipotezy
potwierdzonej indukcyjnie sama nie ma indukcyjnego potwierdzenia.
Paradoks przechodniości uzmysławia nam nader wyraźnie, że
rozumowanie indukcyjne polega zasadniczo na projekcji czyli rzutowaniu
wyników obserwacji na przypadki dotąd niezaobserwowane, np. wyników
obserwacji kruków nad Wisłą na kruki na wyspie Hula-Gula. Z projekcyjną
naturą indukcji łączy się sformułowany przez Nelsona Goodmana [1954]
paradoks“zielbieskości” (grue). Brzmi on następująco. Każda obserwacja
potwierdzająca hipotezę “Wszystkie szmaragdy są zielone” potwierdza
zarazem hipotezę “Wszystkie szmaragdy są zielbieskie”, gdzie
“zielbieskie” znaczy: “zielone do chwili t, a niebieskie potem”, gdzie t jest jakąś
ustaloną chwilą w przyszłości, np. w roku 2050
. Ponieważ zaś nie ma z
góry ustalonych granic wynalazczości nowych predykatów, każde
świadectwo empiryczne potwierdza nieskończenie wiele niezgodnych ze
sobą hipotez alternatywnych.
Rozwiązanie Goodmana polega na rozróżnieniu predykatów na
rzutowalne lub projekcyjne (projectible), jak kto woli, i nierzutowalne czyli nieprojekc
yjne.
Predykat nazywa się rzutowalny, jeżeli nadaje się do formułowania
uogólnień indukcyjnych, tj. rzutowania przypadków zaobserwowanych na
przypadki niezaobserwowane. “Zielony” jest predykatem rzutowalnym,
ponieważ zieloność zaobserwowanych szmaragdów można rzutować na
szmaragdy niezaobserwowane. Natomiast “zielbieski” nie jest predykatem
rzutowalnym. Powstaje pytanie, skąd można wiedzieć, które predykaty są
rzutowalne, a które nie. Odpowiedź Goodmana jest czysto pragmatyczna:
za rzutowalne należy uznać predykaty zakorzenione (entrenched) w naszej
praktyce indukcyjnej. Trudno jednak uznać tę propozycję za ostateczne
rozwiązanie problemu. Historia nauki zna przypadki eliminacji mocno
zakorzenionych predykatów, np. “znajdować się w (absolutnym)
spoczynku”, oraz wprowadzania całkiem niezakorzenionych w rodzaju
fantazyjnych “kolorów” i “zapachów” kwarków. Z drugiej strony,
22 W oryginale była mowa o roku 2000, a więc przykład oryginalny się zdeaktualizował.
Adam Grobler, O metodzie i strukturze nauki 39
rozróżnienie Goodmana podpowiada kierunek poszukiwania rozwiązania
paradoksu kruków: można podejrzewać, że predykaty “nieczarny” i
“niekruk”, występujące w “hipotezie” “wszystkie nieczarne przedmioty są
niekrukami”, są nierzutowalne.
Paradoks zielbieskości jest jedną z ilustracji wspomnianej w I.1. tezy o
niedookreśleniu teorii przez dane empiryczne (underdetermination thesis). Głosi
ona, że dowolny skończony zbiór danych jest zgodny z nieskończoną liczbą
alternatywnych hipotez (a więc dostarcza potwierdzenia). Inną ilustracją tej
tezy jest paradoks doboru krzywej (curve-fitting paradox), o którym również była
mowa. W gruncie rzeczy wszystkie te paradoksy ujawniają
niejednoznaczność projekcji, tzn. fakt, że dokonując uogólnień indukcyjnych
musimy dokonać wyboru tych elementów obserwowanej sytuacji, które
będziemy rzutować na niezaobserwowane przypadki. Powstaje kłopotliwe
pytanie, czym należy się kierować przy tym wyborze.
Paradoks przechodniości ma również wersję probabilistyczną w postaci
paradoksu sylogizmu probabilistycznego
. Mianowicie, jeżeli A wysoce potwierdza B i B
wysoce potwierdza C, tzn. P(C | B) ≈ 1, P(B | A
) ≈ 1, należałoby oczekiwać, przez
analogię do zasady przechodniości implikacji (jeżeli p à q i q à r, to p à r), że
A wysoce potwierdza C, tj. P(C | A) ≈ 1. Tymczasem wspomnia
na analogia załamuje się.
Dla przykładu rozważmy losowanie spośród n początkowych liczb naturalnych
dla jakiegoś dużego n, np. n = 10
10
. Niech A = “wylosowano 2”, B
= “wylosowano
liczbę pierwszą”, C = “wylosowano liczbę nieparzystą”. Wówczas
prawdopodobieństwo, że wylosowano liczbę nieparzystą pod warunkiem, że
wylosowano liczbę pierwszą jest bardzo wysokie, bo tylko jedna liczba
parzysta (2) jest liczbą pierwszą. Prawdopodobieństwo, że wylosowano
liczbę pierwszą pod warunkiem, że wylosowane 2 jest równe 1, bo 2 jest
liczbą pierwszą. Natomiast prawdopodobieństwo, że wylosowano liczbę
nieparzystą pod warunkiem, że wylosowano 2 jest równe zero.
Paradoks sylog
izmu probabilistycznego dowodzi, że jeżeli E jest pośrednim
świadectwem empirycznym, uzyskanym za pomocą bardziej
elementarnego świadectwa B, czyli E nie jest pewne, lecz jedynie wysoce
Adam Grobler, O metodzie i strukturze nauki 40
prawdopodobne ze względu na B, tj. P(E | B ) ≈ 1, to nawet gdy
prawdopodobieństwo hipotezy H ze względu na E jest bardzo wysokie, to
prawdopodobieństwo tej samej hipotezy H ze względu na B może być
bardzo niskie. Wynika stąd, że hipotezy można traktować jako w wysokim
stopniu potwierdzone tylko wtedy, gdy świadectwo potwierdzające jest
bezpośrednie i pewne. Kłopot polega na tym, że takich świadectw w ogóle
nie ma. W poprzednim rozdziale rozważaliśmy przykład, w którym
występowało świadectwo na temat poziomu paliwa w baku. Tym
świadectwem był, naturalnie, odczyt wskazania licznika paliwa. Jest
zupełnie oczywiste, że nie daje on stuprocentowo pewnej informacji, lecz
jedynie informację prawdopodobną. Nawet gdyby licznik paliwa był
superdokładny, to nigdy nie jest niezawodny: istnieje pewne, choćby i
nieduże prawdopodobieństwo, że jest zepsuty. Żeby więc upewnić się co
do świadectwa dostarczonego przez wskazanie licznika, należałoby
sprawdzić jego funkcjonowanie, być może za pomocą jakiegoś przyrządu
diagnostycznego. Jednak i wtedy, nawet gdy sprawdzian wypadnie
pomyślnie, stuprocentowej pewności nie ma. Bowiem istnieje pewne,
choćby i nieduże prawdopodobieństwo, że przyrząd diagnostyczny jest
zepsuty. Żeby więc się upewnić, trzeba byłoby ów przyrząd poddać
sprawdzeniu itd. w nieskończoność. Rozumowanie, w którym była mowa o
świadectwach uzyskanych za pomocą przyrządów oczywiście stosuje się
również do świadectw naszych zmysłów. Ludzki organizm nie jest przecież
niezawodnym przyrządem detekcyjno-pomiarowym. Krótko mówiąc, żadne
świadectwo empiryczne nie jest pewne i – jak powiedział Clawrence I.
Lewis [1946] – jeżeli nie ma nic pewnego, nie ma też nic
prawdopodobnego.
Karl R. Pop
per uważał nie tylko, że próby rozwiązania problemu indukcji
za pomocą teorii potwierdzania są nieudane, lecz również że nie mogą się
udać z pewnego zasadniczego powodu. Mianowicie, dążenie do
potwierdzania hipotez w ogóle nie jest postawą godną uczonego.
Potwierdzanie nie jest metodą nauki, lecz pseudonauki. Ulubionymi przez
Adam Grobler, O metodzie i strukturze nauki 41
Poppera przykładami teorii pseudonaukowych były astrologia, marksizm i
psychoanaliza Freuda. Horoskopy stale się potwierdzają. Tak już są
skonstruowane. Nawet najbardziej ryzykowne przepowiednie w rodzaju
“niedługo dostaniesz nieoczekiwane pieniądze” łatwo się materializują w
formie np. 10-groszówki znalezionej na podłodze supermarketu.
Marksistowską teorię walki klas potwierdziło nawet powstanie
“Solidarności” 1980 roku, skierowane przeciw rządzącej partii
marskistowsko-leninowskiej, podobnie jak wszystkie późniejsze wypadki, z
ekscesami Andrzeja Leppera włącznie. Freuda teorię snów potwierdza
każdy sen, bo cóż takiego mogłoby się człowiekowi przyśnić, co nie dałoby
się zinterpretować jako wyraz ukrytego pragnienia lub obawy. Cokolwiek
się zdarzy, teoria pseudonaukowa ma z góry przygotowane wyjaśnienie.
Nie może się zdarzyć nic, na co teoria pseudonaukowa nie miałaby
wyjaśnienia. Toteż taka teoria nie mówi nam, co może, a co nie może się
zdarzyć. Nie mówi nam: świat jest taki, że to-a-to jest możliwe, a tamto-
siamto jest niemożliwe. Nie mówi nam zatem nic o tym, jaki świat jest.
Dlatego właśnie jest pseudonaukowa.
Adam Grobler, O metodzie i strukturze nauki 42
I.3. Falsyfikacj
onizm i jego trudności
I.3.1. Motywy falsyfikacjonizmu
Popperowskie r
ozróżnienie na naukę i pseudonaukę spowodowało gwałtowny
zwrot w podejściu do problemu indukcji. Bo też problem odróżnienia nauki od
tego, co nauką nie jest, nazwany przez filozofów Koła Wiedeńskiego
problemem demarkacji
, ma zasadnicze znaczenie dla teorii metody naukowej.
W XVII wieku, w którym rozważania metodologiczne wysunęły się na
pierwszy plan filozofii, jeszcze nie uświadamiano sobie potrzeby tego
odróżnienia. Idee, które z dzisiejszego punktu widzenia uznalibyśmy za
naukowe lub przednaukowe, nie wyodrębniały się wówczas z ogólnego tła
filozoficznego i światopoglądowego. W Rozprawie o metodzie Kartezjusz od
zagadnień istnienia duszy i Boga niemal jednym tchem przechodzi do
kwestii obiegu krwi w organizmie. Nic więc dziwnego, że proponowana przez
niego metoda intuicyjno-dedukcyjna, zalecająca ustalenie wpierw prawd
intuicyjnie oczywistych, a następnie wyprowadzanie z nich wniosków
dedukcyjnych, albo metoda analizy, polegająca na rozbiorze trudnych
zagadnień na części składowe, nie wydają się uchwytywać specyfiki
poznania naukowego. Bardziej odpowiadają naturze matematyki, która
wówczas uchodziła za wzorzec wszelkiego poznania.
Pierwsze wyraźne rozróżnienie między poznaniem naukowym a
metafizycznym powstało pod wpływem niebywałych sukcesów fizyki
Newtona i zostało sformułowane przez Immanuela Kanta: nauka zajmuje się
przedmiotami doświadczenia, zaś metafizyka ideami kosmosu, duszy i Boga.
Zaś uzasadnienie metody naukowej, w jego ujęciu, pochodzi z metafizyki:
nauka możliwa jest dzięki apriorycznym formom zmysłowości (przestrzeni i
czasu) i kategoriom czystego intelektu (m.in. kategorii przyczyny), których
istnienia dowodzi tzw. dedukcja transcendentalna.
Pozytywizm Augusta Comte’a przyniós
ł odrzucenie metafizyki jako prawomocnej
Adam Grobler, O metodzie i strukturze nauki 43
dziedziny poznania, co spowodowało radykalny zwrot w stronę empiryzmu.
Zapoczątkowana przez Koło Wiedeńskie sto lat później XX-wieczna wersja
pozytywizmu, zwana neopozytywizmem albo empiryzmem logicznym,
wprowadziła skrajnie empirystyczne z ducha kryterium demarkacji. Mówiło ono, że
naukowe (a zarazem sensowne) są te i tylko te zdania, które są
weryfikowalne w doświadczeniu. Rychło jednak okazało się, że
(sformułowany przez Weismanna) wymóg weryfikowalności, pojmowany na
zasadzie wszystko-albo-nic, jest zbyt wygórowany, aby mogły go spełniać
interesujące zdania nauki, w szczególności hipotezy uniwersalne. Dlatego
Rudolf Carnap zastąpił go wymogiem (stopniowalnej) potwierdzalności.
Kryterium potwierdzalności jest jednak również wątpliwe, jeżeli wziąć pod
uwagę paradoksy potwierdzania i trudności probabilizmu. Przesunięcie
problemu demarkacji z kwestii odróżnienia nauki od metafizyki na kwestię
odróżnienia nauki od pseudonauki otworzyło nową perspektywę. Nauka, w
odróżnieniu od pseudonauki, ma oddzielać to, co w świecie możliwe od tego,
co niemożliwe. Ma zatem zakazywać występowania pewnych stanów rzeczy.
Tym samym zdania nauki są narażone na obalenie: wystąpienie stanu
rzeczy zakazanego przez hipotezę naukową podważa tę hipotezę. Żadna
obserwacja, ani eksperyment, nie może dowieść prawdziwości hipotezy.
Natomiast niekiedy można wykazać, powiada Popper, że dana hipoteza jest
fałszywa. Dlatego zaproponowane przez niego kryterium demarkacji mówi,
że naukowe są te i tylko te zdania, które są falsyfikowalne.
Metoda naukowa nie polega, wobec tego, na dążeniu do potwierdzania
hipotez czy do ich stopniowego uprawdopodobniania. Do nauki zaliczają się
nie zdania w znacznym stopniu potwierdzone ani wysoce prawdopodobne,
lecz zdania przyjęte na próbę. Dlatego właściwą metodą nauki jest, według
Poppera, stosowanie tzw. zasady krytycyzmu. Zaleca ona wysuwanie śmiałych
hipotez i nieustające podejmowanie rzetelnych prób ich obalenia
(falsyfikacji). Hipotezy powinny być śmiałe, tzn. mocno narażone na
obalenie, ponieważ śmiała hipoteza, jeżeli jest fałszywa, szybciej od hipotez
ostrożnych okaże się fałszywa i ustąpi miejsca bardziej obiecującej
Adam Grobler, O metodzie i strukturze nauki 44
kandydatce. Gdy zaś wytrzyma surowe sprawdziany, tzn. rzetelne, a nie
tylko pozorowane próby jej obalenia, przyniesie zysk poznawczy o wiele
znaczniejszy od hipotez ostrożnych, po których i tak się spodziewamy, że
wytrzymają nacisk doświadczenia. Zresztą falsyfikacja hipotezy również
przynosi pożytek poznawczy: informuje o tym, pod jakim względem hipoteza
jest fałszywa, co daje wskazówki pomocne w poszukiwaniach nowej, lepszej
hipotezy.
(Uwaga na marginesie: dbałość o ten pożytek odróżnia krytycyzm od
krytykanctwa. Zdemaskowanie błędu nie jest celem samym w sobie,
zwłaszcza że nie ma doskonałości na tym świecie, jak powiedział Lisek do
Małego Księcia. Zadaniem krytyki jest utorowanie drogi do lepszego od
dotychczasowego – co nie znaczy doskonałego i ostatecznego –
rozwiązania naszych problemów. Znakomite, niestety zapomniane
sformułowanie tej zasady można znaleźć już u Johna Locke’a).
Opisana wyżej metoda nazywa się metodą hipotetyczno-dedukcyjną,
ponieważ polega na wysuwaniu hipotez, wyprowadzaniu z nich wniosków
dedukcyjnych na temat wyników projektowanych eksperymentów a
następnie konfrontowaniu ich z faktycznymi wynikami eksperymentalnymi.
Na gruncie falsyfikacjonizmu Poppera, który tylko taką metodę uznaje za
naukową, można elegancko rozwiązać mnóstwo problemów piętrzących się
przed teoriami potwierdzania. Weźmy np. paradoks kruków. Obserwacja
białego buta okazuje się w ogóle nieistotna dla hipotezy “wszystkie kruki są
czarne”, bo nie jest próbą jej obalenia. Sprawdzianem tej hipotezy mogą być
tylko obserwacje kruków oraz nieczarnych ptaków, które po innych
oznakach można podejrzewać, że mogą ewentualnie okazać się krukami.
Paradoks przechodniości w ogóle nie powstaje. Jeżeli jakaś hipoteza nie
została sfalsyfikowana, to tym samym żadna jej konsekwencja logiczna nie
została sfalsyfikowana. W przeciwnym razie bowiem, na mocy prawa
kontrapozycji
, ta pierwsza byłaby również sfalsyfikowana. Skądinąd
rzetelność prób falsyfikacji polega m.in. na próbowaniu falsyfikacji możliwie
23 (H
→
G)
↔
(
¬
G
→
¬
H)
Adam Grobler, O metodzie i strukturze nauki 45
najrozmaitszych konsekwencji sprawdzanej hipotezy. Wreszcie, gdy idzie zaś
o paradoksy niedookreślenia teorii przez dane, są one co najmniej
złagodzone przez zacieśnienie puli rozpatrywanych hipotez do
niesfalsyfikowanych i najśmielszych spośród wysuniętych.
Poza tym, falsyfikacjonizm dostarcza uzasadnienia różnym popularnym
normom metodologicznym, które wymykały się ujęciom probabilistycznym
czy, ogólniej, indukcjonistycznym, jak niekiedy nazywa się poglądy, wedle
których hipotezy uniwersalne są (stopniowalnie) potwierdzane przez
indywidualne przypadki. Np. często formułowano zasadę, wedle której
hipoteza jest tym mocniej potwierdzona, im bardziej zróżnicowane
świadectwa przemawiają na jej korzyść. Tymczasem np. bayesianizm milczy
na temat jakościowego zróżnicowania świadectw, biorąc pod uwagę jedynie
prawdopodobieństwa warunkowe świadectw ze względu na rozważaną
hipotezę i na jej zaprzeczenie. Natomiast z punktu widzenia
falsyfikacjonizmu, im bardziej różnorodne są próby falsyfikacji hipotezy, tym
więcej konsekwencji logicznych tej hipotezy jest narażonych na obalenie, a
zatem sprawdzenie samej hipotezy jest rzetelniejsze i bardziej
wszechstronne. Dlatego hipotezę, która wytrzymała bardziej zróżnicowane
próby falsyfikacji niż jej konkurentka, zasługuje na wyższą od niej ocenę.
Dokładne powtórzenie eksperymentu, który nie doprowadził do falsyfikacji
hipotezy, nie jest jej surowym sprawdzianem, podobnie jak przeczytanie
drugiego egzemplarza tej samej gazety nie jest dobrym sprawdzianem
wiarygodności zamieszczonych w niej informacji. Tylko bardzo młodzi uczeni
sprawdzają prawo powszechnego ciążenia uparcie upuszczając z balkonu
srebrne łyżeczki. W dojrzałej praktyce naukowej, zamiast dokładnie
powtarzać eksperymenty nawet tak sensacyjne, że zachodzi podejrzenie
popełnienia błędu, z reguły dokonuje się pewnych modyfikacji.
Wygląda na to, że falsyfikacjonizm ma same zalety. Tymczasem
podejmując problemy niezadowalająco rozwiązane na gruncie
indukcjonizmu, niektóre z nich falsyfikacjonizm nie tyle rozwiązał, ile
przekształcił, nadając im formę rodzącą nowe trudności. Centralnym z nich
Adam Grobler, O metodzie i strukturze nauki 46
jest problem bazy empirycznej.
I.3.2. Uteoretyzowanie obserwacji i problem bazy empirycznej
Falsyfikacja hipotezy polega na wyprowadzeniu z niej i ze zdania
opisującego warunki początkowe obserwacji lub eksperymentu takiego
przewidywania, które się nie spełnia. Struktura logiczna rozumowania
prowadzącego do falsyfikacji hipotezy przedstawia się następująco:
{(
∀
x)[W(x)
→
Z(x)]
∧
W(a)}
→
Z(a),
¬
Z(a)
––––––––––––––––––––––––––––––––––––
¬
(
∀
x)[W(x)
→
Z(x)]
gdzie (
∀
x)[W(x)
→
Z(x)] jest hipotez
ą uniwersalną tej treści, że każdy przedmiot x, gdy
znajdzie się w warunkach W, zachowuje się w sposób Z, a zaś jest nazwą
konkretnego przedmiotu. To samo, opuszczając zmienne, można zapisać
prościej:
(H
∧
p)
→
q,
¬
q
–––––––––––––
¬
H.
Sprawa jednak nie jest wcale tak prosta, jak się może wydawać, co
prześledzimy na nieprzyzwoicie prostym przykładzie. Rozważmy niezbyt
śmiałą hipotezę tej treści, że gotowana marchewka jest miękka.
Dokładniej: “każda marchewka, jeżeli zostanie wrzucona do wrzącej wody i
potrzymana w niej odpowiednio długo, zmięknie”. Oznaczmy ją literą H.
Niech p
będzie zdaniem “oto garnek, w którym woda jest podtrzymywana w
stanie wrzenia i oto marchewka, którą wrzucam do wody”. Z H
∧
p wynika
przewidywanie q
“marchewka po pewnym czasie zmięknie”. Jeżeli teraz
wykonamy stosowny eksperyment, polegający na odpowiednio długim
gotowaniu marchewki i przewidywanie q się nie spełni, hipoteza H zostanie
sfalsyfikowana. H
wyklucza bowiem możliwość zajścia p
∧
¬
q. Zdanie p
∧
¬
q
Adam Grobler, O metodzie i strukturze nauki 47
będziemy nazywać potencjalnym falsyfikatorem hipotezy H.
Zauważmy, że zdanie p
∧
¬
q jest potencjalnym falsyfikatorem hipotezy H wtedy i
tylko wtedy, gdy zbiór {p, q
} potwierdza hipotezę H na mocy wspomnianego
wyżej kryterium predyktywnego. Skutkiem tej pozornej symetrii filozofowie
Koła Wiedeńskiego nie doceniali różnicy statusu logicznego potwierdzenia i
falsyfikacji, którą tak podkreślał Popper. Nie on pierwszy zresztą: źródeł
falsyfikacjonizmu można dopatrywać się u Williama Whewella
i, jeszcze
wcześniej, w koncepcji indukcji eliminacyjnej Franciszka Bacona.
Asymetria potwierdzania i falsyfikacji polega na tym, że potwierdzenie jest
co najwyżej stopniowalne – a i to jest wątpliwe wobec omówionych
wcześniej paradoksów potwierdzania i trudności probabilizmu – podczas
gdy falsyfikacja, nawet jednorazowa, wydaje się rozstrzygająca. Czyżby?
Wróćmy do schematu logicznego falsyfikacji. Z pary zdań (H
∧
p)
→
q,
¬
q
stosując
wpierw prawo kontrapozycji do pierwszego z nich, a następnie regułę
odrywania, można wyprowadzić wniosek
¬
(H
∧
p)
równoważny, na mocy praw de
Morgana,
¬
H
∨
¬
p
. Innymi słowy, jeżeli wynik eksperymentu okaże się różny od
przewidywanego q
, nie będziemy mogli wnioskować, że hipoteza H jest
fałszywa, a jedynie, że H jest fałszywa lub p jest fałszywe. Wynik
eksperymentu nie jest więc rozstrzygający: nawet gdy przewidywanie się nie
spełni, to jeżeli p jest fałszywe, H może być prawdziwa.
Zaraz, zaraz. Zdanie p
opisuje przecież warunki początkowe eksperymentu.
Gdy idzie o eksperyment wykonany osobiście, nie ma żadnych wątpliwości,
że woda w garnku wrzała, a marchewka przebywała w niej odpowiednio
długo. Zdanie p jest po prostu stwierdzone. Toteż gdy przewidywanie q się
nie spełni, marchewka okaże się twarda, hipoteza H zostanie sfalsyfikowana.
Zdanie p
jest stwierdzone? A na jakiej podstawie? Skąd wiemy np. że w
garnku jest woda? Z obserwacji. Tak się przynajmniej wydaje. Jeżeli
poznanie naukowe jest poznaniem empirycznym, musi być ostatecznie
ugruntowanie w obserwacji. Albo tak się przynajmniej wydaje. Tak też
24
Główne dzieła: History of the Inductive Science, from the Earliest to the Present Time (1837), The
Philosophy of the Inductive Sciences, Founded upon their History (1840).
Adam Grobler, O metodzie i strukturze nauki 48
przyjmowało Koło Wiedeńskie, pod wpływem całej tradycji empiryzmu
i pozytywizmu, zwłaszcza Davida Hume’a (1711-1776) i Ernsta Macha
(1838-1916), a bezpośrednio pod wpływem Traktatu Ludwiga Wittgensteina.
Znajduje się tam myśl, że wartość logiczną (tj. prawda lub fałsz) zdań
złożonych można rozpoznać na podstawie ich budowy i wartości logicznej
zdań elementarnych, z których są zbudowane. Natomiast wartość logiczna
zdań elementarnych nie zależy od żadnych innych zdań i można ją
rozpoznać wyłącznie na podstawie doświadczenia.
W podobnym duchu Koło Wiedeńskie rozwiązywało problem powstały w
wyniku jego sformułowania kryterium demarkacji. Idzie o to, że jeżeli do
nauki wolno zaliczyć jedynie zdania weryfikowalne czy potwierdzalne w
doświadczeniu, to powstaje pytanie, czy zdania w których jest mowa np. o
emisji wiązki elektronów, są naukowe. Czy ktoś kiedyś widział, słyszał lub
wąchał elektron? A może ktoś go dotykał lub napawał się jego wykwintnym
smakiem? Elektrony z pewnością nie są dostępne naszemu doświadczeniu,
przynajmniej w tradycyjnym znaczeniu tego słowa. Jeżeli ktoś wyobraża
sobie elektron jako np. małą, gładką, twardą, okrągłą kulkę bez smaku i
zapachu, albo jakoś inaczej, jego wyobrażenie ma wartość poznawczą równą
wizerunkom brodatych krasnoludków. Ich też ani widu, ani słychu. Gdyby
jednak zdania o elektronach, razem ze zdaniami o krasnoludkach, wykluczyć
z nauki, trzeba byłoby zrezygnować z rozbijania jąder atomów i innych
podobnych rozrywek.
Trudność tę próbowano rozwiązać, wzorem Wittgensteina, sprowadzając
weryfikację lub potwierdzenie wszystkich kłopotliwych zdań nauki do
weryfikacji lub potwierdzenia zdań szczegółowych bezpośrednio
weryfikowalnych lub potwierdzalnych w obserwacji, zdań w rodzaju “tam-i-
wtedy zdarzyło się to-a-to”. Zdania takie nazwano zdaniami bazowymi
zbiór
bazą empiryczną. Ażeby zdania bazowe nadawały się do
przeznaczonego im użytku, nie mogą zawierać terminów w rodzaju
25 W ujęciu Ottona Neuratha rolę zdań bazowych pełniły tzw. zdania protokolarne,
będące opisami doświadczenia. W sprawie szczegółów zob. Koterski [2000], [2002].
Adam Grobler, O metodzie i strukturze nauki 49
“elektron”. Mogą w nich występować jedynie terminy odnoszące się do
bezpośrednio obserwowalnych rzeczy i ich bezpośrednio obserwowalnych
własności, czyli tzw. terminy obserwacyjne, oraz terminy matematyczno-
logiczne. Pozostałe terminy, jak “elektron”, “energia kinetyczna”,
“wartościowość pierwiastka” itd. nazwano terminami teoretycznymi, a
zdania, w których one występują, zdaniami teoretycznymi.
Po przeprowadzeniu rozróżnienia na terminy (i zdania) obserwacyjne i
teoretyczne oraz wyodrębnieniu zdań bazowych pozostała do zrobienia
drobnostka: objaśnienie w jaki sposób weryfikacja lub potwierdzenie zdań
teoretycznych sprowadza się, czyli redukuje, do weryfikacji lub
potwierdzenia zdań obserwacyjnych i, wreszcie, zdań bazowych. Niestety,
ponad trzydzieści lat wysiłków, porzuconych ostatecznie na początku lat
sześćdziesiątych, nie dały zadowalających rezultatów. O trudnościach ujęcia
potwierdzenia hipotez teoretycznych przez świadectwo opisane za pomocą
zdań obserwacyjnych wspominałem już w I.2.4. Natomiast niepowodzenia
samego programu redukcji potwierdzenia omówię w II.1-II.4.
Problemem jest jednak nie tylko sprowadzenie potwierdzenia zdań
teoretycznych do potwierdzenia zdań bazowych, ale także samo
wyodrębnienie zdań bazowych. Miały one pełnić rolę niewzruszonego
fundamentu wiedzy naukowej, możliwą do spełnienia dzięki temu, że są
ostatecznie rozstrzygalne za pomocą bezpośredniej obserwacji. Wiara w
istnienie takich zdań jest charakterystyczna dla stanowiska zwanego
fundamentalizmem epistemologicznym
, wedle którego jakaś część wiedzy musi
być niewzruszona, aby móc być podstawą pozostałej wiedzy. Wiedza, jak się
wydaje, musi mieć jakieś podstawy, inaczej nie jest wiedzą, lecz co najwyżej
mniemaniem. Tymczasem, pisząc o paradoksie sylogizmu
probabilistycznego wspominałem o tym, że żadne świadectwo nie jest
bezpośrednie i dlatego nie może być pewne. Toteż nie możemy być pewni,
26
Niektórzy autorzy i tłumacze wolą, dla uniknięcia skojarzenia z fundamentalizmem
religijnym, używać terminu “fundacjonalizm”. Jest on bliższy brzmieniowo angielskiego
foundationalism
, ten wszakże pochodzi od foundations czyli fundamentów lub podstaw, a nie funds czyli
funduszów lub fundacji.
Adam Grobler, O metodzie i strukturze nauki 50
że w garnku na kuchence jest woda. Mamy oczywiście powody, aby tak
sądzić: wygląda jak woda. Jednak choćbyśmy nie wiem jak dokładnie ją
oglądali, wąchali, kosztowali i chlapali się w niej, nie będziemy mogli nigdy
wykluczyć, że w naczyniu jest jakaś inna ciecz, która – jak dotąd – z
powodzeniem udaje wodę (jak zresztą często to czyni ciecz płynąca z
naszych kranów).
Obecnie zdecydowana większość filozofów uważa fundamentalizm za
złudzenie. Nie twierdzę, że Koło Wiedeńskie całkowicie temu złudzeniu
ulegało. Neurath czy Carnap dostrzegali wyraźnie, że cokolwiek
przyjęlibyśmy za dobrze sprawdzone zdania bazowe, zawsze pozostaje cień
wątpliwości. Nie przywiązywali jednak do tego większej wagi, podobnie jak
na co dzień nie żywimy poważnych podejrzeń, że coś, co wygląda na wodę
jest w gruncie rzeczy śmiertelną trucizną. Carnap przypuszczalnie sądził, że
w teorii poznania naukowego wolno posłużyć się idealizacją i założyć, że
istnieją zdania zupełnie pewne, choć w istocie są one co najwyżej prawie
pewne – podobnie jak w samej nauce stosuje się idealizacje, gdy mówi się
o zderzeniach idealnie sprężystych i ciałach doskonale czarnych, choć w
każdym zderzeniu część energii idzie na straty i każde ciało odbija część
promieniowania. Zawsze jednak powstaje pytanie, czy idealizacyjne
zniekształcenie rzeczywistości jest wystarczająco usprawiedliwione jego
użytecznością poznawczą
. W przypadku indukcjonizmu, ze
względu na fiasko
projektu redukcji potwierdzenia zdań teoretycznych do potwierdzenia zdań
obserwacyjnych, można śmiało powiedzieć, że idealizacyjne pojęcie zdania
bazowego nie spełnia swojego zadania.
W każdym razie dziś niemal powszechnie panuje fallibilizm, czyli pogląd,
że każdy element naszej wiedzy jest podważalny. Falsyfikacjonizm jest
oczywiście odmianą fallibilizmu: jeżeli do nauki należą tylko zdania
falsyfikowalne, to żadne zdanie naukowe nie może być niepodważalne. W
szczególności, jeżeli zdanie opisujące warunki początkowe eksperymentu
ma być zdaniem naukowym – a trudno, żeby nie było, gdy mowa o
27 D
okładniej o idealizacjach będzie mowa w II.7.
Adam Grobler, O metodzie i strukturze nauki 51
eksperymentach naukowych – to musi ono być falsyfikowalne. Również
zdanie o tym, że w garnku na kuchence jest woda, musi być falsyfikowalne,
a więc niepewne. Dlatego stąd, że wynik eksperymentu jest niezgodny z
przewidywaniem, nie wynika logicznie wniosek, że badana hipoteza jest
fałszywa. Tym bardziej, że – na mocy tego samego rozumowania, co w
przypadku zdania opisującego warunki początkowe – zdanie opisujące wynik
eksperymentu też musi być falsyfikowalne czyli niepewne. Tak czy owak,
aby można było na serio uznać hipotezę za sfalsyfikowaną, trzeba jakoś
przyjąć zdania opisujące warunki początkowe i wynik falsyfikującego
eksperymentu. Przyjąć je tak, jak gdyby były zdaniami bazowymi. Pytanie,
na jakiej zasadzie można je przyjąć. Jeżeli nie znajdziemy na nie odpowiedzi,
cała koncepcja falsyfikacjonizmu natychmiast bankrutuje. W ten sposób
problem zdań bazowych, o których już wiadomo, że ich nie ma, powstaje na
nowo.
Popper w [1934/1959] postawił ten problem w formie trylematu Friesa:
albo dogmatyzm, albo psychologizm, albo regres w nieskończoność. Tzn.
albo trzeba przyjąć zdania bazowe na zasadzie dogmatycznej czyli
arbitralnej decyzji, albo na zasadzie naszej psychologicznej skłonności tj.
wiary w to, że posiadamy umysłową władzę rozstrzygania zdań bazowych,
albo wreszcie trzeba dopuścić regres w nieskończoność podejmując próby
falsyfikacji zdań bazowych za pomocą jakichś innych zdań bazowych, a
tych za pomocą jakichś jeszcze innych zdań bazowych itd. Pierwszy człon
trylematu, dogmatyzm, trzeba odrzucić jako niezgodny z zasadą
krytycyzmu. Drugi człon, psychologizm, Popper odrzucił razem rozróżnieniem
obserwacyjne-teoretyczne. Przeciw niemu przemawia teza o uteoretyzowaniu
obserwacji (theory-impregnation thesis
). Według niej nie sposób nic
zaobserwować bez wcześniejszych oczekiwań ukształtowanych przez
posiadane przez nas teorie. Np. zaobserwować, że w garnku jest woda,
znaczy oczekiwać, że zawartością garnka (po ostudzeniu) można byłoby
ugasić pragnienie lub podlać kwiatki, że gdy część jego zawartości
odparuje, można będzie ją uzupełnić cieczą płynącą z kranu, zaczerpniętą
Adam Grobler, O metodzie i strukturze nauki 52
ze studni lub rzeczki, albo nałapaną w czasie deszczu itd. W tym
przypadku są to oczekiwania oparte raczej na wiedzy potocznej niż
nauk
owej, jednak w pełni zasługują na to, by nazwać je teoretycznymi.
Opierają się bowiem na nieuświadomionych wprawdzie, ale teoretycznych
założeniach, że wrzenie nie zmienia wody w co innego, że kran w kuchni
jest podłączony do sieci wodociągowej, która tłoczy pod ciśnieniem wodę z
jakiegoś zbiornika naturalnego, a nie np. pepsi-colę ze sztucznego zbiornika
baru McDonalda itp. Be
z takich założeń zamiast obserwacji, że w garnku jest
woda, mielibyśmy po prostu nie nazwany chaos wrażeń.
Kogo przykład z wodą nie przekonuje, przekona może opowieść, którą
gdzieś wyczytałem we wczesnej młodości, gdy jeszcze nie miałem pojęcia,
że zostanę filozofem. Narrator siedział przed oknem, za którym rozpościerał
się widok na las. Nieoczekiwanie na ścieżce w lesie pojawił się ohydny
potwór, którego odrażający opis pominę. Po przepełnionej grozą chwili,
potwór zboczył ze ścieżki w gęstwinę. Tymczasem drzewa, zamiast walić
się z łoskotem pod naporem potężnego cielska, stały sobie, jak gdyby
nigdy nic. Wtedy narrator zmienił zdanie. Doszedł do wniosku, że rzekomy
potwór jest muchą spacerującą po nieskazitelnie czystej szybie okna.
Wynika stąd wyraźnie, że treść obserwacji zależy od licznych, mniej lub
bardziej teoretycznie wyrafinowanych założeń: na temat związku między
wyglądem, odległością a rozmiarami obserwowanego obiektu,
wytrzymałości korzeni drzew i siły naporu żywych organizmów, stopnia
przejrzystości szyb okiennych itp.
Bardziej “naukowym” przykładem uteoretyzowania obserwacji może
być widok zdjęcia rentgenowskiego, nader wymowny dla lekarza, choć dla
niewyszkolonego pacjenta przedstawia jedynie niezrozumiały układ plam.
W każdym razie, zarówno w przypadku wiedzy potocznej, jak i naukowej – granica
między nimi zresztą jest płynna i przesuwalna – nie ma ani jednego zdania,
które można byłoby przyjąć na podstawie samej obserwacji, aczkolwiek nie
byłoby nauki bez związku z obserwacją. Jednak to nie obserwacja poprzedza
Adam Grobler, O metodzie i strukturze nauki 53
teorię, lecz przeciwnie, teoria poprzedza obserwację
Pozostaje trzeci człon trylematu Friesa, regres w nieskończoność. Popper
uznał go za niegroźny, ponieważ hipotezy naukowe nie wymagają dowodów w
mocnym sensie tego słowa, tzn. w takim sensie, w jakim stosuje wyraz
“dowód” w matematyce. Nie wymagają zaś dlatego, że dowód żadnej
hipotezy nie jest
możliwy. Nie sposób zaś wymagać niemożliwości. Wszelkie
hipotez
y są tymczasowe. Podobnie zdania bazowe są też tymczasowe i w
razie potrzeby mogą zostać odwołane.
Rozwiązanie Poppera odrzuca wszystkie trzy składniki trylematu, ale
zachowuje coś z każdego z nich. Aby zatrzymać regres w nieskończoność,
przy
jmuje się jakąś tymczasową bazę empiryczną, niejako na zasadzie
konwencji, “wyrokiem nauk
owego jury”. Konwencjonalne decyzje mają w sobie
coś z dogmatu. Zarazem jednak są podejmowane w związku z obserwacją –
element “psychologizmu” – choć nie na jej wyłącznej podstawie. Wreszcie,
są tymczasowe, bo nie można ich przyjąć na stałe bez naruszenia zasady
krytycyzmu. Można najwyżej – i z konieczności trzeba – tymczasowo
zawiesić ich krytykę, dopóki same służą jako narzędzia krytyki hipotez.
Krytykę jednak zawsze można odwiesić, wykonując krok w stronę
potencjalnego regresu w nieskończoność. Ten zaś można zatrzymać,
podejmując kolejną konwencjonalną decyzję w sprawie doboru zdań
bazowych.
W takim ujęciu zagadnienia wyraźnie daje się rozpoznać wpływ ojca
fallibilizmu, Charlesa Sandersa Peirce’a (1839-1914). W The Fixation of Belief
(1877) przedstawił on koncepcję z grubsza następującą. Można wysunąć
wątpliwość pod adresem dowolnego mniemania
, co nie znaczy, że
28
Ta myśl przekorna wobec tradycyjnego czy radykalnego empiryzmu jest kantowskiego
rodowodu. Z tą różnicą, że miejsce organizujących doświadczenie apriorycznych, a więc
nieusuwalnych form zmysłowości i kategorii czystego intelektu zajmują teorie, które w
miarę postępów poznania się zmieniają. O hipotezach naukowych Popper mówił, że są
genetycznie a priori, tzn. nie pochodzą z doświadczenia – nie są uogólnieniami obserwacji,
tylko
twórczymi pomysłami uczonych. Są natomiast metodologicznie empiryczne, tzn.
podlegają konfrontacji z doświadczeniem i mogą w wyniku tej konfrontacji zostać odrzucone.
29 Większość polskich autorów i tłumaczy przekłada belief na “przekonanie”. Osobiście
wolę “mniemanie”, które wprawdzie nie jest dokładnym odpowiednikiem belief, ale ma
dwie zalety w porównaniu z “przekonaniem”, które jest jeszcze mniej dokładnym
Adam Grobler, O metodzie i strukturze nauki 54
zawsze trzeba. Musimy bowiem przyjąć jakieś mniemania, bo bez oczekiwań
opartych na mniemaniach nie ma postrzeżenia. Postrzeżenie niekiedy
sprawia nam niespodziankę (surprise), która wywołuje wątpienie.
Umotywowane niespodzianką wątpienie uruchamia dociekanie (inquiry),
któr
e prowadzi do rewizji mniemań. Ustala się jakiś nowy układ mniemań,
aż do następnej niespodzianki, która wywołuje wątpienie, które uruchamia
dociekanie, które prowadzi do kolejnej rewizji.
Powstaje jednak pytanie, przeciw którym mniemaniom kierować ostrze
wątpienia rozbudzonego przez niespodziankę. Odpowiedź Peirce’a
odłożymy na później, a na razie zajmiemy się falsyfikacjonistyczną wersją
tego problemu. Tutaj pytanie brzmi: pod jakim warunkiem można uchylić
konwencjonal
ny immunitet zdań bazowych? Ta nader zawiła kwestia
przedstawia się nieco klarowniej w kontekście koncepcji wiedzy zastanej
(background knowledge
), sformułowanej przez Poppera dopiero w [1963]
Wiedz
a zastana składa się z wiedzy potocznej oraz tych teorii naukowych, którymi
są uteoretyzowane zdania aktualnie uznawane za zdania bazowe. Innymi
słowy, konwencjonalna decyzja (tymczasowej) akceptacji pewnych zdań
bazowych skutkuje tymczasowym wyłączeniem spod krytyki pewnych zdań
teoretycznych, które obejmuje się wspólnym mianem wiedzy zastanej. Ten
sam wynik eksperymentu może falsyfikować albo nie falsyfikować
sprawdzanej hipotezy, w zależności od wiedzy zastanej.
Przeprowadziłem kiedyś eksperyment polegający na próbie zjedzenia
odpowiednikiem: podobnie jak belief nie kojarzy się z osobistym zaangażowaniem
towarzyszącym conviction lub persuasion oraz podobnie jak belief lub greckie doxa stosuje się jako
przeciwstawienie do “wiedzy” (odpowiednio: ang. knowledge, gr. episteme).
30 Pojęcie background knowledge było rozmaicie tłumaczone przez polskich autorów i
tłumaczy. Adam Chmielewski w przekładzie Wiedzy obiektywnej stosuje zdecydowanie
nietrafny zwrot: “ogólne tło wiedzy”. Background knowlege jest pewną odmianą knowledge czyli
wiedzy, podczas gdy tło wiedzy w ogóle wiedzą nie jest. Lepszym
odpowied
nikiem byłaby
już “wiedza tła” lub “wiedza zaplecza”, jak tłumaczyli niektórzy. Stosunkowo zgrabnym
przekładem jestwynaleziona chyba przez Stefana Amsterdamskiego “wiedza
towarzysząca”. Moja propozycja, “wiedza zastana”, nawiązuje do tego, że background
znaczy również “wykształcenie”, co jest o tyle znamienne, w kontekście koncepcji
Poppera chodzi o wiedzę, z którą przystępujemy do sprawdzania nowo wysuwanych hipotez.
Z drugiej strony, niekiedy na użytek sprawdzenia hipotezy przyjmuje się założenia równie nowe
i nieugruntowane w t
radycji jak ona. Określenie ich mianem “wiedzy towarzyszącej” wydaje się
bardziej odpowiednie. Dlatego w swoich własnych analizach [2000, III.1, IV.2] odróżniam
wiedz
ę zastaną od wiedzy towarzyszącej
jako dwa składniki background knowledge.
Adam Grobler, O metodzie i strukturze nauki 55
zupy podanej w pewnym ośrodku wczasowym. Stwierdziłem, że marchewka
w tej zupie jest bardzo twarda. Czy ten rezultat falsyfikuje hipotezę o
konsystencji gotowanej marchewki? Nie byłem skłonny tak sądzić. Nasuwało
się raczej przypuszczenie, że kucharz nie gotował jej dostatecznie długo. Ten
domysł wszakże nie wydawał się trafny, ponieważ marchewka nie była nie
dość miękka czy twardawa, jak bywają marchewki niedogotowane. Była
może nawet twardsza od marchewki surowej. Toteż w świetle wiedzy
zastanej trzeba byłoby jednak uznać naszą hipotezę za sfalsyfikowaną. Jakiś
czas później gotowałem barszcz i, z pośpiechu czy niedbalstwa, wlałem do
wody zakwas natychmiast po wrzuceniu marchewki. Mimo długiego
gotowania, marchewka okazała się twarda. Wtedy przypomniałem sobie, że
poprzednią eksperymentalną zupą była ogórkowa. To nasunęło mi na myśl
hipotezę, że gotowanie marchewki w zakwaszonej wodzie ją utwardza, a nie
zmiękcza. Sprzeniewierzając się zasadzie krytycyzmu nie podjąłem prób jej
falsyfikacji: szkoda mi było inwestować środki finansowe w dalsze
eksperymenty. Zamiast tego włączyłem ją do wiedzy zastanej i odtąd,
ilekroć gotuję zupę – choć robię to nieczęsto – staram się pamiętać, by nie
dodawać do niej nic kwaśnego, dopóki marchewka nie zmięknie. Hipoteza
o tym, że gotowana marchewka jest miękka, dzięki rewizji wiedzy zastanej,
wytrzymała próbę wczasową.
Koncepcja wiedzy zastanej ukazuje nam w nowym świetle pewne epizody
historii nauki, opisywane w literaturze popularnej jako przykłady zmagań
geniuszu z zacofaniem. Kopernikańska hipoteza ruchu dobowego Ziemi była
sfalsyfikowana na gruncie ówczesnej wiedzy zastanej. Eksperyment
falsyfikujący polegał na upuszczeniu kamienia ze szczytu wieży. Zgodnie z
fizyką Arystotelesa, kamień powinien spadać ruchem naturalnym, tj. w dół.
Gdyby Ziemia obracała się wokół osi, w czasie lotu kamienia wieża
odsunęłaby się od toru kamienia i kamień spadłby nie u jej stóp, lecz nieco
dalej. To nie jest żart, ani błąd. To jest poważne rozumowanie naukowe,
które można było zakwestionować dopiero po wykluczeniu fizyki
Arystotelesa z wiedzy zastanej i zastąpieniu jej fizyką Newtona. Podobnie jak
Adam Grobler, O metodzie i strukturze nauki 56
potwierdzenie, falsyfikacja hipotezy również nie jest konkluzywna: zależy od
wiedzy zastanej.
Wobec powyższego, ilekroć jakaś hipoteza H zostanie sfalsyfikowana na gruncie
pewnej wiedzy zastanej W
, powstaje wybór: odrzucić hipotezę H jako
sfalsyfikowaną, podtrzymując wiedzę zastaną W albo zrewidować wiedzę
zastaną zastępując pewnej jej składniki innymi, co pozwoli utrzymać
hipotezę H. Powstaje pytanie, czym się należy kierować w sytuacji takiego
wyboru. Względy ekonomiczne, które zdecydowały o losie hipotezy na temat
gotowanej marchewki, miewają ogromny wpływ na naukę, ale należą one do
tzw. zewnętrznych czynników rozwoju nauki, obojętnych dla
metodologicznej oceny wyboru hipotez. Zagadnienie warunków rewizji
wiedzy zastanej jest w gruncie rzeczy odmianą starszego od niego problemu
Duhema, który wypada omówić zanim zajmiemy się jego
falsyfikacjonistyczną wersją.
I.3.3. Problem rewizji wiedzy zastanej jako wersja problemu Duhema
Pierre Duhem w [1906] zauważył, że hipotezy nigdy nie są sprawdzane w
pojedynkę. Jeżeli bowiem wynik eksperymentu będzie niezgodny z
przewidywaniem, to nie wiadomo, czy odpow
iedzialność za to należy złożyć na
aktualnie sprawdzaną hipotezę, czy też na którąś z hipotez założonych w
samym projekcie eksperymentu. W każdy eksperyment są bowiem uwikłane liczne
hipotezy, w szczególn
ości hipotezy na temat działania przyrządów pomiarowych.
Najprostszy przy
rząd, np. termometr, jest ucieleśnieniem zespołu mnóstwa
hipotez
: teorii rozszerzalności cieplnej, współczynnika rozszerzalności rtęci,
szkła i materiału, z którego zrobiona jest podziałka termometru itd. Toteż
jeżeli pomiar temperatury w jakimś eksperymencie sprawdzającym jakąś
hipotezę H da nieoczekiwany wynik, to przyczyną tego nie musi być
fałszywość H. Może nią być którakolwiek z hipotez zaklętych w konstrukcji
termometru. Nawet w przypadku obserwacji “gołym okiem”, bez
Adam Grobler, O metodzie i strukturze nauki 57
przyrządów, występują hipotezy uboczne, np. hipotezy na temat działania
naszych organów zmysłowych w zależności od warunków otoczenia.
Eksperyment zatem pozwala nam w najlepszym razie stwierdzić, że fałszywa
jest koniunkcja aktualnie rozpatrywanej hipotezy i pewnych hipotez ubocznych:
H
∧
H
1
∧
…
∧
H
n
,
a stąd wynika logicznie tylko tyle, że fałszywa jest co najmniej jedna z hipotez tej
koniunkcji, nie wiadomo która (ani ile z nich).
Rozwiązanie zaproponowane przez Duhema przedstawia się
następująco. Zadanie uczonego w przypadku stwierdzenia niezgodności
wyniku eksperymentu z przewidywaniem polega na tym, aby co najmniej
jedną z wchodzących w rachubę hipotez zastąpić inną tak, aby cały system
hipotez uzgodnić z doświadczeniem. Można to zrobić na ogół na wiele
sposobów. Ponieważ doświadczenie nie wyróżnia żadnego z nich, wybór
między nimi jest kwestią konwencji. Najdogodniej zaś jest wybrać system
najprostszy z możliwych. Inaczej: teorie upadają nie dlatego, że okazują się
fałszywe. Zamiast tego teorie ulegają licznym modyfikacjom w celu
uzgodnienia ich z doświadczeniem. Obrastają w najrozmaitsze hipotezy
pomocnicze, wyjaśniające niezgodne z przewidywaniami wyniki
e
ksperymentów, co z upływem czasu skutkuje wzrostem komplikacji całego
systemu teoretycznego. System upada pod naporem komplikacji, gdy pojawi
się teoria alternatywna, jednakowo zgodna z doświadczeniem a przy tym
prostsza.
Podobne stanowisko zajął Willard Van Orman Quine w [1951].
Wypowiedział on słynne zdanie: “Nauka jako całość stoi przed trybunałem
doświadczenia”. Porównał on naukę do pola o kształcie koła, którego
wnętrze zajmują tworzące spójny system hipotezy, a z zewnątrz działa na
nie presja doświadczenia. Pod jej wpływem niektóre hipotezy trzeba
wymienić na inne, ale tak, by zachować spójność systemu. Hipotezy bliżej
brzegu są bardziej niż inne narażone na wymianę a zdania położone
Adam Grobler, O metodzie i strukturze nauki 58
centralnie na pozór są od doświadczenia niezależne. Ale tylko na pozór,
ponieważ decyzja o rozmieszczeniu hipotez w obrębie koła ma charakter
konwencjonalny. Mamy skłonność umieszczania zdań tym bliżej brzegu, im
mniej rozległych rewizji całego systemu wymagałaby ich ewentualna
wymiana. Dlatego w centrum znajdują się prawa logiki i twierdzenia matematyki.
Pogląd, wedle którego system teorii naukowych można na różne,
równorzędne pod względem poznawczym sposoby uzgadniać z
doświadczeniem, nazywa się tezą Duhema-Quine’a. Niektórzy wyciągają z
niej wniosek, że gdyby się uprzeć przy jakiejś ulubionej hipotezie, można
byłoby, kosztem innych hipotez, utrzymywać ją bez względu na
doświadczenie. Jednak ani Duhem, ani Quine nie posuwali się aż tak daleko.
Natomiast obaj zdecydowanie odrzucali baconowską ideę eksperymentu
krzyżowego.
Stanowisko falsyfikacjonizmu łączy z holizmem Quine’a – bo tak nazywa
się pogląd, wedle którego świadectwo empiryczne odnosi się nie do
pojedynczych zdań, lecz do nauki w całości
fallibilizm. Natomiast
postawienie nauki w całości naprzeciw doświadczenia jest, z punktu
widzenia falsyfikacjonizmu, niedorzeczne. Doświadczenie musi bowiem być
zorganizowane za pomocą jakichś teorii
. Doświadczenie polega zatem
zawsze na konfrontacji części nauki z inną jej częścią – wiedzą zastaną. Pod
tym względem falsyfikacjonizm jest bliższy konwencjonalizmowi Duhema,
ponieważ uznaje, że eksperyment tylko wtedy może podważyć hipotezę, gdy
wcześniej przyjęte są – choćby tylko tymczasowo – jakieś inne hipotezy. Z tą
różnicą, że konwencjonalistyczne rozwiązanie problemu Duhema jest dla
falsyfikacjonizmu niewystarczające. Falsyfikacjonizmowi obca jest myśl, że
różne treściowo systemy teoretyczne mogą być poznawczo równorzędne.
Sprzeciwiając się konwencjonalizmowi, Popper wiele miejsca poświęcił
kwestii preferencji hipotez. W [1963] wymienia trzy warunki przyrostu wiedzy,
które są zarazem kryteriami wyboru spośród alternatywnych hipotez.
31 Od greckiego holos
= całość.
32 Por. przypis 28.
Adam Grobler, O metodzie i strukturze nauki 59
Wstępny, poniekąd zerowy warunek głosi, że hipoteza, ażeby w ogóle mogła
być poważnie rozpatrywana, musi wyjaśniać wszystkie zjawiska wyjaśnione
przez teorie wcześniejsze i na dodatek wyjaśniać jakieś zjawiska do tej pory
niewyjaśnione. Pytanie o to, co to znaczy, że hipoteza wyjaśnia jakieś
zjawisko, odłożymy na później. Chwilowo zadowolimy się niejasnymi
intuicjami na temat wyjaśniania.
Pierwszy warunek przyrostu wiedzy nazywa się warunkiem treści
empirycznej. Treścią empiryczną hipotezy nazywa się zbiór jej
potencjalnych falsyfikatorów. Hipoteza jest tym lepsza im ma bogatszą treść
empiryczną. Przeciwieństwem hipotezy o bogatej treści empirycznej jest
hipoteza ad hoc
, tj. taka hipoteza, która jest zaprojektowana tak, aby
wyjaśniała pewne zagadkowe zjawisko, ale poza tym nie ma żadnego
potencjalnego falsyfikatora. Nie ma zatem żadnego sprawdzianu
niezależnego od zjawiska, do wyjaśnienia którego ją skonstruowano.
Klasycznym przykładem hipotez ad hoc są kolejne poprawki do systemu
Ptolemeusza. Główną jego ideą było, że planety poruszają się ruchem
jednostajnym po okręgach, bo tylko taki ruch jest doskonały. Ponieważ to
założenie nie zgadzało się z obserwacją, Ptolemeusz przyjął, że ruch planet
jest złożeniem ruchów okrężnych: planety miały poruszać się po tzw.
epicyklach, tj. okręgach, których środki poruszały się po okręgu zwanym
deferentem. Gdy i to nie zgadzało się z obserwacją, wprowadzano kolejne
poprawki, m.in. epicykle, których środki poruszały się po epicyklach.
Hipoteza ad hoc jest po prostu wynikiem naciągania teorii do doświadczenia
za pomocą środków, które pozwalają teorię uzgodnić z czymkolwiek, co się
zdarzy. Z warunku treści empirycznej wynika zakaz wysuwania hipotez ad
hoc.
Drugim warunkiem jest warunek prostoty
. Według konwencjonalizmu prostota
jest dodatkowym, pragmatycznym lub estetycznym kryterium wyboru
spośród hipotez poznawczo równorzędnych. Natomiast według
falsyfikacjonizmu prostota jest zaletą poznawczą, ponieważ prostsze
hipotezy są bardziej narażone na falsyfikację, czyli śmielsze, od hipotez
Adam Grobler, O metodzie i strukturze nauki 60
skomplikowanych. Np. hipoteza okrężnego ruchu planet jest prostsza od
hipotezy orbit eliptycznych (bo równanie okręgu jest prostsze od równania
elipsy) i do jej sfalsyfikowania wystarczy wyznaczyć cztery punkty orbity
(ponieważ przez każde trzy punkty niewspółliniowe przechodzi dokładnie
jeden okrąg). Do sfalsyfikowania hipotezy orbity eliptycznej trzeba
wyznaczyć pięć punktów. Samo pojęcie prostoty jest niesłychanie
wieloznaczne i nie ma powszechnie akceptowanej jej definicji. Popper za
oznakę prostoty uważał również uwzględnienie przez teorię związku
pomijanego przez teorie wcześniejsze. W takim rozumieniu ogólna teoria
względności jest prostsza od fizyki Newtona, choć posługuje się o wiele
bardziej skomplikowanym aparatem matematycznym. Pierwsza stosuje
rachunek tensorowy, podczas gdy druga, w najbardziej wyrafinowanym,
późniejszym od Newtona ujęciu, zadowala się równaniami różniczkowymi
cząstkowymi rzędu drugiego. Z punktu widzenia fizyki klasycznej związek
między masą bezwładną a masą grawitacyjną, tj. masą, która występuje
w drugiej zasadzie dynamiki (F = ma) a masą, która występuje w prawie
powszechnego ciążenia (F =
γ
m
1
m
2
/r
2
), jest najzupełniej przygodny, polega
na czystym zbiegu okoliczności. Natomiast z punktu widzenia teorii
wzgl
ędności obie masy, bezwładna i grawitacyjna, pochodzą z ruchu, tj.
masa grawitacyjna redukuje się do masy bezwładnej. Tak czy owak, im
prostsza hipoteza, tym jest bardziej narażona na falsyfikację czyli ma
bogatszą treść empiryczną. Toteż warunek prostoty w gruncie rzeczy jest
uszczegółowieniem – dodajmy, niejasnym – warunku treści.
Pierwsze dwa warunki mają charakter logiczny. Tzn. to, czy hipoteza je
spełnia, nie zależy od wyników eksperymentów. Dlatego niezbędny jest
trzeci warunek, warunek względnego sukcesu empirycznego. Mówi on, że
hipoteza nie tylko musi mieć bogatszą treść empiryczną od hipotezy
konkurencyjnej, ale także, że przynajmniej część nadwyżki jej treści
empirycznej musi być potwierdzona. “Potwierdzenie” znaczy w tym
przypadku niepowodzenie próby falsyfikacji, sfalsyfikowanie potencjalnego
falsyfikatora. Dla odróżnienia od indukcjonistycznego czy probabilistycznego
Adam Grobler, O metodzie i strukturze nauki 61
pojęcia potwierdzenia (confirmation), Popper używa innego wyrazu,
corroboration.
Potwierdzenie-koroboracja jest stopniowalne,
podobnie jak potwierdzenie-
konfirmacja. Popper proponuje różne miary liczbowe stopnia potwierdzenia,
definiując je za pomocą pojęcia prawdopodobieństwa. Dlatego niektórzy
komentatorzy uważają Poppera za “indukcjonistę w przebraniu” a jego
falsyfikacjonizm za czystą retorykę. Jest to jednak nieporozumienie. Popper
bowiem w żadnym razie nie wysuwa teorii koroboracji jako próbnego
rozwiązania problemu indukcji. Koroboracja jest zawsze wtórna w stosunku
do próby falsyfikacji i jej stopień stanowi jedynie pomocnicze kryterium
preferencji hipotez. W dodatku jest to kryterium o zastosowaniu
ograniczonym do pewnego korpusu wiedzy zastanej: jeżeli falsyfikacja
hipotezy nie jest konkluzywna, lecz zależy od wiedzy zastanej, to to samo
dotyczy jej koroboracji. Również treść empiryczna hipotezy – zbiór jej
potencjalnych falsyfikatorów – zależy od wiedzy zastanej. Ostatecznie więc
omówione przed chwilą kryteria przyrostu wiedzy są zrelatywizowane do
wiedzy zastanej. Nie stosują się do problemu rewizji wiedzy zastanej. Toteż
falsyfikacjonistyczna wersja problemu Duhema – kiedy uznać hipotezę za
sfalsyfikowaną przyjmując wiedzę zastaną za dobrą monetę, a kiedy
utrzymać hipotezę kosztem odpowiedniej rewizji wiedzy zastanej – pozostaje
u Poppera bez rozwiązania.
I.3.4. Próba rozwiązania: metodologia naukowych programów
badawczych
Imre Lakatos w [1970] zaproponował korektę falsyfikacjonizmu, którą
można uznać za próbę rozwiązania problemu rewizji wiedzy zastanej.
Potraktował on z należytą powagą pogląd Poppera, wedle którego zadaniem metody
naukowej nie jest uzasadnianie hipotez, a jedynie ustalanie krytycznych preferencji
. Stąd
33
Ten aspekt myśli Poppera na ogół uchodzi uwagi komentatorów będących pod
wrażeniem jego retoryki kładącej nacisk na falsyfikację. Omawiane wyżej warunki
Adam Grobler, O metodzie i strukturze nauki 62
wyprowadził wniosek, że przedmiotem oceny metodologicznej muszą być
nie pojedyncze hipotezy, lecz ich zespoły, które nazwał naukowymi programami
badawczymi. Program badawc
zy łączy wspólna problematyka oraz pewien
asortyment środków rozwiązywania problemów. Należy do nich tzw.
heurystyka negatywna i heurystyka pozytywna programu. Heurystyka
negatywna polega na wyłączeniu spod krytyki pewnych założeń naukowych,
metodologicznych a także metafizycznych, które tworzą tzw. twardy rdzeń
(hard core
) programu. Ewentualne porzucenie lub przekształcenie twardego
rdzenia jest równoznaczne z porzuceniem programu badawczego na inny.
Na zmiany natomiast jest narażony tzw. pas ochronny (protective belt) hipotez, a
strategię jego modyfikacji i rewizji wyznacza heurystyka pozytywna
programu. Przykładem może być program klasycznej mechaniki nieba,
którego twardy rdzeń obejmuje m.in. założenie, że orbity planet zależą
wyłącznie od sił ciążenia. Jego heurystyka pozytywna polegała natomiast na
kolejnym uwzględnianiu oddziaływań między planetami (a nie tylko między
planetami a Słońcem), rozmiarów planet, ich kształtów itd.
Twardy rdzeń programu najwyraźniej pełni rolę narzędzia krytyki hipotez
wysuwanych w jego ramach. Pełni on więc dokładnie tę rolę, którą Popper
przeznaczył wiedzy zastanej. Można powiedzieć, że on jest tym fragmentem
wiedzy zastanej, który jest istotny dla problematyki danego programu
badawczego. W ten sposób problem rewizji wiedzy zastanej został
przekształcony na problem rewizji twardego rdzenia program badawczego,
tj. problem kryterium porzucenia lub kontynuacji programu. Rozwiązanie
zaproponowane przez Lakatosa przedstawia się następująco.
Program badawczy nazywa się postępowy, jeżeli kolejne hipotezy H
1
, …,
H
n
wysuwane w jego ramach mają bogatszą treść empiryczną od
poprzednich oraz przynajmniej część nadwyżki treści empirycznej jest
potwierdzona. Innymi słowy, jeżeli kolejne hipotezy programu spełniają
przyrostu wiedzy jednak wyraźnie dopuszczają tymczasową akceptację hipotezy
sfalsyfikowanej, o ile ma bogatszą treść empiryczną i większe sukcesy empiryczne od
hipotez konkurencyjnych. Z tego punktu widzenia nauka przedstawia się jako nieustający
konkurs hipotez, którym bez końca stawia się kolejne zadania.
Adam Grobler, O metodzie i strukturze nauki 63
popperowskie warunki przyrosty wiedzy. Programy postępowe należy
kontynuować. Program badawczy spełniający tylko pierwszy warunek
nazywa się teoretycznie postępowym. Pozostałe programy nazywają się
programami degenerującymi się. Te należy porzucać.
Metodologia naukowych prog
ramów badawczych dostarcza więc jasnego
kryterium rewizji wiedzy zastanej: należy podtrzymywać te fragmenty
wiedzy zastanej, które służą jako twardy rdzeń postępowego programu
badawczego, rewidować zaś te, które wchodzą w skład twardego rdzenia
degenerującego się programu badawczego. Inną atrakcją tej metodologii jest
usankcjonowanie faktu, który z punktu widzenia klasycznego
falsyfikacjonizmu musiałby uchodzić za przejaw nieracjonalności uczonych,
mianowicie że uczeni często równolegle rozwijają wzajemnie wykluczające
się teorie, także teorie zawierające hipotezy jawnie sfalsyfikowane. Np.
mechanika klasyczna uchodzi za sfalsyfikowaną odkąd zaakceptowano
teorię względności. Tymczasem oparta za klasycznych założeniach
mechanika ośrodków ciągłych (hydromechanika) wciąż się rozwija czyli
stanowi postępowy program badawczy.
Nie ma w tym nic dziwnego, że w jakiejś dziedzinie nauki może istnieć
więcej niż jeden postępowy program badawczy. Należy zatem przyjąć
zasadę pluralizmu teoretycznego, która dopuszcza równoległe rozwijanie
konkurencyjnych, niezgodnych ze sobą programów badawczych, gdy
wszystkie są postępowe. Nie ma bowiem powodu, by decyzję co do wyboru
programu podejmować natychmiast. Można poczekać, aż niektóre programy
zaczną się degenerować. Więcej nawet. Nie należy przedwcześnie porzucać
programów degenerujących się. Może przecież okazać się, że program
degeneruje się nie z powodu jego wewnętrznych wad, ale z niedostatków
pomysłowości uczonych weń zaangażowanych. Trzeba więc poczekać
z decyzją, by dać szansę na pojawienie się twórczych pomysłów, które
ożywią pozornie bezwartościowe programy.
Taka koncepcja
racjonalności odroczonej (postponed rationality) wydaje się
bardziej sprzyjać twórczości naukowej od koncepcji racjonalności
Adam Grobler, O metodzie i strukturze nauki 64
natychmiastowej (instant rationality), dyskwalifikującej z miejsca hipotezy
sfalsyfikowane. Tolerancja wszakże tylko wtedy jest światła, gdy ma
zakreślone – niekoniecznie sztywne – granice. Powstaje kłopotliwe pytanie,
jak długo należy czekać. Dlatego Paul Feyerabend w dedykacji do [1974]
nazwał go “towarzyszem anarchistą”. Feyerabend miał na myśl głoszony
przez siebie anarchizm epistemologiczny, wedle którego żadnego pomysłu
naukowego ani metodologicznego nie należy nigdy odrzucać, każdy pomysł
jest dobry (anything goes)
. Lakatos oczywiście nie podzielał takiego
stanowiska, jednak przedwczesna śmierć przeszkodziła mu odpowiedzieć w
jaki sposób metodologia naukowych programów badawczych może uniknąć
skrajnych konsekwencji, uniemożliwiających pozytywne rozwiązanie
problemu rewizji wiedzy zastanej.
I.3.5. Problem bazy empirycznej po raz drugi
Jeżeli problem rewizji wiedzy zastanej nie ma zadowalającego
rozwiązania, falsyfikacjonizm jest formą konwencjonalizmu, tj. stanowiska,
wedle którego pewne decyzje – w tym przypadku decyzje w sprawie
ewentualnej rewizji wiedzy zastanej – mogą zapadać jedynie na mocy
k
onwencji, arbitralnie, bo każdy wybór jest równorzędny pod względem
wartości poznawczej
. Tymczasem Popper stanowczo sprzeciwiał się
konwencjonalizmowi Poincarégo i Duhema. Dlatego nazywając w [1934]
decyzje w sprawie akceptacji zdań bazowych konwencjonalnymi, określił
własne stanowisko “konwencjonalizmem w sprawie zdań szczegółowych w
odróżnieniu od konwencjonalizmu w sprawie zdań uniwersalnych”. Jeżeli
jednak akceptacja zdań bazowych zależy od wiedzy zastanej, która obejmuje
również zdania uniwersalne, konwencjonalizm Poppera jest albo
34 Ten trudny do prze
tłumaczenia angielski zwrot najczęściej przekładano na “wszystko
ujdzie”. Jednak uchodzą również rzeczy byle jakie, Feyerabend zaś próbował dowieść, że
rygorystyczna i sztywna metodologia eliminuje pomysły nie byle jakie. Dlatego Kazimierz
Jodkowski proponował przekład “wszystko się nada”, Stefan Wiertlewski “nic swiętego”, a
jeszcze prostsze jest chyba moje “każdy pomysł jest dobry”.
35 Aczkolwiek
możliwe są racje innego rodzaju, np. estetyczne lub pragmatyczne.
Adam Grobler, O metodzie i strukturze nauki 65
konwencjonalizmem całą gębą, albo w ogóle konwencjonalizmem nie jest
Dostrzegał to Lakatos i dlatego nazywał metodologię naukowych programów
badawczych “racjonalizacją konwencjonalizmu”. Niestety, jak widzieliśmy,
racjonalizacja konwencjonalizmu nie powiodła się. Toteż problem racjonalnej
akceptacji zdań bazowych został ponownie podjęty przez kolejnych
falsyfikacjonistów, Johna Watkinsa [1984] i Eliego Zahara [1995].
Watkins rozróżnił różne “poziomy” zdań ze względu na ich stopień
ogólności. Poziom 1 zajmują zdania bazowe, poziom 2 uogólnienia
empiryczne na temat obserwowalnych prawidłowości, poziom 3 ścisłe prawa
eksperymentalne i poziom 4 teorie. Prócz tego są jeszcze zdania poziomu 0:
raporty autopsychologiczne w rodzaju “tam i wtedy w moim polu widzenia
znajdowało się to-a-to”. Akceptacja zdań dowolnego poziomu jest racjonalna
wtedy, gdy dane zdanie jest najlepszym wyjaśnieniem racjonalnie
akceptowan
ych zdań poziomu bezpośrednio niższego. Wynika stąd, że
racjonalnie jest przyjmować takie zdania bazowe, które są najlepszym
wyjaśnieniem racjonalnie przyjętych raportów autopsychologicznych. Te zaś
są racjonalnie przyjmowane, ponieważ są niepodważalne. Nie można
bowiem się mylić co do własnych doznań. Doznania mogą wprawdzie być
złudne, mogę np. zobaczyć potwora z Loch Ness w fontannie na Rynku w
Krakowie. Dlatego raz racjonalnie jest przyjąć zdanie bazowe potwierdzające
trafność moich postrzeżeń, kiedy indziej racjonalnie jest przyjąć zdanie
bazowe, które kwalifikuje je jako złudzenie: wszystko zależy od tego, co
lepiej wyjaśnia moje doznania. Jednak fakt, że miałem takie-a-takie doznania
jest niepodważalny, toteż zdania bazowe są hipotezami wyjaśniającymi
niepodważalne fakty (psychologiczne).
W ten sposób Watkins spróbował dokonać mariażu falsyfikacjonizmu z
fundamentalizmem. Jest jednak nader wątpliwe, czy raporty
autopsychologiczne są niepodważalne. Zdarzało mi się odczuwać głód, by po
zaglądnięciu do lodówki pełnej jedzenia zdać sobie sprawę z tego, że wcale
nie mam ochoty jeść. Musiałem więc jakieś inne doznanie błędnie
36
Szerzej na ten temat pisałem w [1995].
Adam Grobler, O metodzie i strukturze nauki 66
przyjmować za uczucie głodu. Można, co prawda, na ten przykład
o
dpowiedzieć, że właściwym zdaniem poziomu 0 jest “mam jakieś niejasne
doznanie, może głodu, a może nie”, lecz nie sądzę, by coś takiego można
było uznać za raport autopsychologiczny, tj. opis moich doznań. Jeżeli to nie
jest przekonujące, mogę powołać się na Ericha Fromma, który twierdzi, że
niekiedy mylimy się co do naszych emocji. Skłonni jesteśmy np. wypierać do
nieświadomości wrogie uczucia pod adresem niektórych ludzi. W takim
przypadku nie zawsze można zdanie poziomu 0 sparafrazować w stylu
poprzedniego przykładu: “coś czuję do tego człowieka, może coś
pozytywnego, a może wrogość”. Czasami bowiem, w tego rodzaju sytuacji,
na poziomie świadomym nie żywię żadnych uczuć.
Podobny zwrot w stronę fundamentalizmu Zahar posiłkując się motywami
zaczerpniętymi z fenomenologii Husserla. U niego zdaniami poziomu 0 są
opisy noematów ukonstytuowanych przy okazji obserwacji. Tak pojmowane
zdania poziomu 0 mogą od zdań poziomu 1 przejąć rolę zdań bazowych. I
choć opisy noematów są uteoretyzowane, a zatem rewidowalne, obecność
lub nieobecność pewnych noematów można ustalić w sposób
niepowątpiewalny. Innymi słowy, Zahar zakłada, że istnieje jedno-
jednoznaczny związek między aktem obserwacji a noematem powstałym
wyniku tego aktu. Zmianie może ulec opis noematu, np. “jestem głodny” na
“doznaję bliżej niesprecyzowanego niepokoju, który błędnie wziąłęm za
uczucie głodu” albo “podziwiam tego człowieka” na “nienawidzę go”, ale nie
sam noemat. Nie wydaje mi się, żeby ta analiza była trafna.
Ukonstytuowanie noematu polega na nadaniu sensu temu, co jawi się
świadomości. Toteż w przypadku zmiany opisu noematu w sposób, który
traktuje poprzedni opis za błędny, mamy do czynienia nie tyle z różnicą
opisów tego samego noematu, co z “eksplozją” jednego i ukonstytuowaniu
na to miejsce nowego noematu. Bez zmiany ewentualnie pozostaje jedynie
to, co Husserl nazywał hyle albo materiałem hyletycznym, bezkształtne dane
będące niejako podstawą noezy czyli konstytuowania noematu. One same
jednak nieuchronnie pozostają nieuchwytne pojęciowo, ponieważ w żadnej
Adam Grobler, O metodzie i strukturze nauki 67
analizie, która ze swej natury musi mieć pojęciowy charakter, nie da się
oddzielić przedpojęciowej podstawy konstytuowania treści pojęciowych.
Sądzę zatem, że identyczność obserwacji różnie opisanych –
identyczność hyle różnych noematów – można ustalić tylko za pomocą teorii.
W mojej ulubionej piosence Piwnicy pod Baranami pewien dzielny gajowy
zobaczył sarenkę wybiegającą na drogę, wystrzelił, po czym ujrzał swą lubą
we krwi: “ta ciemna nocka winna jest, że on tak postąpił”. W efekcie gajowy
nabił swą fuzję jeszcze raz i “w samo serce sobie strzelił”. Ciemna nocka nie
jest wszakże jedyną przyczyną tragicznego finału. Przypuszczalnie nie
doszłoby do niego, gdyby gajowy nie zidentyfikował obserwacji biegnącej
sarenki z ex post ukonstytuowanym noematem biegnącej swej lubej. Uczynił to
jednak zapewne nie dzięki pozapojęciowej władzy bezpośredniej identyfikacji
materiału hyletycznego, ale raczej na podstawie teorii, która nie dopuszcza
raptownych przemian sarnich zwłok w trupy panien (por. [Grobler 2000,
II.2]). Toteż zapędy w stronę fundamentalistycznych rewizji
falsyfikacjonizmu wydają się zupełnie chybione.
I.4. Czy istnieje “logika nauki”?
I.4.1. Problem
zmiany pojęciowej
Program logiki in
dukcji i bayesianizm wychodzą z założenia, że istnieje
jakaś “logika” postępowania naukowego, która pozwala oddzielić rozumowania
prawomocne od nieprawomocnych czyli odgrywa rolę analogiczną jak logika
klasyczna w matematyce
. John Earman [1992], będąc świadomy niedostatków
bayesianizmu, broni go jako jedyną kandydaturę na stanowisko “logiki nauki”.
Logik
a ta powinna być mocniejsza od logiki dedukcyjnej, ponieważ do istoty
nauk
i, według indukcjonizmu, należy wyciąganie z danych doświadczenia
wniosków o treści wykraczającej poza te dane. W dyskusji w I.2.2-I.2.3.
37 Lub logika intuicjonistyczna w matematyce intuicj
onistycznej. Będzie o tym mowa w III.1.
Adam Grobler, O metodzie i strukturze nauki 68
ustaliliśmy jednak , że ani metody Carnapa, ani bayesiańskie, nie mogą
działać bez wcześniejszych założeń teoretycznych. Błędna jest zatem myśl,
którą można wywieść od Bacona, że nauka polega na wyciąganiu wniosków
z nieuteoretyzowanego, nieuprzedzonego doświadczenia. Bacon powiadał,
że którą do badania naukowego należy przystępować w stanie umysłu
oczyszczonym z przesądów, tzw. idoli. Popper, naśladując w tym Peirce’a i
Whewella, sugerował coś całkiem przeciwnego: nie potrafimy doświadczeniu
nadać żadnego sensu bez wiedzy zastanej, tj. przesądów organizujących
doświadczenie. Jedyne, co można zrobić, to rewidować nasze przesądy w
następstwie krytyki, tzn. zastępować jedne przesądy innymi, bardziej
wartościowymi poznawczo. Nie ma żadnej logiki indukcji, jedyną logiką jest
logika dedukcyjna. Nie służy ona wyprowadzaniu wniosków z doświadczenia,
jak w matematyce wyprowadza się twierdzenia z aksjomatów. Wedle
falsyfikacjonizmu logika pełni w nauce rolę narzędzia krytyki hipotez czyli
prowizorycznych twierdzeń, przyjmowanych jedynie na próbę. Nie ma więc
nic takiego, jak “logika nauki”. Można natomiast mówić o specyficznym dla
nauki zastosowaniu logiki.
Poszukiwaniu logiki nauki, czy choćby tylko ogólnego sposobu stosowania
logiki w nauce, prócz omówionych wyżej trudności indukcjonizmu i
falsyfikacjonizmu, stoi na przeszkodzie jeszcze jeden poważny problem.
Mianowicie, wszelki rachunek logiczny ma zastosowanie wyłącznie w obrębie
ustalonego języka. Tymczasem język nauki ciągle ulega zmianom, czasami
tak głębokim, że określa się je jako zmiany pojęciowe. Zasadniczą zmianą
pojęciową było przejście od fizyki Arystotelesa, wedle której ciała w sferze
podksiężycowej, pod nieobecność sił zewnętrznych, poruszają się ruchem
naturaln
ym w dół, do fizyki Newtona, zgodnie z którą nie ma żadnego
wyróżnionego kierunku “góra-dół” w kosmosie, ani wyróżnionych w nim
“sfer”. Kolejną radykalną zmianą było przejście od fizyki Newtona, z
absolutną przestrzenią i czasem, do fizyki relatywistycznej z
czasoprzestrzenią i względnością równoczesności. Przykładem nie tak
dalekosiężnej, ale też rewolucyjnej zmiany może być zastąpienie pojęcia
Adam Grobler, O metodzie i strukturze nauki 69
ciepła jako płynu przepływającego z ciał cieplejszych do zimniejszych
pojęciem ciepła jako formy energii. Jedne pojęcia upadały, np. flogistonu,
rzekomej substancji uwalniającej się w trakcie spalania, lub eteru, substancji
światłonośnej, inne powstawały, np. elektryczności lub poziomu
energetycznego.
Thomas Kuhn w [1962] przedstawił pogląd, wedle którego skutkiem
zmian pojęciowych teorie powstałe przed i po tzw. rewolucji naukowej są
niewspółmierne. To znaczy m.in., że nie są porównywalne środkami logiki.
Teza o niewspółmierności (incommensurability thesis) przeczy głoszonej przez
empiryzm logiczny tezie o redukcji. Mówi ona, że teorie starsze są
szczególnymi lub granicznymi przypadkami teorii nowszych, czyli że
wszystkie twierdzenia starszych teorii są konsekwencjami niektórych
twierdzeń nowszych teorii. Np. prawo swobodnego spadania Galileusza jest
konsekwencją mechaniki Newtona a druga zasada mechaniki jest
granicznym przypadkiem odpowiedniego twierdzenia szczególnej teorii
względności, gdy prędkość maleje do zera. Według Kuhna dopatrywanie się
w tego rodzaju przypadkach związków logicznych jest błędem ekwiwokacji,
tj. użycia terminów w przesłankach i we wniosku w różnych znaczeniach. Np.
termin “masa” w fizyce klasycznej oznacza wewnętrzną własność ciała a w
fizyce relatywistycznej wielkość zależną również od układu odniesienia.
Zatem między prawami nowej i starej fizyki, ani między ich granicznymi
przypadkami, nie mogą występować związki wynikania logicznego. Nie
mogą występować też związki wykluczania logicznego. Nie można więc
twierdzić, że nowa fizyka przeczy starej.
Stanowisko Kuhna podważało rozpowszechnione i ugruntowane
przekonanie o postępie nauki, toteż wywołało burzę wśród filozofów.
Oskarżano go o irracjonalizm, relatywizm i inne filozoficzne grzechy. Faktycznie
Kuhn stał się źródłem inspiracji wielu współczesnych odmian relatywizmu i
postmodernizmu. Będzie o tym mowa w IV.1. Sam Kuhn jednak pozostałe
trzydzieści lat życia poświęcił łagodzeniu własnego stanowiska i odpieraniu
Adam Grobler, O metodzie i strukturze nauki 70
zarzutów, opartych w jego mniemaniu na nieporozumieniu i wypaczeniu jego intencji
Niezależnie jednak od wszelkich innych, rzeczywistych czy rzekomych
konsekwencji tezy o niewspółmierności, Kuhn zwrócił uwagę na to, że ocena
metodologiczna teorii czy hipotez nie sprowadza się do prostego
zastosowania logiki.
W każdym razie bayesianizm, jako dziś najbardziej popularna
kandydatura na stanowisko logiki nauki, nie ma w sprawie zmiany
pojęciowej do zaofiarowania nic, prócz zagadkowego sformułowania
Earmana, wedle którego “rewolucja naukowa polega na redystrybucji
prawdopodobieństwa”. Rewolucja, rzecz jasna, przynosi hipotezy wyrażone
w języku odmiennym od przedrewolucyjnego. Wymaga zatem określenia
wyjściowego rozkładu prawdopodobieństwa na nowo. Na jakiej zasadzie? Nie
wiadomo. W każdym razie nie na zasadzie, która mogłaby jakoś zostać
uzasadniona środkami bayesianizmu. W szczególności bayesianizm jest
bezradny, gdy chodzi o ocenę samej rewolucji ze względu na postęp lub
regres.
Niewspółmierność jest również problemem dla falsyfikacjonizmu. Być
może nie aż tak poważnym, jak sądził np. Feyerabend [1962]. Według niego
teorie niewspółmierne nie mają wspólnej dziedziny obserwacyjnej. Dlatego
nie można postępu nauki charakteryzować w stylu Poppera. Ten ostatni
sądził, że nowsze hipotezy część sukcesów empirycznych starszych hipotez
zachowują, a część korygują (a prócz tego przynoszą zupełnie nowe
sukcesy), tzn. część starych wyjaśnień zjawisk zachowują, a część zastępują
dokładniejszymi wyjaśnieniami (a prócz tego dostarczają wyjaśnień zjawisk
do tej pory niewyjaśnionych). W szczególności Popper powiedziałby, że
fizyka Newtona koryguje prawo swobodnego spadania Galileusza, ponieważ
zgodnie z prawem powszechnego ciążenia ciała upuszczone spadają na
38
Przeciwnie zachował się Feyerabend, który w tym samym czasie, co Kuhn również
ogłosił tezę o niewspółmierności. Jej treść nieco różniła się od tezy Kuhna, co uszło uwagi
szerokiej publiczności, która zrazu potraktowała ich jako wspólników przestępstwa.
Feyerabend, zamiast zaprzeczać winie, głosił tezy coraz bardziej skandaliczne, co
najpierw przysporzyło mu sławy i dochodów, a w końcu pozbawiło stanowiska
uniwersyteckiego.
Adam Grobler, O metodzie i strukturze nauki 71
powierzchnię Ziemi nie ruchem jednostajnie przyspieszonym, jak twierdził
Galileusz, lecz z przyspieszeniem nieznacznie rosnącym proporcjonalnie do
zmian siły ciążenia w miarę zbliżania się spadającego ciała do środka
ciężkości Ziemi. Natomiast Feyerabend twierdziłby, że fizyka Newtona nie
może wnosić korekty do prawa Galileusza, ponieważ mówi o innym zjawisku:
nie o swobodnym spadaniu, tj. ruchu w dół pod nieobecność sił, lecz o ruchu
w kierunku środka ciężkości układu Ziemia-ciało pod wpływem sił ciążenia.
Biorąc pod uwagę uteoretyzowanie obserwacji, Feyerabend ma do
pewnego stopnia rację. Postawiony przez niego problem jest w gruncie
rzeczy wariantem rozważanego wcześniej problemu bazy empirycznej. Sam
Feyerabend proponował pewne jego rozwiązanie w postaci pragmatycznej
teorii obserwacji
. Głosi ona mniej więcej, co następuje. Obserwator, tzn. jego
organizm, jest swojego rodzaju przyrządem pomiarowym. Raporty
obserwacyjne są wskazaniami tego przyrządu. Uteoretyzowanie obserwacji
polega na tym, że teorie uznawane przez obserwatora determinują jego
reakcje na otoczenie, podobnie jak budowa przyrządu, np. woltomierza,
determinuje wychylenie się wskazówki w zależności od warunków. Ludzki
przyrząd pomiarowy charakteryzuje się tym, że może przerzucać się z jednej
teorii na drugą i składać raporty obserwacyjne uteoretyzowane raz przez
jedną, raz przez drugą teorię. Dzięki temu może je odnosić do tej samej
sytuacji obserwacyjnej. Teoria pragmatyczna nie bierze jednak pod uwagę
selektywności obserwacji: raport obserwacyjny nie jest nigdy reakcją na ogół
doznań podmiotu, lecz na doznania z jakichś względów istotne. Ludzki
przyrząd pomiarowy może przełączać się nie tylko na działanie pod
wpływem raz tej, raz innej teorii, ale też na reagowanie na raz te, raz inne
bodźce wyselekcjonowane z tła. Selekcja nie może obyć się bez uprzedniej
teorii, toteż identyfikacja sytuacji obserwacyjnej jest nieuchronnie uteoretyzowana,
zgodnie z wnioskami z dyskusji przeprowadzonej w I.3.2.
Uteoretyzowanie identyfikacji obserwacji nie przedstawia dla
falsyfikacjonizmu trudniejszego problemu od uteoretyzowania obserwacji w
ogóle. Obydwa sprowadzają się do rozważanego w I.3.3., nie rozwiązanego
Adam Grobler, O metodzie i strukturze nauki 72
dotąd, problemu rewizji wiedzy zastanej jako szczególnej wersji problemu
Duhema. Możliwość zmiany pojęciowej dodatkowo go komplikuje.
Mianowicie, w przypadku falsyfikacji hipotezy H ze
względu na wiedzę zastaną W
można bądź odrzucić hipotezę H zachowując W, bądź utrzymać H kosztem
odpowiedniej rewizji W.
Jedno i drugie ma na celu usunięcie sprzeczności między hipotezą
a akceptowanymi zdaniami bazowymi powstałe w ramach ustalonego
systemu pojęć. W szczególności, gdy odrzucimy H zachowując W, ewentualna
hipoteza G alternatywna w stosunku do H
, musi spełniać warunek G
→
¬
H
. W
przypadku zmiany pojęciowej, sfalsyfikowana hipoteza H zostaje
zastąpiona “niewspółmierną” z nią, sformułowaną za pomocą innych
pojęć, hipotezą G. Z powodu różnicy pojęciowej warunek G
→
¬
H
nie może
być spełniony.
Innymi słowy, odkrycie przez Kuhna szczególnego rodzaju zmian w
nauce, zwanych przez niego rewolucjami naukowymi, a polegającymi na
zmianie pojęciowej, prowadzi do uogólnionego problemu Duhema. Pytanie
brzmi już nie tylko, które z wchodzących w grę hipotez należy wymienić w
obliczu negatywnego świadectwa, ale dodatkowo w rachubę wchodzi
wymiana niektórych pojęć. Okazało się już wcześniej, że logika nie jest
wystarczającym narzędziem do sformułowania kryterium wyboru między
hipotezami do wymiany. Tym bardziej nie jest narzędziem odpowiednim do
wyprowadzania wniosków na temat ewentualnej zmiany pojęciowej.
I.4.2. Logika pytań w analizie metodologicznej
Logika nie kończy się jednak na klasycznym rachunku predykatów. W
[Grobler 1993, 2000] do analizy motywów zmiany pojęciowej stosowałem logikę
presupozycj
i. Sam pomysł zawdzięczam Ryszardowi Wójcickiemu, który w
[1991] nazwał “presupozycyjnie prawdziwymi” zdania opisujące fakty za
pomocą nietrafnie dobranych pojęć. Termin przez niego użyty skojarzył mi
Adam Grobler, O metodzie i strukturze nauki 73
się z wynalazkiem Petera Strawsona [1950, 1952]. Punktem wyjścia jego
teorii była alternatywna wobec teorii deskrypcji Bertranda Russella [1905]
analiza zdań typu “Obecny król Francji jest łysy”. Problem polega na tym,
że na przekór zasadzie wyłączonego środka ani ono, ani jego zaprzeczenie
( “Obecny król Francji nie jest łysy”) nie jest prawdziwe
. Nie jest bowiem
prawdziwe zdanie “Istnieje ktoś (i tylko jeden), kto jest obecnie królem
Francji”. To ostatnie Strawson nazwał presupozycją oryginalnego zdania
Russella. Ogólnie: zdanie Y jest presupozycj
ą zdania X, jeżeli wtedy, gdy X jest
prawdziwe, Y jest prawdziwe, a wtedy gdy X
jest fałszywe, Y jest również
prawdziwe. Jeżeli natomiast Y nie jest prawdziwe, X nie jest ani prawdziwe, ani
fałszywe. Warto zauważyć, że jeżeli Y jest presupozycją X, to Y jest również
presupozycj
ą
¬
X.
W powyższym przykładzie presupozycja ma postać zdania
egzystencjalnego. Dla uchwycenia zmiany pojęciowej bardziej istotne są
innego rodzaju presupozycje, które nazwałem syntagmatycznymi. Termin
“syntagmatyczny” zaczerpnąłem z językoznawstwa, gdzie jest używany na
oznaczenie sensownych związków między wyrazami określonych kategorii
gramatycznych. Np. “zgliwiały” może być bodaj tylko ser. Można więc
prawdziwie lub fałszywie orzec o jakimś kawałku sera, że jest zgliwiały,
natomiast nie można tego zrobić o
autorze tej książki (chyba, że w jakimś
metaforycznym sensie). Presupozycje syntagmatyczne są to zatem
warunki, które mówią o tym, o jakiego rodzaju przedmiotach można
prawdziwie lub fałszywie orzekać określone predykaty.
Zmian
ę pojęciową można przedstawić jako rewizję presupozycji
39
Rozwiązanie Russella polegało na zaprzeczeniu, iż zdanie “Obecny król Francji jest
łysy” ma strukturę podmiotowo-orzecznikową, gdzie “obecny król Francji” jest nazwą
będącą podmiotem tego zdania. Zamiast tego uznał, że formą logiczną tego zdania jest
“istnieje ktoś (i tylko jeden), kto obecnie jest królem Francji i jest łysy”. Wówczas, po
pierwsze, “obecny król Francji” nie jest nazwą, tylko deskrypcją (opisem), która może być,
albo nie być spełniona przez jakiś przedmiot, zupełnie tak samo, jak deskrypcja “jest łysy”.
Po drugie, zaprzeczeniem tego zdania jest nie “Obecny król Francji nie jest łysy”, ale “nie
istnieje nikt (albo istnieje więcej niż jeden ktoś), kto obecnie jest królem Francji i zarazem
jest łysy”, co jest, zgodnie z zasadą wyłączonego środka, zdaniem prawdziwym. W opinii
Strawsona teoria Russella, która odróżnia strukturę logiczną zdania od jego struktury
gramatycznej, jest sztuczna i źle zdaje sprawę z codziennej praktyki językowej.
Adam Grobler, O metodzie i strukturze nauki 74
syntagmatycznych pewnej klasy zdań. Np. przejście od fizyki klasycznej do
relatywistycznej rewiduje m.in. presupozycję zdań postaci “zdarzenie a jest
równoczesne zdarzeniu b
” o treści “o dowolnych dwóch zdarzeniach można
prawdziwie orzec, że są równoczesne lub prawdziwie orzec, że są
nierównoczesne” zastępując ją presupozycją “o dowolnych dwóch
zdarzeniach rozpatrywanych w ustalonym układzie odniesienia można
prawdziwie orzec, że są równoczesne w tym układzie odniesienia lub
prawdziwie orzec, że są nierównoczesne w tym układzie odniesienia”.
Rewizja tej presupozycji polega na wykluczeniu z języka fizyki
dwuargumentowego predykatu “… jest równoczesne z …” i zastąpieniu go
trójargumentowym predykatem “… jest równoczesne z … w …”.
Posługując się logiką presupozycji wielokrotnie (najdokładniej w [2000])
opisywałem logiczną sytuację wyboru hipotezy w obliczu zaskakującego
wyniku obserwacji. Obecnie spróbuję użyć do tego logiki pytań. Jest to
możliwe dzięki temu, że w niej również występuje pojęcie presupozycji i ma
ono odpowiednie własności. Centralną presupozycją pytania nazywa się
założenie, że istnieje na nie prawdziwa odpowiedź bezpośrednia.
Odpowiedzią bezpośrednią, z grubsza rzecz biorąc, nazywa się odpowiedź z
góry rozpatrywana jako jedna z możliwych i wystarczających
, w odróżnieniu
od odpowiedzi korekcyjnej, która mówi, że pytanie jest źle postawione, tzn.
jego centralna presupozycja jest fałszywa. W najprostszym przypadku pytań
typu tak-lub-nie odpowiedziami bezpośrednimi są “Tak” oraz “Nie”, zaś
odpowiedzią korekcyjną jest “Ani tak, ani nie”. Centralna presupozycja
takiego pytania jest zarazem presupozycją każdej jego odpowiedzi
bezpośredniej. Na odwrót, presupozycja syntagmatyczna odpowiedzi
bezpośredniej na pytanie typu tak-lub-nie jest zarazem centralną
presupozycją samego pytania.
Logika pytań ma dodatkowo inną zaletę. Pozwala na rekonstrukcję
procesu badawczego jako rozwiązywania problemów. Filozofowie, zwłaszcza
Popper, Kuhn i Laudan, powtarzają w kółko, że nauka polega przede
40
Ścisłą definicję pomijam, do niniejszej analizy powyższe intuicje wystarczą.
Adam Grobler, O metodzie i strukturze nauki 75
wszystkim na rozwiązywaniu problemów. To spostrzeżenie jednak niewiele
wzbogaca ich analizy metodologiczne. Pierwsze poważne próby zbudowania
modelu interrogacyjnego (czyli pytajnego) nauki, który mógłby dostarczyć
stosownych narzędzi analizy, podjął w licznych artykułach Jaakko Hintikka.
Model ten przedstawia naukę jako grę w pytania i odpowiedzi
prowadzoną przez Uczonego i Przyrodę. Uczony zadaje pytania (za pomocą
eksperymentów) i uzyskuje odpowiedzi, eliminując kolejno ze zbioru
możliwych światów światy, w których odpowiedzi Przyrody są fałszywe.
Celem gry jest znalezienie “świata rzeczywistego”. Ujęcie Hintikki,
streszczone tutaj w karkołomnym skrócie, nie jest jednak pełnokrwistą
logiką pytań. W szczególności nie ukazuje logicznych związków między
pytaniami, czyli mechanizmu, w jaki jedne pytania wywołują inne. Bardziej
odpowiednia do naszych celów jest logika rozwijana przez Andrzeja
Wiśniewskiego.
Najbardziej interesującą z obecnego punktu widzenia relacją
rozpatrywaną przez Wiśniewskiego jest implikacja erotetyczna (czyli pytajna).
Jest to związek między pytaniem implikującym Q, zbiorem zdań
oznajmujących X i pytaniem implikowanym Q*, symbolicznie Im(Q, X, Q*), który
zachodzi wtedy i tylko wtedy, gdy (i) z dowolnej odpowiedzi bezpośredniej A
na pytanie Q
i zdań ze zbioru X wynika logicznie alternatywa wszystkich
odpowiedzi bezpośrednich na pytanie Q* oraz (ii) z każdej odpowiedzi
bezpośredniej B na pytanie Q* i zdań ze zbioru X wynika alternatywa
niektórych, ale nie wszystkich odpowiedzi bezpośrednich na pytanie Q, przy
czym ta alternatywa nie wynika z samego zbioru X.
Za definicją implikacji erotetycznej kryją się następujące intuicje: przy
założeniu, że zdania ze zbioru X są prawdziwe (i) jeżeli na pytanie
implikujące Q istnieje prawdziwa odpowiedź bezpośrednia, to na pytanie
implikowane Q*
również istnieje prawdziwa odpowiedź bezpośrednia oraz (ii)
znając prawdziwą odpowiedź bezpośrednią na pytanie implikowane Q*
można wyznaczyć pewien podzbiór właściwy zbioru odpowiedzi
bezpośrednich na pytanie implikujące Q, wśród których znajduje się
Adam Grobler, O metodzie i strukturze nauki 76
odpowiedź prawdziwa. Innymi słowy, znalezienie prawdziwej odpowiedzi
bezpośredniej na pytanie implikowane pomaga w znalezieniu prawdziwej
odpowiedzi bezpośredniej na pytanie implikujące, choć niekoniecznie
wystarcza do tego. Dzięki temu poszukiwanie odpowiedzi na jakieś trudne
pytanie Q, mając wiedzę reprezentowaną przez pewien zbiór zdań X,
możemy sobie ułatwić odpowiadając na łatwiejsze od niego pytania
implikowane Q*, Q** itd.
Ułatwienie będzie większe, jeżeli relację między pytaniem implikującym a
pytaniami implikowanymi wzmocnić do relacji eliminacyjnej implikacji
erotetycznej, symbolicznie EIm(Q, X, Q*
). Zachodzi ona wówczas, gdy nie tylko (i)
z dowolnej odpowiedzi bezpośredniej A na pytanie Q i zdań ze zbioru X wynika
logicznie altern
atywa wszystkich odpowiedzi bezpośrednich na pytanie Q* ale
(ii
e
) z każdej odpowiedzi bezpośredniej B na pytanie Q* i zdań ze zbioru X
wynikają negacje niektórych, ale nie wszystkich odpowiedzi bezpośrednich
na pytanie Q.
Badanie nad problemem naukowym m
ożna teraz przedstawić w formie serii
zastosowań eliminacyjnych implikacji erotetycznych postaci: EIm(?H, W, ?E
n
),
gdzie ?H jest pytaniem “Która z alternatywnych hipotez ze zbioru H jest prawdziwa?”, W
reprezentuje wiedzę zastaną, a ?E
n
jest pytaniem “Jaki jest wynik eksperymentu
E
n
?”
. Odpowiedź bezpośrednia B
n
na każde kolejne pytanie ?E
n
, na mocy
definicji eliminacyjnej implikacji erotetycznej, eliminuje (falsyfikuje) niektóre
odpowiedzi bezpośrednie na pytanie?H. W szczęśliwym przypadku, po serii
m eks
perymentów pozostanie tylko jedna odpowiedź i rozpatrywany przez
nas problem zostanie rozwiązany na wzór pomysłu Bacona.
Powyższa procedura, falsyfikacjonistyczna w swojej istocie, może jednak
doprowadzić do wykluczenia wszystkich odpowiedzi bezpośrednich na pytanie ?
H. Na mocy
definicji implikacji erotetycznej, powody po temu mogą być
41
Dokładniejszą
analizę w podobnym stylu przypuszczalnie można będzie przeprowadzić
przy użyciu rozwijanej obecnie przez Wiśniewskiego teorii erotetycznych scenariuszy badawczych.
42 M.in. na m
ożliwości zdania sprawy ze związku między problemem teoretycznym a pytaniem o
wynik eksperymentu, a nawet samym projektem eksperymentu, polega w
yższość podejścia
Wiśniewskiego nad podejściem Hintikki.
Adam Grobler, O metodzie i strukturze nauki 77
następujące: (i) nie wszystkie odpowiedzi B
n
uzyskane na pytania implikowane ?E
n
są prawdziwe, (ii) nie wszystkie zdania oznajmujące ze zbioru W są
prawdziwe, (iii) żadna odpowiedź bezpośrednia na pytanie implikujące ?H
nie jest prawdziwa – czyli centralna presupozycja tego pytania jest
fałszywa.
W pierwszym przypadku wynik któregoś eksperymentu został błędnie
opisany, bądź na skutek zwykłej pomyłki, bądź z powodu uteoretyzowania
obserwacji błędnymi teoriami. Wówczas, po wykluczeniu ewentualnej
pomyłki, należy zrewidować wiedzę zastaną, dołączając do W hipotezy
alternatywne wobec niektórych teorii, którymi uteoretyzowane są niektóre
odpowiedzi na ?E
k
dla pewnego (pewnych) k.
W drugim przypadku, również należy zrewidować wiedzę zastaną. Po
rewizji wiedzy zastanej może okazać się, że z uzyskanych odpowiedzi
bezpośrednich na pytania ?E
n
, wziętych razem ze zrewidowaną wiedzą W’,
wynikają słabsze wnioski niż z tych samych odpowiedzi wziętych razem z
wiedzą W sprzed rewizji i nie eliminują wszystkich odpowiedzi bezpośrednich
na ?H. Może nawet okazać się, że dla pewnych k nie zachodzi eliminacyjna
implikacja erotetyczna Im(?H, W’, E
k
), czyli eksperymenty E
k
są nieistotne dla
rozpatrywanego problemu teoretycznego.
Jeżeli zaś zachodzi trzeci przypadek, trzeba sformułować hipotezę
alternatywną w stosunku do rozpatrywanych w zbiorze H. Jeżeli H jest
zbiorem wyczerpującym, jak u Bacona, tzn. alternatywa hipotez z H jest
tautologią, jedyna możliwość polega na rewizji presupozycji (przynajmniej
niektórych) rozpatrywanych hipotez. Gdy idzie o presupozycje
syntagmatyczne, ich rewizja prowadzi do zmiany pojęciowej.
Mamy więc elegancką reprezentację ogólnej sytuacji problemowej, która
o tyle jest bogatsza od falsyfikacjonistycznego modelu badania naukowego, że jako
jedno z możliwych rozwiązań przewiduje zmianę pojęciową. Można jednak
zapytać, skąd można wiedzieć, którą z opcji – zmianę pojęciową lub samą
tylko rewizję wiedzy zastanej, bez zmiany pojęciowej – zastosować w
Adam Grobler, O metodzie i strukturze nauki 78
konkretnym przypadku. Na to pytanie nawet logika pytań nie może udzielić
odpowiedzi. Natomiast w I.5.4. przedstawię propozycję kryterium
porównawczej oceny metodologicznej ewentualnych alternatywnych
rozwiązań problemów naukowych. Tymczasem zilustruję na przykładzie, jak
zastosowanie implikacji erotetycznej może wyglądać w praktyce
Weźmy pod uwagę pytanie Q “Czy Ziemia porusza się względem eteru?”.
Eter miał być substancją przenoszącą światło rozchodzące się w nim ruchem
falowym. Teoria Fresnela (1918) zakładała, że Ziemia porusza się w
nieruchomym eterze. Natomiast Stokes uważał, że jest nie do pomyślenia,
by ruch ciał o dużej masie pozostawiał eter niewzruszonym. Według jego
teorii (1845) eter zachowuje się jak ciecz lepka. Ziemia przy powierzchni
wlecze ze sobą cały eter, a współczynnik wleczenia eteru maleje ze
wzrostem odległości od Ziemi. Klasyczny eksperyment Michelsona-Morleya
(1881, udoskonalony w 1887) miał wykryć “wiatr eteryczny”, który musi
wiać, jeżeli eter jest nieruchomy. Eksperyment polegał na rozszczepieniu
promienia świetlnego, za pomocą ukośnie ustawionego, półprzeźroczystego
zwierciadła, na dwa promienie: jeden biegnący w kierunku ruchu wirowego
Ziemi, czyli wzdłuż kierunku domniemanego “wiatru eterycznego”, drugi w
kierunku prostopadłym, czyli w poprzek ewentualnego “wiatru”. Następnie
oba prostopadłe promienie odbijały się od zwierciadeł, wracały i mieszały
się, zostawiając na ekranie prążki interferencyjne. Z ówczesnej wiedzy
zastanej W (do której należy zaliczyć również szczegóły projektu
eksperymentu) można było wyprowadzić zdanie: “jeżeli wieje wiatr
eteryczny, to po obrocie aparatu o 90
o
prążki interferencyjne przesuną się
tyle-a-tyle”. Możemy teraz postawić pytanie ?E “O ile przesuną się prążki
interferencyjne?”. Między Q, W i ?E zachodzi relacja eliminacyjnej implikacji
erotetycznej EIm(Q, W, ?E).
Uzyskano odpowiedź “Nieznacznie”. Stąd wynikało, biorąc pod uwagę
43 Co oczywiście nie znaczy, że uczeni w tym lub w podobnych przypadkach stosują logikę
pytań Wiśniewskiego, lecz że ich nie w pełni zracjonalizowane decyzje można objaśnić
środkami tej logiki. W przedstawionym przykładzie dokonuję licznych uproszczeń, zarówno
gdy idzie o szczegóły historyczne, jak i teoretyczne. Pomijam też rachunki.
Adam Grobler, O metodzie i strukturze nauki 79
margines błędu eksperymentalnego, że prawidłowa odpowiedź na pytanie
Q brzmi: “Nie”
(tzn. “Ziemia nie porusza się względem eteru”). Rok wcześniej
Lorentz (1886) wykazał niespójność teorii Stokesa i zaproponował teorię
będącą kombinacją teorii Stokesa i Fresnela. Według niej Ziemia
częściowo wlecze eter. Jednak ulepszony rezultat Michelsona-Morleya (1887)
dopuszczał tak nieznaczną prędkość wiatru eterycznego, że i ta teoria była
nie do utrzymania. Wszystko więc wskazywało na to, że na pytanie Q nie ma
prawdziw
ej odpowiedzi. Należało zatem bądź zrewidować W, bądź odrzucić
centralną presupozycję Q.
Pierwszą możliwość wypróbował Lorentz (1892) proponując hipotezę
skrócenia. Zgodnie z nią ciała poruszające się względem eteru skracają się
zależnie od prędkości (wzór pomijam) dokładnie o tyle, by zniwelować
różnicę czasu potrzebnego prostopadłym promieniom w aparacie
Michelsona-Morleya na dotarcie do ekranu, na którym powstają prążki
interferencyjne. Z hipotezy Lorentza wynika, że bez względu na to, czy wiatr
eteryczny wieje, czy nie, po obrocie aparatu przesunięcie prążków
interferencyjnych nie wystąpi. Toteż zastąpienie hipotezą Lorentza zdania
“jeżeli wieje wiatr eteryczny, to po obrocie aparatu o 90
o
prążki
interferencyjne przesuną się tyle-a-tyle” w zbiorze zdań W powoduje, że
eliminacyjna implikacja erotetyczna EIm(Q, W’, ?E), gdzie W’ oznacza
zrewidowaną przez hipotezę skrócenia wiedzę zastaną, nie zachodzi – z żadnej
odpowiedzi na ?E wziętej razem z W’ nie wynika negacja żadnej odpowiedzi
bezpośredniej na Q. Innymi słowy, po przyjęciu W’ efekt Michelsona-Morleya
w żaden sposób nie przyczynia się do znalezienia odpowiedzi
bezpośredniej na pytanie Q.
Na marginesie: Popper w [1934] przy
toczył hipotezę Lorentza jako przykład
hipotezy ad hoc
. Miała bowiem wyjaśniać zaskakujący wynik eksperymentu
Michelsona-Morleya i, rzekomo, nie pozwalała wyprowadzić żadnych
nowych przewidywań, które mogłyby ewentualnie się nie spełnić i dać w ten
sposób podstawy do jej falsyfikacji. Popper się mylił w tej sprawie. Z
hipotezy skrócenia wynikało m.in., że zmienia się opór elektryczny
Adam Grobler, O metodzie i strukturze nauki 80
przewodników w zależności od ich prędkości względem eteru. To się niestety
nie potwierdziło, zatem hipoteza Lorentza została zwyczajnie sfalsyfikowana.
Kolejna możliwość, rewizji presupozycji Q, ziściła się dzięki Einsteinowi –
który skądinąd nie korzystał w swoim rozumowaniu z efektu Michelsona-
Morleya. Szczególna teoria względności (1905) porzuca pojęcie eteru i
szereg innych pojęć mechaniki klasycznej, zwłaszcza pojęcie absolutnej
równoczesności.
Po tym przykładzie zastosowania logiki pytań do analizy metodologicznej
wypada dodać dwie uwagi uogólniające nieco powyższe rozważania. Po
pierwsze, problemy rozpatrywane przez uczonych rzadko mają baconowską
formę pytań “Która z hipotez…?”, jak w przypadkach, gdy idzie o
wyznaczenie wartości jakiegoś określonego parametru. Częściej są
pytaniami otwartymi, albo próbami zbadania (ewentualnej falsyfikacji)
pojedynczej hipotezy. Po drugie, do przeprowadzenia procedury badawczej
opisywanego wyżej typu może wystarczyć, by między pytaniem Q typu “Czy
hipoteza H jest prawdziwa?” (albo tylko wiarygodna) a kolejnymi pytaniami Q
k
*
o wynik
konkretnego eksperymentu zachodziła relacja słabsza od eliminacyjnej
implikacji erotetycznej EIm(Q, X, Q
k
*
) dla pewnego zbioru zdań X. Może
mianowicie wystarczyć, że tylko niektóre, a nie wszystkie odpowiedzi
bezpośrednie na pytania o wyniki pewnych eksperymentów, razem wzięte
ze zdaniami ze zbioru X, reprezentującego wiedzę zastaną, falsyfikują pewne
odpowiedzi wyjściowe na pytanie teoretyczne. Tę słabszą relację logiczną
nazwę słabą eliminacyjną implikacją erotetyczną, SEIm(Q, X, Q*). Zachodzi
ona, gdy: (i) z dowolnej odpowiedzi bezpośredniej A na pytanie Q i zdań ze
zbioru X wynika logicznie alternatywa wszystkich odpowiedzi bezpośrednich
na pytanie Q* oraz (ii
se
) dla co najmniej jednej odpowiedzi bezpośredniej B na
pytanie Q*
z i zdań ze zbioru X wynika negacja co najmniej jednej odpowiedzi
bezpośredniej na pytanie Q.
Adam Grobler, O metodzie i strukturze nauki 81
I.5.
Wyjaśnianie a ocena hipotez
I.5.1. Zasada wnioskowania do najlepszego wyjaśnienia
Omówiliśmy strukturę logiczną sytuacji problemowych spotykanych w nauce. Nadal
je
dnak nie mamy wyraźnych wskazówek co do wyboru spośród rozwiązań
alternatywnych. Przypuśćmy, że hipoteza skrócenia Lorentza nie byłaby
sfalsyfikowana, a Einstein i tak sformułowałby szczególną teorię
względności. Co wybrać? Nawet jeżeli hipoteza Lorentza została
sfalsyfikowona, to przecież można byłoby próbować (co nie musiałoby się
udać) rewizji wiedzy zastanej tak, aby ją można było utrzymać. Nawet gdyby
hipoteza Lorentza była ostatecznie i nieodwołalnie sfalsyfikowana, to
przecież szczególna teoria względności też nie jest bez wad. Nie daje się ona
pogodzić z teorią grawitacji: siły ciążenia działają natychmiast, podczas gdy
według szczególnej teorii względności wszystkie oddziaływania rozchodzą
się z prędkością nie większą od prędkości światła. Nie ma teorii doskonałych,
tak jak nie ma doskonałych kandydatów na prezydenta. Trzeba jednak
wybrać.
Gilbert Harman [1965] sformułował myśl, że stosowanie metody indukcji
enumeracyjnej jest prawomocne wtedy, gdy wnioski indukcyjne dostarczają
najlepszego z dostępnych wyjaśnień zjawisk. Nawiązał od w ten sposób do
metody Peirce’a [], który wyróżnił trzy rodzaje wnioskowania: indukcyjne,
dedukcyjne i abdukcyjne. Metoda abdukcyjna, która według Peirce’a jest
najbardziej naukowa, polega na tym, by w obliczu zaskakującego zjawiska
szukać hipotezy, z której można dedukcyjnie wyprowadzić, że takie zjawisko
zajdzie. Gdyby taka hipoteza była prawdziwa, pozornie zagadkowe zjawisko
byłoby zupełnie naturalne. Dlatego, gdy taka hipoteza się znajdzie, należy
wnosić, że jest ona przypuszczalnie prawdziwa.
Peter Lipton [1991] uznał, że zasada wnioskowania do najlepszego
wyjaśnienia (inference to the best explanation) sama najlepiej wyjaśnia nasze
praktyki indukcyjne. Klasyczny indukcjonizm, wedle którego pojedyncze
Adam Grobler, O metodzie i strukturze nauki 82
świadectwa przyczyniają się do potwierdzenia hipotez uniwersalnych,
przedstawia naukę jako proces uczenia się opartego na warunkowaniu.
Uczony przywiązuje się do hipotez na takiej samej zasadzie, jak pies
Pawłowa nabywa odruchu ślinienia się na dźwięk dzwonka zapowiadającego
karmienie. Metoda indukcji sama nie ma indukcyjnego uzasadnienia. Z kolei
falsyfikacjonizm, który przyjmuje model uczenia się za pomocą prób i
błędów, nie wyjaśnia, dlaczego liczne sfalsyfikowane teorie nadal są
uznawane za najlepsze, a bywają teorie, które się odrzuca, choć nie zostały
sfalsyfikowane. Sama zasada falsyfikacjonizmu nie jest falsyfikowalna. Nie
można więc metodą indukcji uzasadnić, że jest ona bardziej wiarygodna od
metod alternatywnych, np. falsyfikacjonistycznej. Nie można metodą
falsyfikacjonistyczną uzasadnić, że jest ona bardziej wiarygodna od metod
alternatywnych, np. indukcjonistycznej. Natomiast metodologia oparta na
zasadzie wnioskowania do najlepszego wyjaśnienia, wyjaśniając aspekty
metody naukowej nie wyjaśnione przez metodologie konkurencyjne, sama
okazuje się najlepszym wyjaśnieniem praktyk indukcyjnych.
Brzmi to dosyć przekonująco, gdyby nie dwa małe problemy. Po
pierwsze, wcale nie jest jasne, co to jest wyjaśnienie. Spory na ten temat
doczekały się nawet monografii autorstwa Wesleya Salmona [1989], pod
wymownym tytułem Czterdzieści lat wyjaśniania. Po dalszych kilkunastu
latach od jej wydania sprawa nie jest wyjaśniona do końca. Po drugie, nawet
gdyby ostatecznie zdecydować się na jakąś koncepcję wyjaśniania,
pozostaje pytanie, co to znaczy, że jakies wyjaśnienie jest lepsze od innych.
Tutaj nie ma nawet sporów, bo nie wiadomo, jak wyjść poza elementarne
intuicje. W pierwszej sprawie postaram się o naszkicowanie najistotniejszych
epizodów historii wyjaśniania, w drugiej przedstawię własne propozycje.
I.5.2. Klasyczna koncepcja wyjaśniania i jej trudności
Klasyczna koncepcja wyjaśniania została sformułowana przez Carla
Adam Grobler, O metodzie i strukturze nauki 83
Hempla i Paula Oppenheima [1948]. Według niej podstawowym wzorcem
wyjaśniania jest model dedukcyjno-nomologiczny, zwany też w skrócie modelem
D-N lub law-covering model
. Zgodnie z nim podać wyjaśnienie jakiegoś
zjawiska lub prawidłowości znaczy przedstawić poprawne logicznie rozumowanie, w
którym (i) wnioskiem jest explanandum
(to, co wyjaśniane), a zbiór przesłanek
stanowi explanans (to, co wyjaśnia), (ii) explanans musi obejmować przynajmniej
jedno prawo i musi ono być istotną przesłanką rozumowania (bez której
rozumowanie nie jest poprawne logicznie), (iii) explanans
musi mieć treść empiryczną
(być sprawdzalnym w eksperymencie lub obserwacji), (iv) zdania należące
do explanansa muszą być prawdziwe. Rozumowanie spełniające trzy pierwsze
warunki, a niekoniecznie czwarty, nazywa się potencjalnym wyjaśnieniem.
Według tego wyjaśnienie prawidłowości polega na wyprowadzeniu jej z
ogólniejszego prawa lub z kilku praw. Np. prawo swobodnego spadania
można wyjaśnić wyprowadzając je z prawa powszechnego ciążenia.
Wyjaśnienie zjawiska polega na wyprowadzeniu jego opisu z pewnego prawa
(lub kilku praw) i zdań opisujących warunki początkowe. Np. spadnięcie
srebrnej łyżeczki z balkonu można wyjaśnić wyprowadzając zdanie o tym
wypadku z prawa swobodnego spadania i zdania tej treści, że łyżeczka
została upuszczona z wystawionej przez sztachetki balkonu zacnej dłoni
pewnej bardzo młodej osoby.
Później Hempel wyróżnił jeszcze dwa inne typy wyjaśniania, w których
zastosowanie mają nie prawa jednoznaczne, jak w modelu D-N, lecz prawa
statystyczne. Jeżeli explanans obejmuje prawo statystyczne a explanandum jest
prawidłowość statystyczna, wyjaśnienie nazywa się dedukcyjno-
statystycznym (D-S). Np. na podstawie prawidłowości rozpadu
promieniotwórczego izotopu węgla C
14
można oceniać wiek znalezisk
archeologicznych. W tym celu porównuje się badane znalezisko z
podobnym, nowym przedmiotem pod względem zawartości atomów tego
izotopu. Stąd wnioskuje się, jaka – najprawdopodobniej – część zawartości
C
14
w badanym znalezisku rozpadła się. Następnie z prawa (statystycznego)
44 Wyraz “nomologiczny” pochodzi od greckiego nomos, co znaczy “prawo”.
Adam Grobler, O metodzie i strukturze nauki 84
określającego okres półrozpadu C
14
(5730 lat) wyprowadza się prawidłowość
(statystyczną) określającą czas (najprawdopodobniej) potrzebny do rozpadu
takiej części atomów C
14
, jaka (najprawdopodobniej) się rozpadła.
Wre
szcie wyjaśnianie indukcyjno-statystyczne (I-S) polega na
rozumowaniu, w którego przesłankach składających się na explanans znajduje
się prawo statystyczne, a wniosek jest zdaniem o wysokim
prawdopodobieństwie zajścia explanandum, które jest pojedynczym zdarzeniem. Np.
wyjaśnienie, że Jaś zachorował na ospę wietrzną polega na rozumowaniu,
w którym z prawa statystycznego określającego prawdopodobieństwo
(wysokie) zachorowania dziecka, które do tej pory nie chorowało na ospę
wietrzną i zetknęło się z chorym dzieckiem oraz zdań tej treści, że Jaś nie
chorował dotąd na ospę wietrzną i zetknął się z chorym dzieckiem,
wyprowadza się wniosek, że prawdopodobieństwo zachorowania Jasia było
wysokie.
Kluczowe dla tych wszystkich modeli wyjaśniania jest pojęcie prawa,
którego objaśnienie odłożymy do II.6. Tam też omówimy typy praw, w tym
rozróżnienie na prawa jednoznaczne i statystyczne. Teraz zajmiemy się
trudnościami klasycznej koncepcji. Zaczniemy od paradoksów wyjaśniania
D-N
Maszt i jego ci
eń. Długość cienia rzucanego przez maszt można wyjaśnić
wyliczając ją na podstawie praw optyki, praw trygonometrii, wysokości
masztu kąta między prostą łączącą środek Słońca z wierzchołkiem masztu a
cieniem. Na tej samej zasadzie można jednak wyliczyć wysokość masztu,
mając za przesłanki prawa optyki, prawa trygonometrii, długość cienia i kąt
między prostą łączącą środek Słońca z wierzchołkiem masztu a cieniem.
Zgodnie z modelem D-N należałoby uznać, że można wyjaśnić wysokość
masztu powołując się m.in. na długość cienia: “maszt ma wysokość h, bo
jego cień ma długość d (oraz…)”.
45
Należą one do folkloru filozoficznego, toteż ustalenie ich źródła (autorów) wymagałoby
śledztwa, którego nie jestem w stanie przeprowadzić. Wiem tylko, że pierwszy z nich został
przypuszczalnie sformułowany przez Sylvana Brombergera, ale nie był przez niego
opublikowany.
Adam Grobler, O metodzie i strukturze nauki 85
Barometr i burza
. Z prawa “ilekroć spada wskazówka barometru, tylekroć
nadciąga burza” i zdania “wskazówka barometru spadła” można wyciągnąć
wniosek “nadciąga burza”. Zgodnie z modelem D-N należałoby uznać, że
nadejście burzy można wyjaśnić zachowaniem się wskazówki barometru.
Zaćmienie Słońca. Na podstawie praw mechaniki nieba i znajomości
obecnego wzajemnego położenia Słońca, Ziemi i Księżyca można wyliczyć,
kiedy nastąpi najbliższe zaćmienie Słońca. W ten sposób będzie ono
wyjaśnione. Ale na tej samej zasadzie można wyliczyć, kiedy miało miejsce
poprzednie zaćmienie Słońca. Zgodnie z modelem D-N należałoby uznać, że
zaćmienie Słońca sprzed kilku lat można wyjaśnić obecnym wzajemnym
położeniem Słońca, Ziemi i Księżyca.
Mężczyzna i pigułka. Z prawa, które mówi, że osoby zażywające
regularnie pigułki nie zachodzą w ciążę i stąd, że Jan zażywa pigułki, można
wyprowadzić wniosek, że Jan nie zajdzie w ciążę. Zgodnie z modelem D-N
należałoby uznać, że fakt, iż Jan nie zachodzi w ciążę można wyjaśnić tym,
że zażywa on regularnie pigułki.
Paradoks masztu i jego cienia dowodzi, że model D-N nie spełnia
postulatu asymetrii wyjaśniania. Mówi on, że jeżeli A można wyjaśnić za
pomocą B, to B nie można wyjaśnić za pomocą A. O ile wysokość masztu ma,
wedle naszej wiedzy, przyczynowy wpływ na długość jego cienia, o tyle nie
na odwrót. Postulat asymetrii wyjaśniania wiąże się zatem z asymetrią
oddziaływań przyczynowych.
Paradoks barometru i bu
rzy polega na czym innym. Korelacja między
zjawiskami nie przesądza wcale, że zajście jednego z nich wyjaśnia zajście
drugiego. W tym przykładzie spadek wskazówki barometru i burza mają
wspólną przyczynę: spadek ciśnienia atmosferycznego. Możliwe są zatem
wyjaśnienia o strukturze: związek między A i B zachodzi dlatego, że mają one
wspólną przyczynę C. Sformułowana przez Hansa Reichenbacha [1956]
zasada wspólnej przyczyny
wręcz nakazuje poszukiwanie tego typu wyjaśnień.
Wyjaśnienie typu: “A zaszło na skutek B”, jak w przypadku masztu i jego
cienia, można potraktować jako szczególny przypadek wyjaśniania za
Adam Grobler, O metodzie i strukturze nauki 86
pomocą wspólnej przyczyny, w którym B = C, jeśli dodatkowo uznać, że
każde zjawisko jest m.in. przyczyną samego siebie.
Paradoks zaćmienia Słońca pokazuje, że struktura logiczna wyjaśniania
według modelu D-N jest nie do odróżnienia od struktury przewidywania
(predykcji) i retrodykcji (przewidywania wstecz). Retrodykcji nie można
uznać za wyjaśnienie, ponieważ nie ma – o ile wiadomo – wstecznych w
czasie oddziaływań przyczynowych. W przypadku zaćmienia Słońca
utożsamienie przewidywania z wyjaśnieniem wydaje się całkowicie
uprawnione. Ogólnie jednak nie każde przewidywanie jest wyjaśnieniem, o
czym poucza nas m.in. paradoks barometru i burzy. Na podstawie wskazania
barometru można przewidzieć, ale nie wyjaśnić, nadejście burzy.
Paradoks mężczyzny i pigułki wskazuje na to, że dla celów wyjaśniania
niezbędne jest odróżnienie czynników istotnych od nieistotnych. Fakt, że Jan
jest mężczyzną wyklucza jego ciążę, toteż stosowanie przez niego
antykoncepcji nosi cechy tzw. naddeterminacji przyczynowej, tj.
współwystępowania z przyczyną czynników zbędnych do wystąpienia
skutku, ale które mogłyby wywołać dany skutek pod nieobecność jego
faktycznej przyczyny.
Przytocz
one przykłady sugerują, że główną wadą modelu D-N jest
zaniedbanie wyjaśniającej roli związków przyczynowych. Toteż Michael
Scriven [1958] doszedł do wniosku, że wyjaśnianie nie polega na
rozumowaniu, lecz na podaniu przyczyny wyjaśnianego zjawiska. Np.
pojawienie się plamy na dywanie można wyjaśnić, bez przytoczenia
jakiegokolwiek prawa, rozlaniem się atramentu z leżącego na stole,
przewróconego kałamarza. Prawa zaś mogą ewentualnie służyć
uzasadnieniu wyjaśnienia. Przyczynowa koncepcja wyjaśniania, która
w gruncie rzeczy nawiązuje do Arystotelesa, została podjęta również przez
teoretyków wyjaśniania statystycznego. Można bowiem w wielu kontekstach
rozważać przyczyny probabilistyczne, tzn. takie, że wywołują określony
skutek nie bezwyjątkowo, lecz z pewną częstotliwością
(prawdopodobieństwem). Np. palenie papierosów jest probabilistyczną
Adam Grobler, O metodzie i strukturze nauki 87
przyczyną raka płuc. Rozciągnięcie koncepcji przyczynowej na wyjaśnianie
statystyczne jest reakcją na podobne do modelu D-N wady modelu I-S. Oto
kilka ze znanych kontrprzykładów.
Psychoterapia
. Jan miał poważne dolegliwości neurotyczne, poddał się
psychoterapii i jego dolegliwości ustąpiły. Na pozór powrót Jana do zdrowia
można wyjaśnić zgodnie z modelem I-S za pomocą następującego
rozumowania: (1) Większość pacjentów neurotycznych w następstwie
psychoterapii powraca do zdrowia (prawo statystyczne), (2) Jan poddał się
psychoterapii, (3) z (1) i (2) wynika, że prawdopodobieństwo wyzdrowienia
Jana było wysokie. Wątpliwość co do wartości tego wyjaśnienia powstaje,
gdy weźmie się pod uwagę, że u wielu osób objawy neurotyczne ustępują
samoczynnie. Przytoczone rozumowanie byłoby prawidłowym wyjaśnieniem,
gdyby okazało się, że prawdopodobieństwo wyzdrowienia w następstwie
psychoterapii jest wyraźnie wyższe od prawdopodobieństwa samoczynnego
ustąpienia objawów. Sam fakt, że prawdopodobieństwo explanandum jest
wysokie, nie gwarantuje trafności wyjaśnienia.
Witamina C i katar
. Wedle rozpowszechnionego poglądu zażywanie witaminy
C jest wysoce skuteczne w leczeniu kataru. Z drugiej strony, katar
nieleczony często ustępuje po kilku dniach. Żeby więc podać wyjaśnić w
stylu I-S wyleczenie Jana z kataru za pomocą witaminy C, podobnie jak
w przykładzie z psychoterapią nie wystarczy dowieść, że
prawdopodobieństwo wyleczenia było wysokie. Musi ono być wyraźnie
wyższe od prawdopodobieństwa samoczynnego wyzdrowienia. Żeby tego
dowieść, trzeba wykonać podwójnie maskowany eksperyment kontrolowany (double-
blind experiment). Ek
speryment nazywa się kontrolowany, jeżeli polega na
porównaniu wartości badanej zmiennej w grupie poddanej działaniu
badanego czynnika z wartością tej zmiennej w grupie kontrolnej, nie
poddanej działaniu tego czynnika. W rozważanym przypadku chodziłoby o
p
orównanie poziomu uleczalności kataru w grupie osób zażywających
witaminę C z poziomem uleczalności kataru w grupie kontrolnej, której
46 Przykład pochodzi od Salmona.
Adam Grobler, O metodzie i strukturze nauki 88
uczestnicy zażywają zamiast witaminy C placebo, tj. środek obojętny.
Eksperyment nazywa się maskowany, gdy uczestnicy eksperymentu nie
wiedzą, do której grupy należą, tj. nie wiedzą, czy zażywają witaminę C, czy
placebo. Maskowanie ma na celu wykluczenie tzw. efektu placebo, który
polega na dobroczynnym wpływie terapeutycznym wiary w skuteczność
badanego leku, w tym przypadku witaminy C. Eksperyment nazywa się
podwójnie maskowany, gdy osoby podające tabletki uczestnikom
eksperymentu również nie wiedzą, czy podają witaminę C, czy placebo.
Podwójne maskowanie wyklucza ewentualną nieświadomą sugestię w
zachowaniu podających tabletki.
Kiła i paraliż postępowy
. Paraliż postępowy (pareza, porażenie
postępujące) jest formą kiły (syfilisu) trzeciorzędowej, która występuje
wyłącznie u osób, które przebyły nieleczoną kiłę pierwszorzędową, za to ze
stosunkowo niewielkim prawdopodobieństwem ok. 25%. Ewentualne
wyjaśnienie zachorowania przez Jana na paraliż postępowy tym, że przebył
wcześniej kiłę pierwszorzędową, intuicyjnie jest zupełnie prawidłowe,
ponieważ powołuje się na przyczynę probabilistyczną. Tymczasem nie
spełnia ono warunków modelu I-S, który wymaga wysokiego
prawdopodobieństwa explanandum. Wynika stąd, że wysokie
prawdopodobieństwo explanandum nie jest warunkiem koniecznym
wyjaśniania statystycznego, podobnie jak poprzednie przykłady dowodzą, że
nie jest też warunkiem wystarczającym.
Nieprawidłowa moneta. Przypuśćmy, że gramy w orła i reszkę
nieprawidłową monetą, dla której prawdopodobieństwo wyrzucenia orła jest
równe 95%. Gdy wypadnie orzeł, wynik bez trudu znajduje wyjaśnienie na
gruncie modelu I-S. Natomiast gdy wypadnie reszka, model I-S nie dostarczy
żadnego wyjaśnienia tego zdarzenia. Tymczasem wyrzucenie reszki nie jest
ani trochę mniej zrozumiałe (chociaż o wiele mniej prawdopodobne) od
wyrzucenia orła. Jak zresztą sugeruje poprzedni przykład, nie ma powodu, by
niskie prawdopodobieństwo zdarzenia miało wykluczać jego wyjaśnienie
47 Przykład pochodzi od Scrivena.
Adam Grobler, O metodzie i strukturze nauki 89
statystyczne. Z drugiej strony, trudno uznać, żeby dwa przeciwne zdarzenia
– wyrzucenie orła i wyrzucenie reszki – miały za explanans to samo prawo.
Wówczas bowiem to prawo wyjaśnia cokolwiek się zdarzy, czyli nic nie
wyjaśnia.
Dla rozwiązania przytoczonych trudności Wesley Salmon [1971]
zaproponował model istotności statystycznej (statistical-relevance model),
zwany w skrócie modelem S-R. Z
godnie z nim wyjaśnienie statystyczne nie polega
na rozumowaniu, jak w modelu D-N, ale na wykazaniu, że explanans jest
dodatnio statystycznie istotnym czynnikiem zajścia explanandum, tzn. gdy
zachodzi explanans
, prawdopodobieństwo zajścia explanandum jest większe niż pod
nieobecność explanansa. Symbolicznie: P(E | C) > P(E), gdzie E jest explanandum a C
czynnikiem mającym dodatni wpływ na prawdopodobieństwo jego zajścia.
Zgodnie z modelem istotności statystycznej ustąpienie objawów
neurotycznych u Jana (E) można wyjaśnić podjęciem przez niego
psychoterapii (C), jeżeli prawdopodobieństwo jego wyzdrowienia pod
warunkiem podjęcia psychoterapii jest wyższe niż prawdopodobieństwo
wyzdrowienia w ogóle. Zachorowanie przez Jana na paraliż postępowy (E)
jest wyjaśnione jego wcześniejszym zakażeniem kiłą, następnie nie leczoną
(C), bo chociaż P(E | C) wynosi zaledwie 10%, to jest ono wyraźnie większe
od P(E) = P(E | C)
×
P(C) + P(E |
¬
C)
×
P(
¬
C) = P(E | C)
×
Model S-R ma jednak pewną zasadniczą słabość. Mianowicie istotności
statystycznej nie zawsze towarzyszy istotność przyczynowa, o czym
poucza nas choćby przytoczony wyżej przykład barometru i burzy
. W
[1984] Salmon przyznaje, że istotność statystyczna ma znaczenie tylko o
tyle, o ile może być świadectwem istotności przyczynowej. Innymi słowy,
korelacja statystyczna wymaga wyjaśnienia przyczynowego.
Przyczynowa koncepcja wyjaśniania również boryka się z trudnościami.
Należy do nich problem odróżnienia przyczyn głównych i ubocznych.
48 Bo P(E |
¬
C) = 0, a P(C
), tj. prawdopodobieństwo zakażenia się kiłą i następnie zaniedbania
leczenia, jest na szczęście w dzisiejszych czasach znikome.
49
Nawet gdyby związek między spadkiem wskazówki barometru a wystąpieniem burzy
był bezwyjątkowy (np. gdyby barometry nigdy się nie psuły), byłby szczególnym przypadkiem
korelacji statystycznej.
Adam Grobler, O metodzie i strukturze nauki 90
Zdarzenia w świecie są zazwyczaj skutkami złożonych splotów przyczyn.
Weźmy pod uwagę np. pożar lasu
. Na pogorzelisku znaleziono rozbitą
butelkę. Odtworzenie przebiegu wypadków jest łatwe. Denko butelki
zadziałało jak soczewka, skupiło promienie słoneczne, co podgrzało ściółkę
do temperatury samozapłonu. Werdykt na pozór jest jasny: przyczyną
pożaru jest pozostawienie przez beztroskich turystów rozbitej butelki. Ale
przecież gdyby pogoda była pochmurna, denko butelki nie miałoby czego
skupiać. Gdyby nawet pogoda była słoneczna, ale ściółka była zamoknięta,
skupiona przez denko wiązka promieni słonecznych nie podpaliłoby jej.
Gdyby nawet pogoda była słoneczna i ściółka wysuszona, ale w atmosferze
ziemskiej nie byłoby tlenu, do pożaru by nie doszło itd. Pożar powstał na
skutek splotu niezliczonych okoliczności i nie sposób je wszystkie wymienić.
Toteż wyjaśnienie przyczynowe nie może polegać na przytoczeniu pełnej
listy przyczyn, bo taki wymóg byłby nie do spełnienia. Trzeba więc
ograniczyć się do przyczyn głównych a pominąć przyczyny uboczne. Ale
które są główne, a które uboczne?
Standardowa odpowiedź za przyczyny wyjaśniające uznaje jedynie
przyczyny abnormalne
, tj. takie, które w normalnych okolicznościach nie
występują
. Ten manewr jednak tylko przesuwa problem: które
okoliczności są normalne, a które nie? Nikt przy zdrowych zmysłach nie
będzie próbował wyjaśnić pożaru lasu obecnością tlenu w atmosferze, bo
ta wydaje nam się rzeczą normalną. Sprawa jednak może się przedstawiać
zupełnie inaczej dla uczonych przybyłych z kosmosu. W takim razie
odróżnienie wyjaśnienia od pseudo-wyjaśnienia nie ma charakteru
obiektywnego, jest względne.
Biorąc pod uwagę trudności wyjaśniania przyczynowego, Philip Kitcher
[1981] rozwinął teorię wyjaśniania jako unifikacji. Zgodnie z nią wyjaśnianie
50 Przykład pochodzi od Hilarego Putnama [1983].
51 To rozwiązanie nawiązuje do koncepcji Brombergera [1966] prawa abnormalnego, tj.
prawa zawierającego warunek “chyba, że”, np. “Prędkość ciała w ruchu się nie zmienia,
chyba że wypadkowa sił działających na nie jest niezerowa”. Formułuje ono wyjątki od
ogólnej reguły: “Ciała zmieniają prędkość w zależności od sił działających na nie, ale…”,
co pozwala wyjaśnić nieoczekiwane zjawiska.
Adam Grobler, O metodzie i strukturze nauki 91
polega na rozumowaniu, jak w koncepcji Hemp
la. Trudności koncepcji klasycznej
rozwiązuje narzucenie na rozumowania wyjaśniające dodatkowego warunku.
Mianowicie muszą one podpadać pod pewien ogólny wzór rozumowania
dostarczony przez unifikującą teorię naukową, tj. teorię odnoszącą się do
szerokiej klasy zjawisk. Przykładami teorii unifikujących są mechanika
Newtona lub darwinowska teoria ewolucji. Watkins [1984] przyjął stopień
unifikacji teorii za miarę głębi wyjaśniania. Teorię T nazwał on jednolitą
unifikacją teorii T
1
i T
2
(a tym samym za dostarc
zającą głębszych od nich
wyjaśnień), gdy T jest takim połączeniem T
1
i T
2
, że jej treść empiryczna jest
bogatsza od sumy treści empirycznych T
1
i T
2
(tzn. wynikają z niej pewne
konsekwencje, które nie wynikają z żadnego z jej składników z osobna).
Za kryterium jednolitości teorii kryje się sugestia, że nie każda unifikacja
zwiększa nasze rozumienie zjawisk. Prostemu połączenie dwóch teorii, bez
dodatkowych konsekwencji empirycznych, nawet jeśli dostarcza jednolitego
wzoru rozumowania wyjaśniającego, kryterium Watkinsa odmawia mocy
wyjaśniającej. Można stąd wyciągnąć wniosek, że dążenie do unifikacji w
nauce nie ma wartości, jeżeli nie ma na celu wzrostu mocy wyjaśniającej
całej nauki. Innymi słowy, pożytki eksplanacyjne (“wyjaśnieniowe”) decydują
o wartości inifikacji teoretycznej, a nie na odwrót. Dlatego pytanie o to, co to
jest wyjaśnienie, znowu powraca. Powraca też obecna w tle wszystkich
dotychczasowych koncepcji odpowiedź na to pytanie, wedle której
wyjaśnienie polega na udzieleniu odpowiedzi na pytanie typu “dlaczego?”. W
ten sposób dochodzimy do erotetycznych koncepcji wyjaśniania.
I.5.3. Erotetyczna koncepcja
wyjaśniania
O tym,
wyjaśnianie polega na odpowiadaniu na pytanie typu “dlaczego?” mówiono,
rzecz jasna, od
dawna. Według koncepcji klasycznej, odpowiedź na pytanie
“Dlaczego P?” ma brzmieć: “Ponieważ P wynika z …”, ewentualnie
“Ponieważ wysokie prawdopodobieństwo zajścia P wynika z …”, gdzie po
Adam Grobler, O metodzie i strukturze nauki 92
wielokropku występuje przynajmniej jedno prawo. Według koncepcji
przyczynowej odpowiedź powinna być postaci “Ponieważ P zostało
spowodowane przez …”. Trudności tych koncepcji naprowadziły niektórych
teoretyków wyjaśniania na myśl, że wyjaśnianie ma charakter pragmatyczny,
tzn. zależny od kontekstu. Pytając o wyjaśnienie tego samego zjawiska
możemy pytać o bardzo różne rzeczy. Gdy pytanie “Dlaczego nastąpił ten
wypadek drogowy?” zada policjant, zadowoli się odpowiedzią “Ponieważ
kierowca był niezupełnie trzeźwy”. Inżynier drogowy będzie oczekiwał
odpowiedzi w rodzaju “Łuk szosy był niewłaściwie wyprofilowany”.
Konstruktor pojazdów będzie raczej zainteresowany odpowiedzią na temat
ewentualnych wad konstrukcyjnych samochodu. Psychologowi może
chodzić o poziom pobudzenia nerwowego kierowcy. Itd. Ilu pytających, tyle
różnych wyjaśnień.
Interesującą pragmatykę wyjaśniania rozwinął van Fraassen [1980].
Według niego, po pierwsze, treść pytania typu “dlaczego?” zależy od akcentu
zdaniowego. Np. (i) “Dlaczego Adam
zjadł jabłko?”; (ii) “Dlaczego Adam zjadł
jabłko?”; (iii) ”Dlaczego Adam zjadł jabłko?”. Akcent zdaniowy sugeruje, że
pytanie “Dlaczego P?” domyślnie obejmuje warunek postaci “... a nie P*”:
(i) “Dlaczego Adam zjadł jabłko, a nie Ewa, lub wąż, lub ...?”; (ii) “Dlaczego
Adam zjadł jabłko, a nie gruszkę, lub pomarańczę, lub ...?”; (iii) “Dlaczego
Adam zjadł jabłko, a nie wyrzucił go, lub schował, lub ...?”. W skład pytania
typu “dlaczego?” wchodzi zatem, prócz jego tematu (topic), tj. zdania
następującego po wyrazie “dlaczego” (“Adam zjadł jabłko”), pewna klasa
kontrastu
, złożona z tematu i zdań alternatywnych do tematu, które mogą
wystąpić po słowach “... a nie” (w pierwszym przypadku “Ewa zjadła
jabłko”, “wąż zjadł jabłko” itd.).
Dalej, pytania o tym samym temacie i tej samej klasie kontrastu mogą
różnić się jeszcze tym, że domagają się różnego rodzaju odpowiedzi,
zależnie od wiedzy pytającego i jego zainteresowań. Na pytanie “Dlaczego
Adam
zjadł jabłko?” odpowiedź “Bo był głodny” nie zadowoli tego, kogo
interesują motywy złamania Boskiego zakazu, ani tego, kto nie wie, że
Adam Grobler, O metodzie i strukturze nauki 93
jabłka są jadalne. Krótko mówiąc, prócz tematu i klasy kontrastu, trzecim
składnikiem pytania jest zależna od kontekstu relacja istotności (relevance
relation
). Zachodzi ona między parami złożonymi z tematu pytania i jego
klasy kontrastu a zdaniami, które w danym kontekście kandydują do roli
tzw. odpowiedzi bezpośredniej, tj. odpowiedzi typu “Ponieważ ...”.
Kontekst zaś jest wyznaczony przez wiedzę zastaną (wiedzę pytającego) i
potrzeby poznawcze. Symbolicznie: Q = <P
k
, X, R>, gdzie Q jest pytaniem typu
“dlaczego?”, P
k
jego tematem, X
klasą kontrastu, a R relacją istotności.
Van Fraassen podaje również kryteria oceny wartości eksplanacyjnej
odpowiedzi na pytanie “dlaczego?”. Pierwszym jest ocena
prawdopodobieństwa odpowiedzi ze względu na wiedzę zastaną. Drugim jest
to, w jakim stopniu odpowiedź wyróżnia temat pytania w stosunku do
pozostałych elementów klasy kontrastu. Trzecim jest porównanie
rozpatrywanej odpowiedzi z odpowiedziami alternatywnymi pod względem
prawdopodobieństwa i stopnia wyróżniania tematu pytania oraz ustalenie,
czy w świetle jakiejś ewentualnej innej odpowiedzi rozpatrywana odpowiedź
nie jest nieistotna.
Salmon [1987] krytykował koncepcję van Fraassena za nadmiar
pragmatyzmu czy kontekstualizmu. W szczególności dowodził, że relacja
istotności jest zdefiniowana zbyt mgliście. Można ją w pewnych kontekstach
tak dookreślić, że odpowiedzi astrologiczne uzyskują wysoką ocenę.
Osobiście nie wydaje mi się to samo w sobie poważną wadą. Ostatecznie,
można sobie świetnie wyobrazić, że przy pewnym stanie wiedzy ludzkości
wyjaśnienia astrologiczne pewnych zdarzeń są najlepsze z dostępnych.
Gorzej, że gdy do kontekstu włączymy współczesną wiedzę naukową, to
wprawdzie w jej świetle odpowiedzi astrologiczne okażą się nieistotne, ale za
to w świetle astrologii odpowiedzi naukowe będą nieistotne. Toteż w
kontekstach obejmujących lepszą i gorszą wiedzę, albo wręcz czcze
przesądy
, nie ma sposobu na odróżnienie wyjaśnień lepszych i gorszych.
52
Na marginesie pragnę przypomnieć pogląd Poppera, który podzielam (zob. I.4.1), że nie ma nauki
wolnej od prze
sądów. Choćby z punktu widzenia współczesnej nauki astrologia była tylko zbiorem
prze
sądów, byłoby przesądem wierzyć, że tak musi pozostać na zawsze. Ostatecznie przesądna wiara
Adam Grobler, O metodzie i strukturze nauki 94
Z prezentowanego tutaj punktu widzenia, istotną wadą koncepcji van
Fraassena jest uznawanie względnego prawdopodobieństwa odpowiedzi za
czynnik wpływający na ocenę jej mocy wyjaśniającej. W I.2.3. starałem się
udowodnić, że bez rozumienia mechanizmów rządzących danego typu
zdarzeniami ocena ich względnego prawdopodobieństwa musi być
całkowicie arbitralna. Jeżeli mam rację, to raczej ocena mocy wyjaśniającej
odpowiedzi wpływa na ocenę jej prawdopodobieństwa, niż na odwrót. Wada
koncepcji van Fraassena, o której mowa, jest konsekwencją odrzucenia
przez niego zasady wnioskowania do najlepszego wyjaśnienia. Uważa on
wyjaśnianie za przedsięwzięcie pozanaukowe, do którego wyniki nauki
można ewentualnie stosować. Sukcesom eksplanacyjnym hipotez odmawia
on jakiegokolwiek związku z ich wartością poznawczą, o której decyduje
wyłącznie tzw. adekwatność empiryczna (zob. IV.1).
Inny kłopot, gdy idzie o możliwość oceny prawdopodobieństwa
odpowiedzi, polega na niejasności semantyki zdań typu “Ponieważ A”. To
znaczy, nie jest jasne, co to znaczy, że zdanie typu “Ponieważ A” jest
praw
dziwe. Prawdziwość A jest warunkiem koniecznym prawdziwości zdania
“Ponieważ A”, z pewnością jednak nie jest warunkiem wystarczającym. Jeżeli
zaś nie są określone warunki prawdziwości zdania, tym bardziej nie są
określone warunki posiadania przezeń takiego czy innego stopnia
prawdopodobieństwa. Problemy z semantyką odpowiedzi na pytanie typu
“dlaczego?” starałem się rozwiązać w [Grobler 2000]. Stosowałem tam
zmodyfikowaną przeze mnie koncepcję wyjaśniania van Fraassena do
sformułowania porównawczego kryterium mocy wyjaśniającej hipotez, które
mogłoby pełnić rolę zasady wnioskowania do najlepszego wyjaśnienia. W
I.5.5. przedstawię zasadniczo to samo kryterium, ale sformułowane za
pomocą mniej kłopotliwego aparatu pojęciowego.
Peter Lipton [1991] zaproponow
ał koncepcję wyjaśniania, która ma, podobnie
jak u van Fraassena, charakter erotetyczno-kontrastowy, ale unika
alchemików w możliwość transmutacji metali nieszlachetnych w złoto ziściła się dzięki współczesnej
fizyce jądrowej. Niestety, pozyskiwanie złota za pomocą reakcji jądrowych jest metodą nie dającą
zwrotu z inwestycji.
Adam Grobler, O metodzie i strukturze nauki 95
problemów semantycznych łącząc ją z koncepcją przyczynową. Wyjaśnienie,
według niego, polega na udzieleniu odpowiedzi na pytanie typu “Dlaczego P,
a nie Q?” przez podanie czynnika przyczynowego obecnego w historii przyczynowej P
, a nie
mającego swojego odpowiednika w historii przyczynowej
¬
Q
. Przykładem
może być odpowiedź Semmelweissa na pytanie, dlaczego poziom
śmiertelności na jednym oddziale położniczym był zdecydowanie wyższy niż
na drugim: “Ponieważ położnice na pierwszym oddziale były zakażane przez
studentów-praktykantów «trupim jadem», podczas gdy położnice na drugim
oddziale nie miały z «trupim jadem» kontaktu”.
Przytoczone koncepcje łączy myśl, że wyjaśnianie polega na znajdowaniu
odpowiedzi na pytanie typu “dlaczego?”. Mimo że takie postawienie sprawy
wydaje się całkiem naturalne, nie jest ono wcale wolne od wątpliwości. Nie
wszystkie pytania typu “dlaczego?” są pytaniami o wyjaśnienie, zwłaszcza
naukowe. Gdy dopiero co owdowiała kobieta woła: “Dlaczego umarłeś?!”,
oczywiście nie domaga się wyjaśnienia od nieboszczyka, tym bardziej, że
może świetnie rozumieć medyczne przyczyny zgonu męża. Wyraża jedynie
swój ból. Gdy pytam: “Dlaczego tak sądzisz?”, pragnę dowiedzieć się jakie
świadectwa lub poszlaki zna mój rozmówca na poparcie swej tezy, a nie
zrozumieć tajniki zachodzących u niego procesów myślowych. Z drugiej
strony, wielu filozofów jest zdania, że nie tylko pytania typu “dlaczego?”, ale
również pytania typu “jak?” bywają pytaniami o wyjaśnienie. Np. “Jak
więzień uciekł z więzienia?”, “Jak przekazywana jest informacja
genetyczna?”.
Wyjaśnienie z formą pytania bardziej jednoznacznie łączy koncepcja
wyjaśniania przez wyszczególnienie (explanation by specification) [Kuipers i
Wiśniewski, 1994; Kuipers 2001]
. Przyczynowe wyjaśnienie przez
wyszczególnienie polega na podaniu odpowiedzi na pytanie Q
postaci: “Co jest
przyczyną zajścia (abnormalnego) zdarzenia b w układzie a?”, które jest
parafrazą mniej jednoznacznego pytania: “Dlaczego w układzie a zaszło
53 Pierwotna wersja pochodzi od Theo Kuipersa. Andrzej Wiśniewski nadał jej formę
erotetyczną, co znacznie ją wzbogaciło.
Adam Grobler, O metodzie i strukturze nauki 96
b?”. Presupozycj
ą tego pytania jest P: “Zdarzenie b zaszło w układzie a na skutek
wystąpienia pewnej szczególnej przyczyny”. Odpowiedź A ma formę:
“Zdarzenie b w układzie a zaszło na skutek wystąpienia przyczyny x”. Znaczenie
A
objaśniają następujące postulaty znaczeniowe PZ: (i) w układzie a zaszło
zdarzenie b
; (ii) w układzie a zaszło zdarzenie x i jest ono abnormalne w a; (iii)
istnieją czynniki f
1
, …, f
n
takie, że f
1
, …, f
n
normaln
ie występują w układzie a
i “jeżeli x oraz f
1
, …, f
n
to w układzie a zachodzi b” jest prawem przyczynowym
(przy
czynowym prawem następstwa, zob. II.6) oraz (iv) x jest czynnikiem
istotnym przyczynowo dla wystąpienia b.
Grobler i Wiśniewski [2002] zauważyli, że wyjaśnianie przez
wyszczególnienie ma również, jak w koncepcjach van Fraassena i Liptona,
charakter kontrastowy. Mianowicie, jeżeli “abnormalny” znaczy tyle, co
“nieoczekiwany”, wyjściowe pytanie można sparafrazować na: “Dlaczego
(z jakiej przyczyny) w układzie a zaszło (nieoczekiwane) b, a nie któreś
spośród (jak zazwyczaj) b
1
, …, b
k
,?”. Z kolei postulaty znaczeniowe odpowiedzi PZ
(ii)-(iv) gwarantują, że odpowiedź wyróżnia temat pytania, jak by
powiedział van Fraassen, albo że wskazuje na pewien czynnik w historii
przyczynowej b, który nie ma odpowiednika w histor
ii przyczynowej żadnego z
¬
b
i
, i = 1,
…, k, jak by
powiedział Lipton.
Co zatem nadzwyczajnego jest w koncepcji Kuipersa-Wiśniewskiego? Po
pierwsze to, że dzięki uściślającej parafrazie pytania typu “dlaczego?” na
pytanie typu “co?” (“które z?”), poszukiwanie wyjaśnienia daje się
przedstawić w formie rozumowania erotetycznego (por. I.4.2). Poszukując
odpowiedzi badacz wysuwa pewną hipotezę H, stawiając pytanie typu “tak-
lub-nie”: “Czy c jest przyczyną b?”. To pytanie razem ze zdaniami PZ implikuje
erotetycznie kolejne pytania:
“Czy w układzie a zaszło zdarzenie c i czy jest ono
abnormalne w a
”, “Czy istnieją czynniki f
1
, …, f
n
takie, że f
1
, …, f
n
normaln
ie
występują w układzie a i «jeżeli c oraz f
1
, …, f
n
to w układzie a zachodzi b» jest
prawem przyczynowym”
, “Czy c
jest czynnikiem istotnym przyczynowo dla
54 W sprawie warunków (
hipotetycznej) akceptacji odpowiedzi pozytywnej (“Tak”) na to pytanie
Adam Grobler, O metodzie i strukturze nauki 97
wystąpienia b?”. Jeżeli na wszystkie te pytania odpowiedź będzie pozytywna,
wówczas hipoteza H zostanie potwierdzona. W prze
ciwnym razie należy wysunąć
kolejną hipotezę i postawić pytanie: “Czy c’ jest przyczyną b?”. Gdy wszystkie
(ze względu na wiedzę zastaną) możliwości c, c’, c”, … zostaną wyczerpane,
pozostaje bądź zrewidować wiedzę zastaną tak, aby otworzyć pole do
stawiania nowych hipotez, bądź pozostaje zrewidować presupozycję P
wyjściowego pytania Q. To zaś jest równoznaczne z udzieleniem odpowiedzi
korekcyjnej: “b zaszło (zamiast w wyniku wystąpienia jakiejś abnormalnej
przyczyny) bądź w wyniku (abnormalnego) splotu (normalnych lub
abnormalnych) przyczyn, bądź bez (abnormalnej) przyczyny w ogóle”
Drugą zaletą koncepcji wyjaśniania przez wyszczególnienie jest jego
otwartość na inne typy wyjaśniania niż przyczynowe. W szczególności
Kuipers i Wiśniewski rozpatrują wyjaśnianie intencjonalne i wyjaśnianie
funkcjonalne
. Pierwsze z nich polega na udzielaniu odpowiedzi na pytanie typu “Dlaczego
osoba a
popełniła czyn b?” sparafrazowane na “Jaki motyw (cel) miała osoba
a
, aby popełnić czyn b?”. Drugie parafrazuje pytanie typu “Dlaczego organizmy gatunku
a
mają wykształconą cechę b?” na pytanie typu “Jaką funkcję biologiczną
(ewolucyjną) cecha b pełni (pełniła) u organizmów gatunku a?”.
Wyjaśnienia intencjonalne mogą mieć ważne zastosowanie np. w śledztwie
kryminalnym lub w psychoterapii. Wyjaśnienia funkcjonalne mają kluczowe
znaczenie np. w konstruowaniu scenariuszy ewolucyjnych.
Szczegóły analizy tych
typów wyjaśniania pominę, ponieważ ich struktura jest zasadniczo taka
sama, jak wyjaśniania przyczynowego.
Erotetyczne ujęcie koncepcji wyjaśniania przez wyszczególnienie
występuje różnica zdań między mną a Wiśniewskim. Wiśniewski uważa, że czynniki f
1
, …, f
n
muszą zostać zidentyfikowane i explicite (tzn. wyraźnie) wymienione. Według mnie można
uznać, że część z nich jest implicite (między wierszami) i wchodzi w skład warunku ceteris
paribus (zob. I.5.4).
55 Akceptacja drugie
go członu tej alternatywy może wydawać się z gruntu nienaukowa.
Tymczasem wydaje się całkiem naturalne uznać, że na pytanie: “Co było (abnormalną)
przyczyną tego, że Jan wygrał w Toto-Lotka?” właściwą odpowiedzią jest “Nic”. Z
pewnością na wynik losowania składa się wiele przyczyn, lecz gdyby któraś z nich była
abnormalna, sprawą powinien zająć się prokurator.
56 Znowu: pierwotna
koncepcja pochodzi od Kuipersa, jej erotetyczne rozwinięcie od
Wiśniewskiego.
Adam Grobler, O metodzie i strukturze nauki 98
wyraźnie ukazuje wiedzotwórczy mechanizm poszukiwania wyjaśnień. Z
tego względu można uważać je za przyczynek do teorii lub “logiki” odkrycia,
zapoczątkowanej przez Norwooda R. Hansona [1958]. Uważał on, że ogólne
wzory dochodzenia do odkrycia naukowego można znaleźć badając
strukturę rozumowania abdukcyjnego (por. I.5.1). Od tego czasu badanie
filozoficznych i logicznych, w odróżnieniu od psychologicznych, aspektów
odkrycia naukowego ma swoich zagorzałych entuzjastów
. Natomiast wedle
dominującego wcześniej stanowiska empiryzmu logicznego, przedmiotem
filozofii nauki czy metodologii są przede wszystkim problemy struktury już
gotowej wiedzy oraz jej uprawomacniania
. Dobitnie ujmuje to wprowadzone przez
Reichenbacha [1938] rozróżnienie kontekstu odkrycia i kontekstu uzasadnienia.
Pierwszy dość powszechnie uznano za wyłączną domenę psychologii,
traktując tylko drugi za właściwy przedmiot dociekań. Szczególnie wyraźnie
sprawę stawiał Popper twierdząc, że filozoficzne rozumienie nauki osiąga się
badając jej gotowe, zobiektywizowane wytwory, ignorując z zasady
irracjonalne lub aracjonalne procesy ich powstawania. Dawniejsi filozofowie
często uważali, że metoda naukowa stosuje się i do odkrywania i do
uzasadniania. Tak sądził twórca metody indukcji eliminacyjnej, Bacon, i
twórca metody abdukcji, Peirce. Współcześnie zbliżone do tego, choć nie tak
jednoznaczne stanowisko zajmował np. Lakatos. Z kolei Larry Laudan [1977]
uważał, że ze względu na odmienność problemów potrzebny jest podział
bardziej subtelny: należy wyróżnić trzy konteksty: odkrycia, rozpatrywania
(pursuit) i akceptacji.
Spróbuję teraz wykazać, że erotetyczna koncepcja wyjaśniania wnosi
istotny wkład nie tylko do problematyki kontekstu odkrycia, ale również
kontekstu uzasadniania lub, jak kto woli, kontekstów rozpatrywania i
akceptacji.
57 W Polsce m.in. Wojciech Sady, zwłaszcza [1990].
58
W Polsce podobne stanowisko zajmowała szkoła lwowsko-warszawska, pod wpływem
wprowadzonego przez Kazimierza Twardowskiego rozróżnienia na czynności i wytwory
poznawcz
e. Pierwsze miały być przedmiotem psychologii, drugie filozoficznej teorii poznania.
Adam Grobler, O metodzie i strukturze nauki 99
I.5.4. Porównywanie mocy
wyjaśniającej hipotez
O ile pojęcie abnormalnego zdarzenia i abnormalnej przyczyny może
mieć zastosowanie w kontekście odkrycia, o tyle jest całkiem
nieodpowiednie w kontekście uzasadnienia. Kiedy wyjaśnienie zostanie już
wynalezione, zdarzenia i przyczyny abnormalne stają się zupełnie normalne.
Przykładem mogą być drgania żabich udek, które doprowadziły do odkrycia
elektryczności. Czy kiedy wyjaśniane zdarzenia znormalnieją, wyjaśnienie
przestaje być wyjaśnieniem? Nie mniej od wyjaśnienia niezwykłości cenimy
wyjaśnienia naukowe zjawisk wręcz codziennych, jak spadanie ciał,
przypływy i odpływy morskie, wschody i zachody Słońca. Jeszcze bardziej
cenimy lepsze wyjaśnienia zjawisk dawno wyjaśnionych, np. wolimy
grawitacyjne wyjaśnienie spadania od wyjaśnienia za pomocą teorii ruchu
naturalneg
o, heliocentryczne wyjaśnienia wschodów i zachodów Słońca, od
geocentrycznego. Najbardziej nienormalne jest to, że są jakieś zjawiska
normalne. Zdumienie tym faktem doprowadziło Anaksymandra z Miletu (ok.
610-546 p.n.e.), który sformułował zasadę wyjaśniania rzeczy widzialnych
(znanych, znajomych, zwyczajnych) za pomocą rzeczy ukrytych
(nieznanych). W życiu codziennym gdy prosimy kogoś o wyjaśnienie czegoś,
często chodzi nam o to, by coś nam nieznanego przedstawił za pomocą
pojęć nam znanych. Jednak myślenie naukowe kieruje się zasadą
Anaksymadra. Widzialne spadanie wyjaśniamy za pomocą zagadkowych,
działających na odległość sił ciążenia, światło lampy za pomocą prądu
elektrycznego, burze za pomocą przemieszczania się frontów
atmosferycznych. Kto widział front atmosferyczny?
Dlatego koncepcja Kuipersa-Wiśniewskiego wymaga wyraźniejszego
przeformułowania na ujęcie kontrastowe, naśladujące pomysły van
Fraassena i Liptona. W przypadku wyjaśniania przyczynowego za ogólną
formę pytania Q proponuję przyjąć: “Dlaczego (z jakiej przyczyny)
w układzie a zaszło b, a nie któreś spośród b
1
, …, b
k
?”. Presupozycją tego
Adam Grobler, O metodzie i strukturze nauki 100
pytania jest P: “Zdarzenie b (a nie któreś z b
1
, …, b
k
) zaszło w układzie a na
skutek wystąpienia pewnej szczególnej przyczyny x”. Odpowiedź
bezpośrednia A ma formę: “Zdarzenie b w układzie a zaszło na skutek
wystąpienia przyczyny x”. Znaczenie A objaśniają następujące postulaty
znaczeniowe PZ: (i) w układzie a zaszło zdarzenie b, a nie zaszło żadne
z b
1
, …, b
k
; (ii) w układzie a zaszło zdarzenie x; (iii) istnieją czynniki f
1
, …, f
n
takie, że “Jeżeli x oraz f
1
, …, f
n
to w układzie a zachodzi b” i nie zachodzi żadne
z b
1
, …, b
k
” jest prawem przyczynowym; (iv) x
jest czynnikiem istotnym
przyczynowo dla wystąpienia b; (v) “Jeżeli x oraz f
1
, …, f
n
, to w układzie a
zachodzi któreś z b
1
, …, b
k
” nie jest prawem przyczynowym; oraz (vi) “Jeżeli
f
1
, …, f
n
, to w układzie a nie zachodzi żadne z b
1
, …, b
k
” nie jest prawem
przyczynowym.
Na pytanie Q
możliwa jest też odpowiedź korekcyjna C o jednej z
następujących form: “W układzie a (wbrew pozorom) nie zaszło zdarzenie
b
”, “W układzie a (wbrew pozorom) zaszło któreś ze zdarzeń b
1
, …, b
k
(mimo
zajścia b lub pod jego nieobecność)”, “Zdarzenie b w układzie a zaszło na
skutek splotu przyczyn x
1
, …, x
p
”, “Zdarzenie b
w układzie a zaszło bez
przyczyny”. Każda z tych odpowiedzi wymaga uwiarygodnienia w formie
odpowiedniej rewizji wiedzy zastanej.
Obecna koncepcja, dzięki odwołaniu się do przyczynowości, rozwiązuje
problemy klasycznej koncepcji wyjaśniania: asymetrii, istotności
wyjaśniającej itd. Następnie, dzięki kontrastowości, rozwiązuje problemy
czystej koncepcji przyczynowej: odróżnienia przyczyn głównych od
ubocznych. Przytoczony schemat wyjaśniania można uogólnić na
przyczyny probabilistyczne i przyczynowe prawa statystyczne, co dobrze
ilustruje historia odkrycia Semmelweisa. Poszukiwał on probabilistycznej
przyczyny wyższego, niż na drugim oddziale, poziomu zapadalności na
gorączkę połogową na pierwszym oddziale położniczym: b = poziom
zapadalności na oddziale wynosi ok. 10%; b
1
= poziom zapadalności na
Adam Grobler, O metodzie i strukturze nauki 101
oddziale wynosi ok. 2% (jak na drugim oddziale). Odpowiedź brzmiała: x =
zakażanie “trupim jadem” przez osoby mające bezpośrednio przed
kontaktem z pacjentkami kontakt ze zwłokami; f
1
= zakażanie “trupim
jadem” w ogóle; f
2
, …, f
n
= czynniki wpływające na odporność organizmu.
(Na marginesie: tak pojmowane wyjaśnianie statystyczne nie stosuje
się do wyjaśniania indywidualnych przypadków, a tylko do próbek
statystycznych. Na pytanie, dlaczego Jan, a nie Piotr zachorował na paraliż
postępowy nie ma dobrej odpowiedzi, chyba że Piotr, w odróżnieniu od
Jana, nigdy nie chorował na kiłę. Podobnie jak w przypadku historii
Semmelweisa nie ma dobrej odpowiedzi na pytanie, dlaczego Janina, a nie
Barbara zapadła na gorączkę połogową, chyba że Barbara, w odróżnieniu
od Janiny, znajdowała się w okolicznościach wykluczających zakażenie.
Semmelweis mógł jedynie wyjaśnić, dlaczego w jednej próbce
statystycznej (na pierwszym oddziale) zapadalność na gorączkę połogową
jest inna (znacznie wyższa) niż w innej próbce (na drugim oddziale).
Odrzucając możliwość statystycznego wyjaśnienia indywidualnych
przypadków unikamy przytoczonych w I.5.2. klasycznych problemów
wyjaśniania statystycznego).
Podobnie, kontrastowe ujęcie wyjaśniania intencjonalnego i
funkcjonalnego, którego precyzyjne sformułowanie pominę, jest wolne od
problemów dotychczasowych koncepcji wyjaśniania.
Po wyjaśnieniu, co to jest wyjaśnienie, pora na wyjaśnienie, co to
znaczy, że jedno wyjaśnienie jest lepsze od drugiego. Ograniczymy się na
razie do wyjaśnienia przyczynowego. Lipton [1991] wymienia trzy aspekty,
ze względu na które można porównywać ze sobą konkurencyjne
wyjaśnienia: ujawnianie mechanizmu przyczynowego, dokładność
(precyzja) i unifikacja. Nie rozwija jednak tej kwestii wystarczająco
szczegółowo. Zmierzając do ściślejszego ujęcia tego zagadnienia,
przyjmijmy na początek, że wyjaśnienie (przyczynowe) jest tym lepsze im
większą moc wyjaśniającą, spośród hipotez alternatywnych, ma hipoteza
wyrażająca prawo przyczynowe, o którym mowa w PZ(v). Przy czym hipoteza
Adam Grobler, O metodzie i strukturze nauki 102
ma moc wyjaśniającą tym większą, na im więcej pytań o wyjaśnienie
można dzięki niej udzielić poprawnych odpowiedzi. Zanim te intuicje
sformułuję w sposób ścisły, omówię ich tło historycznofilozoficzne.
Przypomijmy
sobie popperowskie kryteria przyrostu wiedzy (I.3.3). Mowa
w nich była o tym, że hipoteza powinna wyjaśniać wszystko to, co
wyjaśniają dotychczasowe hipotezy, a ponadto winna wyjaśniać coś
jeszcze. Sformułowanie Poppera wyraża te same intuicje, które zamierzam
niżej rozwinąć. Można więc powiedzieć, że Popper również zakłada zasadę
wnioskowania do najlepszego wyjaśnienia, tyle że na gruncie modelu D-N
wyjaśniania, który nie odróżnia on wyjaśniania od przewidywania i
retrodykcji (zob. I.5.2). Dlatego kryteria wyboru hipotez u Poppera
przyjmują postać warunków bogatej treści empirycznej i względnego
sukcesu empirycznego. Natomiast wedle proponowanego tutaj ujęcia
należy wyżej cenić hipotezy wyjaśniające od zdań wyrażających
(niewyjaśnione) prawidłowości empiryczne. Dzięki temu można będzie
sformułować brakujące koncepcji Poppera kryterium racjonalności rewizji
wiedzy zastanej.
Kryterium to jest blisko spokrewnione ze sformułowanym przez
Larry’ego Laudana [1977] rozwiązania problemu Duhema. Mówi ono, że z
dostępnych sposobów rewizji układu hipotez H
1
, …, H
n
należy wybrać ten,
który prowadzi do takiego układu H
1
’, …, H
n
’, że koniunkcja H
1
’
∧
…
∧
H
n
’
pozwala rozwiązać więcej problemów niż jej odpowiedniki powstałe w
wyniku alternatywnych sposobów rewizji. Mankamentem ujęcia Laudana,
którego szczegóły, ze względu na brak miejsca, musimy pominąć, jest
niezbyt ścisłe zdefiniowanie pojęcia problemu. Skutkiem tego powstają
wątpliwości w kwestii, jak liczyć problemy, tzn. co jest jednym problemem,
a co zespołem wielu problemów. Niżej sformułowane kryterium jest wolne
od tych trudności.
Ponadto poniższe kryterium pozwala, w odróżnieniu od koncepcji
Kitchera (zob. I.5.2), czy wspomnianego przed chwilą Liptona, zdać sprawę
Adam Grobler, O metodzie i strukturze nauki 103
z tego, na czym polega wartość eksplanacyjna unifikacji: hipotezy teorii
bardziej zunifikowanej pozwalają udzielić odpowiedzi na więcej pytań od
hipotez teorii mniej zunifikowanych. Z kolei wartość dokładności czy
precyzji wyjaśniania jest uwzględniona w kontrastowej definicji pytania: im
wyjaśnienie jest precyzyjniejsze, tym więcej empirycznie odróżnialnych
rozróżnień można przeprowadzić między w explanandum złożonym ze
zdarzenia b, o którym zakłada się, że zaszło i zdarzeniami b
1
, …, b
k
, które
mogłyby zajść zamiast niego. Wobec tego, na tym więcej bardziej
szczegółowych pytań można znaleźć odpowiedź.
Teraz pora na zapowiadane kryterium, a raczej kryteria. Pierwsze
będzie zrelatywizowane do wiedzy zastanej, drugie będzie dotyczyło
problemu rewizji wiedzy zastanej. Najpierw dwie definicje:
DF 1. Zdanie A “Zdarzenie b
w układzie a zaszło na skutek wystąpienia
przyczyny c” nazywa się poprawną, ze względu na wiedzę zastaną W,
odpowiedzią bezpośrednią na pytanie Q “Dlaczego (z jakiej przyczyny)
w układzie a zaszło b, a nie któreś spośród b
1
, …, b
k
?” wtedy i tylko wtedy, gdy
postulaty znaczeniowe PZ (i)-(vi) zdania A
nadają się do przyjęcia (są
wiarygodnymi hipotezami) w świetle W.
Komentarz: odpowiedź poprawna ze względu na wiedzę W może nie być
poprawna ze względu na wiedzę W’, np. gdy W’ obejmuje świadectwa
podważające hipotezę, o której mowa w PZ(v).
DF 2
. Pytanie o wyjaśnienie Q nazywa się zastosowaniem wyjaśniającym
hipotezy H
ze względu na wiedzę zastaną W wtedy i tylko wtedy, gdy istnieje na
nie poprawna ze względu W odpowiedź bezpośrednia A taka, że postulat
znaczeniowy PZ(v) zdania A jest konsekwencją logiczną H.
Zbiór zastosowań wyjaśniających hipotezy H ze względu na wiedzę
zastaną W oznaczymy przez ZW(H, W).
Adam Grobler, O metodzie i strukturze nauki 104
KRYTERIUM 1. Hipoteza H
’ ma większą moc wyjaśniającą od hipotezy H ze
względu na wiedzę zastaną W wtedy i tylko wtedy, gdy ZW(H, W) ZW(H’, W)
(tzn. gdy każde zastosowanie wyjaśniające H jest również zastosowaniem
wyjaśniającym H’, ale nie na odwrót: znak występuje tutaj na oznaczenie silnej
inkluzji).
Komentarz: relacja inkluzji (zawierania się zbiorów) nie jest relacją
porządkującą zbiór hipotez. Tzn. nie dla każdych dwóch konkurencyjnych
hipotez zbiór zastosowań jednej zawiera się w zbiorze zastosowań drugiej:
zbiory te mogą się krzyżować. Wówczas żadna z porównywanych hipotez
nie jest lepsza, w sensie tego kryterium, od drugiej. W praktyce naukowej
często się zdarza, że uczeni badają alternatywne hipotezy, z których każda
wykazuje pewne zalety w porównaniu z pozostałymi, a żadna, w świetle
aktualnego stanu wiedzy, nie jest zdecydowanie najlepsza. Dwie różne
hipotezy mogą też mieć jednakowe zbiory zastosowań, mają wówczas
jednakową moc wyjaśniającą. Relacja tego typu, co zdefiniowana wyżej “…
ma większą moc wyjaśniającą od…” nazywa się relacją częściowego
pseudoporządku
KRYTERIUM 2. Rewizja wiedzy zastanej W
prowadząca do wiedzy W’ nazywa się
postępowa wtedy i tylko wtedy, gdy (i) (
∃
Q){(
∀
H)[Q
∉
ZW(H, W)]
∧
(
∃
H)[Q
∈
ZW(H, W’); oraz (ii) (
∀
Q){(
∃
H)[Q
∈
ZW(H, W)]
→
(
∃
H’)[Q
∈
ZW(H’, W’)]
∨
W’
→
¬
P(Q)}, gdzie P(Q
) oznacza presupozycję Q.
Warunek (i) jest warunkiem zysku eksplanacyjnego wiedzy. Mówi on, że
dla pewnego pytania wyjaśniającego Q, na które nie znaleziono odpowiedzi
59 Relacj
a R nazywa się relacją (liniowego) porządku wtedy i tylko wtedy, gdy jest (i) zwrotna, (ii)
spójna, (iii) antysymetryczna i (iv) przechodnia, tj. (i) (
∀
x)[xRx)]; (ii) (
∀
x)(
∀
y)[xRy
∨
yRx]; (iii) (
∀
x)(
∀
y)
[xRy
∧
yRx
→
x = y]; (iv) (
∀
x)(
∀
y)(
∀
z)[xRy
∧
yRx
→
xRz]. Relacj
a R nazywa się relacją częściowego
porządku, gdy nie jest spełniony warunek spójności (ii), zaś pseudoporządku, gdy nie jest
spełniony warunek antysymetrii (iii).
Adam Grobler, O metodzie i strukturze nauki 105
bezpośredniej na gruncie wiedzy W (nie jest ono zastosowaniem
wyjaśniającym żadnej hipotezy ze względu na W), istnieje odpowiedź
bezpośrednia na gruncie wiedzy W’ (jest ono zastosowaniem
wyjaśniającym jakieś hipotezy H ze względu na W’). Innymi słowy, rewizja
wiedzy zastanej pozwala znaleźć wyjaśnienie jakiegoś przedtem
niewyjaśnionego zjawiska (zdarzenia lub prawidłowości). Warunek (ii) jest
warunkiem zachowania potencjału eksplanacyjnego wiedzy. Mówi on, że
dla każdego pytania wyjaśniającego Q, na które istnieje odpowiedź
bezpośrednia na gruncie wiedzy W (jest ono zastosowaniem wyjaśniającym
jakiejś hipotezy H ze względu na W), bądź istnieje odpowiedź bezpośrednia
na gruncie wiedzy W’ (jest ono zastosowaniem wyjaśniającym, ze względu
na W’, jakieś hipotezy H’, niekoniecznie identycznej z H), bądź z W’ zaprzeczenie
presupozycji pytania Q
. Podobnie, jak poprzednie kryterium w stosunku do
hipotez, drugie kryterium również określa relację nie porządku liniowego, a
tylko relację częściowego pseudoporządku w zbiorze alternatywnych systemów
wiedzy zastanej.
Na pozór przytoczone kryteria są prostym przeniesieniem na inną
koncepcję wyjaśniania i uogólnieniem na rewizję wiedzy zastanej
sformułowanych przez Poppera warunków przyrostu wiedzy. Tymczasem
ich akceptacja sformułowanych wyżej kryteriów pociąga za sobą wnioski
metodologiczne, które wnoszą istotne korekty do falsyfikacjonizmu. Po
pierwsze, z powyższych kryteriów wynika, że falsyfikacja hipotezy nie jest
wystarczającym warunkiem jej odrzucenia. Zwracał na to uwagę Lakatos
[1971], który wyraźnie twierdził, że “programy badawcze zrazu pływają w
oceanie anomalii” (tj. pozornych falsyfikacji), i że falsyfikacja hipotezy jest
wtedy autentyczna, gdy jest zarazem potwierdzeniem hipotezy
konkurencyjnej. Nie warto bowiem porzucać hipotezy, gdy nie mamy na jej
miejsce lepszej kandydatki
. Tym bardziej, że negatywne świadectwo
60 Zastosowany tutaj zapis symboliczny W’
→
¬
P(Q
) jest niezupełnie poprawny, ponieważ W’ nie
oznacza zdania, lecz zbiór zdań. Został użyty jako dogodny, nieformalny skrót.
61
Tę samą zasadę należy stosować w polityce. Dobrze wyraża ją angielska maksyma
“Take care of your boss, the next will be worse” (“Dbaj o szefa, bo następny może być gorszy”).
Dlatego denerwują mnie hasła w rodzaju “Kołodko musi odejść” albo “Trener Engel musi
Adam Grobler, O metodzie i strukturze nauki 106
empiryczne można zawsze obrócić, zamiast przeciw hipotezie, przeciw
warunkowi ceteris paribus.
Warunek zwany z łaciny ceteris paribus, a po angielsku other things being equal,
mówi że nie zachodzą nieuwzględnione okoliczności wyjątkowe. Każda
hipoteza zakłada domyślnie (między wierszami, implicite)
taki warunek
Doskonałą tego ilustracją jest odkrycie przez Leverriera odchylenia orbity
Uranu od toru przewidywanego na podstawie prawa powszechnego
ciążenia. Zamiast potraktować jego rachunki jako falsyfikację tego prawa
uznano, że zachodzą nieuwzględnione okoliczności, mianowicie że orbitę
Uranu zakłócają siły ciążenia pochodzące od nieznanej do tej pory planety.
Tę hipotetyczną planetę nazwano Neptunem i następnie odkryto
(zaobserwowano w wyliczonym przez Leverriera miejscu). Kilkadziesiąt lat
później na tej samej zasadzie odkryto kolejną planetę, Plutona. Nie udało
się jednak, mimo wysiłków, wyjaśnić w podobny sposób przesunięcia
peryhelium
Merkurego. Hipotetycznej planety nazwanej Wulkanem nie
znaleziono. Zagadka czekała na rozwiązanie kilkadziesiąt lat. Przyniosło go
dopiero ogólna teoria względności, następczyni teorii grawitacji Newtona.
Na tych motywach Lakatos [1971] rozwinął opowieść science-fiction na
dowód, że pod nieobecność hipotezy alternatywnej żadna hipoteza nie jest
falsyfikowalna.
Podobny wniosek można wyprowadzić z naszych kryteriów mocy
wyjaśniającej. Rozważmy hipotezę H tej treści, że w każdym układzie x
określonego typu, np. takiego, że normalnie działają w nim czynniki f
1
, …, f
n
,
odejść”. Czy musi odejść, może okazać się dopiero wtedy, gdy na jego miejsce będzie
lepszy od niego kandydat. Na odwrót, odsunięcie wprowadzenia nowej matury z powodu,
skądinąd niepokojących, braków jej przygotowania nie było dostatecznie uzasadnione wobec
fakt
u, że zasady starej matury są zupełnie niedorzeczne.
62 W polskiej literaturze prze
kładowej tłumacze, siląc się na dosłowność, albo nie siląc się na
odejście od dosłowności, często używają niezrozumiałego zwrotu “przy pozostałych
warunkach niezmienionych”. Istota rzeczy polega na założeniu, że czynniki nie
wymieniowe w sformułowaniu hipotezy wprost (explicite) mają zawsze jednakowy wpływ
(dokładniej: nie mają wpływu w ogóle) na zjawisko, o którym w hipotezie mowa. Warunek ceteris
paribus
występuje nie tylko w hipotezach naukowych, ale i w zdaniach wiedzy potocznej. Np. znana zasada
“Oszczędnością i pracą ludzie się bogacą” również zakłada domyślnie “…o ile nie
zachodzą okoliczności wyjątkowe”.
63 Najbliższego Słońcu punktu orbity.
Adam Grobler, O metodzie i strukturze nauki 107
ilekroć wystąpi czynnik c, w układzie x zajdzie zdarzenie b (a nie żadne z). H
ma więc postać: (
∀
x)[c(x)
→
b(x
)] i zakłada domyślnie warunek ceteris paribus:
“o ile nie występują okoliczności wyjątkowe”, np. któreś z f
1
, …, f
n
wyjątkowo nie zachodzi lub prócz f
1
, …, f
n
wyjątkowo zachodzi jeszcze jakieś
c
’, które niweluje działanie czynnika c. Przypuśćmy, że przyjmując hipotezę
H
zdołano wcześniej wyjaśnić wystąbienie b (zamiast b
1
, …, b
k
) w wielu
układach a
1
, …, a
p
. Eksperyment w układzie a
p+1
dał wynik negatywny. Tzn.
założyliśmy, na podstawie naszej najlepszej wiedzy, że w a
p+1
działają te
same czynniki f
1
, …, f
n
, co w a
1
, …, a
p
, i zaobserwowaliśmy, że wystąpienie c
nie spowodowało zajścia b. Gdyby teraz wynik tego eksperymentu
dołączyć do naszej wiedzy zastanej W, otrzymując w ten sposób nową
wiedzę W’, traktując go jako falsyfikację hipotezy H, mnóstwo zdarzeń
wyjaśnionych na gruncie W przestaje mieć wyjaśnienie na gruncie W’. Czyli
w myśl kryterium 2, rewizja wiedzy zastanej W nie jest postępowa. Chyba
że znajdzie się alternatywna hipoteza H’, która pozwoli znaleźć
alternatywne, poprawne w świetle wiedzy W’ odpowiedzi (bezpośrednie lub
korekcyjne) na pytania “Dlaczego (z jakiej przyczyny) w układach a
1
, …, a
p
zaszło b, a nie któreś spośród b
1
, …, b
k
?” oraz zostaną spełnione pozostałe
warunki postępowości rewizji wiedzy zastanej. Np. H’, albo jakaś inna
hipoteza H
”, pozwoli znaleźć poprawną, w świetle W’, odpowiedź
(bezpośrednią lub korekcyjną) na pytanie “Dlaczego (z jakiej przyczyny)
w układzie a
p+1
zaszło b, a nie któreś spośród b
1
, …, b
k
?”. Dopóki to nie
nastąpi, rozsądniej jest traktować wynik rozważanego eksperymentu jako
poszlakę, że warunek ceteris paribus nie został spełniony: w układzie a
p+1
któreś z f
1
, …, f
n
wyjątkowo nie zachodzi lub prócz f
1
, …, f
n
wyjątkowo
zachodzi jeszcze jakieś c’, które niweluje działanie czynnika c.
Na marginesie
: milcząca obecność warunku ceteris paribus w sformułowaniu
każdego prawa nauki rzutuje na metodologię planowania eksperymentu.
Tzw. eksperyment kontrolowany obejmuje rozmaite zabiegi w celu eliminacji
Adam Grobler, O metodzie i strukturze nauki 108
ewentualnych wpływów ubocznych na jego wynik. Najczęściej polegają
one na uzmiennianiu czynników ubocznych. Czasem teoria podpowiada,
jakie czynniki poddać kontroli. Np. we wspomnianym wcześniej
eksperymencie Michelsona-Morleya powtarzano czynności
eksperymentalne w różnych porach dnia i roku. Miało to wyeliminować
wpływ składowej prędkości Ziemi względem eteru pochodzącej od
ewentualnego ruchu całego Układu Słonecznego względem eteru. Kiedy
indziej nie wiadomo, jakie czynniki kontrolować i trzeba je dobierać na
chybił-trafił. Przykładem może być eksperyment Périera (1648). W celu
sprawdzenia hipotezy ciśnienia atmosferycznego, Périer mierzył wysokość
słupka rtęci w barometrze Torricellego na szczycie góry i u jej podnóża.
Barometr składał się z rurki zatopionej z jednej strony, do której nalano
rtęci, a następnie odwrócono i zanurzono w misie z rtęcią. Część rtęci
spłynęła do misy, zostawiając próżnię między lustrem rtęci a zatopionym
końcem rurki. Słupek rtęci na szczycie góry był o 7 cm krótszy.
Potwierdzało to hipotezę Torricellego, ponieważ na szczycie góry słup
powietrza naciskający na powierzchnię rtęci w otwartej misie był niższy niż
u podnóża. Dla potwierdzenia wniosku Périer powtarzał pomiar w różnych
miejscach wierzchołka góry, pod dachem i na odkrytej przestrzeni, pod
osłoną i na wietrze, przy słonecznej pogodzie i w deszczu lub mgle itp.
Czynników, które mogą wchodzić w grę, jest jednak niezliczona ilość i
zawsze jest możliwe, że któryś pominięto.
Kryteria mocy wyjaśniającej dostarczają poparcia sformułowanej przez
Lakatosa zasadzie pluralizmu teoretycznego (I.3.4). Jak stwierdziłem wyżej,
kryteria te określają relacje częściowego pseudoporządku w zbiorze
rozpatrywanych hipotez i systemów wiedzy zastanej. W zbiorze częściowo
pseudouporządkowanym może występować więcej niż jeden element
maksymalny, tj. taki, że żaden inny go nie wyprzedza. Tzn. może
występować więcej niż jedna hipoteza, od której nie ma lepszej na gruncie
danej wiedzy zastanej, lub może występować więcej niż jedna możliwość
postępowej rewizji wiedzy zastanej, z których żadna nie jest bardziej
Adam Grobler, O metodzie i strukturze nauki 109
postępowa od innych. W takiej sytuacji wydaje się rozsądne rozwijanie
wszystkich alternatywnych możliwości w nadziei, że dalszy rozwój każdego
z postępowych odgałęzień doprowadzi do rozstrzygnięcia (skądinąd
również tymczasowego, bo jeszcze dalszy rozwój może doprowadzić do
kolejnych odgałęzień postępowych)
Potwierdzając zasadę pluralizmu teoretycznego, kryteria mocy
wyjaśniającej nie dopuszczają zarazem anarchizmu epistemologicznego
Feyerabenda (I.3.4). Na kłopotliwe pytanie, jak długo należy zwlekać z
decyzją co do wyboru między alternatywnymi, powiedzmy, programami
badawczymi, odpowiedź jest jednoznaczna: dopóki wybór założeń i hipotez
tego programu nie okaże się postępowy, w sensie kryterium 2, w stosunku
do założeń i hipotez wszystkich programów alternatywnych.
Niekiedy wybór może nastąpić wcześniej. Możliwa jest bowiem sytuacja,
w której rewizja wiedzy zastanej W, prowadząca do wiedzy W’ nie jest
postępowa w danym czasie, ale daje nadzieje na postęp w przyszłości. Tak
jest np. wtedy, gdy W’ dostarcza wielu wyjaśnień niedostępnych na gruncie
W
i wprawdzie na razie nie wyjaśnia wszystkiego, co wyjaśniała W, ale
uzyskanie brakujących wyjaśnień pozostaje na gruncie W’ problemem
otwart
ym. Historycznym przykładem takiej sytuacji było porzucenie fizyki
Kartezjusza na korzyść fizyki Newtona. Ta ostatnia dostarczała
imponujących, jednolitych wyjaśnień m.in. ruchu planet, spadania ciał,
przypływów i odpływów morskich. Wyjaśniała mnóstwo zjawisk, których
wyjaśnienie na gruncie kartezjanizmu było niedostępne, m.in. właśnie
pływów morskich. Natomiast nie wyjaśniała komplanarności
(współpłaszczyznowości) orbit planet Układu Słonecznego. Z punktu
widzenia kartezjanizmu, komplanarność orbit jest następstwem wirów
kosmicznych. Z punktu widzenia fizyki Newtona, jest czystym zbiegiem
okoliczności. Komplanarność orbit została wyjaśniona dopiero później,
przez hipotezę Laplace’a (1796), wedle której Układ Słoneczny powstał z
pierwotnej mgławicy. Przejście od kartezjanizmu do fizyki Newtona jest
64
Pojęcie odgałęzienia postępowego pochodzi od Stegmüllera.
Adam Grobler, O metodzie i strukturze nauki 110
jednym z przykładów Kuhna ilustrujących jego tezę o niewspółmierności.
Jednym z aspektów niewspółmierności jest występowanie strat
eksplanacyjnych, jak np. utrata wyjaśnienia komplanarności planet.
Obecność strat, zdaniem Kuhna, wyklucza jednoznaczne stwierdzenie, że
rewolucja naukowa przynosi postęp poznawczy. Natomiast przytoczona
tutaj analiza sugeruje, że przynajmniej niektóre straty eksplanacyjne
można potraktować jako długi zaciągnięte na poczet przyszłego rozwoju
pod zastaw zysków eksplanacyjnych osiągniętych w innej poddziedzinie
porewolucyjnej teorii.
W ten sposób zasada wnioskowania do najlepszego wyjaśnienia okazuje
się bardziej wszechstronna i wiarygodna od falsyfikacjonistycznej zasady
krytycyzmu czy bayesiańskiej zasady warunkowania. Kończąc rozważania
na temat oceny hipotez naukowych, przechodzimy do zagadnienia
struktury nauki.
II. STRUKTURA NAUKI
II.1. Pojęcie teorii naukowej
W poprzednich rozdziałach dość swobodnie posługiwaliśmy się
pojęciami teorii naukowej, prawa nauki czy hipotezy. Najwyższa pora, by te
pojęcia nieco objaśnić. Pojęcie teorii pochodzi od greckiego theorein =
przy
glądać się, kontemplować, rozważać. Teorią jest zatem rezultat
rozważań na temat oglądanego przedmiotu. Rygorystyczne – można
powiedzieć teoretyczne – pojęcie teorii pochodzi od Davida Hilberta, z rozwijanej
prze
z niego w latach 1917-1931 metamatematyki. Jak Kartezjusz uważał
matematykę za wzorzec wszelkiego poznania naukowego, tak empiryzm logiczny
przy
jął metamatematykę (teorię poznania matematycznego) za wzorzec
metanauki (teorii poznania naukowego).
W metamatematyce
teorią T nazywa się ogół konsekwencji logicznych
pewnego zbior
u zdań X zwanych aksjomatami, symbolicznie T = Cn(X). Innymi słowy,
teorią nazywa się dedukcyjny system zdań, tj. zbiór zdań domknięty ze
względu na operację konsekwencji, tzn. taki, że jeżeli zdania p
1
, …, p
n
∈
T
i
jeżeli q wynika ze zdań p
1
, …, p
n
na mocy reguł wnioskowania (inferencji), to q
∈
T.
Reguły wnioskowania klasycznego rachunku zdań są dwie: (i) reguła
odrywania: jeżeli p i jeżeli p
→
q, to q
; (ii) reguła podstawiania: z dowolnej
formuły A wynika formuła powstała przez zastąpienie w A każdego
wystąpienia dowolnej zmiennej v inną zmienną. W klasycznym rachunku
predykatów od reguły podstawiania obowiązuje pewien wyjątek: mianowicie
za zmienną wolną (nie związaną za pomocą kwantyfikatora) nie wolno
podstawiać zmiennych związanych. Ponadto obowiązuje (iii) reguła
dołączania kwantyfikatora: A(x)
→
(
∀
x)[A(x)]
. Zd
ania teorii, które nie są
aksjomatami nazywają się twierdzeniami. Twierdzeniem zatem jest zdanie,
1
Dla ułatwienia (skrócenia) dowodów zbiór reguł wnioskowania można poszerzyć,
wprowadzając tzw. reguły wtórne, o których trzeba udowodnić, że ich wprowadzenie nie
rozszerza zbioru konsekwencji aksjomatów. Przykładową regułą wtórną jest reguła przechodności
implikacji: jeżeli p
→
q
i jeżeli q
→
r, to p
→
r.
Adam Grobler, O metodzie i strukturze nauki 95
które wynika logicznie z (jest konsekwencją) aksjomatów. Inaczej:
twierdzeniem nazywa się zdanie z, które ma dowód. Dowodem nazywa się ciąg
zdań p
1
, …, p
n
tak
i, że ostatnie jego zdanie p
n
= z
i każde zdanie p
i
tego ciągu
albo wynika (za pomocą reguł wnioskowania) z poprzednich zdań p
1
, …, p
i-1
,
albo jest aksjomatem.
Powyższe pojęcie teorii jest pojęciem formalnym. Tzn. o tym, czy jakieś
zdanie należy do teorii decyduje wyłącznie jego forma, czyli sposób złożenia
ze znaków alfabetu języka, w którym dana teoria jest sformułowana. Chcąc
zbadać, czy jakieś zdanie z należy do T, należy zacząć od sprawdzenia, czy
znajduje się na liście aksjomatów X. Jeżeli tak, problem jest rozstrzygnięty
natychmiast. Jeżeli nie, należy spróbować znaleźć jego dowód, czyli
wyprodukować ciąg zdań w sposób, który zależy wyłącznie od aksjomatów i
reguł wnioskowania. W całej tej procedurze treść zdania nie odgrywa żadnej
roli. Czy zdanie z jest aksjomatem można sprawdzić porównując je znak po
znaku ze wszystkimi po kolei aksjomatami na liście, niezależnie od tego, czy
wiemy, co to zdanie mówi i co mówią aksjomaty. Czy jakieś zdanie p
i
wynika
logicznie ze zdań p
1
, …, p
i-1
, można sprawdzić porównując ich ciągi lub
podciągi z regułami wnioskowania, które stosują się do zdań o określonej
formie, bez względu na ich treść.
Metamatematyka, posługując się formalnym pojęciem teorii, zajmuje
się badaniem, pod jakimi warunkami teorie matematyczne posiadają
pewne interesujące własności. Najważniejszą z nich jest niesprzeczność:
teoria T
jest niesprzeczna, gdy dla każdego zdania z rozpatrywanego języka,
do T należy co najwyżej jedno z pary zdań z,
¬
z
. Ze zdań z i
¬
z wynika dowolne
zdanie rozpatrywanego
języka. Toteż gdy T nie jest niesprzeczna, należą do
niej wszystkie zdania języka, w którym jest sformułowana. Toteż jasne jest,
że niesprzeczność jest koniecznym warunkiem akceptacji teorii
matematycznej.
Czy formalne pojęcia teorii i dowodu pozwalają trafnie ująć naturę
poznania matematycznego, jest kwestią sporną, której omówienie odłożymy
Adam Grobler, O metodzie i strukturze nauki 96
do III.1. W każdym razie metodyczny zabieg Hilberta, polegający na
ujmowaniu zdań matematyki w oderwaniu od ich treści, zainspirował
powstanie poglądu zwanego formalizmem
. Zgodnie z nim
zdania matematyczne
rzeczywiście są pozbawione treści. W takim ujęciu matematyka w ogóle nie
jest nauką, bo jej zdania nic nie mówią o świecie. Zamiast tego, matematyka
jest grą polegającą na przekształcaniu napisów według reguł. Dopisanie
zdania do dowodu zgodnie z regułami wnioskowania jest posunięciem w
grze, zaś zakończenie dowodu jest w matematyce tym, co zamatowanie
przeciwnika w grze w szachy czy ułożenie kart kończące pasjansa. Myślę, że
niektórzy czytelnicy tej książki rozwiązując na klasówce jakieś
skomplikowane równanie, mieli niekiedy wrażenie, że grają w jakąś grę, w
której wykonuje się posunięcia w rodzaju wyłączenia wspólnego czynnika
przed nawias, podzielenia równania stronami przez ten czynnik,
zastosowania jakiegoś wzoru, np. skróconego mnożenia itp., aż wreszcie gra
się kończy uzyskaniem ostatecznego rozwiązania.
Formalizm stał się oficjalnym poglądem empiryzmu logicznego.
Matematykę uważano nie za naukę – bo nie jest empiryczna – lecz za
narzędzie nauki, dostarczające nauce środków wyrazu, w rodzaju funkcji
różniczkowalnych, macierzy, wektorów, tensorów i reguł wnioskowania w
rodzaju reguł rozwiązywania równań, działań na wektorach, tensorach,
macierzach itd. Samo w sobie zdanie w rodzaju
nic nie znaczy, dopóki
jego symbolom nie zostanie nadana tzw. interpretacja
empiryczna. Matematyka natomiast pozwala nam z tego zdania
wnioskować, że cokolwiek ono znaczy, to
Teorię naukową musi coś różnić od teorii matematycznej. Twierdzenia
teorii naukowej nie mogą być po prostu dedukcyjnymi konsekwencjami jej
aksjomatów, rezultatem manipulacji na symbolach. Muszą one mieć jakiś
2
Sam Hilbert nie był formalistą. Dlatego napisałem, że jego zabieg miał charakter
metodyczny, czyli został zastosowany do określonego celu poznawczego, bez konsekwencji
wykraczających poza ten cel. Zabiegiem metodycznym jest np. recenzowanie prac
nauk
owych z utajnieniem autora po to, by jego reputacja nie rzutowała na opinię
recenzenta. Po przyjęciu do druku prace przestają być anonimowe.
Adam Grobler, O metodzie i strukturze nauki 97
związek z doświadczeniem, jakąś interpretację empiryczną. Myśl, że
teoria naukowa ma, z jednej strony, strukturę wzorowaną na strukturze teorii
matematycznej, z drugie
j ma mieć jakąś treść empiryczną, przerodziła się
w koncepcję nazwaną przez jej późniejszych krytyków poglądem otrzymanym
(the received view
), zesłanym z góry, którego autorem nie jest żaden z jego
wyznawców
Według tego poglądu teoria naukowa T jest sformułowana w pewnym języku
L
będącym odpowiednim rozszerzeniem rachunku predykatów pierwszego
rzędu
. Pozalogiczne terminy języka L dzielą się na niepuste dwie klasy:
terminy teoretyczne i obserwacyjne. W związku z tym można wydzielić
pewne podjęzyki języka L (podzbiory zdań zbioru zdań języka L): język
obserwacyjny L
o
, zawierający wyłącznie obserwacyjne zdania szczegółowe,
tj. bez terminów teoretycznych i bez kwantyfikatorów; rozszerzony język
obserwacyjny L
o
’
, zawierający wyłącznie obserwacyjne zdania, tj. bez
terminów teoretycznych, ale również zdania uniwersalne, tj. z
kwantyfikatorami; oraz język teoretyczny L
T
, zawierający wyłącznie zdania
teoretyczne, tj. bez terminów obserwacyjnych. T
o
= T
∩
L
o
, T
o
’
= T
∩
L
o
’ oraz T
T
= T
∩
L
T
są odpowiednio podteoriami teorii T (tzn. same też są domknięte ze
względu na operację konsekwencji).
Wszystkie terminy języka L
o
odnoszą
się do obserwowalnych rzeczy, zdarzeń, własności rzeczy pewnej dziedziny,
każda wartość dowolnej zmiennej indywiduowej języka L
o
jest wyznaczona
przez jakieś wyrażenie języka L
o
. W ten sposób język L
o
ma pełną
interpretację empiryczną: o każdym jego zdaniu tego języka można za
pomocą obserwacji stwierdzić, czy jest prawdziwe. Terminy teoretyczne i
zdania języka L, w których takie terminy występują, mają częściową
interpretację empiryczną, określoną za pomocą postulatów teoretycznych T,
czyli aksjomatów teorii T
sformułowanych w L
T
oraz tzw.
reguł korespondencji C,
które są zdaniami mieszanymi: zawierają terminy zarówno obserwacyjne,
jak i teoretyczne. Jak to ujmuje Carnap [1956], bez reguł korespondencji T
T
jest teorią w sensie metamatematycznym. Natomiast reguły korespondencji
C
umożliwiają wyprowadzanie ze zdań L
T
(w szczególności twierdzeń teorii
T
T
) i przesłanek z L
o
, np. sprawozdań z wyników obserwacji, wniosków z L
o
, tj.
przewidywań na temat obserwowalnych zdarzeń lub na temat
prawdopodobieństwa zajścia pewnych obserwowalnych zdarzeń.
Ta zawiła konstrukcja, która ewoluowała w czasie, miała służyć m.in.
objaśnieniu, w jaki sposób potwierdzenie zdań teoretycznych redukuje się
(sprowadza się) do potwierdzenia zdań obserwacyjnych. Jak stwierdziliśmy w
I.2 i I.3, ani koncepcja stopniowalnego potwierdzenia praw nauki, ani
3 Do ukształtowania się poglądu otrzymanego przyczynili się głównie Carnap, Hempel i
Ernest Nagel.
4
Język jest pierwszego rzędu, gdy pod kwantyfikatorem mogą występować tylko zmienne
indywiduowe, a nie predykat
y. Np. można w nim powiedzieć, że ktoś, nie wiadomo kto, ma
własność taką-a-taką – (
∃
x)[p(x
)] – ale nie, że ten-a-ten ma jakąś, nie wiadomo jaką
własność – (
∃
x)[x(a)].
Adam Grobler, O metodzie i strukturze nauki 98
rozróżnienie obserwacyjne-teoretyczne nie nadają się dziś do przyjęcia. W
związku z tym powyższa koncepcja teorii naukowej jest zdeaktualizowana.
Niemniej niektóre kwestie powstałe przy okazji około-30-letniej wojny o
rozwiązanie problemu redukcji terminów/zdań teoretycznych do
obserwacyjnych są dogodnym punktem wyjścia do omówienia wciąż
aktualnych, a może nawet ponadczasowych zagadnień metodologicznych.
Parafrazując Whiteheada, który powiedział kiedyś, że cała filozofia jest
zbiorem przypisów do Platona, można zaryzykować twierdzenie, że cała
metodologia jest zbiorem przypisów do empiryzmu logicznego. W
koncepcjach koroboracji, postępowości naukowych programów badawczych,
wnioskowania do najlepszego wyjaśnienia tkwi jednak, choćby i mocno
przekształcony, motyw względnego potwierdzania. I choć teza o
uteoretyzowaniu obserwacji od około 40 lat należy do metodologicznego
katechizmu, wciąż można utrzymywać namiastki rozróżnienia obserwacyjne-
teoretyczne, ponieważ terminy naukowe są uteoretyzowane w rozmaity
sposób.
II.2. Problem redukcji terminów te
oretycznych a definiowanie
pojęć
Redukcja terminów teoretycznych języka do terminów obserwacyjnych
ma pełnić w teorii naukowej rolę analogiczną do definiowania terminów
(pojęć) za pomocą niewielkiej liczby terminów (pojęć) pierwotnych w
matematyce. Ma ono na celu objaśnienia znaczenia pojęć danej teorii za
pomocą pojęć pierwotnych, których znaczenie przyjmuje się jako zrozumiałe
bez definicji
. Przykładami pojęć pierwotnych w matematyce są pojęcia
punktu, prostej, płaszczyzny, odległości, liczby, dodawania, zbioru, należenia
do zbioru
. Podobnie, redukcja terminów teoretycznych do obserwacyjnych
ma objaśnić ich treść (empiryczną) za pomocą treści (znaczenia) terminów
obserwacyjnych. Znaczenie tych ostatnich przyjmuje się za zrozumiałe
5
Stosunek między terminem a pojęciem polega na tym, że termin jest nazwą pojęcia, czyli
po prostu wyrazem języka. Pojęcie ma pewną treść (intensję), która charakteryzuje
desygnaty pojęcia, tj. przedmioty, do których to pojęcie się odnosi. Zbiór desygnatów
pojęcia nazywa się jego zakresem (ekstensją).
6
Wybór pojęć pierwotnych jest konwencjonalny. Np. za pomocą pojęć zbioru i należenia do
zbior
u można zdefiniować pojęcie elementu zbioru. Alternatywnie można przyjąć pojęcie
elementu zbioru jako pierwotne, a pojęcie należenia do zbioru jako zdefiniowane za pomocą
pojęć zbioru i elementu zbioru.
Adam Grobler, O metodzie i strukturze nauki 99
dzięki np. ostensji czyli pokazania palcem lub czegoś w tym rodzaju.
Ze
względu na to funkcjonalne podobieństwo redukcji i definiowania
nasuwa się pytanie, czy terminów teoretycznych nie można po prostu
zdefiniować za pomocą terminów obserwacyjnych. Zanim na nie
odpowiemy, wypada nieco bliżej scharakteryzować pojęcie definicji.
Definicje stosowan
e w matematyce są definicjami równościowymi.
Składają się z definiendum, tj. definiowanego terminu, definiensa, tj. wyrażenia,
które objaśnia treść pojęcia oznaczonego terminem definiowanym, oraz spójki
definicyjnej
, która łączy definiendum z definiensem. Nazwa “równościowe”
pochodzi stąd, że w roli spójki definicyjnej występują wyrażenia
oznaczające równość: “jest (to)”, “nazywa się”, “znaczy (to samo, co)” itp.
Np. “Kwadratem nazywa się czworokąt , którego wszystkie boki są równe
i wszystkie kąty są równe”. Definiens definicji równościowej podaje warunek
konieczny i
wystarczający przynależności do zakresu definiendum, co widać
wyraźnie, gdy definicję sformułować np. “Czworokąt jest (nazywa się)
kwadratem wtedy i tylko wtedy, gdy wszystkie jego boki są równe i wszystkie
jego kąty są równe”. Dzięki temu definicje są nietwórcze, tzn. włączenie
definicj
i do teorii nie wprowadza do niej żadnego nowego twierdzenia, które
nie byłoby logicznie równoważne z twierdzeniem już w niej obecnym. Z tego
względu definicje pełnią w teorii rolę podobną do aksjomatów, tzn. można je w
dowolnym miejscu dopisywać do dowodu (zob. II.1.).
Niektóre terminy trudno zdefiniować wprost i dlatego definiuje się je
kontekstowo
, podając w definiensie zamiast znaczenia samego terminu,
znaczenie dłuższego zwrotu, w którym ten termin występuje. Np.
“Logarytmem o podstawie a, gdzie a > 0 i a
≠
1, z liczby dodatniej b
nazywa się
liczba c taka, że a
c
= b”. Szczególnym, i
interesującym, przypadkiem definicji
kontekstowej jest definicja przez abstrakcję. Ma ona formę zdania, które
mówi, że dwa przedmioty mają tą samą, taką-a-taką własność wtedy i
tylko wtedy, gdy pozostają do siebie w pewnej relacji
Adam Grobler, O metodzie i strukturze nauki 100
równoważnościowej
. Symbolicznie: [p(x)
↔
p(y)]
↔
xRy. Np. gdy p
oznacza
pewien kierunek a R relację równoległości, otrzymujemy kontekstową
(przez abstrakcję) definicję kierunku: “Dwie proste mają ten sam kierunek
wtedy i tylko wtedy, gdy są równoległe”.
W wielu przypadkach, g
dy trzeba zdefiniować pojęcie o nieskończonym
zakresie, do którego należą różnorodne przedmioty, najlepiej nadaje się do
tego definicja rekurencyjna (indukcyjna). Składa się ona z warunku
wyjściowego, który definiuje to pojęcie wprost dla jakiegoś jednorodnego
zbioru przedmiotów, i warunku indukcyjnego, który podaje przepis, jak
rozszerzyć tę definicję na inne przedmioty wychodząc od warunku
wyjściowego. Przykładem może być definicja formuły poprawnie
zbudowanej języka rachunku predykatów pierwszego rzędu: “(i) p(x
1
, …, x
n
),
gdy p jest predykatem n-argumentowym, n
∈
N
, jest formułą poprawnie zbudowaną;
(ii) gdy A i B są formułami poprawnie zbudowanymi, to A
∨
B, A
∧
B, A
→
B,
A
↔
B,
¬
A,
∃
xA,
∀
xA
są formułami poprawnie zbudowanymi”.
Mówi się też niekiedy, że pojęcia pierwotne teorii też są w pewien
sposób zdefiniowane, mianowicie za pomocą definicji przez postulaty.
Znaczy to, że aksjomaty teorii razem wzięte kontekstowo określają
znaczenie pojęć pierwotnych. Przykładem stosowanym w tej książce jest
pojęcie prawdopodobieństwa (zob. I.2).
Oczywiście definicji używa się nie tylko w matematyce, ale wszędzie
tam, gdzie nieostrość albo wieloznaczność pojęć może być kłopotliwa.
Może być np. źródłem błędu ekwiwokacji, który polega na użyciu w
przesłankach rozumowania tego samego terminu w różnych znaczeniach,
co często prowadzi do dziwacznych wniosków. Dowiedziawszy się., że
Demokryt był pierwszym w dziejach materialistą można wywnioskować
np., że Demokryt był pierwszym, dla którego liczyły się tylko pieniądze.
B
rak ścisłej definicji może powodować jałowe, czysto werbalne spory. Np.
7 Relacj
a R nazywa się równoważnościowa wtedy i tylko wtedy, gdy jest (i) zwrotna, (ii) symetryczna
i (iii) przechodnia, tj. dla dowolnych x, y, z (i) xRx, (ii) xRy
→
yRx, (iii) xRy
∧
yRz
→
xRz.
Np. relacja
równoległości prostych albo przystawania figur.
Adam Grobler, O metodzie i strukturze nauki 101
czy Demokryt rzeczywiście był pierwszym materialistą, czy może był nim
już Tales. Zdefiniowaliśmy do tej pory wiele pojęć, nawet jeśli rzadko
opatrywaliśmy definicję stosowną etykietką, i wiele pojęć w dalszym ciągu
zdefiniujemy, także i tych, którymi do tej pory posługiwaliśmy się bez
wyraźnej definicji.
Definicje dzielą się na sprawozdawcze, projektujące i regulujące.
Definicje sprawozdawcze mają na celu zdać sprawę ze znaczenia, w jakim
faktycznie danego słowa się używa. Spotykamy je główne w słownikach.
Np. “Teoria = pomysł lub zespół pomysłów, który ma na celu wyjaśnienie
czegoś na temat życia lub świata, zwłaszcza taki, którego prawdziwości
dotąd nie udowodniono”
. W nauce, a już szczególnie w matematyce,
przeważają definicje projektujące, które wprowadzają nowy termin
i ustalają jego znaczenie. Definicje regulujące mają pośredni charakter:
modyfikują potoczne znaczenie (lub jedno z kilku potocznych znaczeń)
danego słowa po to, by jego znaczenie uściślić i dostować do celów danej
dyscypliny. Taki charakter ma np. nasza definicja teorii, która na użytek
naszych rozważań wyklucza z zakresu tego pojęcia teorię debiutów
szachowych
, teorię wiecznych powrotów,
spiskową teorię dziejów itp.
Definicje sprawozdawcze są błędne, gdy są nieadekwatne, tzn.
niedokładnie określają znaczenie danego pojęcia. Przytoczona ze słownika
Longmana definicja teorii jest nieadekwatna, bo nie stosuje się do teorii
debiutów szachowych ani przymusów brydżowych. Definicje projektujące i
regulujące nie mogą być w ten sposób błędne: ustalają one znaczenie
danego terminu na zasadzie podobnej do aktu chrztu. Utworzenie nowego
pojęcia i wybór nazwy dla niego nie jest zupełnie dowolnym kaprysem, ale
też nie ma sensu pytanie, czy termin, o którym mowa, naprawdę znaczy
to, co ma znaczyć. Podobnie jak wybierając imię dla dziecka można
8
Według Longman Dictionary of Contemporary English.
9 Debiutem nazywa się początkowa faza gry, którą kończy rozwinięcie wszystkich figur.
10 Gracz jest w przymusie, gdy
dowolna jego zrzutka wyrabia przeciwnikowi lewę.
Adam Grobler, O metodzie i strukturze nauki 102
kierować się np. tradycjami rodzinnymi, ale nie ma sensu pytać, czy Jan
naprawdę jest Janem.
Niemniej definicje pr
ojektujące i regulujące muszą spełniać pewne kryteria
poprawności. Definicje muszą np. być niesprzeczne. Gdyby np. w przed
chwilą przytoczonej definicji logarytmu pominąć warunek a
≠
1, to
zastosowanie definiensa do znalezienia log
1
1 daje różne wyniki. Jednym z typowych
błędów definiowania jest ignotum per ignotum (nieznane przez nieznane), który polega
na zastosowaniu w definiensie
niezdefiniowanego terminu. Dla przykładu weźmy
popularną w pewnych kręgach definicję matematyki: (i) “Matematyką jest
to, czym zajmują się matematycy do późna w nocy”. Gwoli poprawności,
trzeba zdefiniować termin “matematyk”. Gdyby jednak definiować
zdaniem: “Matematykiem jest ten, kto zajmuje się matematyką do późna
w nocy”, popełnilibyśmy inny błąd zwany błędnym kołem
: definic
ja
matematyka musi być niezależna od pojęcia matematyki. Ogólnie: definiens
żadnego terminu nie może zawierać terminów zdefiniowanych za jego
pomocą. Nie może też zawierać samego definiendum, jak np. (ii)
“Matematykiem jest ten, kogo inni matematycy uważają za matematyka”.
Żeby uniknąć błędnego koła, trzeba stosować hierarchiczny układ definicji:
w definiensie każdej definicji mogą występować wyłącznie terminy uprzednio
zdefiniowane.
Taka formuła może jednak prowadzić do regresu w nieskończoność:
x
1
defin
iujemy za pomocą x
2
, x
2
za pomocą x
3
, …, x
n
za pomocą x
n+1
itd. jak w
grze, w której gracz odpowiada na nie kończącą się serię pytań “A co to
jest…?” zadawanych przez bardzo młodego kandydata na uczonego.
Regres w nieskończoność przerywa się ustalając zestaw terminów (pojęć)
pierwotnych, które uważa się za zrozumiałe bez definicji lub za
zdefiniowane przez postulaty (za pomocą aksjomatów teorii).
Alternatywnie, za przerwanie regresu można uznać definicję terminu
11
Błędne koło może składać się nie z dwóch definicji, ale i z dłuższego ich ciągu. Polecam
przy
kład z Podróży Czternastej Dzienników gwiazdowych Stanisława Lema.
Adam Grobler, O metodzie i strukturze nauki 103
specjalistycznego za pomocą wyłącznie wyrazów języka potocznego.
Regres może przerywać też gest ostensji (pokazania palcem): “To jest
TO!”. Za pomocą ostensji można też wyrwać się z błędnego koła. Np.
mówiąc (iii) “Matematykiem był Gauss”, czyli pokazując palcem na
przykładowego matematyka, uzupełniamy poprzednie, wadliwe warunki (i)
i (ii) uzyskując poprawną, rekurencyjną definicję matematyki.
Formalna poprawność definicji nie gwarantuje jeszcze jej użyteczności
poznawczej. Definicje służą precyzji wypowiedzi i rozumowania. Ścisłość
jednak nie jest celem samym w sobie. Ważniejsza jest trafność
merytoryczna pojęć. Polega ona na istotności nomologicznej, tj. na
przydatności do formułowania praw. W I.2.5. rozważaliśmy rozróżnienie
predykatów na rzutowalne i nierzutowalne. Oczywiście tylko te pierwsze są
istotne nomologicznie. Szczególnym przypadkiem istotności nomologicznej
jest naturalność terminów klasyfikacyjnych (zob. II.5).
Po omówieniu podstawowych zagadnień związanych z definiowaniem
terminów wróćmy do kwestii redukcji terminów teoretycznych do
obserwacyjnych. Problem, jak powiedziałem wyżej, w swej oryginalnej
wersji jest już zwietrzały: terminów absolutnie obserwacyjnych,
nieuteoretyzowanych, nie ma. Można jednak rozróżnić terminy teoretyczne
ze względu na daną teorię, tj. terminy, których znaczenie jest częściowo
określone przez postulaty teorii, o której mowa, i terminy, które wprawdzie
są uteoretyzowane, ale przez teorie z wiedzy zastanej. Wówczas
ewentualna redukcja terminów teoretycznych do terminów względnie
obserwacyjnych, lub do terminów nieteoretycznych, pozwoli nadać teorii
interpretację “empiryczną”, tj. interpretację uteoretyzowaną tylko przez
teorie wiedzy zastanej. Tzn. pozwoli nie tyle zredukować potwierdzenie
zdań teoretycznych do potwierdzenia zdań obserwacyjnych, ile
sformułować kryteria akceptacji zdań teoretycznych ze względu na
obserwację uteoretyzowaną przez wiedzę zastaną.
Zastanówmy się teraz, czy redukcji terminów teoretycznych do
Adam Grobler, O metodzie i strukturze nauki 104
“obserwacyjnych” – cudzysłów ma nam przypominać o tym, że nie
mówimy o terminach obserwacyjnych w absolutnym sensie – nie da się
dokonać po prostu za pomocą definicji równościowych. Definicje
równościowe są, przypomnijmy sobie, nietwórcze. Gdyby więc terminy
teoretyczne można było zdefiniować za pomocą terminów
“obserwacyjnych”, każde twierdzenie teoretyczne teorii byłoby
równoważne jakiemuś twierdzeniu “obserwacyjnemu”, tj. wyrażonemu bez
użycia terminów charakterystycznych dla danej teorii. Dotyczyłoby to
również jej postulatów teoretycznych, które można byłoby niejako
przełożyć na twierdzenia wyrażone w języku wiedzy zastanej. Terminy
teoretyczne służyłyby w najlepszym razie jako dogodne skróty do
wyrażania twierdzeń, do sformułowania których ani one, ani postulaty
teoretyczne teorii, nie byłyby potrzebne. W ten sposób powstaje tzw.
sformułowany przez Hempla dylemat teoretyka: albo terminy teoretyczne
redukują się do terminów obserwacyjnych i wtedy są bezużyteczne
poznawczo, albo się nie redukują i wtedy nie mają interpretacji
empirycznej i też są bezużyteczne poznawczo.
Koncepcja częściowej interpretacji była próbą rozwiązania dylematu.
Zanim ją omówimy, zatrzymamy się chwilę przy jeszcze innym pomyśle
interpretacji empirycznej.
II.3. Operacjonizm, definicje operacyjne i pojęcie
pomiaru
W poszukiwaniu reguł interpretacji empirycznej teorii wczesny
empiryzm logiczny nawiązał do koncepcji Percy’ego Bridgmana [1927],
zwaną operacjonizmem. Zgodnie z nią pojęcia naukowe są identyczne ze
zbiorami operacji pomiarowych i rachunkowych. Stąd powstała myśl, że
operacje, o których mowa, wyznaczają znaczenie (sens empiryczny)
terminów naukowych. Dzięki temu np. temperaturę można zdefiniować za
Adam Grobler, O metodzie i strukturze nauki 105
pomocą operacji służących do pomiaru temperatury. Tego rodzaju
definicje, które w definiensie podają operacje, jakie należy wykonać w celu
ustalenia, czy definiendum stosuje się do rozważanego przypadku, nazywają
się definicjami operacyjnymi.
Operacjonistyczne rozwiązanie problemu redukcji terminów
teoretycznych powoduje jednak nieprzezwyciężalne trudności.
Temperaturę można mierzyć termometrem rtęciowym albo alkoholowym.
Z punktu widzenia operacjonizmu różne operacje pomiarowe wyznaczają
różne pojęcia. Mamy więc temperaturę “rtęciową” i temperaturę
“alkoholową”. Gdy mowa zaś np. o temperaturze na powierzchni Słońca,
mamy na myśli jeszcze inną wielkość, bo przecież nie mierzy się jej za
pomocą termometru.
Bridgman nie traktował tej trudności poważnie. Jego zdaniem
przedmiotem nauki są tylko operacje, a nie domniemane “rzeczywiste”
przedmioty, jakości czy wielkości, które te operacje jakoby wykrywają.
Nauka, w jego ujęciu, poszukuje praw łączących te operacje ze sobą.
Mamy więc np. prawo, wedle którego temperatura “rtęciowa” i
temperatura “alkoholowa”, w pewnym zakresie ich zmienności, są sobie
równe. Takie rozszczepienie terminów teoretycznych odbiera im funkcję
systematyzującą doświadczenie, którą przyznawał im empiryzm logiczny,
zgodnie z wcześniejszą tradycją pozytywizmu. W szczególności
operacjonizm nie zdaje należycie sprawy z możliwości odkrycia
nieznanego dotąd sposobu pomiaru.
Skądinąd zgodność wyników uzyskiwanych rozmaitymi metodami
pomiaru nie jest prawidłowością czysto empiryczną, niezależną od teorii.
Samo wyskalowanie termometru, zarówno rtęciowego, jak i alkoholowego
byłoby niemożliwe bez teorii rozszerzalności cieplnej, w której
“temperatura” jest jednym z terminów teoretycznych. Pod względem
zaangażowania teorii zadanie wyskalowania dwóch różnych rodzajów
termometru nie różni się istotnie od zadania wyskalowania dwóch
Adam Grobler, O metodzie i strukturze nauki 106
termometrów tego samego rodzaju.
Sama idea pomiaru jest wysoce teoretyczna. Pol
ega ona na określeniu pewnej
zmiennej albo ustaleniu skali
pomiarowej, czyli homomorfizmu pewnym
aspektem badanej rzeczywistości a pewną strukturą liczbową. Pojęcie
homomorfizmu objaśnię na przykładzie prostej struktury, zwanej strukturą
porządkową. Weźmy pod uwagę parę <Z, S>, gdzie Z jest pewnym zbiorem a
S określoną na tym zbiorze relacją słabego porządku. To znaczy: dla
dowolnych x, y ze zbioru Z zachodzi: (i) xSx, (ii) xSy lub ySx, (iii) jeżeli xSy i ySz, to
xSz
. Określmy teraz taką funkcję f: Z
→
R o dziedzinie Z
i wartościach w
zbiorze liczb rzeczywistych, że jeżeli xSy to f(x)
≤
f(y
). O takiej funkcji f
mówimy, że jest homomorfizmem struktur <Z, S> i <R,
≤
>. Wyrażając się
mniej uczenie, można powiedzieć, że relacja S zachowuje się w zbiorze Z
podob
nie do relacji słabej nierówności w zbiorze liczb rzeczywistych, i że
funkcja f przyporządkowuje elementom zbioru Z liczby w sposób, który to
podobieństwo między relacjami zachowuje.
Funkcja f określa tzw. skalę porządkową, dzięki której można
porównywać elementy zbioru Z ze względu na stopień nasilenia jakiejś cechy –
zmiennej porządkowej
. Przykładem może jakość zdania egzaminu:
studenci zdają egzamin lepiej lub gorzej i tę jakość mierzy się skalą ocen,
zazwyczaj od 2 do 5. Zauważmy, że jeżeli istnieje jakiś homomorfizm f
między strukturami <Z, S> i <R,
≤
>, to istnieje ich więcej. Jeżeli bowiem
złożymy homomorfizm f z dowolną funkcją rosnącą g, np. g(x) = 2x-3,
otrzymamy funkcję h = gf, tj. h(x) = g(f(x)) = 2f(x)-3, która jest również
homorfizmem tych struktur. W naszym przykładzie otrzymalibyśmy skalę
ocen od 1 do 7, dlaczego nie? Gdy g będzie funkcją malejącą, złożenie h =
gf jest homomorfizmem struktur <Z, S> i <R,
≥
>, która jest również
odpowiednią skalą pomiarową. Ostatecznie skala ocen, w której 1 jest
oceną bardzo dobrą a 7 niedostateczną (wówczas g(x) = 11-2x) jest równie
12
W literaturze często skalę utożsamia się ze zmienną. Ja wolę zachować potoczne
pojęcie skali i mówić, że tę samą zmienną można mierzyć według różnej skali.
Adam Grobler, O metodzie i strukturze nauki 107
dobra, jak każda inna. W związku z tym mówimy, że zmienne porządkowe
są niezmiennicze ze względu na przekształcenia monotoniczne,
tzn.dowolne przekształcenie monotoniczne przekształca skalę porządkową
na skalę porządkową.
Skale porządkowe są stosunkowo mało czułe. Nie pozwalają na
określenie jednostki nasilenia danej cechy czyli na porównania pod
względem różnicy nasilenia danej cechy. W powszechnie stosowanej skali
ocen egzaminacyjnych różnica między oceną dobrą a dostateczną oraz
dostateczną a niedostateczną jest taka sama, co nie odzwierciedla wcale
wielkości różnicy jakości zdanych na te oceny egzaminów. Inaczej jest np.
z temperaturą, gdzie można sensownie mówić o tym, że np. różnica
temperatury powietrza o godzinie 8 rano i 12 w południe przez kilka dni
była taka sama. Tego rodzaju zmienna nazywa się zmienną interwałową.
Odpowiednia dla niej skala ma postać homomorfizmu f między strukturami
<Z, S
1
, S
2
> a <R, T
1
, T
2
>, czyli fu
nkcji o tej własności, że dla każdego x, y ze zbioru
Z
jeżeli xS
i
y, to f(x)T
i
f(y), i = 1, 2, gdzie T
1
jest relacją słabej nierówności (
≤
lub
≥
),
a T
2
jest relacją jednakowej różnicy określonej na zbiorze par liczb: <a,
b>T
2
<c, d>
↔
b-a = d-c
. Każda zmienna interwałowa jest zmienną
porządkową, bo homomorfizm struktur <Z, S
1
, S
2
> i <R, T
1
, T
2
> jest zarazem
homomorfizmem struktur <Z, S
1
> i <R, T
1
>, ale nie na odwrót. Zmienne
interwałowe są niezmiennicze ze względu na przekształcenia liniowe, tj.
przekształcenia określone wzorem: y = A x+B. Taki właśnie związek
zachodzi między różnymi skalami temperatury: Celsjusza, Fahrenheita,
Kelvina i in.
Są skale jeszcze mocniejsze, które pozwalają na porównania nasilenia
jakiejś cechy nie tylko pod względem różnicy, lecz także pod względem
ilorazu, tzn. pozwalają sensownie mówić, ile razy nasilenie danej cechy w
jednym obiekcie jest większe niż w innym. Przykładem jest masa. Tego
rodzaju zmienne nazywają się ilorazowymi. Ich skale są homomorfizmami
Adam Grobler, O metodzie i strukturze nauki 108
struktur <Z, S
1
, S
2,
S
3
> i <R, T
1
, T
2
, T
3
>, gdzie T
1
i T
2
są takie, jak poprzednio, a T
3
jest relacją proporcjonalności: <a, b>T
3
<c, d>
↔
b/a = d/c
. Każda zmienna
ilorazowa jest zmienną interwałową, ale nie na odwrót. Zmienne ilorazowe
są niezmiennicze ze względu na przekształcenia podobieństwa, tj.
przekształcenia określone wzorem: y = A x. Taki właśnie związek zachodzi
między masami mierzonymi w kilogramach, gramach, funtach lub innych
jednostkach.
Z drugiej strony można wyróżnić bardzo proste zmienne, niezmiennicze
jedynie na przekształcenia różnowartościowe: x
1
≠
x
2
→
y
1
= f(x
1
)
≠
f(x
2
) = y
2
.
Ich skale są homomorfizmami struktur <Z, S> i <R, T>, gdzie T jest relacją
“różne od” (
≠
). Takie zmienne nazywają się nominalne albo jakościowe,
ponieważ zamiast reprezentacji liczbowej można z równym pożytkiem użyć
jakiejkolwiek innej reprezentacji symbolicznej. Wyróżniając ten rodzaj
zmiennych można operacje polegające na wykrywaniu określonej jakości,
np. kwasowości za pomocą papierka lakmusowego, potraktować jako
szczególny przypadek pomiaru.
Powyższy przegląd rodzajów zmiennych pozwala do wcześniej
wspomnianego argumentu przeciw operacjonizmowi dołączyć kolejny:
struktura matematyczna zmiennej nadaje sens zdaniom, w których
występują wartości tej zmiennej spoza zakresu stosowalności znanych
operacji. I bez tego argumentu empiryści logiczni doszli do wniosku, że
operacje pomiarowe nie określają w pełni sensu żadnego terminu
teoretycznego. To też było motywem powstania koncepcji definicji
częściowych i częściowej interpretacji.
Adam Grobler, O metodzie i strukturze nauki 109
II
.4. Definicje częściowe
Carnap [1936/37] przeprowadził analizę terminów dyspozycyjnych, tj.
wyrażających własności dyspozycyjne. Są to takie własności, które rzecz
przejawia w ściśle określonych okolicznościach, własności polegające na
dyspozycji, czyli skłonności rzeczy do zachowywania się w określony
sposób w określonych warunkach, do reagowania na określone warunki.
Wynikiem analizy była koncepcja definicji częściowych za pomocą tzw.
łańcuchów redukcyjnych.
Zdaniem redukcyjnym nazwał Carnap zdanie postaci następującej:
(
∀
x){p(x)
→
[q(x)
→
r(x)]}
Zdanie to częściowo definiuje predykat r za pomocą predykatów p i q.
Głosi ono bowiem, że o przedmiocie x będziemy mówić, że ma własność r,
gdy znalazłszy się w warunkach p zachowa się w sposób q. Definicja ta jest
częściowa, ponieważ nic nie mówi na temat posiadania własności r przez
przedmioty, które nie znalazły się nigdy w warunkach p, albo znalazłszy się
w nich, zachowały się w sposób inny niż q. Np. niech p = “zanurzony w
wodzie”, q = “rozpuszcza się”, r = “rozpuszczalny”. Wówczas powyższe
zdanie redukcyjne częściowo definiuje własność dyspozycyjną
rozpuszczalności mówiąc, że gdy przedmiot x zostanie zanurzony w wodzie
i następnie będzie się rozpuszczał, to jest rozpuszczalny. Zdanie to jednak
nic nie mówi na temat ewentualnej rozpuszczalności przedmiotów nigdy
nie zanurzonych w wodzie, ani takich, które zanurzone w wodzie nie
rozpuszczają się.
Gdy do powyższego zdania dołączymy odpowiednie zdanie dla
¬
r:
(
∀
x){s(x)
→
[t(x)
→
¬
r(x)]}
Adam Grobler, O metodzie i strukturze nauki 110
otrzymamy tzw.
parę redukcyjną dla predykatu r. Para redukcyjna mówi, w
jakich okolicznościach przedmiotowi x można przypisać własność
dyspozycyjną r, a w jakich można mu jej odmówić. Para redukcyjna jest
częściową definicją predykatu r, ponieważ pozwala rozstrzygnąć, czy
przedmiot x
ma własność r, czy jej nie ma, tylko wtedy, gdy spełniony jest
warunek: [p(x)
∧
q(x)]
∨
[s(x)
∧
t(x
)]. Dopełnienie tego warunku nazywa się
obszarem nieokreśloności predykatu r, ponieważ dla x, które tego warunku
nie spełniają, kwestia posiadania lub nie posiadania przez nie własności r
pozostaje nieokreślona.
W szczególnym przypadku, gdy s = p i t =
¬
q otrzymujemy tzw. zdanie dwustronnie
redukcyjne
(
∀
x){p(x)
→
[q(x)
↔
r(x)]}.
W przykładzie z rozpuszczalnością mówi ono, że gdy przedmiot x zostanie
zanurzony w wodzie, jest rozpuszczalny wtedy i tylko wtedy, gdy się
rozpuszcza. Znowu, to zdanie jest częściową definicją rozpuszczalności,
pozwala bowiem rozstrzygnąć, czy przedmiot x jest rozpuszczalny, czy nie, tylko
wtedy, gdy zostanie on zanurzony w wodzie.
Para redukcyjna (lub zdanie obustronnie redukcyjne), w której r jest
terminem teoretycznym a p, q, s i t terminami obserwacyjnymi, dostarcza
częściowej interpretacji empirycznej terminu r. Gdy któryś z terminów p, q,
s, t jest terminem teoretycznym, to gdy do pary redukcyjnej dla terminu r
dołączymy taką parę redukcyjną dla tego terminu, że poza nim pozostałe
terminy w niej występujące są obserwacyjne, otrzymamy dwustopniową
częściową redukcję r do terminów obserwacyjnych. Gdy i w tej drugiej
parze redukcyjnej nie wszystkie terminy “częściowego definiensa” są
obserwacyjne, możemy dołączyć kolejną parę redukcyjną itd. aż
otrzymamy, po skończonej liczbie kroków, tzw. łańcuch redukcyjny, który
Adam Grobler, O metodzie i strukturze nauki 111
ostatecznie dostarcza częściowej interpretacji terminu r.
Obszar nieokreśloności terminu r można zmniejszać, wprowadzając
kolejne pary redukcyjne, które wszakże muszą spełniać warunek, że nie
prowadzą do rozstrzygnięć sprzecznych z rozstrzygnięciami
dokonywanymi na podstawie dotychczasowych par redukcyjnych. W miarę
postępu nauki obszar nieokreśloności terminów teoretycznych powinien
się systematycznie zmniejszać. W szczególności, przykładowe zdanie
obustronnie redukcyjne, częściowo definiujące rozpuszczalność, ma
kłopotliwie rozległy obszar nieokreśloności. Jak zauważył Carnap, jeżeli
wyciągniemy z fabrycznie nowego pudełka zapałek, potrzemy ją i
doszczętnie spalimy, nie będziemy mogli orzec na podstawie zdania, o
którym mowa, czy była ona rozpuszczalna, czy nie. Problem można
rozwiązać uzupełniając przykładowe zdanie redukcyjne warunkiem, wedle
którego każde dwa ciała o jednakowej strukturze chemicznej są bądź oba
rozpuszczalne, bądź oba nierozpuszczalne. Na tej podstawie próba
rozpuszczenia jednej zapałki rozstrzyga kwestię rozpuszczalności
wszystkich (podobnych do niej) zapałek świata.
Carnap [1956] zadanie dostarczenia częściowej interpretacji
teoretycznej części teorii powierza regułom korespondencji (zob. II.2), nie
przesądzając ich ogólnej formy. Z tego punktu widzenia łańcuchy
redukcyjne są szczególnym przypadkiem reguł korespondencji. Koncepcja
częściowej interpretacji ostatecznie upadła m.in. na skutek niejasnego
statusu reguł korespondencji. Jeżeli należą one do teorii, to każda zmiana
reguł korespondencji, np. wprowadzenie nowej pary redukcyjnej w celu
zmniejszenia obszaru nieokreśloności jakiegoś terminu, jest zmianą teorii:
przysparza jej nowych twierdzeń. Jeżeli zaś reguły korespondencji nie
należą do teorii, to zdania teoretyczne są pozbawione jakiejkolwiek, nawet
częściowej interpretacji. Ta trudność oczywiście nie odbiera definicjom
częściowym użyteczności do mniej ambitnych zastosowań, np. do
określania znaczenia terminów nieostrych, a mimo to ważnych. Skądinąd
Adam Grobler, O metodzie i strukturze nauki 112
problem interpretacji empirycznej teorii, zgodnie z tym, co mówiłem
wcześniej, nie został unieważniony przez odrzucenie absolutnego
rozróżnienia obserwacyjne-teoretyczne. Może, i powinien, zostać
przekształcony przy założeniu względnego rozróżnienia na “obserwacyjne”
i teoretyczne. Rozwiązanie w postaci dynamicznej koncepcji teorii
naszkicowałem w [Grobler 1993]. Zanim je tutaj streszczę, dokończę wątek
definicji i omówię pojęcie prawa.
II.5. Terminy klasyfikacyjne i typologiczne
Terminy klasyfikacyjne odgrywają szczególną rolę w teoriach.
Klasyfikacją nazywa się wyczerpujący i rozłączny podział zbioru
przedmiotów pewnej dziedziny, tzn. podział zbioru Z na podzbiory (klasy) K
1
, …,
K
n
taki, że Z = K
1
∪
…
∪
K
n
oraz K
i
∩
K
j
=
∅
, i, j = 1, …, n, i
≠
j
. W wyniku takiego
podziału każdy element zbioru Z należy do dokładnie jednej klasy spośród
K
1
, …, K
n
. Gdy na zbiorze Z
są określone jakieś zmienne, klasyfikację można
zdefiniować zaliczając do każdej klasy te i tylko te elementy zbioru Z, dla
których określone zmienne przybierają określone wartości. Przykładem
może być klasyfikacja pierwiastków chemicznych na metale, niemetale i
półmetale, w zależności od ich własności chemicznych: połyskliwości,
przewodności cieplnej i elektrycznej, tendencji do oddawania lub
przyłączania elektronów itd. Na tym samym zbiorze można określić więcej
niż jedną klasyfikację. Pierwiastki chemiczne można klasyfikować np. na
grupy. Są też klasyfikacje hierarchiczne, polegające na podziale klas na
podklasy: K
i
= K
i1
∪
…
∪
K
ip(i)
oraz K
ij
∩
K
ik
=
∅
, i = 1, …, n, ij, …, ik = 1, …p(i), ij
≠
ik
.
Podklasy moga się dzielić na kolejne podpodklasy itd. Przykładem może
być systematyka zwierząt, w której typy dzielą się na podtypy, te na
gromady, które następnie dzielą się na podgromady, a dalej na rzędy,
Adam Grobler, O metodzie i strukturze nauki 113
rodziny, rodzaje, gatunki itd.
Klasyfikacje są użyteczne poznawczo jeżeli są podporządkowane jakimś
zasadom teoretycznym. Np. gdy zachowanie elementów tej samej klasy
wykazuje podobne prawidłowości czyli gdy odpowiednie terminy
klasyfikacyjne są istotne nomologicznie, tj. nadają się formułowania praw.
Przebrzmiała, arystotelesowska klasyfikacja ciał na podksiężycowe
i nadksiężycowe opierała się na teorii, wedle której pierwsze poruszają się
ruchem naturalnym w dół, zaś drugie idealnym ruchem okrężnym.
Zakwalifikowanie ciepła jako formy energii było podyktowane
użytecznością zasady zachowania energii. Oparta na morfologicznych
podobieństwach organizmów systematyka Linneusza (1707-78)
zdeaktualizowała się, gdy podstawą klasyfikacji w biologii stała się teoria
ewolucji i hipotetyczne scenariusze ewolucyjne. Klasyfikacyjne pojęcie
k
wasu podlegało licznym rewizjom w miarę wzrostu wiedzy na temat
reakcji chemicznych.
Niekiedy od klasyfikacji bardziej użyteczne są typologie. Jest tak wtedy,
gdy teoretycznie interesujące zachowanie elementów dziedziny
przedmiotowej zależy od wielu zmiennych, zwłaszcza porządkowych, w
sposób, który nie daje się ująć za pomocą warunków koniecznych
i wystarczających. Np. klasyfikacja osiedli ludzkich na wielkie miasta,
miasteczka i wsie ze względu na liczbę mieszkańców nie byłby specjalnie
pouczający. Ważne są również inne zmienne: struktura zatrudnienia, styl
życia mieszkańców itd.. które niekoniecznie są współzmiennicze: pewne
osiedla mogą pod jednymi względami mieć charakter wielkomiejski, pod
innymi małomiasteczkowy. Typologia zatem nie dzieli dziedziny
przedmiotowej w sposób wyczerpujący i rozłączny. Pewne elementy
dziedziny wykazują cechy mieszane i nie da się ich zaliczyć do żadnego
typu. Inne można zaliczyć do pewnego typu na tej podstawie, że wykazują
tyle cech charakterystycznych dla niego, i w takim stopniu, że brak innych
cech “typowych” jest nieistotny ze względu na potrzeby teoretyczne. Gdy
Adam Grobler, O metodzie i strukturze nauki 114
np. rozważamy typy antropologiczne w związku z teorią migracji ludności,
liczy się stopień podobieństwa do wzorca, a nie spełnianie kryteriów
określonych na zasadzie “wszystko albo nic”.
Szczególnym przypadkiem typologii jest wyróżnienie typów
krańcowych, charakteryzujących się, odpowiednio, najmniejszymi i
największymi wartościami zmiennych będących podstawą typologii. Np.
podział partii politycznych na prawicowe i lewicowe, według stopnia
przywiązania do wolności gospodarczych – od libertarianizmu do doktryny
państwa opiekuńczego – i stopnia przywiązania do tradycji narodowej, od
nacjonalizmu i ksenofobii do kosmpolityzmu. Większość partii wykazuje
w różnym stopniu jedne cechy bliższe charakterystyce prawicy, inne
bliższe lewicy. Zalicza się je do prawicy lub lewicy w zależności od
rozkładu tych cech i ich nasilenia. Są też partie, które wykazują cechy
silnie prawicowe i silnie lewicowe naraz: np. partie głoszące zarazem
nacjonalizm i interwencjonizm gospodarczy. Inne zajmują stanowisko
umiarkowane, pośrednie w sprawach będących podstawą typologii
i można je określić jako centrowe. Niektóre partie trudno zaliczyć
gdziekolwiek, np. partie “zielonych”.
W wielu
zastosowaniach wyróżnienia się typ przeciętny, określony przez
przeciętne wartości zmiennych będących podstawą typologii, np.
“przeciętny Polak”. Typ przeciętny może być pusty: przypuszczalnie żaden
Polak nie jest przeciętny w tym sensie, że ma zarazem przeciętne dochody,
przeciętny poziom wykształcenia, przeciętną liczbę dzieci, przeciętną
konsumpcję dóbr określonego koszyka itp. Niemniej wyróżnienie takiego
typu ma wysoką wartość informacyjną.
II.6. Pojęcie prawa
W “teoretycznej” części teorii naukowej (w T
T
) odpowiednikiem twierdzeń
Adam Grobler, O metodzie i strukturze nauki 115
i aksjomatów są prawa i postulaty teoretyczne, które również mają
charakter prawa. Można wyróżnić różne rodzaje praw. Są prawa
jednoznaczne, zwane inaczej deterministycznymi, jak np. prawa dynamiki Newtona
prawa statystyczne
, jak np. prawa dziedziczenia Mendla. Są przyczynowe
prawa następstwa – skutek następuje w czasie po przyczynie – i prawa
współistnienia. Te ostatnie mogą być synchroniczne, przedstawiające
aczasową relację między zmiennymi, np. prawo gazu doskonałego Boyle’a-
Mariotta (PV = T), i diachroniczne
prawa zachowania, np. zasada zachowania
energii. Ta rozmaitość praw mocno utrudnia analizę pojęcia. Można jednak
zaryzykować tezę, że prawo nauki, bez względu na jego rodzaj, jest w
gruncie rzeczy hipotezą uniwersalną, czyli zdaniem postaci (
∀
x)[W(x)
→
Z(x
)]. Wyraz “hipoteza” znaczy (z greckiego) tyle, co przypuszczenie.
Prawo nauki jest więc przypuszczeniem, domysłem na temat treści prawa
przyrody
, czyli reguły – jednej z wielu – rządzącej zachowaniem przyrody,
występowaniem zjawisk w przyrodzie. Prawa mówią więc
o prawidłowościach zachodzących w przyrodzie.
W przyrodzie mogą jednak występować prawidłowości czysto
przygodne. Weźmy np. zdanie “Wszystkie rzeki w przyrodzie (na
wszystkich planetach, w przeszłości, teraz i w przyszłości) mają długość
nie większą niż 10 000 km”. Nawet gdyby ono było prawdziwe, nie wydaje
się równie odpowiednim kandydatem na prawo jak zdanie “Wszystkie
elektrony mają jednakową, masę równą 9,107
×
10
-28
g”. Aby zdać sprawę z
tej intuicyjnie wyczuwalnej różnicy, niektórzy filozofowie uważają, że
prawa wyrażają prawdy konieczne. Nie jest jednak jasne, jak w tym
kontekście należy rozumieć pojęcie konieczności, które jest mocno
obciążone metafizycznie. Nie wikłając się w tę kwestię, Nelson Goodman
[1954] zaproponował, by za prawa uważać zdania uzasadniające
13
Termin “deterministyczne” jest o tyle niefortunny, że sugeruje, iż prawo przesądza bieg
wydarzeń w świecie. Obecność praw jednoznacznych jednak nie dowodzi w żaden sposób
metafizy
cznej tezy determinizmu, ponieważ – o czym będzie mowa poniżej – wszystkie
prawa zakładają idealizacje i warunek ceteris paribus.
Adam Grobler, O metodzie i strukturze nauki 116
nierzeczywiste okresy warunkowe
. Nierzeczywistym okresem warunkowym
nazywa się zdanie postaci “gdyby A, to B”, symbolicznie: A å B. Zdanie (
∀
x)
[W(x)
→
Z(x)] jest prawem, gdy uzasadnia zdanie W(a) å Z(a
). Np. prawo swobodnego
spadania uzasadnia zdanie “Gdybym upuścił tę szklankę, spadłaby na
podłogę (ruchem jednostajnie przyspieszonym)”.
Kłopot z nierzeczywistymi okresami warunkowymi polega na tym, że
niezbyt dobrze wiadomo, co one znaczą: w jakich warunkach można je
uznać za prawdziwe. Potrzebne jest zatem objaśnienie semantyki
(znaczenia, warunków prawdziwości) gdybania. Musi być ono przy tym
niezależne od pojęcia prawa, inaczej bowiem powstaje błędne koło.
Standardowe ujęcie tej kwestii pochodzi od Davida Lewisa [1973]
największym skrócie, A å B jest prawdziwe wtedy i tylko wtedy, gdy w
każdym możliwym świecie wystarczająco podobnym do świata
rzeczywistego, w którym A jest prawdziwe, B jest również prawdziwe. Np.
“Gdyby babka miała wąsy, to by dziadkiem była” jest zdaniem
prawdziwym, gdy w każdym możliwym świecie, dostatecznie podobnym do
świata rzeczywistego, w którym babka ma wąsy, jest ona zarazem
dziadkiem.
Pod adresem tego rodzaju koncepcji można wysunąć szereg zastrzeżeń.
Niektórzy uważają samo pojęcie możliwych światów, pochodzące od
Leibniza (1646-1716), za obciążone podejrzaną metafizyką. Osobiście
uważam je za bardzo pożyteczne w analizie filozoficznej. Moje wątpliwości
budzi natomiast pojęcie podobieństwa. Wydaje mi się, że jest ono zbyt
względne, by można było nadać jednoznaczny sens wyrażeniu “x jest bardziej
podobne do y
niż do z”. Czy świat, w którym jeżdżę teraz na nartach wodnych
jest mniej czy bardziej podobny do świata rzeczywistego (w którym siedzę
przed komputerem, pisząc te słowa) niż świat, w którym siedzę teraz przy
biurku pisząc gęsim piórem i inkaustem?
14
Tłumacze, którzy counterfactual conditionals tłumaczą na “kontrfaktyczne okresy
warunkowe”, nie znają polskiej terminologii gramatycznej.
15
Późniejsze ujęcie Roberta Stalnakera [1984] jest nieco bardziej restryktywne.
Adam Grobler, O metodzie i strukturze nauki 117
Kolejna trudność analizy możliwoświatowej powstaje, gdy wziąć pod
uwagę fakt, że w poprzedniku praw, W(x), często mowa jest o warunkach,
które nigdy w przyrodzie nie są realizowane. Np. zasada bezwładności
mówi: “(Każde) ciało, na które (jeżeli) nie działa żadna siła, porusza się
ruchem jednostajnym prostoliniowym”. Wydaje się, że nie ma w przyrodzie
ciał, na które nie działa żadna siła. Być może w żadnym możliwym świecie
nie ma takiego ciała. W takim przypadku nierzeczywisty okres warunkowy
“Gdyby na to-a-to ciało nie działała żadna siła, to poruszałoby się ono
ruchem jednostajnym prostoliniowym” jest, na mocy analizy Lewisa,
trywialnie prawdziwy: “na to-a-to ciało nie działa żadna siła” nie jest
prawdziwe w żadnym możliwym świecie, a więc w każdym możliwym
świecie, w którym to ostatnie zdanie jest prawdziwe, prawdziwe jest
zdanie “porusza się ono ruchem jednostajnym prostoliniowym”. Na tej
samej zasadzie (na zasadzie pustego spełnienia poprzednika implikacji), w
każdym możliwym świecie, w którym prawdziwe jest zdanie “na to-a-to
ciało nie działa żadna siła”, prawdziwe jest dowolne inne zdanie, np.
“porusza się ono w rytmie walca”. Wówczas prawdziwy jest nierzeczywisty
okres warunkowy “Gdyby na to-a-to ciało
nie działała żadna siła, to poruszałoby się ono w rytmie walca”. Okres ten
jest uzasadniony przez “prawo”: “(Każde) ciało, na które (jeżeli) nie działa
żadna siła, porusza się w rytmie walca”.
Wobec tego pa
radoksu przypuszczalnie trzeba zadowolić się
sformułowaniem, iż prawo wyraża pewną prawidłowość. Mimo to nie każda
prawidłowość jest prawidłowością przyrody. Np. zdanie “Zawsze się cieszę,
kiedy cię widzę” może wyrażać absolutnie bezwyjątkową prawidłowość i
ma formę zdania uniwersalnego (
∀
x)[W(x)
→
Z(x)], gdzie x przebiega zbiór chwil, W
= “ja cię widzę”, Z = “ja się cieszę”, lecz mimo to nie jest dobrą
kandydaturą na prawo przyrody. Dlatego często w literaturze spotyka się
wymóg bezwzględnej uniwersalności zdania kandydującego na to
stanowisko. Powiada on, że takie zdanie musi obowiązywać w każdym
Adam Grobler, O metodzie i strukturze nauki 118
czasie i miejscu oraz nie zawierać nazw własnych ani zaimków
wskazujących. To ograniczenie eliminuje z zasobu praw osobiste
deklaracje w rodzaju wyżej przytoczonej. Niestety eliminuje również np.
prawa Keplera, które wymieniają Słońce po imieniu, albo prawo popytu i
podaży, które działa tylko w gospodarce wolnorynkowej. Problem
rozwiązuje koncepcja wieloodniesienia teorii [Wójcicki 1991]. Powiada ona,
w swobodnym sformułowaniu, że teorie naukowe nie stosują się do “całego
świata”, lecz do wielu układów w świecie wyróżnionych na odrębnych
zasadach.
Przy takim podejściu znowu trudność sprawiają prawa, które
w poprzedniku zakładają warunek nigdy nie urzeczywistniony, jak
wspomniana zasada bezwładności (“ciało, na które nie działa żadna siła”).
O jakiej prawidłowości tu mowa? Czy są prawidłowości, których nie
egzemplifikuje żaden przykładowy przypadek? To pytanie odsyła nas do
zagadnienia idealizacji.
II.7. Idealizacje i warunki ceteris paribus
Prawa nauki mogą uwzględniać tylko skończoną liczbę czynników
mających wpływ na zjawiska, o których mówią. Inaczej w ogóle nie dałyby
się wysłowić. Z tej skończonej liczby mogą uwzględnić tylko niewiele. Tylko
niewiele czynników można kontrolować eksperymentalnie i tylko niewiele
zmiennych da się ująć za pomocą aparatu matematycznego na tyle
poręcznego, żeby stosowne obliczenia były wykonalne. Idealizacja polega
na milczącym założeniu, że czynniki, o których prawo milczy, nie mają
żadnego wpływu na zjawiska, o których prawo mówi. To milczące
założenie można sformułować wyraźnie nadając prawu postać
następującą:
Adam Grobler, O metodzie i strukturze nauki 119
(
∀
x)[W
f
(x)
∧
W
i
(x)
→
Z(x)]
gdzie W
f
oznacza warunki faktualne, obejmujące czynniki, które mają wpływ
na zachowanie Z, a W
i
oznacza warunki idealizacyjne, wedle których inne
czynniki nie mają na Z wpływu. Gdy Z(x) ma postać równania, W
i
można
przedstawić jako warunek przyrównujący pewne zmienne do zera: W
i
(x)
↔
p
1
(x) = 0
∧
…
∧
p
n
(x) = 0.
Na przykład prawo swobodnego spadania:
pomija przyrost przyspieszenia w wyniku wzrostu siły ciążenia ziemskiego na skutek
przybliżania się ciała do środka ciężkości Ziemi. Zakłada więc, że h/R = 0, gdzie R oznacza
promień Ziemi. h/R w rzeczywistości jest dodatnie, aczkolwiek niewielkie. W związku z tym
odległość między spadającym ciałem a środkiem Ziemi, siła ciążenia i przyspieszenie
zmieniają się nieznacznie. Kolejną idealizacją jest pominięcie przeciwdziałania siły oporu
powietrza, lokalnych różnic odległości od środka Ziemi z uwagi na położenie geograficzne
i ukształtowanie terenu, siły odśrodkowej pochodzącej od ruchu wirowego Ziemi, siły
przyciągania Księżyca, Słońca, ciśnienia światła itd. itd.
Jak widać, idealizacyjny charakter prawa jest konsekwencją uproszczenia problemu
naukowego. W wyniku idealizacji otrzymujemy prawo wyrażone w bardzo prostej postaci
matematycznej. Zabieg polegający na uchyleniu niektórych założeń idealizacyjnych
nazywa się faktualizacją albo konkretyzacją prawa. To samo prawo może mieć zatem
różne sformułowania: mniej lub bardziej wyidealizowane. Faktualizacja prowadzi do
sformułowania bardziej skomplikowanego pod względem matematycznym, mniej
poręcznego do rachunków. Czasami komplikacje faktualizacji przerastają ewentualne zyski
dokładności. Próba uwzględnienia choćby zmiany odległości spadającego ciała od środka
Ziemi prowadzi do równania różniczkowego o bardzo trudnych do znalezienia
rozwiązaniach. W wielu innych problemach komplikacje matematyczne są wręcz
nieprzezwyciężalne. Nie musimy się jednak nimi przejmować pod warunkiem, że potrafimy
oszacować rząd przybliżenia idealizacyjnego sformułowania prawa i na tej podstawie ustalić
zakres jego użytecznych zastosowań. Nawet tam, gdzie komplikacje matematyczne są do
pokonania, niekoniecznie opłaca się nimi zajmować. W takich przypadkach decyzja o
wyborze między prostotą sformułowania wyidealizowanego a dokładnością sformułowania
skonkretyzowanego zależy od potrzeb praktycznych. Np. gdy chodzi o wystrzelenie sondy
kosmicznej mającej wylądować na Księżycu, można śmiało zaniedbać różnicę między
rozwiązaniami prostych równań fizyki klasycznej i bardziej złożonych równań teorii
względności.
Z powyższego można wyciągnąć wniosek, że istota idealizacji polega na
przybliżeniach (aproksymacji). Kolejne faktualizacje prawa nauki powinny zasadniczo
dawać coraz dokładniejsze przybliżenia prawa przyrody, zbliżają nas do prawdy o świecie.
Standardowym przykładem, który tę tezę sugeruje, jest ciąg kolejnych faktualizacji prawa
Ohma:
V = I
×
R;
V = I
×
R + L
×
dI/dt;
Adam Grobler, O metodzie i strukturze nauki 120
V = I
×
R + L
×
dI/dt + Q/C;
gdzie V
= napięcie na krańcach przewodnika, I = natężenie prądu, R = opór
przewodnika, L
= współczynnik samoindukcji przewodnika, Q = ładunek
elektryczny. C = pojemność elektryczna. Kolejne faktualizacje uchylają
założenia: L = 0 i Q/C = 0.
Rozważany przedtem przykład prawa swobodnego spadania dowodzi,
że wcale nie jest taka prosta. Nawet gdyby dzielnie stawić czoła
trudnościom matematycznym i uwzględnić zmianę odległości ciała w
ruchu od środka Ziemi, poprawka tym sposobem wprowadzona może
jeszcze powiększać błąd wynikający np. z pominięcia geograficznych
różnic promienia Ziemi. Przypuśćmy, że i one zostały wzięte pod uwagę i
rozważmy ewentualną kolejną faktualizację, uwzględnienie siły oporu
powietrza. Jest ona proporcjonalna do prędkości oraz zależy od wielkości
i kształtu ciała. Trzeba więc uchylić jeszcze jedno założenie idealizacyjne,
w myśl których ciała są punktami materialnymi, tzn. zachowują się tak, jak
gdyby cała ich masa była skupiona w ich środku ciężkości, a ich
zachowanie nie zależało od ich wymiarów ani kształtu. Powstają
komplikacje matematyczne, które można pokonać w przypadku kształtów
prostych do opisania, np. kuli lub płaskiej płytki. W związku z tym do
obliczeń uchylających idealizację pomijającą opór powietrza trzeba
zastosować kolejną idealizację upraszczającą opis kształtów spadającego
ciała. Wynikające stąd zniekształcenia opisu ruchu mogą, przy niedużych
prędkościach, prowadzić do większych rozbieżności między
przewidywaniami a faktycznym przebiegiem zjawisk niż pominięcie siły
oporu powietrza w ogóle. Toteż uchylenie kolejnej idealizacji nie musi
wcale poprawiać dokładności przewidywań. Faktualizacja może niekiedy
oddalać od prawdy, zamiast przybliżać do niej
. Dlatego w praktyce
współczynnik oporu powietrza dla większości ciał wyznacza się
16
Zwodniczość faktualizacji na przykładach z bardziej zaawansowanej fizyki omawia
Nancy Cartwright [1983].
Adam Grobler, O metodzie i strukturze nauki 121
doświadczalnie.
Prócz idealizacji, prawa nauki zakładają również warunki ceteris paribus
(por. I.5.4), które prawie nigdy nie są spełnione. W naszym przykładzie
warunek ceteris paribus zakłada m.in. brak wiatru o odczuwalnej sile.
Tymczasem nawet drobny, niewyczuwalny wietrzyk, cyrkulacja powietrza
w osłoniętym pomieszczeniu lub ruch przelatującej muchy zakłóca proces
spadania. Warunek ceteris paribus, podobnie jak idealizacja, polega na
pominięciu pewnych oddziaływań i nadaje sformułowaniu prawa charakter
przybliżenia. Warto jednak odróżnić jedno od drugiego, ze względu na ich
odmienności metodologiczne. Idealizacja polega na pominięciu
systematycznych wpływów o których wiadomo na podstawie teorii, jak je
uwzględnić. Siła przyciągania ziemskiego w miarę przybliżania się
spadającego ciała do powierzchni Ziemi rośnie zgodnie z prawem
powszechnego ciążenia. Siła oporu powietrza zmienia się również
w sposób prawopodobny. Natomiast “wiatr wieje, kędy chce” [J, 3, 8], siła
przyciągania ze strony innych ciał zależy od ich przygodnego
rozmieszczenia względem spadającego ciała, ewentualne oddziaływania
magnetyczne (gdy spadające ciało posiada własności magnetyczne) zależą
m.in. od rozmieszczenia rud metali w skorupie ziemskiej itp. Warunek ceteris
paribus
pomija tego rodzaju wpływy, wpływy pochodzące od przygodnych
okoliczności sytuacji zastosowania prawa.
Różnica metodologiczna między idealizacją a warunkami ceteris paribus
przejawia się m.in. w zastosowaniach prawa. Dokładność przewidywań na
podstawie prawa zależy od idealizacji w sposób podlegający dyskusji
teoretycznej. Z góry można oszacować, w jakich zastosowaniach prawa
posłużenie się idealizacją przyniesie pożądane uproszczenie problemu bez
niepożądanych zniekształceń rozwiązania. Dopiero rozbieżności między
przewidywaniami a obserwacją, które przekraczają ustalony teoretycznie
margines błędu, można złożyć na karb naruszenia warunku ceteris paribus,
co może prowadzić do wykrycia nieznanych dotąd oddziaływań. Jak
Adam Grobler, O metodzie i strukturze nauki 122
wspominałem (I.5.4), zastosowanie prawa w ten sposób może
przekształcić jego pozorną falsyfikację w spektakularny sukces
empiryczny.
Różnica między idealizacją a warunkiem ceteris paribus może być nieostra
albo pragmatyczna. Gdy Newton przystępował do wyprowadzania prawa
powszechnego ciążenia z praw Keplera, przyjął na początku idealizację
polegającą na uwzględnieniu jedynie oddziaływania grawitacyjnego
Słońca, z pominięciem oddziaływań planet na Słońce i planet między sobą.
Założenia te uchylił w dalszych swoich badaniach nad mechaniką nieba.
Z drugiej strony, wykrycie anomalii orbity Urana zostało przez Leverriera
potraktowane jako świadectwo naruszenia warunku ceteris paribus, działania
siły przyciągania nieznanej dotąd planety. Tak więc pominięcie działania
grawitacyjnego Neptuna, w zależności od kontekstu badawczego, można
uznać za idealizację lub zaliczyć w skład warunku ceteris paribus. Podstawą
rozróżnienia jest funkcja metodologiczna, jaką w rozpatrywanym
kontekście pełni dane założenie.
Różnica między idealizacją a warunkiem ceteris paribus ujawnia się
również w metodologii eksperymentu. Eksperyment planuje się tak, aby
wpływ czynników idealizacyjnych na jego przebieg ograniczyć do
minimum. Oddziaływania, o których mowa (a raczej niemowa) w warunku
ceteris paribus
, są na ogół nieznane. Usiłuje się je wyeliminować zazwyczaj
przez randomizację (nadanie charakteru losowego, “uprzypadkowienie”)
czynników ubocznych, tj. przez powtarzanie eksperymentu w
zmieniających się warunkach otoczenia (por. eksperyment Périera I.5.4).
Do czynności eksperymentalnych należą również operacje pomiarowe.
Pomiar oczywiście zakłada idealizacje związane z czułością aparatury. Inną
powszechną idealizacją pomiaru jest założenie, że wartość mierzonej
zmiennej jest przez pewien czas stała (przez czas nie krótszy niż czas
dokonywania pomiaru). Np. badanie laboratoryjne poziomu cholesterolu
we krwi zaniedbuje jego naturalne wahania np. po posiłkach. Nie mają one
Adam Grobler, O metodzie i strukturze nauki 123
znaczenia dla diagnozy medycznej
. Z kolei warunek ceteris paribus
zakłada
oczywiście, że uboczne oddziaływania nie zakłócają procesu pomiaru.
Różnica między idealizacją a warunkiem ceteris paribus w przypadku pomiaru
rzutuje na metodę oceny błędu pomiarowego. Błąd pochodzący od
idealizacji można oszacować teoretycznie, błąd pochodzący od
domniemanego naruszenia warunku ceteris paribus szacuje się za pomocą
powtarzania pomiaru i analizy statystycznej wyników.
Kontekstualny charakter omawianego rozróżnienia w interpretacji
eksperymentu można zilustrować na przykładzie dyskusji nad
wspomnianym wcześniej efektem Michelsona-Morleya (I.4.2).
Eksperymentatorzy przyjmowali m.in. założenie idealizacyjne, wedle
którego ramiona ich przyrządu są sztywne, nie zmieniają długości w
trakcie obrotu. W rzeczywistości ciał doskonale sztywnych nie ma. W
ramach tej i innych idealizacji mogli potraktować wynik swojego
eksperymentu, jak gdyby był zerowy. Hipoteza skrócenia Lorentza
przeczyła założeniu, że ramiona interferometru są sztywne, zmieniając
zarazem jego status z idealizacyjnego na (niespełnione) ceteris paribus. Głosiła
bowiem, że na ramię prostopadłe do osi obrotu Ziemi działają siły
elektromagnetyczne, nie uwzględnione w pierwotnym planie
eksperymentu. Tym samym na miejsce teoretycznego problemu
oszacowania błędu pomiarowego postawiła nowe problemy
eksperymentalne, np. problem pomiaru zależności oporu elektrycznego od
ułożenia przewodnika względem osi obrotu Ziemi.
Idealizacja przejawia się również w konstruowaniu pojęć, jak np.
wspomnianego przed chwilą pojęcia ciała sztywnego. Idealizacyjny
charakter mają wszystkie pojęcia typologiczne. W tym przypadku
idealizacja polega na traktowaniu pojęć typologicznych jak gdyby były
pojęciami klasyfikacyjnymi.
17
Natomiast
przypadek jednego z moich znajomych, który nieco pośpiesznie poddał się
kuracji, zaniepokojony wynikami badania przeprowadzonego tuż po Świętach
Wielkanocnych, może być przykładem przeoczenia przez niego i jego lekarza, że warunek
ceteris paribus
nie jest spełniony.
Adam Grobler, O metodzie i strukturze nauki 124
Powszechność idealizacji w nauce może sprawiać wrażenie, że jest w
niej coś sztucznego, coś filozoficznie problematycznego, zwłaszcza gdy
idzie o zagadnienie realizmu czyli związku poznania (naukowego) z prawdą
(IV.1). Osobiście sądzę, że jeżeli obecność idealizacji stanowi jakiś
szczególny problem, to w równej mierze dotyczy on poznania potocznego.
Kiedy kupujemy w sklepie 1 kilogram mięsa, nie będziemy składać
reklamacji z powodu braku kilku mikrogramów. Ewentualna różnica nie
wpływa na wysokość należności, a po przyniesieniu zakupów do domu i tak
waga towaru się zmieni na skutek procesów naturalnych (wysychanie).
Podobnie, najsurowsi jurorzy są nieczuli na dobowe wahania wymiarów
kandydatek na Miss Świata, pedanci punktualności nie dbają o sekundy
odjazdu autobusu a nauczyciele języka polskiego obojętnie traktują
indywidualne różnice w wymowie słowa “pięćdziesiąt”.
Naukowe idealizacje różni od potocznych ich teoretyczny charakter.
Ujawnia się on również w sposobie prowadzenia dyskursu naukowego.
Niemal w każdym zaawansowanym podręczniku fizyki można spotkać
“wyprowadzenia” wzorów, które polegają na rozwinięciu jakiejś funkcji
w szereg nieskończony, np. potęgowy, by następnie pominąć wszystkie
jego składniki odpowiednio niskiego rzędu wielkości. Z punktu widzenia
matematyki lub logiki takie zabiegi są nielegalne. W fizyce są na porządku
dziennym. Toteż teorię naukową od matematycznej różni nie tylko to, że
pierwsze muszą mieć jakąś interpretację empiryczną, ale też to, że
twierdzeniami teorii naukowej mogą być nie tylko logiczne konsekwencje
jej aksjomatów, ale również wystarczająco dobre ich przybliżenia. Można
zatem powiedzieć, że samo pojęcie teorii naukowej, ukute na wzór pojęcia
teorii matematycznej, jest idealizacyjnym pojęciem metodologii. W ujęciu
Carnapa zakłada ono m.in. idealizacyjne rozróżnienie terminów na
obserwacyjne i teoretyczne, o czym była mowa w I.3.2. Niektóre z tego rodzaju
idealizacji można uchylić stosując podejście semantyczne do teorii
naukowych.
Adam Grobler, O metodzie i strukturze nauki 125
II.8. Teorie a modele
Trudności ujęcia treści empirycznej teorii naukowej skłoniły niektórych
filozofów do potraktowania teorii jako rodziny modeli. Pojęcie modelu jest
bardzo wieloznaczne. Dla naszych potrzeb wyróżnimy trzy jego znaczenia.
Model symulacyjny
. Jest to zjawisko, które można uczynić przedmiotem
eksperymentów i manipulacji w zastępstwie zjawiska modelowanego,
oryginału, będącego właściwym przedmiotem badania. Możliwość tę oferuje
nam gwarantowane lub postulowane przez teorię, z dokładnością do założeń
idealizacyjnych teorii, podobieństwa lub analogie zachowania modelu i
oryginału pod określonymi, interesującymi względami. Badania modeli
symulacyjnych zamiast badań bezpośrednich prowadzi się ze względów
ekonomicznych lub etycznych. Np. badanie działania pasów bezpieczeństwa,
poduszek powietrznych itp. urządzeń w samochodzie prowadzi się na
manekinach, a nie żywych pasażerach. Badanie wydolności nowych typów
pojazdów prowadzi się najpierw na ich makietach sporządzonych w
pomniejszonej skali, a dopiero gdy te wypadną pomyślnie, wypróbowuje się
prototypy naturalnej wielkości.
Model ikoniczny. Jest to symboliczna r
eprezentacja badanego zjawiska, która
ma charakter podobizny, tzn. niektóre cechy modelu odwzorowują czy
naśladują (z dokładnością do założeń idealizacyjnych) określone cechy
oryginału. Przykładem może być mapa terenu. Podobizna może mieć
charakter mniej lub bardziej dosłowny, co ilustruje różnica między mapą
przestrzenną a mapą płaską z zaznaczonymi poziomicami. Ten sam oryginał
może mieć różne podobizny w zależności od doboru cech będących
przedmiotem zainteresowania. Są np. mapy fizyczne, drogowe, bogactw
mineralnych itd. Granica między modelami symulacyjnymi i ikonicznymi jest
nieostra. Np. programy komputerowe mogą służyć do symulacji bardzo
Adam Grobler, O metodzie i strukturze nauki 126
skomplikowanych zjawisk m.in. procesów atmosferycznych, ewolucji
gatunków biologicznych czy ewolucji społeczeństw ludzkich i zwierzęcych.
Trudno rozstrzygnąć, do którego z tych dwóch typów modeli należy je
zaliczyć: z jednej strony podlegają manipulacji w formie wprowadzania
danych, z drugiej zaś mają charakter symboliczny.
Model metamatematyczny albo semantyczny.
To pojęcie, najbardziej
uteoretyzowane, wymaga definicji krok po kroku. Weźmy pod uwagę pewien
język L, np. monadyczny język rachunku predykatów pierwszego rzędu,
którego alfabet został zdefiniowany w (I.2.2). Interpretacją I języka L
nazywa się takie odwzorowanie (funkcja), która (i) każdej stałej
indywiduowej języka L przyporządkowuje jakiś element pewnego ustalonego
zbioru U, zwanego uniwersum języka L, (ii) każdemu predykatowi języka L
przyporządkowuje pewien podzbiór zbioru U. Punkt (i) polega na nadaniu nazw
przynajmniej niektórym elementom uniwersum. Punkt (ii) polega na
wyróżnieniu w uniwersum podzbiorów tych elementów, o których będziemy
mówić, że mają własność nazwaną za pomocą danego predykatu. Np.
interpretacją języka, w którym jako stałe indywiduowe występują liczebniki i
w którym występują predykaty p = “parzysty”, q = “nieparzysty”, r = “…jest liczbą
pierwszą” itp. może być takie odwzorowanie, które liczebnikom
przyporządkowuje odpowiednie liczby, a predykatom p, q, r odpowiednio zbiory
liczb parzystych, nieparzystych, pierwszych
. Ciąg <U, Z
1
, …, Z
n
>, gdzie U
jest
uniwersum języka L a Z
1
, …, Z
n
interpretacjami poszczególnych predykatów
języka L, nazywa się modelem języka L. W naszym przykładzie modelem
jest ciąg złożony ze zbioru liczb naturalnych, zbioru liczb parzystych,
nieparzystych, pierwszych itd. Model języka L można uważać za jeden
z możliwych światów dających się opisać za pomocą języka L.
Pojęcie modelu z łatwością można uogólnić na bogatsze języki, w których
występują predykaty wieloargumentowe i symbole funkcyjne. Interpretacją
predykatu n-argumentowego może być relacja n-argumentowa czyli zbiór n-
18
Możliwe są inne interpretacje, tzw. niestandardowe, np. takie, które predykatowi “parzysty”
przy
porządkowuje zbiór liczb nieparzystych itd.
Adam Grobler, O metodzie i strukturze nauki 127
elementowych ciągów uniwersum. Np. interpretacją predykatu “większa od”
może być zbiór par liczb, z których pierwsza jest większa od drugiej a
interpretacją predykatu “… ma się do … tak, jak … do …” jest zbiór czwórek
liczb takich, że pierwsza ma się do drugiej tak, jak trzecia do czwartej. Zaś
interpretacją symbolu funkcyjnego jest pewna funkcja określona na
uniwersum języka.
Teraz naszk
icuję z grubsza pochodzącą od Tarskiego [1933] definicję
prawdy. Wartościowaniem v nazywamy odwzorowanie, które każdej
zmiennej indywiduowej x języka L przyporządkowuje jakiś element v(x)
uniwersum U
, a każdej stałej indywiduowej a jej interpretację I(a). O wyrażeniu
atomowym (formule atomowej) p(t
1
, …, t
n
), gdzie t
1
, …, t
n
są zmiennymi lub
stałymi
, mówimy, że jest spełnione w interpretacji I przy wartościowaniu v,
gdy między elementami v(t
1
), …, v(t
n
) zbioru U
, wziętymi w tym porządku,
zachodzi relacja będąca interpretacją predykatu p. Dalej, wyrażenie
¬
A
jest
spełnione, gdy A nie jest spełnione; A
∨
B
jest spełnione, gdy przynajmniej
jedno z nich jest spełnione; wyrażenie (
∃
x)A
jest spełnione w interpretacji I
przy wartościowaniu v, gdy A jest spełnione w interpretacji I przy jakimś
wartościowaniu w, które różni się od v najwyżej dla x. Uzupełniając te
warunki o definicje: A
∧
B =
¬
(
¬
A
∨
¬
B); A
→
B =
¬
A
∨
B; A
↔
B = A
→
B
∧
B
→
A; (
∀
x)A
= (
∃
x)[
¬
A
]; otrzymamy rekurencyjną (II.2) definicję spełniania dla całego
języka klasycznego rachunku predykatów. Dla ilustracji: gdy interpretacją
“<” jest relacja “mniejsze od”, a interpretacją nazw 1, 2, 3… są odpowiednie
liczby, wyrażenie x < 4 nie jest spełnione dla wartościowania v, gdy v(x) = 5.
Jest natomiast spełnione dla wartościowania w, dla którego w(x) = 3. Dlatego
też wyrażenie (
∃
x)[x
< 4] jest spełnione dla dowolnego wartościowania.
Wreszcie, wyrażenie nazywa się prawdziwe w interpretacji I, gdy jest w tej
interpretacji spełnione dla dowolnego wartościowania.
Teraz już można zdefiniować pojęcie modelu metamatematycznego lub
semantycznego teorii. Modelem teorii T sformułowanej w języku L nazywa
19 Lub funkcjami od nich, gdy w alfabecie
języka L występują również symbole funkcyjne.
Adam Grobler, O metodzie i strukturze nauki 128
się taki model języka L, w którym prawdziwe są wszystkie twierdzenia tej
teorii. Model teorii jest obiektem matematycznym, strukturą złożoną ze
zbioru (uniwersum modelu) i relacji określonych na tym zbiorze
. Można go
pojmować jako jeden z możliwych światów, w którym wszystkie twierdzenia
tej teorii są prawdziwe. Dopóki rozpatrujemy teorię w oderwaniu od jej
modeli, czyli teorię niezinterpretowaną lub formalną (II.1), stanowi ona zbiór
zdań domknięty ze względu na operację konsekwencji, zdań pojmowanych
jako ciągi symboli rozpatrywanych w oderwaniu od znaczenia, jakie można
im przypisać. Model teorii dostarcza jej interpretacji, tj. nadaje znaczenie jej
zdaniom. Pojęcie częściowej interpretacji, nad którym biedzili się zwolennicy
“poglądu otrzymanego” miało na celu dostarczenie teorii naukowej
częściowego modelu w postaci obserwowalnej części dziedziny
przedmiotowej teorii. Nieskuteczność ich wysiłków skłoniło część filozofów
do poszukiwań interpretacji semantycznej teorii naukowej na innej drodze.
II.9. Koncepcja niezdaniowa teorii naukowych
Główna idea nawiązuje do programu badań podstaw matematyki
sformułowanego przez grupę Bourbaki. Zgodnie z nim teoria
matematyczna nie jest systemem dedukcyjnym zdań, lecz rodziną
obiektów, tj. modeli albo struktur, w których spełnione są jej aksjomaty.
Przez analogię, Suppe [1989], Suppes [1967], van Fraassen [1970], Giere
[1988] i in., w Polsce m.in. Suszko [1957], Przełęcki [1969], Nowaczyk
[1990] i Wójcicki [1974], proponowali traktować teorię jako rodzinę modeli,
które są, z jednej strony, modelami semantycznymi teorii, z drugiej zaś
modelami ikonicznymi fragmentów rzeczywistości, do których teoria się
stosuje. Co do ogólnej formy modelu między wymienionymi autorami
panują różnice zdań. Niemniej w tzw. ujęciu semantycznym teoria
20 Ewentualnie jeszcze innych zbior
ów, funkcji i działań na elementach zbioru.
Adam Grobler, O metodzie i strukturze nauki 129
naukowa nie składa się z praw, zdań uniwersalnych, które stosują się do
całego świata, ale z modeli pewnych wycinków świata. Treść empiryczną
teorii wyznaczają, po pierwsze, jej modele częściowe, tj. modele okrojone
do “obserwowalnych” zjawisk, oraz wzajemne związki między
poszczególnymi jej modelami. Te bardzo ogólnikowo naszkicowane idee
przedstawię zilustruję na przykładzie najbardziej wpływowej wersji
podejścia semantycznego, tzw. strukturalizmu albo niezdaniowej koncepcji
teorii naukowych, sformułowanej pierwotnie przez Josepha Sneeda [1971]
i rozwijanej następnie przez Wolfganga Stegmüllera [1979] i in.
W ujęciu Sneeda-Stegmüllera podstawowym składnikiem teorii (theory-
element) T jest para <K, I
>, złożona z rdzenia teorii K i zakresu zamierzonych
zastosowań I. K = <M
p
, M
pp
, M, C>, gdzie M
p
jest zbiorem modeli potencjalnych, M
pp
zbiorem częściowych modeli potencjalnych, M zbiorem modeli właściwych
albo naczelnym prawem teorii, C zbiorem powiązań (constraints) między
modelami. Intuicyjnie rzecz biorąc, M
p
jest ogółem logicznie możliwych
światów, w sensie tzw. “małych światów” [Savage], a nie “całych
światów”. Znaczy to m.in. że poszczególne “światy”, elementy M
p
mogą
przecinać się ze sobą. M
pp
jest ogółem “obserwowalnych” “warstw”
możliwych światów, czyli każdy element M
pp
jest podmodelem, “warstwą”
jakiegoś elementu M
p
. M
⊂
M
p
jest ogółem tych światów logicznie
możliwych, których nie wyklucza teorii. C jest klasyfikacją światów M na
klasy światów współmożliwych. I jest zbiorem tych rzeczywistych
obserwowalnych warstw światów, do których teoria powinna się stosować.
Każdy element x
∈
M
p
jest ciągiem < n
1
, …, n
m,
t
1, …,
t
k
, > m+k funkcji, m > 0, k
≥
0, odpowiednio nieteoretycznych i teoretycznych. Funkcje teoretyczne są
to funkcje, których wartości nie można wyliczyć bez posłużenia się
rozpatrywaną teorią. Funkcje nieteoretyczne są to te funkcje, których
wartości można wyznaczyć w sposób niezależny od rozpatrywanej teorii,
aczkolwiek – zgodnie z tezą o uteoretyzowaniu obserwacji – zależny od
Adam Grobler, O metodzie i strukturze nauki 130
innych teorii. Każdy element y
∈
M
pp
jest podciągiem <n
1
, …, n
m
> funkcji
nieteoretycznych jakiegoś x
∈
M
p
. M jest pewnym podzbiorem M
pp
, zaś C pewnym
podzbiorem zbioru potęgowego (zbioru wszystkich podzbiorów) M
p
takim,
że (i)
∅
∉
C, (ii) x
∈
M
p
→
{x}
∈
C, (iii) X
∈
C, Y
⊂
X
→
Y
∈
C. To znaczy C
jest
zbiorem zbiorów światów “współmożliwych”: (i) pusty zbiór światów nie
jest zbiorem światów współmożliwych, (ii) każdy pojedynczy świat jest
współmożliwy z samym sobą, (iii) każdy podzbiór zbioru światów
współmozliwych jest zbiorem światów współmożliwych. I jest pewnym
podzbiorem M
pp
.
Tę wysoce abstrakcyjną zilustruję przykładem dobrze znanej teorii,
klasycznej mechaniki punktu materialnego. Każdy element zbioru modeli
potencjalnych tej teorii, x
∈
M
p
, jest trójką x = <s, m, f> funkcji położenia,
masy i siły. Funkcja położenia s jest określona na iloczynie kartezjańskim P
×
T pewnego zbioru P
punktów materialnych i pewnego przedziału czasowego
T
i przyjmuje wartości z R
3
. Tzn. jej wartościami tej funkcji są trójki liczb –
współrzędne danego punktu materialnego w danej chwili. Funkcja masy m
jest określona na zbiorze punktów materialnych P (tym samym) i przyjmuje
wartości liczbowe, nieujemne. Funkcja siły f jest funkcją wektorową,
określoną na P
×
T
×
N, gdzie P i T
są te same, co poprzednio, N jest zbiorem
liczb naturalnych. Tzn. f(p, t, n) = (f
1
(p, t, n), f
2
(p, t, n), f
3
(p, t, n
)) czyli dla każdego
punktu materialnego p
∈
P
, dla każdej chwili t
∈
T
i każdej liczby naturalnej
n funkcja f
przyjmuje wartość będącą wektorem
. Zatem każdy element
zbioru modeli potencjalnych klasycznej mechaniki punktu materialnego
przedstawia możliwą historię pewnego możliwego zbioru punktów
materialnych P w jakimś możliwym odcinku czasu T, historię, która
rejestruje siły (ponumerowane liczbami naturalnymi) działające na każdy
punkt materialny z P w każdej chwili z T, masę każdego punktu
21 Zmienna n
∈
N
umożliwia uwzględnienie działania wielu sił na ten sam punkt materialny w
tej samej chwili. Założenie, że liczba działających sił jest skończona można wyrazić
warunkiem: (
∃
n
0
)(
∀
p)(
∀
t)(
∀
n)[n > n
0
→
f(p, t, n) = 0].
Adam Grobler, O metodzie i strukturze nauki 131
materialnego i jego trajektorię czasoprzestrzenną w odcinku czasu T.
Funkcje siły i masy są funkcjami teoretycznymi w tym sensie, że nie
można wyznaczyć ich wartości bez odwołania się do udanych zastosowań
klasycznej mechaniki punktu materialnego. Natomiast wartości funkcji
położenia można wyznaczyć w sposób niezależny od klasycznej mechaniki
punktu materialnego np. za pomocą metod optycznych (które są
oczywiście zależne od teorii optyki). W związku z tym, każdy element
zbioru częściowych modeli potencjalnych, y
∈
M
pp
, jest jednoelementowym
ciągiem <s> funkcji położenia takiej, która występuje w jakimś x
∈
M
p
.
Każdy element M
p
przedstawia zatem możliwą historię pewnego możliwego
zbioru punktów materialnych P w jakimś możliwym odcinku czasu T, ale
historię, która rejestruje tylko “obserwowalne” trajektorie czasoprzestrzenne punktów
materialnych z P
, przemilczając to, co “ukryte pod powierzchnią zjawisk”: siły
i masy.
Zbiór modeli właściwych (prawo teorii) M jest podzbiorem M
p
, do którego
należą, i tylko one, modele spełniające warunek: (
∀
p
∈
P)(
∀
t
∈
T)[3
i
∈
N
f(p, t, i) =
m(p)
×
ds
2
(p, t)/dt
2
], gdzie ds
2
(p, t)/dt
2
oznacza drugą pochodna funkcji położenia
s
względem t (czyli czasu). Innymi słowy, ds
2
(p, t)/dt
2
jest funkcją
przyśpieszenia. Ponieważ lewa strona dla ustalonego p i t oznacza
wypadkową wszystkich sił działających na punkt materialny p w chwili t,
warunek, o którym mowa, jest sformułowaniem dobrze znanej, drugiej
zasady mechaniki. W historiach możliwych światów (układów punktów
materialnych w pewnym odcinku czasu) przedstawionych przez poszczególne
elementy M
p
związki między funkcjami położenia, masy i siły mogą być
zupełnie dowolne. M jest podzbiorem M
p
takim, że we wszystkich historiach
przedstawionych przez elementy M między funkcjami położenia, masy i
siły zachodzi związek wyrażony przez drugą zasadę mechaniki.
Powiązania C jest takim zbiorem podzbiorów zbioru podzbiorów M
p
, że dla
każdego X
∈
C
, jeżeli x, y
∈
X, gdzie x = <s
1
, m
1
, f
1
>, y = <s
2
, m
2
, f
2
>, to dla każdego
Adam Grobler, O metodzie i strukturze nauki 132
punktu materialnego p należącego do wspólnej części dziedzin funkcji m
1
,
m
2
, m
1
(p) = m
2
(p
). Warunki powiązania dla funkcji położenia i siły są bardziej
liberalne. Dopuszczają zmianę układu współrzędnych czasoprzestrzennych
oraz idealizacyjne pominięcia niewielkich sił. Np. w układzie {Słońce,
Ziemia, Księżyc}, w porównaniu z Układem Słonecznym, warunki
powiązania wymagają identyczności mas Słońca i Ziemi, ale dopuszczają
pominięcie siły przyciągania innych planet i związane z tym nieznaczne
różnice funkcji położenia Ziemi i Słońca.
Zbiór zami
erzonych zastosowań I jest pewnym zdefiniowanym
paradygmatycznie (przez przykłady) podzbiorem M
pp
, czyli zbiorem różnych
trajektorii czasoprzestrzennych punktów materialnych różnych zbiorów
punktów materialnych. Do paradygmatycznych przykładów zamierzonych
zastosowań klasycznej mechaniki punktu materialnego należy Układ
Słoneczny (układ trajektorii planet i Słońca w pewnym odcinku czasu),
układ złożony z Ziemi i Księżyca albo z samego tylko jabłka Newtona itp.
Treścią empiryczną składnika teorii T nazywa się zbiór A(K) = r(2
M
∩
C),
gdzie 2
M
jest zbiorem potęgowym (zbiorem wszystkich podzbiorów) zbioru
modeli właściwych M (prawa teorii), a r funkcją restrykcji, obcinającą funkcje
teoretyczne elementom M
p
, czyli przekształcającą modele potencjalne
teorii na częściowe modele potencjalne
. A(K
) jest zatem zbiorem zbiorów
światów współmożliwych zacieśnionych do ich obserwowalnej warstwy.
Tzn. każdy element A(K) jest zbiorem (obserwowalnych części) światów,
które są teoretycznie współmożliwe do zaobserwowania. W przypadku
klasycznej mechaniki punktu materialnego A(K
) składa się z tych zbiorów
obserwowalnych historii układów punktów materialnych (ich trajektorii
czasoprzestrzennych), których współistnienia nie wyklucza druga zasada
mechaniki wzięta razem z powiązaniami C.
Wreszcie tezą empiryczną składnika teorii T nazywa się zdanie I
∈
A(K
).
22
Dokładniej: r jest funkcją określoną na zbiorze zbiorów modeli właściwych, indukowaną przez
funkcję restrykcji r, określoną na zbiorze modeli właściwych.
Adam Grobler, O metodzie i strukturze nauki 133
Mówi ona, że zbiór zamierzonych zastosowań teorii należy do jej treści
empirycznej, czyli że prawo teorii razem wzięte z jej powiązaniami nie
wyklucza współistnienia ze sobą wszystkich zamierzonych zastosowań.
Sam składnik teorii T jest złożonym obiektem matematycznym, nie jest
zatem wrażliwy na doświadczenie. Potwierdzona lub sfalsyfikowana może
zostać jedynie teza empiryczna składnika teorii. Jej falsyfikacja polega na
stwierdzeniu, że prawo teorii razem wzięte z jej powiązaniami wyklucza
współistnienie któregoś z jej zamierzonych zastosowań z innymi jej
zamierzonymi zastosowaniami. W przypadku falsyfikacji należy
zrewidować zbiór zamierzonych zastosowań, zacieśniając go do jakiegoś I’
⊂
I
takiego, że teza I’
∈
A(K) nie jest do tej pory sfalsyfikowana.
Składniki teorii w ujęciu strukturalistycznym odpowiadają temu, co
tradycyjnie nazywa się prawami nauki (lub teoriami z jednym tylko
prawem). Mogą one tworzyć obszerniejsze struktury, tzw. sieci teoretyczne
(theory-nets
), będące częściowo uporządkowanymi zbiorami składników
teorii
. Budowę ich pominę, wspomnę tylko, że sieci teoretyczne mogą
być, zależnie od struktury, odpowiednikami teorii w tradycyjnym sensie,
paradygmatu w sensie Kuhna – zestawu problemów, wzorcowych
rozwiązań, podstawowych założeń teoretycznych i reguł postępowania
naukowego – naukowego programu badawczego w sensie Lakatosa (I.3.4),
czy tradycji badawczej w sensie Laudana [1977]
Koncepcja niezdaniowa podk
reśla, że teoria nie jest próbą opisu “całego
świata”, a raczej stosuje się, w pewien systematyczny sposób, do
poszczególnych jego wycinków. Ta myśl wydaje się otwierać perspektywy
na ściślejsze powiązanie pojęć teorii i eksperymentu. Przedmiotem
eksperymentu nie jest nigdy cały świat, a zawsze jakiś jego wycinek zwany
układem względnie izolowanym. Tzn. układem spełniającym pewne
założenia idealizacyjne i/lub warunek ceteris paribus tej treści, że czynniki nie
23 Definicj
ę częściowego porządku przytoczyłem w (I.5.4).
24
Pojęcie tradycji badawczej jest modyfikacją pojęcia programu badawczego, polegającą
odrzuceniu jednolitej idei postępu, na rzecz idei względnego postępu, ze względu na określone
kryteria. Zmiana pod jednym względem postępowa, pod innym może być wsteczna.
Adam Grobler, O metodzie i strukturze nauki 134
uwzględnione w projekcie eksperymentu mają znikomy wpływ na jego
przebieg. Jeżeli eksperyment ma być sprawdzianem teorii, to naturalną
rzeczą jest przyjąć, że i teoria odnosi się do (wielu) układów względnie
izolowanych: ma wiele zamierzonych zastosowań. Z drugiej strony,
związek pojęcia zamierzonego zastosowania z pojęciem eksperymentu
przedstawia się w tej koncepcji dość zagadkowo.
Rozważmy bowiem, co to znaczy, że jakieś zamierzone zastosowanie
składnika teorii, x
∈
I
, okazuje się nie należeć do jego treści empirycznej
A(K) = r(2
M
∩
C
). W ujęciu niezdaniowym obserwację, która doprowadziła do
odkrycia Leverriera można ująć następująco: częściowy model potencjalny
u
, złożony z funkcji położenia Słońca i 7 planet określonej na pewnym
odcinku czasu nie jest podmodelem modelu potencjalnego w, złożonego z
tej funkcji położenia oraz odpowiednich funkcji masy i siły, jeżeli na Słońce
i planety działają wyłącznie siły ciążenia pochodzące od Słońca i planet.
Czy Leverrier uznał na tej podstawie, że u
∉
A(K
)? Przeciwnie. Zakładając,
że u
∈
A(K
) wyliczył siłę działającą na Uran. Następnie przyjął hipotezę, że
ta siła jest siłą przyciągania nieznanej planety, Neptuna. Tym samym
przyjął, że funkcja położenia Słońca i 7 planet da się tak rozszerzyć, że
powstały w ten sposób częściowy model potencjalny u’
∈
A(K
). Można
powiedzieć, że Leverrier skonstruował u’. Nie mógłby jednak tego zrobić,
gdyby nie założył zarazem, że na Słońce i planety działają siły ciążenia
zgodnie z prawem powszechnego ciążenia, i tylko one. Inaczej musiałby
poprzestać na konstatacji, że na Słońce i planety działają siły, jakie można
wyliczyć na podstawie drugiej zasady mechaniki. O tym, że u i u’ należą do
A(K
) zadecydowała nie treść naszego składnika teorii, lecz jego treść
razem wzięta z treścią prawa powszechnego ciążenia i warunku ceteris
paribus. Na dodatek model u
’ nie był znany, dopóki nie został skonstruowany
dzięki tym wszystkim treściom.
Weźmy inny przykład: częściowy model potencjalny v złożony z funkcji
położenia spadochroniarza. Po czym można poznać, czy należy on do A(K)?
Adam Grobler, O metodzie i strukturze nauki 135
Masę spadochroniarza można wyznaczyć na podstawie innych zastosowań
naszego składnika teorii, np. funkcji położenia, masy i siły określonych na
zbiorze złożonym ze spadochroniarza, odważników i szalek wagi szalkowej.
Gdy już mamy określoną funkcję położenia i masy spadochroniarza,
stajemy przed wyborem: albo uznać, że v
∉
A(K
) i przestać sobie zawracać
głowę problemem, albo uznać, że v
∈
A(K
) i w tym celu wyliczyć funkcję
siły tak, by po dołączeniu jej do poprzednich funkcji otrzymać model
potencjalny y
∈
M
∩
C. Kt
óre postępowanie jest naukowe? Oczywiście, to
drugie. Wyliczając siłę ciążenia na podstawie prawa powszechnego
ciążenia i rozkładając pozostałą resztę siły na składowe prostopadłą i
równoległe do kierunku ruchu można wyliczyć siłę oporu powietrza i siłę
wiatru, z pożytkiem dla teorii i praktyki skoków spadochronowych oraz,
ewentualnie, prognozy meteorologicznej. Tym razem zamiast jakoś
stwierdzić, czy pewien częściowy model jest zamierzonym zastosowaniem
teorii, skonstruowaliśmy pewien jego nadmodel, jego teoretyczne
rozszerzenie. Posłużyliśmy się jednak nie tylko prawem naszego składnika
teorii, drugą zasadą mechaniki, ale również założeniami faktualnymi
(antyidealizacyjnymi) na temat działania oporu powietrza i wiatru.
Mało tego. Mówiliśmy o funkcji położenia ciał niebieskich i
spadochroniarza, jak gdyby one same spadły z nieba. Żaden pomiar nie
pozwoli ustalić wartości tej funkcji jako trójki współrzędnych
przestrzennych i to nie tylko dlatego, że pomiar z natury rzeczy jest
obarczony błędem: mowa przecież o ciałach słusznych rozmiarów, a nie
punktach geometrycznych. Toteż funkcja położenia jest również
konstrukcją, do której trzeba użyć m.in. praw wyrażających związki między
funkcjami położenia, masy i siły. Można powiedzieć: teoria rządzi
pomiarem [por. Kuhn 1961].
Ta dyskusja prowadzi do wniosku, że nie da się pokazać palcem na
pewną rodzinę modeli i powiedzieć: ona wyznacza taką-a-taką teorię
naukową, jest identyczna z taką-a-taką teorię naukową. Nie modele
Adam Grobler, O metodzie i strukturze nauki 136
wyznaczają treść teorii, lecz teorie, na ogół stosowane łącznie z innymi
teoriami, a zawsze łącznie z założeniami idealizacyjnymi i warunkiem
ceteris paribus
, są narzędziami konstruowania modeli [por. Wójcicki 1991].
Tak pojmowany model, nawet jeżeli jest czysto symboliczny, ma pewne
cechy modelu symulacyjnego. Służy mianowicie przeprowadzeniu
manipulacji rachunkowych po to, by uzyskać odpowiedzi na pewne
pytania, np. gdzie skierować lunetę, żeby wypatrzyć Neptuna, albo w
którym momencie skoczek powinien otworzyć spadochron.
II.10. Dziedziny a teorie
Czym więc są teorie naukowe? Nie są rodzinami modeli, bo są
narzędziami konstruowania modeli. Nie są też dedukcyjnymi systemami
zdań, bo prócz dedukcji stosuje się w nich wielorakie założenia
idealizacyjne, albo przeciwnie, faktualne; techniki aproksymacyjne,
założenia ceteris paribus. Obecnie dość energicznie rozwijają się tzw. logiki
niemonotoniczne, tj. teorie rozumowań, które nie są dedukcyjne w ścisłym
sensie, ale które “normalnych” warunkach, poza “wyjątkowymi”
okolicznościami, zachowują własności rozumowań dedukcyjnych. Mają one
na celu uchwycić faktyczną strukturę rozumowań, prowadzonych zarówno
w życiu codziennym, jak i w nauce, które odbiegają od dedukcyjnego
ideału niezawodności, zachowując mimo to wysoką skuteczność. Teorie
naukowe można więc ewentualnie uznać za systemy niemonotoniczne, a
więc takie, że można je uznać za systemy dedukcyjne w jakimś
idealizacyjnym sensie.
Mówiąc o teoriach w nauce mamy zazwyczaj na myśli twory ewoluujące
w czasie, o historycznie zmiennych sformułowaniach, podlegające
rewizjom i modyfikacjom. Newton oczywiście nie mógł drugiej zasady
dynamiki sformułować za pomocą równań różniczkowych, ujęcie
Adam Grobler, O metodzie i strukturze nauki 137
szczególnej teorii względności w czterowymiarowej, pseudoeuklidesowej
geometrii Minkowskiego jest o trzy lata późniejsze od oryginalnego
artykułu Einsteina, mechanika kwantowa ma dwa standardowe
sformułowania: macierzowe i za pomocą równań Schrödingera. Toteż
traktowanie teorii naukowych jako systemy dedukcyjne zakłada kolejną
idealizację, pomijającą fakt, że ta sama teoria występuje w różnych
wariantach, czasem równoważnych, a czasem nie.
Wreszcie, teorie naukowe muszą mieć interpretację empiryczną czyli
być o czymś. To coś, o czym teoria naukowa jest, z uwagi na tezę o
uteoretyzowaniu obserwacji, nie jest żadnym zespołem obserwowalnych
zjawisk czy faktów, w żadnym dosłownym, nieuteoretyzowanym sensie
pojęcia obserwowalności, żadną dziedziną “czystego” doświadczenia. Wyraz
“fakt” pochodzi od łacińskiego facere = “czynić”, znaczy więc mniej więcej
tyle, co dzieło, twór. Z punktu widzenia współczesnej filozofii nauki, która
pod tym względem nawiązuje do Kanta, fakty nie są dziełem Boskiego
stworzenia, ani dziełem natury, lecz konstrukcjami teoretycznymi
. Nawet
samo wyodrębnienie określonej klasy zjawisk czy faktów jako dziedziny
pewnej teorii jest problemem teoretycznym. Dotyczy to nawet
najprostszych faktów życia codziennego. W czasach mojej młodości
człowiek biegnący ulicą wczesnym rankiem był jednoznacznie zjawiskiem
dziedzin
y organizacji pracy: śpieszył się do tramwaju, żeby się nie spóźnić.
Dziś taki człowiek jest na ogół zjawiskiem dziedziny rekreacji: ma właśnie
dużo czasu i uprawia jogging. Samotny przechodzień mówiący
w przestrzeń był dawniej zjawiskiem z dziedziny psychiatrii, dziś jest
zjawiskiem z dziedziny telekomunikacji: rozmawia przez telefon komórkowy
itd. Ruch planet Arystoteles, inaczej niż Newton, zaliczał do innej dziedziny
zjawisk niż spadanie kamieni. Włączenie do jednej dziedziny tak
25
Klasyczne już analizy pojęcia faktu naukowego można znaleźć u Henri Poincarégo [1902],
Pierre’a Duhema [1906] i Ludwika Flecka [1935]. Nowsze ujęcia zawiera J.R. Brown [1994],
Kaiser [1991], Woodward [1989]. Rozwój idei “konstruktywizmu”, jak nazwał ją Wojciech
Sady, jest przedstawiony w jego [2000]. O związanej z tą ideą kwestii, w jakiej mierze można
mówić o tym, że teorie naukowe są domysłami na temat prawdy, będzie mowa w IV.2.
Adam Grobler, O metodzie i strukturze nauki 138
zróżnicowanych zjawisk, jak drganie żabich udek, błyskawice i
przyciąganie skrawków papieru przez potarty bursztyn, było rezultatem
rozciągniętego w czasie procesu kształtowania się dziedziny zjawisk
elektrycznych.
Analizując relacje między dziedziną a jej teorią, oraz historyczną
zmienność jednej i drugiej, Dudley Shapere [1974] zaproponował uznać za
dziedzinę teorii (domain) pewien zespół przedmiotów czy zjawisk
wyodrębnionych ze względu na pewne związki między nimi i pewien
szczególny problem wymagający wyjaśnienia. Dziedzina podlega
wielokrotnym rewizjom, zwłaszcza na skutek odkrywania jej powiązań z
innymi dziedzinami, np. między elektrycznością a magnetyzmem i
posługiwania się zmiennymi analogiami, np. elektryczności do płynu lub
elektromagnetyzmu do fali. Dziedziny mogą się łączyć w obszerniejsze
dziedzin
y, mogą też wyodrębniać się z nich poddziedziny. Nie będę
streszczał tej długiej historii, dość wspomnieć, że dziedzina jest tworem
wysoce uteoretyzowanym, zorganizowanym przez pewien zespół
powiązanych ze sobą informacji. Bez względu na stopień uteoretyzowania,
dziedzin
a jednak jest tym, co tradycyjnie uważa się za zespół
“obserwowalnych” faktów, do których teoria się odnosi.
Toteż objaśnienie pojęcia dziedziny wymaga dokładniejszego ujęcia
obserwacji, dokładniejszej analizy uteoretyzowania obserwacji. Według
Shapere [1982], obserwacja zasadniczo polega na przekazie sygnału.
Toteż opis obserwacji zakłada teorię źródła (tego, jak sygnał jest
emitowany), teorię ośrodka przekazu (ewentualnych przekształceń i/lub
zniekształceń sygnału) i teorię odbiornika (jego czułości). Tak pojmowana
obserwacja nie musi być obserwacją ludzką: odbiornikiem sygnałów może
być nim przyrząd, zwłaszcza gdy sygnały, o których mowa, są niedostępne
ludzkim zmysłom. Takie sygnały ostatecznie bywają wzmacniane i
ewentualnie przetwarzane (np. sygnał elektromagnetyczny na sygnał
dźwiękowy lub optyczny), co skutkuje dołączeniem do teorii obserwacji
Adam Grobler, O metodzie i strukturze nauki 139
teorii wzmocnienia/przetworzenia sygnału. Niekiedy zamiast tego ludzki
obserwator otrzymuje już gotowe wyniki analizy komputerowej całego
zespołu sygnałów.
Tak czy owak, dziedzina “obserwacyjna” teorii jest przeprowadzoną za
pomocą teorii konstrukcją faktów nadających sens wzorom, w które się
układają otrzymywane przez nas sygnały. Konstruowanie dziedziny można
porównać do budowania słownika prehistorycznego języka na podstawie
napisów na znalezionych glinianych tabliczkach. Trzeba najpierw
zidentyfikować esy-floresy jako napisy (teoria odbiornika), ocenić zakres
możliwych deformacji znaków i ich ciągów (teoria przekazu), domyślić się
intencji autorów tekstów (teoria źródła). To wszystko wymaga stosowania
rozmaitych hipotez słowotwórczych, gramatycznych
i antropologicznokulturowych, hipotez często opartych na analogiach.
Samo zidentyfikowanie dziedziny wymaga rozwiązania szeregu
problemów. Dopiero ukształtowana dziedzina otwiera problemy
teoretyczne: wyjaśnienia prawidłowości w niej występujących. Podobnie
jak po odszyfrowaniu glinianych tabliczek powstaje pole do budowania
teorii kultury prehistorycznego plemienia.
Shapere [1974], rozróżniając problemy identyfikacji dziedziny i
problemy teoretyczne, analizuje dwa typy tych drugich i związane z nimi
typy teorii czyli rozwiązań tych problemów. Oba związane są z odkryciem
pewnego uporządkowania dziedziny, którego przykładem może być
okresowy układ pierwiastków. Jeden problem, to problem wyjaśnienia
porządku przez odwołanie się do wewnętrznej struktury elementów
dziedziny. Jego rozwiązaniem jest teoria strukturalna (compositional), np.
teoria budowy atomu. Drugi, to problem genezy porządku, którego
rozwiązaniem jest teoria ewolucyjna, np. ewolucji pierwiastków. Ta
typologia teorii jest daleka od kompletności: nie obejmuje np. teorii
mechaniki czy termodynamiki.
Myślę, że pochodzące od Shapere’a ujęcie podwójnej dynamiki rozwoju
Adam Grobler, O metodzie i strukturze nauki 140
dziedziny i jej teorii, którego skądinąd liczne interesujące szczegóły
musimy tutaj pominąć, mogłoby zyskać znacznie na precyzji, gdyby je
uzupełnić o omówione w I.4.2. motywy erotetyczne
II.11. Identyfikacja dziedziny w ujęciu logiki pytań
Załóżmy, że dziedzina D jest (tymczasowo) określona przez wybór
terminów klasyfikacyjnych lub typologicznych oraz innych predykatów,
które stosują się do indywiduów jej uniwersum lub tylko do indywiduów
określonego rodzaju lub typu. Wśród predykatów wyróżnię, naśladując
Sneeda, predykaty D-teoretyczne, tj. takie, które są charakterystyczne dla
dziedziny D i każde ich zastosowanie poza dziedziną D musi odwoływać się
do jej teorii T. Np. predykat “…jest naładowany elektrycznie” jest D-
teoretycznym predykatem dziedziny zjawisk elektrycznych, któ
rej uniwersum składa
się z ciał sklasyfikowanych na przewodniki, dielektryki, kondensatory itd.
Załóżmy dalej, że predykaty D-teoretyczne są zdefiniowane za pomocą
(łańcuchów) częściowych definicji (w sensie Carnapa) z pewnego zbioru R,
które je częściowo redukują do predykatów D-nieteoretycznych, tj.
określonych niezależnie od teorii dziedziny D, nawet jeśli teoria D może je
dookreślać. Np. pojęcie położenia nie jest D-teoretyczne ze względu na
dziedzinę mechaniki klasycznej, bo jest pojęciem geometrii fizycznej,
niemniej wyznaczenie wartości funkcji położenia w modelach zjawisk z
dziedziny mechaniki klasycznej wymaga zastosowania teorii (por II.9).
Badanie dziedziny D
można przedstawić jako poszukiwanie odpowiedzi na
pytania implikujące za pomocą rozstrzygania pytań implikowanych
implikacji i/lub słabych implikacji erotetycznych postaci Ims(Q, X, E), gdzie Q
jest problemem teoretycznym, E pytaniem o wynik eksperymentu lub obserwacji, a X
zbiorem zdań oznajmujących obejmującym: (i) wiedzę zastaną spoza
26
Uważam, że pomysły Shapere’a zasługują na znacznie poważniejsze zainteresowanie
niż to, którym faktycznie się cieszą.
Adam Grobler, O metodzie i strukturze nauki 141
dziedziny D, (ii) założenia faktualne na temat dziedziny D, (iii) (ewentualnie)
pewne niesfalsyfikowane hipotezy na temat dziedziny D
, (iv) częściowe definicje ze
zbioru R, (v) założenia idealizacyjne, (vi) założenia ceteris paribus. Zbiór X
został zatem dokładniej wyspecyfikowany niż w I.4.2. Rozwój teorii polega
na rozwiązywaniu kolejnych problemów teoretycznych czyli znajdowaniu
odpowiedzi bezpośrednich na pytania implikujące postaci j.w. Im więcej
pytań implikowanych zostanie rozstrzygniętych, tym wyniki badania będą
bogatsze i bardziej wiarogodne. Toteż w celu powiększenia zasobu pytań
implikowanych przez problemy teoretyczne dziedziny D, w toku badania zbiór X
może być uzupełniany o nowe założenia faktualne, hipotezy i częściowe
definicje predykatów D-teoretycznych. Te ostatnie uzupełnienia,
poszerzające zbiór R, można uznać za dookreślanie dziedziny D.
Niekiedy z odpowiedzi uzyskanych na pytania implikowane może
wynikać, że niektóre problemy teoretyczne nie mają rozwiązania. Tzn. na
niektóre pytania implikujące rozważanych implikacji i słabych implikacji
erotetycznych nie ma odpowiedzi bezpośredniej, którą można byłoby
uznać w świetle uzyskanych odpowiedzi na pytania implikowane.
Wówczas, zgodnie z tym, co napisałem w I.4.2, trzeba uznać, że (a) nie
wszystkie odpowiedzi na pytania implikowane są prawdziwe, lub że (b) nie
wszystkie zdania ze zbioru X są prawdziwe, lub że (c) presupozycje
niektórych problemów teoretycznych nie są prawdziwe. W przypadku (a)
należy ponownie przeanalizować poczynione eksperymenty. W przypadku
(b) należy (ib) podjąć rewizję wiedzy zastanej, i/lub (iib) zrewidować
założenia faktualne na temat dziedziny D, i/lub (iiib) zrewidować pewne
hipotezy na temat D, i/lub (ivb) zrewidować zbiór R, i/lub (vb) uchylić
niektóre założenia idealizacyjne, i/lub (vib) uchylić niektóre założenia ceteris
paribus
. Każde z tych posunięć, z których (ivb) i (vb) dookreślają dziedzinę
D
, może doprowadzić do ponownego rozpatrzenia niektórych z
wyeliminowanych w dotychczasowym badaniu rozwiązań niektórych
problemów teoretycznych, a tym samym do rozwiązania tych problemów.
Adam Grobler, O metodzie i strukturze nauki 142
Wreszcie, gdy to nie pomoże pozostaje (c) unieważnienie niektórych
problemów teoretycznych skutkiem rewizji ich presupozycji.
To ostatnie posunięcie prowadzi do zasadniczej rewizji dziedziny D. W
przykładzie rozważanym w I.4.2. rewizja presupozycji problemu prędkości
wiatru eterycznego doprowadziła do usunięcia eteru, zastąpienia
absolutnej przestrzeni euklidesowej i absolutnego czasu
pseudoeuklidesową czasoprzestrzenią, usunięcia ciał sztywnych z uniwersum
dziedziny szczególnej teorii
względności (ze względu na skrócenie
relatywistyczne) itd. Tak więc istnieje ścisły związek między problemami
teoretycznymi a problemami określenia dziedziny
Wśród przedmiotów usuniętych z dziedziny przez szczególną teorię
względności wymieniłem ciała sztywne, co sugeruje, że ciała sztywne
należą do uniwersum dziedziny mechaniki klasycznej. Skądinąd wiadomo,
że ciał sztywnych w przyrodzie nie ma. Wynika stąd, że do uniwersum
dziedziny teorii naukowej mogą należeć przedmioty nieistniejące. I to nie
tylko do uniwersum dziedziny teorii takich, jak mechanika klasyczna czy
teoria eteru, które zostały zastąpione przez teorie lepsze, jak teoria
względności, a więc o których wolno sądzić, że są po prostu fałszywe. W
uniwersum dziedziny nawet najlepszej teorii wciąż można znaleźć
przedmioty o równie podejrzanym statusie ontycznym, jak ciała sztywne:
punkty materialne, ciała czarne itp. W związku z tym dość
rozpowszechniony jest pogląd, że przedmioty, o których mowa w teoriach
naukowych, jak punkty materialne, nie są przedmiotami rzeczywistymi,
o których mówimy w języku potocznym, jak kamienie i pociski, tylko ich
abstrakcyjnymi, idealnymi odpowiednikami, zamieszkującymi platońskie
zaświaty
Osobiście nie widzę żadnego uzasadnienia odmiennego traktowania
27
Przytoczone ujęcie jest adaptacją do rozważanych tutaj problemów koncepcji
wyłożonych w [Grobler 1993, 2000, 2001], które powstały niezależnie od idei logiki
erotetycznej i nie powołują się na nie. Czytelnik może tam znaleźć dalsze szczegóły,
którymi ewentualnie, po odpowiednim przeformułowaniu, można uzupełnić niniejsze
wywody.
28 Np. [Kałuszyńska 1994].
Adam Grobler, O metodzie i strukturze nauki 143
przedmiotów języka naukowego i potocznego. Kamieniem nazywamy coś,
co zachowuje się tak, jak wedle naszej wiedzy potocznej zachowują się
kamienie. Punktem materialnym nazywamy coś, co zachowuje się tak, jak
wedle naszej wiedzy naukowej zachowują się punkty materialne. Tzn.
zachowują się tak, że ich ruch można opisać za pomocą równania, w
którym występuje funkcja położenia o wartościach w postaci trójek liczb
oraz funkcje masy i siły. Ten matematyczny opis ruchu może sprawiać
mylne wrażenie, jakoby mówiąc o punkcie materialnym mówilibyśmy o
przedmiocie o zerowej objętości, jak gdyby był właśnie idealnym punktem
geometrycznym, abstrakcyjnym przedmiotem matematycznym. W istocie
rzeczy, mówiąc o punktach materialnych abstrahujemy od ich objętości i
kształtu, bo mimo to lub dzięki temu można z powodzeniem rozwiązywać
problemy w rodzaju wyliczenia toru pocisku. Podobnie jak w życiu
codziennym rozwiązując problem wyboru kamieni do puszczania kaczek
trzeba wprawdzie brać poważnie pod uwagę kształt kamienia, ale można
z powodzeniem abstrahować od jego barwy i wartości jubilerskiej.
Pojęciom naukowym w rodzaju punktu materialnego nieodłącznie
towarzyszą założenia idealizacyjne, jak wszystkim pojęciom typologiczne
(II.5). Ale potoczne pojęcie kamienia jest również pojęciem typologicznym
– gdy w grę wchodzą różne możliwości, bez idealizacji nie da się
rozstrzygnąć: kamyk, żwirek, kryształek, odłamek skalny, wykopalisko
archeologiczne, kostka do gry w klasy czy amulet. Zwodzić może
matematyczny opis położenia, który punkty materialne, np. srebrne
łyżeczki spadające z balkonu (ale nie srebrne łyżeczki mieszające herbatę:
punktem materialnym się nie jest, tylko się bywa, podobnie jak
przechodniem albo pacjentem), na pozór wciska w bezwymiarowe punkty
przestrzeni. Tymczasem dokładnie takie same idealizacje zakładają
zupełnie potoczne pojęcia, jak “szczyt góry” czy “środek boiska”,
a rozkłady jazdy autobusów i słowa piosenki “Umówiłem się z nią na
dziewiątą” idealizacyjnie traktują czas (pomyślmy, co znaczy wyraz
Adam Grobler, O metodzie i strukturze nauki 144
“punktualnie”?). Pod względem stosowania idealizacji język nauki nie różni
się od języka potocznego na tyle, by z tego powodu uważać, że teorie
naukowe mówią o przedmiotach należących do innego porządku
ontologicznego niż przedmioty, o których rozprawiamy językiem
potocznym.
II.12. Problem redukcji i jedności nauki
W skład “poglądu otrzymanego” wchodzi m.in. teza o jedności nauki.
Dobitnym wyrazem siły przekonania o jej słuszności jest wielotomowe
przedsięwzięcie wydawnicze pod nazwą International Encyclopedia of Unified
Science
pod redakcją Carnapa, Neuratha i Morrisa (1938-1970). Pojęcie
jedności nauki jest jednak wieloznaczne. Po pierwsze, można jedność nauki
rozumieć jako jedność jej języka. Wyraża się ona w koncepcji redukcji nauk
do jednej nauki podstawowej, sformułowanej w [Kemeny, Oppenheim 1956].
Zgodnie z nią teoria T
1
redukuje się do teorii T
2
jeżeli wszystkie dane
obserwacyjne wyjaśnione przez T
1
dadzą wyjaśnić się przez T
2
. W takim
przypadku terminy teoretyczne teorii T
1
można po prostu wyeliminować na korzyść
terminów teoretycznych T
2
. Takie pojęcie redukcji jest jednak bardzo ubogie
w treść. Niezależnie od rozumienia terminu “obserwacyjne” – absolutnego
lub względnego – i rozumienia terminu “wyjaśnienie” – klasycznego lub
bardziej nowoczesnego – sprowadza relację redukcji do relacji “bycia lepszą
teorią od” a pojęcie jedności nauki do jej postępu.
Bardziej wymagającą koncepcją jedności nauki jest koncepcja jedności
praw. Zgodnie z nią prawa każdej nauki redukują się, albo zostaną
zredukowane po dokonaniu odpowiedniego postępu poznawczego, do praw
nauki bardziej podstawowej, a w ostateczności do jednej nauki podstawowej,
którą jest fundamentalna fizyka. “Redukują się do” znaczy “można
wyprowadzić z”. Prawa nauk społecznych redukują się do praw psychologii,
Adam Grobler, O metodzie i strukturze nauki 145
te do praw fizjologii czy biologii, te do praw fizyki i chemii, a prawa chemii do
praw fizyki. Tezę tę nazywano fizykalizmem
Żeby jednak można było wyprowadzić prawa sformułowane w języku
jednej nauki do praw sformułowanych w języku potrzebne są zdania łączące
jedne z drugimi. Zupełnie tak samo, jak w przypadku rozważanego w II.2.
problemu redukcji zdań teoretycznych do zdań obserwacyjnych, który
usiłowano rozwiązać za pomocą pojęcia reguł korespondencji. W przypadku
redukcji nauk Ernest Nagel [1961] analogiczną rolę powierzył tzw. prawom
pomostowym (bridge laws
). Mają one służyć niejako przekładowi praw języka
teorii redukowanej na prawa wyprowadzalne z praw teorii redukującej:
prawa teorii redukowanej T
2
mają wynikać logicznie z koniunkcji praw teorii
redukującej T
1
i praw pomostowych B
. Np. termodynamika redukuje się do
mechaniki statystycznej, gdy przyjąć prawo pomostowe, wedle którego
temperatura gazu jest proporcjonalna do średniej energii kinetycznej jego
cząsteczek.
Przeciw tej koncepcji wysuwano szereg zastrzeżeń. Po pierwsze, status
praw pomostowych jest niejasny. Np. gdyby samo prawo współzmienności
temperatury i średniej energii kinetycznej cząstek wystarczało do autentycznej
redukcji termodynamiki, t
o za pomocą arbitralnie ustalonych “praw” można
byłoby redukować różne teorie do teorii nie mających z nimi nic wspólnego.
Autentyczn
a redukcja wymaga wyjaśnienia współzmienności, które najlepiej
osiągnąć dzięki identyfikacji temperatury i średniej energii kinetycznej [Sklar
1967, Causey 1977]. Po drugie, teorie zakładają rozmaite idealizacje i
dlatego jest wysoce wątpliwe, czy między prawami dwóch różnych teorii da
się ustalić dedukcyjne związki.
Postulat redukowalności nauk wydaje się jednak bardzo atrakcyjną
zasadą metodologiczną w obliczu sukcesów redukcji optyki do teorii
elektromagnetycznej czy mniemanej redukcji genetyki Mendla do
29 Fizyk
alizmem nazywano również postulat, zgodnie z którym zdania bazowe nauki mają
być formułowane w języku obserwowalnych przedmiotów i zdarzeń, a nie doznań
psychicznych.
Adam Grobler, O metodzie i strukturze nauki 146
biochemii. Toteż Oppenheim i Putnam [1959] ogłosili “hipotezę roboczą
jedności nauki”, wedle której redukcja nauk polega na mikroredukcji.
Mikroredukcja polega na wyprowadzeniu praw zachowania złożonych
struktur z praw zachowania elementów tych struktur. Jeżeli teraz
przedstawić hierarchię dziedzin nauki taką, że uniwersum kolejnego
poziomu składa się ze struktur złożonych z elementów bezpośrednio
niższego poziomu, można mieć nadzieję, że nauka ostatecznie zostanie
zredukowana do teorii poziomu, lub przynajmniej będzie dążyć do tego
celu. Hierarchia przedstawia się następująco: (6) grupy społeczne,
(5) (wielokomórkowe) żywe organizmy, (4) komórki, (3) molekuły, (2)
atomy, (1) cząstki elementarne. Ostatecznym celem programu redukcji
nauk jest więc wszechwyjaśniająca teoria cząstek elementarnych.
Jerry Fodor [1974] przedstawił mocny argument przeciw
redukcjonizmowi, oparty na rozróżnieniu między fizykalizmem typicznym
(type-physicalism) i fizykalizmem egzemplarycznym (token-physicalism). Fizykalizm
egzemplaryczny głosi, że każde zdarzenie – społeczne, psychiczne,
biologiczne, chemiczne – jest zarazem zdarzeniem fizycznym. Fizykalizm
typiczny jest tezą mocniejszą: każdy typ zdarzenia niefizycznego jest
zarazem jakimś typem zdarzenia fizycznego. Fizykalizm typiczny jest tezą
mało wiarygodną, ponieważ tego samego typu zdarzenia z dziedziny nauki
specjalnej (tzn. nie fizyki) mogą realizować się za pomocą bardzo
różnorodnych zdarzeń fizycznych. Np. zdarzenia wymiany pieniężnej mogą
polegać na użyciu paciorków, banknotów dolarowych, miedzianych monet,
weksli, czeków (dziś do tej listy można dodać zapisy na nośnikach
magnetycznych) itd. Czyli tego zdarzenia ekonomiczne tego samego typu
nie są zdarzeniami fizycznymi tego samego typu. Jest nader wątpliwe, by
tak zróżnicowane zdarzenia mogły stanowić zasięg jakiegoś prawa fizyki.
Toteż szanse na to, żeby jakiekolwiek prawo na temat wymiany pieniężnej
dało się zredukować do jakiegoś prawa fizyki są znikome. Wobec tego
fizykalizm – w wersji fizykalizmu egzemplarycznego – nie pociąga za sobą
Adam Grobler, O metodzie i strukturze nauki 147
redukcjonizmu.
John Dupré [1993] zakwestionował nawet Oppenheima-Putnama
hierarchię dziedzin naukowych. Zwrócił uwagę na istnienie pośrednich
poziomów organizacji, np. organów i tkanek między poziomem
organizmów i żywych komórek, oraz heterogeniczność wielu struktur, np.
organizmów złożonych nie tylko z komórek, ale i drobniejszych elementów,
m.in. hormonów, które są molekułami. Dowodząc niejednorodności nauki
podał liczne przykłady nieprzystających do siebie systemów klasyfikacji
tych samych uniwersów, z których wszystkie są uprawnione ze względu na
problemy teoretyczne poszczególnych subdyscyplin nauk. N
p. terminy klasyfikacyjne
ekologii: “drapieżnik”, “ofiara”, “konkurent”, mają się nijak do systematyki
zwierząt. Dlatego, jego zdaniem, ekologia – nauka o dynamice populacji
rodzajów organizmów – jest nieredukowalna do nauki o indywidualnych
organizmach. Odrzucając redukcjonizm, Dupré uznaje jednak wartość
poznawczą niektórych szczegółowych programów redukcjonistycznych.
Np. z uwagi na przypuszczalnie nieprzezwyciężalne trudności identyfikacji
genów z elementami struktury chemicznej kodu genetycznego, nie wierzy
w ostateczny sukces redukcji genetyki do biologii molekularnej. Niemniej
postępy w badaniach nad strukturą kodu genetycznego uważa za
pożyteczne dla zrozumienia procesów ontogenezy i dziedziczenia.
Dupré odrzuca również nieredukcjonistyczne programy jedności nauki,
jak np. koncepcję teorii wielozakresowych (interfield theories) Darden i Maul
[1977]. Według nich dziedziny nie tworzą hierarchii redukującej się do
jakiegoś poziomu podstawowego, lecz sieć, której elementy są powiązane
za pomocą teorii wielozakresowych. Np. teoria chromosomów łączy
dziedziny cytologii i genetyki. Zdaniem Duprégo, o ile powiązania między
naukami biologicznymi są oczywiste, to nic nie wskazuje na to, by nauka
jako całość była lub może stać się taką siecią zamiast zbiorem izolowanych
od siebie sieci. Np. nie wydaje się, by mogło istnieć nawet bardzo
pośrednie powiązanie między elektroniką a antropologią kulturową.
Adam Grobler, O metodzie i strukturze nauki 148
Problem redukcji międzyteoretycznej jest w gruncie rzeczy
uogólnieniem problemu redukcji terminów teoretycznych do
obserwacyjnych. Redukcja teorii lub całej dyscypliny polega bowiem na
redukcji terminów teoretycznych nauki specjalnej do terminów
teoretycznych nauki bardziej podstawowej. Koncepcja praw pomostowych
boryka się zatem dokładnie z tymi samymi trudnościami, jakie stały przed
koncepcją reguł korespondencji. Uporaliśmy się z nimi w II.11. włączając
częściowe definicje terminów teoretycznych do założeń i hipotez
występujących implikacjach i słabych implikacjach erotetycznych między
problemami teoretycznymi a eksperymentalnymi, założeń określających
lub dookreślających dziedzinę teorii. Dzięki temu mogliśmy, z jednej
strony, wyłączyć je ze zbioru hipotez samej teorii, z drugiej zaś ukazać
mechanizm ich rewizji, usuwając ewentualne podejrzenia, że mają one
charakter arbitralny.
Takie ujęcie “reguł korespondencji” odchodzi zasadniczo od idei
redukcji. Dziedzina teorii sama bowiem jest tworem wysoce
uteoretyzowanym, co stwarza merytoryczne związki między teorią
rozpatrywanej dziedziny a teoriami współokreślającymi dziedzinę. Do tych
ostatnich należą m.in. teorie będące składnikami teorii obserwacji
obiektów danej dziedziny. Toteż ujęcie przedstawione w II.11. jest zgodne
z pochodzącą od Darden i Maul ideą jedności nauki jako sieci dziedzin
teoretycznych (fields). Wątpliwości Duprégo wydają mi się nieco przesadne.
Ostatecznie oparte na teorii gier techniki komputerowej symulacji rozwoju
współpracy w społeczeństwie albo ewentualne badania wpływu rozwoju
elektroniki na kulturę mogą dostarczać powiązań między elektroniką
a antropologią kulturową.
Dygresja: Zmiana modelu analizy nauki z redukcjonistycznego na sieciowy jest
szczególnym przypadkiem ogólniejszej zmiany strategii w filozofii analitycznej.
Redukcjonistyczny model analizy filozoficznej pochodzi od Bertranda
Russella, który
najpierw zastosował go do ustalenia podstaw matematyki za pomocą
Adam Grobler, O metodzie i strukturze nauki 149
redukcji jej pojęć do pojęć logiki [1903], a potem uogólnił tę technikę na
całą filozofię, co wyraża maksyma “ilekroć to możliwe, na miejsce bytów
wywnioskowanych należy podstawiać konstrukcje logiczne” [Russell 1918].
Jego antagonista, Peter Strawson [1991/1994], optuje za sieciowym
modelem analizy, który zamiast na redukcji pojęć do pojęć bardziej
podstawowych polega na ustalaniu powiązań między pojęciami.
Uporaliśmy się z problemem redukcji w ujęciu synchronicznym, tj.
problemem związku między teoriami współistniejącymi. Prócz tego istnieje
problem redukcji w ujęciu diachronicznym, tj. problem relacji między
kolejnymi teoriami, z których nowsza zastępuje starszą. Redukowalność
starszej teorii do nowszej ma być gwarancją postępu. Jest to bardziej niż
widoczne w koncepcji redukcji Kemeny’ego i Oppenheima, która na relację
redukcji nie nakłada właściwie żadnych innych warunków poza warunkiem,
który Popper – przy liberalnym pojęciu obserwacyjności – nazwałby
warunkiem przyrostu treści empirycznej. Bardziej wymagająca koncepcja
redukcji Nagela nakłada warunek wyprowadzalności praw teorii
redukowanej z praw teorii redukującej, co spotkało się, jak wspomniałem
wyżej, z krytyką z powodu pominięcia kwestii idealizacji i aproksymacji. W
związku z tym Schaffner [1967] wprowadził modyfikację koncepcji
redukcji, zgodnie z którą z praw teorii redukującej i praw pomostowych ma
wynikać poprawiona praw teorii redukowanej.
Podobną myśl realizuje w polskiej literaturze metodologicznej zasada
korespondencji
(nie mylić z regułami korespondencji), utrzymywana m.in. przez
Władysława Krajewskiego [1974, 1977]. Jest ona uogólnieniem zasady
heurystycznej, którą kierował się Niels Bohr konstruując teorię kwantów.
Mówiła ona, że kierując się teoriami fizyki klasycznej należy tak
modyfikować jej aparat matematyczny, by rezultat tych modyfikacji okazał
się skuteczny w dziedzinie zjawisk mikroskopowych. Innymi słowy, prawa
fizyki klasycznej mają okazać się przybliżeniami dokładniejszych w swojej
dziedzinie praw fizyki kwantowej. Uogólniona zasada korespondencji mówi,
Adam Grobler, O metodzie i strukturze nauki 150
że prawa starej teorii powinny być granicznym przypadkami praw nowej
teorii. Paradygmatycznym przykładem tak rozumianej relacji
korespondencji są prawa szczególnej teorii względności, które –
z wyjątkiem słynnego E = mc
2
– sprowadzają się do praw mechaniki
klasycznej gdy v/c
→
0 (lub c
→
∞
).
Koncepcję rozwoju nauki przez redukcję starszych teorii do nowszych
albo przez korespondencję nowszych teorii ze starszymi podważyły tezy o
niewspółmierności teorii naukowych sformułowane przez Kuhna [1962] i
Feyerabenda [1962]. Według Kuhna, o czym była już mowa w I.4.1, zmiana
teorii łączy się z radykalną zmianą znaczenia terminów. Stąd redukcja
starszej teorii do nowszej nigdy nie zachodzi: rzekome wynikanie praw
starej teorii z praw nowej polega na błędzie ekwiwokacji (por. II.2).
Podobnie, gdy idzie o relację korespondencji. Nie może być mowy o
przejściu granicznym, zmierzaniu funkcji w równaniu jednej teorii do
funkcji w równaniu drugiej, gdy zmienne występujące we wzorach tych
funkcji nie oznaczają tych samych wielkości. Feyerabend [1962] podaje
jeszcze dodatkowy argument. Nawet gdyby niewspółmierność nie stała
redukcji na przeszkodzie, postulat redukcji czy korespondencji byłby
szkodliwy: ograniczałby inwencję twórczą w poszukiwaniu nowych teorii,
blokowałby autentyczny postęp polegający na rozwijaniu radykalnie nowych
pomysłów.
Zasada korespondencji sprowadza się do warunku, w myśl którego
w pewnym zakresie zmienności zmiennych rozpatrywanej dziedziny nowa
teoria wprowadzała tylko niewielkie korektury do starej. Jest to wymóg
zupełnie zrozumiały, biorąc pod uwagę, że stara teoria musiała względnie
dobrze funkcjonować przynajmniej w pewnej części dziedziny. Część
teoretyków redukcji i korespondencji uznała tę kwestię za tak oczywistą,
że argumenty Kuhna i Feyerabenda zupełnie zignorowała. Tym bardziej, że
rzekome ekwiwokacje niekiedy wręcz pomagały uczonym wyprowadzać
równania nowych teorii, co można prześledzić np. czytając popularne
Adam Grobler, O metodzie i strukturze nauki 151
pisma Einsteina. Jednak bez względu na obrazę naukowego zdrowego
rozsądku teza o niewspółmierności stawia pewien problem pojęciowy. W
przypadku teorii niewspółmiernych zmiana obejmuje również zmianę
dziedziny.
Problem ten
zręcznie omija koncepcja niezdaniowa teorii. Jeżeli teoria
naukowa jest obiektem matematycznym, relacje między teoriami z relacją
redukcji włącznie są strukturalnymi relacjami między obiektami
matematycznymi. Problem znaczenia znika. Sam byłem zwolennikiem
takiego rozwiązania w [1986]. Jednak relacje strukturalne mogą zachodzić
między modelami teorii o skądinąd całkowicie odmiennych dziedzinach.
Prawo powszechnego ciążenia i prawo Coulomba mają taką samą formę.
Ich modele są wręcz izomorficzne. Z uwagi na różnicę dziedzin zachodzi
między nimi związek analogii, a nie redukcji czy korespondencji.
Matematyczna forma zamazuje różnicę między jednym a drugim.
Myślę, że problem niewspółmierności rozwiązuje sformułowane w II.11.
ujęcie podwójnej dynamiki teorii i dziedziny. Zmiana dziedziny oczywiście
skutkuje zmianą znaczenia terminów nauki. Jednak ta zmiana nie jest
bynajmniej żywiołowa. Przeciwnie, została właśnie uchwycona za pomocą
pojęć logiki pytań jako rewizja presupozycji.
Pozostaje do omówienia jeszcz
e jeden aspekt problemu jedności nauki. Jest
nim kwestia jedności metodologicznej. Kryteria demarkacji – Koła
Wiedeńskiego i Poppera – kryteria postępowości programu badawczego
Lakatosa, zasada wnioskowania do najlepszego wyjaśnienia itp. sugerują,
że metoda naukowa, wzorowana na metodzie fizyki, jest jednakowa
w każdej dyscyplinie nauki. Pogląd ten miał i ma licznych zwolenników i
przeciwników. Toteż w następnym rozdziale zajmiemy się kwestią
ewentualnej odmienności metodologicznej poszczególnych nauk.
Adam Grobler, O metodzie i strukturze nauki 152
III. TYPY NAUK I ICH ODMIENNOŚCI
METODOLOGICZNE
III.1. Nauki dedukcyjne i empiryczne
Wydaje się, że najbardziej oczywiste różnice metody dzielą nauki
dedukcyjne i empiryczn
e. Do pierwszych zalicza się matematykę i logikę, do
drugich wszystkie pozostałe. Podstawowa różnica polega na tym, że w
badaniach matematycznych i logicznych nie stosuje się eksperymentów ani
obserwacji w celu uzasadnienia twierdzeń. Dlatego ilekroć w filozofii
powstaje kwestia możliwości poznania a priori, matematyka i logika są
naturaln
ymi kandydatkami na stanowisko nauki apriorycznej. Z drugiej strony
prowadzenie obserwacji w celach heurystycznych, albo dydaktycznych bywa
w matematyce i logice pożądane. Toteż aprioryczny status tych dyscyplin
nie jest niewątpliwy.
John Stuart Mil
l [1843] uważał matematykę i logikę, jak wszystkie inne
nauki, za nauki empiryczne. Według niego aksjomaty matematyki trzeba
wpierw metodą indukcji i abstrakcji wyprowadzić z doświadczenia, by można
było potem stosować metodę dedukcyjną. Zaś metody logicznego
rozumowania, indukcji i dedukcji, są również uzasadnione empirycznie na
mocy empirycznej zasady jednostajności przyrody (por. I.1). Uznanie logiki
za naukę empiryczną ma jednak niedogodne konsekwencje, z których Mill
nie zdawał sobie sprawy.
Jeżeli zasady logiki mają charakter empiryczny, to mówią o tym, jak
ludzie faktycznie rozumują, a nie o tym, jak powinni rozumować. Czyli umysł
ludzki, zamiast podporządkowywać się obiektywnie obowiązującym normom
poprawności rozumowania, podnosi swoje nawyki postępowania do rangi
Adam Grobler, O metodzie i strukturze nauki 153
powszechnie obowiązującej normy. Te normy z kolei są rzutowane na całą
naukę, bo logika jest narzędziem jej budowania. Tego rodzaju stanowisko,
wedle którego źródłem prawomocności nauki są właściwości ludzkiego
umysłu, czyli ludzkiej psychiki, nazywa się psychologizmem
. Gdyby jakieś inne
plemię, dajmy na to ufoludków, rozwinęło naukę podporządkowaną logice
odzwierciedlającej funkcjonowanie ich umysłów, i gdyby ich umysły
funkcjonowały inaczej od naszych, i gdyby te ufoludki zajmowały również
stanowisko będące ich odpowiednikiem naszego psychologizmu, daremne
byłyby próby nawiązania jakiejkolwiek współpracy naukowej. Psychologizm
prowadzi zatem do relatywizmu gatunkowego, albo, alternatywnie, do
antropocentryzmu: uznania ludzkiej perspektywy za jedyną ważną.
Tymczasem dążenie do przekroczenia biologicznych ograniczeń ludzkiego
poznania jest jedną z istotnych cech nauki (por. [Piątek 1988]).
Z tego
względu empiryzm logiczny przyjął stanowisko formalizmu, uznając
zarazem matematykę i logikę nie za dyscypliny naukowe, a jedynie
narzędzia nauki (por. II.1). Jednak fakt, że matematyka i logika są
narzędziami nauki samo przez się nie wyklucza ich z listy dyscyplin
naukowych. W starożytności ówczesne zalążki nauk empirycznych zaliczano
do techniki, zaś matematykę uważano za jedyną autentyczną naukę
Kartezjusz, w poszukiwaniu metody nauk przyrodniczych, upatrywał w
matematyce wzorzec wszelkiego poznania. Matematyka zawdzięcza te
awanse poczuciu pewności, które towarzyszy jej wynikom. Koło Wiedeńskie
wprawdzie odmawiało matematyce statusu nauki, ale za to uznało
metamatematykę za wzorzec metodologii nauki. Tutaj postąpię odwrotnie.
Spróbuję naszkicować pewien projekt metodologii matematyki na wzór
metodologii nauki w ujęciu tu rozwijanym. Z tej perspektywy
metamatematyka przedstawia wysoce wyidealizowany obraz matematyki.
Uchylając niektóre z tych idealizacji będziemy mieli okazję stwierdzić, że
30 Stanowisko Kanta niekoniecznie prowadzi do psycholog
izmu, ponieważ mowa w nim nie o
własnościach ludzkiego umysłu, tylko wszelkiego możliwego umysłu.
31 Włączając do niej muzykę, astronomię i harmonikę.
Adam Grobler, O metodzie i strukturze nauki 154
choć matematyka nie posługuje się eksperymentem, to status poznawczy jej
twierdzeń jest o wiele bardziej hipotetyczny, niż się zazwyczaj wydaje.
Że teoria matematyczna jest systemem aksjomatyczno-dedukcyjnym, tj.
zbiorem twierdzeń dedukcyjnie wyprowadzonych ze zdań pewnego
skończonego zbioru zdań zwanych aksjomatami (w ujęciu metamatematyki:
zbiorem konsekwencji zbioru aksjomatów), jest prawdą obiegową. A to
znaczy, że nie całkiem trafną. Nie należy sobie wyobrażać, jak sugerowali
Kartezjusz i Spinoza, że teorię rozwija się lub że powinno się ją rozwijać
wpierw ustalając aksjomaty, by potem wywodzić z nich twierdzenia, jedno
po drugim. Zanim powstał system geometrii Euklidesa z Aleksandrii (ok. 300
p.n.e.), który skądinąd był mocno niekompletny – dowody twierdzeń były
entymematyczne, tzn. korzystały z nieujawnionych przesłanek, które nie
wynikały z postulatów (czyli aksjomatów) – znano najbardziej interesujące
jego twierdzenia, np. twierdzenie Talesa czy Pitagorasa
. Arytmetyka liczb
naturaln
ych doczekała się aksjomatyzacji dopiero w XIX w. Klasyczna analiza
matematyczna (rachunek różniczkowy i całkowy) nie jest zaksjomatyzowana
do dziś. Można śmiało powiedzieć, że najpierw powstają teorie – w sensie
zespołów problemów i twierdzeń, nie w sensie metamatematycznym –
a dopiero potem, jeżeli kiedykolwiek, dobiera się dla nich odpowiedni układ
aksjomatów. Pytanie: po co?
Uformowanie się teorii poprzedza pojawienie się problemów i twierdzeń
traktowanych zrazu jako problemy i twierdzenia teorii już istniejących.
Dopiero na pewnym poziomie zaawansowania rozwijająca się problematyka
zaczyna się wyodrębniać i osiąga status nowej teorii. Pouczającym
przykładem w tej mierze jest historia geometrii rzutowej. Jej twierdzenia
znajdowano już w Odrodzeniu, skutkiem zainteresowania perspektywą
malarską. Traktowano je jednak jako twierdzenia geometrii euklidesowej, innej
zresztą wtedy nie znano. Wprowadzony przez Keplera (1602)
32
Choć nie wiadomo, czy w tej formie, w jakiej znajdują się w Elementach Euklidesa. Kwestie
autorstwa starożytnych wynalazków są mocno zawikłane z uwagi na panujący w tych
czasach, a dziś zupełnie egzotyczny zwyczaj przypisywania własnych pomysłów swoim
nauczycielom albo innym sławnym mężom przeszłości.
Adam Grobler, O metodzie i strukturze nauki 155
nieeuklidesowy wtręt, pojęcie “punktu w nieskończoności”, uważano za
niewinną sztuczkę. Dopiero prace Feliksa Kleina (1871, 1873) doprowadziły
do wyodrębnienia geometrii rzutowej jako odmiany geometrii nieeuklidesowej, a jej
aksjomaty sformułowano w następnej dekadzie
Wobec powyższego zaryzykuję tezę, że funkcją aksjomatyzacji w
matematyce jest określenie dziedziny jej teorii, dziedziny w sensie
analogicznym do rozważanego w II.10. Zwłaszcza, że aksjomaty często
uważa się za uwikłane definicje pojęć pierwotnych teorii (definicje przez
postulaty – zob. II.2), pojęć pełniących w matematyce rolę analogiczną do
terminów “obserwacyjnych” teorii naukowych: dowody są formą “redukcji”
zdań teoretycznych, tj. twierdzeń, do zdań bardziej podstawowych,
aksjomatów. Analogię tę podkreśla przestarzały już pogląd, że aksjomaty
akceptuje się jako oczywiste, niejako podległe bezpośredniej, umysłowej
“obserwacji”, i dlatego nie wymagające poparcia, jak twierdzenia, za
pomocą dowodu. Mit oczywistości aksjomatów rozwiał się, pod wpływem
prac Peana, Poincarégo, Hilberta i in. w związku z powstaniem geometrii
nieeuklidesowych. Decydująca o ich “uteoretyzowaniu”, dziedzinotwórcza
funkcja aksjomatów przejawia się w tym, że nadają one teoriom
matematycznym abstrakcyjny charakter. To znaczy, określają dziedzinę teorii
jako ogół przedmiotów spełniających aksjomaty, bez względu na
“rzeczywistą” naturę tych przedmiotów, w którą moglibyśmy mieć jakiś
intelektualny “wgląd”, czy też dostęp za pomocą ponadintelektualnej,
platońskiej ituicji lub kantowskiego “przedstawienia w czystej naoczności”.
Dopóki dziedzin
a teorii nie zostanie wyraźnie określona, jej twierdzenia są
błędnie zaliczane do innej dziedziny, co zniekształca ich treść, jak w
przypadku twierdzeń geometrii rzutowej. Czasami w ogóle nie są traktowane
jako twierdzenia, jak przydarzyło się wynalazkom Saccheriego. Girolamo
Saccheri (1733), usiłując dowieść nie wprost piąty postulat Euklidesa (na
33 W geometrii rzutowej
każde dwie proste się przecinają. “Punkt w nieskończoności”, mówiąc
obrazowo, jest dodanym do przestrzeni euklidesowej (po jednym dla każdego kierunku)
punktem prze
cięcia się prostych, które bez tego dodatku byłyby równoległe. Szczegóły
historii i filozofii geometrii znakomicie opisuje [Toretti 1978].
Adam Grobler, O metodzie i strukturze nauki 156
podstawie pozostałych czterech), wyprowadził rozmaite twierdzenia
geometrii Łobaczewskiego, które odrzucił jako “absurdalne”, mimo że nie
stwierdził żadnej sprzeczności między nimi a czterema pierwszymi
postulatami Euklidesa
. Uzyskane przez niego wyniki można było
zaakceptować dopiero po określeniu dziedziny geometrii nieeuklidesowych.
Abstrakcyjny charakter teorii, który nadają jej aksjomaty, bywa nazywany
formalnym. Pozwala bowiem na rozpatrywanie twierdzeń nie ze względu na
ich treść, na to, o czym mówią, lecz ze względu na związki ich formalnej
budowy, tj. kształtów napisów, z formalną budową aksjomatów. Stąd wzięło
się formalne pojęcie dowodu (II.1). Jednak dowody stosowane
w matematyce są bardzo odległe od formalistycznego ideału, nawet gdy
teoria jest zaksjomatyzowana. Reguły wnioskowania muszą być na tyle
proste, by można było bez cienia wątpliwości rozstrzygnąć, czy kolejny krok
dowodowy został przeprowadzony zgodnie z nimi. Skutkiem tego
drobiazgowe przestrzeganie reguł niesłychanie spowalniałoby postępy w
dowodzeniu twierdzeń. Żeby ukończyć dowód w rozsądnym czasie, który dla
nowo proponowanych twierdzeń wynosi kilka miesięcy lub lat, matematycy
stosują radykalne skróty rozumowania. Dalszy rozwój teorii, dzięki
odkrywaniu kolejnych związków między twierdzeniami i pojęciami teorii,
p
rzynosi skróty tych skrótów. W rezultacie pierwotnie stustronicowe dowody,
po kilkunastu latach lub dłużej, trafiają do podręczników akademickich w
wersji półstronicowej. Skutkiem tego ocena prawomocności dowodu jest
bardziej kwestią intuicji i treningu zawodowego niż formalnej kontroli.
Na dodatek bardzo nieliczne teorie są zaksjomatyzowane. Bo też do
określenia dziedziny teorii, zamiast aksjomatyzacji, często wystarczy
odpowiednie zdefiniowanie jej charakterystycznych pojęć, “terminów
34
Piąty postulat Euklidesa przez wieki próbowano udowodnić, ponieważ w przeciwieństwie
do pierwszych czterech wydawał się nieoczywisty. Brzmiał on: jeżeli prosta przecinające
dwie inne proste tworzy z nimi po jednej stronie kąty wewnętrzne (w sumie) mniejsze od
dwóch kątów prostych, to te dwie proste, jeśli je przedłużyć, przetną się po tej stronie
(prostej je przecinającej), po której znajdują się kąty (w sumie) mniejsze od dwóch kątów
prostych (brr!). Zaprzeczając mu, Saccheri uzyskał wnioski w rodzaju: suma kątów trójkąta
jest mniejsza od dwóch kątów prostych, i to tym mniejsza, im większe jest pole trójkąta.
Adam Grobler, O metodzie i strukturze nauki 157
teoretycznych”. Przykładem może być przełomowe dla dziedziny analizy
matematycznej zdefiniowanie pojęcia granicy metodą epsilonowo-deltową
przez Cauchy’ego (1820’). Pozwoliło ono wyeliminować siedemnastowieczne
pojęcia “nieskończenie małej” Leibniza i “fluksji” Newtona, skonstruowane
tak, jak gdyby odnosiły się do elementów uniwersum dziedziny, które nie
mogą istnieć, jeżeli tym uniwersum ma być zbiór liczb rzeczywistych. Tego
rodzaju wynalazki pojęciowe na równi z aksjomatyzacją podnoszą ścisłość
dowodów matematycznych, skądinąd odległą od ścisłości formalnej. Wymóg
ścisłości nie jest absolutny: pożądany jej poziom zależy od potrzeb
teoretycznych, analogicznie jak proporcje idealizacji i faktualizacji w naukach
empirycznych.
Jak od teorii empirycznych wymaga się, by dostarczały środków do
trafnych przewidywań zjawisk, tak od teorii matematycznych żąda się, by
były niesprzeczne. Zadaniem sformułowanej przez Hilberta teorii dowodu
(II.1) miała być (formalna) rekonstrukcja teorii matematycznych w celu
wykazania ich niesprzeczności. Program Hilberta załamał się skutkiem
odkrycia Gödla (1930), że dowodu niesprzeczności odpowiednio bogatej
teorii sformalizowanej (zawierającej arytmetykę liczb naturalnych) nie da się
przeprowadzić środkami, które by nie zakładały środków samej tej teorii
(zdanie wyrażające niesprzeczność tej teorii nie jest dowodliwe w żadnym
systemie, który nie jest od niej mocniejszy). Krótko mówiąc, dowód taki
wymagałby zręczności barona Münchhausena
Możliwe są natomiast względne dowody niesprzeczności, tj. dowody
niesprzeczności jednej teorii przy założeniu, że jakaś inna teoria jest
niesprzeczna. Stosuje się do tego inne twierdzenie Gödla, w myśl którego
każda teoria niesprzeczna ma model. W szczególności model teorii T można
uzyskać drogą jej interpretacji za pomocą pojęć innej teorii, T’ (pojęcia
modelu i interpretacji były przedstawione w II.8). Wówczas jeżeli T’ jest
niesprzeczna, T
jest również niesprzeczna. Na tej zasadzie można np.
35 Bohater zbioru przygodowych opowiadań Raspego (1785), który m.in. wyciągnął sam
siebie z błota, ciągnąc za włosy.
Adam Grobler, O metodzie i strukturze nauki 158
udowodnić, że jeżeli geometria euklidesowa jest niesprzeczna, to geometrie
nieeuklidesowe też są niesprzeczne
. Podobnie, metoda analityczna
geometrii gwarantuje jej niesprzeczność, o ile elementarna algebra jest
niesprzeczna. Za pomocą konstrukcji teoriomnogościowych można z liczb
naturalnych skonstruować krok po kroku liczby całkowite, wymierne,
rzeczywiste, zespolone, kwaterniony itd
. Konstrukcje te są zarazem
gwarantują niesprzeczność odpowiednich arytmetyk, jeżeli niesprzeczna jest
teoria mnogości i arytmetyka liczb naturalnych.
Tego rodzaju konstrukcje dookreślają dziedzinę teorii interpretowanej i
wzmacniają – ale nie mają mocy bezwzględnego dowodu – hipotezę o jej
niesprzeczności. Interpretacje teorii sprzyjają też jej rozwojowi zwiększając
zasób środków dowodowychGdy trudno znaleźć dowód jakiegoś twierdzenia
teorii T
1
, można je zinterpretować w teorii T
2
i udowodnić je jej środkami.
Elementarnym przykładem takiej procedury jest dowodzenie twierdzeń
geometrycznych środkami analitycznymi. Przykładem bardzo
wyrafinowanym jest topologia algebraiczna, w której dowodzi się twierdzeń
topologii środkami algebry za pomocą interpretacji zbudowanej środkami
teorii kategorii i funktorów. Wiarygodność tych metod zależy jednak od
hipotetycznej niesprzeczności teorii interpretującej.
Prócz związków interpretacji, między dziedzinami i teoriami może
występować związek abstrakcji. Przykładem może być uogólniona geometria
36 Prosty dwuwymiarowy euklidesowy model geometri
i Łobaczewskiego można uzyskać
interpretując termin “płaszczyzna” (Łobaczewskiego) jako wnętrze pewnego okręgu
(euklidesowego), “prosta” jako łuk ortogonalny w tym okręgu, “punkt” jako punkt
wewnętrzny tego okręgu i “odległość” między punktami definiując np. za pomocą funkcji
logarytmicznej tak, aby dążyła do nieskończoności, gdy jeden z punktów zbliża się do brzegu
okręgu. Łatwo pokazać, że przy takiej “odległości”, “punkty”, “proste” i “płaszczyzna”
spełniają aksjomaty geometrii Łobaczewskiego.
37
Naszkicuję konstrukcję liczby całkowitej. Weźmy pod uwagę zbiór par liczb naturalnych N
×
N
z określoną na nim relacją równoważnościową R jak następuje: (a, b)R(c, d)
↔
a + d = b + c.
Niech [a, b
] będzie zbiorem wszystkich par równoważnych (a, b): [a, b] = {(x, y): (x, y) = (a, b)}.
[a, b
] jest zdefiniowaną przez abstrakcję (II.2) liczbą całkowitą. Kto nie wierzy, niech czyta:
[a, b] = a – b, gdy a > b, [a, b] = – (b – a), w przeciwnym przypadku. Działania w tak zdefiniowanym
zbiore liczb całkowitych można zdefiniować za pomocą działań na liczbach naturalnych: [a, b] +
[c, d] = [a + c, b + d]; [a, b]
×
[c, d] = [ac + bd, ad + bc
]. Podobnie konstruuje się liczby wymierne z
liczb całkowitych, oraz liczby zespolone z rzeczywistych. Konstrukcja liczb rzeczywistych
z wymiernych jest trochę bardziej skomplikowana.
Adam Grobler, O metodzie i strukturze nauki 159
Riemanna (1853). Jest to teoria przestrzeni, w której dla każdego punktu
określona jest wielkość skalarna, zwana krzywizną. W przypadku, gdy
krzywizna jest stała, tzn. taka sama dla każdego punktu przestrzeni,
otrzymujemy przestrzeń euklidesową (gdy krzywizna wynosi zero) lub jedną
z przestrzeni nieeuklidesowych (w pozostałych przypadkach). Ta relacja
między teoriami matematycznymi przypomina nieco relację idealizacji/
f
aktualizacji między sformułowaniami prawa nauki.
Modele teorii matematycznych buduje się zazwyczaj środkami teorii
mnogości. Przybierają one formę struktur, tj. ciągów złożonych ze zbiorów i
relacji, między którymi mogą zachodzić wielorakie związki. Teorie takich
struktur często są abstrakcyjnymi uogólnieniami innych teorii, w sensie
poprzedniego akapitu. Stąd grupa Bourbaki
matematyki w ogóle są struktury, o czym wspominałem w II.1. Nie wchodząc
w szczegóły, które by nas zaprowadziły w bardzo abstrakcyjne rejony,
można powiedzieć, że program grupy Bourbaki jest umiarkowaną wersją
redukcjonizmu w filozofii matematyki. Bardziej skrajny był program Fregego
(1893-1903) i Russella (1903-1910), zwany logicyzmem, którego celem była
redukcja matematyki do logiki. Program się nie powiódł: okazało się, że
domniemana redukcja matematyki do logiki nie może się obejść bez
pozalogicznych założeń. Niemniej liczne idee rozwinięte w ramach tego
programu, jak np. pomysł konstruowania dziedzin teorii za pomocą definicji
przez abstrakcję, są trwałym elementem kultury matematycznej.
System Fregego zawierał błąd wykryty przez Russella i nazwany
paradoksem jego imienia. Russell usunął ten paradoks w swoim systemie za
pomocą aksjomatów, które miały pewne niepożądane, a przynajmniej
mocno kontrowersyjne konsekwencje. W reakcji niektórzy filozofowie, m.in.
twórcy tzw. intuicjonizmu, Brouwer (1907) i Heyting (1930), kwestionowali
prawomocność środków dowodowych stosowanych w matematyce.
38 Nicolas Bourbaki jest pseudonimem elitarnej grupy matematyków francuskich, od lat
trzydziestych publikującej monograficzne opracowania podstaw kolejnych działów
matematyki.
Adam Grobler, O metodzie i strukturze nauki 160
Obawiając się, że jeśli nawet na razie udało się wykluczyć paradoks Russella,
nie można wykluczyć pojawienia się kolejnych paradoksów. Intuicjonizm
upatrywał gwarancji w dopuszczeniu wyłącznie dowodów konstruktywnych,
tj. polegających na skonstruowaniu pewnego obiektu matematycznego, np.
rozwiązaniu równania. W szczególności nie dopuszczał dowodów nie wprost.
Ich zdaniem wyprowadzenie sprzeczności z założenia, że przedmiot o
określonych własnościach nie istnieje nie dowodzi, że on istnieje. Np.
wyprowadzenie sprzeczności z założenia, że jakieś równanie nie ma
rozwiązania nie dowodzi, że ma ono rozwiązanie. Trzeba jeszcze przedmiot o
żądanych własnościach skonstruować, np. znaleźć domniemane rozwiązanie
równania lub przynajmniej metodę rozwiązania.
Intuicjonizm prowadzi do rewiz
ji logiki klasycznej: odrzuca zasadę wyłączonego
środka (p
∨
¬
p
). Co więcej, wiele rezultatów klasycznej matematyki jest, z
punktu widzenia intuicjonizmu, nie do przyjęcia. W szczególności, o wielu
równaniach, których nie umiemy rozwiązać, można metodami klasycznymi
(nie wprost) udowodnić, że mają rozwiązanie. Dowód taki daje podstawy i
środki rachunkowe do poszukiwania rozwiązań przybliżonych. To zaś jest nie
bez znaczenia dla zastosowań matematyki, zwłaszcza w nauce, a ich
zadziwiająca skuteczność podnosi wiarygodność metod matematycznych.
Tymczasem z punktu widzenia intuicjonizmu, gdy nie umiemy równania
rozwiązać wprost, pozostaje czekać na odkrycie rozwiązania, bez żadnych
gwarancji powodzenia. Toteż za bezpieczeństwo dowodów
intuicjonistycznych trzeba zapłacić wysoką cenę. Wydaje się, że zamiast
rezygnować z wielu wartościowych wyników, lepiej jest stosować bardziej
ryzykowne środki dowodowe i pogodzić się z hipotetyczną naturą
matematyki. Tym bardziej, że intuicjonizm i kierunki z nim spokrewnione
dzielą poważne różnice zdań na temat tego, które środki dowodowe dają
rzeczywiste gwarancje. Im bezpieczniejsze metody, tym mniej można nimi
osiągnąć.
Jeszcze bardziej do nauk empirycznych zbliża matematykę coraz szersze
Adam Grobler, O metodzie i strukturze nauki 161
upowszechnienie dowodów komputerowych. Do niepewności dowodu w
ogóle, dochodzi zwiększone ryzyko naturalnej zawodności ludzkiego umysłu.
Błąd człowieka w dowodzie może, choć nieraz z ogromnym trudem,
naprawić inny człowiek. Dowody komputerowe natomiast stosuje się do
zagadnień, których rozwiązanie człowiekowi zajęłoby tysiące lat. Toteż
sprawdzenie dowodu komputerowego można powierzyć tylko komputerowi.
Komputery wprawdzie się nie mylą, ale mylą się programiści. Niezwykle
trudny do wykrycia błąd programu może skutkować niewykrywalnym
błędem dowodu komputerowego. Toteż status poznawczy dowodów
komputerowych jest przedmiotem dyskusji dalekiej od rozstrzygnięcia.
Nie jest wcale oczywiste, czy rozstrzygnięcie kwestii statusu
poznawczego, na zasadzie albo-albo, poszczególnych typów dowodów, jest
w ogóle potrzebne. Można bowiem z powodzeniem przyjąć pluralizm metod
dowodowych, przypisując twierdzeniom różne stopnie wiarygodności w
zależności od rodzaju dowodu. Wydaje się, że praktyka matematyczna
sankcjonuje takie podejście w tej mierze, w jakiej przedstawienie
konstruktywnego dowodu twierdzenia, które wcześniej miało tylko dowód
niekonstruktywny, uchodzi za postęp.
Podobieństwa między matematyką a naukami empirycznymi przyczyniają
się do odnowy empiryzmu w filozofii matematyki. Jednym z wymienionych
wcześniej filozofów o takim nastawieniu był Lakatos [1976]. Bardziej
konsekwentnym empirystą jest Philip Kitcher [1984]. W jego ujęciu
matematyka jest nauką o umysłowych reprezentacjach możliwych
manipulacji przedmiotami przez idealny podmiot, tj. podmiot o
nieograniczonych siłach i wytrwałości. Manipulacje, o których mowa, to
przede wszystkim grupowanie i porządkowanie (w tym porównywanie czyli
pomiar). Reszta jest kwestią abstrakcji. Myślę, że ten pogląd wyjaśnia
omówione wyżej aspekty badania matematycznego. Wyjaśnia również,
dlaczego matematyka może być narzędziem nauk empirycznych.
Postępowanie matematyki w kierunku coraz większej abstrakcji dostarcza
Adam Grobler, O metodzie i strukturze nauki 162
nauce coraz bogatszych środków wyrazu. Daleko nie wszystkie są faktycznie
wykorzystywane, co w niczym jej nie uwłacza. Bowiem matematyka jest nie
tylko narzędziem nauk empirycznych, ale sama jest nauką, która wprawdzie
nie posługuje się eksperymentem, chyba że myślowym, jednak mimo to
wykazuje duże podobieństwa do nauk empirycznych.
Wspomniałem wyżej, że nazywanie matematyki nauką formalną jest
pewnym nieporozumieniem. Powstało ono zapewne pod wpływem
redukcjonizmu, z punktu widzenia którego matematyka jest zwykłym
przedłużeniem logiki. Logika zaś jest nauką formalną w tym sensie, że jej
przedmiotem są formalne własności rozumowania dedukcyjnego, tj.
własności niezależne od treści przesłanek i wniosków. Jeżeli o matematyce
powiedzieliśmy, za Kitcherem, że jest nauką o umysłowych reprezentacjach
pewnego rodzaju możliwych manipulacji na przedmiotach – reprezentacjach,
które abstrahują od natury czy własności przedmiotów – o logice można by
zaryzykować twierdzenie, że jest nauką o pewnego rodzaju możliwych
manipulacjach na wyrażeniach językowych, która abstrahuje od treści tych
wyrażeń. Mowa zaś o manipulacjach, z grubsza rzecz biorąc, które pozwalają
przechodzić od zdań prawdziwych do zdań prawdziwych. Logika zajmuje się
zatem w pierwszym rzędzie budowaniem rachunków formalnych, które
polegają na specyfikacji składni pewnego sztucznego języka, reguł
wnioskowania (inferencji) i aksjomatów.
Jednak nazywanie logiki nauką formalną jest również nieco mylące,
ponieważ w rozważaniach metalogicznych, dotyczących własności
rachunków formalnych, jak np. niesprzeczność, posługuje się dowodami
nieformalnymi, tej samej natury, co dowody matematyczne. Metalogika jest
metodologią logiki. Jednak jej oddzielanie od logiki, traktowanie jej jako
odrębną dyscyplinę, byłoby zabiegiem sztucznym. Skoro bowiem
przedmiotem logiki są własności rozumowania dedukcyjnego, to nie może
ona poprzestawać na formułowaniu reguł inferencji, musi jeszcze badać, czy
te reguły są trafnie dobrane ze względu na cel rozumowania: zachowywanie
Adam Grobler, O metodzie i strukturze nauki 163
prawdy. Dlatego od czasów Tarskiego (1930) logika zajmuje się również
budowaniem semantyki rachunków, tj. teorii warunków prawdziwości zdań
danego rachunku. Semantyka logiczna posługuje się zazwyczaj pojęciami
teorii mnogości, a nawet algebry abstrakcyjnej (zwłaszcza pojęciem modelu
jako struktury relacyjnej), przez co logika istotnie krzyżuje się z matematyką.
Związek ten jednak nie ma nic wspólnego z domniemaną redukcją
matematyki do logiki. Polega raczej na zastosowaniu narzędzi
matematycznych do badań logicznych.
Pod pewnym względem logika przypomina matematykę, a nawet
dyscypliny ściśle empiryczne. Mianowicie budując rachunki często postępuje
w kierunku coraz większej ogólności, w kierunku, który można określić jako
uchylanie kolejnych idealizacji. Rachunki logiczne są w gruncie rzeczy
idealizacyjnymi teoriami, wyjaśniającymi argumentacyjną funkcję
języka. Klasyczny rachunek predykatów pierwszego rzędu zakłada daleko
idące idealizacje. Zakłada, że każde zdanie oznajmujące jest albo
prawdziwe, albo fałszywe. Pomija modalności, jak “możliwe”,
“prawdopodobne”, “konieczne”; tzw. nastawienia zdaniowe (propositional
attitudes)
, jak “wie, że…”, “sądzi, że…”, “postrzega, że…”, “obawia się,
że…”, “pragnie, żeby…”; wyrażenia deontyczne, jak “jest obowiązkiem”,
“jest dozwolone”; obecność czasów gramatycznych; nierzeczywiste okresy
warunkowe (“gdyby”) itd. Te idealizacje są uchylane przez rachunki o
wyższym stopniu ogólności: logiki intuicjonistyczne i tzw. pośrednie, logiki
wielowartościowe i logiki z lukami prawdziwościowymi, m.in. logikę
presupozycjo (zob. I.4.2), logiki modalne, epistemiczne, deontyczne,
czasowe (tensalne) itp. Że wynikanie jednego zdania z innego zakłada
39 W polskiej literaturze prze
kładowej rozpanoszyło się tłumaczenie propositional attitutes na
“postawy propozycjonalne”, co brzmi nieprzyzwoicie. Tłumaczom brakuje wytrwałości, by
znaleźć w słowniku drugi po “postawach” odpowiednik słowa attitude. A przecież zwroty
“sądzić, że …”, “obawiać się, że…” itp. wyrażają nie postawy, lecz nastawienia podmiotu do
treści zdania podrzędnego, następującego po “że”. Zapożyczenie “propozycjonalne” jest
również uzasadnione wyłącznie lenistwem tłumaczy. Termin propositional attitude pochodzi od
Russella, podobnie jak propositional function
, który na język polski od dawna przekłada się na
“funkcja zdaniowa” (aczkolwiek w przedwojennym przekładzie Problemów filozofii jest “funkcja
propozycjonalna”.
Adam Grobler, O metodzie i strukturze nauki 164
pewien związek treściowy między nimi, uwzględniają tzw. logiki relewantne.
Że stawianie pytań w toku racjonalnego procesu rozwiązywania problemów
również rządzi się zasadami rozumowania i argumentacji, uwzględnia logika
erotetyczn
a (I.4.2). Logiki niemonotoniczne badają rozumowania w warunkach
niepełnej informacji. Uchylają więc nawet tę idealizację, którą przed chwilą
wymieniliśmy jako konstytutywną dla przedmiotu logiki: że rozumowanie
zachowuje prawdę (jest niezawodne i nietwórcze, czyli dedukcyjne).
Wiele rachunków logicznych, zwłaszcza modalne, epistemiczne i
deontyczne, mają wyraźne motywacje filozoficzne. Pierwsze łączą się z
metafizycznymi dociekaniami na temat rozróżnienia tego, co konieczne, od
tego, co przygodne. Drugie są istotne dla epistemologicznych zagadnień
odróżnienia wiedzy od mniemiania, albo trafnego postrzeżenia od złudzenia
lub halucynacji. Trzecie w oczywisty sposób łączą się z etyką. Logika zatem
krzyżuje się nie tylko z matematyką, ale również z filozofią. Rachunki, które
obejmuje się niekiedy nazwą logiki filozoficznej, często mają za cel zbadanie
trafności pewnych intuicji i/lub założeń filozoficznych przez zbadanie
konsekwencji, do których prowadzą. Logikę filozoficzną niekiedy
przeciwstawia się logice matematycznej, lecz z uwagi na rosnące
zastosowanie technik matematycznych w logice w ogóle trudno jest
przeprowadzić jakąkolwiek linię demarkacyjną.
Do logiki filozoficznej zalicza się niekiedy pragmatykę logiczną, teorię nie
argumentacyjnej, lecz
komunikacyjnej funkcji języka, uwzględniającą czynniki
kontekstowe. Te same wyrażenia w różnych kontekstach mogą pełnić różne
funkcje. Np. wypowiedź “już północ” może być zwykłym oznajmieniem,
udzieleniem rzeczowej informacji, ale też zachętą spóźnionych gości, ażeby
się wynieśli. Zależność znaczenia wyrażeń od kontekstu można ująć
środkami formalnymi i teoriomnogościowymi.
Logika krzyżuje się również z informatyką. Teoria algorytmów o tyle
należy do logiki, że jest teorią pewnej klasy rozumowań, o tyle zaś do
informatyki, że ma bezpośrednie zastosowanie do programowania. Można
Adam Grobler, O metodzie i strukturze nauki 165
też mówić o pograniczach logiki i gramatyki.
Myślę, że ten pobieżny przegląd unaocznia, iż logika jest nie tylko
narzędziem nauk, ale również samodzielną nauką, której teorie mają
wyraźnie określone dziedziny.
III.2. Nauki przyrodnicze i społeczne
Od czasu wprowadzonego przez Diltheya [1883] rozróżnienia między
Naturwissenschaften i Geisteswissenschaften, naukami przyrodniczymi i “o duchu”, czyli
o kulturze i jej wytworach, albo humanistycznymi, trwa spór o to, czy metoda obu tych typów
nauk
powinna być taka sama. Dilthey upatrywał źródło różnic
metodologi
cznych w zasadniczej odmienności przedmiotu. Wobec przyrody
zajmujemy stanowisko zewnętrznego, niezaangażowanego obserwatora,
gdy idzie natomiast o kulturę, jesteśmy jej zaangażowanymi uczestnikami,
przeżywamy ją. W poznaniu przyrody dążymy do wyjaśnienia zjawisk,
w poznaniu kultury, dzięki przeżywaniu, mamy możność zrozumienia
(verstehen) jej zjawisk jako wytworów ludzkiego ducha. Rozważania na temat
ewentualnej odrębności od nauk przyrodniczych zawężę do takich nauk, jak
socjologia, ekonomia, nauki polityczne, antropologia, historia, które można
określić mianem nauk społecznych, wyłączając takie nauki humanistyczne,
jak nauki o literaturze czy filozofię (jeżeli filozofia jest nauką). Psychologii
poświęcę osobne uwagi w III.3.
Wedle naturalizmu
zasadniczym rysem nauki jest odkrywanie praw
sprawdzalnych empirycznie, umożliwiających przewidywanie i wyjaśnianie
zjawisk, zgodnie z treścią poprzednich rozdziałów. Nawet jeśli te wzory
metodologiczne zostały zbudowane w pierwszym rzędzie dla nauk
przyrodniczych, naturalizm traktuje je jako uniwersalne, stosując je również
nauk społecznych. Jeżeli nauki społeczne nie w pełni je przestrzegają, należy
zgodnie z tym uznać, że znajdują się na niskim poziomie rozwoju w
Adam Grobler, O metodzie i strukturze nauki 166
porównaniu ze znacznie starszymi od nich naukami przyrodniczymi. A jeżeli
nie spełniają kryterium demarkacji – weryfikowalności, według Koła
Wiedeńskiego, falsyfikowalności, według Poppera – są pseudonaukami.
Główne wątpliwości antynaturalistyczne są następujące: (i) procesy
społeczne są tak złożone i splecione ze sobą, że odkrywanie autentycznych
praw jest niemożliwe; (ii) inaczej od zachowania zjawisk przyrody,
zachowania ludzi podlegają ich woli i dlatego są nieprzewidywalne; (iii) w
odróżnieniu od zjawisk przyrody, ludzie mogą kierować się w swoim
zachowaniu przewidywaniami teorii społecznej, co zmienia rzeczywistość
przez tę teorię opisywaną.
Argu
ment (i) nie docenia komplikacji zjawisk przyrody, z których modele
budowane w naukach przyrodniczych uchwytują jedynie grube rysy.
Pouczające w tej kwestii może być choćby ponowne rozpatrzenie kwestii ze
sformułowaniem prawa swobodnego spadania (II.7). Mimo nieuchronności
idealizacji i warunków ceteris paribus, przebieg nawet bardzo złożonych zjawisk
przyrodniczych, np. meteorologicznych, daje się z dość dużą dokładnością
przewidywać.
Argument (ii) opiera się na nieuprawnionym założeniu, że z istnienia praw
danej dziedzin
y zjawisk wynika determinizm w odniesieniu do tej klasy zjawisk.
Determinizm wynikałby z istnienia praw, gdyby były one ścisłe i
bezwarunkowe, tj. nie zakładały żadnych idealizacji ani warunku ceteris
paribus
. Innymi słowy, gdyby odnosiły się do układów autentycznie
izolowanych, a nie “prawie” izolowanych, z dokładnością do idealizacji. Poza
tym wolność woli nie wyklucza przewidywalności ludzkich zachowań.
Prawda, że ludzie lubią czasem zaskakiwać innych lub przynajmniej grozić
możliwością niespodzianki, zwłaszcza w grach towarzyskich i
ekonomicznych. Gdyby jednak przewidywania ludzkich zachowań nie były
wystarczająco skuteczne, życie społeczne byłoby niemożliwe. Gdybym nie
przewidywał, że kasjerka w sklepie wyda mi resztę, nie mógłbym zrobić
najprostszych zakupów.
Adam Grobler, O metodzie i strukturze nauki 167
Argument (iii) oczywiście przedstawia poważny problem metodologiczny.
Zapowiedź zwyżki na giełdzie skłania inwestorów do zakupów, co powoduje
zwyżkę. Przewidywanie upadłości firmy skłania do podjęcia działań
naprawczych, które jej zapobiegają. W takich przypadkach przyczyną
powodzenia lub niepowodzenia przewidywań jest nie trafność lub
nietrafność teorii, lecz ludzkie reakcje na te przewidywania. Z drugiej strony
wpływ przewidywań na ludzkie zachowania poddaje się teoretycznym
przewidywaniom. Wobec tego przewidywanie można potraktować nie jako
test samej teorii, powiedzmy T, lecz teorii T
1
, która przewiduje ludzkie reakcje na
przewidywania teorii T
. Ludzie z kolei mogą uwzględnić wpływ własnych działań
na spełnienie się przewidywania i odpowiednio do tego modyfikować swoje
reakcje. Wówczas przewidywanie, o którym mowa, trzeba uznać za test
teorii T
2
, która przewiduje modyfikacje ludzkich reakcji na potencjalnie
samospełniające się lub samoobalające się przewidywanie itd. Proces
konstruowania kolejnych teorii T, T
1
, T
2
… przypomina procedurę faktualizacji
(uchylania kolejnych idealizacji) teorii nauk przyrodniczych.
Do tradycji naturalistycznej należy np. pogląd J. S. Milla, zgodnie z
którym ludzkie zachowanie podlega wyjaśnianiu przyczynowemu tak samo,
jak zjawiska przyrody. Przyczynami określonego działania są zawsze pewne
pragnienia oraz mniemania, wedle których te-a-te działania prowadzą do
zaspokojenia takich-a-takich pragnień. Zachowania grup społecznych
podlegają zatem pewnym prawom, ponieważ ludzie na ogół mają podobne
pragnienia i podobne mniemania. Odchylenia poszczególnych jednostek od
normy, gdy chodzi o pragnienia i mniemania w dużych grupach ludzkich nie
mają wpływu na zachowanie całej grupy, ponieważ po pierwsze, są
n
ieznaczne, a jeśli znaczne, to nieliczne, a po drugie, są odchyleniami w
różnych kierunkach, więc przynajmniej częściowo się znoszą. Według tej
opowieści zatem prawidłowości zachowania grup społecznych mają
charakter statystyczny: wynikają ze statystycznych prawidłowości
zachowania indywiduów.
Adam Grobler, O metodzie i strukturze nauki 168
Antynaturalizm
reprezentuje kierunek nawiązujący do Diltheya, zwany
socjologią humanistyczną lub rozumiejącą. Odrzuca on naturalizm na tej
podstawie, że działanie można rozumieć jako działanie społeczne, a nie tylko
ruch w przyrodzie, tylko wtedy, gdy jego opis obejmuje intencje. Np. opis
człowieka tnącego drugiego człowieka ostrym narzędziem jest opisem ruchu
ciał w przyrodzie. Bez wiedzy o intencjach tnącego nie można wiedzieć, z
jakim działaniem mamy do czynienia: z operacją chirurgiczną czy
zabójczym zamachem. W związku z tym intencje (pragnienia i mniemania)
nie mogą być przyczynami działań. Przyczyna bowiem jest zdarzeniem
odrębnym od skutku, podczas gdy intencje są składnikiem działania
[Collingwood 1946].
M
yślę, że ten argument jest zupełnie chybiony. Intencje w wyjaśnianiu
działań w naukach społecznych pełnią funkcję analogiczną do terminów
teoretycznych w wyjaśnianiu zjawisk przyrody. Opis przesunięcia się
podłużnego przedmiotu umieszczonego za szybką na tle podziałki jest
opisem ruchu ciał w przyrodzie. Bez wiedzy o jego przyczynach nie można
wiedzieć, z jakim zjawiskiem mamy do czynienia: pomiarem natężenia
prądu, ciśnienia atmosferycznego, prędkości samochodu czy jeszcze jakimś
innym. Nikt jednak nie twierdzi, że uteoretyzowanie obserwacji wyklucza
przyczynowe wyjaśnianie zjawisk, bo to, co nazywamy przyczyną, jest w
gruncie rzeczy częścią składową zjawiska. Jeżeli ta analogia jest trafna, nie
ma żadnych przeszkód w traktowaniu intencji jako przyczyn działania.
Teoretyczny charakter intencji podkreśla teoria racjonalnego wyboru,
stosowana zwłaszcza w ekonomii. W tej teorii pragnienia lub preferencje
podmiotu reprezentuje funkcja użyteczności v
i
określona na pewnym zbiorze
stanów rzeczy {S
i
}, i = 1, …, n.
Mniemania podmiotu reprezentuje funkcja
prawdopodobieństwa, że działanie A
j
, j = 1, …, n, przyniesie skutek S
i
: P(S
i
| A
j
) = p
ij
.
Wyrażenie p
1j
×
v
1
+ p
2j
×
v
2
+ … + p
nj
×
v
n
nazywa się użytecznością
oczekiwaną działania A
j
. W myśl teorii, racjonalny podmiot działania
Adam Grobler, O metodzie i strukturze nauki 169
wybiera zawsze działania o najwyższej użyteczności oczekiwanej.
Przypuśćmy na przykład, że gracz w “Milionerów” odpowiada na pytanie za
16 tys. zł. Po wykluczeniu dwóch możliwych odpowiedzi zostały mu dwie do
wyboru i nie ma pojęcia, która z nich jest trafna. Może zgadywać albo
zrezygnować z dalszej gry. Przypuśćmy, że jego funkcja użyteczności
przyjmuje wartości równe wysokości wygranej w tys. zł. Gdy zrezygnuje, na
pewno (z prawdopodobieństwem 1) wygrywa 8 tys. zł. Zatem użyteczność
oczekiwana rezygnacji z dalszej gry wynosi 8. Gdy podejmie ryzyko, z
prawdopodobieństwem ½ wygra 16 tys. zł., i z takim samym
prawdopodobieństwem wygra tylko gwarantowany 1 tys. zł. Użyteczność
oczekiwana zgadywania wynosi zatem ½
×
16 + ½
×
1 = 8,5. Powinien z
atem
grać.
Wartości funkcji użyteczności gracza nie muszą zależeć proporcjonalnie
od wysokości wygranej. Przypuśćmy, że gracz odpowiada na pytanie za 500
tys. zł. Gdy zrezygnuje, wygrywa 250 tys. zł., co wystarczy mu na kupno
wygodnego domu, nowego samochodu i trochę zostaje na lody poziomkowe.
Gdyby wygrał 500 tys. zł., mógłby kupić dom bardziej luksusowy, samochód
bardziej luksusowy i zostałoby mu więcej pieniędzy na lody w różnych
smakach. Jednak funkcja użyteczności takiego hipotetycznego stanu rzeczy
dla kogoś o, powiedzmy, moim statusie majątkowym, jest znacznie niższa od
dwukrotności funkcji użyteczności niższej wygranej: dodatkowe 250 tys. zł.
nie przynosi tak radykalnej poprawy komfortu życia, jak pierwsze. Toteż
racjonalny gracz, gdy ma szansę odgadnięcia równą ½, powinien w takim
przypadku zrezygnować. Jednak gracz, który np. jest winny dużą sumę
pieniędzy gangsterom, może mieć inną funkcje użyteczności: 250 tys. zł.
może go nie ratować przed niechybną egzekucją, a wyższa wygrana i
owszem. Użyteczność oczekiwana zależy nie tylko od funkcji użyteczności,
ale również od oceny własnych szans: kto ma mocne podejrzenia co do tego,
która odpowiedź jest trafna, może grać odważniej.
Zasada maksymalizacji użyteczności oczekiwanej ma, zdaniem
Adam Grobler, O metodzie i strukturze nauki 170
niektórych teoretyków, niejasną treść empiryczną. Preferencji i mniemań
podmiotu nie da się bowiem ustalić w sposób niezależny od tej zasady. To
samo jednak można powiedzieć o terminach teoretycznych teorii nauk
przyrodniczych: masy ciała i sił działających na niego nie da się wyznaczyć
niezależnie od praw teorii. W cz. I i II starałem się pokazać, że treść
empiryczna praw nauk przyrodniczych nie jest określona za pomocą żadnej
prostej zasady w rodzaju zasady falsyfikowalności, lecz przez ich
zastosowanie do budowy modeli zjawisk, wyjaśniania (kontrastowego) oraz
skomplikowaną grę presupozycji, idealizacji/faktualizacji i warunków ceteris
paribus
. O tym, że modele teorii racjonalnego wyboru mają niezerową moc
wyjaśniającą świadczy choćby to, iż są zjawiska, które wyjaśnia się jako
odstępstwa od zasady maksymalizacji użyteczności oczekiwanej. Np. zakup
oczywiście niepotrzebnego przedmiotu pod namową zręcznego sprzedawcy.
Zasada maksymalizacji użyteczności oczekiwanej, podobnie jak prawa nauk
przyrodniczych, zakłada warunek ceteris paribus i ma charakter idealizacyjny.
Jeżeli jednak odrzucić wyjaśnianie przyczynowe na rzecz rozumienia,
trzeba podać zasady interpretacji działań. Collingwood w swojej koncepcji
rozumienia historycznego, do pewnego stopnia naśladując Diltheya, upatruje
możliwość rozumienia czynów historycznych w naszej zdolności do
wczuwania się w cudze intencje. Nawiązując do Wittgensteina [1953],
bardziej wpływową koncepcję sformułował Peter Winch [1958]. Według
niego rozumienie działań społecznych jest możliwe dzięki wykryciu reguł
kulturowych. W skład nich wchodzą nie tylko jawne, spisane reguły, ale
również niepisane normy kulturowe. Np. czynność podpisania czeku jest
zrozumiała wyłącznie dzięki znajomości reguł, jawnych i niepisanych,
regulujących obrót czekowy i działanie banku jako instytucji.
Metoda rozumiejąca jest charakterystyczna dla antropologii kulturowej. W
celu odkrycia reguł obcej kultury badacze stosują tzw. obserwację
uczestniczącą. Według koncepcji socjologii rozumiejącej ta sama metoda
jest właściwa dla zrozumienia własnej kultury. Znajomość reguł kulturowych
Adam Grobler, O metodzie i strukturze nauki 171
w znacznej mierze pozwala na przewidywanie zachowania, mimo że reguły
nie są jego przyczynami, a tylko nadają sens działaniom. W związku z tym
ludzie mogą naruszać reguły lub nie przywiązywać do nich wagi, czy
wreszcie je przekształcać, tworząc nowe instytucje, konwencje i przepisy.
Jednakowoż zadaniem nauk społecznych, wedle antynaturalizmu, nie jest
przewidywanie.
Atrakcją antynaturalizmu jest uwzględnienie spostrzeżenia Kanta [1785],
że “istoty rozumne nie działają podług praw, ale podług przedstawienia
praw”, co w koncepcji socjologicznej Floriana Znanieckiego [1922] przybiera
formę postulatu uwzględniania w badaniach “współczynnika
humanistycznego”: tej cechy zjawisk kulturowych, że jako przedmiot
badania są już przedmiotem czyjegoś doświadczenia lub świadomym
działaniem. Jednak w odróżnieniu od innych przedstawicieli nurtu socjologii
rozumiejącej, Znaniecki uważał, że jej zadaniem jest badanie zjawisk o
pewnej trwałości i powtarzalności, a więc, jak w przypadku innych nauk,
poszukiwanie praw.
Niewątpliwie prawa społeczne istnieją. Mamy prawa w rodzaju prawa
wzrostu przestępczości ze wzrostem poziomu bezrobocia, czy prawa podaży
i popytu. Toteż nic dziwnego, że obecnie coraz silniejsze są tendencje do
unifikacji podejścia naturalistycznego i rozumiejącego. Np. David Papineau
[1978] sugeruje, że pragnienia i mniemania, o których mowa w teorii
racjonalnego wyboru, znajdują się pod wpływem norm kulturowych.
Uwzględnienie kulturowych wpływów na funkcje użyteczności i rozkład
prawdopodobieństwa uzupełnia wyjaśnienia zjawisk społecznych.
W szczególności, działania obciążone są zależnymi od norm kulturowych
kosztami społecznymi, co wpływa na funkcję użyteczności. Np. decydując się
na udział w programie “Big Brother” trzeba brać pod uwagę nie tylko
ewentualną wygraną, lecz również społeczny, czy towarzyski, koszt
naruszenia reguł dobrego smaku, skądinąd niejednakowy w różnych
środowiskach (w niektórych nawet ujemny, tj. obracający koszt w zysk).
Adam Grobler, O metodzie i strukturze nauki 172
Teoria racjonalnego wyboru w swoim oryginalnym sformułowaniu
powstała w ramach tradycji indywidualizmu metodologicznego, stanowiska
reprezentowanego m.in. przez Milla i Poppera. Zgodnie z nim zjawiska
społeczne są wypadkową indywidualnych działań i należy je wyjaśniać przez
odwoływanie się do indywidualnych motywów. Przeciwne stanowisko, zwane
holizmem albo socjologizmem
, pochodzi od Emila Durkheima [1895]. Według
niego fakty społeczne muszą mieć przyczyny społeczne, nieredukowalne do
faktów dotyczących indywiduów. Indywidua znajdują się bowiem pod presją
otoczenia, skutkiem której mają skłonność dostosowywania własnych
sposobów myślenia, odczuwania i działania do sposobów uznawanych w
społeczeństwie. To sformułowanie sugeruje daleko idące zbieżności między
holizmem a socjologią rozumiejącą. Jednak błędem byłoby utożsamiać
podział na naturalizm i antynaturalizm z podziałem na indywidualizm i
holizm.
Indywidualizm stosuje
wyjaśnianie intencjonalne, odwołujące się do
intencji (mniemań i preferencji) osób, które traktuje jako odmianę
wyjaśniania przyczynowego. Holizm wyklucza wyjaśnianie intencjonalne i w
poszukiwaniu właściwej formy wyjaśniania sięga do wzoru zaczerpniętego z
biologicznej teorii ewolucji: wyjaśniania funkcjonalnego. Polega ono na
wyja
śnianiu instytucji społecznych, norm kulturowych i wzorców zachowania
społecznego przez wskazanie na ich funkcję, np. podtrzymywania trwałości
społeczeństwa, podobnie jak w biologii wyjaśnia się cechy filogenetyczne
organizmu i wzorce indywidualnego zachowania ich funkcją
przystosowawczą. Ta strategia eksplanacyjna zbliża przynajmniej niektóre
formy holizmu do naturalizmu.
Analogia ewolucyjna budzi jednak kontrowersje. Utrwalanie się
funkcjonalnych cech filogenetycznych wyjaśnia się za pomocą mechanizmu
dziedziczności. Dzięki temu wyjaśnienia funkcjonalne w biologii otrzymują
wsparcie ze strony odpowiednich wyjaśnień przyczynowych. Wyjaśnieniom
funkcjonalnym w naukach społecznych często tego brakuje. Z drugiej strony
Adam Grobler, O metodzie i strukturze nauki 173
między instytucjami czy zjawiskami niekiedy występuje sprzężenie zwrotne:
funkcją jednych może być podtrzymywanie drugich. Wówczas wyjaśnienie
ich trwałości ma odpowiednie tło przyczynowe.
Funkcjonalizm
– pochodzący od Bronisława Malinowskiego [1922/1967]
pogląd, wedle którego wszystkie zjawiska społeczne mają wyjaśnienie
funkcjonalne – przybiera bardziej jednoznacznie naturalistyczną formę w
socjobiologii
[Wilson 1976, 1978/1988]. Traktuje ona ewolucję norm
kulturowych jako przedłużenie ewolucji biologicznej, silnie ograniczone
względami biologicznie przystosowawczymi. Np. altruizm ludzki, który
przybiera zmienne formy w zależności od okoliczności społecznych, jest
ugruntowany na altruizmie wykształconym w drodze tzw. doboru
krewniaczego. Dobór krewniaczy polega na upowszechnianiu pewnych
genów w populacji działaniem na rzecz przetrwania i reprodukcji własnych
krewnych .
Teoria doboru krewniaczego, w której jednostką selekcji są grupy
organizmów, a nie pojedyncze organizmy, powstała skutkiem
niewystarczalności indywidualizmu metodologicznego w teorii ewolucji.
Teoria doboru naturalnego nie wyjaśnia bowiem altruizmu, ponieważ
nieliczni egoiści w populacji altruistów osiągaliby większe od innych korzyści,
co sprzyjałoby ich osobniczemu przetrwaniu i, w konsekwencji,
upowszechnieniu genu egoizmu. Z drugiej strony [Axelrod 1984] pokazał, że
altruizm i powstanie współpracy społecznej można wyjaśnić również –
indywidualistycznymi metodologicznie – środkami teorii racjonalnego
wyboru i teorii gier. Punktem wyjścia jego rozważań jest tzw. dylemat
więźnia odwzorowujący sytuację, w której wzajemny altruizm popłaca, ale
egoizm jest bardziej opłacalny od nieodwzajemnionego altruizmu. Więzień
ma do wyboru lojalną współpracę z drugim więźniem lub zdradę.
W przypadku współpracy otrzymuje łagodną karę, gdy współwięzień go nie
zdradzi, zaś surową, gdy zdradzi. W przypadku zdrady otrzymuje średnią
karę bez względu na postępowanie drugiego więźnia. Rozpatrując iterowany
Adam Grobler, O metodzie i strukturze nauki 174
dylemat więźnia, tj. serię dylematów z udziałem tych samych uczestników,
można dowieść, że najbardziej racjonalną strategią, w sensie teorii
racjonalnego wyboru, jest wet za wet: zacząć od współpracy następnie na
współpracę ze strony drugiego uczestnika odpowiadać współpracą w
następnej rundzie, na zdradę odpowiadać zdradą. W ten sposób uczestnicy,
w poszukiwaniu najskuteczniejszej strategii, uczą się współpracy.
Spór między indywidualizmem metodologicznym a holizmem ma
zasadnicze znaczenie dla problemu redukcji: jeżeli indywidualizm jest
słuszny, nauki społeczne redukują się do psychologii (por. II.12). Z drugiej
strony intencje są zrozumiałe tylko w kontekście kulturowym. poza nim nie
sposób odróżnić np. bezpośredniości, serdeczności, poufałości i
lekceważenia, albo zrozumieć wstydu, zazdrości czy pragnienia sławy.
Wydaje się zatem, że ewentualne indywidualistyczne redukcje są możliwe
jedynie przy ustalonym kontekście kulturowym, na zasadzie idealizacji w
pewnych przypadkach uprawnionej, w innych nie. Toteż osobiście skłonny
jestem zająć stanowisko pluralizmu metodologicznego, który dopuszcza zarówno
indywidualistyczne wyjaśnienia intencjonalne, jak i holistyczne wyjaśnienia
funkcjonalne, zgodnie z zasadą wnioskowania do najlepszego wyjaśnienia. W
stosunku do wyjaśnień intencjonalnych i funkcjonalnych, w ujęciu Kuipersa i
Wiśniewskiego, można bowiem sformułować kryteria względnej mocy
wyjaśniającej analogiczne do tych, jakie podałem dla wyjaśniania
przyczynowego w I.5.4. Szczegóły, ze względu na podobieństwo konstrukcji,
pominę.
Ostatnia kwestia, którą chciałem poruszyć w związku z domniemaną
odmiennością metodologii nauk społecznych i przyrodniczych, jest
wartościujące obciążenie tych pierwszych. Obiektywistyczny ideał nauki,
którego zwolennikiem w naukach społecznych był np. Max Weber, domaga
się ścisłego oddzielenia faktów i wartości. Z drugiej strony, często powiada
się, że w naukach społecznych nie sposób uniknąć wartościowania. Niektóre
kierunki czynią z tego nawet cnotę, jak np. szkoła krytyczna, która lansuje
Adam Grobler, O metodzie i strukturze nauki 175
marksowskiego pochodzenia pogląd, że celem teorii społecznej jest
emancypacja grup uciśnionych. Teoria taka zakłada zatem ocenę, które
grupy są uciśnione i dlaczego. Po doświadczeniach marksizmu, którego
próby zastosowania w praktyce doprowadziły do skutków odległych od
teoretycznych celów, program szkoły krytycznej musi budzić nieufność.
W ostatnich latach krytyka feministyczna nauk społecznych wskazuje na
seksistowski charakter wielu jej pojęć. Za przykład można przytoczyć pojęcie
dochodu na gospodarstwo domowe, które ignoruje korzyści dla rodziny z
nieopłacanej pracy domowej kobiety. Różne warianty feminizmu [Harding
1986] wysuwają rozmaite programy uwolnienia nauki od męskich uprzedzeń
i budowania jej np. z punktu widzenia “kobiecych wartości”. Część tej krytyki
rozciąga się również na nauki przyrodnicze, której zainteresowania jakoby
odzwierciedlają męski światopogląd czyniąc ją narzędziem męskiej
dominacji.
Jest zupełnie możliwe, że męskie preferencje wywierają wpływ na
selekcję i sposób stawiania problemów podejmowanych w nauce. Jest więcej
niż możliwe, że nauki społeczne nie są wolne od przesądów, w tym
przesądów seksistowskich. Gdy idzie o przesądność, różnica między
naukami przyrodniczymi a społecznymi może być nie jakościowa, ale
kwestią stopnia.
Jak już mówiłem (I.4.1), nie można nie mieć przesądów, ale można je
krytykować. Odpowiadając na krytykę feministyczną James R. Brown [1989]
proponuje pluralizm ujęć i ich krytyczne porównywanie. Kwestię obciążenia
wartościującego można potraktować podobnie, jak uteoretyzowanie
obserwacji. Wartościowanie może wpływać na określenie dziedziny teorii,
może przejawiać się w zakładanych przez nią presupozycjach. Presupozycje
wszakże podlegają krytyce według wzorów przedstawionych w (I.4.2, II.11).
Toteż obciążenie wartościujące teorii nie stwarza dodatkowych, w
porównaniu z uteoretyzowaniem obserwacji, problemów metodologicznych.
Adam Grobler, O metodzie i strukturze nauki 176
III.3. Psychologia
Psycholog
ii poświęcam osobne uwagi, ponieważ zajmuje ona niejako
pośrednią pozycję między naukami przyrodniczymi a społecznymi. Do nauk
przy
rodniczych zbliża ją szersza stosowalność eksperymentu niż np. w
socjologii oraz związki niektórych działów psychologii z fizjologią i medycyną.
Z naukami społecznymi łączy ją wrażliwość na kontekst kulturowy
i domniemanie wolnej woli indywiduów jej dziedziny przedmiotowej. Z uwagi na to
w projektach eksper
ymentów należy uwzględniać ewentualne różnice kulturowe
między jego uczestnikami oraz należy stosować maskowanie. Polega ono na
zatajaniu przed uczestnikami eksperymentu jego właściwego celu, aby
uniknąć dążenia z ich strony do przedstawienia się w korzystnym świetle.
Np. w badaniach wpływu okoliczności na skłonność do udzielania pomocy
znajomość celu eksperymentu na pewno miałaby wpływ na zachowanie jego
uczestników.
Pośrednia pozycja psychologii między naukami przyrodniczymi a
społecznymi powoduje, że problem redukcji psychologii do nauk bardziej
podstawowych ma kluczowe znaczenie dla problemu redukcji nauk.
Aczkolwiek redukcjonizm został już na kartach tej książki osądzony, w celu
pogłębienia tematu warto prześledzić jego trudności w zastosowaniu do
psychologii. W tej dyscyplinie redukcjonizm ma szczególne znaczenie
filozoficzne przez swoje związki z problemem psychofizycznym
(zagadnieniem duszy i ciała).
Nacisk empiryzmu logicznego na weryfikowalność w obserwacji
przyczynił się do spopularyzowania behawioryzmu, pochodzącego od
Watsona [1913]. Behawioryzm metodologiczny polega na odrzuceniu psychologii
introspekcyjnej, która zakładała uprzywilejowany dostęp poznawczy do
stanów własnego umysłu. Powątpiewając w wiarygodność introspekcji,
behawioryzm głosił, że jedynie publicznie obserwowalne zachowania mogą
Adam Grobler, O metodzie i strukturze nauki 177
stanowić świadectwo empiryczne teorii psychologicznej. Behawioryzm naukowy
szedł dalej, odrzucając wszelkie teoretyzowanie na temat wewnętrznych
stanów umysłu, na korzyć poszukiwania wyłącznie prawidłowości
zachowania w reakcji na bodźce. Główną słabością tego stanowiska są
trudności w zbudowaniu adekwatnej teorii uczenia się bez pojęcia “pamięci”,
które zgodnie z jego zasadami powinno zostać wyeliminowane ze słownika
nauki. Behawioryzm naukowy jest formą redukcjonizmu eliminacyjnego.
Należy od niego odróżnić behawioryzm analityczny, stanowisko kojarzone
głównie z Gilbertem Ryle’em [1949], które jest tezą na temat znaczenia.
Mianowicie, mówiąc o wewnętrznych stanach lub własnościach umysłu,
według tej formy behawioryzmu, nie mamy na myśli nic więcej, jak tylko
skłonność do określonego zachowania się. Twierdząc np., że Jan jest
inteligentny, nie przypisujemy mu jakiejś tajemniczej, nieobserwowalnej
cechy, lecz mówimy, że na ogół zachowuje się w sposób, który określamy
jako inteligentny. Behawioryzm upadł głównie z tego powodu, że
zachowanie wyjaśniamy zazwyczaj odwołując się do pragnień i mniemań
podmiotu. Jak mówiliśmy w III.2, bez tego, zamiast o zachowaniu,
moglibyśmy mówić jedynie o ruchach ciała w przestrzeni.
Niedostępność wewnętrznych stanów umysłu dla obserwacji jest jednak
silnym motywem poszukiwania rozwiązań redukcjonistycznych. Doniosłym
przykładem jest teoria identyczności, np. [Armstrong 1968], która
utożsamia stany umysłu ze stanami centralnego układu nerwowego. Po
ewentualnym odkryciu praw identyczności, według tej koncepcji, można
będzie prawa psychologii zredukować, metodą Nagla (II.12), do praw
neurofizjologii. Wadą tej teorii jest wynikający z niej szowinizm gatunkowy:
jeżeli stany ludzkiego umysłu są identyczne ze stanami ludzkiego układu
nerwowego, organizmy o inaczej zbudowanym układzie nerwowym nie
mogą mieć stanów psychicznych takich, jak ludzie: postrzeżeń, pamięci,
pragnień, bólu itd.
W odpowiedzi na ten zarzut powstał funkcjonalizm, pogląd wedle którego
Adam Grobler, O metodzie i strukturze nauki 178
identyczne stany umysłu mogą mieć różne materialne realizacje, tj. w
różnych układach nerwowych, “układu” komputera nie wyłączając. Są one
identyfikowalne podług funkcji przyczynowej, którą pełnią w wyjaśnieniach
zachowania. Funkcjonalizm jest też formą redukcjonizmu, ponieważ stany
umysłu są określone wyłącznie przez ich relacje przyczynowe z bodźcami i
reakcjami. Jego słabością jest zbytni liberalizm, zaliczający do uniwersum
dziedzin
y psychologii również komputery.
Inną formą redukcjonizmu jest materializm eliminatywistyczny [Churchland
1988]. Zgodnie z nim posługująca się terminami mentalistycznymi
(odnoszącymi się do stanów umysłu) “psychologia potoczna” (folk psychology)
jak dotąd ponosi same klęski i w związku z tym nie ma nadziei na dokonanie
w niej postępu poznawczego. Dlatego należy całkowicie porzucić
mentalistyczną psychologię i zastąpić ją całkowicie neurofizjologią.
Jest jednak nader wątpliwe, czy ewentualna przyszła neurofizjologia
będzie w stanie dostarczyć środków, które mogłyby zastąpić terminy
mentalistyczne w wyjaśnieniach nauk społecznych. Dlatego perspektywy
redukcjonizmu w psychologii są mało zachęcające. Antyredukcjonistyczny
argument, bardzo podobny do późniejszego argumentu Fodora (II.12),
sformułował Donald Davidson [1970]. Zgodnie z nim nie ma praw
psychofizycznych, bo nie ma korelacji między typami zdarzeń fizycznych i
mentalnych (a jedynie między okazami), co nie wyklucza istnienia praw
psychologicznych. Jego stanowisko nazywa się monizmem anomalnym.
O
sobiście w sprawie psychologii również skłonny jestem zająć stanowisko
pluralizmu metodologicznego połączone z zasadą wnioskowania do
najlepszego wyjaśnienia. Wybór strategii badawczej w konkretnym
przypadku zależy od najlepszych dostępnych wyjaśnień. Niekiedy mogą one
być psychofizyczne, jak wyjaśnienia depresji przez niedobór hormonów,
niekiedy psychospołeczne (funkcjonalistyczne), jak wyjaśnienia bierności
tłumu wobec chuligaństwa, niekiedy czysto psychologiczne
(indywidualistyczne).
Adam Grobler, O metodzie i strukturze nauki 179
III.4. Nauki nomotetyczne i idiograficzne
Neokantyzm (Windelband, Rickert) odróżniał historię od nauk
przyrodniczych ze względu na to, że pierwsza, inaczej niż drugie, nie dąży
do formułowania praw, lecz zajmuje się opisem indywidualnych
osobliwości zdarzeń. Zaowocowało to rozróżnieniem na nauki
nomotetyczne (formułujące prawa) i idiograficzne (opisowe). Max Weber
[1903] do nauk idiograficznych zaliczał też socjologię. Choć dopuszczał w
niej formułowanie praw, uważał, że w naukach społecznych najbardziej
interesujące są właśnie indywidualne osobliwości. Wedle sugestii Diltheya
podział na nauki nomotetyczne i idiograficzne pokrywa się z podziałem na
nauki przyrodnicze i społeczne.
Z dzisiejszego punktu widzenia sprawa nie jest taka prosta. Wydaje się,
że niektóre nauki przyrodnicze są idiograficzne: astronomia, spore połacie
zoologii, botaniki i geologii, nie mówiąc już o geografii. Z kolei z nauk
społecznych socjologia, ekonomia, a zwłaszcza psychologia, formułują
prawa. Nawet w narracji historycznej często można znaleźć rozmaite
uogólnienia o charakterze prawopodobnym, np. “niezadowolenie ludu, po
przekroczeniu pewnej granicy, powoduje bunt” [por. Topolski 1978]. Myślę,
że z uwagi na uteoretyzowanie obserwacji aspekty nomotetyczny i
idiograficzny różnych nauk trudno od siebie oddzielić. Fakty są
konstrukcjami teoretycznymi, której instrumentami są prawa.
Indywidualne osobliwości są nimi ze względu na odstępstwo od prawa,
naruszenie warunku ceteris paribus. Inaczej nie byłyby osobliwościami,
a przynajmniej zrozumiałymi osobliwościami. Jeżeli geografia wydaje się
nauką czysto idiograficzną, to dlatego, że jej fakty zaczerpnięte są z
różnych nauk i przez różne, pozageograficzne nauki uteoretyzowane:
geologię, meteorologię, demografię itd.
Adam Grobler, O metodzie i strukturze nauki 180
IV. STATUS POZNAWCZY NAUKI
IV.1. Zagadnienie realizmu
Francis Bacon [1620/1955] ogłosił, że celem nauki jest prawda
i wynalazki. To sformułowanie stało się osią sporu filozoficznego,
prowadzonego do dzisiaj. Mianem realizmu określa się doktryny
akcentujące pierwszy człon maksymy Bacona. Nauka, z tego punktu
widzenia, jest bezinteresownym poszukiwaniem prawdy, rozumianej
klasycznie, jako pewnego rodzaju zgodność myśli z rzeczywistością,
a ewentualne wynalazki są miłą premią za czysto intelektualne
osiągnięcia. Natomiast różne odmiany instrumentalizmu doceniają dążenia
intelektualne tylko jako środki sprzyjające zaspokajaniu potrzeb
praktycznych. Prawdę jako przedmiot kontemplacji uważają za cel
nieinteresujący lub utopijny. Niekiedy odrzucają samo pojęcie prawdy jako
niezrozumiałe albo redukują prawdę do wartości instrumentalnych,
najczęściej do trafności przewidywań wyprowadzonych za pomocą teorii.
Sam termin “instrumentalizm” ma sugerować, że teorie naukowe są
jedynie narzędziami przewidywania zjawisk, projektowania technologii czy
jakoś inaczej określonego radzenia sobie człowieka w świecie.
Instrumentalizm najczęściej łączy się ze skrajnymi formami empiryzmu.
Klasycznym przykładem jest George Berkeley [1710/1956]. W podobnym
do niego, późniejszym sformułowaniu empiriokrytycyzmu Ernsta Macha [1885],
funkcją nauki jest systematyzacja, czyli skrótowy opis doświadczenia.
Terminy teoretyczne nie odnoszą się do niczego, służą one jedynie
ekonomizacji myślenia.
W Stanach Zjednoczonych najbardziej
wpływową, i do dziś silnie oddziałującą odmianą empiryzmu był
Adam Grobler, O metodzie i strukturze nauki 181
pragmatyzm. Jego twórca, Charles Sanders Peirce
[1966] sformułował zasadę
pragmatyczną, w myśl której myśl jest sensowna wtedy i tylko wtedy, gdy
wynikają z niej pewne dyrektywy działania. Kontynuator jego idei, William
James [1907/1999], wyprowadził stąd wniosek, że prawdziwość myśli
sprowadza się do skuteczności działania podjętego wedle dyrektyw,
o których mowa. Prawda nie jest, według niego, czymś do odkrycia, lecz
czymś do zrobienia, do uskutecznienia w działaniu. Sam Peirce pojmował
j
ednak prawdę realistycznie, jako coś, co odkrywa się, jako idealną granicę
poznania, w nieskończonym, samokorygowalnym procesie badania
naukowego.
We Francji Henri Bergson [1903] uznając instrumentalną wartość nauki
uważał, że dostarcza ona systematycznie zafałszowanego obrazu
rzeczywistości. Skutkiem stosowania pojęć nauka ujmuje przedmiot
w znieruchomieniu, a nie w trwaniu niepodzielnym na punktowe chwile,
które można uchwycić za pomocą pozapojęciowej, ponadintelektualnej
intuicji metafizycznej. Pod jego wpływem Pierre Duhem upatrywał źródło
prawdziwego poznania w doświadczeniu religijnym. Z powodów, o których
była mowa w I.3.3, za cel nauki uważał nie prawdę, lecz prostotę i
zgodność z doświadczeniem. Symplicyzm, jak zwane jest stanowisko Duhema, jest
odmianą konwencjonalizmu: wybór między alternatywnymi hipotezami, jest
według niego kwestią konwencjonalnej decyzji. Skrajny konwencjonalista,
Édouard Le Roy [1889-90], utrzymywał wręcz, że nauka jest w całości
sztucznym tworem. Prawa nauki są, według niego, definicjami pojęć w nich
występujących. Toteż pod naciskiem doświadczenia, zamiast odwoływać
prawa jako fałszywe w swej treści, dokonuje się ad hoc manipulacji na definicjach
pojęć. Bardziej umiarkowany Henri Poincaré [1902, 1905] twierdził, że
choć każda hipoteza ma pewien element konwencjonalny, działający na
podobieństwo definicji, to ma również i składnik empiryczny. Dzięki temu
prawa nauki mają wprawdzie wyraz językowy zależny od wyboru konwencji,
to jednak zdają sprawę z pewnych stałych relacji między rzeczami. Dla
Adam Grobler, O metodzie i strukturze nauki 182
odróżnienia od instrumentalistycznego konwencjonalizmu Duhema i Le
Roya, stanowisko Poincarégo nazywa się niekiedy realizmem
strukturalnym.
Światopogląd religijny nie zawsze, jak w przypadku Duhema, albo
współcześnie van Fraassena, o którym będzie mowa niżej, sprzyja
instrumentalizmowi. Znane porzekadło Alberta Einsteina – “Bóg nie gra
w kości” – jest wyrazem realizmu podobnym do trzy wieki wcześniejszego
przekonania Kartezjusza o prawdomówności Boga. Stereotyp rzekomo
nieusuwalnego konfliktu między doktryną religijną a nauką, podkreślając
przypadki w rodzaju sprawy Galileusza, kopernikanizmu i darwinizmu,
prze
słania fakt, że jednym z konstytutywnych elementów kultury zachodniej
jest motyw uprawiania nauki na chwałę Bożą.
Postawiony prze
z Koło Wiedeńskie problem interpretacji empirycznej
terminów teoretycznych (II.2) dał nowy impuls instrumentalizmowi.
Ewentualny sukces redukcji do terminów obserwacyjnych dowiódłby, że terminy
teoretyczne są pod względem czysto poznawczym zbędne, że pełnią rolę
jedynie dogodnych skrótów pozwalających na zwięzłe ujęcie
doświadczenia. Wówczas można byłoby przyjąć, że np. elektrony są równie
fikcyjne, jak krasnoludki, tyle że w odróżnieniu od krasnoludków
rzeczywiście robią porządki: przydają się do porządkowania doświadczenia.
Z drugiej strony trudności realizacji programu redukcjonistycznego
prze
mawiały na korzyść realizmu. Ernest Nagel [1961/1970] zajął w tej
sprawie stanowisko neutralne. Uznał, że spór ma charakter czysto
werbalny, ponieważ jego ewentualne rozstrzygnięcie nie ma żadnych
konsekwencji metodologicznych, tj. nie ma wpływu na wybór norm
postępowania naukowego.
Na przekór temu Popper [1963] sformułował kilka argumentów
podkreślających różnice metodologiczne między realizmem a
instrumentalizmem. Dowodził m.in., że teorie naukowe nie tylko
dostarczają reguł działania, ale służą też teoretycznej dyskusji na temat
Adam Grobler, O metodzie i strukturze nauki 183
zakresu ich stosowalności, w tym dyskusji na temat zakresu
instrumentalnej przydatności teorii sfalsyfikowanych. Podważenie przez
Poppera rozróżnienia obserwacyjne/teoretyczne usuwa wspomniany
w poprzednim akapicie motyw instrumentalizmu. Jednak dość długo
pojęcie prawdy uważano za zbyt mgliste, by można było je poważnie
traktować. Dlatego zdecydowany zwrot w kierunku realizmu Popper
wykonał dopiero po zaznajomieniu się z teorią prawdy wysuniętą przez
Tarskiego (II.8). Ostatecznie nauka, według Poppera, jest przedsięwzięciem
samokorygującym się, jak wcześniej u Peice’a, i przybliża nas do prawdy
przez wysuwanie i testowanie kolejnych hipotez poprawiających błędy
sfalsyfikowanych poprzedniczek.
Upadek empiryzmu logiczn
ego bynajmniej sporu nie rozstrzygnął. Stephen
Toulmin [1972], nawiązując do pragmatyzmu Deweya [1938], traktuje
naukę jako narzędzie przystosowawcze człowieka do środowiska. Teorie
naukowe, czy w ogóle uniwersalne prawa nauki, nie pełnią, według niego,
funkcji opisowej, są jedynie “talonami na wnioskowanie” od zdań
opisujących aktualne warunki do zdań wyrażających przewidywania
przyszłego stanu rzeczy. Na marginesie: wcześniej od Toulmina, zdania
uniwersalne jako reguły wnioskowania indukcyjnego traktował J. S. Mill
[1843/1962]. Motyw ewolucjonistyczny – ujęcie nauki jako narzędzia
przystosowania – który w USA kojarzy się z instrumentalizmem, w Europie,
m.in. u Poppera i Konrada Lorenza [1973/1977], łączy się z realizmem.
Po upadku empiryzmu logicznego powszechne uznanie tezy o uteoretyzowaniu obserwacj
i
doprowadziło do powstania nowych form antyrealizmu. Np. według
Thomasa Kuhna [1962/1968], nauka polega na rozwiązywaniu łamigłówek
zgodnie z regułami obowiązującego w danym czasie tzw. paradygmatu
(por. II.9). Zmiana paradygmatu przynosi tak radykalną zmianę poglądu na
świat (Weltanschauung), że o żadnym przybliżaniu się nauki do prawdy nie
może być mowy. Z drugiej strony pojawił się tzw. “ostateczny argument na
korzyść realizmu”, zaproponowany przez Richarda Boyda i przejęty przez
Adam Grobler, O metodzie i strukturze nauki 184
Hilarego Putnama. Mówi on, że gdyby nasze teorie nie były choćby
w przybliżeniu prawdziwe, sukcesy nauki zakrawałyby na cud.
Larry Laudan [1977] wzor
em Kuhna, aczkolwiek unikając radykalnych
konsekwencji jego stanowiska, uznał, że zadaniem nauki jest
rozwiązywanie problemów. Nawiązując do Deweyowskiego pragmatyzmu,
odrzucił prawdę jako cel utopijny i dlatego nie do zaakceptowania [Laudan 1984].
Tymczas
em brytyjski kontynuator Poppera, John Watkins [1984/1989]
przedstawił rozróżnienia, które pozwalają obronić realizm przed zarzutem
utopizmu. O celu można według niego mówić w trzech znaczeniach: jako o
czymś do osiągnięcia, jak trafienie w dziesiątkę, jako o czymś, do czego
można się zbliżać bez ostatecznego osiągnięcia, jak zwiększanie
dokładności pomiaru, oraz jako o kierunku dążenia bez określonego
punktu docelowego, jak przedłużanie ludzkiego życia za pomocą
medycyny. Prawdę uznał on za cel nauki w tym trzecim sensie, cel
realizowany przez eliminację błędów (falsyfikację kolejno wysuwanych
hipotez).
Teza o uteoretyzowaniu obserwacji nasuwa myśl, obecną już u Poppera,
że teorie naukowe powstają nie tyle w wyniku empirycznego odkrycia, ile jako
twórcze p
omysły czy mniej lub bardziej swobodne konstrukcje umysłu. Bas
van Fraassen [1980] ten sam motyw uczynił istotnym składnikiem swojego
empiryzmu konstruktywnego
. Jest on niejako odwróceniem realizmu Wilfrieda
Sellarsa [1963], przeciwstawiającego prawdziwy, naukowy wizerunek
świata, z atomami i cząstkami elementarnymi, złudnemu, zjawiskowemu
wizerunkowi, z przedmiotami potocznego doświadczenia. Van Fraassen
twierdzi, że celem nauki może być jedynie adekwatność empiryczna, tj.
prawdziwość teorii w zakresie obserwowalnych (bez użycia przyrządów)
przedmiotów i zdarzeń. O prawdziwości teorii w zakresie rzeczy
nieobserwowalnych nie można się nigdy przekonać z uwagi na niemożność
rozstrzygnięcia między teoriami równoważnymi empirycznie: zgodnymi w
dziedzinie obserwo
walnej, a odmiennych poza nią.
Adam Grobler, O metodzie i strukturze nauki 185
Empiryzm konstruktywny, w odróżnieniu od klasycznego
instrumentalizmu, uznaje tezę o uteoretyzowaniu obserwacji. W
szczególności, “obserwowalny” jest terminem teoretycznym. Nasze teorie
decydują o tym, co należy uznać za obserwowalne, a co nie. Niektórzy
krytycy van Fraassena dopatrywali się w tym sformułowaniu błędnego
koła. Czy ten zarzut jest słuszny, nie jest jasne. Z całą pewnością
natomiast empiryzm konstruktywny zakłada antropocentryzm.
“Obserwowalność” bowiem znaczy tyle, co “obserwowalność dla
człowieka”. Uprzywilejowanie statusu epistemologicznego obserwacji
dokonywanych “gołym okiem” względem obserwacji za pomocą
sztucznych instrumentów (lub za pośrednictwem reakcji innych
organizmów) jest najbardziej kontrowersyjnym rysem tej koncepcji.
Zwłaszcza w świetle teorii obserwacji Shapere’a (II.10).
W odpowiedzi na empiryzm konstruktywny Ronald Giere [1988] ogłosił
realizm konstruktywny
. Będąc zwolennikiem podejścia semantycznego (II.8), za
cel nauki uznał osiąganie coraz większego podobieństwa struktury modeli
do struktury modelowanej dziedziny. Słabością tej koncepcji jest
niejasność pojęcia podobieństwa. Jego związek z pochodzącą od Poppera,
a wadliwie przez niego ujętą, ideą przybliżania się do prawdy (verisimilitude =
“prawdoupodobnienie”)
szczegółowo analizował Ilkka Niiniluoto [1987]. Słabą
stroną jego teorii jest zdefiniowanie oceny stopnia podobieństwa do
prawdy za pomocą pojęć zaczerpniętych z logiki indukcji Carnapa (I.2.2),
obecnie mocno zdezaktualizowanej. Analizą pojęcia prawdoupodobnienia
za pomocą wyrafinowanych środków matematycznych zajmowali się
również inni, m.in. Kuipers i David Miller i jest ono w dalszym ciągu
przedmiotem zainteresowania teoretyków.
Pojawiły się również stanowiska pośrednie między realizmem
a antyrealizmem. Ian Hacking [1983] rozróżnił realizm w sprawie teorii (thory-
realism) i realizm w sprawie przedmiotów (entity-realism
). Pierwszy jest poglądem,
wedle którego kolejne teorie naukowe zmierzają do prawdy, drugi
Adam Grobler, O metodzie i strukturze nauki 186
natomiast polega na uznaniu rzeczywistego istnienia przedmiotów, o
których jest mowa w teoriach. Drugi jest konsekwencją pierwszego, ale nie
na odwrót. Realizm w sprawie przedmiotów, za którym opowiada się
Hacking, nie wymaga uznania teorii, które ich dotyczą, za prawdziwe, czy
w części prawdziwe. Wymaga tylko uznania kilku prawd podstawowych,
niezbędnych do identyfikacji przedmiotów, o których mowa. Prawdy te
zresztą mogą być od teorii tych przedmiotów niezależne. Jako kryterium
istnienia – które z oczywistych powodów musi być niezależne od akceptacji
teorii, o których mowa – przyjmuje Hacking przydatność do manipulacji:
istnieją te przedmioty, którymi można się posłużyć do manipulacji innymi
przedmiotami (w eksperymencie). Pogląd Hackinga bywa nazywany nowym
eksperymentalizmem (w nawiązaniu do eksperymentalizmu Deweya).
Z kolei Nancy Cartwright [1983] ogłosiła, że “prawa fizyki kłamią”:
uniwersalne prawa nauki o dużym stopniu ogólności i dużej mocy
wyjaśniającej, które przeciwstawia konstruowanym za ich pomocą praw
fenomenologicznych o niskim stopniu ogólności, są fałszywe. Pogląd swój
nazwała instrumentalizmem, ponieważ prawa uniwersalne są, zgodnie
z nim, narzędziami formułowania praw fenomenologicznych. Jednak w
stosunku do tych ostatnich Cartwright zajmuje stanowisko zdecydowanie
realistyczne, nie uważając ich za jedynie narzędzia przewidywania.
Realizmem, o ile nie nawet esencjalizmem, wypada też nazwać jej pogląd
[1990], w myśl którego przedmioty występujące w przyrodzie, zależnie od
ich rodzaju, mają pewne stałe dyspozycje do określonego typu działania na
inne przedmioty, zależnie od ich rodzaju. Oddziaływania przyczynowe
redukują się do splotów manifestujących się dyspozycji.
Inną od instrumentalizmu czy ogólniej, antyrealizmu, opozycją wobec
realizmu są różne formy relatywizmu. Już wspominałem (I.4.1), że o
relatywizm oskarżano Thomasa Kuhna [1962/1968] w związku z jego tezą
o niewspółmierności teorii naukowych.. Wzrost liczby opornych, tj. nie
dających się rozwiązać łamigłówek, powoduje kryzys zaufania do
Adam Grobler, O metodzie i strukturze nauki 187
panującego paradygmatu. Dochodzi do rewolucji, która ustanawia nowy
paradygmat, rozpoczyna się kolejny okres nauki normalnej. Teorie
przedzielone rewolucją naukową są niewspółmierne, co znaczy m.in. że
mają radykalnie odmienne ontologie. Zmiana paradygmatu ma charakter
globalny: wedle użytej przez Kuhna metafory, uczeni zachowują się
w swojej działalności tak, jak gdyby w trakcie rewolucji naukowej
przeprowadzili się na inną planetę. Kuhn sugeruje, że nie ma
ponadparadygmatycznych kryteriów oceny teorii i dlatego, mimo jego
energicznych prostestów, powszechnie został uznany za relatywistę.
Z Kuhnem często kojarzony jest Paul Feyerabend który jednocześnie z
nim ogłosił nieco inną wersję tezy o niewspółmierności teorii naukowych.
Feyerabend, początkowo zbliżony do Poppera, stopniowo wyprowadzał
z założeń jego filozofii coraz bardziej kontrowersyjne konsekwencje
usiłując, jak się kiedyś wyraził, sprowadzić ją do absurdu. W stadium
umiarkowanym [1962] ogłosił zasadę pluralizmu teoretycznego, w myśl
której należy równolegle rozwijać różne, wzajemnie niewspółmierne teorie,
jako narzędzia krytyki innych teorii. Zasada ta, zrazu instrumentalna ze
względu na poszukiwanie prawdy, przerodziła się w doktrynę anarchizmu
metodologicznego
[1974/1996]. Według niej należy, nie zważając na
ograniczenia metodologiczne, wysuwać coraz to nowe teorie, nie
rezygnując zarazem ze starych, aby mieć jak najwięcej punktów widzenia
na rzeczywistość. Wielość ujęć teoretycznych staje się celem
autonomicznym. Wpadłszy w koleiny myślenia lewackiego, Feyerabend
[1978] doszedł wreszcie do wniosku, że celem nauki jest to samo, co
celem każdej ludzkiej działalności, tj. szczęście. Z tego punktu widzenia
nauka nie jest ani lepsza, ani gorsza od innych form kultury, np. astrologii,
magii lub znachorstwa.
Zagadnienie pluralizmu teoretycznego skądinąd jest problemem,
którego Popper nie docenił, a podjął go później Lakatos [1970]. Kwestię tę
komentowałem w I.3.4.
Adam Grobler, O metodzie i strukturze nauki 188
Z tezą o niewspółmierności teorii usiłował odeprzeć, ze stanowiska
realizmu, m.in. Hilary Putnam [1975]. Rozwinął on esencjalistyczną
teorię odniesienia przedmiotowego terminów naukowych, wzorowaną
na podobnej teorii Saula Kripkego [1971]. Wedle Putnama, mimo głębokich
zmian teoretycznych, nie zmienia się odniesienie przedmiotowe, czyli
ekstensja, większości terminów naukowych (inaczej mówiąc: zmienia się
treść pojęć naukowych, lecz w większości przypadków nie zmienia się ich
zakres). Np. zmieniają się teorie i modele atomu, jednak termin “atom”
odnosi się wciąż do tego samego jestestwa.
Później Putnam przeszedł na pozycje realizmu wewnętrznego,
ogłaszając tezę o względności pojęciowej. Zgodnie z nią nie ma żadnych
prawd absolutnych, niezależnych od wyboru układu pojęciowego. Nie
można bowiem nic sensownie powiedzieć o świecie “samym w sobie”, bez
uprzedniego narzucenia nań pewnej siatki pojęciowej, bez uprzedniej
kategoryzacji świata. Pojęcie układu pojęciowego, którego autorstwa nie
podejmuję się ustalić, wyłoniło się z dyskusji wokół pomysłów Kuhna i stało
się narzędziem artykulacji zainspirowanych przez niego, rozmaitych wersji
relatywizmu. Donald Davidson [1974] i Karl Popper [1994] krytykując
relatywizm próbowali dowieść, że to pojęcie jest niespójne. Ich argumenty,
z powodów, których tu nie będę rozwijał (omawiałem je w Grobler [2000]),
nie stosują się stosunku do realizmu wewnętrznego, która zresztą różni się
od relatywizmu zasadniczo. Mianowicie, według Putnama, gdy układ
pojęciowy jest ustalony, o tym, co jest prawdą, a co nie, rozstrzyga świat.
Prawda jest więc czymś obiektywnym (realizm), aczkolwiek tylko wewnątrz
danego układu pojęciowego (wewnętrzny). Wydaje się, że układ pojęciowy
u Putnama jest tym, co Ludwig Wittgenstein [1922/1997] nazywał logiczną
przestrzenią możliwości. Z tą różnicą, że Wittgenstein milczy na temat
liczby takich przestrzeni i ewentualnym zastępowaniu jednej przestrzeni
przez inną.
Pojęcie prawdy u Putnama różni się od klasycznego nie tylko
Adam Grobler, O metodzie i strukturze nauki 189
relatywizacją do układu pojęciowego. Putnam odrzuca jako metafizyczny
pogląd, wedle którego mogą istnieć jakieś prawdy z zasady niepoznawalne
i nawet idealna teoria naukowa może być fałszywa. Zainspirowany
antyrealizmem semantycznym
Michaela Dummetta [1978], uznaje prawdę za
pojęcie epistemiczne, tj. niezrozumiałe bez odwołania się do możliwości jej
rozpoznania. Putnam nie odrzuca jednak zasady dwuwartościowości
, jak
Dummett. Ten ostatni utożsamiał prawdę ze słuszną stwierdzalnością
(correct assertibility), co zmusza do uznania zdań nierozstrzygalnych za ani
prawdziwe, ani fałszywe. Aby uniknąć rewizji logiki, Putnam zastępuje
słuszną stwierdzalność wyidealizowaną słuszną stwierdzalnością, czyli
stwierdzalnością w optymalnych warunkach poznawczych. Nawiązuje
w ten sposób do koncepcji Peirce’a, wedle której prawda jest idealną
granicą badania naukowego. Innym elementem pragmatyzmu u Putnama
jest myśl, że układy pojęciowe mogą być lepsze lub gorsze, w zależności
od naszych potrzeb. Z uwagi na te związki z tradycją amerykańską,
stanowisko Putnama bywa nazywane również realizmem pragmatycznym lub
neopragmatyzmem.
Do pragmatyzmu nawiązuje również Larry Laudan. Przejął on od Kuhna
myśl, że zadaniem nauki jest rozwiązywanie problemów.
W przeciwieństwie do niego uważa jednak, że istnieje obiektywne
kryterium postępu naukowego, mianowicie wzrost wydajności
w rozwiązywaniu problemów (Progress and Its Problems 1977). Pojęcie postępu
jest wszakże zrelatywizowane do przyjętych wartości. Pogląd ten również
nie prowadzi do relatywizmu. Stosując koncepcję wartości Deweya do
wartości i celów poznawczych, Laudan (Science and Values 1984) twierdzi, że
wybór między nimi podlega racjonalnej dyskusji. Należy przede wszystkim
odrzucić cele nieosiągalne, jakim jest np. prawda lub pewność, oraz cele
niejasno zdefiniowane, jak np. prostota. Kryterium wyboru celów
40 Wedle której
każde zdanie sensowne jest albo jednoznacznie prawdziwe, albo jednoznacznie fałszywe.
Dummett odrzucając tę zasadę sugeruje, że w odniesieniu do spornej klasy zdań, tj. klasy
zdań, na temat której toczy się spór między realizmem a antyrealizmem, należy stosować
logik
ę intuicjonistyczną.
Adam Grobler, O metodzie i strukturze nauki 190
poznawczych ma być stopień ich osiągalności za pomocą dostępnych
metod naukowych, oceniany z punktu widzenia najlepszych dostępnych
teorii. W obrębie trójkąta teorie-metody-cele rozwiązywane mają być
również inne kontrowersje związane z badaniami naukowymi. O wyborze
teorii decyduje ocena stopnia realizowania przez nie aktualnie
akceptowanych wartości poznawczych, dokonywana za pomocą
dostępnych reguł metodologicznych, a wybór między alternatywnymi
regułami metodologicznymi zależy od oceny ich efektywności jako
środków do aktualnie akceptowanych celów poznawczych, dokonywanej
z perspektywy aktualnej wiedzy naukowej.
Pod wpływem ideiw rodzaju uteoretyzowania obserwacji, paradygmatu
czy układu pojęciowego, które wzorem Kanta odrzucają nieuprzedzone
doświadczenie, oraz renesansu pragmatyzmu, powstały w latach
osiemdziesiątych koncepcje traktujące teorie naukowe jako swobodne
konstrukcje umysłu, a nie “odkrycia”. Należą do nich m.in. empiryzm
konstruktywny van Fraassena i realizm konstruktywny Gierego. Niektórych
innych filozofów konstruktywizm doprowadził do relatywizmu. Przykładem
może być irrealizm Nelsona Goodmana [1978/1997]. Podmiot poznający,
w jego ujęciu, jest zaangażowany w różne formy światotwórstwa, jak
nazywa on konstruowanie i przekonstruowywanie przedmiotu przy użyciu
uprzedniej wiedzy, wyobraźni i wrodzonych mechanizmów porządkowania
doznań zmysłowych. Światotwórstwo ma miejsce zarówno w działalności
naukowej, jak i artystycznej, a nawet w samym tylko postrzeganiu. Nie ma
podstaw, by wśród wielu tworzonych i przetwarzanych przez podmiot
światów wyróżniać któryś jako “bardziej rzeczywisty” od innych.
Stanowisko Goodmana na pozór jest zbliżone do realizmu wewnętrznego
Putnama. Brakuje w nim jednak idei regulatywnej w rodzaju optymalnych
warunków poznawczych.
Wśród licznych kierunków skłaniających się ku relatywizmowi
najważniejszą pozycję zajmuje Szkoła Edynburska skupiona wokół mocnego
Adam Grobler, O metodzie i strukturze nauki 191
programu socjologii wiedzy
sformułowany w latach siedemdziesiątych przez
Barry’ego Barnesa i Davida Bloora [1984/1993]. Postuluje on metodologię
badań socjologicznych nad mechanizmami powstawania i przekazywania
wiedzy, czy też tego, co w społeczeństwie uchodzi za wiedzę, która
zachowywałaby bezstronność wobec roszczeń do prawdziwości owej
wiedzy lub niby-wiedzy. Innymi słowy, w badaniach społecznych
mechanizmów tworzenia się konsensusu w nauce i jej funkcjonalnych
odpowiednikach w obcych kulturach zaleca abstrahowanie od stosunku
treści badanych systemów przekonań do ich przedmiotu. Pod wpływem
Kuhna, który podkreślał wpływ czynników psychologiczno-społecznych na
kształtowanie się paradygmatu, w rodzaju działania autorytetu, perswazji,
oślego uporu, a nawet tempa wymierania zwolenników starego
paradygmatu, mocny program rości sobie pretensje do nowej
epistemologii. Zgodnie z nią oceny wartości poznawczej przekonań zależą
jedynie od norm akceptowanych w danej kulturze, a nie od stosunku treści
tych przekonań do ich przedmiotu. Krótko mówiąc, nie to jest prawdziwe,
co prawdziwe, lecz to, co za prawdziwe uchodzi wedle norm
obowiązujących w danej kulturze.
Mocny progr
am zainspirował liczne studia nad społecznymi aspektami
kształtowania się pojęć naukowych. Do najbardziej znanych autorów
należą Bruno Latour i Steve Woolgar [1979], Arnold Pickering [1984]
i Steven Shapin [1996]. Twierdzą oni zgodnie, że fakty naukowe są
artefakt
ami, sztucznymi produktami subkultury uczonych, reguł społecznych
działających w ich środowisku. Że czynniki społeczne, w tym reguły
funkcjonowania instytucji naukowych, mają wpływ na rozwój nauki, nie
ulega wątpliwości. Jednak twierdzenie, że na ten rozwój obiektywna
rzeczywistość nie ma żadnego wpływu, lub że nie istnieje nic takiego, jak
obiektywna rzeczywistość, poza rzeczywistością skonstruowaną
społecznie, jest wyrazem relatywizmu. W ostatnich latach liderzy Szkoły
Edynburskiej wyrażają się znacznie bardziej powściągliwie, jak gdyby zdali
Adam Grobler, O metodzie i strukturze nauki 192
sobie sprawę z przesady roszczeń epistemologicznych mocnego programu.
Niedawno zaś amerykański filozof John Searle [1995] wystąpił z koncepcją,
która usiłuje pogodzić realizm naukowy z tezą o istnieniu licznej klasy
faktów społecznie skonstruowanych.
Pojęcia w rodzaju niewspółmierności, paradygmatu, anarchii
metodologicznej, światotwórstwa, względności pojęciowej, czy społecznej
konstrukcji faktów są chętnie podchwytywane przez pisarzy zaliczanych do
postmodernizmu
. Z perspektywy francuskiego pisarza Jacquesa Derridy
[1967/1999), wszelkie teksty (w tym naukowe) odnoszą się nie do żadnej
obiektywnej, pozatekstowej rzeczywistości, lecz do innych tekstów. Zaś
amerykański filozof, Richard Rorty [1980/1994], twierdzi, że wartości
naukowe są wytworem naszej kultury a prawda jest pustym
komplementem prawionym niektórym zdaniom. Z postmodernizmem
związana jest bardzo niejednorodna tzw. lewica akademicka (do której zalicza
się wspomniany wcześniej Feyerabend), wysuwająca różnego typu
roszczenia do emancypacji intelektualnej. Nawiązuje ona m.in. do Michela
Foucaulta [1961/1987], upatrującego w nauce jedynie narzędzie władzy.
Np. pewne odłamy feminizmu głoszą, że nauka jest narzędziem męskiej
dominacji, zaś treść teorii naukowych nie ma nic wspólnego z obiektywną
rzeczywistością, lecz odzwierciedla męskie interesy i męski sposób
postrzegania świata. Pojęcie prawicy akademickiej nie wykształciło się, jak
dotąd. Można byłoby nim objąć, jak sądzę, filozofów o skłonnościach
dogmatycznych, którzy bądź ignorują kierunki skłaniające się ku
relatywizmowi, bądź uważają, że relatywizm sam się obala. Np. niektórzy
polemiści twierdzą, że z założeń mocnego programu wynika, iż roszczenia
poznawcze socjologii wiedzy są nieuzasadnione. Sprawa jest jednak
bardziej skomplikowana. Dlatego warto raczej zmierzać w stronę
akademickiego centrum.
Adam Grobler, O metodzie i strukturze nauki 193
IV.2. Realizm pluralistyczny
Takie centralne stanowisko usiłowałem rozwijać w swoich [1993],
[2000], [2001]. Nawiązuje ono do realizmu wewnętrznego Putnama, a także
do konwencjonalizmu radykalnego Kazimierza Ajdukiewicza [1934]. W tej książce
można znaleźć liczne jego elementy, aczkolwiek przedstawione w
odmiennej stylistyce. Odpowiednikiem putnamowskiego układu
pojęciowego lub aparatury pojęciowej Ajdukiewicza jest tutaj język dziedziny
nauki (II.11). O tym
języku zakłada się, że na każde pytanie w nim sformułowane
istnieje prawdziwa odpowiedź, którą w zasadzie, tj. pomijając niesprzyjające
okoliczności poznawcze, można ustalić empirycznie, odpowiadając na
pytania na temat wyników stosownych eksperymentów lub obserwacji. A
więc zakłada się, że każde zdanie oznajmujące języka jest prawdziwym lub
fałszywym zdaniem o danej dziedzinie, przy czym pojęcie prawdy tu
występujące charakter podobnie epistemiczny jak u Putnama (i
Ajdukiewicza): prawdziwość zdania może być rozpoznana w idealnych
warunkach poznawczych.
Założenia, o których mowa, mają charakter hipotez. Sprowadzają się
bowiem do założeń o zachodzeniu pewnych implikacji lub słabych implikacji
erotetycznych, a więc prawdziwości pewnych presupozycji i hipotez wiedzy
zastanej, użyteczności poznawczej pewnych klasyfikacji, typologii,
częściowych definicji predykatów, idealizacji oraz prawdziwości warunków
ceteris paribus
. Hipotezy te mają charakter empiryczny, a ich odwołanie
skutkuje rewizją dziedziny teorii: wynalezieniem lepszego, ze względu na
określone potrzeby poznawcze, układu pojęciowego. Lepszego, tj. takiego,
że założenia wyznaczające daną dziedzinę są bardziej wiarygodne, a tym
samym bardziej wiarygodne są zdania akceptowane w ramach danej teorii jako
hipotetycznie prawdziwe.
Proces rozwoju teorii i ewolucji jej dziedziny można uważać jako
dwutorowy proces przybliżania się do prawdy. A właściwie wielotorowy,
Adam Grobler, O metodzie i strukturze nauki 194
ponieważ ewentualne rewizje wiedzy zastanej, niezbędne dla rozwoju danej
teorii i/lub jej dziedziny, mogą skutkować rozwojem innych teorii i ich
dziedzin. Przybliżanie się do prawdy jest zatem procesem wzajemnych
dostosowań do siebie różnych fragmentów wiedzy. Przybliżanie się do
prawdy jest tutaj pojęciem porządkowym (dokładniej: częściowego
pseudoporządku), a nie metrycznym. Eksplanacjonistyczne kryteria wyboru
hipotez, sformułowane w I.5.4, wyznaczają bowiem relację (częściowego
pseudoporządku) “bliżej-dalej”, a nie funkcję “odległe od tego-i-tego o tyle-a-
tyle”. Prawda nie jest tutaj rozumiana jako pewien punkt docelowy,
osiągalny lub przybliżalny. Z uwagi na idealizacyjny charakter naszego
poznania takiego punktu może nie być, albo może być więcej niż jeden.
Może bowiem być tak, choć nie musi, że nie istnieje ostateczna faktualizacja,
uchylająca wszystkie idealizacje, albo że w różnych kontekstach
poznawczych różne, niezgodne ze sobą idealizacje są trafne ze względu na
potrzeby poznawcze w danym kontekście.
Jest to dość heretycki sposób rozumienia prawdy i dlatego mój akces do
obozu realizmu może być potraktowany podejrzliwie. Zwłaszcza jeżeli wziąć
pod uwagę, że określenie dziedziny łączy się – jak napisałem w II.10 – z
konstruowaniem faktów. Klasycznie zaś pod pojęciem prawdy rozumie się
zgodność z absolutnymi, a więc obiektywnymi, a nie skonstruowanymi
faktami. Jednak moje stanowisko na tyle różni się od instrumentalizmu i
relatywizmu, że nie poczuwam się do nadużycia. Ujęcie rozwoju nauki jako
procesu wzajemnych dostosowań do siebie różnych współistniejących teorii i
ich dziedzin,jest dla instrumentalizmu niedostępne. Jeżeli teorie mają być
tylko narzędziem przewidywania, po cóż dbać o ich uzgadnianie ze sobą,
gdy każda z nich jest dobrym narzędziem w swojej dziedzinie. Toteż
instrumentalizm, włączając w to empiryzm konstruktywny, a nawet realizm
Hackinga ograniczony do przedmiotów, nie jest w stanie należycie wyjaśnić,
dlaczego Einsteina słusznie trapiły niezgodności między mechaniką
klasyczną a klasyczną teorią elektromagnetyzmu albo dlaczego skłonni
Adam Grobler, O metodzie i strukturze nauki 195
jesteśmy ewentualnie praktykować akupunkturę, ale nie zaakceptować
niezgodną z nauką zachodnią jej teorię, teorię kanałów transmisji energii
życiowej. Fakty skonstruowane można uznać dopiero wtedy, gdy mogą
pełnić funkcje teoretyczne nie tylko w jednej dziedzinie, lecz również w
innych, które się z nią krzyżują. “Zatory kanałów transmisji energii życiowej”
tego warunku nie spełniają, dlatego nie są faktami naukowymi. Fakty
naukowe są konstrukcjami na użytek nie czysto instrumentalny, ale na
użytek podawania coraz lepszych wyjaśnień zjawisk. Są więc konstrukcjami
dopasowywanymi, w miarę rosnących potrzeb, do hipotetycznej struktury
rzeczywistości.
Nie twierdzę, że wszystkie składniki teorii czy też modeli teoretycznych
mają interpretację realistyczną, tj. status domysłów na temat prawdy. Nie
wszystkie bowiem są pod kontrolą doświadczenia, nie wszystkie mają
interpretację empiryczną. Np. pytanie o to, czy trajektoria cząstki jest ciągła,
nie ma sensu empirycznego: ewentualne drobne nieciągłości mogą być
niewykrywalne. Natomiast wygodnie jest reprezentować ruch cząstki za
pomocą funkcji ciągłych. Dlatego własności aparatu matematycznego
stosowanego w danej teorii należy uznać raczej za własności środków
reprezentacji jej dziedziny niż za reprezentacje własności samej dziedziny.
Podobnie jak faktura płótna portretu jest własnością malarskiego środka
reprezentacji a nie reprezentacją cech powierzchowności portretowanej
damy. Ten element mojego stanowiska nazwałem w [1993] instrumentalizmem
matematycznym.
Nie znaczy to, że podzielam formalistyczne stanowisko empiryzmu
logicznego (III.1). Ale też nie jestem realistą w stylu Fregego i Russella.
Upatrywali oni jedyne uzasadnieni
e obiektywności matematyki w tym, że jej
przedmiot istnieje obiektywnie.
Ich systemy zmierzające do redukcji matematyki
do logiki miały udowodnić, że ostatecznym przedmiotem matematyki są
powszechnikami w rodzaju platońskich idei. System Fregego, jak
wspominałem (III.1), zawierał błąd wykryty przez Russella. Metaforycznie
Adam Grobler, O metodzie i strukturze nauki 196
rzecz ujmując, Russell wykazał, że platońskie zaświaty matematyczne w
ujęciu Fregego są przeludnione. Rozwiązanie Russella polegało na
wykluczeniu z królestwa matematyki nadmiaru przedmiotów za pomocą
odpowiednich aksjomatów. Można je porównać do prawa skazującego na
banicję nielegalnych imigrantów do świata idei. Później powstały inne
systemy aksjomatyczne teorii mnogości, m.in. von Neumana i Zermelo-
Fraenkla, które ten sam cel – ugruntowanie podstaw matematyki za pomocą
redukcji arytmetyki do teorii mnogości – osiągały inaczej. Ich systemy
również stanowiły swoiste prawo imigracyjne, ale każdy inne. Można stąd
wyciągnąć wniosek, że nie ma żadnych absolutnych kryteriów istnienia
w matematyce, a najwyżej względne kryteria współistnienia.
Paradoks Russella i hip
otetyczna możliwość pojawienia się innych paradoksów
skłoniła m.in. Brouwera i Heytinga do sprzeciwu wobec realizmu. Uznali oni
przedmioty matematyczne za konstrukcje ludzkiego umysłu, istniejące tylko
o tyle, o ile dadzą się skonstruować. Jak wspomniałem w (III.1), różne
warianty konstruktywizmu nie były ze sobą zgodne co do tego, jakie reguły
konstrukcji są dozwolone. Nie ma więc obiektywnej miary odróżniającej
autentyczne konstrukcje od pseudokonstrukcji.
Dlatego skłonny jestem zająć stanowisko pośrednie, wedle którego
matematyka jest nauką quasi-empiryczną (III.1), dostarczającą środków
budowania modeli teoretycznych nauk empirycznych. Jako taka, dopuszcza
hipotetyczne istnienie przedmiotów nieskonstruowanych, dopóki hipoteza o
ich istnieniu nie prowadzi do sprzeczności. Że tym sposobem przedmioty
matematyczne mają tylko istnienie względne, określone niejako zasadami
współistnienia, a nie absolutne istnienie, niezależne od istnienia innych
przedmiotów matematycznych, nie stanowi zasadniczej trudności. Świadczy
to jedynie o tym, że teorie matematyczne mogą mieć różne dziedziny,
zamiast tworzyć naukę o unikatowym świecie platońskich idei.
Na koniec parę słów na temat mocnego programu socjologii wiedzy.
Zapatruję się nań jako na program badań zakładający pewien warunek ceteris
Adam Grobler, O metodzie i strukturze nauki 197
paribus
: że wartość poznawcza przekonań nie ma wpływu na ich
rozpowszechnianie i utrwalanie się w społeczeństwie. Natomiast filozoficzne
teorie wiedzy, obecnej nie wykluczając, zakładają warunek ceteris paribus tej
treści, że wartość poznawcza przekonań jest decydująca dla ich społecznej
akceptacji. Historia nauki dostarcza przykładów naruszenia tego warunku:
hitlerowska fizyka, stalinowska biologia. Przyjmując niejako komplementarne
warunki ceteris paribus, teorie nie stają się konkurencyjne wobec siebie, ale
właśnie komplementarne. To znaczy, mogą one przyczynić się do
rozróżnienia okoliczności, w których jedno lub drugie założenie ceteris paribus
jest uprawnioną idealizacją. Na tej szkicowej próbie zastosowania zasad
metodologicznych tu wyłożonych do samej metodologii muszę, niestety, na
razie poprzestać.
Adam Grobler, O metodzie i strukturze nauki 180
Bibliografia
Ajdukiewicz Kazimierz
1934/1985
Das Weltbild und die Begriffsapparatur,
„Erkenntnis” IV, 259-287. Przekład polski:
Obraz świata i aparatura pojęciowa w: Język i
poznanie, PWN Warszawa, tłum. Franciszek
Zeidler, t. I, ss. 145-174.
Armstrong David
1968
A Materialist Theory of Mind, RKP London.
Axelrod Robert
1984
The Evolution of Cooperation, Basic Book,
New York.
Bacon Francis
1620/1955
Novum Organum, tłum. Jan Wikarjak, PWN
Warszawa (BKF).
Barnes Barry, Bloor David
1982/1992
Relativism, Rationalism and the Sociology of
Knowledge w: Martin Hollis i Steven Lukes
(red.), Rationality and Relativism, Basil
Blackwell, Oxford 1982, ss. 21-47. Przekład
polski: Relatywizm, racjonalizm a socjologia
wiedzy, tłum. Józef Niżnik w: Edmund
Mokrzycki (red.), R cjonalność a styl myślenia,
Wyd. IFiS PAN, Warszawa, ss. 454-497.
Berkeley George
1710/1956
A Treatise Concerning the Principles of
Human Knowledge, Thomas Nelson,
Edinburgh. Przekład polski: Traktat o zasadach
poznania ludzkiego, tłum. J. Leszczyński,
PWN Warszawa (BKF).
Bergson Henri
1903/1963
Introduction à la métaphysique w: „Revue de
la métaphysique et de morale”, vol. 11, Paris.
Przekład polski w: Myśl i ruch. Wstęp do
metafizyki. Intuicja filozoficzna. Postrzeżenie
zmiany. Dusza i ciało, tłum. P. Beylin, K.
Błeszyński, Warszawa.
Adam Grobler, O metodzie i strukturze nauki 181
Bloor David
1976
Knowledge and Social Imagery, Routledge,
London.
Bromberger Sylvan
1966
Why-Questions, w: R. Colodny (red.) Mind
and Cosmos, University of Pittsburgh Press,
Pittsburgh, PA.
1992
On What We Know We Don’t Know:
Explanation, Theory, Linguistics, and How
Questions Shape Them, University of Chicago
Press, Chicago.
Brouwer Luitzen E. J.
1907
Over de Grondslagen der Wiskunde, Maas en
van Suchtelen, Amsterdam.
1975
Collected Works, vol. 1, red. A. Heyting,
North-Holland, Amsterdam.
Brown James R.
1989
The Rational and the Social, Routledge, London.
1994
Smoke and Mirrors, Routledge, London.
Bürger Gottfried A.
1785/1997
Przygody barona Münchhausena, tłum. Hanna
Januszewska, Poznań.
Carnap Rudolf
1936-37/19
69
Testability and Meaning, „Philosophy of
Science” 3. Przekład polski: Sprawdzalność i
znaczenie, tłum. Czesław Znamierowski w: R.
Carnap, Filozofia jako analiza języka nauki,
PWN Warszawa.
1950
Logical Foundations of Probability, University
of Chicago Press, Chicago.
1952
The Continuum of Inductive Methods,
University of Chicago Press, Chicago.
1956
The Methodological Character of Scientific
Concepts, w: H. Feigl, M. Scriven (red.), The
Foundation of Science and the Concepts of
Psychology and Psychoanalysis, Minnesota
University Press, Minneapolis.
Cartwright Nancy
1983
How the Laws of Physics Lie, Clarendon Press,
Oxford.
Causey Robert
1977
Unity of Science, Dordrecht: Reidel
Churchland Patricia S.
1986
Neurophilosophy,: MIT Press, Cambridge,
MA.
Adam Grobler, O metodzie i strukturze nauki 182
Collingwood Robin G.
1946
The Idea of History, Oxford University Press,
Oxford.
Darden Lindley, Maul Nancy
1977
Interfield Theories, w: „Philosophy of
Science” 44, ss. 43-64.
Davidson Donald
1970/1992
Mental Events, przedruk w: D. Davidson,
Actions and Events, Clarendon Press, Oxford
1980. Polski przekład: Zdarzenia mentalne,
tłum. Tadeusz Baszniak, w: D. Davidson,
Eseje o prawdzie, języku i umyśle, wybór
Barbara Stanosz, PWN Warszawa, ss. 163-193
(BWF).
1974/1991
On the Very Idea of a Conceptual Scheme,
przedruk w: D. Davidson, Inquiries into Truth
and Interpretation, Oxford University Press,
Oxford 1984. Polski przekład: O schemacie
pojęciowym, tłum. Jarosław Gryz, „Literatura
na Świecie” 5 (238), ss. 100-119.
Derrida Jacques
1967/1999
De la grammatologie, Paris. Polski przekład: O
gramatologii, tłum. Bogdan Banasiak, KR
Warszawa.
Dewey John
1938
Logic: The Theory of Inquiry, Holt, New
York.
Dilthey Wilhelm
1883
Einleitung in die Geisteswissenschaften, w:
Gesammelte Schriften, Stuttgart 1959.
Duhem Pierre
1906
La theorie physique, son object et sa structure,
Chevalier et Riviére, Paris. Polski przekład
(fragmenty) w: P. Duhem, Filozofia nauki.
Wybór pism, UWrocł. 1991.
Dummet Michael
1978
Truth and Other Enigmas, Harvard University
Press, Cambridge MA.
Dupré John
The Disorder of
Things,
Harvard
University
The Disorder of Things, Harvard University
Press, Cambridge MA.
Adam Grobler, O metodzie i strukturze nauki 183
Press,
Cambridge
MA.
Durkheim Émile
1895/1968
Les regles de la methode sociologique, Alcan,
Paris. Polski przekład: Zasady metody
socjologicznej, tłum. Jerzy Szacki, Warszawa.
Earman John
1992
Bayes or Bust, MIT Press, Cambridge, MA.
Feyerabend Paul K.
1962/1979
Reduction, Explanation, and Empiricism , w:
Feigl H. i G. Maxwell (red.), Minnesota Studies
in the Philosophy of Science III, Minnesota
University Press, Minneapolis. Polski przekład:
Redukcja, wyjaśnianie i empiryzm, tłum.
Krystyna Zamiara, w: P. Feyerabend, Jak być
dobrym empirystą?, PWN Warszawa.
1965
Problems of Empiricism I w: Robert Colodny
(red.), Beyond the Edge of Certainty,
Englewood Cliffs, New York.
1974/1996
Against Method, NLB London. Polski przekład
(na podstawie wyd. z 1987): Przeciw metodzie,
tłum. Stefan Wiertlewski, Siedmioróg,
Wrocław.
1978
Science in a Free Society, NLB, London.
Fleck Ludwik
1935/1986
Entstehung und Entwicklung einer
wissenschaftlichen Tatsache, Benno Schwabe
und Co. Verlagbuchhandlung, Basel. Polski
przekład: Powstanie i rozwój faktu naukowego,
tłum. Maria Tuszkiewicz, Wyd. Lubelskie,
Lublin.
Fodor Jerry
1974
Special Sciences - or the Disunity of Science
as a Working Hypothesis, Synthese 28, 97-115.
Frege Gottlob
1893
Grundgesetze der Arithmetik, H. Pohle, Jena,
Bd. I (Bd. II – 1903).
Foucault Michel
1961/1987
Histoire de la Folie, Librairie Plon, Paris.
Przekład polski: Historia szaleństwa w dobie
Adam Grobler, O metodzie i strukturze nauki 184
klasycyzmu, tłum. Helena Kęszycka, PIW
Warszawa.
Fromm Erich
1951/1994
Forgotten language, Grove Press, New York.
Polski przekład: Zapominany język, tłum.
Józef Marzęcki, PIW, Warszawa.
Giere Ronald
1988
Explaining Science, Chicago University Press,
Chicago.
Glymour Clark
1980
Theory and Evidence, Princeton University
Press, Princeton.
Goodman Nelson
1954
Fact, Fiction, and Forecast, Harvard University
Press, Cambridge, MA.
1978/1998
Ways of Worldmaking, Hackett, Indianapolis.
Polski przekład: Jak tworzymy świat, tłum.
Michał Szczubiałka, Aletheia, Warszawa.
Grobler Adam
1993
Prawda i racjonalność naukowa, Inter Esse,
Kraków.
2000
Prawda a względność, Aureus, Kraków.
2001
Pomysły na temat prawdy i sposobu
uprawiania filozofii w ogóle, Aureus, Kraków.
Grobler Adam,
Wiśniewski Andrzej
2002
Explanation and theory-evaluation, w: Roberto
Festa, Volume in Debate with Theo Kuipers,
Kluwer, Dordrecht-Boston.
Hacking Ian
1983
Representing and Intervening, Cambridge
University Press, Cambridge, UK.
Harding Sandra
1986
The Science Question in Feminism, Cornell
University Press, Ithaca.
Harman Gilbert
1965
Inference to the Best Explanation,
„Philosophical Review” 74.
Hempel Carl G.
1966/2001
Philosophy of Natural Science, Prentice-Hall,
Englewood Cliffs, NJ. Polski przekład:
Filozofia nauk przyrodniczych, tłum. Barbara
Stanosz, Fundacja Aletheia, Warszawa.
Hempel Carl G.,
Oppenheim Paul
1948
Studies in the Logic of Explanation,
„Philosophy of Science” 15, ss. 135-175.
Heyting Arend
1930
Die formalen Regeln der intuitionistischen
Logik, w: Sitzungsberichte der
Adam Grobler, O metodzie i strukturze nauki 185
Preußische Akademie der Wissenschaften,
Berlin.
1956
Intuitionism: An Introduction, North
Holland, Amsterdam. Wyd. III poprawione
1971.
Hintikka Jaakko
1966
A Two-Dimensional Continuum of Inductive
Methods, w: J. Hintikka, P. Suppes (red.),
Aspects of Inductive Logic, North-Holland,
Amsterdam.
1983
New Foundations for a Theory of Questions
and Answers, w: F. Kiefer (red.), Questions
and Answers, Reidel, Dordrecht, ss. 159-90.
1992
The Interrogative Model of Inquiry as a
General Theory of Argumentation,
„Communication and Cognition” 25, ss.
221-42.
1992
Eseje logiczno-filozoficzne, tłum. Adam
Grobler, PWN Warszawa (BWF).
Hosiasson-Lindenbaum Janina 1940
On Confirmation, „Journal of Symbolic Logic”
5.
Hume David
1748/2001
An Enquiry Concerning Human
Understanding. Polski przekład: Badania
dotyczące rozumu ludzkiego, tłum. Jan
Łukasiewicz, Kazimierz Twardowski, de
Agostini, Warszawa 2001.
Husserl Edmund
1913/1975
Ideen. Przekład polski: Idee czystej
fenomenologii i fenomenologicznej filozofii,
tłum. Danuta Gierulanka, PWN Warszawa
(BWF).
James William
1897/1996
The Will to Believe, przedruk w: W. James,
The Will to Believe and Other Essays in
Popular Philosophy, Dover, New York 1956.
Polski przekład: Wola wiary, w: W. James,
Prawo do wiary, tłum. Adam Grobler, Znak,
Adam Grobler, O metodzie i strukturze nauki 186
Kraków.
1907/1998
Pragmatism: A New Name for Some Old Ways
of Thinking, Hackett, Indianapolis-Cambridge.
Polski przekład: Pragmatyzm. Nowe imię paru
starych stylów myślenia, tłum. Michał
Szczubiałka, KR Warszawa.
Kaiser Matthias
1991
From Rocks to Graphs - The Shaping of
Phenomena, „Synthese” 111-133.
Kałuszyńska Elżbieta
1994
Modele teorii empirycznych, IFiS PAN.
Kant Immanuel
1781/1986
Kritik der reinen Vernunft. Polski przekład:
Krytyka czystego rozumu, tłum. Roman
Ingarden, PWN Warszawa (BKF).
1785/1984
Uzasadnienie metafizyki moralności, tłum.
Mścisław Wartenberg, popr. Roman Ingarden,
PWN Warszawa (BKF).
Kartezjusz (Descartes René)
1637/1981
Discours de la méthode. Polski przekład:
Rozprawa o metodzie, tłum. Wanda
Wojciechowska, PWN Warszawa.
Kemeny John,
Oppenheim Paul
1956
On Reduction, „Philosophical Studies” 7, 6-19.
Kitcher Phillip
1981
Explanatory Unification, „Philosophy of
Science” 48, 507-531.
1984
The Nature of Mathematical Knowledge,
Oxford University Press, Oxford.
Koterski Artur
2001/2002
Weryfikacjonistyczne kryteria demarkacji w
filozofii nauki Koła Wiedeńskiego. Wyd. I,
z błędami, UMCS Lublin. Wyd. II, poprawione i
rozszerzone, Centrum Nauki Języka
Angielskiego Metodą Callana Akces, Poznań.
Koterski Artur (red.)
2000
Spór o zdania protokolarne, Fundacja Aletheia,
Warszawa.
Krajewski Władysław
1974
Idealizacja, redukcja, korespondencja, w: W.
Krajewski, W. Mejbaum, J. Such (red.),
Zasada korespondencji w fizyce a rozwój nauki,
Warszawa.
Adam Grobler, O metodzie i strukturze nauki 187
1977
Correspondence Principle and Growth of
Science, Kluwer, Dordrecht.
1998
Prawa nauki, KiW Warszawa. Wyd. II
zmienione (Wyd I 1982).
Kripke Saul
1972/1988
Naming and Necessity, w: Harman G., D.
Davidson (red.), Semantics of Natural
Language, Reidel, Dordrecht. Wydana potem
oddzielnie przez Basil Blackwell, Oxford1980.
Przekład polski: Nazywanie i konieczność, tłum.
Bohdan Chwedeńczuk, Aletheia, Warszawa.
Kuhn Thomas S.
1961/1985
The Function of Measurement in Modern
Physical Science, „Isis” 52, 161-190. Przedruk
w: T. Kuhn, The Essential Tension, University
of Chicago Press, Chicago 1977. Polski
przekład: Funkcja pomiaru w nowożytnej
fizyce, tłum. Stefan Amsterdamski, w: T. Kuhn,
Dwa bieguny, PIW Warszawa, 255-315.
1962/1968
The Structure of Scientific Revolutions,
University of Chicago Press, Chicago. Przekład
polski: T. Kuhn, Struktura rewolucji
naukowych, tłum. Halina Ostromęcka, PWN
Warszawa.
Kuipers Theo A. F.
2001
Structures in Science, Kluwer, Dordrecht.
Kuipers Theo A. F.,
Wiśniewski Andrzej
1994
An Erotetic Approach to Explanation by
Specification, „Erkenntnis” 40, 377-402.
Lakatos Imre
1970/1995
Falsification and the Methodology of Scientific
Research Programmes, w: I. Lakatos, A.
Musgrave (red.), Criticism and the Growth of
Knowledge, Cambridge University Press,
Cambridge. Polski przekład: Falsyfikacja a
metodologia naukowych programów
badawczych, tłum. Wojciech Sady, w: I.
Lakatos, Pisma z filozofii nauk przyrodniczych,
PWN Warszawa (BWF).
Adam Grobler, O metodzie i strukturze nauki 188
1976
Proofs and Refutations, Cambridge University
Press, Cambridge UK.
Latour Bruno,
Woolgar Steve
1979
Laboratory Life: The Construction of Scientific
Facts, Princeton University Press, Princeton.
Laudan Larry
1977
Progress and Its Problems, University of
California Press, Berkeley.
1984
Science and Values, University of California
Press, Berkeley.
Lem Stanisław
1957
Dzienniki gwiazdowe, Iskry, Warszawa.
Le Roy Édouard
1899-1990 Science et philosophie, „Revue de
métaphysique et de morale” 7, 8.
Lewis Clawrence I.
1946
An Analysis of Knowledge and Valuation,
Open Court, La Salle, IL.
Lewis David
1973
Counterfactuals, Harvard University Press,
Cambridge, MA.
Lipton Peter
1991
Inference to the Best Explanation, Routledge,
London.
2000
Logman Dictionary of Contemporary English,
III wyd., Longman , Essex.
Lorenz Konrad
1973/1977
Odwrotna strona zwierciadła, PIW, Warszawa.
Mach Ernst
1985
Die Analyse der Empfindungen, Jena.
Malinowski Bronisław
1922/1981
Argonauts of the Western Pacific, Routledge,
London. Polski przekład: Argonauci
Zachodniego Pacyfiku, tłum. B. Olszewska-
Dyoniziak, S. Szynkiewicz, Warszawa 1967.
Przedruk w: Dzieła, t. 3, Warszawa.
Mill John Stuart
1843/1962
System of Logic: Ratiocinative and Inductive.
Polski przekład: System logiki dedukcyjnej i
indukcyjnej, tłum. Czesław Znamierowski,
PWN Warszawa (BKF).
Miller David
1974
Popper’s Qualitative Theory of Verisimilitude,
„The British Journal for the Philosophy of
Science” 25.
Mises Richard von
1957
Probability, Statistics, and Truth, Dover, New
York.
Mortimer Halina
1982
Logika indukcji, PWN Warszawa.
Adam Grobler, O metodzie i strukturze nauki 189
Morton Adam
1977/2002
A Guide Trough The Theory Of Knowledge,
Blackwell Publishers, Oxford, II Wyd. 1997.
Polski Przekład: Przewodnik po teorii
poznania, tłum. Tadeusz Baszniak, Spacja
Warszawa.
Nagel Ernest
1961/1970
The Structure of Science, Hartcourt, New
York. Polski przekład: Struktura nauki, PWN
Warszawa.
Niiniluoto Ilkka
1987
Truthlikeness, Reidel, Dordrecht.
Nowaczyk Adam
1990
Wprowadzenie do logiki nauk ścisłych, PWN
Warszawa.
Papineau David
1978
For Science in the Social Sciences, St. Martin’s
Press, New York.
Peirce Charles Sanders
1887
The Fixation of Belief, „Popular Science
Monthly” 12, 1-15.
1878
How to Make Our Ideas Clear, „Popular
Science Monthly” 12: 286-302.
Piątek Zdzisława
1988
Aspekty antropocentryzmu, UJ, Kraków.
Pickering Arnold
1984
Constructing Quarks: A Sociological History
of Particles Physics, Edinburgh University
Press, Edinburgh.
Placek Tomasz
1998
Łukasiewicz’s Logical Probability and a Puzzle
about Conditionalisation, w: Katarzyna Kijania-
Placek, Jan Woleński (red.), The Lvov-Warsaw
School and Contemporary Philosophy, ss.
337-340, Reidel, Dordrecht.
Poincaré Henri
1902
La Science Et L’hypothèse, Paris. Polski
przekład: Nauka i hipoteza, tłum. L.
Silberstein, J. Mortkowicz, Warszawa 1908.
Fragmenty w: Irena Szumilewicz, Poincaré,
Wiedza Powszechna, Warszawa 1978.
Adam Grobler, O metodzie i strukturze nauki 190
1905
La valeur de la science, Paris. Polski przekład:
Wartość nauki, tłum. L. Silberstein, J.
Mortkowicz, Warszawa 1908. Fragmenty w:
Irena Szumilewicz, Poincaré, Wiedza
Powszechna, Warszawa 1978.
1908
Science et méthode, Paris 1908. Polski
przekład: Nauka i metoda, tłum. L. Silberstein,
J. Mortkowicz, Warszawa 1911. Fragmenty w:
Irena Szumilewicz, Poincaré, Wiedza
Powszechna, Warszawa 1978.
Popper Karl R.
1934/1959/
1977
Logik der Forschung, Springer, Berlin. Wyd.
poszerzone w języku angielskim: The Logic of
Scientific Discovery, Hutchinson, London 1959.
Polski przekład: Logika odkrycia naukowego,
tłum. Urszula Niklas, PWN, Warszawa.
1963/1999
Conjectures and Refutations, Routledge,
Londyn. Polski przekład: Droga do wiedzy.
Domysły i refutacje, tłum. Stefan
Amsterdamski, PWN Warszawa (BWF).
1972/1992
Objective Knowledge, Oxford University Press,
Oxford. Przekład polski: Wiedza obiektywna,
tłum. Adam Chmielewski, PWN Warszawa
(BWF).
1994/1997
The Myth of the Framework. In Defence of
Science and Rationality, Routledge, London.
Polski przekład: Mit schematu pojęciowego. W
obronie nauki i racjonalności, tłum. Bohdan
Chwedeńczuk, Książka i Wiedza, Warszawa.
Przełęcki Marian
1969/1988
The Logic of Empirical Theories, RKP
London. Polski przekład: Logika teorii
empirycznych, tłum. Jolanta Ewa Jasińska,
PWN Warszawa.
Adam Grobler, O metodzie i strukturze nauki 191
Putnam Hilary
1975
The Meaning of ‘Meaning’, w: Keith
Gunderson (red.), Minnesota Studies in the
Philosophy of Science, vol. 7, University of
Minnesota Press, Minneapolis. Przedruk w: H.
Putnam, Philosophical Papers, vol. II, Mind,
Language and Reality, Cambridge University
Press, Cambridge-New York. Polski przekład:
Znaczenie wyrazu „znaczenie”, w: [Putnam
1998].
1978
Meaning and the Moral Sciences, RKP
London.
1983
Why there is not a ready-made world, w:
Realism and Reason. Philosophical Papers,
vol. 3, Cambridge University Press, Cambridge
UK. Polski przekład: Dlaczego świat nie jest
wyrobem gotowym, w: [Putnam 1998].
1998
Wiele twarzy realizmu i inne eseje, wybór i
tłum. Adam Grobler, PWN Warszawa (BWF).
Quine Willard Van Orman
1951/2000
Two Dogmas of Empiricism, „Philosophical
Review” 60, 20-43. Przedruk w: W.V.
Quine, From a Logical Point of View, Harvard
University Press, Cambridge, MA 1953, II
wyd. zmienione 1961. Polski przekład: Dwa
dogmaty empiryzmu, w: Z punktu widzenia
logiki, tłum. Barbara Stanosz, Fundacja
Aletheia, Warszawa.
Reichenbach Hans
1938
Experience and Prediction, University of
Chicago Press, Chicago.
Adam Grobler, O metodzie i strukturze nauki 192
1949
The Theory of Probability, University of
California Press, Berkeley-Los Angeles.
Poszerzone wydanie wcześniejszego (1935)
Wahrscheinlichkeitslehre A.W. Sijthoff’s
Uitgeversmattschappij, Leiden, tłum. (na j.
ang.) E.H. Hutton and M. Reichenbach.
1956
The Direction of Time, University of
California Press, Berkeley-Los Angeles.
Rorty Richard
1989/1994
Philosophy and the Mirror of Nature, Princeton
University Press, Princeton. Polski przekład:
Filozofia a zwierciadło natury, Biblioteka
ALETHEIA, tłum. Michał Szczubiałka, Wyd.
Spacja – Fundacja Aletheia, Warszawa.
Russell Bertrand
1903
The Principles of Mathematics, London.
1905/1967
On denoting, „Mind” 14. Przedruk w: H. Feigl,
W. Sellars (red.), Readings in Philosophical
Analysis, Appleton-Century-Crofts, New York
1949 oraz I. Copi, J.A. Gould (red.),
Contemporary Readings in Logical Theory,
MacMillan, New York 1967. Polski przekład:
Denotowanie, w: J. Pelc (red.), Logika i język,
PWN Warszawa.
Ryle Gilbert
1949/1970
The Concept of Mind, Barnes and Noble, New
York. Polski przekład: Czym jest umysł, tłum.
Witold Marciszewski, PWN Warszawa.
Sady Wojciech
1990
Racjonalna rekonstrukcja odkryć naukowych,
UMCS, Lublin (RRR 29).
2000
Spór o racjonalność naukową od Poincarégo do
Laudana, FUNNA, Wrocław (Monografie
FNP).
Salmon Wesley
Statistical Explanation, w: W. Salmon et al.,
Statistical Explanation and Statistical Relevance,
Pittsburg University Press, Pittsburg.
Adam Grobler, O metodzie i strukturze nauki 193
Four Decades of
Explanation
, University
of
Minnesota
Press,
Minneapoli
s.
Four Decades of Explanation, University of
Minnesota Press, Minneapolis.
Scriven Michael
1962
Explanations, Predictions and Laws, w: H.
Feigl, G. Maxwell (red. ) Minnesota Studies in
the Philosophy of Science, vol. 3, University of
Minnesota Press, Minneapolis.
Sellars Willfried
1963
Science, Perception, and Reality, Routledge,
London.
Shapere Dudley
1974
Scientific Theories and Their Domains, w:
Frederick Suppe (red.), The Structure of
Scientific Theories, University of Illinois
Press, Urbana. Przedruk w: D. Shapere, Reason
and the Search for Knowledge, „Boston Studies
in the Philosophy of Science”, t. 78, Boston.
1982
The Concept of Observation in Science and
Philosophy, „Philosophy of Science” 49.
Skrócona wersja w: D. Shapere, Reason and the
Search for Knowledge, „Boston Studies in the
Philosophy of Science”, t. 78, Boston.
Shapin Steven
1996/2000
The Scientific Revolution, The University of
Chicago Press, Chicago. Polski przekład:
Rewolucja naukowa, tłum. Stefan
Amsterdamski, Prószyński i S-ka.
Sklar Lawrence
1967
Types of Intertheoretic Reduction, „The British
Journal for the Philosophy of Science” 18.
Searle John
1995
The Construction of Social Reality, Simon and
Schuster, New York.
Adam Grobler, O metodzie i strukturze nauki 194
Sneed Joseph
1971
The Logical Structure of Mathematical
Physics, Reidel, Dordrecht.
Stalnaker Robert
1984
Inquiry, MIT Press/Bradford Books,
Cambridge, MA.
Stegmüller Wolfgang
1979
The Structuralist View of Theories, Springer,
Berlin.
Strawson Peter
1950
On referring, „Mind” 49. Przedruk w: Logico-
Linguistic Papers, Methuen, London 1971.
Polski przekład: O odnoszeniu się użycia
wyrażeń do przedmiotów, w: J. Pelc (red.),
Logika i język, PWN Warszawa.
1952
Introduction to Logical Theory,
Methuen, London.
1992/1994
Analysis and Metaphysics, Oxford University
Press, Oxford. Zmienione angielskie wydanie
francuskiej wersji, Analyse et Metaphysique,
Vrin, Paris 1985. Polski przekład: Analiza i
metafizyka. Wstęp do filozofii, tłum. Adam
Grobler, Znak, Kraków.
Suppe Frederick
1989
The Semantic Conception of Theories and
Scientific Realism, University of Chicago
Press, Chicago.
Suppes Patrick
1967
Set-Theoretical Structures in Science, Stanford
University Press, Stanford.
Suszko Roman
1957
Logika formalna a niektóre zagadnienia teorii
poznania, „Myśl Filozoficzna” 2 i 3. Przedruk
w: Tadeusz Pawłowski (wybór), Logiczna
teoria nauki, PWN Warszawa 1966.
Adam Grobler, O metodzie i strukturze nauki 195
Tarski Alfred
1930
Fundamentale Begriffe der Methodologie der
deduktiven Wissenschaften I’, Monatshefte für
Mathematik und Physik 37, 361-404. Przekład
angielski: Fundamental
Concepts of the Methodology of Deductive
Sciences, tłum. J.H. Woodger, w: A. Tarski
(red. J. Corcoran) Logic, Semantics,
Metamathematics: Papers from 1923 to 1938,
Hackett, Indianapolis 1956.
1933
Pojęcie prawdy w językach nauk
dedukcyjnych, Towarzystwo Naukowe
Warszawskie. Przedruk w: A. Tarski, Pisma
logiczno–filozoficzne, t. I, PWN Warszawa
1995 (BWF).
Topolski Jerzy
1978
Rozumienie historii, PIW Warszawa.
Toulmin Stephen
1972
Human Understanding, Princeton University
Press, Princeton.
van Fraassen Bas
1970
On the Extension of Beth’s Semantics of
Theories, „Philosophy of Science” 37, 325-34.
1980
The Scientific Image, Clarendon Press,
Oxford.
Von Wright Georg
1966
The Paradoxes of Confirmation, w: J. Hintikka,
P. Suppes (red.), Aspects of Inductive Logic,
Amsterdam.
Watkins John
1984/1989
Science and Scepticism, Princeton University
Press. Polski przekład (skrócony): Nauka i
sceptycyzm, tłum. Ewa Chmielecka, PWN,
Warszawa (BWF).
Watson John B.
1913
Psychology as the Behaviorist Views It,
„Psychological Review” 20.
Adam Grobler, O metodzie i strukturze nauki 196
Weber Max
1903-5
Roscher und Knies und die logischen Probleme
der historischen Nationalökonomie. Przekład
ang.: Roscher und Knies: The Logical
Problems of Historical Economics, tłum. G.
Oakes, Free Press, New York 1975.
Wilson Edward
1976
Sociobiology: The New Synthesis, Harvard
University Press, Cambridge, MA.
1978/1988
On Human Nature, Harvard University Press,
Cambridge, MA. Polski przekład: O naturze
ludzkiej, tłum. Barbara Szacka, Zysk i S-ka.
Wiśniewski Andrzej
1990
Stawianie pytań: logika i racjonalność, UMCS
Lublin (RRR 28). Wersja angielska,
rozszerzona: The Posing of Questions: Logical
Foundations of Erotetic Inferences, (Syntheses
Library, vol. 252), Kluwer, Dordrecht 1995.
1996
The Logic of Questions as a Theory of Erotetic
Arguments, Synthese 109, 1-25.
Wittgenstein Ludwig
1922/1997
Tractatus Logico-Philosophicus, Kegan Paul,
London. Polski przekład: Tractatus logico-
philosophicus, tłum. Bogusław Wolniewicz,
PWN Warszawa (BKF).
1953/2000
Philosophical Investigations, Basil Blackwell,
Oxford. Polski przekład: Dociekania
filozoficzne, tłum. Bogusław Wolniewicz, PWN
Warszawa (BKF).
Woodward John
1989
Data and Phenomena, „Synthese” 79.
Wójcicki Ryszard
1974
Metodologia formalna nauk empirycznych,
Ossolineum.
1991a
Filozofia nauki w poszukiwaniu metody,
maszynopis rozpowszechniany wśród
uczestników seminarium Semantyka języków
nauki.
1991b
Teorie w nauce, cz. I, IFiS PAN, Warszawa.
Zahar Elie
1995
The problem of empirical basis, w: O’Hear
Anthony (red.), Karl Popper: Philosophy and
Adam Grobler, O metodzie i strukturze nauki 197
Problems, Cambridge UP.
Znaniecki Florian
1922
Wstęp do socjologii, Poznań.
Adam Grobler, O metodzie i strukturze nauki 198
Indeks osób
Ajdukiewicz Kazimierz
Amsterdamski Stefan
Anaksymander z Miletu
Arystoteles ze Stagiry
Armstrong David
Axelrod Robert
Bacon Francis
Barnes Barry
Bayes Thomas
Berkeley George
Bergson Henri
Bloor David
Bohr Niels
Boyle Robert
Bromberger Sylvain
Brouwer Luitzen E. J.
Brown James R.
Bourbaki Nicolaus
Bürger Gottfried
Carnap Rudolf
Cartwright Nancy
Cauchy Augustin L.
Causey Robert
Chmielewski Adam
Churchland Patricia S.
Collingwood Robin G.
Comte August
Coulomb Charles-Augistine
Darden Lindley
Davidson Donald
Demokryt z Abdery
Derrida Jacques
Dewey John
Dilthey Wilhelm
Duhem Pierre
Dummet Michael
Dupré John
Durkheim Emil
Earman John
Engel Jerzy
Einstein Albert
Euklides z Aleksandrii
Feyerabend Paul K.
Fleck Ludwik
Fodor Jerry
Frege Gottlob
Fresnel Augustin J.
Freud Sigmund
Fries Jacob F.
Foucault Michel
Fraenkel Abraham
Fromm Erich
Galileusz (Galileo Galilei)
Gauss Karl F.
Giere Ronald
Glymour Clark
Adam Grobler, O metodzie i strukturze nauki 199
Goodman Nelson
Grobler Adam
Hacking Ian
Harding Sandra
Harman Gilbert
Hempel Carl G.
Heyting Arend
Hilbert David
Hintikka Jaakko
Hosiasson-Lindenbaum
Latour Bruno
Le Roy Edouard
Łobaczewski
Hume David
James William
Kaiser Matthias
Kałuszyńska Elżbieta
Kant Immanuel
Kartezjusz (Descartes René)
Kemeny John
Kepler Johannes
Kitcher Phillip
Klein Felix
Kołmogorow Andriej
Kołodko Grzegorz
Koterski Artur
Krajewski Władysław
Kripke Saul
Kuhn Thomas S.
Kuipers Theo A. F.
Kwaśniewska Jolanta
Lakatos Imre
Laudan Larry
Leibniz Wilhelm G.
Lem Stanisław
Lepper Andrzej
Leverrier Urbain
Lewis Clawrence I.
Lewis David
Lisek
Linneusz (Linné Carl)
Lipton Peter
Longman
Lorentz Hendrik A.
Lorenz Konrad
Mach Ernst
Malinowski Bronisław
Mały Książę
Mariott Edme
Maul Nancy
Mendel Gregor J.
Michelson Albert A.
Mill John Stuart
Miller David
Mises Richard von
Morgan August de
Morley Edward W.
Morris Charles
Mortimer Halina
Münchausen, baron
Murawski Roman
Nagel Ernest
Adam Grobler, O metodzie i strukturze nauki 200
Neumann John von
Neurath Otto
Newton Isaack
Niiniluoto Ilkka
Nowaczyk Adam
Oppenheim Paul
Papineau David
Pawłow Iwan
Peano Giuseppe
Peirce Charles Sanders
Périer Florin
Piątek Zdzisława
Pickering Arnold
Pitagoras z Samos
Placek Tomasz
Platon
Poincaré Henri
Popper Karl R.
Przełęcki Marian
Ptolemeusz
Putnam Hilary
Quine Willard Van Orman
Reichenbach Hans
Riemann Bernhard G. F.
Rickert Heinrich
Rorty Richard
Russell Bertrand
Ryle Gilbert
Saccheri Girolamo
Sady Wojciech
Salmon Wesley
Scriven Michel
Sellars Willfried
Semmelweiss Ignaz
Shapere Dudley
Shapin Steven
Sklar Lawrence
Searle John
Sneed Joseph
Stalnaker Robert
Stegmüller Wolfgang
Stokes Georg G.
Strawson Peter
Suppe Frederick
Suppes Patrick
Suszko Roman
Tales z Miletu
Tarski Alfred
Topolski Jerzy
Torricelli Ewangelista
Toulmin Stephen
van Fraassen Bas
von Wright Georg
Watkins John
Watson John
Weber Max
Whewell William
Whitehead Alfred
Wilson Edward
Winch Peter
Windelband Wilhelm
Wiśniewski Andrzej
Adam Grobler, O metodzie i strukturze nauki 201
Wittgenstein Ludwig
Woodward John
Woolgar Steve
Wójcicki Ryszard
Zagłoba Jan Onufry
Zahar Elie
Zermelo Ernst
Znaniecki Florian
Adam Grobler, O metodzie i strukturze nauki 202
Indeks rzeczowy
abdukcjonizm
adekwatność empiryczna
anarchizm metodologiczny
antynaturalizm
antyrealizm
semantyczny
anything goes
a priori
argument transcendentalny
argumentacyjna funkcja języka
aksjomat
aksjomatyzacja
bayesianizm
baza empiryczna
behawioryzm
analityczny
metodologiczny
naukowy
błąd
błędnego koła
ekwiwokacji
ignotum per ignotum
regresu w nieskończoność
ceteris paribus
czynniki istotne
definicja
częściowa
kontekstowa
operacyjna
projektująca
przez abstrakcję
przez postulaty
regulująca
rekurencyjna
równościowa
sprawozdawcza
wprost
definiendum
definiens
demarkacji
kryterium
problem
dogmatyzm
doxa
dowód
formalny
komputerowy
dylemat
teoretyka
więźnia
dziedzina (domain)
eksperyment
kontrolowany
maskowany (blind)
Adam Grobler, O metodzie i strukturze nauki 203
podwójnie maskowany (double-
blind)
krzyżowy (experimentum crucis)
Michelsona-Morleya
eksplanandum (explanandum)
eksplanans (explanans)
eliminatywizm
empiryzm
konstruktywny
logiczny
esencjalizm
episteme
fakt
faktualizacja
fallibilizm
falsyfikacja
falsyfikacjonizm
falsyfikowalność
feminizm
fenomenologia
fizykalizm
egzemplaryczny (token-physicalism)
typiczny (type-physicalism)
formalizm
fundamentalizm epistemologiczny
(foundationalism)
funkcjonalizm
w filozofii umysłu (psychologii)
w filozofii społecznej (naukach
społecznych)
hipoteza
ad hoc
moc wyjaśniająca h.
preferencja h.
treść empiryczna h. (empirical content)
względny sukces empiryczny h.
holenderski system zakładów (Dutch-book)
holizm
Quine’a
w metodologii nauk społecznych
hyle
idealizacja
identyfikacja
sytuacji obserwacyjnej
intuicjonizm
implikacja erotetyczna
słaba eliminacyjna i. e.
indywidualizm metodologiczny
indukcja
eliminacyjna
enumeracyjna
iloraz zakładu
instrumentalizm
matematyczny
interpretacja
empiryczna
semantyczna
istotność
nomologiczna
przyczynowa
statystyczna
jedność nauki
Adam Grobler, O metodzie i strukturze nauki 204
justyfikacjonizm (justificationism)
kanony indukcji
klasa kontrastu (contrast class)
klasyfikacja
komunikacyjna funkcja języka
koncepcja niezdaniowa teorii naukowych
(non-statement view)
konkretyzacja
konstruktywizm
kontekst
akceptacji (of acceptance)
odkrycia (of discovery)
rozpatrywania (of pursuit)
uzasadnienia (of justification)
zależność wyjaśniania od k.
konwencjonalizm
radykalny
koroboracja (corroboration)
kryterium demarkacji
lewica akademicka (academic left)
logika
czasowa/tensalna
deontyczna
epistemiczna
erotetyczna
filozoficzna
intuicjonistyczna
klasyczna
matematyczna
modalna
nauki
pośrednia
presupozycji
pytań
relewantna
wielowartościowa
matematyka
metoda
intuicyjno-dedukcyjna
hipotetyczno-dedukcyjna
metodologia naukowych programów
badawczych
moc wyjaśniająca
mocny program socjologii wiedzy
model
ikoniczny
metamatematyczny
potencjalny
częściowy p.
semantyczny
symulacyjny
monizm anomalny
możliwe światy
naturalizm
naukowy program badawczy
nauki
dedukcyjne
idiograficzne
empiryczne
nomologiczne
nomotetyczne
Adam Grobler, O metodzie i strukturze nauki 205
o duchu/o kulturze
(Geistenwissenschaften)
przyrodnicze (Natuurwissenchaften,
science)
społeczne (social science)
neopragmatyzm
nierzeczywiste okresy warunkowe
(counterfactuals)
niewspółmierność (incommensurability)
noemat
obserwacja
pragmatyczna teoria o.
Shapere’a teoria o.
uczestnicząca
uteoretyzowanie o.
operacja konsekwencji
operacjonizm
opis
indywiduowy (state description)
statystyczny (structure description)
paradoks
Russella
-y potwierdzania:
doboru krzywej (curve-fitting p.)
kruków
przechodniości
sylogizmu probabilistycznego
zielbieskości (grue)
-y wyjaśniania
barometru i burzy
kiły i paraliżu postępowego
masztu i jego cienia
mężczyzny i pigułki
nieprawidłowej monety
psychoterapii
witaminy C w leczeniu kataru
paradygmat
pas ochronny
pluralizm
metodologiczny
teoretyczny
pogląd otrzymany (received view)
podejście semantyczne do teorii naukowych
podmiot idealny
pomiar
postmodernizm
postulaty teoretyczne
potencjalny falsyfikator hipotezy
potwierdzalność
potwierdzenie (confirmation)
predyktywne kryterium p.
stopień p.
powiązania (constraints)
pragmatyka
logiczna
wyjaśniania
pragmatyzm
prawda
prawdopodobieństwo
aksjomaty rachunku p.
a priori
interpretacja p.
Adam Grobler, O metodzie i strukturze nauki 206
częstościowa
logiczna
subiektywna
warunkowe
prawidłowość
prawo
diachroniczne
jednoznaczne
nauki
pomostowe
przyrody
sformułowanie p.
statystyczne
synchroniczne
presupozycja
pytania
syntagmatyczna
podobieństwo
probabilizm
problem
bazy empirycznej
demarkacji
Duhema
redukcji (zob. redukcja)
rewizji wiedzy zastanej
program badawczy
degenerujący się
heurystyka
negatywna p. b.
pozytywna p. b.
pas ochronny p. b. (protective belt)
postępowy
twardy rdzeń p. b. (hard core)
prostota
przesądy (ich rola w nauce)
przyczyna
abnormalna
istotna
uboczna
pseudonauka
psychologizm
Q-liczby
Q-predykaty
Q-zbiory
racjonalne przekonanie
stopień r. p.
racjonalnego wyboru teoria
racjonalność
natychmiastowa (instant)
odroczona (postponed)
rewizji wiedzy zastanej
randomizacja
realizm
konstruktywny
naukowy
pluralistyczny
pragmatyczny
w sprawie przedmiotów (entity-realism)
w sprawie teorii (theory-realism)
wewnętrzny (internal)
redukcja
nauk do nauki podstawowej
Adam Grobler, O metodzie i strukturze nauki 207
terminów teoretycznych do
obserwacyjnych
reguła
-y korespondencji
-y kulturowe/społeczne
-y wnioskowania
-a dołączania kwantyfikatora
-a odrywania
-a podstawiania
warunkowania (conditionalization rule)
relacja
istotności (relevance)
równoważnościowa
relatywizm
rozumienie (Verstehen)
rzutowalność predykatów (projectibility)
sceptycyzm
semantyka
możliwych światów
Tarskiego
sieć dziedzin teoretycznych
skala
ilorazowa
interwałowa
nominalna
porządkowa
socjobiologia
socjologia humanistyczna/rozumiejąca
socjologizm
spełnianie
spójka definicyjna
strukturalizm (zob. koncepcja niezdaniowa
teorii naukowych)
ścisłość
temat pytania
terminy
dyspozycyjne
klasyfikacyjne
obserwacyjne
pierwotne
teoretyczne
typologiczne
teoria
formalna
niesprzeczność t.
interpretacja empiryczna t. naukowej
częściowa i. e.
model t. (zob. model)
podstawowy składnik t.
racjonalnego wyboru
wg koncepcji niezdaniowej
(strukturalizmu)
wieloodniesienie t. (multireferentiality)
wielozakresowe (interfield)
teza
Duhema-Quine’a
o identyczności (stanów mentalnych i
fizycznych)
o niedookreśleniu teorii przez dane
empiryczne (underdetermination)
o niewspółmierności
(incommensurability)
Adam Grobler, O metodzie i strukturze nauki 208
o uteoretyzowaniu obserwacji (theory-
impregnation, theory-ladeness)
treść empiryczna
trylemat Friesa
twierdzenie
Bayesa
typologia
twardy rdzeń
uczenie się
metodą prób i błędów
przez warunkowanie
uteoretyzowanie obserwacji (theory-
impregnation, theory-ladeness)
użyteczność oczekiwana
warościujące obciążenie nauki
warunek ceteris paribus
warunki przyrostu wiedzy
weryfikowalność
wiedza
towarzysząca (background knowledge)
zastana (background knowledge)
współczynnik humanistyczny
wyjaśnianie
asymetria w.
erotetyczna koncepcja w.
funkcjonalne
intencjonalne
jako unifikacja
klasyczna koncepcja w.
model
dedukcyjno-nomologiczny w.
indukcyjno-statystyczny w.
istotności statystycznej w.
(statistical relevance)
paradoksy w.
przyczynowe
pragmatyka wyjaśniania
przez wyszczególnienie (by
specification)
wnioskowanie do najlepszego
wyjaśnienia (inference to the best
explanation)
względny sukces empiryczny
zasada
korespondencji
krytycyzmu
ograniczonej różnorodności świata
przyczynowości
racji niedostatecznej
wspólnej przyczyny
zakorzenienie (entrenchment)
zdania bazowe