Grobler O Metodzie i Strukturze Nauki

background image

Adam Grobler

O metodzie i strukturze nauki

background image

Adam Grobler, O metodzie i strukturze nauki ii

Wstęp

Niniejsza książka jest przeglądem zagadnień metodologii, działu filozofii nauki. Składa się

z czterech nierównych rozmiarów części, omawiających różne grupy problemów. Część

Pierwsza, najobszerniejsza, Indukcja i wyjaśnianie, jest rozwinięciem moich wykładów, które

pod tym tytułem prowadziłem na Uniwersytecie Jagiellońskim w latach 90-tych,

uzupełnionych materiałem 12-godzinnego cyklu wykładów pt. Modes of Justification in

Science, przeznaczonego dla uczestników III Szkoły Letniej z Teorii Wiedzy, zorganizowanej

w r. 2000 w Mądralinie k. Warszawy przez Polską Akademię Nauk i Central European

University. Przedstawiam w niej wady i zalety głównych propozycji rozwiązania problemu

indukcji czyli podstaw akceptacji lub preferencji hipotez naukowych: probabilizmu,

falsyfikacjonizmu i abdukcjonizmu. Przy tej ostatniej okazji omawiam najważniejsze koncepcje

wyjaśniania naukowego. Bowiem według abdukcjonizmu lub eksplanacjonizmu, właściwą

miarą wartości poznawczej hipotez jest ich moc wyjaśniająca. I ten właśnie pogląd staram się

uzasadnić.

Choć podstawą Części Pierwszej są moje wcześniejsze wykłady, zawiera ona liczne

nowości. Zwłaszcza w rozdziale I.4 przedstawiam pomysły zupełnie świeże, które

wykrystalizowały się pod wpływem współpracy z Andrzejem Wiśniewskim (Uniwersytet

Zielonogórski), wybitnym teoretykiem logiki pytań, częściowo przy okazji zaproszenia do

dyskusji z Theo Kuipersem (Uniwersytet w Groningen, Holandia). Znajdują one później

zastosowanie pod koniec rozdziału I.5 i w rozdziale II.11.

Znacznie krótsza Część Druga prezentuje zagadnienie struktury nauki. Omawiam w niej

m.in. pojęcia teorii, prawa, idealizacji, modelu, dziedziny oraz relacje między tymi pojęciami.

Kwestię definiowania terminów naukowych, aby odejść od podręcznikowej konwencji

wyliczanki różnych typów definicji, starałem się w miarę (moich) możliwości wpleść w materiał

bardziej problemowy. Punktem wyjścia tej części jest tradycyjne ujęcie empiryzmu logicznego,

by dojść do pojęć ukształtowanych w wyniku krytyki „poglądu otrzymanego”. Następnie

przedstawiam – płodną, mam nadzieję – krzyżówkę pomysłów niedocenianego filozofa

amerykańskiego, Dudleya Shapere’a, Wiśniewskiego i moich. Tę część kończy omówienie

problemu redukcji i jedności nauki, który stanowi przejście do problematyki jeszcze krótszej

Części Trzeciej.

background image

Adam Grobler, O metodzie i strukturze nauki iii

Jej przedmiotem są domniemane różnice metodologiczne między różnymi typami nauk.

Generalnie twierdzę, że są one zazwyczaj wyolbrzymiane, zarówno w literaturze, jak i w

obiegowej opinii. W rozdziale na temat tzw. nauk dedukcyjnych próbuję m.in. odbrązowić

metodę aksjomatyczną matematyki i potraktować ją analogicznie do metod identyfikacji

dziedziny w sensie III.10 i III.11. Logikę zaś przedstawiam jako idealizacyjną teorię języka

naturalnego, zwłaszcza jego funkcji argumentacyjnej. W rozdziale o naukach społecznych znane

z literatury przeciwieństwa między naturalizmem a antynaturalizmem oraz indywidualizmem

metodologicznym a holizmem staram się zbliżyć do siebie i potraktować jako komplementarne

strategie realizacji zasady wnioskowania do najlepszego wyjaśnienia. Następnie ze związków

psychologii z naukami przyrodniczymi, z jednej strony, a społecznymi, z drugiej, wyciągam

wnioski (negatywne) na temat możliwości jej redukcji. Na koniec łagodzę przeciwstawienie

nauk nomologicznych i idiograficznych.

Część Trzecią potraktowałem, niestety, bardzo skrótowo, z dwóch powodów. Po pierwsze,

w zakreślonych dla tej książki ramach musiała ustąpić miejsca Części Pierwszej, najbardziej

rozwiniętej ze względu na podstawowy charakter rozważanych w niej problemów. Po drugie,

unikam podejmowania tematów, w których nie mam własnych przemyśleń i szkicowy charakter

Części Trzeciej odpowiada początkowemu stadium zaawansowania moich dociekań w zakresie

jej zagadnień. Zdecydowałem się je poruszyć dlatego, że wyczuwam takie zapotrzebowanie ze

strony czytelnika. Być może w przyszłości będę mógł je rozwinąć w sposób, na który zasługują.

Część Czwarta, ostatnia, jest niemal encyklopedycznie zwięzła z odmiennych powodów.

Na temat realizmu pisałem obszernie w poprzednich książkach (wymienionych w bibliografii)

i nie widzę powodu, aby się powtarzać bardziej, niż to niezbędne dla wprowadzenia czytelnika

w podstawowe zagadnienia w tej materii.

Bibliografia tej książki jest bardzo selektywna. Obejmuje tylko te pozycje, do których

wyraźnie odwołuję się w tekście oraz historyczne źródła podstawowych idei. Przy pozycjach

tłumaczonych na język polski podaję dwie daty: najpierw datę pierwodruku oryginału, nawet

tam gdzie, nie byłem w stanie ustalić wydawcy i miejsca pierwszego wydania a podstawą

przekładu były wydania późniejsze, a następnie datę najnowszego, wedle mojego rozeznania,

wydania polskiego. Pierwszą podaję gwoli informacji historycznej, drugą dla wygody

czytelnika, który zechciałby sięgnąć po dalsze lektury. Pominąłem w bibliografii opracowania z

zakresu historii nauki, z których czerpałem informacje i przykłady ilustrujące moje wywody.

background image

Adam Grobler, O metodzie i strukturze nauki iv

Daty wydarzeń wspomnianych w tekście umieszczam w nawiasach okrągłych (xxxx). Daty

w nawiasach kwadratowych [xxxx] odsyłają do bibliografii.

Na koniec pragnę podziękować osobom, które przyczyniły się do powstania tej książki jako

jednej z części projektu pt. Podstawy filozofii, zrealizowanego przy wsparciu Komitetu Badań

Naukowych: Włodzimierzowi Galewiczowi, pomysłodawcy i inicjatorowi całego

przedsięwzięcia, Władysławowi Stróżewskiemu, który wziął na siebie ciężar kierowania

projektem, Jerzemu Szymurze, który dał się namówić na udział w nim i Małgorzacie

Baranowskiej, której pomoc znacznie ułatwiła nasze zbiorowe zadanie. Niektóre fragmenty tej

książki zyskały na precyzji dzięki rozmowom i dyskusjom z Kazimierzem Jodkowskim, Theo

Kuipersem, Wojciechem Sadym i Andrzejem Wiśniewskim, za co jestem im bardzo wdzięczny.

W pozostałych fragmentach zdałem się na własne siły, z rezultatem im odpowiadającym.

Osobne podziękowania kieruję w stronę Rodziny, żony Joanny i dzieci Gosi, Kasi, Basi

i Pawłowi, która wyrozumiale znosi moją duchową, a często również fizyczną nieobecność.

Kraków-Zielona Góra, wrzesień 2002

background image

Spis treści

I. INDUKCJA I WYJAŚNIANIE..................................................................................................2
I.1. Problem indukcji: rys prawie historyczny..........................................................................................................2
I.2. Nauka jako wiedza prawdopodobna.................................................................................................................13

I.2.1. Droga do logiki indukcji............................................................................................................................13
I.2.2. Program Carnapa i jego główne trudności.............................................................17
I.2.3. Bayesianizm i problem

istotności świadectwa empirycznego...........................................................26

I.2.4. Niektóre in

ne trudności probabilizmu..................................................................................................31

I.2.5. Trudności ogólniejszej natury: paradoksy potwierdzania........................................................35

I.3. Falsyfikacj

onizm i jego trudności.....................................................................................42

I.3.1. Motywy falsyfikacjonizmu.........................................................................................................................42
I.3.2. Uteoretyzowanie obserwacji i problem bazy empirycznej........................................................................46
I.3.3. Problem rewizji wiedzy zastanej jako wersja problemu Duhema.............................................................56
I.3.4. Próba rozwiązania: metodologia naukowych programów badawczych.....................................61
I.3.5. Problem bazy empirycznej po raz drugi....................................................................................................64

I.4. Czy istnieje “logika nauki”?.............................................................................................................................67

I.4.1. Problem

zmiany pojęciowej.......................................................................................67

I.4.2. Logika pytań w analizie metodologicznej.......................................................................................72

I.5.

Wyjaśnianie a ocena hipotez..........................................................................................................................80

I.5.1. Zasada wnioskowania do najlepszego wyjaśnienia................................................81
I.5.2. Klasyczna koncepcja wyjaśniania i jej trudności....................................................82
I.5.3. Erotetyczna koncepcja

wyjaśniania.........................................................................................................91

I.5.4. Porównywanie mocy

wyjaśniającej hipotez.......................................................................................99

II. STRUKTURA NAUKI..........................................................................................................................................
II.1. Pojęcie teorii naukowej..................................................................................................................................
II.2. Problem redukcji terminów teoretycznych a definiowanie pojęć....................................
II.3. Operacjonizm, definicje operacyjne i pojęcie pomiaru...................................................
II.4. Definicje częściowe........................................................................................................
II.5. Terminy klasyfikacyjne i typologiczne...............................................................................................................
II.6. Pojęcie prawa.................................................................................................................
II.7. Idealizacje i warunki ceteris paribus...................................................................................................................
II.8. Teorie a modele...................................................................................................................................................
II.9. Koncepcja niezdaniowa teorii naukowych..........................................................................................................
II.10. Dziedziny a teorie..............................................................................................................................................
II.11. Identyfikacja dziedziny w ujęciu logiki pytań...............................................................
II.12. Problem redukcji i jedności nauki.................................................................................
III. TYPY NAUK I ICH ODMIENNOŚCI METODOLOGICZNE........................................................
III.1. Nauki dedukcyjne i empiryczne.........................................................................................................................
III.2. Nauki przyrodnicze i społeczne.....................................................................................
III.3. Psychologia........................................................................................................................................................
III.4. Nauki nomotetyczne i idiograficzne..................................................................................................................
IV. STATUS POZNAWCZY NAUKI.......................................................................................................................
IV.1. Zagadnienie realizmu.........................................................................................................................................
IV.2. Realizm pluralistyczny......................................................................................................................................

Bibliografia
Indeks osób
Indeks przedmiotowy

background image

Adam Grobler, O metodzie i strukturze nauki 2

I. INDUKCJA I WYJAŚNIANIE

I.1. Problem indukcji: rys prawie historyczny.

Poznanie naukowe ma charakter empiryczn

y. Jest to stwierdzenie prawie że

banalne, przynajmniej gdy pominąć tzw. nauki dedukcyjne: matematykę i

logikę. Osobliwości tych dwóch szacownych dyscyplin odłóżmy na później.

W każdym razie do uprawiania nauk empirycznych nie wystarczą

dedukcyjne metody rozumowania, które charakteryzują się miłą

niezawodnością: z prawdziwych przesłanek wynikają wyłącznie prawdziwe

wnioski. Błąd jest możliwy tylko wtedy, gdy przesłanki są fałszywe lub

rozumowanie zostało wadliwie przeprowadzone. Natomiast hipotezy i teorie

naukowe z natury rzeczy wykraczają poza przesłanki doświadczalne.

Rozumowanie prowadzące do ich akceptacji nie może zatem być ani

dedukcyjne, ani niezawodne. Problem zatem przedstawia się następująco.

Skoro rozumowania stosowane w nauce, zwane rozumowaniami

indukcyjnymi, a czasem ampliatywnymi lub twórczymi, są zawodne, to czy

są w ogóle prawomocne? Jaki status poznawczy mają wnioski indukcyjne?

Dzięki czemu wnioski indukcyjne mają w ogóle jakiś status poznawczy?

Pierwsza poważna próba rozwiązania problemu indukcji pochodzi od

Francisa Bacona [1620]. Odróżnił on indukcję eliminacyjną od indukcji

enumeracyjnej, czyli indukcji przez proste wyliczenie

przypadków. Ta druga, która

polega na bezpośrednim uogólnieniu w rodzaju: jeżeli A

1

jest B, A

2

jest B,... A

n

jest B

, to każde A jest B, jest metodą naiwną i niegodną miana naukowej. Tę

ocenę dosadnie ilustruje przypowieść Bertranda Russella. Pewnego

kurczaka nakarmiono w poniedziałek, we wtorek i we środę. Kurczak myśli

sobie: “Aha, codziennie będą mnie karmić”. Tymczasem w sobotę

ugotowano z kurczaka rosół.

background image

Adam Grobler, O metodzie i strukturze nauki 3

Metoda indukcji eliminacyjnej jest bardziej wyrafinowana. Zgodni

e z nią, zamiast

dokonywać prostolinijnych uogólnień materiału doświadczenia, należy

wpierw sformułować wyczerpującą listę wzajemnie wykluczających się

hipotez na interesujący nas temat. Na takiej liście, skoro jest ona

wyczerpująca, znajduje się hipoteza prawdziwa. Z kolei, skoro hipotezy z

tej listy wzajemnie się wykluczają, jest na niej tylko jedna hipoteza

prawdziwa. Zadanie uczonego polega teraz na tym, aby tę hipotezę

zidentyfikować. Można to uczynić eliminując kolejno hipotezy fałszywe, aż

zostanie tylko jedna, ta prawdziwa. Narzędziem eliminacji jest

eksperyment. Eksperyment należy więc tak projektować, aby jego dowolny

rezultat eliminował co najmniej jedną z alternatywnych hipotez.

Eksperyment o tej własności nazywa się eksperymentem krzyżowym.

Odpo

wiedni dobór eksperymentów krzyżowych na wydaje się na dłuższą

metę gwarantować osiągnięcie celu.

Bacon sądził, że znalazł niezawodną metodę postępowania naukowego.

Gdyby tak było, ciąg dalszy tej książki nie mógłby nastąpić. Trwały wkład

Bacona do filozofii nauki polega na wprowadzeniu idei eksperymentu.

Eksperyment nie jest prostą obserwacją tego, co doświadczenie przynosi.

Eksperyment polega na zaaranżowaniu sytuacji stwarzającej daje okazję

do obserwacji, która bez planowego działania uczonego mogłaby się nie

nadarzyć. Ujmując rzecz nieco frywolnie, eksperyment różni się od

obserwacji tym, czym przesłuchiwanie od podsłuchiwania w śledztwie

prowadzonym w sprawie przyrody. Plan eksperymentu jest

podporządkowany określonemu zadaniu: dyskryminacji wysuniętych

wcześniej hipotez. W ten sposób hipotezy odgrywają kierującą rolę

w badaniu naukowym. Dostrzeżenie tego jest również wielką zasługą

Bacona.

Bacon jednak nie w pełni docenił rolę hipotez. Planując eksperyment

należy zadbać o wyeliminowanie wpływu czynników ubocznych. Bacon

sądził, że do tego wystarczy przestrzeganie sformułowanych przezeń

drobiazgowych reguł metodologicznych dotyczących posługiwania się

background image

Adam Grobler, O metodzie i strukturze nauki 4

tablicami obecności, nieobecności i stopni. Skąd jednak wiadomo, które

czynniki należy w ogóle uwzględniać przy sporządzaniu tablic na użytek

konkretnego problemu naukowego? Weźmy, dla przykładu, badanie

zależności czasu spadania ciała od wysokości, z której spada. Jest dość

oczywiste, że proces spadania może być zakłócony przez wiatr. Wynika

stąd, że eksperymenty należy prowadzić przy bezwietrznej pogodzie lub w

miejscu osłoniętym od wiatru. Nawet pod nieobecność wiatru opór

powietrza może znacznie hamować spadanie ciała, gdy jego powierzchnia

jest duża w porównaniu z jego masą. Dlatego do eksperymentów należy

dobierać ciała o kształtach obłych, niewielkiej objętości i stosunkowo dużej

masie. I tak dalej. Jednak liczba czynników, które można wziąć pod uwagę,

musi być ograniczona, jeżeli problem ma być rozwiązany w jakimś

rozsądnym czasie, powiedzmy, w czasie kilku, kilkudziesięciu, kilkuset czy

kilku tysięcy lat. Toteż przed przystąpieniem do projektowania

eksperymentu trzeba przeprowadzić wstępną selekcję czynników. Na jakiej

podstawie? Na podstawie wcześniej przyjętych hipotez. One to,

w przypadku spadania ciał, nakazują uwzględnienie wpływu oporu

powietrza czy np. położenia geograficznego, a pominięcie wpływu składu

chemicznego spadającego ciała, jego wartości rynkowej, stanu zdrowia

eksperymentatora, narodzin słoniątka w ogrodzie zoologicznym w Berlinie,

przebiegu negocjacji w sprawie przystąpienia Polski do Unii Europejskiej,

ruchu cen na giełdzie w Tokio i niezliczonych innych okoliczności. Metoda

eliminacji hipotez nie może więc działać bez wcześniej przyjętych hipotez.

Z drugiej strony, według Bacona, hipotezę wolno przyjąć dopiero po

wyeliminowaniu, jego metodą, hipotez alternatywnych. W ten sposób

metoda Bacona nie może nawet wystartować. Kierująca rola hipotez

okazuje się większa, niż przypuszczał.

Spróbujmy uchylić element czasu. Załóżmy, że od metody naukowej

oczekuje się tylko tego, aby w ogóle prowadziła do wartościowych

wyników poznawczych, bez względu na czas potrzebny do realizacji jej

zadania: niechby i miliony lat. Albo że zastosowanie nowoczesnych

background image

Adam Grobler, O metodzie i strukturze nauki 5

komputerów, czy jeszcze nowocześniejszych komputerów przyszłości,

pozwoli dokonywać wystarczająco wydajnych analiz baconowskich tablic

sporządzonych bez wstępnej selekcji czynników. Wówczas może metoda

indukcji eliminacyjnej mogłaby zadziałać. Po cóż jednak mielibyśmy się

kłopotać uruchomieniem tak nieporęcznej metody, skoro od czasów

Bacona do dziś nauka, najwyraźniej innymi metodami, poczyniła

znakomite postępy. Są one wprawdzie obarczone ryzykiem: wczorajsze

“prawdy” naukowe są dzisiejszymi fałszami, więc i dzisiejsze “prawdy”

wypada uznać za tymczasowe. Bacon zaś obiecywał uzyskanie pewności.

Czy nie warto dla niej podjąć ciężar ołowiu, który wedle jego słów jest

nauce bardziej potrzebny od geniuszu? Może. Choć sprawa jest

dyskusyjna. Według Williama Jamesa, trzeba odróżnić dążenie do prawdy

o

d unikania błędu. Kto nazbyt wysoko ceni sobie pewność, ten skłonny jest

pierwsze zaniedbywać dla drugiego. Podobny morał można wyciągnąć

porównując naukę do gry ekonomicznej: bez podejmowania ryzykownych

przedsięwzięć trudno osiągnąć wielkie zyski.

Z dr

ugiej strony, trudno powiedzieć, że amatorzy zysków skromnych a

bezpiecznych są nierozsądni. “Tisze jediesz, dalsze budiesz”, jak mówili

starożytni Rosjanie. Może więc Bacon oferuje opcję atrakcyjną dla tych,

którzy woleliby, by nauka czyniła wolniejsze postępy, a za to pewniejsze?

Niestety. Nawet najszybsze komputery w nawet najdłuższym czasie mogą

przeanalizować tablice uwzględniające nawet bardzo wielką, ale

skończoną liczbę czynników. Skąd jednak wiemy, że liczba czynników

występujących w przyrodzie jest skończona? Jeśli nawet jest skończona, to

podobne pytanie powstaje w związku baconowskim zaleceniem

sformułowania wyczerpującej listy wzajemnie wykluczających się hipotez.

Żeby eliminacja hipotez fałszywych mogła doprowadzić uczonego do

uwieńczenia jego dzieła, wspomniana lista hipotez musi mieć skończoną

długość. Skąd wiemy, że na dany temat można sformułować wyczerpującą

i zarazem skończoną listę hipotez? Założenie, że to jest możliwe, nosi

nazwę zasady ograniczonej różnorodności świata. Zasadę tę Bacon

background image

Adam Grobler, O metodzie i strukturze nauki 6

milcząco przyjął za oczywistą. Zapewne zasugerował się tym, że w języku

naturalnym występuje skończona liczba wyrazów, a zatem da się w nim

sformułować skończoną liczbę zdań postaci “A jest B”. Taką właśnie formę

powinny, według niego, mieć hipotezy.

Że liczba alternatywnych hipotez nie jest skończona, poucza bardzo

prosty przykład. Rozważmy, skądinąd fałszywą, hipotezę: “Słońce

wschodzi co 24 godziny”. Prawdziwe twierdzenie na ten temat jest nieco

bardziej skomplikowane. Hipotez alternatywnych zaś jest nieskończenie

wiele, bo nieskończenie wiele jest 365-elementowych ciągów wyrażających

długości kolejnych dób roku. Sprawę komplikują jeszcze lata przestępne,

nie mówiąc już o tym, że długość doby mogłaby się zmieniać nie w cyklu

rocznym, ale np. tygodniowym albo stuletnim. Samo użycie liczb, nie

mówiąc już o bardziej zaawansowanych pojęciach matematycznych,

dostarcza nieograniczonych możliwości konstruowania hipotez

alternatywnych wobec dowolnej hipotezy. Wiele praw nauki ma postać

zależności funkcyjnej między dwiema lub kilkoma mierzalnymi

wielkościami. Najdrobniejsza nawet modyfikacja równania (wyjąwszy

przekształcenia równoważnościowe) prowadzi do sformułowania hipotezy

alternatywnej. Nie sposób sporządzić listy możliwych modyfikacji.

Na tym polega jedn

o ze współczesnych utrapień filozofii nauki, wyrażające

się w tezie o niedookreśleniu teorii przez dane empiryczne. Mówi

ona, że po wyeliminowaniu wszystkich hipotez niezgodnych z dowolnie

obszernym zespołem danych empirycznych zawsze zostaje nieskończenie

wiele hipotez do wyeliminowania. Szczególnym wariantem tej tezy jest paradoks doboru

krzywej

. Weźmy pod uwagę zbiór hipotez na temat zależności między

dwiema wielkościami, wyrażających się za pomocą równań, powiedzmy,

dla uproszczenia, algebraicznych. Każdą taką hipotezę reprezentuje pewna

krzywa w układzie współrzędnych na płaszczyźnie. Dowolny zbiór danych

empirycznych można przedstawić w postaci skończonego zbioru punktów

tej płaszczyzny

1

. Można łatwo udowodnić, że istnieje nieskończenie wiele

1

.

Jeżeli pominąć błąd pomiarowy. Uwzględniając margines błędu należałoby każdy punkt

background image

Adam Grobler, O metodzie i strukturze nauki 7

krzywych algebraicznych, przechodzących przez wszystkie punkty tego

zbioru. Dołączanie kolejnych danych eksperymentalnych eliminuje

niektóre krzywe, za każdym razem jednak pozostaje ich nieskończenie

wiele.

Bacon nie zdawał sobie sprawy z tych kłopotów przypuszczalnie

dlatego, że nie brał pod uwagę możliwości stosowania matematyki do

poznania przyrody. Wciąż znajdował się pod wpływem starożytnego

rozróżnienia na szlachetną episteme, do której zaliczano matematykę

i astronomię, traktujące o przedmiotach wiecznych i niezmiennych

2

, o

raz

pospolitą doxa, obejmującą dociekania o rzeczach kapryśnych

i przemijających. Tradycję tę przełamał Galileusz, który aforyzmem

“księga przyrody pisana jest językiem kół i trójkątów” podniósł fizykę do

godności autentycznej nauki. Jednak nawet gdyby poznanie przyrody

miało ograniczać się do ustalania praw jakościowych, praw postaci “Każde

A jest B”, zasadę ograniczonej różnorodności świata należałoby uznać za

złudzenie. Nie ma bowiem żadnej gwarancji, że w świecie nie istnieje

jakość, na określenie której brakuje w naszym języku odpowiedniego

wyrazu. Gdyby taki wyraz wynaleźć i dołączyć do słownictwa

rozpatrywanego języka, można byłoby sformułować hipotezę, która nie

występowała dotąd na żadnej liście hipotez. Ponieważ nigdy nie można

wykluczyć odkrycia nowych jakości i idącego za nim rozszerzenia

dotychczasowego języka, żadnej listy hipotez nie można uznać za

wyczerpującą. Wspaniałym przykładem wynalazków językowych – nie do

pomyślenia w czasach Bacona – na określenie nowo odkrytych jakości są

“kolory” kwarków

3

.

Metoda indukcji eliminacyjnej nie daje gwarancji odkrycia prawdy

nawet gdyby zasada ograniczonej różnorodności świata obowiązywała.

reprezentujący dane zastąpić kołem o środku w tym punkcie i promieniu równym wielkości

błędu. To uściślenie dodatkowo zaostrza omawiany paradoks. Paradoks jest tym ostrzejszy,
że prócz funkcji algebraicznych można oczywiście dopuścić funkcje przestępne.
2

.

Za takie uważano gwiazdy i planety, zanim uznano je za ciała fizyczne zasadniczo tej

samej natury, co ciała znajdujące się w ”sferze podksiężycowej”.
3

.

Nb. jakości odkrytych, a może tylko postulowanych, dzięki wyrafinowanemu

aparatowi matematycznemu teorii.

background image

Adam Grobler, O metodzie i strukturze nauki 8

Przypuśćmy bowiem, że udało się wyeliminować wszystkie hipotezy, prócz

jednej, z pewnej wyczerpującej listy hipotez. Czy stąd wynika, że ta

ostatnia pozostała hipoteza jest prawdziwa? Aby można było taki wniosek

wyciągnąć, trzeba jeszcze założyć, że w ogóle istnieje jakaś hipoteza

prawdziwa. Gdy idzie o hipotezy na temat długości doby, trzeba założyć,

że kolejne wschody słońca występują zgodnie z jakąś regułą. Gdyby słońce

zachowywało się całkowicie kapryśnie, czyli gdyby Ziemia obracała się raz

szybciej, raz wolniej, według jakiegoś widzimisię, żadna hipoteza na temat

długości doby nie byłaby prawdziwa. Krótko mówiąc, metoda może być

wiarygodna jedynie przy założeniu, że w przyrodzie występują jakieś

prawidłowości.

Bacon przyjmował na to miejsce inne założenie, charakterystyczne dla

tradycji, zwłaszcza scholastycznej, której wpływom nieświadomie i

mimowolnie ulegał. Uznając “Każde A jest B” za wzorcową formę hipotezy

naukowej przyjął, że hipoteza przypisuje rzeczom pewnego rodzaju (A)

pewną istotną jakość (B), tj. jakość, która przysługuje im z istoty rzeczy.

Odkrycie tej istoty miało być zadaniem metody naukowej. Bacon zakładał

więc esencjalizm, tj. pogląd, wedle którego rzeczy mają swoją istotę, coś bez

czego nie byłyby tym, czym są. Przeciwko esencjalizmowi można jednak

wysunąć poważne argumenty. Wittgenstein [2000/1953] dowodził, że nie

ma nic takiego, co byłoby wspólne wszystkim grom. Różne zajęcia określa

się mianem gry nie dlatego, że mają wspólną istotę, że prawdą jest dla

jakiegoś B, iż “Każda gra jest B”, lecz dlatego, że gry łączy ze sobą

“podobieństwo rodzinne”. Gry mają jedne cechy wspólne z jednymi grami,

inne cechy wspólne z innymi grami. Nie można wykluczyć, że

spostrzeżenie Wittgensteina na temat gier może mieć zastosowanie

również do rodzajów rzeczy występujących w przyrodzie. Takie podejrzenie

może powstać m.in. w obliczu trudności w zdefiniowaniu pojęcia gatunku

biologicznego. Wedle popularnej definicji, dwa typy organizmów należy

uznać za odmiany tego samego gatunku, jeżeli zdolne są do krzyżowania

się i ich krzyżówki są płodne. Tymczasem istnieją pewne odmiany mew,

background image

Adam Grobler, O metodzie i strukturze nauki 9

zamieszkujące różne rejony geograficzne, o tej własności, że krzyżują się z

odmianami zamieszkującymi sąsiednie rejony, a nie krzyżują się z

odmianami z rejonów odległych. Istnieją więc odmiany, powiedzmy, A, B i

C takie, że – na mocy przytoczonej definicji – A i B należą do tego samego

gatunku, B i C należą do tego samego gatunku, natomiast A i C należą do

różnych gatunków.

Po Baconie dość szybko zainteresowania poznawcze z istoty rzeczy

przesunęły się w stronę prawidłowości zjawisk, prawidłowości nadających

się do ujęcia w formie praw przyrody. Żeby jednak naukę potraktować jako

poszukiwanie praw przyrody, trzeba założyć, że takie prawa istnieją, że

przyroda nie rządzi się nieprzewidywalnym kaprysem. To przesunięcie

akcentów nie jest bynajmniej porzuceniem, lecz modyfikacją esencjalizmu.

Prawa przyrody mówią bowiem, najogólniej rzecz biorąc, że rzeczy

określonego rodzaju w określonych warunkach zachowują się w określony

sposób

. Pojęcie prawa zakłada więc, że rzeczy będące przedmiotem badania

naukowego dzielą się na rodzaje.

Jak z tego widać, ażeby uznać prawomocność metody indukcji

eliminacyjnej, trzeba przyjąć szereg założeń o niejasnym statusie

poznawczym. Jak później dowodził David Hume [1751], metody

indukcyjnej nie sposób uzasadnić. W szczególności, według Hume’a, nie

możemy niczego się dowiedzieć o związkach przyczynowych albo

koniecznych między zjawiskami. Jeżeli raz zaobserwujemy, że po A

nastąpiło B, nie twierdzimy jeszcze, i słusznie, że A jest przyczyną B.

Twierdzimy tak dopiero wtedy, gdy podobną sekwencję zjawisk

zaobserwujemy wielokrotnie. Jednak kolejne obserwacje, będąc z założenia

podobne do poprzednich, nie wnoszą żadnych nowych informacji.

Wywołują w nas co najwyżej przyzwyczajenie połączone z oczekiwaniem,

że również w przyszłości po A będzie zawsze następować B. W ten sposób

mówiąc o przyczynach w świecie mamy w gruncie rzeczy na myśli własne

przyzwyczajenia i oczekiwania. Nauka zatem nie dostarcza wiedzy o

świecie, lecz jest zbiorem przesądów opartych na przyzwyczajeniach.

background image

Adam Grobler, O metodzie i strukturze nauki 10

Pożytecznych wprawdzie, lecz niczym nie uzasadnionych przesądów. W

ten sposób Hume podał negatywne rozwiązanie problemu indukcji.

Jest ono nie do przyjęcia m.in. dlatego, że zostawia bez odpowiedzi

pytanie, dlaczego przesądy naukowe są bardziej pożyteczne od innych

przesądów. Ostatecznie kurczak Russella też miał oczekiwania oparte na

przyzwyczajeniu. Efektywną strategię odparcia Hume’owskiego sceptycyzmu

przyjął Immanuel Kant [1781]. Będąc młodszym od Hume’a miał większe

zaufanie do nauki. W jego czasach fizyka Newtona zdobyła sobie w końcu

powszechne uznanie. Długotrwały opór przed jej akceptacją wynikał z

odrzucania, jako niezrozumiałej, idei oddziaływania na odległość,

zakładaną przez prawo grawitacji. Do tej pory wszelkie oddziaływania w

przyrodzie pojmowano na wzór popchnięć. I choć przez lata nie stało się

nic, co by uczyniło pomysł Newtona łatwiejszym do zrozumienia, to

zadziałało przyzwyczajenie, poparte spektakularnymi sukcesami jego teorii

w zakresie przewidywania i wyjaśniania zjawisk. W tym stanie rzeczy Kant,

zamiast poszukiwać rozumowania, które by prowadziło do wniosku, że

metoda indukcji jest prawomocna, odwrócił kierunek myślenia. To, że

nauka jest autentycznym poznaniem, a zatem jej metoda musi być

prawomocna, przyjął za punkt wyjścia rozumowania nazwanego

argumentem transcendentalnym

. W największym skrócie, argument ten ma

formę następującą. Jeżeli poznanie naukowe ma być możliwe, to musi być

tak a tak. Poznanie naukowe jest faktem, więc musi być tak a tak.

Komentując metodę zaproponowaną przez Bacona napisałem, że aby ta

metoda mogła zadziałać, trzeba wcześniej przyjąć pewne przesłanki. Hume

udowodnił, że niezbędnych po temu przesłanek nie da się przyjąć na

podstawie samego tylko doświadczenia. Kant doszedł do wniosku, że w

takim razie trzeba je przyjąć a priori. Reszta jego argumentu

transcendentalnego zmierza do ustalenia tego, co właściwie trzeba przyjąć

a priori

. Nie wchodząc w szczegóły można powiedzieć, że Kant doszedł do

wniosku, iż podmiot poznający musi być a priori wyposażony w pewne

mechanizmy porządkowania doświadczenia, nazwane formami

background image

Adam Grobler, O metodzie i strukturze nauki 11

zmysłowości i kategoriami (pojęciami) czystego intelektu. Jedną

z (dwunastu) kategorii jest pojęcie przyczyny, na które Hume narzekał, że

nie można go wywieść z doświadczenia. Skoro nie pochodzi ono

z doświadczenia, a jest niezbędne do formułowania praw przyrody, czyli do

uprawiania nauki, więc musimy je mieć a priori. Tak można streścić

argument transcendentalny w tym szczególnym zastosowaniu. Mieć a priori

kategorię przyczyny to tyle, co mieć niejako gotową a priori matrycę do

wydawania sądów postaci “... jest przyczyną ...”. Metoda indukcji służy zaś

do wypełniania pustych miejsc w blankietach wyprodukowanych za

pomocą tej matrycy. Posiadanie a priori kategorii przyczyny jest niejako

równoznaczne ze znajomością a priori zasady przyczynowości, zasady,

wedle której jednakowe przyczyny wywołują każdorazowo jednakowe

skutki.

Kant jako pierwszy przeprowadził wyraźne rozróżnienie między nauką a

metafizyką. Naukę określił jako działalność intelektualno-zmysłową, tj.

działalność posługującą się (łącznie) apriorycznymi formami zmysłowości i

kategoriami czystego intelektu. Do metafizyki zaliczył każde

przedsięwzięcie rozumowe, które te ramy przekracza. W szczególności

sama doktryna, wedle której podmiot poznający jest wyposażony w

aprioryczne formy i kategorie, należy do metafizyki. Innymi słowy, Kant

dostarczył metafizycznego uzasadnienia metody naukowej. Przestało ono

wystarczać po zdyskredytowaniu metafizyki przez pozytywizm i inne

empirystyczne kierunki. Niemniej pomysły Kanta, odpowiednio

przekształcone, do dziś odgrywają ogromną rolę w filozofii nauki.

W szczególności, argument transcendentalny, tak atrakcyjny w obronie

przed sceptycyzmem, nadaje się do zastosowania również na gruncie

empiryzmu.

Przykładem może być uzasadnienie indukcji podane przez Johna Stuarta

Milla [1843]. Upraszczając metodę Bacona, sformułował on pięć kanonów

metody indukcji eliminacyjnej. Dla przykładu przytoczę kanon różnicy:

“Jeżeli przypadek, w którym dane zjawisko badane zachodzi, oraz

background image

Adam Grobler, O metodzie i strukturze nauki 12

przypadek, w którym ono nie zachodzi, mają wszelkie okoliczności

wspólne, wyjąwszy jedną, i przy tym ta jedna zachodzi tylko w przypadku

pierwszym, to okoliczność, co do której jedynie te dwa przypadki się

różnią, jest skutkiem albo przyczyną, albo nieodzowną częścią przyczyny

danego zjawiska”. Łączne zastosowanie wszystkich kanonów prowadzi do

ustalenia praw wyrażających związki przyczynowe między zjawiskami. Tym

s

amym metoda Milla zakłada zasadę przyczynowości. Pytanie brzmi, jak

uzasadnić tę zasadę, jeżeli nie a priori, jak Kant, i nie za pomocą indukcji

eliminacyjnej, co prowadziłoby do błędnego koła. Mill znalazł wyjście:

odwołał się do metody indukcji enumeracyjnej. Dla uzasadnienia zasady

przyczynowości, Mill gotów jest wyjątkowo zaufać tej skądinąd

niewiarygodnej metodzie. Powiada, że zasada przyczynowości jest

potwierdzona w przypadkach tak licznych, w porównaniu z potwierdzeniem

jakiegokolwiek szczególnego prawa przyczynowego, że zrobienie

wyjątkowego użytku z metody indukcji enumeracyjnej jest uzasadnione.

Myślę, że to rozumowanie Milla można uznać za odmianę argumentu

transcendentalnego: wyjątkowy użytek poza tym niewiarygodnej metody

jest uzasadniony tym, że w przeciwnym razie bardziej wiarygodna metoda

indukcji eliminacyjnej pozostałaby bez uzasadnienia.

Wprowadzenie zasady przyczynowości niestety nie rozwiązuje

wszystkich problemów wspomnianych w komentarzu na temat metody

Bacona. W szczególności, nie rozwiązuje problemu wstępnej selekcji

czynników, która jest absolutnie niezbędna. Wspomniany wyżej kanon

różnicy w jego dosłownym brzmieniu jest nie do zastosowania: jak

skonstruować przypadki różniące się dokładnie pod jednym względem?

Podobnie rzecz się przedstawia z pozostałymi kanonami. W praktyce

metodą indukcji można posługiwać się jedynie w sposób bardziej

swobodny, porównując poszczególne przypadki pod względami uznanymi

za istotne w danym kontekście badawczym. Do odróżnienia czynników

istotnych od nieistotnych trzeba mieć uprzednio zaakceptowane hipotezy.

Skąd je wziąć przy pierwszym zastosowaniu metody?

background image

Adam Grobler, O metodzie i strukturze nauki 13

Dlatego w XX wieku podjęto na nowo próby rozwiązania problemu

indukcji. W rozdziale I omówię najważniejsze z nich: probabilizm,

falsyfikacjonizm i abdukcjonizm.

I.2. Nauka jako wiedza prawdopodobna

I.2.1. Droga do logiki indukcji

Metoda indukcji eliminacyjnej miała na celu zawodne wnioskowanie

indukcyjne przekształcić w coś równie niezawodnego, jak wnioskowanie

dedukcyjne. Okazuje się jednak, że nawet najbogatsze, lecz z natury

rzeczy skończone świadectwo empiryczne, nie może wystarczyć do

wyczerpującego uzasadnienia żadnej hipotezy uniwersalnej. Z drugiej

strony, trudno nie przyznać, że świadectwo empiryczne w jakiś sposób

przyczynia się do dyskryminacji hipotez, że przemawia na korzyść jednych

i niekorzyść innych hipotez. Świadectwo empiryczne zatem przynajmniej

częściowo uzasadnia wybór hipotez. Takie rozumowanie prowadzi do

stanowiska nazwanego przez Lakatosa [1971]

słabym justyfikacjonizmem.

Zgodnie z nim żadna hipoteza nigdy nie jest wyczerpująco uzasadniona,

ale może być lepiej lub gorzej potwierdzona przez świadectwo.

Potwierdzenie jest więc stopniowalne. Pytanie brzmi: jak mierzyć stopień

potwierdzenia? Są dwa poważne argumenty, aby stopień potwierdzenia

hipotezy traktować jako prawdopodobieństwo jej prawdziwości, dokładniej,

prawdopodobieństwo warunkowe ze względu na świadectwo.

Po pierwsze, za pomocą pojęcia prawdopodobieństwa warunkowego

można zdefiniować relację między zdaniami

4

z których jedno wyraża

hipotezę, a drugie świadectwo – będącą uogólnieniem zwykłej implikacji.

4

Czytelnik może być przyzwyczajony do tego, że prawdopodobieństwo określa się nie na

zdaniach, ale na zdarzeniach pojmowanych jako zbiory. W istocie nie ma wielkiej różnicy:
wystarczy zbiór zastąpić zdaniem będącym jego opisem a operacje mnogościowe

,

, ’,

zastąpić logicznymi

,

,

¬

. W szczeg

ólności, Prawdopodobieństwo warunkowe hipotezy H ze

względu na świadectwo E definiuje się wzorem: P(H|E) = P(H

E)/P(E).

background image

Adam Grobler, O metodzie i strukturze nauki 14

Mianowicie, równość P(H|E) = 1 znaczy tyle, że jeżeli zachodzi E (E jest

zdaniem prawdziwym), to P(H) = 1, czyli H jest pewne

5

, a zatem

prawdziwe. Innymi słowy, P(H|E) = 1 jest praktycznie równoważne

implikacji E à H. Z kolei równość P(H|E) = 0 znaczy tyle, że jeżeli zachodzi

E (E jest zdaniem prawdziwym), to P(H) = 0, czyli H jest niemożliwe

6

, czyli

fałszywe. Innymi słowy, P(H|E) = 0 jest praktycznie równoważne implikacji

E à

¬

H. Przypadki pośrednie, tzn. P(H|E) = r, 0 < r < 1, reprezentują więc

sytuację, w której E “częściowo implikuje” H, tj. prawdziwość E nie

przesądza wartości logicznej H, ale ją niejako sugeruje: im większe r, tym

bardziej prawdopodobne, że H jest prawdziwe. Wydaje się, że świadectwo

empiryczne wchodzi w tego rodzaju relacje z hipotezami: nie implikuje ich,

lecz uprawdopodabnia.

Po drugie, wydaje się, że za pomocą pojęcia prawdopodobieństwa

można należycie określić stopień racjonalnego przekonania

o prawdziwości hipotezy. Z braku wyczerpujących dowodów, uczony nigdy

nie może być pewny swoich hipotez. Stąd jednak nie wynika, że musi, jak

starożytny sceptyk, przestrzegać zasady równowagi sądzenia. Przeciwnie,

świadectwa słusznie skłaniają uczonych do dyskryminacji hipotez: uczeni

są w mniejszym lub większym stopniu przekonani o ich prawdziwości.

Pytanie brzmi: co to znaczy, że ktoś jest przekonany w stopniu r o

prawdziwości H? Stopień przekonania najlepiej jest mierzyć skłonnością do

działania na podstawie danej hipotezy. Najlepiej skłonnością do przyjęcia

zakładu na temat jej prawdziwości. Kto jest w wysokim stopniu przekonany

o prawdziwości pewnej hipotezy, ten gotów jest postawić na nią dolary

przeciw orzechom. W przeciwnym przypadku nie postawi ani grosza. Niech s

1

będzie

stawką, którą gracz stawia w zakładzie, a s

2

będzie stawką jego

przeciwnika. Wówczas s

1

/ s

1

+ s

2

nazywa się ilorazem zakładu dla tego

gracza. Stopniem przekonania gracza (o tym, że wygra zakład) można

5 Przy założeniu, że przestrzeń prawdopodobieństwa jest skończona. W przeciwnym razie

P(H) = 1 jest równoważne temu, że zbiór przypadków sprzyjających nie-H jest miary zero
(lecz może być niepusty).

6 Dokładniej: zbiór przypadków sprzyjających H jest miary zero (choć może być niepusty).

background image

Adam Grobler, O metodzie i strukturze nauki 15

nazwać najwyższy iloraz, przy którym gracz skłonny jest zakład przyjąć.

Jeżeli więc gracz gotów jest postawić 9 zł, ale ani grosza więcej, przeciw 1

zł na to, że następne wybory prezydenckie wygra Jolanta Kwaśniewska to

znaczy, iż jest w 90% przekonany, że tak właśnie się stanie.

Teraz należy odpowiedzieć na pytanie, jakie warunki muszą być

spełnione, aby stopień przekonania był racjonalny. Na pewno stopień

przekonania musi być modyfikowalny – według jakiejś reguły – w miarę

pozyskiwania nowych świadectw. To jednak nie wystarczy. Wyjściowy

układ przekonań racjonalnego podmiotu nie może być zupełnie dowolny.

Przypuśćmy, że wspomniany przed chwilą gracz gotów jest przyjąć zakład,

w którym postawiłby 2 zł przeciw 8 zł na wygraną w wyborach Andrzeja

Leppera. Wówczas gdyby nasz gracz przystąpił do obydwu zakładów, w

przypadku sukcesu obecnej pierwszej damy wygrywa 1 zł, ale przegrywa 2

zł, w przypadku zwycięstwa Leppera wygrywa 8 zł, ale przegrywa 9 zł.

Jeszcze gorzej, gdy wygra ktoś postronny. Bez względu na wynik wyborów

nasz gracz musi dopłacić do interesu. Toteż gracz, który przyjmuje taki

system

zakładów, zwany w literaturze holenderskim (Dutch-book) jest

nieracjonalny. Warunkiem racjonalności gracza zawierającego zakłady jest

to, by przystępując do systemu zakładów miał szanse wygrać. Okazuje się,

że kompletny system zakładów (tj. taki, w którym gracz obstawia wszystkie

możliwe wyniki) nie jest systemem holenderskim wtedy i tylko wtedy, gdy

układ stopni przekonania gracza, mierzony ilorazem zawieranych przez

niego zakładów, spełnia aksjomaty rachunku prawdopodobieństwa

7

.

Z powyższych rozważań wynika, że wyjściowy układ stopni przekonania

powinien spełniać aksjomaty rachunku prawdopodobieństwa, a następnie

powinien być modyfikowany pod wpływem świadectwa, również zgodnie z

aksjomatami rachunku prawdopodobieństwa. Ten drugi warunek jest

spełniony, jeżeli stopień przekonania o prawdziwości hipotezy ze względu

na dane świadectwo ująć jako prawdopodobieństwo warunkowe.

7 Zanim Kołmogorow sformułował klasyczny układ aksjomatów, jeden z pionierów rachunku
prawdopodobieństwa, Thomas Bayes, używał argumentu z holenderskiego systemu

zakładów dla uzasadnienia swoich twierdzeń.

background image

Adam Grobler, O metodzie i strukturze nauki 16

Kłopot polega na tym, że samo pojęcie prawdopodobieństwa nie jest

całkiem jasne. To znaczy, z czysto matematycznego punktu widzenia

prawdopodobieństwo jest unormowaną miarą addytywną określoną na

pewnym zbiorze, tj. spełniającą pewne dodatkowe warunki funkcją o

wartościach z przedziału [0, 1], określoną na spełniającym pewne warunki

podzbiorze zbioru podzbiorów pewnego zbioru. Krótko mówiąc,

prawdopodobieństwo jako pojęcie matematyczne nie kryje w sobie żadnej

tajemnicy, przynajmniej dla wtajemniczonych. Natomiast z filozoficznego

punktu widzenia potrzebna jest jakaś interpretacja umożliwiająca

wyjaśnienie, dlaczego to matematyczne pojęcie ma zastosowanie do

rozwiązywania określonego typu problemów. W przypadku zastosowania

do problemu indukcji rozpatrywano trzy interpretacje: częstościową,

logiczną i subiektywną.

Interpretacja

częstościowa nawiązuje do tzw. klasycznej definicji

prawdopodobieństwa

8

, wyrażającej prostą intuicję, wedle której

prawdopodobieństwo interesującego nas zdarzenia jest miarą jego średniej

częstości w nieograniczenie długiej serii zdarzeń określonego typu. Np.

prawdopodobieństwo wyrzucenia reszki, przy założeniu, że moneta jest

prawidłowa, powinno wynosić 1/2, ponieważ w nieograniczenie długiej serii

rzutów monetą orły i reszki powinny występować jednakowo często. Nieco

zagadkowe pojęcie częstości, nie dość, że średniej, to jeszcze w

nieograniczenie długiej serii zdarzeń, ma całkiem ścisłą, matematyczną

definicję. Mianowicie, nieograniczenie długą serię zdarzeń można

przedstawić w formie nieskończonego ciągu skończonych ciągów n

początkowych zdarzeń tej serii. W każdej takiej skończonej podserii,

częstość - nazwijmy ją względną - interesującego nas zdarzenia można

określić po prostu jako stosunek liczby wystąpień tego zdarzenia w danej

podserii do długości tej podserii, np. stosunek liczby reszek do n - liczby

rzutów w podserii n

początkowych rzutów nieograniczenie długiej serii rzutów

8

Jest to dokładnie ta definicja, którą poznają uczniowie szkoły średniej: prawdopodobieństwo

danego zdarzenia jest równe stosunkowi liczby elementarnych zdarzeń sprzyjających temu

zdarzeniu do liczby wszystkich zdarzeń elementarnych.

background image

Adam Grobler, O metodzie i strukturze nauki 17

monetą. W szczęśliwym przypadku, w którym ciąg częstości względnych

jest zbieżny, jego granicę można nazwać średnią częstością interesującego

nas zdarzenia. W pozostałych przypadkach średnia częstość nie jest

określona.

Interpretację częstościową prawdopodobieństwa próbował zastosować

do budowy logiki indukcji Hans Reichenbach [1949]. Ten pomysł ma

jednak wiele wad. Po pierwsze, wymaga traktowania hipotez jako zdań

eliptycznych o prawdopodobieństwie. Tj. hipotezę postaci (

x)[W(x) à Z(x

)]

należy rozumieć nie dosłownie (każdy przedmiot, który znajdzie się

w warunkach W, zachowa się w sposób Z), lecz przenośnie: przedmiot,

który znajdzie się w warunkach W, prawdopodobnie zachowa się w sposób

Z. Po drugie, na co wskazywał von Mises [1957], wartości

prawdopodobieństwa w interpretacji częstościowej można szacować

jedynie na podstawie doświadczenia. Same szacunki zatem mają charakter

hipotez indukcyjnych. Wobec tego stosowanie pojęcia

prawdopodobieństwa w interpretacji częstościowej do uzasadnienia

procedur indukcyjnych zakrawa na błędne koło. Po trzecie, z czysto

matematycznego punktu widzenia średnia częstość zależy od kolejności

wyrazów ciągu względnych częstości. To znaczy, że przygodna zmiana

kolejności rejestrowania świadectw, bez zmiany samych świadectw, może

mieć istotny wpływ na ocenę prawdopodobieństwa hipotezy. Toteż

częstościowa interpretacja prawdopodobieństwa nie rokuje nadziei na

zbudowanie na niej logiki indukcji.

Pozostają dwie interpretacje: logiczna i subiektywna, które omówię

kolejno.

I.2.2. Program Carnapa i jego główne trudności

Na idei

prawdopodobieństwa logicznego opiera się sformułowany

przez Carnapa program logiki indukcji. Prawdopodobieństwo warunkowe

background image

Adam Grobler, O metodzie i strukturze nauki 18

zdania H ze względu na zdanie E jest w tym sensie prawdopodobieństwem

logicznym, że zależy tzw. prawdopodobieństwa a priori zdań H i E oraz

czysto logicznego związku między nimi, związku będącego uogólnieniem

klasycznej implikacji, w sensie wspomnianym w I.2.1. Własności tego

związku można zatem opisać za pomocą odpowiedniego rachunku

logicznego. Konstrukcja takiego rachunku, sformułowana w [Carnap 1950],

przebiega następująco. Punktem wyjścia jest monadyczny język rachunku

predykatów pierwszego rzędu, to jest język, którego alfabet obejmuje:

zmienne i stałe indywiduowe: x, y, z, ..., a

1

, ... a

N

,

predykaty jednoargumentowe: p

1

, ..., p

r

,

spójniki logiczne:

¬

,

,

,

,

,

kwantyfikatory:

,

.

Dodatkowo zakłada się, że w języku występują nazwy własne

wszystkich elementów jego uniwersum i każdy element uniwersum ma

tylko jedną nazwę. Innymi słowy, skoro w języku znajduje się N stałych

indywiduowych, uniwersum języka składa się z N indywiduów. Ponadto,

o predykatach p

1

, ..., p

r

zakłada się, że są proste, tzn. żaden z nich nie daje się

zdefiniować za pomocą innych predykatów. Natomiast za pomocą

predykatów prostych można zdefiniować szczególną klasę predykatów,

tzw. Q-predykatów:

Q

i

(x)

±

p

1

(x)

±

p

2

(x)

...

±

p

r

(x), i = 1, …, k, k = 2

r

,

gdzie symbol

±

p

j

(x

) oznacza bądź p

j

(x

), bądź

¬

p

j

(x). Szczególna rola Q

-

predykatów polega na tym, że gdy na miejsce zmiennej x podstawić nazwę

określonego indywiduum, powiedzmy a, Q-predykat orzeka o nim, które z

własności oznaczonych za pomocą predykatów elementarnych mu

przysługują, a które nie. Innymi słowy, podaje jego wyczerpujący opis, tzn.

background image

Adam Grobler, O metodzie i strukturze nauki 19

wyczerpujący ze względu na siłę wyrazu rozpatrywanego języka.

Naturalnie, każdy Q-predykat podaje inny opis a, a więc tylko jeden z nich może

być prawdziwy. W ten sposób Q-predykaty wyznaczają wyczerpujący i

rozłączny podział uniwersum języka na Q-zbiory: zbiory “jednakowych”

indywiduów, tj. indywiduów spełniających ten sam Q-predykat. Każdemu

możliwemu podziałowi uniwersum na Q-zbiory można przypisać ciąg Q-

liczb, N

1

, …, N

k

, (N

1

+ … + N

k

= N

), określających liczebność poszczególnych Q-

zbiorów czyli, innymi słowy, rozkład statystyczny indywiduów na

poszczególne Q-zbiory.

Za pomocą Q-predykatów można zbudować szczególnego rodzaju

zdania, zwane opisami indywiduowymi. Mają one postać następującą:

S

i

Q

i1

(a

1

)

Q

iN

(a

N

), i = 1, …, k

N

, i

j

= 1, …, k.

Zdanie tego typu jest wyczerpującym opisem uniwersum, ponieważ jest

koniunkcją wyczerpujących opisów wszystkich indywiduów. Każdy opis

indywiduowy definiuje pewien “możliwy świat”, tj. świat, o którym ten opis

jest prawdziwy. W szczególności, każdemu opisowi indywiduowemu

jednoznacznie odpowiada pewien ciąg Q-liczb (ale nie na odwrót: różnym

opisom indywiduowym może odpowiadać ten sam ciąg Q-liczb). Każde

inne zdanie rozpatrywanego języka daje się przedstawić w postaci

alternatywy opisów indywiduowych. Ponieważ każde dwa opisy

indywiduowe wykluczają się wzajemnie, ten fakt ma doniosłe znaczenie

dla dalszej konstrukcji rachunku. Wystarczy bowiem określić

prawdopodobieństwo a priori dla wszystkich opisów indywiduowych, aby

uzyskać – na mocy aksjomatu P(A

B) = P(

A) + P(B), gdy A i B się wykluczają

– rozkład prawdopodobieństwa na zbiorze wszystkich zdań

rozpatrywanego języka.

Jak jednak to prawdopodobieństwo określić? Z aksjomatów rachunku

prawdopodobieństwa wynika, że musi być spełniony warunek: P(S

1

) + … +

background image

Adam Grobler, O metodzie i strukturze nauki 20

P(S

kN

) = 1. Idąc po najmniejszej linii oporu można by przyjąć, zgodnie z tzw.

zasadą racji niedostatecznej, że wszystkie opisy indywiduowe są

równoprawdopodobne, czyli że P(S

i

) = 1/k

N

dla każdego i. Byłoby to jednak

równoznaczne –ponieważ opisy indywiduowe są symetryczne ze względu

na wszystkie Q-predykaty i nazwy wszystkich indywiduów – z założeniem,

że każdy rozkład własności na poszczególne indywidua jest jednakowo

prawdopodobny. Wówczas każde dwa zdania logicznie niezależne byłyby

zarazem probabilistycznie niezależne czyli prawdopodobieństwo

warunkowe dowolnego zdania ze względu na jakiekolwiek świadectwo

empiryczne byłoby równe prawdopodobieństwu a priori tego zdania. Taki

rachunek nie pozwalałby więc na wyprowadzanie żadnych wniosków

indukcyjnych.

Żeby więc można było zbudować rachunek logiczny, który dawałby

podstawy do wyciągania wniosków indukcyjnych, trzeba przypisać opisom

indywiduowym niejednakowe prawdopodobieństwa a priori. Ale jak? Carnap

uznał, że w tym celu wpierw należy określić prawdopodobieństwo zdań

innego typu, zdań zwanych opisami strukturalnymi albo statystycznymi.

Są to zdania o postaci alternatywy wszystkich opisów indywiduowych,

którym odpowiada ten sam ciąg Q-liczb. Opisy statystyczne mówią zatem

o tym, ile indywiduów należy do każdego z Q-zbiorów, tj. spełnia określony

Q

-predykat czyli ma określony asortyment elementarnych własności

(własności oznaczonych za pomocą predykatów elementarnych). Mówią

zatem o świecie wszystko to, co da się o nim powiedzieć przemilczając

kwestię tożsamości indywiduów. I to właśnie w stosunku do opisów

statystycznych Carnap zastosował zasadę racji niedostatecznej, tj.

przypisał im jednakowe prawdopodobieństwa.

Prawdopodobieństwo opisu statystycznego, zgodnie z aksjomatami

rachunku prawdopodobieństwa, musi być sumą prawdopodobieństw

opisów indywiduowych, których jest alternatywą. Teraz można przyjąć

zasadę racji niedostatecznej do opisów indywiduowych będących

składnikami tego samego opisu statystycznego i przypisać im jednakowe

background image

Adam Grobler, O metodzie i strukturze nauki 21

prawdopodobieństwa. Widać stąd wyraźnie, że prawdopodobieństwo

a priori

opisu indywiduowego będzie odwrotnie proporcjonalne do liczby

opisów indywiduowych o tym samym ciągu Q-liczb. Będzie więc ono tym

większe, im bardziej ciąg Q-liczb jest “niezrównoważony”, tzn. im większe

będą różnice między poszczególnymi jego wyrazami

9

. Największe zaś

będzie dla ciągów, których jeden wyraz wynosi N a pozostałe są równe

zero. W takim razie opisy indywiduowe są tym bardziej a priori

prawdopodobne, im większej liczbie indywiduów przypisują im więcej

podobieństw (wspólnych własności elementarnych). Najbardziej

prawdopodobne a priori są te opisy indywiduowe, które mówią, że

wszystkie indywidua są jednakowe (mają te same własności elementarne).

Taki rozkład prawdopodobieństwa przypisuje więc a priori wyższe

prawdopodobieństwo temu, że w świecie występują (statystyczne) związki

współwystępowania (lub wykluczania się) między poszczególnymi

własnościami elementarnymi niż temu, że takich związków absolutnie

brak; i to tym wyższe prawdopodobieństwo, im więcej jest takich związków

współwystępowania (i im one są statystycznie istotniejsze). Takie

założenie można uznać za statystyczną wersję zasady jednostajności

przyrody. Prześledzimy teraz jego niektóre jego konsekwencje.

Oznaczmy teraz przez L

N, k

język, który zawiera N nazw indywiduowych i k Q-predykatów.

Określmy na zbiorze zdań tego języka rozkład prawdopodobieństwa zgodnie ze

sformułowaną wyżej zasadą racji niedostatecznej dla opisów statystycznych oraz zasadą
racji niedostatecznej dla opisów indywiduowych, którym odpowiadają te same ciągi Q-
liczb. Wó

wczas można zdefiniować funkcję potwierdzenia hipotezy H, sformułowanej w tym

języku, przez świadectwo empiryczne E (zdanie, opisujące to świadectwo) znanym
wzorem na prawdopodobieństwo warunkowe

10

:

W nauce interesuje nas przede wszystkim potwierdzanie hipotez uniwersalnych, tj. hipotez o ogólnej postaci

(

x)[W(x)

Z(x

)]. W przypadku języka o skończonej liczbie nazw indywiduowych, w którym

każdy element uniwersum ma nazwę indywiduową – a takie języki na razie rozpatrujemy –
hipotezy uniwersaln

e redukują się do znacznie mniej interesujących zdań szczegółowych o

postaci skończonej koniunkcji: [W(a

1

)

Z(a

1

)]

[W(a

N

)

Z(a

N

)]. Żeby można było rozważać

kwestię potwierdzania hipotez uniwersalnych, trzeba dokonać uogólnienia funkcji

9 Liczba opisów indywidu

owych o tym samym ciągu Q-liczb N

1

, …, N

k

wyraża się wzorem:

!

...

!

!

!

2

1

k

N

N

N

N

10 Sam Carnap zamiast litery P na oznaczenie

prawdopodobieństwa używał m* (od słowa “miara” -

measure). Litera C pochodzi od confirmation.

background image

Adam Grobler, O metodzie i strukturze nauki 22

potwierdzania na języki o nieskończonych uniwersach. W tym celu Carnap zdefiniował
prawdopodobieństwo a priori zdania języka L

,k

– tj. monadycznego język– rachunku

predykatów pierwszego rzędu o nieskończonym uniwersum i k Q-predykatach – jako granicę
ciągu prawdopodobieństw tego zdania w językach L

N, k

przy rosnącym N

11

.

Okazuje się, że przy takiej definicji prawdopodobieństwo a priori hipotez

ściśle uniwersalnych (tj. nie redukujących się do skończonej koniunkcji zdań

szczegółowych) jest równe zeru. Wynika stąd, że prawdopodobieństwo

warunkowe dowolnej hipotezy ściśle uniwersalnej ze względu na dowolne

świadectwo empiryczne (które wyraża się zawsze za pomocą zdania

szczegółowego) również równe zero. Wniosek to dość osobliwy, mówi on

bowiem ni mniej, ni więcej jak to, że potwierdzenie dowolnej hipotezy

uniwersalnej przez dowolne skończone świadectwo empiryczne (a każde

świadectwo empiryczne jest skończone) jest zerowe. W przypadku hipotez

uniwersalnych załamuje się również projektowane uogólnienie logiki

dedukcyjnej, o którym była mowa w poprzednim rozdziale. Mianowicie, gdy

G

H

, to powinna zachodzić równość P(H|G) = 1. Tymczasem jeżeli G i H

zdaniami uniwersalnymi, to P(H|G

) jest nieokreślone. Można więc powiedzieć, że

zdania uniwersalne wymykają się spod ogólnych założeń programu logiki

indukcji. Dalsze komentarze na temat tej nieco zagadkowej cechy programu

Carnapa odłożymy na później.

Przyjrzyjmy się teraz jednej z najbardziej interesującej własności

12

funkcji potwierdzania dla

zdań szczegółowych. Niech M będzie predykatem o szerokości w

i

, tzn. M

i

jest a

lternatywą w Q-

predykatów. Symbolicznie: M

i

(x)

Q

i1

(x)

Q

iw

. Następnie, niech E będzie zdaniem tej treści, że

spośród n zaobserwowanych przedmiotów, a

1

, …, a

n

, n

i

ma własność M

i

. Wówczas:

gdzie M

i

(a

n+1

) jest zdaniem, które mówi, że niezaobserwowany dotąd przedmiot

a

n+1

ma własność M

i

. Zilustrujmy treść tego wzoru na prostym przykładzie.

Rozważmy hipotezę, że po 8-krotnym wyrzucenia orła monetą za

jedenastym razem również wyrzucimy orła. W tym celu wystarczy

skonstruować prosty język L

N, 2

, N

11, z co najmniej jedenastoma nazwami

11

Zakłada się, że słowniki tych języków różnią się jedynie zasobem nazw indywiduowych i

to w taki sposób, że dla każdego N i M, N

>

M,

słownik języka L

N, k

zawiera wszystkie nazwy

indywidu

owe ze słownika języka L

M, k

.

12 Dowód pomijamy.

background image

Adam Grobler, O metodzie i strukturze nauki 23

indywiduowymi (kolejnych rzutów monetą) i jednym predykatem

elementarnym p

“wypadł orzeł”. W tym języku są dwa Q-predykaty: Q

1

= p, Q

2

=

¬

p

. Podstawiając do wzoru n

i

= 8, w

i

= 1, n = 10, k

= 2 otrzymujemy stopień

potwierdzenia (prawdopodobieństwo warunkowe ze względu na świadectwo)

naszej hipotezy = 9/12 = ¾.

Dwie sprawy są tu godne uwagi. Po pierwsze, prawdopodobieństwo

wyrzucenia orła w jedenastym rzucie okazało się różne od

prawdopodobieństwa a priori (= ½). Zatem zastosowanie logiki indukcji do omawianego

zagadnienia polega

na przyjęciu śmiałego założenia, że między wynikami

kolejnych rzutów monetą zachodzi dodatnia zależność statystyczna. Po

drugie, prawdopodobieństwo, o którym mowa, aczkolwiek zależne od

wyników poprzednich dziesięciu rzutów, okazało się niższe od ilorazu liczby

orłów w dotychczasowych rzutach (= 8/10 = 4/5). Co znaczy, że wnioski

indukcyjne nie są aż tak śmiałe, jak prostolinijna ekstrapolacja

doświadczenia.

Zachodzi pytanie, czym takie wnioski mogą być uzasadnione. W

przypadkach gier w rodzaju rzutów monetą najczęściej przyjmujemy, że

wyniki kolejnych rzutów są od siebie statystycznie niezależne i

prawdopodobieństwo wyrzucenia orła za każdym razem wynosi ½. To

znaczy, tak przyjmujemy, gdy zakładamy, że gra jest uczciwa: moneta jest

prawidłowa a gracz nie przeprowadza żadnych manipulacji. Takie podejście

do zagadnienia naśladuje sądową zasadę domniemania niewinności: trzeba

mieć jakieś specjalne powody, by podejrzewać, że moneta jest

nieprawidłowa lub mają miejsce jakieś tajemne manipulacje. Natomiast

stosując logikę indukcji dajemy wyraz przekonaniu, że samo odchylenie

liczby orłów od przeciętnej skłania do podejrzeń, w stopniu zależnym ,

aczkolwiek nie wprost, od wielkości tego odchylenia. Na tej samej zasadzie

można byłoby posądzać o nieuczciwość każdego gracza, który dostał lepszą

kartę od przeciwnika.

Z drugiej strony, nie jest wykluczone, że nasza moneta jest

background image

Adam Grobler, O metodzie i strukturze nauki 24

nieprawidłowa. Może więc z braku innych świadectw znaczne odchylenie

liczby orłów od przeciętnej należy uznać za wskazówkę, by taką możliwość

poważnie wziąć pod uwagę? Powstaje jednak pytanie, jak poważnie.

Dlaczego nie poważniej, albo nie mniej poważnie, niż wynika z rachunku?

Kolejny problem: dokładnie taki sam rachunek należałoby przeprowadzić w

przypadku rzutów różnymi monetami, być może o różnych nominałach a

nawet różnych walut. Wówczas wyciąganie wniosków na podstawie wyników

dotychczasowych rzutów wydaje się jeszcze bardziej bezpodstawne.

Rozważmy teraz taki przypadek. Zapytaliśmy 10 losowo wybranych osób

czy są zwolennikami przystąpienia Polski do Unii Europejskiej i otrzymaliśmy

8 odpowiedzi “tak”. Liczby te same, jak w przykładzie z monetą. Za to

wątpliwości co do zasadności zastosowania logiki indukcji znacznie mniejsze.

Wydaje się, że wynik takiej pobieżnej ankiety odzwierciedla, choćby i w

sposób bardzo przybliżony, stan opinii publicznej i w związku z tym

zdecydowanie ma wpływ na ocenę prawdopodobieństwa pozytywnej

odpowiedzi kolejnej zapytanej osoby. Założenie o dodatniej statystycznej

zależności między odpowiedziami na ankietę jest najzupełniej uzasadnione.

Kolejny przykład. Wyciągam z 10 kart talii (bez zwracania). Wśród nich

jest 8 czerwonych. Jakie jest prawdopodobieństwo, że jedenasta karta

będzie również czerwona? W tym przypadku stosowanie wzoru Carnapa jest

jawnie niedorzeczne. Prawdopodobieństwo wyciągnięcia czerwonej karty za

jedenastym razem nie tylko nie wzrosło, lecz zmalało, bowiem zmalał

stosunek liczby kart czerwonych do czarnych w pozostałej części talii.

Między wynikami kolejnych losowań występuje ujemna zależność statystyczna.

Z powyższych przykładów wyraźnie widać, że stosowanie logiki Carnapa

jest uzasadnione pod warunkiem, że założenie o dodatniej zależności

statystycznej między badanymi zdarzeniami jest wiarygodne. Nawet wtedy

jednak powstaje pytanie, jak wysoka jest ta zależność statystyczna, to jest

jak bardzo świadectwo empiryczne wpływa na ocenę prawdopodobieństwa

spełnienia się przewidywania. Ten problem Carnap próbował rozwiązać wprowadzając w

background image

Adam Grobler, O metodzie i strukturze nauki 25

[1952] “kontinuum metod indukcyjnych”, które uzależnia funkcję potwierdzania od wartości
dodatkowego parametru

λ

. Wzór pr

zedstawia się następująco:

Wielkość

λ

wyraża skłonność do wyciągania wniosków indukcyjnych.

Gdy

λ

= 0 funkcja potwierdzania jest równa po prostu n

i

/n czyli ilorazowi liczby

wystąpień badanej własności do liczby zaobserwowanych przypadków. Gdy

λ

, funkcja potwierdzania zmierza do 1/k, t

j. do prawdopodobieństwa a priori,

niezależnego od świadectwa. W ten sposób Carnap sugeruje, że dobór

odpowiedniej wartości parametru

λ

zależy od rodzaju zagadnienia, do

którego stosuje się logikę indukcji. Jednak wskazówki na temat tego doboru

próżno szukać w samej logice indukcji. Wartość

λ

zależy od założenia na

temat zależności statystycznej rozpatrywanych zdarzeń. Założenie to tkwi

w definicji prawdopodobieństwa a priori, wyjściowym rozkładzie

prawdopodobieństwa na zbiorze zdań rozpatrywanego języka. Jasne jest, że

w wyborze wyjściowego rozkładu prawdopodobieństwa nie możemy

kierować się logiką indukcji, bo od niego zależy cały rachunek logiczny.

Chyba żeby rozważyć całą klasę możliwych rozkładów prawdopodobieństwa

a priori

jako zbiór hipotez sformułowanych w pewnym metajęzyku, dla

którego można zbudować rachunek logiki indukcji niejako drugiego rzędu i

zastosować go do wyboru rozkładu prawdopodobieństwa a priori na zbiorze

zdań języka przedmiotowego. Wówczas jednak powstaje problem wyboru

wyjściowego rozkładu prawdopodobieństwa na zbiorze zdań metajęzyka,

który albo pozostaje bez rozwiązania, albo do jego rozwiązania zostanie

zastosowany rachunek logiki indukcji dla odpowiedniego metametajęzyka

itd. w nieskończoność. Krótko mówiąc, powstaje dylemat: albo wybór

wyjściowego rozkładu prawdopodobieństwa jest całkowicie arbitralny, albo

powstaje regres w nieskończoność.

Próbę ominięcia tego problemu

13

podjął bayesianizm, o którym zaraz

13 W porównaniu z tym wszystkie inne znane z litera

tury zarzuty pod adresem logiki Carnapa

wydają mi się drugorzędne. Ich przegląd przynosi m.in. Mortimer [1982].

background image

Adam Grobler, O metodzie i strukturze nauki 26

będzie mowa.

I.2.3. Bayesianizm i problem

istotności świadectwa empirycznego

Bay

esianizm opiera się na subiektywnej koncepcji prawdopodobieństwa,

tj. prawdopodobieństwa nie jako miary stopnia obiektywnego potwierdzenia

hipotezy, lecz jako miary stopnia subiektywnego przekonania uczonego o

prawdziwości hipotezy. Obiektywność metodzie opartej na tej koncepcji

zapewnia mechanizm modyfikowania prawdopodobieństw pod wpływem

świadectwa empirycznego. Polega on na systematycznym stosowaniu

twierdzenia Bayesa:

To znaczy: stosujący metodę określa wyjściowy rozkład

prawdopodobieństwa na zbiorze zdań danego języka w sposób zupełnie
dowolny, byle zgodny z aksjomatami rachunku prawdopodobieństwa.
Następnie, po uzyskaniu świadectwa empirycznego E, określa rozkład
prawdopodobieństwa na nowo, przypisując każdej hipotezie
prawdopodobieństwo równe jej prawdopodobieństwu warunkowemu ze
względu na E, obliczone według wzoru Bayesa. W następnej rundzie, po
uzyskaniu kolejnego świadectwa E’, twierdzenie Bayesa stosuje się już do rozkładu
prawdopodobieństwa otrzymanego w wyniku poprzedniego zastosowania
tego twierdzenia. I tak dalej. Regułę postępowania, wedle której racjonalny
badacz powinien po otrzymaniu świadectwa empirycznego każdorazowo
modyfikować swój rozkład prawdopodobieństwa zgodnie z twierdzeniem
Bayesa, nazywa się regułą warunkowania (conditionalization rule)

14

. Jej

działanie zilustrujmy na następującym przykładzie:

Przychodzę pierwszy raz do klubu szachowego, w którym nikogo nie

znam, ale wiem, że wśród jego członków są mistrzowie i gracze mniej więcej
na moim poziomie. Siadam go gry z nieznajomym przeciwnikiem i chcę
empirycznie ustalić, do której kategorii graczy on należy. Zakładam, że w
przypadku przeciwnika równorzędnego mam 25% szans na zwycięstwo i
50% szans na remis, zaś grając z mistrzem mam tylko 15% szans na

14 Tadeusz Baszniak w prze

kładzie Przewodnika po teorii poznania Adama Mortona użył niczym nie

uzasadnionego zapożyczenia: “reguła kondycjonalizacji”. Być może uznał za uwłaczające

godności uczonych skojarzenie modyfikowania ich nastawień do hipotez z wytwarzaniem
się odruchu ślinienia na dźwięk dzwonka u psa Pawłowa. Tymczasem termin
conditionalization rule

został ukuty dokładnie dla podkreślenia analogii wzorów wnioskowania

indukcyjnego i wzorów uczenia się do wzorów powstawania odruchów warunkowych.

background image

Adam Grobler, O metodzie i strukturze nauki 27

zwycięstwo i 30% szans na remis

15

. Nie wiem, ilu mistrzów jest wśród

obecnych w klubie, ale zakładam na początek, zupełnie na pif-paf, że
prawdopodobieństwo hipotezy, iż moim przygodnym przeciwnikiem jest
mistrz wynosi 20%. Pierwszą partię przegrałem. Prawdopodobieństwo
porażki przy założeniu, że grałem z mistrzem, wynosi 65%. Do licznika wzoru
Bayesa wstawiam więc 65%

×

20% = 13%. Prawdopodobieństwo porażki

przy założeniu, że grałem z graczem równorzędnym, wynosi 25%. W
mianowniku wstawiam więc 65%

×

20% + 25%

×

80% = 33%. Po wykonaniu

dzielenia otrz

ymuję nowe prawdopodobieństwo hipotezy, że grałem z

mistrzem. Wynosi ono teraz niecałe 40%. Drugą partię udaje mi się
zremisować. Wykonując analogiczne rachunki (30%

×

40% podzielone przez 30%

×

40% + 50%

×

60%, zaokrąglając P(H) do 40%) otrzymuję kolejne

prawdopodobieństwo mojej hipotezy, równe teraz około 28,5%. Natomiast
gdybym drugą partię przegrał, prawdopodobieństwo mojej hipotezy
wzrosłoby do niecałych 64%

16

.

Mechanizm modyfikowania prawdopodobieństw wedle reguły

warunkowania jest jasny i jednoznaczny. Wątpliwości natomiast może budzić
fakt, że wyniki stosowania tej reguły przez różnych badaczy mogą być różne,
ponieważ określenie wyjściowego rozkładu prawdopodobieństwa jest
całkowicie dowolne. W omawianym przykładzie mogłem np. przyjąć na
początku, że prawdopodobieństwo, iż potykam się z mistrzem, wynosi 40%.
Wówczas już po pierwszej porażce rośnie ono do około 64%, a po drugiej aż
do około 82%. Jest jednak faktem matematycznym, że różnice w ocenie
prawdopodobieństwa po wielokrotnym zastosowaniu twierdzenia Bayesa do
różnych wyjściowych rozkładów prawdopodobieństwa maleje do zera, gdy
liczba zastosowań tego twierdzenia rośnie do nieskończoności. Można zatem
powiedzieć, że na dłuższą metę układy stopni przekonania racjonalnych –
wedle bayesiańskiej koncepcji racjonalności – badaczy dysponujących
jednakowym świadectwem empirycznym zbliżają się do siebie. Arbitralność
wyboru punktu wyjścia, tak kłopotliwa dla programu Carnapa,
z bayesiańskiego punktu widzenia, nie przeszkadza uprawomocnieniu
indukcji za pomocą metody szacowania prawdopodobieństwa hipotez.

Niektórzy jednak uważają, że w przypadku rażących rozbieżności

wyjściowego rozkładu prawdopodobieństwa do uzyskania zadowalającego
poziomu zbliżenia układów stopni przekonania może być potrzebne
tylokrotne zastosowanie twierdzenia Bayesa, że niewykonalne w rozsądnym
czasie, powiedzmy: 10 tysięcy lat. Osobiście wydaje mi się, że metoda
bayesowska ma znacznie poważniejszy mankament. Jego dobrą ilustracją
jest paradoks wynaleziony przez Tomasza Placka.

Przypuśćmy, że wybieramy się samochodem z Krakowa do Warszawy i

15

Te założenia nie są zupełnie dowolne, lecz oparte na zasadach wyliczania ocen

rankingowych szachistów. Przyjmuję jedynie dla uproszczenia, że wchodzą w rachubę

szachiści tylko dwóch kategorii i pomijam zróżnicowanie siły gry w obrębie każdej
kategorii (w szczególności, nieco optymistycznie oceniam własną siłę gry).

16

64

,

0

41

,

0

26

,

0

60

,

0

25

,

0

40

,

0

65

,

0

40

,

0

65

,

0

=

×

+

×

×

background image

Adam Grobler, O metodzie i strukturze nauki 28

z jakichś powodów wolimy po drodze nie tankować paliwa. Przyjmijmy, że

dla samochodu startującego z pełnym bakiem prawdopodobieństwo

dotarcia do celu bez tankowania wynosi 70%, a dojechania przynajmniej

do Grójca 90%. Pytanie: czy minąwszy Grójec wolno nam wnosić, na mocy

reguły warunkowania, że prawdopodobieństwo sukcesu wzrosło do 7/9? Co

takiego dowiedzieliśmy się, dotarłszy do Grójca, co wzmacnia nasze

nadzieje?

Bas van Fraassen (w korespondencji z Plackiem) przedstawił

następujący argument na korzyść pozytywnej odpowiedzi. Na mocy

wyjściowego założenia, do Warszawy dojedzie 7 samochodów na 10, a z

tych dziesięciu jeden utknie już przed Grójcem. Minąwszy Grójec wiemy,

że nasz samochód jest jednym z dziewięciu, z których 7 dotrze do

Warszawy. Rozumowanie to byłoby całkiem trafne, gdyby proces był zupełnie

losowy

17

. Np. gdybyśmy udawali się w podróż losowo wybranym

samochodem i dla każdego z nich jakimś magicznym sposobem byłoby z

góry prze

sądzone, jak daleko dojedzie bez tankowania, bez względu na

okoliczn

ości podróży. Albo gdyby w trakcie podróży w zaświatach ciągnięto

losy, które samochody jadące z Krakowa do Warszawy bez tankowania

zatrzymywać w drodze. Tymczasem w naszym pytaniu zasadniczo chodzi

o to, na jak daleką podróż starczy nam paliwa. Dlatego ocena naszych

szans w Grójcu, jeżeli ma być pożyteczna

18

, nie może opierać się na

spekulacjach, ilu konkurentów startujących w tych samych zawodach

prawdopodobnie wy

eliminowalibyśmy po drodze, ale powinna zależeć od tego,

ile paliwa nam zostało w baku i jakie przypuszczalnie wystąpią warunki

drogowe na pozostałym do przebycia odcinku. Będziemy bowiem

potrzebować więcej paliwa, jeżeli przybyliśmy do Grójca w godzinach

17 Zob. [Placek , 1998].
18

Czytelnik może zapytać, do czego taka ocena może być pożyteczna. Sam problem

wydaje się bowiem zupełnie głupkowaty. Został on jednak sformułowany w czasach stanu

wojennego, kiedy jego rozwiązanie mogło mieć całkiem praktyczne znaczenie. Benzyna była
wówczas reglamentowana. Toteż dojeżdżając bez kartek na benzynę do ostatniej przed

Warszawą (tak było!) stacji paliw w Jankach stanęlibyśmy przed pytaniem, czy zaryzykować
próbę skorumpowania personelu stacji. Ocena prawdopodobieństwa, że zdołamy bez tego
dotrzeć do Warszawy, gdzie mamy zaprzyjaźnione źródło oktanów, mogłaby być kluczową

przesłanką dla podjęcia decyzji.

background image

Adam Grobler, O metodzie i strukturze nauki 29

szczytu i w ulewnym deszczu, o śnieżycy nie wspominając, a mniej, jeżeli

w Grójcu zastała nas pogodna, letnia noc.

Czy to znaczy, że rachunek prawdopodobieństwa kłamie? Bo przecież

wydaje się, że równość P(W | G) = 7/9 bezsprzecznie wynika z twierdzenia Bayesa.

Tymczasem

19

stosując wzór na prawdopodobieństwo całkowite otrzymujemy:

P(W | G) = P(W | G

B

1

)

×

P(G

B

1

) + … + P(W | G

B

n

)

×

P(G

B

n

),

gdzie B

1

, …, B

n

są wzajemnie wykluczającymi się zdaniami i wyczerpującymi

wszystkie możliwości na temat poziomu paliwa w baku po dojechaniu do Grójca (np. B

i

= “pozostało mniej niż i, ale nie mniej niż i-1 cm

3

benzyny”). Po uzyskaniu

świadectwa E na temat poziomu paliwa, np. po odczytaniu wskazania licznika paliwa,

otrzymujemy:

P(W | G

E) = P(W | G

B

1

E)

×

P(G

B

1

E) + … + P(W | G

B

n

E)

×

P(G

B

n

E).

Niektóre z

prawdopodobieństw P(G

B

i

E

) są bardzo niskie. Przyjmijmy, dla

uproszczenia, że wszystkie z nich z wyjątkiem jednego są równe zero, tj.

istnieje takie j, że dla każdego i

j P(G

B

i

E) = 0. Wówczas

20

:

P(W | G

E) = P(W | G

B

j

E).

Teraz jest oczywiste, że P(W | G

E

), tj. prawdopodobieństwo, że dotrzemy do

Warszawy bez tankowania pod warunkiem, że dotarliśmy do Grójca i mamy

świadectwo E na temat aktualnego poziomu paliwa w baku, może być

drastycznie różne od 7/9 = P(W | G), tj. prawdopodobieństwa, że dotrzemy do

Warszawy bez tankowania pod warunkiem, że dotarliśmy do Grójca przy

braku innych świadectw. Jeżeli do tego dołączymy jeszcze świadectwo D na

19 Ta część analizy pochodzi ode mnie.
20

Ponieważ przy tym założeniu P(G

B

i

E) = 1.

background image

Adam Grobler, O metodzie i strukturze nauki 30

temat warunków drogowych na odcinku z Grójca do Warszawy, otrzymamy jeszcze inne

prawdopodobieństwo P(W | G

E

D).

Opisane wyżej modyfikacje prawdopodobieństwa dotarcia do Warszawy

wydają się bardzo trafnymi posunięciami w rozważanej przez nas sytuacji

epistemicznej. Zwolennik bayesianizmu twierdziłby zapewne, że można je

uzyskać jego metodą uwzględniając kolejno świadectwa E i D, tj. obliczając

prawdopodobieństwa P’(W | E) i P”(W | D), gdzie P’(W) = P(W | G) a P”(W) = P’(W | E).

Powstają jednak kłopotliwe pytania.Po pierwsze, skąd bayesianista ma

wiedzieć, że powinien szukać świadectw E i D? Dlaczego zamiast E nie będzie

rozważał np. świadectwa F na temat czasu podróży z Krakowa do Grójca?

Albo świadectwa na temat temperatury powietrza w Grójcu w chwili

przybycia? Oba na pozór absurdalne świadectwa nie są bynajmniej

probabilistycznie niezależne od W. Czas podróży zależy od średniej

prędkości, zaś temperatura powietrza ma związek z warunkami drogowymi .

Jedno i drugie ma wpływ na zużycie paliwa czyli na prawdopodobieństwo

dotarcia do Warszawy. Jednak z wedle naszej najlepszej wiedzy E i D mają

znacznie bardziej bezpośrednie z rozważanym problemem i nie ma żadnego

powodu, aby zamiast nich rozpatrywać świadectwa dające dużo gorsze

oszacowania prawdopodobieństwa. Po drugie, w świetle naszej wiedzy

wydaje się wysoce niewiarygodne, aby ktokolwiek stosował wzór Bayesa do

wyznaczenia np. P’(W | E). W tym celu bowiem należałoby wcześniej wyliczyć

P’(E | W), tj. prawdopodobieństwo, że licznik paliwa w Grójcu wskazywał

niespełna i cm

3

pod warunkiem, że samochód dojechał do Warszawy. To zaś

wydaje się bardziej skomplikowane od oszacowania za pomocą wiedzy na

temat wydajności silnika samochodu, bez użycia twierdzenia Bayesa,

prawdopodobieństwa dojechania do Warszawy pod warunkiem, że licznik

paliwa w Grójcu wskazywał niespełna i cm

3

.

Z powyższej dyskusji wynika, że aby stosować twierdzenie Bayesa z

pożytkiem, trzeba posługiwać się wiedzą na temat poziomu istotności

świadectw dla rozważanej hipotezy. W przykładzie samochodowym

posłużyliśmy się wiedzą potoczną na temat ogólnych mechanizmów spalania

background image

Adam Grobler, O metodzie i strukturze nauki 31

paliwa. W innych przypadkach będzie podobnie: ocena użyteczności

świadectw dla szacowania prawdopodobieństwa danej hipotezy, a tym

samym ocena wartości poznawczej oszacowania tego prawdopodobieństwa,

będzie zależała od jakiejś wcześniejszej wiedzy, wiedzy empirycznej na

temat stałych związków między zjawiskami. Tego rodzaju wiedzę nabywamy

metodą indukcji. Gdyby bayesianizm był trafną rekonstrukcją metody

indukcyjnej, owa wcześniejsza wiedza byłaby również wiedzą

prawdopodobną. Do oszacowania jej prawdopodobieństwa trzeba byłoby

użyć jakichś świadectw. Ocena trafności doboru świadectw do oszacowania

prawdopodobieństwa wcześniejszej wiedzy zależałaby od jakiejś jeszcze

wcześniejszej wiedzy, która również byłaby tylko prawdopodobna itd. Znowu

otrzymujemy regres w nieskończoność.

Ostatecznie więc nawet jeżeli bayesianizm, inaczej niż program

Carnapa, radzi sobie z problemem arbitralności wyboru wyjściowego

rozkładu prawdopodobieństwa, to – podobnie jak program Carnapa –

nieuchronnie prowadzi do regresu w nieskończoność. Wydaje się, że jest to

nieodłączna cecha każdej propozycji rozwiązania problemu indukcji

w duchu probabilizmu. Prawdopodobieństwa bowiem nie spadają z nieba.

Zależności probabilistyczne między zdaniami wynikają z pewnych założeń.

Te założenia są albo arbitralne, co jest niedobrze, albo same podlegają

ocenie ze względu na stopień wiarygodności. Pierwsze jest nie do

przyjęcia. Drugie, na mocy głównej idei probabilizmu, w myśl której

stopień wiarygodności hipotezy zależy od oceny jej prawdopodobieństwa,

prowadzi do regresu.

I.2.4. Niektóre inne trudności probabilizmu

Probabili

zmowi zarzuca się m.in. niezgodność z praktyką naukową. Powiada

się, że uczeni ani dokonują oceny stopnia potwierdzenia hipotez za pomocą

metod Carnapa, ani nie kształtują stopnia własnego przekonania o trafności

background image

Adam Grobler, O metodzie i strukturze nauki 32

hipotez za pomocą reguły warunkowania. Zarzut ten nie jest bardzo

poważny. Bowiem celem metodologii w ogóle, a teorii metody indukcyjnej

w szczególności, nie jest opis metod faktycznie stosowanych przez uczonych,

podobnie jak np. celem uprawiania logiki nie jest opis rzeczywistych

procesów rozumowania. Logika zajmuje się raczej rekonstrukcją idealnych,

normatywnych wzorców rozumowania. Zarówno program Carnapa, jak i

bayesianizm, dążą do zrekonstruowania czegoś, co zgodnie, aczkolwiek

niekoniecznie trafnie, nazywają logiką nauki czyli teorią idealnych wzorców

postępowania naukowego w zakresie oceny wartości poznawczej hipotez.

Poważniejszym problemem jest kwestia oceny hipotez uniwersalnych. W

logikach Carnapa, o czym była mowa wyżej, stopień potwierdzenia dowolnej

hipotezy uniwersalnej przez jakiekolwiek świadectwo (zdanie szczegółowe)

jest równy zeru. Tymczasem wysuwanie i sprawdzanie hipotez

uniwersalnych, tj. hipotez tej treści, że każdy obiekt x określonego rodzaju

zachowa się w sposób Z ilekroć zajdą warunki W, symbolicznie (

x)[W(x)

Z(x

)],

należy do istoty działalności naukowej. Nic dziwnego, że program Carnapa

doczekał się korekty, która miała wyrównać jego rzekomy niedostatek.

Jaakko Hintikka [1966] sformułował uogólnienie metod Carnapa, tzw.

dwuwymiarowe kontinuum metod indukcyjnych, w których hipotezy

uniwersalne mogą mieć dodatni stopień potwierdzenia.

Sam Carnap zerowego stopnia potwierdzenia hipotez uniwersalnych nie

uważał za mankament proponowanych przez niego rachunków logicznych.

Uważał, że metody indukcyjne są przede wszystkim narzędziem oceny

stopnia wiarygodności przewidywań. U podłoża takiego stanowiska stoi

instrumentalizm, tj. pogląd, wedle którego hipotezy uniwersalne nie są

zdaniami kandydującymi do miana prawdziwych lub fałszywych, lecz

regułami wyprowadzania przewidywań ze zdań opisujących warunki

początkowe eksperymentu. Niezależnie od oceny instrumentalizmu, którą

zajmiemy się w części IV, wypada zaznaczyć, że z punktu widzenia

przeprowadzonej wyżej analizy, w myśl której probabilizm prowadzi do

regresu w nieskończoność, wstrzemięźliwość Carnapa w kwestii oceny

background image

Adam Grobler, O metodzie i strukturze nauki 33

hipotez uniwersalnych przedstawia się dalekowzrocznie. Z uwagi na regres

w nieskończoność metody probabilistyczne należy uznać za niesamodzielne.

Tzn. mechanizm ocen probabilistycznych nie może wystartować bez

wcześniejszego założenia pewnych hipotez. To stawia pod znakiem

zapytania zdolność probabilizmu do sformułowania metody oceny hipotez

uniwersalnych. Nic jednak nie stoi na przeszkodzie, by zakładając pewne

hipotezy – w logikach Carnapa są nimi hipotezy na temat statystycznej zależności

zdarzeń – dokonywać na ich podstawie, metodami probabilistycznymi, ocen

prawdopodobieństwa spełnienia się określonych przewidywań. Wydaje się,

że tego rodzaju postępowanie w nauce jest dość typowe. Np. na podstawie

pewnych hipotez można oceniać prawdopodobieństwo spełnienia się

prognozy meteorologicznej.

Omawiając bayesianizm jako alternatywne wobec programu Carnapa podejście

probabilistyczne, skoncentrowałem się na trudnościach doboru świadectwa do zastosowania
we wzorze Bayesa, pomijając kwestię oceny hipotez uniwersalnych. Teraz pora to

przemilczenie nadrobić. Historia nauki odnotowała liczne eksperymenty dokonywane przez
bardzo młodych uczonych, polegające na upuszczaniu rozmaitych drobnych przedmiotów z

balkonu. Pytanie brzmi: która to hipoteza uniwersalna zawdzięcza swoje potwierdzenie
kosztem niejednego uszczerbku zasobów sreber rodowych. Przypuśćmy, że jest nią prawo
powszechnego ciążenia. Na mocy reguły warunkowania, zaginięcie każdej łyżeczki

podwyższa prawdopodobieństwo trafności domysłu Newtona zgodnie z wzorem:

gdzie H

= prawo powszechnego ciążenia, E = “upuszczona łyżeczka

spadła”. Jest oczywiste, że P(E | H) = 1. Jak ocenić, tj. prawdopodobieństwo,

że upuszczona łyżeczka upadnie, jeżeli prawo powszechnego ciążenia nie

obowiązuje? Nie wiadomo. Na użytek argumentacji przyjmijmy P(E |

¬

H) = ½.

Mamy wówczas:

Taki sam wynik otrzymamy jednak, jeżeli za H przyjmiemy jakąś inną

hipotez

ę wyjaśniającą spadanie upuszczanych łyżeczek, np.

arystotelesowskie prawo “ciała dążą do swojego miejsca naturalnego”.

Reguła warunkowania nie daje wystarczających podstaw dyskryminacji hipotez

wyjaśniających te same zjawiska, przynajmniej dopóki nie pojawi się

background image

Adam Grobler, O metodzie i strukturze nauki 34

świadectwo sprzeczne z daną hipotezą

21

, tj. takie, że P(E | H) = 0.

Na powyższy argument bayesianista może odpowiedzieć, że wysiłki

młodych uczonych niezmiennie potwierdzają prawidłowość, iż wszystkie ciała

upuszczone spadają, niezależnie od tego, czy tę prawidłowość skłonni

jesteśmy wyjaśniać na gruncie fizyki Newtona czy Arystotelesa. Zgoda. W

ten sposób jednak bayesianista przyznaje, że spod jego metody wymykają

się hipotezy teoretyczne, tj. hipotezy sformułowane przy użyciu terminów

nieobserwacyjnych, tj. występujących w zdaniach wyrażających świadectwa.

Znowu jednak trzeba zaznaczyć, że hipotezy teoretyczne stanowią

najbardziej interesującą część nauki. Proszę sobie wyobrazić, cóż warta

byłaby nauka, gdyby trzeba było zrezygnować z oceny hipotez na temat,

powiedzmy, prądu elektrycznego, zadowalając się zdaniami na temat

światła żarówek, szumu silników, wstrząsów organizmu i piorunów.

Na

wet jeśli zrezygnować z oceny uniwersalnych hipotez teoretycznych i

próbować ograniczyć się do hipotez obserwacyjnych, to i tak w naszym

przykładowym zastosowaniu reguły warunkowania musieliśmy przyjąć

trudne do usprawiedliwienia założenie, że P(E |

¬

H) = ½. Bez problem

ów można

za to stosować twierdzenie Bayesa do hipotez zawierających terminy

zoperacjonalizowane statystycznie. Znakomitą ilustracją tej tezy jest nasz

przykład szachowy. Mistrzem szachowym zostaje ten, kto dwukrotnie

wypełni tzw. normę mistrzowską tj. osiągnie w turnieju wynik określony w

zależności od kategorii pozostałych jego uczestników. W przypadku gry

przeciw samym kandydatom na mistrza norma wynosi 70% możliwych do

zdobycia punktów. Innymi słowy, za mistrza uważa się kogoś, kto grając

przeciw kandydatom osiąga, statystycznie rzecz biorąc, 70-procentowy

wynik. Dlatego można śmiało założyć, jak w naszym przykładzie, że

kandydat na mistrza ma 15% szans na zwycięstwo z mistrzem i 30% szans

na remis.

21 Podobny argument wysunął Popper.

background image

Adam Grobler, O metodzie i strukturze nauki 35

I.2.5. Trudności ogólniejszej natury: paradoksy potwierdzania

Probabilizm jest rozwinięciem myśli, że wprawdzie żadna skończona

liczba obserwacji czy eksperymentów nie może dostarczyć wyczerpującego

dowodu żadnej hipotezy uniwersalnej, to jednak obserwacje i eksperymenty

przyczyniają się do potwierdzenia hipotez. Hipotezy mogą być zatem

potwierdzone lepiej lub gorzej, tj. w większym lub mniejszym stopniu. Na

podstawie m.in. argumentu na temat holenderskiego systemu zakładów

uznano, że do eksplikacji czyli objaśnienia pojęcia stopnia potwierdzenia

nadaje się pojęcie prawdopodobieństwa warunkowego

(prawdopodobieństwa hipotezy ze względu na świadectwo empiryczne).

Okazuje się jednak, że samo pojęcie potwierdzenia, a co dopiero stopnia

potwierdzenia, jest kłopotliwe. wskazują na to pewne paradoksy.

Jednym z nich jest paradoks kruków

, rozważany m.in. przez Carla G. Hempla.

Weźmy pod uwagę hipotezę tej treści, że wszystkie kruki są czarne.

Symbolicznie: (

x)[K(x)

C(x

)]. Intuicyjnie rzecz biorąc, każda obserwacja

czarnego kruka potwierdza tę hipotezę. Na mocy praw logiki hipoteza, o

której mowa, jest równoważna hipotezie, w myśl której wszystkie nieczarne

przedmioty są niekrukami. Symbolicznie: (

x)[

¬

C(x)

¬

K(x

)]. Ta hipoteza zaś

jest potwierdzona przez każdą obserwację nieczarnego niekruka, np. białego

buta. Wydaje się, że jeżeli obserwacja potwierdza jakąś hipotezę, to

potwierdza każde sformułowanie tej hipotezie równoważne. Wówczas jednak

obserwacja białego buta potwierdza hipotezę, wedle której wszystkie kruki

są czarne. To zaś brzmi paradoksalnie.

Zdaniem Hempla

paradoks jest pozorny, ponieważ w gruncie rzeczy hipotezy

uniwersalne mówią coś o wszystkich przedmiotach w ogóle. W szczególności

hipoteza, że wszystkie kruki są czarne, mówi, że nie ma takiego przedmiotu,

który byłby zarazem krukiem i nieczarnym. Symbolicznie:

¬

(

x)[K(x)

¬

C(x

)].

Zdanie to mówi więc coś i o krukach, i o butach. Jednak według wielu

teoretyków – m.in. von Wrighta – uogólnienia indukcyjne dotyczą rodzajów

background image

Adam Grobler, O metodzie i strukturze nauki 36

naturaln

ych, a nie wszystkich przedmiotów w ogóle. W tym przypadku

hipoteza, o której mowa, dotyczy kruków, bowiem kruki stanowią rodzaj

naturaln

y, a niekruki nie. Dlatego obserwacja czarnego kruka potwierdza tę

hipotezę, a białego buta nie. Ogólnie, według tzw. kryterium Nicoda, każda

obserwacja przedmiotów o cechach A i B potwierdza hipotezę, że każde A jest

B

, natomiast żadna obserwacja przedmiotów o cechach

¬

A i

¬

B

nie

potwierdza tej hipotezy. Z kolei Hosiasson-Lindenbaum uważa, że

obserwacja przedmiotów o cechach

¬

A i

¬

B

jednak potwierdza tę hipotezę,

ale słabiej od obserwacji przedmiotów o cechach A i B, o ile przedmiotów A jest

mniej niż przedmiotów

¬

B

. W związku z tym obserwacja białego buta słabiej

potwierdza hipotezę o krukach od obserwacji czarnego kruka, ponieważ

kurków jest mniej niż przedmiotów nieczarnych. W każdym razie żadne

rozwiązanie paradoksu kruków nie zyskało powszechnej aprobaty.

Innym klasyczny paradoks, zwany

paradoksem przechodniości, powstaje w

związku z tzw. predyktywnym kryterium potwierdzenia. Brzmi ono następująco.

Zbiór zdań E potwierdza hipotezę H, jeżeli istnieje rozłączny i wyczerpujący

podział E na dwa podzbiory, E

1

, E

2

(tj. E = E

1

E

2

, E

1

E

2

=

) taki, że każde zdanie

z E

2

wynika z E

1

i H, ale nie wynika z samego E

1

. Kryterium nazywa się predyktywne,

ponieważ mówi ono tyle, że z hipotezy H i ze stwierdzenia, że zachodzą

warunki opisane przez zdania E

1

można wyprowadzić predykcję czyli

przewidywanie, że wystąpią okoliczności opisane przez zdania E

2

. Zarazem,

wedle tego kryterium, przewidywania, o którym mowa, nie da się

wyprowadzić z samego tylko stwierdzenia, że zachodzą warunki opisane

przez zdania E

1

, bez założenia hipotezy H. Dlatego właśnie o zbiorze E mówi

się, że potwierdza on hipotezę H.

J

eżeli E potwierdza H na mocy kryterium predyktywnego, i jeżeli H jest

konsekwencją hipotezy G (G à H), to G jest również, na mocy tego samego

kryterium, potwierdzone przez E. Jeżeli bowiem G à H, to G

E

1

H

E

1

. Jeżeli

ponadto H

E

1

E

2

, to na mocy przechodniości implikacji G

E

1

E

2

.

background image

Adam Grobler, O metodzie i strukturze nauki 37

Rozważmy teraz przypadek przeciwny: niech G będzie konsekwencją H, tj. H

G. Naturaln

ie jest przyjąć, że konsekwencje logiczne hipotez potwierdzonych

same są również potwierdzone. Jeżeli więc E potwierdza H i H

G

, wypada

przyjąć, że E potwierdza również G. To jednak, łącznie z poprzednio

rozważaną własnością przechodniości, prowadzi do paradoksalnego

wniosku. Mianowicie, przypuśćmy, że pewien zbiór zdań E potwierdza

hipotezę H a G jest zupełnie dowolnym zdaniem. Na mocy logiki mamy H

G

H

. Wobec tego, na mocy pierwszej własności przechodniości

potwierdzania, H

G jest potwierdzone przez E. Z kolei, na mocy logiki mamy H

G

G.

Skoro poprzednik implikacji jest potwierdzony przez E

to, na mocy drugiej własności

przechodniości potwierdzania, G jest potwierdzone przez E. Ale G było zupełnie

dowolnym zdaniem! Zatem jeżeli jakikolwiek zbiór zdań E potwierdza, na

mocy kryterium predyktywnego, jakąkolwiek hipotezę H, to E potwierdza

każde, zupełnie dowolne zdanie, nawet sprzeczne z H.

Paradoks przechodniości skłonił Hempla [1945] do odrzucenia

kryterium predyktywnego. Clark Glymour [1980] natomiast zachował

kryterium predyktywne, odrzucając drugą własność przechodniości. Tzn.

uznał, że indukcyjne potwierdzenie hipotezy nie przenosi się

automatycznie na jej konsekwencje logiczne. Na pozór wydaje się to

trudne do przyjęcia. Istotą rozumowania dedukcyjnego jest bowiem to, że

wnioski są równie wiarygodne, jak przesłanki. Toteż jeżeli przesłanki są w

pewnym stopniu potwierdzone, wnioski wypada uznać za równie

potwierdzone. Pomysł przeciwny Peter Lipton [1991] uznał za “ponury

żart”. Proponuję jednak, wzorem Zagłoby, potraktować dowcip z należną

mu atencją. Weźmy dla przykładu słynną już hipotezę, że wszystkie kruki

są czarne. Załóżmy, że jest ona potwierdzona przez liczne obserwacje

czarnych kruków. Konsekwencją tej hipotezy jest m.in. hipoteza, że

wszystkie kruki zamieszkujące wyspę Hula-Gula są czarne. Gdyby tak się

złożyło, że na wyspie Hula-Gula do tej pory nigdy nie obserwowano barwy

upierzenia kruków, bo np. żadna ekspedycja naukowa tam jeszcze nie

background image

Adam Grobler, O metodzie i strukturze nauki 38

dotarła, powstałaby sytuacja, w której konsekwencja hipotezy

potwierdzonej indukcyjnie sama nie ma indukcyjnego potwierdzenia.

Paradoks przechodniości uzmysławia nam nader wyraźnie, że

rozumowanie indukcyjne polega zasadniczo na projekcji czyli rzutowaniu

wyników obserwacji na przypadki dotąd niezaobserwowane, np. wyników

obserwacji kruków nad Wisłą na kruki na wyspie Hula-Gula. Z projekcyjną

naturą indukcji łączy się sformułowany przez Nelsona Goodmana [1954]

paradoks“zielbieskości” (grue). Brzmi on następująco. Każda obserwacja

potwierdzająca hipotezę “Wszystkie szmaragdy są zielone” potwierdza

zarazem hipotezę “Wszystkie szmaragdy są zielbieskie”, gdzie

“zielbieskie” znaczy: “zielone do chwili t, a niebieskie potem”, gdzie t jest jakąś

ustaloną chwilą w przyszłości, np. w roku 2050

22

. Ponieważ zaś nie ma z

góry ustalonych granic wynalazczości nowych predykatów, każde

świadectwo empiryczne potwierdza nieskończenie wiele niezgodnych ze

sobą hipotez alternatywnych.

Rozwiązanie Goodmana polega na rozróżnieniu predykatów na

rzutowalne lub projekcyjne (projectible), jak kto woli, i nierzutowalne czyli nieprojekc

yjne.

Predykat nazywa się rzutowalny, jeżeli nadaje się do formułowania

uogólnień indukcyjnych, tj. rzutowania przypadków zaobserwowanych na

przypadki niezaobserwowane. “Zielony” jest predykatem rzutowalnym,

ponieważ zieloność zaobserwowanych szmaragdów można rzutować na

szmaragdy niezaobserwowane. Natomiast “zielbieski” nie jest predykatem

rzutowalnym. Powstaje pytanie, skąd można wiedzieć, które predykaty są

rzutowalne, a które nie. Odpowiedź Goodmana jest czysto pragmatyczna:

za rzutowalne należy uznać predykaty zakorzenione (entrenched) w naszej

praktyce indukcyjnej. Trudno jednak uznać tę propozycję za ostateczne

rozwiązanie problemu. Historia nauki zna przypadki eliminacji mocno

zakorzenionych predykatów, np. “znajdować się w (absolutnym)

spoczynku”, oraz wprowadzania całkiem niezakorzenionych w rodzaju

fantazyjnych “kolorów” i “zapachów” kwarków. Z drugiej strony,

22 W oryginale była mowa o roku 2000, a więc przykład oryginalny się zdeaktualizował.

background image

Adam Grobler, O metodzie i strukturze nauki 39

rozróżnienie Goodmana podpowiada kierunek poszukiwania rozwiązania

paradoksu kruków: można podejrzewać, że predykaty “nieczarny” i

“niekruk”, występujące w “hipotezie” “wszystkie nieczarne przedmioty są

niekrukami”, są nierzutowalne.

Paradoks zielbieskości jest jedną z ilustracji wspomnianej w I.1. tezy o

niedookreśleniu teorii przez dane empiryczne (underdetermination thesis). Głosi

ona, że dowolny skończony zbiór danych jest zgodny z nieskończoną liczbą

alternatywnych hipotez (a więc dostarcza potwierdzenia). Inną ilustracją tej

tezy jest paradoks doboru krzywej (curve-fitting paradox), o którym również była

mowa. W gruncie rzeczy wszystkie te paradoksy ujawniają

niejednoznaczność projekcji, tzn. fakt, że dokonując uogólnień indukcyjnych

musimy dokonać wyboru tych elementów obserwowanej sytuacji, które

będziemy rzutować na niezaobserwowane przypadki. Powstaje kłopotliwe

pytanie, czym należy się kierować przy tym wyborze.

Paradoks przechodniości ma również wersję probabilistyczną w postaci

paradoksu sylogizmu probabilistycznego

. Mianowicie, jeżeli A wysoce potwierdza B i B

wysoce potwierdza C, tzn. P(C | B) ≈ 1, P(B | A

) ≈ 1, należałoby oczekiwać, przez

analogię do zasady przechodniości implikacji (jeżeli p à q i q à r, to p à r), że

A wysoce potwierdza C, tj. P(C | A) ≈ 1. Tymczasem wspomnia

na analogia załamuje się.

Dla przykładu rozważmy losowanie spośród n początkowych liczb naturalnych

dla jakiegoś dużego n, np. n = 10

10

. Niech A = “wylosowano 2”, B

= “wylosowano

liczbę pierwszą”, C = “wylosowano liczbę nieparzystą”. Wówczas

prawdopodobieństwo, że wylosowano liczbę nieparzystą pod warunkiem, że

wylosowano liczbę pierwszą jest bardzo wysokie, bo tylko jedna liczba

parzysta (2) jest liczbą pierwszą. Prawdopodobieństwo, że wylosowano

liczbę pierwszą pod warunkiem, że wylosowane 2 jest równe 1, bo 2 jest

liczbą pierwszą. Natomiast prawdopodobieństwo, że wylosowano liczbę

nieparzystą pod warunkiem, że wylosowano 2 jest równe zero.

Paradoks sylog

izmu probabilistycznego dowodzi, że jeżeli E jest pośrednim

świadectwem empirycznym, uzyskanym za pomocą bardziej

elementarnego świadectwa B, czyli E nie jest pewne, lecz jedynie wysoce

background image

Adam Grobler, O metodzie i strukturze nauki 40

prawdopodobne ze względu na B, tj. P(E | B ) ≈ 1, to nawet gdy

prawdopodobieństwo hipotezy H ze względu na E jest bardzo wysokie, to

prawdopodobieństwo tej samej hipotezy H ze względu na B może być

bardzo niskie. Wynika stąd, że hipotezy można traktować jako w wysokim

stopniu potwierdzone tylko wtedy, gdy świadectwo potwierdzające jest

bezpośrednie i pewne. Kłopot polega na tym, że takich świadectw w ogóle

nie ma. W poprzednim rozdziale rozważaliśmy przykład, w którym

występowało świadectwo na temat poziomu paliwa w baku. Tym

świadectwem był, naturalnie, odczyt wskazania licznika paliwa. Jest

zupełnie oczywiste, że nie daje on stuprocentowo pewnej informacji, lecz

jedynie informację prawdopodobną. Nawet gdyby licznik paliwa był

superdokładny, to nigdy nie jest niezawodny: istnieje pewne, choćby i

nieduże prawdopodobieństwo, że jest zepsuty. Żeby więc upewnić się co

do świadectwa dostarczonego przez wskazanie licznika, należałoby

sprawdzić jego funkcjonowanie, być może za pomocą jakiegoś przyrządu

diagnostycznego. Jednak i wtedy, nawet gdy sprawdzian wypadnie

pomyślnie, stuprocentowej pewności nie ma. Bowiem istnieje pewne,

choćby i nieduże prawdopodobieństwo, że przyrząd diagnostyczny jest

zepsuty. Żeby więc się upewnić, trzeba byłoby ów przyrząd poddać

sprawdzeniu itd. w nieskończoność. Rozumowanie, w którym była mowa o

świadectwach uzyskanych za pomocą przyrządów oczywiście stosuje się

również do świadectw naszych zmysłów. Ludzki organizm nie jest przecież

niezawodnym przyrządem detekcyjno-pomiarowym. Krótko mówiąc, żadne

świadectwo empiryczne nie jest pewne i – jak powiedział Clawrence I.

Lewis [1946] – jeżeli nie ma nic pewnego, nie ma też nic

prawdopodobnego.

Karl R. Pop

per uważał nie tylko, że próby rozwiązania problemu indukcji

za pomocą teorii potwierdzania są nieudane, lecz również że nie mogą się

udać z pewnego zasadniczego powodu. Mianowicie, dążenie do

potwierdzania hipotez w ogóle nie jest postawą godną uczonego.

Potwierdzanie nie jest metodą nauki, lecz pseudonauki. Ulubionymi przez

background image

Adam Grobler, O metodzie i strukturze nauki 41

Poppera przykładami teorii pseudonaukowych były astrologia, marksizm i

psychoanaliza Freuda. Horoskopy stale się potwierdzają. Tak już są

skonstruowane. Nawet najbardziej ryzykowne przepowiednie w rodzaju

“niedługo dostaniesz nieoczekiwane pieniądze” łatwo się materializują w

formie np. 10-groszówki znalezionej na podłodze supermarketu.

Marksistowską teorię walki klas potwierdziło nawet powstanie

“Solidarności” 1980 roku, skierowane przeciw rządzącej partii

marskistowsko-leninowskiej, podobnie jak wszystkie późniejsze wypadki, z

ekscesami Andrzeja Leppera włącznie. Freuda teorię snów potwierdza

każdy sen, bo cóż takiego mogłoby się człowiekowi przyśnić, co nie dałoby

się zinterpretować jako wyraz ukrytego pragnienia lub obawy. Cokolwiek

się zdarzy, teoria pseudonaukowa ma z góry przygotowane wyjaśnienie.

Nie może się zdarzyć nic, na co teoria pseudonaukowa nie miałaby

wyjaśnienia. Toteż taka teoria nie mówi nam, co może, a co nie może się

zdarzyć. Nie mówi nam: świat jest taki, że to-a-to jest możliwe, a tamto-

siamto jest niemożliwe. Nie mówi nam zatem nic o tym, jaki świat jest.

Dlatego właśnie jest pseudonaukowa.

background image

Adam Grobler, O metodzie i strukturze nauki 42

I.3. Falsyfikacj

onizm i jego trudności

I.3.1. Motywy falsyfikacjonizmu

Popperowskie r

ozróżnienie na naukę i pseudonaukę spowodowało gwałtowny

zwrot w podejściu do problemu indukcji. Bo też problem odróżnienia nauki od

tego, co nauką nie jest, nazwany przez filozofów Koła Wiedeńskiego

problemem demarkacji

, ma zasadnicze znaczenie dla teorii metody naukowej.

W XVII wieku, w którym rozważania metodologiczne wysunęły się na

pierwszy plan filozofii, jeszcze nie uświadamiano sobie potrzeby tego

odróżnienia. Idee, które z dzisiejszego punktu widzenia uznalibyśmy za

naukowe lub przednaukowe, nie wyodrębniały się wówczas z ogólnego tła

filozoficznego i światopoglądowego. W Rozprawie o metodzie Kartezjusz od

zagadnień istnienia duszy i Boga niemal jednym tchem przechodzi do

kwestii obiegu krwi w organizmie. Nic więc dziwnego, że proponowana przez

niego metoda intuicyjno-dedukcyjna, zalecająca ustalenie wpierw prawd

intuicyjnie oczywistych, a następnie wyprowadzanie z nich wniosków

dedukcyjnych, albo metoda analizy, polegająca na rozbiorze trudnych

zagadnień na części składowe, nie wydają się uchwytywać specyfiki

poznania naukowego. Bardziej odpowiadają naturze matematyki, która

wówczas uchodziła za wzorzec wszelkiego poznania.

Pierwsze wyraźne rozróżnienie między poznaniem naukowym a

metafizycznym powstało pod wpływem niebywałych sukcesów fizyki

Newtona i zostało sformułowane przez Immanuela Kanta: nauka zajmuje się

przedmiotami doświadczenia, zaś metafizyka ideami kosmosu, duszy i Boga.

Zaś uzasadnienie metody naukowej, w jego ujęciu, pochodzi z metafizyki:

nauka możliwa jest dzięki apriorycznym formom zmysłowości (przestrzeni i

czasu) i kategoriom czystego intelektu (m.in. kategorii przyczyny), których

istnienia dowodzi tzw. dedukcja transcendentalna.

Pozytywizm Augusta Comte’a przyniós

ł odrzucenie metafizyki jako prawomocnej

background image

Adam Grobler, O metodzie i strukturze nauki 43

dziedziny poznania, co spowodowało radykalny zwrot w stronę empiryzmu.

Zapoczątkowana przez Koło Wiedeńskie sto lat później XX-wieczna wersja

pozytywizmu, zwana neopozytywizmem albo empiryzmem logicznym,

wprowadziła skrajnie empirystyczne z ducha kryterium demarkacji. Mówiło ono, że

naukowe (a zarazem sensowne) są te i tylko te zdania, które są

weryfikowalne w doświadczeniu. Rychło jednak okazało się, że

(sformułowany przez Weismanna) wymóg weryfikowalności, pojmowany na

zasadzie wszystko-albo-nic, jest zbyt wygórowany, aby mogły go spełniać

interesujące zdania nauki, w szczególności hipotezy uniwersalne. Dlatego

Rudolf Carnap zastąpił go wymogiem (stopniowalnej) potwierdzalności.

Kryterium potwierdzalności jest jednak również wątpliwe, jeżeli wziąć pod

uwagę paradoksy potwierdzania i trudności probabilizmu. Przesunięcie

problemu demarkacji z kwestii odróżnienia nauki od metafizyki na kwestię

odróżnienia nauki od pseudonauki otworzyło nową perspektywę. Nauka, w

odróżnieniu od pseudonauki, ma oddzielać to, co w świecie możliwe od tego,

co niemożliwe. Ma zatem zakazywać występowania pewnych stanów rzeczy.

Tym samym zdania nauki są narażone na obalenie: wystąpienie stanu

rzeczy zakazanego przez hipotezę naukową podważa tę hipotezę. Żadna

obserwacja, ani eksperyment, nie może dowieść prawdziwości hipotezy.

Natomiast niekiedy można wykazać, powiada Popper, że dana hipoteza jest

fałszywa. Dlatego zaproponowane przez niego kryterium demarkacji mówi,

że naukowe są te i tylko te zdania, które są falsyfikowalne.

Metoda naukowa nie polega, wobec tego, na dążeniu do potwierdzania

hipotez czy do ich stopniowego uprawdopodobniania. Do nauki zaliczają się

nie zdania w znacznym stopniu potwierdzone ani wysoce prawdopodobne,

lecz zdania przyjęte na próbę. Dlatego właściwą metodą nauki jest, według

Poppera, stosowanie tzw. zasady krytycyzmu. Zaleca ona wysuwanie śmiałych

hipotez i nieustające podejmowanie rzetelnych prób ich obalenia

(falsyfikacji). Hipotezy powinny być śmiałe, tzn. mocno narażone na

obalenie, ponieważ śmiała hipoteza, jeżeli jest fałszywa, szybciej od hipotez

ostrożnych okaże się fałszywa i ustąpi miejsca bardziej obiecującej

background image

Adam Grobler, O metodzie i strukturze nauki 44

kandydatce. Gdy zaś wytrzyma surowe sprawdziany, tzn. rzetelne, a nie

tylko pozorowane próby jej obalenia, przyniesie zysk poznawczy o wiele

znaczniejszy od hipotez ostrożnych, po których i tak się spodziewamy, że

wytrzymają nacisk doświadczenia. Zresztą falsyfikacja hipotezy również

przynosi pożytek poznawczy: informuje o tym, pod jakim względem hipoteza

jest fałszywa, co daje wskazówki pomocne w poszukiwaniach nowej, lepszej

hipotezy.

(Uwaga na marginesie: dbałość o ten pożytek odróżnia krytycyzm od

krytykanctwa. Zdemaskowanie błędu nie jest celem samym w sobie,

zwłaszcza że nie ma doskonałości na tym świecie, jak powiedział Lisek do

Małego Księcia. Zadaniem krytyki jest utorowanie drogi do lepszego od

dotychczasowego – co nie znaczy doskonałego i ostatecznego –

rozwiązania naszych problemów. Znakomite, niestety zapomniane

sformułowanie tej zasady można znaleźć już u Johna Locke’a).

Opisana wyżej metoda nazywa się metodą hipotetyczno-dedukcyjną,

ponieważ polega na wysuwaniu hipotez, wyprowadzaniu z nich wniosków

dedukcyjnych na temat wyników projektowanych eksperymentów a

następnie konfrontowaniu ich z faktycznymi wynikami eksperymentalnymi.

Na gruncie falsyfikacjonizmu Poppera, który tylko taką metodę uznaje za

naukową, można elegancko rozwiązać mnóstwo problemów piętrzących się

przed teoriami potwierdzania. Weźmy np. paradoks kruków. Obserwacja

białego buta okazuje się w ogóle nieistotna dla hipotezy “wszystkie kruki są

czarne”, bo nie jest próbą jej obalenia. Sprawdzianem tej hipotezy mogą być

tylko obserwacje kruków oraz nieczarnych ptaków, które po innych

oznakach można podejrzewać, że mogą ewentualnie okazać się krukami.

Paradoks przechodniości w ogóle nie powstaje. Jeżeli jakaś hipoteza nie

została sfalsyfikowana, to tym samym żadna jej konsekwencja logiczna nie

została sfalsyfikowana. W przeciwnym razie bowiem, na mocy prawa

kontrapozycji

23

, ta pierwsza byłaby również sfalsyfikowana. Skądinąd

rzetelność prób falsyfikacji polega m.in. na próbowaniu falsyfikacji możliwie

23 (H

G)

(

¬

G

¬

H)

background image

Adam Grobler, O metodzie i strukturze nauki 45

najrozmaitszych konsekwencji sprawdzanej hipotezy. Wreszcie, gdy idzie zaś

o paradoksy niedookreślenia teorii przez dane, są one co najmniej

złagodzone przez zacieśnienie puli rozpatrywanych hipotez do

niesfalsyfikowanych i najśmielszych spośród wysuniętych.

Poza tym, falsyfikacjonizm dostarcza uzasadnienia różnym popularnym

normom metodologicznym, które wymykały się ujęciom probabilistycznym

czy, ogólniej, indukcjonistycznym, jak niekiedy nazywa się poglądy, wedle

których hipotezy uniwersalne są (stopniowalnie) potwierdzane przez

indywidualne przypadki. Np. często formułowano zasadę, wedle której

hipoteza jest tym mocniej potwierdzona, im bardziej zróżnicowane

świadectwa przemawiają na jej korzyść. Tymczasem np. bayesianizm milczy

na temat jakościowego zróżnicowania świadectw, biorąc pod uwagę jedynie

prawdopodobieństwa warunkowe świadectw ze względu na rozważaną

hipotezę i na jej zaprzeczenie. Natomiast z punktu widzenia

falsyfikacjonizmu, im bardziej różnorodne są próby falsyfikacji hipotezy, tym

więcej konsekwencji logicznych tej hipotezy jest narażonych na obalenie, a

zatem sprawdzenie samej hipotezy jest rzetelniejsze i bardziej

wszechstronne. Dlatego hipotezę, która wytrzymała bardziej zróżnicowane

próby falsyfikacji niż jej konkurentka, zasługuje na wyższą od niej ocenę.

Dokładne powtórzenie eksperymentu, który nie doprowadził do falsyfikacji

hipotezy, nie jest jej surowym sprawdzianem, podobnie jak przeczytanie

drugiego egzemplarza tej samej gazety nie jest dobrym sprawdzianem

wiarygodności zamieszczonych w niej informacji. Tylko bardzo młodzi uczeni

sprawdzają prawo powszechnego ciążenia uparcie upuszczając z balkonu

srebrne łyżeczki. W dojrzałej praktyce naukowej, zamiast dokładnie

powtarzać eksperymenty nawet tak sensacyjne, że zachodzi podejrzenie

popełnienia błędu, z reguły dokonuje się pewnych modyfikacji.

Wygląda na to, że falsyfikacjonizm ma same zalety. Tymczasem

podejmując problemy niezadowalająco rozwiązane na gruncie

indukcjonizmu, niektóre z nich falsyfikacjonizm nie tyle rozwiązał, ile

przekształcił, nadając im formę rodzącą nowe trudności. Centralnym z nich

background image

Adam Grobler, O metodzie i strukturze nauki 46

jest problem bazy empirycznej.

I.3.2. Uteoretyzowanie obserwacji i problem bazy empirycznej

Falsyfikacja hipotezy polega na wyprowadzeniu z niej i ze zdania

opisującego warunki początkowe obserwacji lub eksperymentu takiego

przewidywania, które się nie spełnia. Struktura logiczna rozumowania

prowadzącego do falsyfikacji hipotezy przedstawia się następująco:

{(

x)[W(x)

Z(x)]

W(a)}

Z(a),

¬

Z(a)

––––––––––––––––––––––––––––––––––––

¬

(

x)[W(x)

Z(x)]

gdzie (

x)[W(x)

Z(x)] jest hipotez

ą uniwersalną tej treści, że każdy przedmiot x, gdy

znajdzie się w warunkach W, zachowuje się w sposób Z, a zaś jest nazwą

konkretnego przedmiotu. To samo, opuszczając zmienne, można zapisać

prościej:

(H

p)

q,

¬

q

–––––––––––––

¬

H.

Sprawa jednak nie jest wcale tak prosta, jak się może wydawać, co

prześledzimy na nieprzyzwoicie prostym przykładzie. Rozważmy niezbyt

śmiałą hipotezę tej treści, że gotowana marchewka jest miękka.

Dokładniej: “każda marchewka, jeżeli zostanie wrzucona do wrzącej wody i

potrzymana w niej odpowiednio długo, zmięknie”. Oznaczmy ją literą H.

Niech p

będzie zdaniem “oto garnek, w którym woda jest podtrzymywana w

stanie wrzenia i oto marchewka, którą wrzucam do wody”. Z H

p wynika

przewidywanie q

“marchewka po pewnym czasie zmięknie”. Jeżeli teraz

wykonamy stosowny eksperyment, polegający na odpowiednio długim

gotowaniu marchewki i przewidywanie q się nie spełni, hipoteza H zostanie

sfalsyfikowana. H

wyklucza bowiem możliwość zajścia p

¬

q. Zdanie p

¬

q

background image

Adam Grobler, O metodzie i strukturze nauki 47

będziemy nazywać potencjalnym falsyfikatorem hipotezy H.

Zauważmy, że zdanie p

¬

q jest potencjalnym falsyfikatorem hipotezy H wtedy i

tylko wtedy, gdy zbiór {p, q

} potwierdza hipotezę H na mocy wspomnianego

wyżej kryterium predyktywnego. Skutkiem tej pozornej symetrii filozofowie

Koła Wiedeńskiego nie doceniali różnicy statusu logicznego potwierdzenia i

falsyfikacji, którą tak podkreślał Popper. Nie on pierwszy zresztą: źródeł

falsyfikacjonizmu można dopatrywać się u Williama Whewella

24

i, jeszcze

wcześniej, w koncepcji indukcji eliminacyjnej Franciszka Bacona.

Asymetria potwierdzania i falsyfikacji polega na tym, że potwierdzenie jest

co najwyżej stopniowalne – a i to jest wątpliwe wobec omówionych

wcześniej paradoksów potwierdzania i trudności probabilizmu – podczas

gdy falsyfikacja, nawet jednorazowa, wydaje się rozstrzygająca. Czyżby?

Wróćmy do schematu logicznego falsyfikacji. Z pary zdań (H

p)

q,

¬

q

stosując

wpierw prawo kontrapozycji do pierwszego z nich, a następnie regułę

odrywania, można wyprowadzić wniosek

¬

(H

p)

równoważny, na mocy praw de

Morgana,

¬

H

¬

p

. Innymi słowy, jeżeli wynik eksperymentu okaże się różny od

przewidywanego q

, nie będziemy mogli wnioskować, że hipoteza H jest

fałszywa, a jedynie, że H jest fałszywa lub p jest fałszywe. Wynik

eksperymentu nie jest więc rozstrzygający: nawet gdy przewidywanie się nie

spełni, to jeżeli p jest fałszywe, H może być prawdziwa.

Zaraz, zaraz. Zdanie p

opisuje przecież warunki początkowe eksperymentu.

Gdy idzie o eksperyment wykonany osobiście, nie ma żadnych wątpliwości,

że woda w garnku wrzała, a marchewka przebywała w niej odpowiednio

długo. Zdanie p jest po prostu stwierdzone. Toteż gdy przewidywanie q się

nie spełni, marchewka okaże się twarda, hipoteza H zostanie sfalsyfikowana.

Zdanie p

jest stwierdzone? A na jakiej podstawie? Skąd wiemy np. że w

garnku jest woda? Z obserwacji. Tak się przynajmniej wydaje. Jeżeli

poznanie naukowe jest poznaniem empirycznym, musi być ostatecznie

ugruntowanie w obserwacji. Albo tak się przynajmniej wydaje. Tak też

24

Główne dzieła: History of the Inductive Science, from the Earliest to the Present Time (1837), The

Philosophy of the Inductive Sciences, Founded upon their History (1840).

background image

Adam Grobler, O metodzie i strukturze nauki 48

przyjmowało Koło Wiedeńskie, pod wpływem całej tradycji empiryzmu

i pozytywizmu, zwłaszcza Davida Hume’a (1711-1776) i Ernsta Macha

(1838-1916), a bezpośrednio pod wpływem Traktatu Ludwiga Wittgensteina.

Znajduje się tam myśl, że wartość logiczną (tj. prawda lub fałsz) zdań

złożonych można rozpoznać na podstawie ich budowy i wartości logicznej

zdań elementarnych, z których są zbudowane. Natomiast wartość logiczna

zdań elementarnych nie zależy od żadnych innych zdań i można ją

rozpoznać wyłącznie na podstawie doświadczenia.

W podobnym duchu Koło Wiedeńskie rozwiązywało problem powstały w

wyniku jego sformułowania kryterium demarkacji. Idzie o to, że jeżeli do

nauki wolno zaliczyć jedynie zdania weryfikowalne czy potwierdzalne w

doświadczeniu, to powstaje pytanie, czy zdania w których jest mowa np. o

emisji wiązki elektronów, są naukowe. Czy ktoś kiedyś widział, słyszał lub

wąchał elektron? A może ktoś go dotykał lub napawał się jego wykwintnym

smakiem? Elektrony z pewnością nie są dostępne naszemu doświadczeniu,

przynajmniej w tradycyjnym znaczeniu tego słowa. Jeżeli ktoś wyobraża

sobie elektron jako np. małą, gładką, twardą, okrągłą kulkę bez smaku i

zapachu, albo jakoś inaczej, jego wyobrażenie ma wartość poznawczą równą

wizerunkom brodatych krasnoludków. Ich też ani widu, ani słychu. Gdyby

jednak zdania o elektronach, razem ze zdaniami o krasnoludkach, wykluczyć

z nauki, trzeba byłoby zrezygnować z rozbijania jąder atomów i innych

podobnych rozrywek.

Trudność tę próbowano rozwiązać, wzorem Wittgensteina, sprowadzając

weryfikację lub potwierdzenie wszystkich kłopotliwych zdań nauki do

weryfikacji lub potwierdzenia zdań szczegółowych bezpośrednio

weryfikowalnych lub potwierdzalnych w obserwacji, zdań w rodzaju “tam-i-

wtedy zdarzyło się to-a-to”. Zdania takie nazwano zdaniami bazowymi

25

a ich

zbiór

bazą empiryczną. Ażeby zdania bazowe nadawały się do

przeznaczonego im użytku, nie mogą zawierać terminów w rodzaju

25 W ujęciu Ottona Neuratha rolę zdań bazowych pełniły tzw. zdania protokolarne,

będące opisami doświadczenia. W sprawie szczegółów zob. Koterski [2000], [2002].

background image

Adam Grobler, O metodzie i strukturze nauki 49

“elektron”. Mogą w nich występować jedynie terminy odnoszące się do

bezpośrednio obserwowalnych rzeczy i ich bezpośrednio obserwowalnych

własności, czyli tzw. terminy obserwacyjne, oraz terminy matematyczno-

logiczne. Pozostałe terminy, jak “elektron”, “energia kinetyczna”,

“wartościowość pierwiastka” itd. nazwano terminami teoretycznymi, a

zdania, w których one występują, zdaniami teoretycznymi.

Po przeprowadzeniu rozróżnienia na terminy (i zdania) obserwacyjne i

teoretyczne oraz wyodrębnieniu zdań bazowych pozostała do zrobienia

drobnostka: objaśnienie w jaki sposób weryfikacja lub potwierdzenie zdań

teoretycznych sprowadza się, czyli redukuje, do weryfikacji lub

potwierdzenia zdań obserwacyjnych i, wreszcie, zdań bazowych. Niestety,

ponad trzydzieści lat wysiłków, porzuconych ostatecznie na początku lat

sześćdziesiątych, nie dały zadowalających rezultatów. O trudnościach ujęcia

potwierdzenia hipotez teoretycznych przez świadectwo opisane za pomocą

zdań obserwacyjnych wspominałem już w I.2.4. Natomiast niepowodzenia

samego programu redukcji potwierdzenia omówię w II.1-II.4.

Problemem jest jednak nie tylko sprowadzenie potwierdzenia zdań

teoretycznych do potwierdzenia zdań bazowych, ale także samo

wyodrębnienie zdań bazowych. Miały one pełnić rolę niewzruszonego

fundamentu wiedzy naukowej, możliwą do spełnienia dzięki temu, że są

ostatecznie rozstrzygalne za pomocą bezpośredniej obserwacji. Wiara w

istnienie takich zdań jest charakterystyczna dla stanowiska zwanego

fundamentalizmem epistemologicznym

26

, wedle którego jakaś część wiedzy musi

być niewzruszona, aby móc być podstawą pozostałej wiedzy. Wiedza, jak się

wydaje, musi mieć jakieś podstawy, inaczej nie jest wiedzą, lecz co najwyżej

mniemaniem. Tymczasem, pisząc o paradoksie sylogizmu

probabilistycznego wspominałem o tym, że żadne świadectwo nie jest

bezpośrednie i dlatego nie może być pewne. Toteż nie możemy być pewni,

26

Niektórzy autorzy i tłumacze wolą, dla uniknięcia skojarzenia z fundamentalizmem

religijnym, używać terminu “fundacjonalizm”. Jest on bliższy brzmieniowo angielskiego
foundationalism

, ten wszakże pochodzi od foundations czyli fundamentów lub podstaw, a nie funds czyli

funduszów lub fundacji.

background image

Adam Grobler, O metodzie i strukturze nauki 50

że w garnku na kuchence jest woda. Mamy oczywiście powody, aby tak

sądzić: wygląda jak woda. Jednak choćbyśmy nie wiem jak dokładnie ją

oglądali, wąchali, kosztowali i chlapali się w niej, nie będziemy mogli nigdy

wykluczyć, że w naczyniu jest jakaś inna ciecz, która – jak dotąd – z

powodzeniem udaje wodę (jak zresztą często to czyni ciecz płynąca z

naszych kranów).

Obecnie zdecydowana większość filozofów uważa fundamentalizm za

złudzenie. Nie twierdzę, że Koło Wiedeńskie całkowicie temu złudzeniu

ulegało. Neurath czy Carnap dostrzegali wyraźnie, że cokolwiek

przyjęlibyśmy za dobrze sprawdzone zdania bazowe, zawsze pozostaje cień

wątpliwości. Nie przywiązywali jednak do tego większej wagi, podobnie jak

na co dzień nie żywimy poważnych podejrzeń, że coś, co wygląda na wodę

jest w gruncie rzeczy śmiertelną trucizną. Carnap przypuszczalnie sądził, że

w teorii poznania naukowego wolno posłużyć się idealizacją i założyć, że

istnieją zdania zupełnie pewne, choć w istocie są one co najwyżej prawie

pewne – podobnie jak w samej nauce stosuje się idealizacje, gdy mówi się

o zderzeniach idealnie sprężystych i ciałach doskonale czarnych, choć w

każdym zderzeniu część energii idzie na straty i każde ciało odbija część

promieniowania. Zawsze jednak powstaje pytanie, czy idealizacyjne

zniekształcenie rzeczywistości jest wystarczająco usprawiedliwione jego

użytecznością poznawczą

27

. W przypadku indukcjonizmu, ze

względu na fiasko

projektu redukcji potwierdzenia zdań teoretycznych do potwierdzenia zdań

obserwacyjnych, można śmiało powiedzieć, że idealizacyjne pojęcie zdania

bazowego nie spełnia swojego zadania.

W każdym razie dziś niemal powszechnie panuje fallibilizm, czyli pogląd,

że każdy element naszej wiedzy jest podważalny. Falsyfikacjonizm jest

oczywiście odmianą fallibilizmu: jeżeli do nauki należą tylko zdania

falsyfikowalne, to żadne zdanie naukowe nie może być niepodważalne. W

szczególności, jeżeli zdanie opisujące warunki początkowe eksperymentu

ma być zdaniem naukowym – a trudno, żeby nie było, gdy mowa o

27 D

okładniej o idealizacjach będzie mowa w II.7.

background image

Adam Grobler, O metodzie i strukturze nauki 51

eksperymentach naukowych – to musi ono być falsyfikowalne. Również

zdanie o tym, że w garnku na kuchence jest woda, musi być falsyfikowalne,

a więc niepewne. Dlatego stąd, że wynik eksperymentu jest niezgodny z

przewidywaniem, nie wynika logicznie wniosek, że badana hipoteza jest

fałszywa. Tym bardziej, że – na mocy tego samego rozumowania, co w

przypadku zdania opisującego warunki początkowe – zdanie opisujące wynik

eksperymentu też musi być falsyfikowalne czyli niepewne. Tak czy owak,

aby można było na serio uznać hipotezę za sfalsyfikowaną, trzeba jakoś

przyjąć zdania opisujące warunki początkowe i wynik falsyfikującego

eksperymentu. Przyjąć je tak, jak gdyby były zdaniami bazowymi. Pytanie,

na jakiej zasadzie można je przyjąć. Jeżeli nie znajdziemy na nie odpowiedzi,

cała koncepcja falsyfikacjonizmu natychmiast bankrutuje. W ten sposób

problem zdań bazowych, o których już wiadomo, że ich nie ma, powstaje na

nowo.

Popper w [1934/1959] postawił ten problem w formie trylematu Friesa:

albo dogmatyzm, albo psychologizm, albo regres w nieskończoność. Tzn.

albo trzeba przyjąć zdania bazowe na zasadzie dogmatycznej czyli

arbitralnej decyzji, albo na zasadzie naszej psychologicznej skłonności tj.

wiary w to, że posiadamy umysłową władzę rozstrzygania zdań bazowych,

albo wreszcie trzeba dopuścić regres w nieskończoność podejmując próby

falsyfikacji zdań bazowych za pomocą jakichś innych zdań bazowych, a

tych za pomocą jakichś jeszcze innych zdań bazowych itd. Pierwszy człon

trylematu, dogmatyzm, trzeba odrzucić jako niezgodny z zasadą

krytycyzmu. Drugi człon, psychologizm, Popper odrzucił razem rozróżnieniem

obserwacyjne-teoretyczne. Przeciw niemu przemawia teza o uteoretyzowaniu

obserwacji (theory-impregnation thesis

). Według niej nie sposób nic

zaobserwować bez wcześniejszych oczekiwań ukształtowanych przez

posiadane przez nas teorie. Np. zaobserwować, że w garnku jest woda,

znaczy oczekiwać, że zawartością garnka (po ostudzeniu) można byłoby

ugasić pragnienie lub podlać kwiatki, że gdy część jego zawartości

odparuje, można będzie ją uzupełnić cieczą płynącą z kranu, zaczerpniętą

background image

Adam Grobler, O metodzie i strukturze nauki 52

ze studni lub rzeczki, albo nałapaną w czasie deszczu itd. W tym

przypadku są to oczekiwania oparte raczej na wiedzy potocznej niż

nauk

owej, jednak w pełni zasługują na to, by nazwać je teoretycznymi.

Opierają się bowiem na nieuświadomionych wprawdzie, ale teoretycznych

założeniach, że wrzenie nie zmienia wody w co innego, że kran w kuchni

jest podłączony do sieci wodociągowej, która tłoczy pod ciśnieniem wodę z

jakiegoś zbiornika naturalnego, a nie np. pepsi-colę ze sztucznego zbiornika

baru McDonalda itp. Be

z takich założeń zamiast obserwacji, że w garnku jest

woda, mielibyśmy po prostu nie nazwany chaos wrażeń.

Kogo przykład z wodą nie przekonuje, przekona może opowieść, którą

gdzieś wyczytałem we wczesnej młodości, gdy jeszcze nie miałem pojęcia,

że zostanę filozofem. Narrator siedział przed oknem, za którym rozpościerał

się widok na las. Nieoczekiwanie na ścieżce w lesie pojawił się ohydny

potwór, którego odrażający opis pominę. Po przepełnionej grozą chwili,

potwór zboczył ze ścieżki w gęstwinę. Tymczasem drzewa, zamiast walić

się z łoskotem pod naporem potężnego cielska, stały sobie, jak gdyby

nigdy nic. Wtedy narrator zmienił zdanie. Doszedł do wniosku, że rzekomy

potwór jest muchą spacerującą po nieskazitelnie czystej szybie okna.

Wynika stąd wyraźnie, że treść obserwacji zależy od licznych, mniej lub

bardziej teoretycznie wyrafinowanych założeń: na temat związku między

wyglądem, odległością a rozmiarami obserwowanego obiektu,

wytrzymałości korzeni drzew i siły naporu żywych organizmów, stopnia

przejrzystości szyb okiennych itp.

Bardziej “naukowym” przykładem uteoretyzowania obserwacji może

być widok zdjęcia rentgenowskiego, nader wymowny dla lekarza, choć dla

niewyszkolonego pacjenta przedstawia jedynie niezrozumiały układ plam.

W każdym razie, zarówno w przypadku wiedzy potocznej, jak i naukowej – granica

między nimi zresztą jest płynna i przesuwalna – nie ma ani jednego zdania,

które można byłoby przyjąć na podstawie samej obserwacji, aczkolwiek nie

byłoby nauki bez związku z obserwacją. Jednak to nie obserwacja poprzedza

background image

Adam Grobler, O metodzie i strukturze nauki 53

teorię, lecz przeciwnie, teoria poprzedza obserwację

28

.

Pozostaje trzeci człon trylematu Friesa, regres w nieskończoność. Popper

uznał go za niegroźny, ponieważ hipotezy naukowe nie wymagają dowodów w

mocnym sensie tego słowa, tzn. w takim sensie, w jakim stosuje wyraz

“dowód” w matematyce. Nie wymagają zaś dlatego, że dowód żadnej

hipotezy nie jest

możliwy. Nie sposób zaś wymagać niemożliwości. Wszelkie

hipotez

y są tymczasowe. Podobnie zdania bazowe są też tymczasowe i w

razie potrzeby mogą zostać odwołane.

Rozwiązanie Poppera odrzuca wszystkie trzy składniki trylematu, ale

zachowuje coś z każdego z nich. Aby zatrzymać regres w nieskończoność,

przy

jmuje się jakąś tymczasową bazę empiryczną, niejako na zasadzie

konwencji, “wyrokiem nauk

owego jury”. Konwencjonalne decyzje mają w sobie

coś z dogmatu. Zarazem jednak są podejmowane w związku z obserwacją –

element “psychologizmu” – choć nie na jej wyłącznej podstawie. Wreszcie,

są tymczasowe, bo nie można ich przyjąć na stałe bez naruszenia zasady

krytycyzmu. Można najwyżej – i z konieczności trzeba – tymczasowo

zawiesić ich krytykę, dopóki same służą jako narzędzia krytyki hipotez.

Krytykę jednak zawsze można odwiesić, wykonując krok w stronę

potencjalnego regresu w nieskończoność. Ten zaś można zatrzymać,

podejmując kolejną konwencjonalną decyzję w sprawie doboru zdań

bazowych.

W takim ujęciu zagadnienia wyraźnie daje się rozpoznać wpływ ojca

fallibilizmu, Charlesa Sandersa Peirce’a (1839-1914). W The Fixation of Belief

(1877) przedstawił on koncepcję z grubsza następującą. Można wysunąć

wątpliwość pod adresem dowolnego mniemania

29

, co nie znaczy, że

28

Ta myśl przekorna wobec tradycyjnego czy radykalnego empiryzmu jest kantowskiego

rodowodu. Z tą różnicą, że miejsce organizujących doświadczenie apriorycznych, a więc
nieusuwalnych form zmysłowości i kategorii czystego intelektu zajmują teorie, które w
miarę postępów poznania się zmieniają. O hipotezach naukowych Popper mówił, że są
genetycznie a priori, tzn. nie pochodzą z doświadczenia – nie są uogólnieniami obserwacji,
tylko

twórczymi pomysłami uczonych. Są natomiast metodologicznie empiryczne, tzn.

podlegają konfrontacji z doświadczeniem i mogą w wyniku tej konfrontacji zostać odrzucone.
29 Większość polskich autorów i tłumaczy przekłada belief na “przekonanie”. Osobiście
wolę “mniemanie”, które wprawdzie nie jest dokładnym odpowiednikiem belief, ale ma

dwie zalety w porównaniu z “przekonaniem”, które jest jeszcze mniej dokładnym

background image

Adam Grobler, O metodzie i strukturze nauki 54

zawsze trzeba. Musimy bowiem przyjąć jakieś mniemania, bo bez oczekiwań

opartych na mniemaniach nie ma postrzeżenia. Postrzeżenie niekiedy

sprawia nam niespodziankę (surprise), która wywołuje wątpienie.

Umotywowane niespodzianką wątpienie uruchamia dociekanie (inquiry),

któr

e prowadzi do rewizji mniemań. Ustala się jakiś nowy układ mniemań,

aż do następnej niespodzianki, która wywołuje wątpienie, które uruchamia

dociekanie, które prowadzi do kolejnej rewizji.

Powstaje jednak pytanie, przeciw którym mniemaniom kierować ostrze

wątpienia rozbudzonego przez niespodziankę. Odpowiedź Peirce’a

odłożymy na później, a na razie zajmiemy się falsyfikacjonistyczną wersją

tego problemu. Tutaj pytanie brzmi: pod jakim warunkiem można uchylić

konwencjonal

ny immunitet zdań bazowych? Ta nader zawiła kwestia

przedstawia się nieco klarowniej w kontekście koncepcji wiedzy zastanej

(background knowledge

), sformułowanej przez Poppera dopiero w [1963]

30

.

Wiedz

a zastana składa się z wiedzy potocznej oraz tych teorii naukowych, którymi

są uteoretyzowane zdania aktualnie uznawane za zdania bazowe. Innymi

słowy, konwencjonalna decyzja (tymczasowej) akceptacji pewnych zdań

bazowych skutkuje tymczasowym wyłączeniem spod krytyki pewnych zdań

teoretycznych, które obejmuje się wspólnym mianem wiedzy zastanej. Ten

sam wynik eksperymentu może falsyfikować albo nie falsyfikować

sprawdzanej hipotezy, w zależności od wiedzy zastanej.

Przeprowadziłem kiedyś eksperyment polegający na próbie zjedzenia

odpowiednikiem: podobnie jak belief nie kojarzy się z osobistym zaangażowaniem
towarzyszącym conviction lub persuasion oraz podobnie jak belief lub greckie doxa stosuje się jako
przeciwstawienie do “wiedzy” (odpowiednio: ang. knowledge, gr. episteme).
30 Pojęcie background knowledge było rozmaicie tłumaczone przez polskich autorów i
tłumaczy. Adam Chmielewski w przekładzie Wiedzy obiektywnej stosuje zdecydowanie
nietrafny zwrot: “ogólne tło wiedzy”. Background knowlege jest pewną odmianą knowledge czyli
wiedzy, podczas gdy tło wiedzy w ogóle wiedzą nie jest. Lepszym

odpowied

nikiem byłaby

już “wiedza tła” lub “wiedza zaplecza”, jak tłumaczyli niektórzy. Stosunkowo zgrabnym

przekładem jestwynaleziona chyba przez Stefana Amsterdamskiego “wiedza
towarzysząca”. Moja propozycja, “wiedza zastana”, nawiązuje do tego, że background
znaczy również “wykształcenie”, co jest o tyle znamienne, w kontekście koncepcji
Poppera chodzi o wiedzę, z którą przystępujemy do sprawdzania nowo wysuwanych hipotez.
Z drugiej strony, niekiedy na użytek sprawdzenia hipotezy przyjmuje się założenia równie nowe
i nieugruntowane w t

radycji jak ona. Określenie ich mianem “wiedzy towarzyszącej” wydaje się

bardziej odpowiednie. Dlatego w swoich własnych analizach [2000, III.1, IV.2] odróżniam
wiedz

ę zastaną od wiedzy towarzyszącej

jako dwa składniki background knowledge.

background image

Adam Grobler, O metodzie i strukturze nauki 55

zupy podanej w pewnym ośrodku wczasowym. Stwierdziłem, że marchewka

w tej zupie jest bardzo twarda. Czy ten rezultat falsyfikuje hipotezę o

konsystencji gotowanej marchewki? Nie byłem skłonny tak sądzić. Nasuwało

się raczej przypuszczenie, że kucharz nie gotował jej dostatecznie długo. Ten

domysł wszakże nie wydawał się trafny, ponieważ marchewka nie była nie

dość miękka czy twardawa, jak bywają marchewki niedogotowane. Była

może nawet twardsza od marchewki surowej. Toteż w świetle wiedzy

zastanej trzeba byłoby jednak uznać naszą hipotezę za sfalsyfikowaną. Jakiś

czas później gotowałem barszcz i, z pośpiechu czy niedbalstwa, wlałem do

wody zakwas natychmiast po wrzuceniu marchewki. Mimo długiego

gotowania, marchewka okazała się twarda. Wtedy przypomniałem sobie, że

poprzednią eksperymentalną zupą była ogórkowa. To nasunęło mi na myśl

hipotezę, że gotowanie marchewki w zakwaszonej wodzie ją utwardza, a nie

zmiękcza. Sprzeniewierzając się zasadzie krytycyzmu nie podjąłem prób jej

falsyfikacji: szkoda mi było inwestować środki finansowe w dalsze

eksperymenty. Zamiast tego włączyłem ją do wiedzy zastanej i odtąd,

ilekroć gotuję zupę – choć robię to nieczęsto – staram się pamiętać, by nie

dodawać do niej nic kwaśnego, dopóki marchewka nie zmięknie. Hipoteza

o tym, że gotowana marchewka jest miękka, dzięki rewizji wiedzy zastanej,

wytrzymała próbę wczasową.

Koncepcja wiedzy zastanej ukazuje nam w nowym świetle pewne epizody

historii nauki, opisywane w literaturze popularnej jako przykłady zmagań

geniuszu z zacofaniem. Kopernikańska hipoteza ruchu dobowego Ziemi była

sfalsyfikowana na gruncie ówczesnej wiedzy zastanej. Eksperyment

falsyfikujący polegał na upuszczeniu kamienia ze szczytu wieży. Zgodnie z

fizyką Arystotelesa, kamień powinien spadać ruchem naturalnym, tj. w dół.

Gdyby Ziemia obracała się wokół osi, w czasie lotu kamienia wieża

odsunęłaby się od toru kamienia i kamień spadłby nie u jej stóp, lecz nieco

dalej. To nie jest żart, ani błąd. To jest poważne rozumowanie naukowe,

które można było zakwestionować dopiero po wykluczeniu fizyki

Arystotelesa z wiedzy zastanej i zastąpieniu jej fizyką Newtona. Podobnie jak

background image

Adam Grobler, O metodzie i strukturze nauki 56

potwierdzenie, falsyfikacja hipotezy również nie jest konkluzywna: zależy od

wiedzy zastanej.

Wobec powyższego, ilekroć jakaś hipoteza H zostanie sfalsyfikowana na gruncie

pewnej wiedzy zastanej W

, powstaje wybór: odrzucić hipotezę H jako

sfalsyfikowaną, podtrzymując wiedzę zastaną W albo zrewidować wiedzę

zastaną zastępując pewnej jej składniki innymi, co pozwoli utrzymać

hipotezę H. Powstaje pytanie, czym się należy kierować w sytuacji takiego

wyboru. Względy ekonomiczne, które zdecydowały o losie hipotezy na temat

gotowanej marchewki, miewają ogromny wpływ na naukę, ale należą one do

tzw. zewnętrznych czynników rozwoju nauki, obojętnych dla

metodologicznej oceny wyboru hipotez. Zagadnienie warunków rewizji

wiedzy zastanej jest w gruncie rzeczy odmianą starszego od niego problemu

Duhema, który wypada omówić zanim zajmiemy się jego

falsyfikacjonistyczną wersją.

I.3.3. Problem rewizji wiedzy zastanej jako wersja problemu Duhema

Pierre Duhem w [1906] zauważył, że hipotezy nigdy nie są sprawdzane w

pojedynkę. Jeżeli bowiem wynik eksperymentu będzie niezgodny z

przewidywaniem, to nie wiadomo, czy odpow

iedzialność za to należy złożyć na

aktualnie sprawdzaną hipotezę, czy też na którąś z hipotez założonych w

samym projekcie eksperymentu. W każdy eksperyment są bowiem uwikłane liczne

hipotezy, w szczególn

ości hipotezy na temat działania przyrządów pomiarowych.

Najprostszy przy

rząd, np. termometr, jest ucieleśnieniem zespołu mnóstwa

hipotez

: teorii rozszerzalności cieplnej, współczynnika rozszerzalności rtęci,

szkła i materiału, z którego zrobiona jest podziałka termometru itd. Toteż

jeżeli pomiar temperatury w jakimś eksperymencie sprawdzającym jakąś

hipotezę H da nieoczekiwany wynik, to przyczyną tego nie musi być

fałszywość H. Może nią być którakolwiek z hipotez zaklętych w konstrukcji

termometru. Nawet w przypadku obserwacji “gołym okiem”, bez

background image

Adam Grobler, O metodzie i strukturze nauki 57

przyrządów, występują hipotezy uboczne, np. hipotezy na temat działania

naszych organów zmysłowych w zależności od warunków otoczenia.

Eksperyment zatem pozwala nam w najlepszym razie stwierdzić, że fałszywa

jest koniunkcja aktualnie rozpatrywanej hipotezy i pewnych hipotez ubocznych:

H

H

1

H

n

,

a stąd wynika logicznie tylko tyle, że fałszywa jest co najmniej jedna z hipotez tej

koniunkcji, nie wiadomo która (ani ile z nich).

Rozwiązanie zaproponowane przez Duhema przedstawia się

następująco. Zadanie uczonego w przypadku stwierdzenia niezgodności

wyniku eksperymentu z przewidywaniem polega na tym, aby co najmniej

jedną z wchodzących w rachubę hipotez zastąpić inną tak, aby cały system

hipotez uzgodnić z doświadczeniem. Można to zrobić na ogół na wiele

sposobów. Ponieważ doświadczenie nie wyróżnia żadnego z nich, wybór

między nimi jest kwestią konwencji. Najdogodniej zaś jest wybrać system

najprostszy z możliwych. Inaczej: teorie upadają nie dlatego, że okazują się

fałszywe. Zamiast tego teorie ulegają licznym modyfikacjom w celu

uzgodnienia ich z doświadczeniem. Obrastają w najrozmaitsze hipotezy

pomocnicze, wyjaśniające niezgodne z przewidywaniami wyniki

e

ksperymentów, co z upływem czasu skutkuje wzrostem komplikacji całego

systemu teoretycznego. System upada pod naporem komplikacji, gdy pojawi

się teoria alternatywna, jednakowo zgodna z doświadczeniem a przy tym

prostsza.

Podobne stanowisko zajął Willard Van Orman Quine w [1951].

Wypowiedział on słynne zdanie: “Nauka jako całość stoi przed trybunałem

doświadczenia”. Porównał on naukę do pola o kształcie koła, którego

wnętrze zajmują tworzące spójny system hipotezy, a z zewnątrz działa na

nie presja doświadczenia. Pod jej wpływem niektóre hipotezy trzeba

wymienić na inne, ale tak, by zachować spójność systemu. Hipotezy bliżej

brzegu są bardziej niż inne narażone na wymianę a zdania położone

background image

Adam Grobler, O metodzie i strukturze nauki 58

centralnie na pozór są od doświadczenia niezależne. Ale tylko na pozór,

ponieważ decyzja o rozmieszczeniu hipotez w obrębie koła ma charakter

konwencjonalny. Mamy skłonność umieszczania zdań tym bliżej brzegu, im

mniej rozległych rewizji całego systemu wymagałaby ich ewentualna

wymiana. Dlatego w centrum znajdują się prawa logiki i twierdzenia matematyki.

Pogląd, wedle którego system teorii naukowych można na różne,

równorzędne pod względem poznawczym sposoby uzgadniać z

doświadczeniem, nazywa się tezą Duhema-Quine’a. Niektórzy wyciągają z

niej wniosek, że gdyby się uprzeć przy jakiejś ulubionej hipotezie, można

byłoby, kosztem innych hipotez, utrzymywać ją bez względu na

doświadczenie. Jednak ani Duhem, ani Quine nie posuwali się aż tak daleko.

Natomiast obaj zdecydowanie odrzucali baconowską ideę eksperymentu

krzyżowego.

Stanowisko falsyfikacjonizmu łączy z holizmem Quine’a – bo tak nazywa

się pogląd, wedle którego świadectwo empiryczne odnosi się nie do

pojedynczych zdań, lecz do nauki w całości

31

fallibilizm. Natomiast

postawienie nauki w całości naprzeciw doświadczenia jest, z punktu

widzenia falsyfikacjonizmu, niedorzeczne. Doświadczenie musi bowiem być

zorganizowane za pomocą jakichś teorii

32

. Doświadczenie polega zatem

zawsze na konfrontacji części nauki z inną jej częścią – wiedzą zastaną. Pod

tym względem falsyfikacjonizm jest bliższy konwencjonalizmowi Duhema,

ponieważ uznaje, że eksperyment tylko wtedy może podważyć hipotezę, gdy

wcześniej przyjęte są – choćby tylko tymczasowo – jakieś inne hipotezy. Z tą

różnicą, że konwencjonalistyczne rozwiązanie problemu Duhema jest dla

falsyfikacjonizmu niewystarczające. Falsyfikacjonizmowi obca jest myśl, że

różne treściowo systemy teoretyczne mogą być poznawczo równorzędne.

Sprzeciwiając się konwencjonalizmowi, Popper wiele miejsca poświęcił

kwestii preferencji hipotez. W [1963] wymienia trzy warunki przyrostu wiedzy,

które są zarazem kryteriami wyboru spośród alternatywnych hipotez.

31 Od greckiego holos

= całość.

32 Por. przypis 28.

background image

Adam Grobler, O metodzie i strukturze nauki 59

Wstępny, poniekąd zerowy warunek głosi, że hipoteza, ażeby w ogóle mogła

być poważnie rozpatrywana, musi wyjaśniać wszystkie zjawiska wyjaśnione

przez teorie wcześniejsze i na dodatek wyjaśniać jakieś zjawiska do tej pory

niewyjaśnione. Pytanie o to, co to znaczy, że hipoteza wyjaśnia jakieś

zjawisko, odłożymy na później. Chwilowo zadowolimy się niejasnymi

intuicjami na temat wyjaśniania.

Pierwszy warunek przyrostu wiedzy nazywa się warunkiem treści

empirycznej. Treścią empiryczną hipotezy nazywa się zbiór jej

potencjalnych falsyfikatorów. Hipoteza jest tym lepsza im ma bogatszą treść

empiryczną. Przeciwieństwem hipotezy o bogatej treści empirycznej jest

hipoteza ad hoc

, tj. taka hipoteza, która jest zaprojektowana tak, aby

wyjaśniała pewne zagadkowe zjawisko, ale poza tym nie ma żadnego

potencjalnego falsyfikatora. Nie ma zatem żadnego sprawdzianu

niezależnego od zjawiska, do wyjaśnienia którego ją skonstruowano.

Klasycznym przykładem hipotez ad hoc są kolejne poprawki do systemu

Ptolemeusza. Główną jego ideą było, że planety poruszają się ruchem

jednostajnym po okręgach, bo tylko taki ruch jest doskonały. Ponieważ to

założenie nie zgadzało się z obserwacją, Ptolemeusz przyjął, że ruch planet

jest złożeniem ruchów okrężnych: planety miały poruszać się po tzw.

epicyklach, tj. okręgach, których środki poruszały się po okręgu zwanym

deferentem. Gdy i to nie zgadzało się z obserwacją, wprowadzano kolejne

poprawki, m.in. epicykle, których środki poruszały się po epicyklach.

Hipoteza ad hoc jest po prostu wynikiem naciągania teorii do doświadczenia

za pomocą środków, które pozwalają teorię uzgodnić z czymkolwiek, co się

zdarzy. Z warunku treści empirycznej wynika zakaz wysuwania hipotez ad

hoc.

Drugim warunkiem jest warunek prostoty

. Według konwencjonalizmu prostota

jest dodatkowym, pragmatycznym lub estetycznym kryterium wyboru

spośród hipotez poznawczo równorzędnych. Natomiast według

falsyfikacjonizmu prostota jest zaletą poznawczą, ponieważ prostsze

hipotezy są bardziej narażone na falsyfikację, czyli śmielsze, od hipotez

background image

Adam Grobler, O metodzie i strukturze nauki 60

skomplikowanych. Np. hipoteza okrężnego ruchu planet jest prostsza od

hipotezy orbit eliptycznych (bo równanie okręgu jest prostsze od równania

elipsy) i do jej sfalsyfikowania wystarczy wyznaczyć cztery punkty orbity

(ponieważ przez każde trzy punkty niewspółliniowe przechodzi dokładnie

jeden okrąg). Do sfalsyfikowania hipotezy orbity eliptycznej trzeba

wyznaczyć pięć punktów. Samo pojęcie prostoty jest niesłychanie

wieloznaczne i nie ma powszechnie akceptowanej jej definicji. Popper za

oznakę prostoty uważał również uwzględnienie przez teorię związku

pomijanego przez teorie wcześniejsze. W takim rozumieniu ogólna teoria

względności jest prostsza od fizyki Newtona, choć posługuje się o wiele

bardziej skomplikowanym aparatem matematycznym. Pierwsza stosuje

rachunek tensorowy, podczas gdy druga, w najbardziej wyrafinowanym,

późniejszym od Newtona ujęciu, zadowala się równaniami różniczkowymi

cząstkowymi rzędu drugiego. Z punktu widzenia fizyki klasycznej związek

między masą bezwładną a masą grawitacyjną, tj. masą, która występuje

w drugiej zasadzie dynamiki (F = ma) a masą, która występuje w prawie

powszechnego ciążenia (F =

γ

m

1

m

2

/r

2

), jest najzupełniej przygodny, polega

na czystym zbiegu okoliczności. Natomiast z punktu widzenia teorii

wzgl

ędności obie masy, bezwładna i grawitacyjna, pochodzą z ruchu, tj.

masa grawitacyjna redukuje się do masy bezwładnej. Tak czy owak, im

prostsza hipoteza, tym jest bardziej narażona na falsyfikację czyli ma

bogatszą treść empiryczną. Toteż warunek prostoty w gruncie rzeczy jest

uszczegółowieniem – dodajmy, niejasnym – warunku treści.

Pierwsze dwa warunki mają charakter logiczny. Tzn. to, czy hipoteza je

spełnia, nie zależy od wyników eksperymentów. Dlatego niezbędny jest

trzeci warunek, warunek względnego sukcesu empirycznego. Mówi on, że

hipoteza nie tylko musi mieć bogatszą treść empiryczną od hipotezy

konkurencyjnej, ale także, że przynajmniej część nadwyżki jej treści

empirycznej musi być potwierdzona. “Potwierdzenie” znaczy w tym

przypadku niepowodzenie próby falsyfikacji, sfalsyfikowanie potencjalnego

falsyfikatora. Dla odróżnienia od indukcjonistycznego czy probabilistycznego

background image

Adam Grobler, O metodzie i strukturze nauki 61

pojęcia potwierdzenia (confirmation), Popper używa innego wyrazu,

corroboration.

Potwierdzenie-koroboracja jest stopniowalne,

podobnie jak potwierdzenie-

konfirmacja. Popper proponuje różne miary liczbowe stopnia potwierdzenia,

definiując je za pomocą pojęcia prawdopodobieństwa. Dlatego niektórzy

komentatorzy uważają Poppera za “indukcjonistę w przebraniu” a jego

falsyfikacjonizm za czystą retorykę. Jest to jednak nieporozumienie. Popper

bowiem w żadnym razie nie wysuwa teorii koroboracji jako próbnego

rozwiązania problemu indukcji. Koroboracja jest zawsze wtórna w stosunku

do próby falsyfikacji i jej stopień stanowi jedynie pomocnicze kryterium

preferencji hipotez. W dodatku jest to kryterium o zastosowaniu

ograniczonym do pewnego korpusu wiedzy zastanej: jeżeli falsyfikacja

hipotezy nie jest konkluzywna, lecz zależy od wiedzy zastanej, to to samo

dotyczy jej koroboracji. Również treść empiryczna hipotezy – zbiór jej

potencjalnych falsyfikatorów – zależy od wiedzy zastanej. Ostatecznie więc

omówione przed chwilą kryteria przyrostu wiedzy są zrelatywizowane do

wiedzy zastanej. Nie stosują się do problemu rewizji wiedzy zastanej. Toteż

falsyfikacjonistyczna wersja problemu Duhema – kiedy uznać hipotezę za

sfalsyfikowaną przyjmując wiedzę zastaną za dobrą monetę, a kiedy

utrzymać hipotezę kosztem odpowiedniej rewizji wiedzy zastanej – pozostaje

u Poppera bez rozwiązania.

I.3.4. Próba rozwiązania: metodologia naukowych programów

badawczych

Imre Lakatos w [1970] zaproponował korektę falsyfikacjonizmu, którą

można uznać za próbę rozwiązania problemu rewizji wiedzy zastanej.

Potraktował on z należytą powagą pogląd Poppera, wedle którego zadaniem metody

naukowej nie jest uzasadnianie hipotez, a jedynie ustalanie krytycznych preferencji

33

. Stąd

33

Ten aspekt myśli Poppera na ogół uchodzi uwagi komentatorów będących pod

wrażeniem jego retoryki kładącej nacisk na falsyfikację. Omawiane wyżej warunki

background image

Adam Grobler, O metodzie i strukturze nauki 62

wyprowadził wniosek, że przedmiotem oceny metodologicznej muszą być

nie pojedyncze hipotezy, lecz ich zespoły, które nazwał naukowymi programami

badawczymi. Program badawc

zy łączy wspólna problematyka oraz pewien

asortyment środków rozwiązywania problemów. Należy do nich tzw.

heurystyka negatywna i heurystyka pozytywna programu. Heurystyka

negatywna polega na wyłączeniu spod krytyki pewnych założeń naukowych,

metodologicznych a także metafizycznych, które tworzą tzw. twardy rdzeń

(hard core

) programu. Ewentualne porzucenie lub przekształcenie twardego

rdzenia jest równoznaczne z porzuceniem programu badawczego na inny.

Na zmiany natomiast jest narażony tzw. pas ochronny (protective belt) hipotez, a

strategię jego modyfikacji i rewizji wyznacza heurystyka pozytywna

programu. Przykładem może być program klasycznej mechaniki nieba,

którego twardy rdzeń obejmuje m.in. założenie, że orbity planet zależą

wyłącznie od sił ciążenia. Jego heurystyka pozytywna polegała natomiast na

kolejnym uwzględnianiu oddziaływań między planetami (a nie tylko między

planetami a Słońcem), rozmiarów planet, ich kształtów itd.

Twardy rdzeń programu najwyraźniej pełni rolę narzędzia krytyki hipotez

wysuwanych w jego ramach. Pełni on więc dokładnie tę rolę, którą Popper

przeznaczył wiedzy zastanej. Można powiedzieć, że on jest tym fragmentem

wiedzy zastanej, który jest istotny dla problematyki danego programu

badawczego. W ten sposób problem rewizji wiedzy zastanej został

przekształcony na problem rewizji twardego rdzenia program badawczego,

tj. problem kryterium porzucenia lub kontynuacji programu. Rozwiązanie

zaproponowane przez Lakatosa przedstawia się następująco.

Program badawczy nazywa się postępowy, jeżeli kolejne hipotezy H

1

, …,

H

n

wysuwane w jego ramach mają bogatszą treść empiryczną od

poprzednich oraz przynajmniej część nadwyżki treści empirycznej jest

potwierdzona. Innymi słowy, jeżeli kolejne hipotezy programu spełniają

przyrostu wiedzy jednak wyraźnie dopuszczają tymczasową akceptację hipotezy
sfalsyfikowanej, o ile ma bogatszą treść empiryczną i większe sukcesy empiryczne od
hipotez konkurencyjnych. Z tego punktu widzenia nauka przedstawia się jako nieustający

konkurs hipotez, którym bez końca stawia się kolejne zadania.

background image

Adam Grobler, O metodzie i strukturze nauki 63

popperowskie warunki przyrosty wiedzy. Programy postępowe należy

kontynuować. Program badawczy spełniający tylko pierwszy warunek

nazywa się teoretycznie postępowym. Pozostałe programy nazywają się

programami degenerującymi się. Te należy porzucać.

Metodologia naukowych prog

ramów badawczych dostarcza więc jasnego

kryterium rewizji wiedzy zastanej: należy podtrzymywać te fragmenty

wiedzy zastanej, które służą jako twardy rdzeń postępowego programu

badawczego, rewidować zaś te, które wchodzą w skład twardego rdzenia

degenerującego się programu badawczego. Inną atrakcją tej metodologii jest

usankcjonowanie faktu, który z punktu widzenia klasycznego

falsyfikacjonizmu musiałby uchodzić za przejaw nieracjonalności uczonych,

mianowicie że uczeni często równolegle rozwijają wzajemnie wykluczające

się teorie, także teorie zawierające hipotezy jawnie sfalsyfikowane. Np.

mechanika klasyczna uchodzi za sfalsyfikowaną odkąd zaakceptowano

teorię względności. Tymczasem oparta za klasycznych założeniach

mechanika ośrodków ciągłych (hydromechanika) wciąż się rozwija czyli

stanowi postępowy program badawczy.

Nie ma w tym nic dziwnego, że w jakiejś dziedzinie nauki może istnieć

więcej niż jeden postępowy program badawczy. Należy zatem przyjąć

zasadę pluralizmu teoretycznego, która dopuszcza równoległe rozwijanie

konkurencyjnych, niezgodnych ze sobą programów badawczych, gdy

wszystkie są postępowe. Nie ma bowiem powodu, by decyzję co do wyboru

programu podejmować natychmiast. Można poczekać, aż niektóre programy

zaczną się degenerować. Więcej nawet. Nie należy przedwcześnie porzucać

programów degenerujących się. Może przecież okazać się, że program

degeneruje się nie z powodu jego wewnętrznych wad, ale z niedostatków

pomysłowości uczonych weń zaangażowanych. Trzeba więc poczekać

z decyzją, by dać szansę na pojawienie się twórczych pomysłów, które

ożywią pozornie bezwartościowe programy.

Taka koncepcja

racjonalności odroczonej (postponed rationality) wydaje się

bardziej sprzyjać twórczości naukowej od koncepcji racjonalności

background image

Adam Grobler, O metodzie i strukturze nauki 64

natychmiastowej (instant rationality), dyskwalifikującej z miejsca hipotezy

sfalsyfikowane. Tolerancja wszakże tylko wtedy jest światła, gdy ma

zakreślone – niekoniecznie sztywne – granice. Powstaje kłopotliwe pytanie,

jak długo należy czekać. Dlatego Paul Feyerabend w dedykacji do [1974]

nazwał go “towarzyszem anarchistą”. Feyerabend miał na myśl głoszony

przez siebie anarchizm epistemologiczny, wedle którego żadnego pomysłu

naukowego ani metodologicznego nie należy nigdy odrzucać, każdy pomysł

jest dobry (anything goes)

34

. Lakatos oczywiście nie podzielał takiego

stanowiska, jednak przedwczesna śmierć przeszkodziła mu odpowiedzieć w

jaki sposób metodologia naukowych programów badawczych może uniknąć

skrajnych konsekwencji, uniemożliwiających pozytywne rozwiązanie

problemu rewizji wiedzy zastanej.

I.3.5. Problem bazy empirycznej po raz drugi

Jeżeli problem rewizji wiedzy zastanej nie ma zadowalającego

rozwiązania, falsyfikacjonizm jest formą konwencjonalizmu, tj. stanowiska,

wedle którego pewne decyzje – w tym przypadku decyzje w sprawie

ewentualnej rewizji wiedzy zastanej – mogą zapadać jedynie na mocy

k

onwencji, arbitralnie, bo każdy wybór jest równorzędny pod względem

wartości poznawczej

35

. Tymczasem Popper stanowczo sprzeciwiał się

konwencjonalizmowi Poincarégo i Duhema. Dlatego nazywając w [1934]

decyzje w sprawie akceptacji zdań bazowych konwencjonalnymi, określił

własne stanowisko “konwencjonalizmem w sprawie zdań szczegółowych w

odróżnieniu od konwencjonalizmu w sprawie zdań uniwersalnych”. Jeżeli

jednak akceptacja zdań bazowych zależy od wiedzy zastanej, która obejmuje

również zdania uniwersalne, konwencjonalizm Poppera jest albo

34 Ten trudny do prze

tłumaczenia angielski zwrot najczęściej przekładano na “wszystko

ujdzie”. Jednak uchodzą również rzeczy byle jakie, Feyerabend zaś próbował dowieść, że
rygorystyczna i sztywna metodologia eliminuje pomysły nie byle jakie. Dlatego Kazimierz
Jodkowski proponował przekład “wszystko się nada”, Stefan Wiertlewski “nic swiętego”, a

jeszcze prostsze jest chyba moje “każdy pomysł jest dobry”.
35 Aczkolwiek

możliwe są racje innego rodzaju, np. estetyczne lub pragmatyczne.

background image

Adam Grobler, O metodzie i strukturze nauki 65

konwencjonalizmem całą gębą, albo w ogóle konwencjonalizmem nie jest

36

.

Dostrzegał to Lakatos i dlatego nazywał metodologię naukowych programów

badawczych “racjonalizacją konwencjonalizmu”. Niestety, jak widzieliśmy,

racjonalizacja konwencjonalizmu nie powiodła się. Toteż problem racjonalnej

akceptacji zdań bazowych został ponownie podjęty przez kolejnych

falsyfikacjonistów, Johna Watkinsa [1984] i Eliego Zahara [1995].

Watkins rozróżnił różne “poziomy” zdań ze względu na ich stopień

ogólności. Poziom 1 zajmują zdania bazowe, poziom 2 uogólnienia

empiryczne na temat obserwowalnych prawidłowości, poziom 3 ścisłe prawa

eksperymentalne i poziom 4 teorie. Prócz tego są jeszcze zdania poziomu 0:

raporty autopsychologiczne w rodzaju “tam i wtedy w moim polu widzenia

znajdowało się to-a-to”. Akceptacja zdań dowolnego poziomu jest racjonalna

wtedy, gdy dane zdanie jest najlepszym wyjaśnieniem racjonalnie

akceptowan

ych zdań poziomu bezpośrednio niższego. Wynika stąd, że

racjonalnie jest przyjmować takie zdania bazowe, które są najlepszym

wyjaśnieniem racjonalnie przyjętych raportów autopsychologicznych. Te zaś

są racjonalnie przyjmowane, ponieważ są niepodważalne. Nie można

bowiem się mylić co do własnych doznań. Doznania mogą wprawdzie być

złudne, mogę np. zobaczyć potwora z Loch Ness w fontannie na Rynku w

Krakowie. Dlatego raz racjonalnie jest przyjąć zdanie bazowe potwierdzające

trafność moich postrzeżeń, kiedy indziej racjonalnie jest przyjąć zdanie

bazowe, które kwalifikuje je jako złudzenie: wszystko zależy od tego, co

lepiej wyjaśnia moje doznania. Jednak fakt, że miałem takie-a-takie doznania

jest niepodważalny, toteż zdania bazowe są hipotezami wyjaśniającymi

niepodważalne fakty (psychologiczne).

W ten sposób Watkins spróbował dokonać mariażu falsyfikacjonizmu z

fundamentalizmem. Jest jednak nader wątpliwe, czy raporty

autopsychologiczne są niepodważalne. Zdarzało mi się odczuwać głód, by po

zaglądnięciu do lodówki pełnej jedzenia zdać sobie sprawę z tego, że wcale

nie mam ochoty jeść. Musiałem więc jakieś inne doznanie błędnie

36

Szerzej na ten temat pisałem w [1995].

background image

Adam Grobler, O metodzie i strukturze nauki 66

przyjmować za uczucie głodu. Można, co prawda, na ten przykład

o

dpowiedzieć, że właściwym zdaniem poziomu 0 jest “mam jakieś niejasne

doznanie, może głodu, a może nie”, lecz nie sądzę, by coś takiego można

było uznać za raport autopsychologiczny, tj. opis moich doznań. Jeżeli to nie

jest przekonujące, mogę powołać się na Ericha Fromma, który twierdzi, że

niekiedy mylimy się co do naszych emocji. Skłonni jesteśmy np. wypierać do

nieświadomości wrogie uczucia pod adresem niektórych ludzi. W takim

przypadku nie zawsze można zdanie poziomu 0 sparafrazować w stylu

poprzedniego przykładu: “coś czuję do tego człowieka, może coś

pozytywnego, a może wrogość”. Czasami bowiem, w tego rodzaju sytuacji,

na poziomie świadomym nie żywię żadnych uczuć.

Podobny zwrot w stronę fundamentalizmu Zahar posiłkując się motywami

zaczerpniętymi z fenomenologii Husserla. U niego zdaniami poziomu 0 są

opisy noematów ukonstytuowanych przy okazji obserwacji. Tak pojmowane

zdania poziomu 0 mogą od zdań poziomu 1 przejąć rolę zdań bazowych. I

choć opisy noematów są uteoretyzowane, a zatem rewidowalne, obecność

lub nieobecność pewnych noematów można ustalić w sposób

niepowątpiewalny. Innymi słowy, Zahar zakłada, że istnieje jedno-

jednoznaczny związek między aktem obserwacji a noematem powstałym

wyniku tego aktu. Zmianie może ulec opis noematu, np. “jestem głodny” na

“doznaję bliżej niesprecyzowanego niepokoju, który błędnie wziąłęm za

uczucie głodu” albo “podziwiam tego człowieka” na “nienawidzę go”, ale nie

sam noemat. Nie wydaje mi się, żeby ta analiza była trafna.

Ukonstytuowanie noematu polega na nadaniu sensu temu, co jawi się

świadomości. Toteż w przypadku zmiany opisu noematu w sposób, który

traktuje poprzedni opis za błędny, mamy do czynienia nie tyle z różnicą

opisów tego samego noematu, co z “eksplozją” jednego i ukonstytuowaniu

na to miejsce nowego noematu. Bez zmiany ewentualnie pozostaje jedynie

to, co Husserl nazywał hyle albo materiałem hyletycznym, bezkształtne dane

będące niejako podstawą noezy czyli konstytuowania noematu. One same

jednak nieuchronnie pozostają nieuchwytne pojęciowo, ponieważ w żadnej

background image

Adam Grobler, O metodzie i strukturze nauki 67

analizie, która ze swej natury musi mieć pojęciowy charakter, nie da się

oddzielić przedpojęciowej podstawy konstytuowania treści pojęciowych.

Sądzę zatem, że identyczność obserwacji różnie opisanych –

identyczność hyle różnych noematów – można ustalić tylko za pomocą teorii.

W mojej ulubionej piosence Piwnicy pod Baranami pewien dzielny gajowy

zobaczył sarenkę wybiegającą na drogę, wystrzelił, po czym ujrzał swą lubą

we krwi: “ta ciemna nocka winna jest, że on tak postąpił”. W efekcie gajowy

nabił swą fuzję jeszcze raz i “w samo serce sobie strzelił”. Ciemna nocka nie

jest wszakże jedyną przyczyną tragicznego finału. Przypuszczalnie nie

doszłoby do niego, gdyby gajowy nie zidentyfikował obserwacji biegnącej

sarenki z ex post ukonstytuowanym noematem biegnącej swej lubej. Uczynił to

jednak zapewne nie dzięki pozapojęciowej władzy bezpośredniej identyfikacji

materiału hyletycznego, ale raczej na podstawie teorii, która nie dopuszcza

raptownych przemian sarnich zwłok w trupy panien (por. [Grobler 2000,

II.2]). Toteż zapędy w stronę fundamentalistycznych rewizji

falsyfikacjonizmu wydają się zupełnie chybione.

I.4. Czy istnieje “logika nauki”?

I.4.1. Problem

zmiany pojęciowej

Program logiki in

dukcji i bayesianizm wychodzą z założenia, że istnieje

jakaś “logika” postępowania naukowego, która pozwala oddzielić rozumowania

prawomocne od nieprawomocnych czyli odgrywa rolę analogiczną jak logika

klasyczna w matematyce

37

. John Earman [1992], będąc świadomy niedostatków

bayesianizmu, broni go jako jedyną kandydaturę na stanowisko “logiki nauki”.

Logik

a ta powinna być mocniejsza od logiki dedukcyjnej, ponieważ do istoty

nauk

i, według indukcjonizmu, należy wyciąganie z danych doświadczenia

wniosków o treści wykraczającej poza te dane. W dyskusji w I.2.2-I.2.3.

37 Lub logika intuicjonistyczna w matematyce intuicj

onistycznej. Będzie o tym mowa w III.1.

background image

Adam Grobler, O metodzie i strukturze nauki 68

ustaliliśmy jednak , że ani metody Carnapa, ani bayesiańskie, nie mogą

działać bez wcześniejszych założeń teoretycznych. Błędna jest zatem myśl,

którą można wywieść od Bacona, że nauka polega na wyciąganiu wniosków

z nieuteoretyzowanego, nieuprzedzonego doświadczenia. Bacon powiadał,

że którą do badania naukowego należy przystępować w stanie umysłu

oczyszczonym z przesądów, tzw. idoli. Popper, naśladując w tym Peirce’a i

Whewella, sugerował coś całkiem przeciwnego: nie potrafimy doświadczeniu

nadać żadnego sensu bez wiedzy zastanej, tj. przesądów organizujących

doświadczenie. Jedyne, co można zrobić, to rewidować nasze przesądy w

następstwie krytyki, tzn. zastępować jedne przesądy innymi, bardziej

wartościowymi poznawczo. Nie ma żadnej logiki indukcji, jedyną logiką jest

logika dedukcyjna. Nie służy ona wyprowadzaniu wniosków z doświadczenia,

jak w matematyce wyprowadza się twierdzenia z aksjomatów. Wedle

falsyfikacjonizmu logika pełni w nauce rolę narzędzia krytyki hipotez czyli

prowizorycznych twierdzeń, przyjmowanych jedynie na próbę. Nie ma więc

nic takiego, jak “logika nauki”. Można natomiast mówić o specyficznym dla

nauki zastosowaniu logiki.

Poszukiwaniu logiki nauki, czy choćby tylko ogólnego sposobu stosowania

logiki w nauce, prócz omówionych wyżej trudności indukcjonizmu i

falsyfikacjonizmu, stoi na przeszkodzie jeszcze jeden poważny problem.

Mianowicie, wszelki rachunek logiczny ma zastosowanie wyłącznie w obrębie

ustalonego języka. Tymczasem język nauki ciągle ulega zmianom, czasami

tak głębokim, że określa się je jako zmiany pojęciowe. Zasadniczą zmianą

pojęciową było przejście od fizyki Arystotelesa, wedle której ciała w sferze

podksiężycowej, pod nieobecność sił zewnętrznych, poruszają się ruchem

naturaln

ym w dół, do fizyki Newtona, zgodnie z którą nie ma żadnego

wyróżnionego kierunku “góra-dół” w kosmosie, ani wyróżnionych w nim

“sfer”. Kolejną radykalną zmianą było przejście od fizyki Newtona, z

absolutną przestrzenią i czasem, do fizyki relatywistycznej z

czasoprzestrzenią i względnością równoczesności. Przykładem nie tak

dalekosiężnej, ale też rewolucyjnej zmiany może być zastąpienie pojęcia

background image

Adam Grobler, O metodzie i strukturze nauki 69

ciepła jako płynu przepływającego z ciał cieplejszych do zimniejszych

pojęciem ciepła jako formy energii. Jedne pojęcia upadały, np. flogistonu,

rzekomej substancji uwalniającej się w trakcie spalania, lub eteru, substancji

światłonośnej, inne powstawały, np. elektryczności lub poziomu

energetycznego.

Thomas Kuhn w [1962] przedstawił pogląd, wedle którego skutkiem

zmian pojęciowych teorie powstałe przed i po tzw. rewolucji naukowej są

niewspółmierne. To znaczy m.in., że nie są porównywalne środkami logiki.

Teza o niewspółmierności (incommensurability thesis) przeczy głoszonej przez

empiryzm logiczny tezie o redukcji. Mówi ona, że teorie starsze są

szczególnymi lub granicznymi przypadkami teorii nowszych, czyli że

wszystkie twierdzenia starszych teorii są konsekwencjami niektórych

twierdzeń nowszych teorii. Np. prawo swobodnego spadania Galileusza jest

konsekwencją mechaniki Newtona a druga zasada mechaniki jest

granicznym przypadkiem odpowiedniego twierdzenia szczególnej teorii

względności, gdy prędkość maleje do zera. Według Kuhna dopatrywanie się

w tego rodzaju przypadkach związków logicznych jest błędem ekwiwokacji,

tj. użycia terminów w przesłankach i we wniosku w różnych znaczeniach. Np.

termin “masa” w fizyce klasycznej oznacza wewnętrzną własność ciała a w

fizyce relatywistycznej wielkość zależną również od układu odniesienia.

Zatem między prawami nowej i starej fizyki, ani między ich granicznymi

przypadkami, nie mogą występować związki wynikania logicznego. Nie

mogą występować też związki wykluczania logicznego. Nie można więc

twierdzić, że nowa fizyka przeczy starej.

Stanowisko Kuhna podważało rozpowszechnione i ugruntowane

przekonanie o postępie nauki, toteż wywołało burzę wśród filozofów.

Oskarżano go o irracjonalizm, relatywizm i inne filozoficzne grzechy. Faktycznie

Kuhn stał się źródłem inspiracji wielu współczesnych odmian relatywizmu i

postmodernizmu. Będzie o tym mowa w IV.1. Sam Kuhn jednak pozostałe

trzydzieści lat życia poświęcił łagodzeniu własnego stanowiska i odpieraniu

background image

Adam Grobler, O metodzie i strukturze nauki 70

zarzutów, opartych w jego mniemaniu na nieporozumieniu i wypaczeniu jego intencji

38

.

Niezależnie jednak od wszelkich innych, rzeczywistych czy rzekomych

konsekwencji tezy o niewspółmierności, Kuhn zwrócił uwagę na to, że ocena

metodologiczna teorii czy hipotez nie sprowadza się do prostego

zastosowania logiki.

W każdym razie bayesianizm, jako dziś najbardziej popularna

kandydatura na stanowisko logiki nauki, nie ma w sprawie zmiany

pojęciowej do zaofiarowania nic, prócz zagadkowego sformułowania

Earmana, wedle którego “rewolucja naukowa polega na redystrybucji

prawdopodobieństwa”. Rewolucja, rzecz jasna, przynosi hipotezy wyrażone

w języku odmiennym od przedrewolucyjnego. Wymaga zatem określenia

wyjściowego rozkładu prawdopodobieństwa na nowo. Na jakiej zasadzie? Nie

wiadomo. W każdym razie nie na zasadzie, która mogłaby jakoś zostać

uzasadniona środkami bayesianizmu. W szczególności bayesianizm jest

bezradny, gdy chodzi o ocenę samej rewolucji ze względu na postęp lub

regres.

Niewspółmierność jest również problemem dla falsyfikacjonizmu. Być

może nie aż tak poważnym, jak sądził np. Feyerabend [1962]. Według niego

teorie niewspółmierne nie mają wspólnej dziedziny obserwacyjnej. Dlatego

nie można postępu nauki charakteryzować w stylu Poppera. Ten ostatni

sądził, że nowsze hipotezy część sukcesów empirycznych starszych hipotez

zachowują, a część korygują (a prócz tego przynoszą zupełnie nowe

sukcesy), tzn. część starych wyjaśnień zjawisk zachowują, a część zastępują

dokładniejszymi wyjaśnieniami (a prócz tego dostarczają wyjaśnień zjawisk

do tej pory niewyjaśnionych). W szczególności Popper powiedziałby, że

fizyka Newtona koryguje prawo swobodnego spadania Galileusza, ponieważ

zgodnie z prawem powszechnego ciążenia ciała upuszczone spadają na

38

Przeciwnie zachował się Feyerabend, który w tym samym czasie, co Kuhn również

ogłosił tezę o niewspółmierności. Jej treść nieco różniła się od tezy Kuhna, co uszło uwagi
szerokiej publiczności, która zrazu potraktowała ich jako wspólników przestępstwa.
Feyerabend, zamiast zaprzeczać winie, głosił tezy coraz bardziej skandaliczne, co
najpierw przysporzyło mu sławy i dochodów, a w końcu pozbawiło stanowiska

uniwersyteckiego.

background image

Adam Grobler, O metodzie i strukturze nauki 71

powierzchnię Ziemi nie ruchem jednostajnie przyspieszonym, jak twierdził

Galileusz, lecz z przyspieszeniem nieznacznie rosnącym proporcjonalnie do

zmian siły ciążenia w miarę zbliżania się spadającego ciała do środka

ciężkości Ziemi. Natomiast Feyerabend twierdziłby, że fizyka Newtona nie

może wnosić korekty do prawa Galileusza, ponieważ mówi o innym zjawisku:

nie o swobodnym spadaniu, tj. ruchu w dół pod nieobecność sił, lecz o ruchu

w kierunku środka ciężkości układu Ziemia-ciało pod wpływem sił ciążenia.

Biorąc pod uwagę uteoretyzowanie obserwacji, Feyerabend ma do

pewnego stopnia rację. Postawiony przez niego problem jest w gruncie

rzeczy wariantem rozważanego wcześniej problemu bazy empirycznej. Sam

Feyerabend proponował pewne jego rozwiązanie w postaci pragmatycznej

teorii obserwacji

. Głosi ona mniej więcej, co następuje. Obserwator, tzn. jego

organizm, jest swojego rodzaju przyrządem pomiarowym. Raporty

obserwacyjne są wskazaniami tego przyrządu. Uteoretyzowanie obserwacji

polega na tym, że teorie uznawane przez obserwatora determinują jego

reakcje na otoczenie, podobnie jak budowa przyrządu, np. woltomierza,

determinuje wychylenie się wskazówki w zależności od warunków. Ludzki

przyrząd pomiarowy charakteryzuje się tym, że może przerzucać się z jednej

teorii na drugą i składać raporty obserwacyjne uteoretyzowane raz przez

jedną, raz przez drugą teorię. Dzięki temu może je odnosić do tej samej

sytuacji obserwacyjnej. Teoria pragmatyczna nie bierze jednak pod uwagę

selektywności obserwacji: raport obserwacyjny nie jest nigdy reakcją na ogół

doznań podmiotu, lecz na doznania z jakichś względów istotne. Ludzki

przyrząd pomiarowy może przełączać się nie tylko na działanie pod

wpływem raz tej, raz innej teorii, ale też na reagowanie na raz te, raz inne

bodźce wyselekcjonowane z tła. Selekcja nie może obyć się bez uprzedniej

teorii, toteż identyfikacja sytuacji obserwacyjnej jest nieuchronnie uteoretyzowana,

zgodnie z wnioskami z dyskusji przeprowadzonej w I.3.2.

Uteoretyzowanie identyfikacji obserwacji nie przedstawia dla

falsyfikacjonizmu trudniejszego problemu od uteoretyzowania obserwacji w

ogóle. Obydwa sprowadzają się do rozważanego w I.3.3., nie rozwiązanego

background image

Adam Grobler, O metodzie i strukturze nauki 72

dotąd, problemu rewizji wiedzy zastanej jako szczególnej wersji problemu

Duhema. Możliwość zmiany pojęciowej dodatkowo go komplikuje.

Mianowicie, w przypadku falsyfikacji hipotezy H ze

względu na wiedzę zastaną W

można bądź odrzucić hipotezę H zachowując W, bądź utrzymać H kosztem

odpowiedniej rewizji W.

Jedno i drugie ma na celu usunięcie sprzeczności między hipotezą

a akceptowanymi zdaniami bazowymi powstałe w ramach ustalonego

systemu pojęć. W szczególności, gdy odrzucimy H zachowując W, ewentualna

hipoteza G alternatywna w stosunku do H

, musi spełniać warunek G

¬

H

. W

przypadku zmiany pojęciowej, sfalsyfikowana hipoteza H zostaje

zastąpiona “niewspółmierną” z nią, sformułowaną za pomocą innych

pojęć, hipotezą G. Z powodu różnicy pojęciowej warunek G

¬

H

nie może

być spełniony.

Innymi słowy, odkrycie przez Kuhna szczególnego rodzaju zmian w

nauce, zwanych przez niego rewolucjami naukowymi, a polegającymi na

zmianie pojęciowej, prowadzi do uogólnionego problemu Duhema. Pytanie

brzmi już nie tylko, które z wchodzących w grę hipotez należy wymienić w

obliczu negatywnego świadectwa, ale dodatkowo w rachubę wchodzi

wymiana niektórych pojęć. Okazało się już wcześniej, że logika nie jest

wystarczającym narzędziem do sformułowania kryterium wyboru między

hipotezami do wymiany. Tym bardziej nie jest narzędziem odpowiednim do

wyprowadzania wniosków na temat ewentualnej zmiany pojęciowej.

I.4.2. Logika pytań w analizie metodologicznej

Logika nie kończy się jednak na klasycznym rachunku predykatów. W

[Grobler 1993, 2000] do analizy motywów zmiany pojęciowej stosowałem logikę

presupozycj

i. Sam pomysł zawdzięczam Ryszardowi Wójcickiemu, który w

[1991] nazwał “presupozycyjnie prawdziwymi” zdania opisujące fakty za

pomocą nietrafnie dobranych pojęć. Termin przez niego użyty skojarzył mi

background image

Adam Grobler, O metodzie i strukturze nauki 73

się z wynalazkiem Petera Strawsona [1950, 1952]. Punktem wyjścia jego

teorii była alternatywna wobec teorii deskrypcji Bertranda Russella [1905]

analiza zdań typu “Obecny król Francji jest łysy”. Problem polega na tym,

że na przekór zasadzie wyłączonego środka ani ono, ani jego zaprzeczenie

( “Obecny król Francji nie jest łysy”) nie jest prawdziwe

39

. Nie jest bowiem

prawdziwe zdanie “Istnieje ktoś (i tylko jeden), kto jest obecnie królem

Francji”. To ostatnie Strawson nazwał presupozycją oryginalnego zdania

Russella. Ogólnie: zdanie Y jest presupozycj

ą zdania X, jeżeli wtedy, gdy X jest

prawdziwe, Y jest prawdziwe, a wtedy gdy X

jest fałszywe, Y jest również

prawdziwe. Jeżeli natomiast Y nie jest prawdziwe, X nie jest ani prawdziwe, ani

fałszywe. Warto zauważyć, że jeżeli Y jest presupozycją X, to Y jest również

presupozycj

ą

¬

X.

W powyższym przykładzie presupozycja ma postać zdania

egzystencjalnego. Dla uchwycenia zmiany pojęciowej bardziej istotne są

innego rodzaju presupozycje, które nazwałem syntagmatycznymi. Termin

“syntagmatyczny” zaczerpnąłem z językoznawstwa, gdzie jest używany na

oznaczenie sensownych związków między wyrazami określonych kategorii

gramatycznych. Np. “zgliwiały” może być bodaj tylko ser. Można więc

prawdziwie lub fałszywie orzec o jakimś kawałku sera, że jest zgliwiały,

natomiast nie można tego zrobić o

autorze tej książki (chyba, że w jakimś

metaforycznym sensie). Presupozycje syntagmatyczne są to zatem

warunki, które mówią o tym, o jakiego rodzaju przedmiotach można

prawdziwie lub fałszywie orzekać określone predykaty.

Zmian

ę pojęciową można przedstawić jako rewizję presupozycji

39

Rozwiązanie Russella polegało na zaprzeczeniu, iż zdanie “Obecny król Francji jest

łysy” ma strukturę podmiotowo-orzecznikową, gdzie “obecny król Francji” jest nazwą
będącą podmiotem tego zdania. Zamiast tego uznał, że formą logiczną tego zdania jest
“istnieje ktoś (i tylko jeden), kto obecnie jest królem Francji i jest łysy”. Wówczas, po
pierwsze, “obecny król Francji” nie jest nazwą, tylko deskrypcją (opisem), która może być,
albo nie być spełniona przez jakiś przedmiot, zupełnie tak samo, jak deskrypcja “jest łysy”.
Po drugie, zaprzeczeniem tego zdania jest nie “Obecny król Francji nie jest łysy”, ale “nie

istnieje nikt (albo istnieje więcej niż jeden ktoś), kto obecnie jest królem Francji i zarazem
jest łysy”, co jest, zgodnie z zasadą wyłączonego środka, zdaniem prawdziwym. W opinii
Strawsona teoria Russella, która odróżnia strukturę logiczną zdania od jego struktury

gramatycznej, jest sztuczna i źle zdaje sprawę z codziennej praktyki językowej.

background image

Adam Grobler, O metodzie i strukturze nauki 74

syntagmatycznych pewnej klasy zdań. Np. przejście od fizyki klasycznej do

relatywistycznej rewiduje m.in. presupozycję zdań postaci “zdarzenie a jest

równoczesne zdarzeniu b

” o treści “o dowolnych dwóch zdarzeniach można

prawdziwie orzec, że są równoczesne lub prawdziwie orzec, że są

nierównoczesne” zastępując ją presupozycją “o dowolnych dwóch

zdarzeniach rozpatrywanych w ustalonym układzie odniesienia można

prawdziwie orzec, że są równoczesne w tym układzie odniesienia lub

prawdziwie orzec, że są nierównoczesne w tym układzie odniesienia”.

Rewizja tej presupozycji polega na wykluczeniu z języka fizyki

dwuargumentowego predykatu “… jest równoczesne z …” i zastąpieniu go

trójargumentowym predykatem “… jest równoczesne z … w …”.

Posługując się logiką presupozycji wielokrotnie (najdokładniej w [2000])

opisywałem logiczną sytuację wyboru hipotezy w obliczu zaskakującego

wyniku obserwacji. Obecnie spróbuję użyć do tego logiki pytań. Jest to

możliwe dzięki temu, że w niej również występuje pojęcie presupozycji i ma

ono odpowiednie własności. Centralną presupozycją pytania nazywa się

założenie, że istnieje na nie prawdziwa odpowiedź bezpośrednia.

Odpowiedzią bezpośrednią, z grubsza rzecz biorąc, nazywa się odpowiedź z

góry rozpatrywana jako jedna z możliwych i wystarczających

40

, w odróżnieniu

od odpowiedzi korekcyjnej, która mówi, że pytanie jest źle postawione, tzn.

jego centralna presupozycja jest fałszywa. W najprostszym przypadku pytań

typu tak-lub-nie odpowiedziami bezpośrednimi są “Tak” oraz “Nie”, zaś

odpowiedzią korekcyjną jest “Ani tak, ani nie”. Centralna presupozycja

takiego pytania jest zarazem presupozycją każdej jego odpowiedzi

bezpośredniej. Na odwrót, presupozycja syntagmatyczna odpowiedzi

bezpośredniej na pytanie typu tak-lub-nie jest zarazem centralną

presupozycją samego pytania.

Logika pytań ma dodatkowo inną zaletę. Pozwala na rekonstrukcję

procesu badawczego jako rozwiązywania problemów. Filozofowie, zwłaszcza

Popper, Kuhn i Laudan, powtarzają w kółko, że nauka polega przede

40

Ścisłą definicję pomijam, do niniejszej analizy powyższe intuicje wystarczą.

background image

Adam Grobler, O metodzie i strukturze nauki 75

wszystkim na rozwiązywaniu problemów. To spostrzeżenie jednak niewiele

wzbogaca ich analizy metodologiczne. Pierwsze poważne próby zbudowania

modelu interrogacyjnego (czyli pytajnego) nauki, który mógłby dostarczyć

stosownych narzędzi analizy, podjął w licznych artykułach Jaakko Hintikka.

Model ten przedstawia naukę jako grę w pytania i odpowiedzi

prowadzoną przez Uczonego i Przyrodę. Uczony zadaje pytania (za pomocą

eksperymentów) i uzyskuje odpowiedzi, eliminując kolejno ze zbioru

możliwych światów światy, w których odpowiedzi Przyrody są fałszywe.

Celem gry jest znalezienie “świata rzeczywistego”. Ujęcie Hintikki,

streszczone tutaj w karkołomnym skrócie, nie jest jednak pełnokrwistą

logiką pytań. W szczególności nie ukazuje logicznych związków między

pytaniami, czyli mechanizmu, w jaki jedne pytania wywołują inne. Bardziej

odpowiednia do naszych celów jest logika rozwijana przez Andrzeja

Wiśniewskiego.

Najbardziej interesującą z obecnego punktu widzenia relacją

rozpatrywaną przez Wiśniewskiego jest implikacja erotetyczna (czyli pytajna).

Jest to związek między pytaniem implikującym Q, zbiorem zdań

oznajmujących X i pytaniem implikowanym Q*, symbolicznie Im(Q, X, Q*), który

zachodzi wtedy i tylko wtedy, gdy (i) z dowolnej odpowiedzi bezpośredniej A

na pytanie Q

i zdań ze zbioru X wynika logicznie alternatywa wszystkich

odpowiedzi bezpośrednich na pytanie Q* oraz (ii) z każdej odpowiedzi

bezpośredniej B na pytanie Q* i zdań ze zbioru X wynika alternatywa

niektórych, ale nie wszystkich odpowiedzi bezpośrednich na pytanie Q, przy

czym ta alternatywa nie wynika z samego zbioru X.

Za definicją implikacji erotetycznej kryją się następujące intuicje: przy

założeniu, że zdania ze zbioru X są prawdziwe (i) jeżeli na pytanie

implikujące Q istnieje prawdziwa odpowiedź bezpośrednia, to na pytanie

implikowane Q*

również istnieje prawdziwa odpowiedź bezpośrednia oraz (ii)

znając prawdziwą odpowiedź bezpośrednią na pytanie implikowane Q*

można wyznaczyć pewien podzbiór właściwy zbioru odpowiedzi

bezpośrednich na pytanie implikujące Q, wśród których znajduje się

background image

Adam Grobler, O metodzie i strukturze nauki 76

odpowiedź prawdziwa. Innymi słowy, znalezienie prawdziwej odpowiedzi

bezpośredniej na pytanie implikowane pomaga w znalezieniu prawdziwej

odpowiedzi bezpośredniej na pytanie implikujące, choć niekoniecznie

wystarcza do tego. Dzięki temu poszukiwanie odpowiedzi na jakieś trudne

pytanie Q, mając wiedzę reprezentowaną przez pewien zbiór zdań X,

możemy sobie ułatwić odpowiadając na łatwiejsze od niego pytania

implikowane Q*, Q** itd.

Ułatwienie będzie większe, jeżeli relację między pytaniem implikującym a

pytaniami implikowanymi wzmocnić do relacji eliminacyjnej implikacji

erotetycznej, symbolicznie EIm(Q, X, Q*

). Zachodzi ona wówczas, gdy nie tylko (i)

z dowolnej odpowiedzi bezpośredniej A na pytanie Q i zdań ze zbioru X wynika

logicznie altern

atywa wszystkich odpowiedzi bezpośrednich na pytanie Q* ale

(ii

e

) z każdej odpowiedzi bezpośredniej B na pytanie Q* i zdań ze zbioru X

wynikają negacje niektórych, ale nie wszystkich odpowiedzi bezpośrednich

na pytanie Q.

Badanie nad problemem naukowym m

ożna teraz przedstawić w formie serii

zastosowań eliminacyjnych implikacji erotetycznych postaci: EIm(?H, W, ?E

n

),

gdzie ?H jest pytaniem “Która z alternatywnych hipotez ze zbioru H jest prawdziwa?”, W

reprezentuje wiedzę zastaną, a ?E

n

jest pytaniem “Jaki jest wynik eksperymentu

E

n

?

4142

. Odpowiedź bezpośrednia B

n

na każde kolejne pytanie ?E

n

, na mocy

definicji eliminacyjnej implikacji erotetycznej, eliminuje (falsyfikuje) niektóre

odpowiedzi bezpośrednie na pytanie?H. W szczęśliwym przypadku, po serii

m eks

perymentów pozostanie tylko jedna odpowiedź i rozpatrywany przez

nas problem zostanie rozwiązany na wzór pomysłu Bacona.

Powyższa procedura, falsyfikacjonistyczna w swojej istocie, może jednak

doprowadzić do wykluczenia wszystkich odpowiedzi bezpośrednich na pytanie ?

H. Na mocy

definicji implikacji erotetycznej, powody po temu mogą być

41

Dokładniejszą

analizę w podobnym stylu przypuszczalnie można będzie przeprowadzić

przy użyciu rozwijanej obecnie przez Wiśniewskiego teorii erotetycznych scenariuszy badawczych.
42 M.in. na m

ożliwości zdania sprawy ze związku między problemem teoretycznym a pytaniem o

wynik eksperymentu, a nawet samym projektem eksperymentu, polega w

yższość podejścia

Wiśniewskiego nad podejściem Hintikki.

background image

Adam Grobler, O metodzie i strukturze nauki 77

następujące: (i) nie wszystkie odpowiedzi B

n

uzyskane na pytania implikowane ?E

n

są prawdziwe, (ii) nie wszystkie zdania oznajmujące ze zbioru W

prawdziwe, (iii) żadna odpowiedź bezpośrednia na pytanie implikujące ?H

nie jest prawdziwa – czyli centralna presupozycja tego pytania jest

fałszywa.

W pierwszym przypadku wynik któregoś eksperymentu został błędnie

opisany, bądź na skutek zwykłej pomyłki, bądź z powodu uteoretyzowania

obserwacji błędnymi teoriami. Wówczas, po wykluczeniu ewentualnej

pomyłki, należy zrewidować wiedzę zastaną, dołączając do W hipotezy

alternatywne wobec niektórych teorii, którymi uteoretyzowane są niektóre

odpowiedzi na ?E

k

dla pewnego (pewnych) k.

W drugim przypadku, również należy zrewidować wiedzę zastaną. Po

rewizji wiedzy zastanej może okazać się, że z uzyskanych odpowiedzi

bezpośrednich na pytania ?E

n

, wziętych razem ze zrewidowaną wiedzą W’,

wynikają słabsze wnioski niż z tych samych odpowiedzi wziętych razem z

wiedzą W sprzed rewizji i nie eliminują wszystkich odpowiedzi bezpośrednich

na ?H. Może nawet okazać się, że dla pewnych k nie zachodzi eliminacyjna

implikacja erotetyczna Im(?H, W’, E

k

), czyli eksperymenty E

k

są nieistotne dla

rozpatrywanego problemu teoretycznego.

Jeżeli zaś zachodzi trzeci przypadek, trzeba sformułować hipotezę

alternatywną w stosunku do rozpatrywanych w zbiorze H. Jeżeli H jest

zbiorem wyczerpującym, jak u Bacona, tzn. alternatywa hipotez z H jest

tautologią, jedyna możliwość polega na rewizji presupozycji (przynajmniej

niektórych) rozpatrywanych hipotez. Gdy idzie o presupozycje

syntagmatyczne, ich rewizja prowadzi do zmiany pojęciowej.

Mamy więc elegancką reprezentację ogólnej sytuacji problemowej, która

o tyle jest bogatsza od falsyfikacjonistycznego modelu badania naukowego, że jako

jedno z możliwych rozwiązań przewiduje zmianę pojęciową. Można jednak

zapytać, skąd można wiedzieć, którą z opcji – zmianę pojęciową lub samą

tylko rewizję wiedzy zastanej, bez zmiany pojęciowej – zastosować w

background image

Adam Grobler, O metodzie i strukturze nauki 78

konkretnym przypadku. Na to pytanie nawet logika pytań nie może udzielić

odpowiedzi. Natomiast w I.5.4. przedstawię propozycję kryterium

porównawczej oceny metodologicznej ewentualnych alternatywnych

rozwiązań problemów naukowych. Tymczasem zilustruję na przykładzie, jak

zastosowanie implikacji erotetycznej może wyglądać w praktyce

43

.

Weźmy pod uwagę pytanie Q “Czy Ziemia porusza się względem eteru?”.

Eter miał być substancją przenoszącą światło rozchodzące się w nim ruchem

falowym. Teoria Fresnela (1918) zakładała, że Ziemia porusza się w

nieruchomym eterze. Natomiast Stokes uważał, że jest nie do pomyślenia,

by ruch ciał o dużej masie pozostawiał eter niewzruszonym. Według jego

teorii (1845) eter zachowuje się jak ciecz lepka. Ziemia przy powierzchni

wlecze ze sobą cały eter, a współczynnik wleczenia eteru maleje ze

wzrostem odległości od Ziemi. Klasyczny eksperyment Michelsona-Morleya

(1881, udoskonalony w 1887) miał wykryć “wiatr eteryczny”, który musi

wiać, jeżeli eter jest nieruchomy. Eksperyment polegał na rozszczepieniu

promienia świetlnego, za pomocą ukośnie ustawionego, półprzeźroczystego

zwierciadła, na dwa promienie: jeden biegnący w kierunku ruchu wirowego

Ziemi, czyli wzdłuż kierunku domniemanego “wiatru eterycznego”, drugi w

kierunku prostopadłym, czyli w poprzek ewentualnego “wiatru”. Następnie

oba prostopadłe promienie odbijały się od zwierciadeł, wracały i mieszały

się, zostawiając na ekranie prążki interferencyjne. Z ówczesnej wiedzy

zastanej W (do której należy zaliczyć również szczegóły projektu

eksperymentu) można było wyprowadzić zdanie: “jeżeli wieje wiatr

eteryczny, to po obrocie aparatu o 90

o

prążki interferencyjne przesuną się

tyle-a-tyle”. Możemy teraz postawić pytanie ?E “O ile przesuną się prążki

interferencyjne?”. Między Q, W i ?E zachodzi relacja eliminacyjnej implikacji

erotetycznej EIm(Q, W, ?E).

Uzyskano odpowiedź “Nieznacznie”. Stąd wynikało, biorąc pod uwagę

43 Co oczywiście nie znaczy, że uczeni w tym lub w podobnych przypadkach stosują logikę

pytań Wiśniewskiego, lecz że ich nie w pełni zracjonalizowane decyzje można objaśnić
środkami tej logiki. W przedstawionym przykładzie dokonuję licznych uproszczeń, zarówno

gdy idzie o szczegóły historyczne, jak i teoretyczne. Pomijam też rachunki.

background image

Adam Grobler, O metodzie i strukturze nauki 79

margines błędu eksperymentalnego, że prawidłowa odpowiedź na pytanie

Q brzmi: “Nie”

(tzn. “Ziemia nie porusza się względem eteru”). Rok wcześniej

Lorentz (1886) wykazał niespójność teorii Stokesa i zaproponował teorię

będącą kombinacją teorii Stokesa i Fresnela. Według niej Ziemia

częściowo wlecze eter. Jednak ulepszony rezultat Michelsona-Morleya (1887)

dopuszczał tak nieznaczną prędkość wiatru eterycznego, że i ta teoria była

nie do utrzymania. Wszystko więc wskazywało na to, że na pytanie Q nie ma

prawdziw

ej odpowiedzi. Należało zatem bądź zrewidować W, bądź odrzucić

centralną presupozycję Q.

Pierwszą możliwość wypróbował Lorentz (1892) proponując hipotezę

skrócenia. Zgodnie z nią ciała poruszające się względem eteru skracają się

zależnie od prędkości (wzór pomijam) dokładnie o tyle, by zniwelować

różnicę czasu potrzebnego prostopadłym promieniom w aparacie

Michelsona-Morleya na dotarcie do ekranu, na którym powstają prążki

interferencyjne. Z hipotezy Lorentza wynika, że bez względu na to, czy wiatr

eteryczny wieje, czy nie, po obrocie aparatu przesunięcie prążków

interferencyjnych nie wystąpi. Toteż zastąpienie hipotezą Lorentza zdania

“jeżeli wieje wiatr eteryczny, to po obrocie aparatu o 90

o

prążki

interferencyjne przesuną się tyle-a-tyle” w zbiorze zdań W powoduje, że

eliminacyjna implikacja erotetyczna EIm(Q, W’, ?E), gdzie W’ oznacza

zrewidowaną przez hipotezę skrócenia wiedzę zastaną, nie zachodzi – z żadnej

odpowiedzi na ?E wziętej razem z W’ nie wynika negacja żadnej odpowiedzi

bezpośredniej na Q. Innymi słowy, po przyjęciu W’ efekt Michelsona-Morleya

w żaden sposób nie przyczynia się do znalezienia odpowiedzi

bezpośredniej na pytanie Q.

Na marginesie: Popper w [1934] przy

toczył hipotezę Lorentza jako przykład

hipotezy ad hoc

. Miała bowiem wyjaśniać zaskakujący wynik eksperymentu

Michelsona-Morleya i, rzekomo, nie pozwalała wyprowadzić żadnych

nowych przewidywań, które mogłyby ewentualnie się nie spełnić i dać w ten

sposób podstawy do jej falsyfikacji. Popper się mylił w tej sprawie. Z

hipotezy skrócenia wynikało m.in., że zmienia się opór elektryczny

background image

Adam Grobler, O metodzie i strukturze nauki 80

przewodników w zależności od ich prędkości względem eteru. To się niestety

nie potwierdziło, zatem hipoteza Lorentza została zwyczajnie sfalsyfikowana.

Kolejna możliwość, rewizji presupozycji Q, ziściła się dzięki Einsteinowi –

który skądinąd nie korzystał w swoim rozumowaniu z efektu Michelsona-

Morleya. Szczególna teoria względności (1905) porzuca pojęcie eteru i

szereg innych pojęć mechaniki klasycznej, zwłaszcza pojęcie absolutnej

równoczesności.

Po tym przykładzie zastosowania logiki pytań do analizy metodologicznej

wypada dodać dwie uwagi uogólniające nieco powyższe rozważania. Po

pierwsze, problemy rozpatrywane przez uczonych rzadko mają baconowską

formę pytań “Która z hipotez…?”, jak w przypadkach, gdy idzie o

wyznaczenie wartości jakiegoś określonego parametru. Częściej są

pytaniami otwartymi, albo próbami zbadania (ewentualnej falsyfikacji)

pojedynczej hipotezy. Po drugie, do przeprowadzenia procedury badawczej

opisywanego wyżej typu może wystarczyć, by między pytaniem Q typu “Czy

hipoteza H jest prawdziwa?” (albo tylko wiarygodna) a kolejnymi pytaniami Q

k

*

o wynik

konkretnego eksperymentu zachodziła relacja słabsza od eliminacyjnej

implikacji erotetycznej EIm(Q, X, Q

k

*

) dla pewnego zbioru zdań X. Może

mianowicie wystarczyć, że tylko niektóre, a nie wszystkie odpowiedzi

bezpośrednie na pytania o wyniki pewnych eksperymentów, razem wzięte

ze zdaniami ze zbioru X, reprezentującego wiedzę zastaną, falsyfikują pewne

odpowiedzi wyjściowe na pytanie teoretyczne. Tę słabszą relację logiczną

nazwę słabą eliminacyjną implikacją erotetyczną, SEIm(Q, X, Q*). Zachodzi

ona, gdy: (i) z dowolnej odpowiedzi bezpośredniej A na pytanie Q i zdań ze

zbioru X wynika logicznie alternatywa wszystkich odpowiedzi bezpośrednich

na pytanie Q* oraz (ii

se

) dla co najmniej jednej odpowiedzi bezpośredniej B na

pytanie Q*

z i zdań ze zbioru X wynika negacja co najmniej jednej odpowiedzi

bezpośredniej na pytanie Q.

background image

Adam Grobler, O metodzie i strukturze nauki 81

I.5.

Wyjaśnianie a ocena hipotez

I.5.1. Zasada wnioskowania do najlepszego wyjaśnienia

Omówiliśmy strukturę logiczną sytuacji problemowych spotykanych w nauce. Nadal

je

dnak nie mamy wyraźnych wskazówek co do wyboru spośród rozwiązań

alternatywnych. Przypuśćmy, że hipoteza skrócenia Lorentza nie byłaby

sfalsyfikowana, a Einstein i tak sformułowałby szczególną teorię

względności. Co wybrać? Nawet jeżeli hipoteza Lorentza została

sfalsyfikowona, to przecież można byłoby próbować (co nie musiałoby się

udać) rewizji wiedzy zastanej tak, aby ją można było utrzymać. Nawet gdyby

hipoteza Lorentza była ostatecznie i nieodwołalnie sfalsyfikowana, to

przecież szczególna teoria względności też nie jest bez wad. Nie daje się ona

pogodzić z teorią grawitacji: siły ciążenia działają natychmiast, podczas gdy

według szczególnej teorii względności wszystkie oddziaływania rozchodzą

się z prędkością nie większą od prędkości światła. Nie ma teorii doskonałych,

tak jak nie ma doskonałych kandydatów na prezydenta. Trzeba jednak

wybrać.

Gilbert Harman [1965] sformułował myśl, że stosowanie metody indukcji

enumeracyjnej jest prawomocne wtedy, gdy wnioski indukcyjne dostarczają

najlepszego z dostępnych wyjaśnień zjawisk. Nawiązał od w ten sposób do

metody Peirce’a [], który wyróżnił trzy rodzaje wnioskowania: indukcyjne,

dedukcyjne i abdukcyjne. Metoda abdukcyjna, która według Peirce’a jest

najbardziej naukowa, polega na tym, by w obliczu zaskakującego zjawiska

szukać hipotezy, z której można dedukcyjnie wyprowadzić, że takie zjawisko

zajdzie. Gdyby taka hipoteza była prawdziwa, pozornie zagadkowe zjawisko

byłoby zupełnie naturalne. Dlatego, gdy taka hipoteza się znajdzie, należy

wnosić, że jest ona przypuszczalnie prawdziwa.

Peter Lipton [1991] uznał, że zasada wnioskowania do najlepszego

wyjaśnienia (inference to the best explanation) sama najlepiej wyjaśnia nasze

praktyki indukcyjne. Klasyczny indukcjonizm, wedle którego pojedyncze

background image

Adam Grobler, O metodzie i strukturze nauki 82

świadectwa przyczyniają się do potwierdzenia hipotez uniwersalnych,

przedstawia naukę jako proces uczenia się opartego na warunkowaniu.

Uczony przywiązuje się do hipotez na takiej samej zasadzie, jak pies

Pawłowa nabywa odruchu ślinienia się na dźwięk dzwonka zapowiadającego

karmienie. Metoda indukcji sama nie ma indukcyjnego uzasadnienia. Z kolei

falsyfikacjonizm, który przyjmuje model uczenia się za pomocą prób i

błędów, nie wyjaśnia, dlaczego liczne sfalsyfikowane teorie nadal są

uznawane za najlepsze, a bywają teorie, które się odrzuca, choć nie zostały

sfalsyfikowane. Sama zasada falsyfikacjonizmu nie jest falsyfikowalna. Nie

można więc metodą indukcji uzasadnić, że jest ona bardziej wiarygodna od

metod alternatywnych, np. falsyfikacjonistycznej. Nie można metodą

falsyfikacjonistyczną uzasadnić, że jest ona bardziej wiarygodna od metod

alternatywnych, np. indukcjonistycznej. Natomiast metodologia oparta na

zasadzie wnioskowania do najlepszego wyjaśnienia, wyjaśniając aspekty

metody naukowej nie wyjaśnione przez metodologie konkurencyjne, sama

okazuje się najlepszym wyjaśnieniem praktyk indukcyjnych.

Brzmi to dosyć przekonująco, gdyby nie dwa małe problemy. Po

pierwsze, wcale nie jest jasne, co to jest wyjaśnienie. Spory na ten temat

doczekały się nawet monografii autorstwa Wesleya Salmona [1989], pod

wymownym tytułem Czterdzieści lat wyjaśniania. Po dalszych kilkunastu

latach od jej wydania sprawa nie jest wyjaśniona do końca. Po drugie, nawet

gdyby ostatecznie zdecydować się na jakąś koncepcję wyjaśniania,

pozostaje pytanie, co to znaczy, że jakies wyjaśnienie jest lepsze od innych.

Tutaj nie ma nawet sporów, bo nie wiadomo, jak wyjść poza elementarne

intuicje. W pierwszej sprawie postaram się o naszkicowanie najistotniejszych

epizodów historii wyjaśniania, w drugiej przedstawię własne propozycje.

I.5.2. Klasyczna koncepcja wyjaśniania i jej trudności

Klasyczna koncepcja wyjaśniania została sformułowana przez Carla

background image

Adam Grobler, O metodzie i strukturze nauki 83

Hempla i Paula Oppenheima [1948]. Według niej podstawowym wzorcem

wyjaśniania jest model dedukcyjno-nomologiczny, zwany też w skrócie modelem

D-N lub law-covering model

44

. Zgodnie z nim podać wyjaśnienie jakiegoś

zjawiska lub prawidłowości znaczy przedstawić poprawne logicznie rozumowanie, w

którym (i) wnioskiem jest explanandum

(to, co wyjaśniane), a zbiór przesłanek

stanowi explanans (to, co wyjaśnia), (ii) explanans musi obejmować przynajmniej

jedno prawo i musi ono być istotną przesłanką rozumowania (bez której

rozumowanie nie jest poprawne logicznie), (iii) explanans

musi mieć treść empiryczną

(być sprawdzalnym w eksperymencie lub obserwacji), (iv) zdania należące

do explanansa muszą być prawdziwe. Rozumowanie spełniające trzy pierwsze

warunki, a niekoniecznie czwarty, nazywa się potencjalnym wyjaśnieniem.

Według tego wyjaśnienie prawidłowości polega na wyprowadzeniu jej z

ogólniejszego prawa lub z kilku praw. Np. prawo swobodnego spadania

można wyjaśnić wyprowadzając je z prawa powszechnego ciążenia.

Wyjaśnienie zjawiska polega na wyprowadzeniu jego opisu z pewnego prawa

(lub kilku praw) i zdań opisujących warunki początkowe. Np. spadnięcie

srebrnej łyżeczki z balkonu można wyjaśnić wyprowadzając zdanie o tym

wypadku z prawa swobodnego spadania i zdania tej treści, że łyżeczka

została upuszczona z wystawionej przez sztachetki balkonu zacnej dłoni

pewnej bardzo młodej osoby.

Później Hempel wyróżnił jeszcze dwa inne typy wyjaśniania, w których

zastosowanie mają nie prawa jednoznaczne, jak w modelu D-N, lecz prawa

statystyczne. Jeżeli explanans obejmuje prawo statystyczne a explanandum jest

prawidłowość statystyczna, wyjaśnienie nazywa się dedukcyjno-

statystycznym (D-S). Np. na podstawie prawidłowości rozpadu

promieniotwórczego izotopu węgla C

14

można oceniać wiek znalezisk

archeologicznych. W tym celu porównuje się badane znalezisko z

podobnym, nowym przedmiotem pod względem zawartości atomów tego

izotopu. Stąd wnioskuje się, jaka – najprawdopodobniej – część zawartości

C

14

w badanym znalezisku rozpadła się. Następnie z prawa (statystycznego)

44 Wyraz “nomologiczny” pochodzi od greckiego nomos, co znaczy “prawo”.

background image

Adam Grobler, O metodzie i strukturze nauki 84

określającego okres półrozpadu C

14

(5730 lat) wyprowadza się prawidłowość

(statystyczną) określającą czas (najprawdopodobniej) potrzebny do rozpadu

takiej części atomów C

14

, jaka (najprawdopodobniej) się rozpadła.

Wre

szcie wyjaśnianie indukcyjno-statystyczne (I-S) polega na

rozumowaniu, w którego przesłankach składających się na explanans znajduje

się prawo statystyczne, a wniosek jest zdaniem o wysokim

prawdopodobieństwie zajścia explanandum, które jest pojedynczym zdarzeniem. Np.

wyjaśnienie, że Jaś zachorował na ospę wietrzną polega na rozumowaniu,

w którym z prawa statystycznego określającego prawdopodobieństwo

(wysokie) zachorowania dziecka, które do tej pory nie chorowało na ospę

wietrzną i zetknęło się z chorym dzieckiem oraz zdań tej treści, że Jaś nie

chorował dotąd na ospę wietrzną i zetknął się z chorym dzieckiem,

wyprowadza się wniosek, że prawdopodobieństwo zachorowania Jasia było

wysokie.

Kluczowe dla tych wszystkich modeli wyjaśniania jest pojęcie prawa,

którego objaśnienie odłożymy do II.6. Tam też omówimy typy praw, w tym

rozróżnienie na prawa jednoznaczne i statystyczne. Teraz zajmiemy się

trudnościami klasycznej koncepcji. Zaczniemy od paradoksów wyjaśniania

D-N

45

.

Maszt i jego ci

. Długość cienia rzucanego przez maszt można wyjaśnić

wyliczając ją na podstawie praw optyki, praw trygonometrii, wysokości

masztu kąta między prostą łączącą środek Słońca z wierzchołkiem masztu a

cieniem. Na tej samej zasadzie można jednak wyliczyć wysokość masztu,

mając za przesłanki prawa optyki, prawa trygonometrii, długość cienia i kąt

między prostą łączącą środek Słońca z wierzchołkiem masztu a cieniem.

Zgodnie z modelem D-N należałoby uznać, że można wyjaśnić wysokość

masztu powołując się m.in. na długość cienia: “maszt ma wysokość h, bo

jego cień ma długość d (oraz…)”.

45

Należą one do folkloru filozoficznego, toteż ustalenie ich źródła (autorów) wymagałoby

śledztwa, którego nie jestem w stanie przeprowadzić. Wiem tylko, że pierwszy z nich został
przypuszczalnie sformułowany przez Sylvana Brombergera, ale nie był przez niego

opublikowany.

background image

Adam Grobler, O metodzie i strukturze nauki 85

Barometr i burza

. Z prawa “ilekroć spada wskazówka barometru, tylekroć

nadciąga burza” i zdania “wskazówka barometru spadła” można wyciągnąć

wniosek “nadciąga burza”. Zgodnie z modelem D-N należałoby uznać, że

nadejście burzy można wyjaśnić zachowaniem się wskazówki barometru.

Zaćmienie Słońca. Na podstawie praw mechaniki nieba i znajomości

obecnego wzajemnego położenia Słońca, Ziemi i Księżyca można wyliczyć,

kiedy nastąpi najbliższe zaćmienie Słońca. W ten sposób będzie ono

wyjaśnione. Ale na tej samej zasadzie można wyliczyć, kiedy miało miejsce

poprzednie zaćmienie Słońca. Zgodnie z modelem D-N należałoby uznać, że

zaćmienie Słońca sprzed kilku lat można wyjaśnić obecnym wzajemnym

położeniem Słońca, Ziemi i Księżyca.

Mężczyzna i pigułka. Z prawa, które mówi, że osoby zażywające

regularnie pigułki nie zachodzą w ciążę i stąd, że Jan zażywa pigułki, można

wyprowadzić wniosek, że Jan nie zajdzie w ciążę. Zgodnie z modelem D-N

należałoby uznać, że fakt, iż Jan nie zachodzi w ciążę można wyjaśnić tym,

że zażywa on regularnie pigułki.

Paradoks masztu i jego cienia dowodzi, że model D-N nie spełnia

postulatu asymetrii wyjaśniania. Mówi on, że jeżeli A można wyjaśnić za

pomocą B, to B nie można wyjaśnić za pomocą A. O ile wysokość masztu ma,

wedle naszej wiedzy, przyczynowy wpływ na długość jego cienia, o tyle nie

na odwrót. Postulat asymetrii wyjaśniania wiąże się zatem z asymetrią

oddziaływań przyczynowych.

Paradoks barometru i bu

rzy polega na czym innym. Korelacja między

zjawiskami nie przesądza wcale, że zajście jednego z nich wyjaśnia zajście

drugiego. W tym przykładzie spadek wskazówki barometru i burza mają

wspólną przyczynę: spadek ciśnienia atmosferycznego. Możliwe są zatem

wyjaśnienia o strukturze: związek między A i B zachodzi dlatego, że mają one

wspólną przyczynę C. Sformułowana przez Hansa Reichenbacha [1956]

zasada wspólnej przyczyny

wręcz nakazuje poszukiwanie tego typu wyjaśnień.

Wyjaśnienie typu: “A zaszło na skutek B”, jak w przypadku masztu i jego

cienia, można potraktować jako szczególny przypadek wyjaśniania za

background image

Adam Grobler, O metodzie i strukturze nauki 86

pomocą wspólnej przyczyny, w którym B = C, jeśli dodatkowo uznać, że

każde zjawisko jest m.in. przyczyną samego siebie.

Paradoks zaćmienia Słońca pokazuje, że struktura logiczna wyjaśniania

według modelu D-N jest nie do odróżnienia od struktury przewidywania

(predykcji) i retrodykcji (przewidywania wstecz). Retrodykcji nie można

uznać za wyjaśnienie, ponieważ nie ma – o ile wiadomo – wstecznych w

czasie oddziaływań przyczynowych. W przypadku zaćmienia Słońca

utożsamienie przewidywania z wyjaśnieniem wydaje się całkowicie

uprawnione. Ogólnie jednak nie każde przewidywanie jest wyjaśnieniem, o

czym poucza nas m.in. paradoks barometru i burzy. Na podstawie wskazania

barometru można przewidzieć, ale nie wyjaśnić, nadejście burzy.

Paradoks mężczyzny i pigułki wskazuje na to, że dla celów wyjaśniania

niezbędne jest odróżnienie czynników istotnych od nieistotnych. Fakt, że Jan

jest mężczyzną wyklucza jego ciążę, toteż stosowanie przez niego

antykoncepcji nosi cechy tzw. naddeterminacji przyczynowej, tj.

współwystępowania z przyczyną czynników zbędnych do wystąpienia

skutku, ale które mogłyby wywołać dany skutek pod nieobecność jego

faktycznej przyczyny.

Przytocz

one przykłady sugerują, że główną wadą modelu D-N jest

zaniedbanie wyjaśniającej roli związków przyczynowych. Toteż Michael

Scriven [1958] doszedł do wniosku, że wyjaśnianie nie polega na

rozumowaniu, lecz na podaniu przyczyny wyjaśnianego zjawiska. Np.

pojawienie się plamy na dywanie można wyjaśnić, bez przytoczenia

jakiegokolwiek prawa, rozlaniem się atramentu z leżącego na stole,

przewróconego kałamarza. Prawa zaś mogą ewentualnie służyć

uzasadnieniu wyjaśnienia. Przyczynowa koncepcja wyjaśniania, która

w gruncie rzeczy nawiązuje do Arystotelesa, została podjęta również przez

teoretyków wyjaśniania statystycznego. Można bowiem w wielu kontekstach

rozważać przyczyny probabilistyczne, tzn. takie, że wywołują określony

skutek nie bezwyjątkowo, lecz z pewną częstotliwością

(prawdopodobieństwem). Np. palenie papierosów jest probabilistyczną

background image

Adam Grobler, O metodzie i strukturze nauki 87

przyczyną raka płuc. Rozciągnięcie koncepcji przyczynowej na wyjaśnianie

statystyczne jest reakcją na podobne do modelu D-N wady modelu I-S. Oto

kilka ze znanych kontrprzykładów.

Psychoterapia

46

. Jan miał poważne dolegliwości neurotyczne, poddał się

psychoterapii i jego dolegliwości ustąpiły. Na pozór powrót Jana do zdrowia

można wyjaśnić zgodnie z modelem I-S za pomocą następującego

rozumowania: (1) Większość pacjentów neurotycznych w następstwie

psychoterapii powraca do zdrowia (prawo statystyczne), (2) Jan poddał się

psychoterapii, (3) z (1) i (2) wynika, że prawdopodobieństwo wyzdrowienia

Jana było wysokie. Wątpliwość co do wartości tego wyjaśnienia powstaje,

gdy weźmie się pod uwagę, że u wielu osób objawy neurotyczne ustępują

samoczynnie. Przytoczone rozumowanie byłoby prawidłowym wyjaśnieniem,

gdyby okazało się, że prawdopodobieństwo wyzdrowienia w następstwie

psychoterapii jest wyraźnie wyższe od prawdopodobieństwa samoczynnego

ustąpienia objawów. Sam fakt, że prawdopodobieństwo explanandum jest

wysokie, nie gwarantuje trafności wyjaśnienia.

Witamina C i katar

. Wedle rozpowszechnionego poglądu zażywanie witaminy

C jest wysoce skuteczne w leczeniu kataru. Z drugiej strony, katar

nieleczony często ustępuje po kilku dniach. Żeby więc podać wyjaśnić w

stylu I-S wyleczenie Jana z kataru za pomocą witaminy C, podobnie jak

w przykładzie z psychoterapią nie wystarczy dowieść, że

prawdopodobieństwo wyleczenia było wysokie. Musi ono być wyraźnie

wyższe od prawdopodobieństwa samoczynnego wyzdrowienia. Żeby tego

dowieść, trzeba wykonać podwójnie maskowany eksperyment kontrolowany (double-

blind experiment). Ek

speryment nazywa się kontrolowany, jeżeli polega na

porównaniu wartości badanej zmiennej w grupie poddanej działaniu

badanego czynnika z wartością tej zmiennej w grupie kontrolnej, nie

poddanej działaniu tego czynnika. W rozważanym przypadku chodziłoby o

p

orównanie poziomu uleczalności kataru w grupie osób zażywających

witaminę C z poziomem uleczalności kataru w grupie kontrolnej, której

46 Przykład pochodzi od Salmona.

background image

Adam Grobler, O metodzie i strukturze nauki 88

uczestnicy zażywają zamiast witaminy C placebo, tj. środek obojętny.

Eksperyment nazywa się maskowany, gdy uczestnicy eksperymentu nie

wiedzą, do której grupy należą, tj. nie wiedzą, czy zażywają witaminę C, czy

placebo. Maskowanie ma na celu wykluczenie tzw. efektu placebo, który

polega na dobroczynnym wpływie terapeutycznym wiary w skuteczność

badanego leku, w tym przypadku witaminy C. Eksperyment nazywa się

podwójnie maskowany, gdy osoby podające tabletki uczestnikom

eksperymentu również nie wiedzą, czy podają witaminę C, czy placebo.

Podwójne maskowanie wyklucza ewentualną nieświadomą sugestię w

zachowaniu podających tabletki.

Kiła i paraliż postępowy

47

. Paraliż postępowy (pareza, porażenie

postępujące) jest formą kiły (syfilisu) trzeciorzędowej, która występuje

wyłącznie u osób, które przebyły nieleczoną kiłę pierwszorzędową, za to ze

stosunkowo niewielkim prawdopodobieństwem ok. 25%. Ewentualne

wyjaśnienie zachorowania przez Jana na paraliż postępowy tym, że przebył

wcześniej kiłę pierwszorzędową, intuicyjnie jest zupełnie prawidłowe,

ponieważ powołuje się na przyczynę probabilistyczną. Tymczasem nie

spełnia ono warunków modelu I-S, który wymaga wysokiego

prawdopodobieństwa explanandum. Wynika stąd, że wysokie

prawdopodobieństwo explanandum nie jest warunkiem koniecznym

wyjaśniania statystycznego, podobnie jak poprzednie przykłady dowodzą, że

nie jest też warunkiem wystarczającym.

Nieprawidłowa moneta. Przypuśćmy, że gramy w orła i reszkę

nieprawidłową monetą, dla której prawdopodobieństwo wyrzucenia orła jest

równe 95%. Gdy wypadnie orzeł, wynik bez trudu znajduje wyjaśnienie na

gruncie modelu I-S. Natomiast gdy wypadnie reszka, model I-S nie dostarczy

żadnego wyjaśnienia tego zdarzenia. Tymczasem wyrzucenie reszki nie jest

ani trochę mniej zrozumiałe (chociaż o wiele mniej prawdopodobne) od

wyrzucenia orła. Jak zresztą sugeruje poprzedni przykład, nie ma powodu, by

niskie prawdopodobieństwo zdarzenia miało wykluczać jego wyjaśnienie

47 Przykład pochodzi od Scrivena.

background image

Adam Grobler, O metodzie i strukturze nauki 89

statystyczne. Z drugiej strony, trudno uznać, żeby dwa przeciwne zdarzenia

– wyrzucenie orła i wyrzucenie reszki – miały za explanans to samo prawo.

Wówczas bowiem to prawo wyjaśnia cokolwiek się zdarzy, czyli nic nie

wyjaśnia.

Dla rozwiązania przytoczonych trudności Wesley Salmon [1971]

zaproponował model istotności statystycznej (statistical-relevance model),

zwany w skrócie modelem S-R. Z

godnie z nim wyjaśnienie statystyczne nie polega

na rozumowaniu, jak w modelu D-N, ale na wykazaniu, że explanans jest

dodatnio statystycznie istotnym czynnikiem zajścia explanandum, tzn. gdy

zachodzi explanans

, prawdopodobieństwo zajścia explanandum jest większe niż pod

nieobecność explanansa. Symbolicznie: P(E | C) > P(E), gdzie E jest explanandum a C

czynnikiem mającym dodatni wpływ na prawdopodobieństwo jego zajścia.

Zgodnie z modelem istotności statystycznej ustąpienie objawów

neurotycznych u Jana (E) można wyjaśnić podjęciem przez niego

psychoterapii (C), jeżeli prawdopodobieństwo jego wyzdrowienia pod

warunkiem podjęcia psychoterapii jest wyższe niż prawdopodobieństwo

wyzdrowienia w ogóle. Zachorowanie przez Jana na paraliż postępowy (E)

jest wyjaśnione jego wcześniejszym zakażeniem kiłą, następnie nie leczoną

(C), bo chociaż P(E | C) wynosi zaledwie 10%, to jest ono wyraźnie większe

od P(E) = P(E | C)

×

P(C) + P(E |

¬

C)

×

P(

¬

C) = P(E | C)

×

P(C)

48

.

Model S-R ma jednak pewną zasadniczą słabość. Mianowicie istotności

statystycznej nie zawsze towarzyszy istotność przyczynowa, o czym

poucza nas choćby przytoczony wyżej przykład barometru i burzy

49

. W

[1984] Salmon przyznaje, że istotność statystyczna ma znaczenie tylko o

tyle, o ile może być świadectwem istotności przyczynowej. Innymi słowy,

korelacja statystyczna wymaga wyjaśnienia przyczynowego.

Przyczynowa koncepcja wyjaśniania również boryka się z trudnościami.

Należy do nich problem odróżnienia przyczyn głównych i ubocznych.

48 Bo P(E |

¬

C) = 0, a P(C

), tj. prawdopodobieństwo zakażenia się kiłą i następnie zaniedbania

leczenia, jest na szczęście w dzisiejszych czasach znikome.
49

Nawet gdyby związek między spadkiem wskazówki barometru a wystąpieniem burzy

był bezwyjątkowy (np. gdyby barometry nigdy się nie psuły), byłby szczególnym przypadkiem
korelacji statystycznej.

background image

Adam Grobler, O metodzie i strukturze nauki 90

Zdarzenia w świecie są zazwyczaj skutkami złożonych splotów przyczyn.

Weźmy pod uwagę np. pożar lasu

50

. Na pogorzelisku znaleziono rozbitą

butelkę. Odtworzenie przebiegu wypadków jest łatwe. Denko butelki

zadziałało jak soczewka, skupiło promienie słoneczne, co podgrzało ściółkę

do temperatury samozapłonu. Werdykt na pozór jest jasny: przyczyną

pożaru jest pozostawienie przez beztroskich turystów rozbitej butelki. Ale

przecież gdyby pogoda była pochmurna, denko butelki nie miałoby czego

skupiać. Gdyby nawet pogoda była słoneczna, ale ściółka była zamoknięta,

skupiona przez denko wiązka promieni słonecznych nie podpaliłoby jej.

Gdyby nawet pogoda była słoneczna i ściółka wysuszona, ale w atmosferze

ziemskiej nie byłoby tlenu, do pożaru by nie doszło itd. Pożar powstał na

skutek splotu niezliczonych okoliczności i nie sposób je wszystkie wymienić.

Toteż wyjaśnienie przyczynowe nie może polegać na przytoczeniu pełnej

listy przyczyn, bo taki wymóg byłby nie do spełnienia. Trzeba więc

ograniczyć się do przyczyn głównych a pominąć przyczyny uboczne. Ale

które są główne, a które uboczne?

Standardowa odpowiedź za przyczyny wyjaśniające uznaje jedynie

przyczyny abnormalne

, tj. takie, które w normalnych okolicznościach nie

występują

51

. Ten manewr jednak tylko przesuwa problem: które

okoliczności są normalne, a które nie? Nikt przy zdrowych zmysłach nie

będzie próbował wyjaśnić pożaru lasu obecnością tlenu w atmosferze, bo

ta wydaje nam się rzeczą normalną. Sprawa jednak może się przedstawiać

zupełnie inaczej dla uczonych przybyłych z kosmosu. W takim razie

odróżnienie wyjaśnienia od pseudo-wyjaśnienia nie ma charakteru

obiektywnego, jest względne.

Biorąc pod uwagę trudności wyjaśniania przyczynowego, Philip Kitcher

[1981] rozwinął teorię wyjaśniania jako unifikacji. Zgodnie z nią wyjaśnianie

50 Przykład pochodzi od Hilarego Putnama [1983].

51 To rozwiązanie nawiązuje do koncepcji Brombergera [1966] prawa abnormalnego, tj.
prawa zawierającego warunek “chyba, że”, np. “Prędkość ciała w ruchu się nie zmienia,

chyba że wypadkowa sił działających na nie jest niezerowa”. Formułuje ono wyjątki od
ogólnej reguły: “Ciała zmieniają prędkość w zależności od sił działających na nie, ale…”,

co pozwala wyjaśnić nieoczekiwane zjawiska.

background image

Adam Grobler, O metodzie i strukturze nauki 91

polega na rozumowaniu, jak w koncepcji Hemp

la. Trudności koncepcji klasycznej

rozwiązuje narzucenie na rozumowania wyjaśniające dodatkowego warunku.

Mianowicie muszą one podpadać pod pewien ogólny wzór rozumowania

dostarczony przez unifikującą teorię naukową, tj. teorię odnoszącą się do

szerokiej klasy zjawisk. Przykładami teorii unifikujących są mechanika

Newtona lub darwinowska teoria ewolucji. Watkins [1984] przyjął stopień

unifikacji teorii za miarę głębi wyjaśniania. Teorię T nazwał on jednolitą

unifikacją teorii T

1

i T

2

(a tym samym za dostarc

zającą głębszych od nich

wyjaśnień), gdy T jest takim połączeniem T

1

i T

2

, że jej treść empiryczna jest

bogatsza od sumy treści empirycznych T

1

i T

2

(tzn. wynikają z niej pewne

konsekwencje, które nie wynikają z żadnego z jej składników z osobna).

Za kryterium jednolitości teorii kryje się sugestia, że nie każda unifikacja

zwiększa nasze rozumienie zjawisk. Prostemu połączenie dwóch teorii, bez

dodatkowych konsekwencji empirycznych, nawet jeśli dostarcza jednolitego

wzoru rozumowania wyjaśniającego, kryterium Watkinsa odmawia mocy

wyjaśniającej. Można stąd wyciągnąć wniosek, że dążenie do unifikacji w

nauce nie ma wartości, jeżeli nie ma na celu wzrostu mocy wyjaśniającej

całej nauki. Innymi słowy, pożytki eksplanacyjne (“wyjaśnieniowe”) decydują

o wartości inifikacji teoretycznej, a nie na odwrót. Dlatego pytanie o to, co to

jest wyjaśnienie, znowu powraca. Powraca też obecna w tle wszystkich

dotychczasowych koncepcji odpowiedź na to pytanie, wedle której

wyjaśnienie polega na udzieleniu odpowiedzi na pytanie typu “dlaczego?”. W

ten sposób dochodzimy do erotetycznych koncepcji wyjaśniania.

I.5.3. Erotetyczna koncepcja

wyjaśniania

O tym,

wyjaśnianie polega na odpowiadaniu na pytanie typu “dlaczego?” mówiono,

rzecz jasna, od

dawna. Według koncepcji klasycznej, odpowiedź na pytanie

“Dlaczego P?” ma brzmieć: “Ponieważ P wynika z …”, ewentualnie

“Ponieważ wysokie prawdopodobieństwo zajścia P wynika z …”, gdzie po

background image

Adam Grobler, O metodzie i strukturze nauki 92

wielokropku występuje przynajmniej jedno prawo. Według koncepcji

przyczynowej odpowiedź powinna być postaci “Ponieważ P zostało

spowodowane przez …”. Trudności tych koncepcji naprowadziły niektórych

teoretyków wyjaśniania na myśl, że wyjaśnianie ma charakter pragmatyczny,

tzn. zależny od kontekstu. Pytając o wyjaśnienie tego samego zjawiska

możemy pytać o bardzo różne rzeczy. Gdy pytanie “Dlaczego nastąpił ten

wypadek drogowy?” zada policjant, zadowoli się odpowiedzią “Ponieważ

kierowca był niezupełnie trzeźwy”. Inżynier drogowy będzie oczekiwał

odpowiedzi w rodzaju “Łuk szosy był niewłaściwie wyprofilowany”.

Konstruktor pojazdów będzie raczej zainteresowany odpowiedzią na temat

ewentualnych wad konstrukcyjnych samochodu. Psychologowi może

chodzić o poziom pobudzenia nerwowego kierowcy. Itd. Ilu pytających, tyle

różnych wyjaśnień.

Interesującą pragmatykę wyjaśniania rozwinął van Fraassen [1980].

Według niego, po pierwsze, treść pytania typu “dlaczego?” zależy od akcentu

zdaniowego. Np. (i) “Dlaczego Adam

zjadł jabłko?”; (ii) “Dlaczego Adam zjadł

jabłko?”; (iii) ”Dlaczego Adam zjadł jabłko?”. Akcent zdaniowy sugeruje, że

pytanie “Dlaczego P?” domyślnie obejmuje warunek postaci “... a nie P*”:

(i) “Dlaczego Adam zjadł jabłko, a nie Ewa, lub wąż, lub ...?”; (ii) “Dlaczego

Adam zjadł jabłko, a nie gruszkę, lub pomarańczę, lub ...?”; (iii) “Dlaczego

Adam zjadł jabłko, a nie wyrzucił go, lub schował, lub ...?”. W skład pytania

typu “dlaczego?” wchodzi zatem, prócz jego tematu (topic), tj. zdania

następującego po wyrazie “dlaczego” (“Adam zjadł jabłko”), pewna klasa

kontrastu

, złożona z tematu i zdań alternatywnych do tematu, które mogą

wystąpić po słowach “... a nie” (w pierwszym przypadku “Ewa zjadła

jabłko”, “wąż zjadł jabłko” itd.).

Dalej, pytania o tym samym temacie i tej samej klasie kontrastu mogą

różnić się jeszcze tym, że domagają się różnego rodzaju odpowiedzi,

zależnie od wiedzy pytającego i jego zainteresowań. Na pytanie “Dlaczego

Adam

zjadł jabłko?” odpowiedź “Bo był głodny” nie zadowoli tego, kogo

interesują motywy złamania Boskiego zakazu, ani tego, kto nie wie, że

background image

Adam Grobler, O metodzie i strukturze nauki 93

jabłka są jadalne. Krótko mówiąc, prócz tematu i klasy kontrastu, trzecim

składnikiem pytania jest zależna od kontekstu relacja istotności (relevance

relation

). Zachodzi ona między parami złożonymi z tematu pytania i jego

klasy kontrastu a zdaniami, które w danym kontekście kandydują do roli

tzw. odpowiedzi bezpośredniej, tj. odpowiedzi typu “Ponieważ ...”.

Kontekst zaś jest wyznaczony przez wiedzę zastaną (wiedzę pytającego) i

potrzeby poznawcze. Symbolicznie: Q = <P

k

, X, R>, gdzie Q jest pytaniem typu

“dlaczego?”, P

k

jego tematem, X

klasą kontrastu, a R relacją istotności.

Van Fraassen podaje również kryteria oceny wartości eksplanacyjnej

odpowiedzi na pytanie “dlaczego?”. Pierwszym jest ocena

prawdopodobieństwa odpowiedzi ze względu na wiedzę zastaną. Drugim jest

to, w jakim stopniu odpowiedź wyróżnia temat pytania w stosunku do

pozostałych elementów klasy kontrastu. Trzecim jest porównanie

rozpatrywanej odpowiedzi z odpowiedziami alternatywnymi pod względem

prawdopodobieństwa i stopnia wyróżniania tematu pytania oraz ustalenie,

czy w świetle jakiejś ewentualnej innej odpowiedzi rozpatrywana odpowiedź

nie jest nieistotna.

Salmon [1987] krytykował koncepcję van Fraassena za nadmiar

pragmatyzmu czy kontekstualizmu. W szczególności dowodził, że relacja

istotności jest zdefiniowana zbyt mgliście. Można ją w pewnych kontekstach

tak dookreślić, że odpowiedzi astrologiczne uzyskują wysoką ocenę.

Osobiście nie wydaje mi się to samo w sobie poważną wadą. Ostatecznie,

można sobie świetnie wyobrazić, że przy pewnym stanie wiedzy ludzkości

wyjaśnienia astrologiczne pewnych zdarzeń są najlepsze z dostępnych.

Gorzej, że gdy do kontekstu włączymy współczesną wiedzę naukową, to

wprawdzie w jej świetle odpowiedzi astrologiczne okażą się nieistotne, ale za

to w świetle astrologii odpowiedzi naukowe będą nieistotne. Toteż w

kontekstach obejmujących lepszą i gorszą wiedzę, albo wręcz czcze

przesądy

52

, nie ma sposobu na odróżnienie wyjaśnień lepszych i gorszych.

52

Na marginesie pragnę przypomnieć pogląd Poppera, który podzielam (zob. I.4.1), że nie ma nauki

wolnej od prze

sądów. Choćby z punktu widzenia współczesnej nauki astrologia była tylko zbiorem

prze

sądów, byłoby przesądem wierzyć, że tak musi pozostać na zawsze. Ostatecznie przesądna wiara

background image

Adam Grobler, O metodzie i strukturze nauki 94

Z prezentowanego tutaj punktu widzenia, istotną wadą koncepcji van

Fraassena jest uznawanie względnego prawdopodobieństwa odpowiedzi za

czynnik wpływający na ocenę jej mocy wyjaśniającej. W I.2.3. starałem się

udowodnić, że bez rozumienia mechanizmów rządzących danego typu

zdarzeniami ocena ich względnego prawdopodobieństwa musi być

całkowicie arbitralna. Jeżeli mam rację, to raczej ocena mocy wyjaśniającej

odpowiedzi wpływa na ocenę jej prawdopodobieństwa, niż na odwrót. Wada

koncepcji van Fraassena, o której mowa, jest konsekwencją odrzucenia

przez niego zasady wnioskowania do najlepszego wyjaśnienia. Uważa on

wyjaśnianie za przedsięwzięcie pozanaukowe, do którego wyniki nauki

można ewentualnie stosować. Sukcesom eksplanacyjnym hipotez odmawia

on jakiegokolwiek związku z ich wartością poznawczą, o której decyduje

wyłącznie tzw. adekwatność empiryczna (zob. IV.1).

Inny kłopot, gdy idzie o możliwość oceny prawdopodobieństwa

odpowiedzi, polega na niejasności semantyki zdań typu “Ponieważ A”. To

znaczy, nie jest jasne, co to znaczy, że zdanie typu “Ponieważ A” jest

praw

dziwe. Prawdziwość A jest warunkiem koniecznym prawdziwości zdania

“Ponieważ A”, z pewnością jednak nie jest warunkiem wystarczającym. Jeżeli

zaś nie są określone warunki prawdziwości zdania, tym bardziej nie są

określone warunki posiadania przezeń takiego czy innego stopnia

prawdopodobieństwa. Problemy z semantyką odpowiedzi na pytanie typu

“dlaczego?” starałem się rozwiązać w [Grobler 2000]. Stosowałem tam

zmodyfikowaną przeze mnie koncepcję wyjaśniania van Fraassena do

sformułowania porównawczego kryterium mocy wyjaśniającej hipotez, które

mogłoby pełnić rolę zasady wnioskowania do najlepszego wyjaśnienia. W

I.5.5. przedstawię zasadniczo to samo kryterium, ale sformułowane za

pomocą mniej kłopotliwego aparatu pojęciowego.

Peter Lipton [1991] zaproponow

ał koncepcję wyjaśniania, która ma, podobnie

jak u van Fraassena, charakter erotetyczno-kontrastowy, ale unika

alchemików w możliwość transmutacji metali nieszlachetnych w złoto ziściła się dzięki współczesnej
fizyce jądrowej. Niestety, pozyskiwanie złota za pomocą reakcji jądrowych jest metodą nie dającą
zwrotu z inwestycji.

background image

Adam Grobler, O metodzie i strukturze nauki 95

problemów semantycznych łącząc ją z koncepcją przyczynową. Wyjaśnienie,

według niego, polega na udzieleniu odpowiedzi na pytanie typu “Dlaczego P,

a nie Q?” przez podanie czynnika przyczynowego obecnego w historii przyczynowej P

, a nie

mającego swojego odpowiednika w historii przyczynowej

¬

Q

. Przykładem

może być odpowiedź Semmelweissa na pytanie, dlaczego poziom

śmiertelności na jednym oddziale położniczym był zdecydowanie wyższy niż

na drugim: “Ponieważ położnice na pierwszym oddziale były zakażane przez

studentów-praktykantów «trupim jadem», podczas gdy położnice na drugim

oddziale nie miały z «trupim jadem» kontaktu”.

Przytoczone koncepcje łączy myśl, że wyjaśnianie polega na znajdowaniu

odpowiedzi na pytanie typu “dlaczego?”. Mimo że takie postawienie sprawy

wydaje się całkiem naturalne, nie jest ono wcale wolne od wątpliwości. Nie

wszystkie pytania typu “dlaczego?” są pytaniami o wyjaśnienie, zwłaszcza

naukowe. Gdy dopiero co owdowiała kobieta woła: “Dlaczego umarłeś?!”,

oczywiście nie domaga się wyjaśnienia od nieboszczyka, tym bardziej, że

może świetnie rozumieć medyczne przyczyny zgonu męża. Wyraża jedynie

swój ból. Gdy pytam: “Dlaczego tak sądzisz?”, pragnę dowiedzieć się jakie

świadectwa lub poszlaki zna mój rozmówca na poparcie swej tezy, a nie

zrozumieć tajniki zachodzących u niego procesów myślowych. Z drugiej

strony, wielu filozofów jest zdania, że nie tylko pytania typu “dlaczego?”, ale

również pytania typu “jak?” bywają pytaniami o wyjaśnienie. Np. “Jak

więzień uciekł z więzienia?”, “Jak przekazywana jest informacja

genetyczna?”.

Wyjaśnienie z formą pytania bardziej jednoznacznie łączy koncepcja

wyjaśniania przez wyszczególnienie (explanation by specification) [Kuipers i

Wiśniewski, 1994; Kuipers 2001]

53

. Przyczynowe wyjaśnienie przez

wyszczególnienie polega na podaniu odpowiedzi na pytanie Q

postaci: “Co jest

przyczyną zajścia (abnormalnego) zdarzenia b w układzie a?”, które jest

parafrazą mniej jednoznacznego pytania: “Dlaczego w układzie a zaszło

53 Pierwotna wersja pochodzi od Theo Kuipersa. Andrzej Wiśniewski nadał jej formę

erotetyczną, co znacznie ją wzbogaciło.

background image

Adam Grobler, O metodzie i strukturze nauki 96

b?”. Presupozycj

ą tego pytania jest P: “Zdarzenie b zaszło w układzie a na skutek

wystąpienia pewnej szczególnej przyczyny”. Odpowiedź A ma formę:

“Zdarzenie b w układzie a zaszło na skutek wystąpienia przyczyny x”. Znaczenie

A

objaśniają następujące postulaty znaczeniowe PZ: (i) w układzie a zaszło

zdarzenie b

; (ii) w układzie a zaszło zdarzenie x i jest ono abnormalne w a; (iii)

istnieją czynniki f

1

, …, f

n

takie, że f

1

, …, f

n

normaln

ie występują w układzie a

i “jeżeli x oraz f

1

, …, f

n

to w układzie a zachodzi b” jest prawem przyczynowym

(przy

czynowym prawem następstwa, zob. II.6) oraz (iv) x jest czynnikiem

istotnym przyczynowo dla wystąpienia b.

Grobler i Wiśniewski [2002] zauważyli, że wyjaśnianie przez

wyszczególnienie ma również, jak w koncepcjach van Fraassena i Liptona,

charakter kontrastowy. Mianowicie, jeżeli “abnormalny” znaczy tyle, co

“nieoczekiwany”, wyjściowe pytanie można sparafrazować na: “Dlaczego

(z jakiej przyczyny) w układzie a zaszło (nieoczekiwane) b, a nie któreś

spośród (jak zazwyczaj) b

1

, …, b

k

,?”. Z kolei postulaty znaczeniowe odpowiedzi PZ

(ii)-(iv) gwarantują, że odpowiedź wyróżnia temat pytania, jak by

powiedział van Fraassen, albo że wskazuje na pewien czynnik w historii

przyczynowej b, który nie ma odpowiednika w histor

ii przyczynowej żadnego z

¬

b

i

, i = 1,

…, k, jak by

powiedział Lipton.

Co zatem nadzwyczajnego jest w koncepcji Kuipersa-Wiśniewskiego? Po

pierwsze to, że dzięki uściślającej parafrazie pytania typu “dlaczego?” na

pytanie typu “co?” (“które z?”), poszukiwanie wyjaśnienia daje się

przedstawić w formie rozumowania erotetycznego (por. I.4.2). Poszukując

odpowiedzi badacz wysuwa pewną hipotezę H, stawiając pytanie typu “tak-

lub-nie”: “Czy c jest przyczyną b?”. To pytanie razem ze zdaniami PZ implikuje

erotetycznie kolejne pytania:

“Czy w układzie a zaszło zdarzenie c i czy jest ono

abnormalne w a

”, “Czy istnieją czynniki f

1

, …, f

n

takie, że f

1

, …, f

n

normaln

ie

występują w układzie a i «jeżeli c oraz f

1

, …, f

n

to w układzie a zachodzi b» jest

prawem przyczynowym

54

, “Czy c

jest czynnikiem istotnym przyczynowo dla

54 W sprawie warunków (

hipotetycznej) akceptacji odpowiedzi pozytywnej (“Tak”) na to pytanie

background image

Adam Grobler, O metodzie i strukturze nauki 97

wystąpienia b?”. Jeżeli na wszystkie te pytania odpowiedź będzie pozytywna,

wówczas hipoteza H zostanie potwierdzona. W prze

ciwnym razie należy wysunąć

kolejną hipotezę i postawić pytanie: “Czy c’ jest przyczyną b?”. Gdy wszystkie

(ze względu na wiedzę zastaną) możliwości c, c’, c”, … zostaną wyczerpane,

pozostaje bądź zrewidować wiedzę zastaną tak, aby otworzyć pole do

stawiania nowych hipotez, bądź pozostaje zrewidować presupozycję P

wyjściowego pytania Q. To zaś jest równoznaczne z udzieleniem odpowiedzi

korekcyjnej: “b zaszło (zamiast w wyniku wystąpienia jakiejś abnormalnej

przyczyny) bądź w wyniku (abnormalnego) splotu (normalnych lub

abnormalnych) przyczyn, bądź bez (abnormalnej) przyczyny w ogóle

55

.

Drugą zaletą koncepcji wyjaśniania przez wyszczególnienie jest jego

otwartość na inne typy wyjaśniania niż przyczynowe. W szczególności

Kuipers i Wiśniewski rozpatrują wyjaśnianie intencjonalne i wyjaśnianie

funkcjonalne

56

. Pierwsze z nich polega na udzielaniu odpowiedzi na pytanie typu “Dlaczego

osoba a

popełniła czyn b?” sparafrazowane na “Jaki motyw (cel) miała osoba

a

, aby popełnić czyn b?”. Drugie parafrazuje pytanie typu “Dlaczego organizmy gatunku

a

mają wykształconą cechę b?” na pytanie typu “Jaką funkcję biologiczną

(ewolucyjną) cecha b pełni (pełniła) u organizmów gatunku a?”.

Wyjaśnienia intencjonalne mogą mieć ważne zastosowanie np. w śledztwie

kryminalnym lub w psychoterapii. Wyjaśnienia funkcjonalne mają kluczowe

znaczenie np. w konstruowaniu scenariuszy ewolucyjnych.

Szczegóły analizy tych

typów wyjaśniania pominę, ponieważ ich struktura jest zasadniczo taka

sama, jak wyjaśniania przyczynowego.

Erotetyczne ujęcie koncepcji wyjaśniania przez wyszczególnienie

występuje różnica zdań między mną a Wiśniewskim. Wiśniewski uważa, że czynniki f

1

, …, f

n

muszą zostać zidentyfikowane i explicite (tzn. wyraźnie) wymienione. Według mnie można
uznać, że część z nich jest implicite (między wierszami) i wchodzi w skład warunku ceteris
paribus
(zob. I.5.4).
55 Akceptacja drugie

go członu tej alternatywy może wydawać się z gruntu nienaukowa.

Tymczasem wydaje się całkiem naturalne uznać, że na pytanie: “Co było (abnormalną)

przyczyną tego, że Jan wygrał w Toto-Lotka?” właściwą odpowiedzią jest “Nic”. Z
pewnością na wynik losowania składa się wiele przyczyn, lecz gdyby któraś z nich była
abnormalna, sprawą powinien zająć się prokurator.
56 Znowu: pierwotna

koncepcja pochodzi od Kuipersa, jej erotetyczne rozwinięcie od

Wiśniewskiego.

background image

Adam Grobler, O metodzie i strukturze nauki 98

wyraźnie ukazuje wiedzotwórczy mechanizm poszukiwania wyjaśnień. Z

tego względu można uważać je za przyczynek do teorii lub “logiki” odkrycia,

zapoczątkowanej przez Norwooda R. Hansona [1958]. Uważał on, że ogólne

wzory dochodzenia do odkrycia naukowego można znaleźć badając

strukturę rozumowania abdukcyjnego (por. I.5.1). Od tego czasu badanie

filozoficznych i logicznych, w odróżnieniu od psychologicznych, aspektów

odkrycia naukowego ma swoich zagorzałych entuzjastów

57

. Natomiast wedle

dominującego wcześniej stanowiska empiryzmu logicznego, przedmiotem

filozofii nauki czy metodologii są przede wszystkim problemy struktury już

gotowej wiedzy oraz jej uprawomacniania

58

. Dobitnie ujmuje to wprowadzone przez

Reichenbacha [1938] rozróżnienie kontekstu odkrycia i kontekstu uzasadnienia.

Pierwszy dość powszechnie uznano za wyłączną domenę psychologii,

traktując tylko drugi za właściwy przedmiot dociekań. Szczególnie wyraźnie

sprawę stawiał Popper twierdząc, że filozoficzne rozumienie nauki osiąga się

badając jej gotowe, zobiektywizowane wytwory, ignorując z zasady

irracjonalne lub aracjonalne procesy ich powstawania. Dawniejsi filozofowie

często uważali, że metoda naukowa stosuje się i do odkrywania i do

uzasadniania. Tak sądził twórca metody indukcji eliminacyjnej, Bacon, i

twórca metody abdukcji, Peirce. Współcześnie zbliżone do tego, choć nie tak

jednoznaczne stanowisko zajmował np. Lakatos. Z kolei Larry Laudan [1977]

uważał, że ze względu na odmienność problemów potrzebny jest podział

bardziej subtelny: należy wyróżnić trzy konteksty: odkrycia, rozpatrywania

(pursuit) i akceptacji.

Spróbuję teraz wykazać, że erotetyczna koncepcja wyjaśniania wnosi

istotny wkład nie tylko do problematyki kontekstu odkrycia, ale również

kontekstu uzasadniania lub, jak kto woli, kontekstów rozpatrywania i

akceptacji.

57 W Polsce m.in. Wojciech Sady, zwłaszcza [1990].
58

W Polsce podobne stanowisko zajmowała szkoła lwowsko-warszawska, pod wpływem

wprowadzonego przez Kazimierza Twardowskiego rozróżnienia na czynności i wytwory
poznawcz

e. Pierwsze miały być przedmiotem psychologii, drugie filozoficznej teorii poznania.

background image

Adam Grobler, O metodzie i strukturze nauki 99

I.5.4. Porównywanie mocy

wyjaśniającej hipotez

O ile pojęcie abnormalnego zdarzenia i abnormalnej przyczyny może

mieć zastosowanie w kontekście odkrycia, o tyle jest całkiem

nieodpowiednie w kontekście uzasadnienia. Kiedy wyjaśnienie zostanie już

wynalezione, zdarzenia i przyczyny abnormalne stają się zupełnie normalne.

Przykładem mogą być drgania żabich udek, które doprowadziły do odkrycia

elektryczności. Czy kiedy wyjaśniane zdarzenia znormalnieją, wyjaśnienie

przestaje być wyjaśnieniem? Nie mniej od wyjaśnienia niezwykłości cenimy

wyjaśnienia naukowe zjawisk wręcz codziennych, jak spadanie ciał,

przypływy i odpływy morskie, wschody i zachody Słońca. Jeszcze bardziej

cenimy lepsze wyjaśnienia zjawisk dawno wyjaśnionych, np. wolimy

grawitacyjne wyjaśnienie spadania od wyjaśnienia za pomocą teorii ruchu

naturalneg

o, heliocentryczne wyjaśnienia wschodów i zachodów Słońca, od

geocentrycznego. Najbardziej nienormalne jest to, że są jakieś zjawiska

normalne. Zdumienie tym faktem doprowadziło Anaksymandra z Miletu (ok.

610-546 p.n.e.), który sformułował zasadę wyjaśniania rzeczy widzialnych

(znanych, znajomych, zwyczajnych) za pomocą rzeczy ukrytych

(nieznanych). W życiu codziennym gdy prosimy kogoś o wyjaśnienie czegoś,

często chodzi nam o to, by coś nam nieznanego przedstawił za pomocą

pojęć nam znanych. Jednak myślenie naukowe kieruje się zasadą

Anaksymadra. Widzialne spadanie wyjaśniamy za pomocą zagadkowych,

działających na odległość sił ciążenia, światło lampy za pomocą prądu

elektrycznego, burze za pomocą przemieszczania się frontów

atmosferycznych. Kto widział front atmosferyczny?

Dlatego koncepcja Kuipersa-Wiśniewskiego wymaga wyraźniejszego

przeformułowania na ujęcie kontrastowe, naśladujące pomysły van

Fraassena i Liptona. W przypadku wyjaśniania przyczynowego za ogólną

formę pytania Q proponuję przyjąć: “Dlaczego (z jakiej przyczyny)

w układzie a zaszło b, a nie któreś spośród b

1

, …, b

k

?”. Presupozycją tego

background image

Adam Grobler, O metodzie i strukturze nauki 100

pytania jest P: “Zdarzenie b (a nie któreś z b

1

, …, b

k

) zaszło w układzie a na

skutek wystąpienia pewnej szczególnej przyczyny x”. Odpowiedź

bezpośrednia A ma formę: “Zdarzenie b w układzie a zaszło na skutek

wystąpienia przyczyny x”. Znaczenie A objaśniają następujące postulaty

znaczeniowe PZ: (i) w układzie a zaszło zdarzenie b, a nie zaszło żadne

z b

1

, …, b

k

; (ii) w układzie a zaszło zdarzenie x; (iii) istnieją czynniki f

1

, …, f

n

takie, że “Jeżeli x oraz f

1

, …, f

n

to w układzie a zachodzi b” i nie zachodzi żadne

z b

1

, …, b

k

” jest prawem przyczynowym; (iv) x

jest czynnikiem istotnym

przyczynowo dla wystąpienia b; (v) “Jeżeli x oraz f

1

, …, f

n

, to w układzie a

zachodzi któreś z b

1

, …, b

k

” nie jest prawem przyczynowym; oraz (vi) “Jeżeli

f

1

, …, f

n

, to w układzie a nie zachodzi żadne z b

1

, …, b

k

” nie jest prawem

przyczynowym.

Na pytanie Q

możliwa jest też odpowiedź korekcyjna C o jednej z

następujących form: “W układzie a (wbrew pozorom) nie zaszło zdarzenie

b

”, “W układzie a (wbrew pozorom) zaszło któreś ze zdarzeń b

1

, …, b

k

(mimo

zajścia b lub pod jego nieobecność)”, “Zdarzenie b w układzie a zaszło na

skutek splotu przyczyn x

1

, …, x

p

”, “Zdarzenie b

w układzie a zaszło bez

przyczyny”. Każda z tych odpowiedzi wymaga uwiarygodnienia w formie

odpowiedniej rewizji wiedzy zastanej.

Obecna koncepcja, dzięki odwołaniu się do przyczynowości, rozwiązuje

problemy klasycznej koncepcji wyjaśniania: asymetrii, istotności

wyjaśniającej itd. Następnie, dzięki kontrastowości, rozwiązuje problemy

czystej koncepcji przyczynowej: odróżnienia przyczyn głównych od

ubocznych. Przytoczony schemat wyjaśniania można uogólnić na

przyczyny probabilistyczne i przyczynowe prawa statystyczne, co dobrze

ilustruje historia odkrycia Semmelweisa. Poszukiwał on probabilistycznej

przyczyny wyższego, niż na drugim oddziale, poziomu zapadalności na

gorączkę połogową na pierwszym oddziale położniczym: b = poziom

zapadalności na oddziale wynosi ok. 10%; b

1

= poziom zapadalności na

background image

Adam Grobler, O metodzie i strukturze nauki 101

oddziale wynosi ok. 2% (jak na drugim oddziale). Odpowiedź brzmiała: x =

zakażanie “trupim jadem” przez osoby mające bezpośrednio przed

kontaktem z pacjentkami kontakt ze zwłokami; f

1

= zakażanie “trupim

jadem” w ogóle; f

2

, …, f

n

= czynniki wpływające na odporność organizmu.

(Na marginesie: tak pojmowane wyjaśnianie statystyczne nie stosuje

się do wyjaśniania indywidualnych przypadków, a tylko do próbek

statystycznych. Na pytanie, dlaczego Jan, a nie Piotr zachorował na paraliż

postępowy nie ma dobrej odpowiedzi, chyba że Piotr, w odróżnieniu od

Jana, nigdy nie chorował na kiłę. Podobnie jak w przypadku historii

Semmelweisa nie ma dobrej odpowiedzi na pytanie, dlaczego Janina, a nie

Barbara zapadła na gorączkę połogową, chyba że Barbara, w odróżnieniu

od Janiny, znajdowała się w okolicznościach wykluczających zakażenie.

Semmelweis mógł jedynie wyjaśnić, dlaczego w jednej próbce

statystycznej (na pierwszym oddziale) zapadalność na gorączkę połogową

jest inna (znacznie wyższa) niż w innej próbce (na drugim oddziale).

Odrzucając możliwość statystycznego wyjaśnienia indywidualnych

przypadków unikamy przytoczonych w I.5.2. klasycznych problemów

wyjaśniania statystycznego).

Podobnie, kontrastowe ujęcie wyjaśniania intencjonalnego i

funkcjonalnego, którego precyzyjne sformułowanie pominę, jest wolne od

problemów dotychczasowych koncepcji wyjaśniania.

Po wyjaśnieniu, co to jest wyjaśnienie, pora na wyjaśnienie, co to

znaczy, że jedno wyjaśnienie jest lepsze od drugiego. Ograniczymy się na

razie do wyjaśnienia przyczynowego. Lipton [1991] wymienia trzy aspekty,

ze względu na które można porównywać ze sobą konkurencyjne

wyjaśnienia: ujawnianie mechanizmu przyczynowego, dokładność

(precyzja) i unifikacja. Nie rozwija jednak tej kwestii wystarczająco

szczegółowo. Zmierzając do ściślejszego ujęcia tego zagadnienia,

przyjmijmy na początek, że wyjaśnienie (przyczynowe) jest tym lepsze im

większą moc wyjaśniającą, spośród hipotez alternatywnych, ma hipoteza

wyrażająca prawo przyczynowe, o którym mowa w PZ(v). Przy czym hipoteza

background image

Adam Grobler, O metodzie i strukturze nauki 102

ma moc wyjaśniającą tym większą, na im więcej pytań o wyjaśnienie

można dzięki niej udzielić poprawnych odpowiedzi. Zanim te intuicje

sformułuję w sposób ścisły, omówię ich tło historycznofilozoficzne.

Przypomijmy

sobie popperowskie kryteria przyrostu wiedzy (I.3.3). Mowa

w nich była o tym, że hipoteza powinna wyjaśniać wszystko to, co

wyjaśniają dotychczasowe hipotezy, a ponadto winna wyjaśniać coś

jeszcze. Sformułowanie Poppera wyraża te same intuicje, które zamierzam

niżej rozwinąć. Można więc powiedzieć, że Popper również zakłada zasadę

wnioskowania do najlepszego wyjaśnienia, tyle że na gruncie modelu D-N

wyjaśniania, który nie odróżnia on wyjaśniania od przewidywania i

retrodykcji (zob. I.5.2). Dlatego kryteria wyboru hipotez u Poppera

przyjmują postać warunków bogatej treści empirycznej i względnego

sukcesu empirycznego. Natomiast wedle proponowanego tutaj ujęcia

należy wyżej cenić hipotezy wyjaśniające od zdań wyrażających

(niewyjaśnione) prawidłowości empiryczne. Dzięki temu można będzie

sformułować brakujące koncepcji Poppera kryterium racjonalności rewizji

wiedzy zastanej.

Kryterium to jest blisko spokrewnione ze sformułowanym przez

Larry’ego Laudana [1977] rozwiązania problemu Duhema. Mówi ono, że z

dostępnych sposobów rewizji układu hipotez H

1

, …, H

n

należy wybrać ten,

który prowadzi do takiego układu H

1

’, …, H

n

’, że koniunkcja H

1

H

n

pozwala rozwiązać więcej problemów niż jej odpowiedniki powstałe w

wyniku alternatywnych sposobów rewizji. Mankamentem ujęcia Laudana,

którego szczegóły, ze względu na brak miejsca, musimy pominąć, jest

niezbyt ścisłe zdefiniowanie pojęcia problemu. Skutkiem tego powstają

wątpliwości w kwestii, jak liczyć problemy, tzn. co jest jednym problemem,

a co zespołem wielu problemów. Niżej sformułowane kryterium jest wolne

od tych trudności.

Ponadto poniższe kryterium pozwala, w odróżnieniu od koncepcji

Kitchera (zob. I.5.2), czy wspomnianego przed chwilą Liptona, zdać sprawę

background image

Adam Grobler, O metodzie i strukturze nauki 103

z tego, na czym polega wartość eksplanacyjna unifikacji: hipotezy teorii

bardziej zunifikowanej pozwalają udzielić odpowiedzi na więcej pytań od

hipotez teorii mniej zunifikowanych. Z kolei wartość dokładności czy

precyzji wyjaśniania jest uwzględniona w kontrastowej definicji pytania: im

wyjaśnienie jest precyzyjniejsze, tym więcej empirycznie odróżnialnych

rozróżnień można przeprowadzić między w explanandum złożonym ze

zdarzenia b, o którym zakłada się, że zaszło i zdarzeniami b

1

, …, b

k

, które

mogłyby zajść zamiast niego. Wobec tego, na tym więcej bardziej

szczegółowych pytań można znaleźć odpowiedź.

Teraz pora na zapowiadane kryterium, a raczej kryteria. Pierwsze

będzie zrelatywizowane do wiedzy zastanej, drugie będzie dotyczyło

problemu rewizji wiedzy zastanej. Najpierw dwie definicje:

DF 1. Zdanie A “Zdarzenie b

w układzie a zaszło na skutek wystąpienia

przyczyny c” nazywa się poprawną, ze względu na wiedzę zastaną W,

odpowiedzią bezpośrednią na pytanie Q “Dlaczego (z jakiej przyczyny)

w układzie a zaszło b, a nie któreś spośród b

1

, …, b

k

?” wtedy i tylko wtedy, gdy

postulaty znaczeniowe PZ (i)-(vi) zdania A

nadają się do przyjęcia (są

wiarygodnymi hipotezami) w świetle W.

Komentarz: odpowiedź poprawna ze względu na wiedzę W może nie być

poprawna ze względu na wiedzę W’, np. gdy W’ obejmuje świadectwa

podważające hipotezę, o której mowa w PZ(v).

DF 2

. Pytanie o wyjaśnienie Q nazywa się zastosowaniem wyjaśniającym

hipotezy H

ze względu na wiedzę zastaną W wtedy i tylko wtedy, gdy istnieje na

nie poprawna ze względu W odpowiedź bezpośrednia A taka, że postulat

znaczeniowy PZ(v) zdania A jest konsekwencją logiczną H.

Zbiór zastosowań wyjaśniających hipotezy H ze względu na wiedzę

zastaną W oznaczymy przez ZW(H, W).

background image

Adam Grobler, O metodzie i strukturze nauki 104

KRYTERIUM 1. Hipoteza H

’ ma większą moc wyjaśniającą od hipotezy H ze

względu na wiedzę zastaną W wtedy i tylko wtedy, gdy ZW(H, W) ZW(H’, W)

(tzn. gdy każde zastosowanie wyjaśniające H jest również zastosowaniem

wyjaśniającym H’, ale nie na odwrót: znak występuje tutaj na oznaczenie silnej

inkluzji).

Komentarz: relacja inkluzji (zawierania się zbiorów) nie jest relacją

porządkującą zbiór hipotez. Tzn. nie dla każdych dwóch konkurencyjnych

hipotez zbiór zastosowań jednej zawiera się w zbiorze zastosowań drugiej:

zbiory te mogą się krzyżować. Wówczas żadna z porównywanych hipotez

nie jest lepsza, w sensie tego kryterium, od drugiej. W praktyce naukowej

często się zdarza, że uczeni badają alternatywne hipotezy, z których każda

wykazuje pewne zalety w porównaniu z pozostałymi, a żadna, w świetle

aktualnego stanu wiedzy, nie jest zdecydowanie najlepsza. Dwie różne

hipotezy mogą też mieć jednakowe zbiory zastosowań, mają wówczas

jednakową moc wyjaśniającą. Relacja tego typu, co zdefiniowana wyżej “…

ma większą moc wyjaśniającą od…” nazywa się relacją częściowego

pseudoporządku

59

.

KRYTERIUM 2. Rewizja wiedzy zastanej W

prowadząca do wiedzy W’ nazywa się

postępowa wtedy i tylko wtedy, gdy (i) (

Q){(

H)[Q

ZW(H, W)]

(

H)[Q

ZW(H, W’); oraz (ii) (

Q){(

H)[Q

ZW(H, W)]

(

H’)[Q

ZW(H’, W’)]

W

¬

P(Q)}, gdzie P(Q

) oznacza presupozycję Q.

Warunek (i) jest warunkiem zysku eksplanacyjnego wiedzy. Mówi on, że

dla pewnego pytania wyjaśniającego Q, na które nie znaleziono odpowiedzi

59 Relacj

a R nazywa się relacją (liniowego) porządku wtedy i tylko wtedy, gdy jest (i) zwrotna, (ii)

spójna, (iii) antysymetryczna i (iv) przechodnia, tj. (i) (

x)[xRx)]; (ii) (

x)(

y)[xRy

yRx]; (iii) (

x)(

y)

[xRy

yRx

x = y]; (iv) (

x)(

y)(

z)[xRy

yRx

xRz]. Relacj

a R nazywa się relacją częściowego

porządku, gdy nie jest spełniony warunek spójności (ii), zaś pseudoporządku, gdy nie jest

spełniony warunek antysymetrii (iii).

background image

Adam Grobler, O metodzie i strukturze nauki 105

bezpośredniej na gruncie wiedzy W (nie jest ono zastosowaniem

wyjaśniającym żadnej hipotezy ze względu na W), istnieje odpowiedź

bezpośrednia na gruncie wiedzy W’ (jest ono zastosowaniem

wyjaśniającym jakieś hipotezy H ze względu na W’). Innymi słowy, rewizja

wiedzy zastanej pozwala znaleźć wyjaśnienie jakiegoś przedtem

niewyjaśnionego zjawiska (zdarzenia lub prawidłowości). Warunek (ii) jest

warunkiem zachowania potencjału eksplanacyjnego wiedzy. Mówi on, że

dla każdego pytania wyjaśniającego Q, na które istnieje odpowiedź

bezpośrednia na gruncie wiedzy W (jest ono zastosowaniem wyjaśniającym

jakiejś hipotezy H ze względu na W), bądź istnieje odpowiedź bezpośrednia

na gruncie wiedzy W’ (jest ono zastosowaniem wyjaśniającym, ze względu

na W’, jakieś hipotezy H’, niekoniecznie identycznej z H), bądź z W’ zaprzeczenie

presupozycji pytania Q

60

. Podobnie, jak poprzednie kryterium w stosunku do

hipotez, drugie kryterium również określa relację nie porządku liniowego, a

tylko relację częściowego pseudoporządku w zbiorze alternatywnych systemów

wiedzy zastanej.

Na pozór przytoczone kryteria są prostym przeniesieniem na inną

koncepcję wyjaśniania i uogólnieniem na rewizję wiedzy zastanej

sformułowanych przez Poppera warunków przyrostu wiedzy. Tymczasem

ich akceptacja sformułowanych wyżej kryteriów pociąga za sobą wnioski

metodologiczne, które wnoszą istotne korekty do falsyfikacjonizmu. Po

pierwsze, z powyższych kryteriów wynika, że falsyfikacja hipotezy nie jest

wystarczającym warunkiem jej odrzucenia. Zwracał na to uwagę Lakatos

[1971], który wyraźnie twierdził, że “programy badawcze zrazu pływają w

oceanie anomalii” (tj. pozornych falsyfikacji), i że falsyfikacja hipotezy jest

wtedy autentyczna, gdy jest zarazem potwierdzeniem hipotezy

konkurencyjnej. Nie warto bowiem porzucać hipotezy, gdy nie mamy na jej

miejsce lepszej kandydatki

61

. Tym bardziej, że negatywne świadectwo

60 Zastosowany tutaj zapis symboliczny W

¬

P(Q

) jest niezupełnie poprawny, ponieważ W’ nie

oznacza zdania, lecz zbiór zdań. Został użyty jako dogodny, nieformalny skrót.
61

Tę samą zasadę należy stosować w polityce. Dobrze wyraża ją angielska maksyma

Take care of your boss, the next will be worse” (“Dbaj o szefa, bo następny może być gorszy”).
Dlatego denerwują mnie hasła w rodzaju “Kołodko musi odejść” albo “Trener Engel musi

background image

Adam Grobler, O metodzie i strukturze nauki 106

empiryczne można zawsze obrócić, zamiast przeciw hipotezie, przeciw

warunkowi ceteris paribus.

Warunek zwany z łaciny ceteris paribus, a po angielsku other things being equal,

mówi że nie zachodzą nieuwzględnione okoliczności wyjątkowe. Każda

hipoteza zakłada domyślnie (między wierszami, implicite)

taki warunek

62

.

Doskonałą tego ilustracją jest odkrycie przez Leverriera odchylenia orbity

Uranu od toru przewidywanego na podstawie prawa powszechnego

ciążenia. Zamiast potraktować jego rachunki jako falsyfikację tego prawa

uznano, że zachodzą nieuwzględnione okoliczności, mianowicie że orbitę

Uranu zakłócają siły ciążenia pochodzące od nieznanej do tej pory planety.

Tę hipotetyczną planetę nazwano Neptunem i następnie odkryto

(zaobserwowano w wyliczonym przez Leverriera miejscu). Kilkadziesiąt lat

później na tej samej zasadzie odkryto kolejną planetę, Plutona. Nie udało

się jednak, mimo wysiłków, wyjaśnić w podobny sposób przesunięcia

peryhelium

63

Merkurego. Hipotetycznej planety nazwanej Wulkanem nie

znaleziono. Zagadka czekała na rozwiązanie kilkadziesiąt lat. Przyniosło go

dopiero ogólna teoria względności, następczyni teorii grawitacji Newtona.

Na tych motywach Lakatos [1971] rozwinął opowieść science-fiction na

dowód, że pod nieobecność hipotezy alternatywnej żadna hipoteza nie jest

falsyfikowalna.

Podobny wniosek można wyprowadzić z naszych kryteriów mocy

wyjaśniającej. Rozważmy hipotezę H tej treści, że w każdym układzie x

określonego typu, np. takiego, że normalnie działają w nim czynniki f

1

, …, f

n

,

odejść”. Czy musi odejść, może okazać się dopiero wtedy, gdy na jego miejsce będzie
lepszy od niego kandydat. Na odwrót, odsunięcie wprowadzenia nowej matury z powodu,
skądinąd niepokojących, braków jej przygotowania nie było dostatecznie uzasadnione wobec
fakt

u, że zasady starej matury są zupełnie niedorzeczne.

62 W polskiej literaturze prze

kładowej tłumacze, siląc się na dosłowność, albo nie siląc się na

odejście od dosłowności, często używają niezrozumiałego zwrotu “przy pozostałych

warunkach niezmienionych”. Istota rzeczy polega na założeniu, że czynniki nie
wymieniowe w sformułowaniu hipotezy wprost (explicite) mają zawsze jednakowy wpływ
(dokładniej: nie mają wpływu w ogóle) na zjawisko, o którym w hipotezie mowa. Warunek ceteris
paribus

występuje nie tylko w hipotezach naukowych, ale i w zdaniach wiedzy potocznej. Np. znana zasada

“Oszczędnością i pracą ludzie się bogacą” również zakłada domyślnie “…o ile nie
zachodzą okoliczności wyjątkowe”.

63 Najbliższego Słońcu punktu orbity.

background image

Adam Grobler, O metodzie i strukturze nauki 107

ilekroć wystąpi czynnik c, w układzie x zajdzie zdarzenie b (a nie żadne z). H

ma więc postać: (

x)[c(x)

b(x

)] i zakłada domyślnie warunek ceteris paribus:

“o ile nie występują okoliczności wyjątkowe”, np. któreś z f

1

, …, f

n

wyjątkowo nie zachodzi lub prócz f

1

, …, f

n

wyjątkowo zachodzi jeszcze jakieś

c

’, które niweluje działanie czynnika c. Przypuśćmy, że przyjmując hipotezę

H

zdołano wcześniej wyjaśnić wystąbienie b (zamiast b

1

, …, b

k

) w wielu

układach a

1

, …, a

p

. Eksperyment w układzie a

p+1

dał wynik negatywny. Tzn.

założyliśmy, na podstawie naszej najlepszej wiedzy, że w a

p+1

działają te

same czynniki f

1

, …, f

n

, co w a

1

, …, a

p

, i zaobserwowaliśmy, że wystąpienie c

nie spowodowało zajścia b. Gdyby teraz wynik tego eksperymentu

dołączyć do naszej wiedzy zastanej W, otrzymując w ten sposób nową

wiedzę W’, traktując go jako falsyfikację hipotezy H, mnóstwo zdarzeń

wyjaśnionych na gruncie W przestaje mieć wyjaśnienie na gruncie W’. Czyli

w myśl kryterium 2, rewizja wiedzy zastanej W nie jest postępowa. Chyba

że znajdzie się alternatywna hipoteza H’, która pozwoli znaleźć

alternatywne, poprawne w świetle wiedzy W’ odpowiedzi (bezpośrednie lub

korekcyjne) na pytania “Dlaczego (z jakiej przyczyny) w układach a

1

, …, a

p

zaszło b, a nie któreś spośród b

1

, …, b

k

?” oraz zostaną spełnione pozostałe

warunki postępowości rewizji wiedzy zastanej. Np. H’, albo jakaś inna

hipoteza H

”, pozwoli znaleźć poprawną, w świetle W’, odpowiedź

(bezpośrednią lub korekcyjną) na pytanie “Dlaczego (z jakiej przyczyny)

w układzie a

p+1

zaszło b, a nie któreś spośród b

1

, …, b

k

?”. Dopóki to nie

nastąpi, rozsądniej jest traktować wynik rozważanego eksperymentu jako

poszlakę, że warunek ceteris paribus nie został spełniony: w układzie a

p+1

któreś z f

1

, …, f

n

wyjątkowo nie zachodzi lub prócz f

1

, …, f

n

wyjątkowo

zachodzi jeszcze jakieś c’, które niweluje działanie czynnika c.

Na marginesie

: milcząca obecność warunku ceteris paribus w sformułowaniu

każdego prawa nauki rzutuje na metodologię planowania eksperymentu.

Tzw. eksperyment kontrolowany obejmuje rozmaite zabiegi w celu eliminacji

background image

Adam Grobler, O metodzie i strukturze nauki 108

ewentualnych wpływów ubocznych na jego wynik. Najczęściej polegają

one na uzmiennianiu czynników ubocznych. Czasem teoria podpowiada,

jakie czynniki poddać kontroli. Np. we wspomnianym wcześniej

eksperymencie Michelsona-Morleya powtarzano czynności

eksperymentalne w różnych porach dnia i roku. Miało to wyeliminować

wpływ składowej prędkości Ziemi względem eteru pochodzącej od

ewentualnego ruchu całego Układu Słonecznego względem eteru. Kiedy

indziej nie wiadomo, jakie czynniki kontrolować i trzeba je dobierać na

chybił-trafił. Przykładem może być eksperyment Périera (1648). W celu

sprawdzenia hipotezy ciśnienia atmosferycznego, Périer mierzył wysokość

słupka rtęci w barometrze Torricellego na szczycie góry i u jej podnóża.

Barometr składał się z rurki zatopionej z jednej strony, do której nalano

rtęci, a następnie odwrócono i zanurzono w misie z rtęcią. Część rtęci

spłynęła do misy, zostawiając próżnię między lustrem rtęci a zatopionym

końcem rurki. Słupek rtęci na szczycie góry był o 7 cm krótszy.

Potwierdzało to hipotezę Torricellego, ponieważ na szczycie góry słup

powietrza naciskający na powierzchnię rtęci w otwartej misie był niższy niż

u podnóża. Dla potwierdzenia wniosku Périer powtarzał pomiar w różnych

miejscach wierzchołka góry, pod dachem i na odkrytej przestrzeni, pod

osłoną i na wietrze, przy słonecznej pogodzie i w deszczu lub mgle itp.

Czynników, które mogą wchodzić w grę, jest jednak niezliczona ilość i

zawsze jest możliwe, że któryś pominięto.

Kryteria mocy wyjaśniającej dostarczają poparcia sformułowanej przez

Lakatosa zasadzie pluralizmu teoretycznego (I.3.4). Jak stwierdziłem wyżej,

kryteria te określają relacje częściowego pseudoporządku w zbiorze

rozpatrywanych hipotez i systemów wiedzy zastanej. W zbiorze częściowo

pseudouporządkowanym może występować więcej niż jeden element

maksymalny, tj. taki, że żaden inny go nie wyprzedza. Tzn. może

występować więcej niż jedna hipoteza, od której nie ma lepszej na gruncie

danej wiedzy zastanej, lub może występować więcej niż jedna możliwość

postępowej rewizji wiedzy zastanej, z których żadna nie jest bardziej

background image

Adam Grobler, O metodzie i strukturze nauki 109

postępowa od innych. W takiej sytuacji wydaje się rozsądne rozwijanie

wszystkich alternatywnych możliwości w nadziei, że dalszy rozwój każdego

z postępowych odgałęzień doprowadzi do rozstrzygnięcia (skądinąd

również tymczasowego, bo jeszcze dalszy rozwój może doprowadzić do

kolejnych odgałęzień postępowych)

64

.

Potwierdzając zasadę pluralizmu teoretycznego, kryteria mocy

wyjaśniającej nie dopuszczają zarazem anarchizmu epistemologicznego

Feyerabenda (I.3.4). Na kłopotliwe pytanie, jak długo należy zwlekać z

decyzją co do wyboru między alternatywnymi, powiedzmy, programami

badawczymi, odpowiedź jest jednoznaczna: dopóki wybór założeń i hipotez

tego programu nie okaże się postępowy, w sensie kryterium 2, w stosunku

do założeń i hipotez wszystkich programów alternatywnych.

Niekiedy wybór może nastąpić wcześniej. Możliwa jest bowiem sytuacja,

w której rewizja wiedzy zastanej W, prowadząca do wiedzy W’ nie jest

postępowa w danym czasie, ale daje nadzieje na postęp w przyszłości. Tak

jest np. wtedy, gdy W’ dostarcza wielu wyjaśnień niedostępnych na gruncie

W

i wprawdzie na razie nie wyjaśnia wszystkiego, co wyjaśniała W, ale

uzyskanie brakujących wyjaśnień pozostaje na gruncie W’ problemem

otwart

ym. Historycznym przykładem takiej sytuacji było porzucenie fizyki

Kartezjusza na korzyść fizyki Newtona. Ta ostatnia dostarczała

imponujących, jednolitych wyjaśnień m.in. ruchu planet, spadania ciał,

przypływów i odpływów morskich. Wyjaśniała mnóstwo zjawisk, których

wyjaśnienie na gruncie kartezjanizmu było niedostępne, m.in. właśnie

pływów morskich. Natomiast nie wyjaśniała komplanarności

(współpłaszczyznowości) orbit planet Układu Słonecznego. Z punktu

widzenia kartezjanizmu, komplanarność orbit jest następstwem wirów

kosmicznych. Z punktu widzenia fizyki Newtona, jest czystym zbiegiem

okoliczności. Komplanarność orbit została wyjaśniona dopiero później,

przez hipotezę Laplace’a (1796), wedle której Układ Słoneczny powstał z

pierwotnej mgławicy. Przejście od kartezjanizmu do fizyki Newtona jest

64

Pojęcie odgałęzienia postępowego pochodzi od Stegmüllera.

background image

Adam Grobler, O metodzie i strukturze nauki 110

jednym z przykładów Kuhna ilustrujących jego tezę o niewspółmierności.

Jednym z aspektów niewspółmierności jest występowanie strat

eksplanacyjnych, jak np. utrata wyjaśnienia komplanarności planet.

Obecność strat, zdaniem Kuhna, wyklucza jednoznaczne stwierdzenie, że

rewolucja naukowa przynosi postęp poznawczy. Natomiast przytoczona

tutaj analiza sugeruje, że przynajmniej niektóre straty eksplanacyjne

można potraktować jako długi zaciągnięte na poczet przyszłego rozwoju

pod zastaw zysków eksplanacyjnych osiągniętych w innej poddziedzinie

porewolucyjnej teorii.

W ten sposób zasada wnioskowania do najlepszego wyjaśnienia okazuje

się bardziej wszechstronna i wiarygodna od falsyfikacjonistycznej zasady

krytycyzmu czy bayesiańskiej zasady warunkowania. Kończąc rozważania

na temat oceny hipotez naukowych, przechodzimy do zagadnienia

struktury nauki.

background image

II. STRUKTURA NAUKI

II.1. Pojęcie teorii naukowej

W poprzednich rozdziałach dość swobodnie posługiwaliśmy się

pojęciami teorii naukowej, prawa nauki czy hipotezy. Najwyższa pora, by te

pojęcia nieco objaśnić. Pojęcie teorii pochodzi od greckiego theorein =

przy

glądać się, kontemplować, rozważać. Teorią jest zatem rezultat

rozważań na temat oglądanego przedmiotu. Rygorystyczne – można

powiedzieć teoretyczne – pojęcie teorii pochodzi od Davida Hilberta, z rozwijanej

prze

z niego w latach 1917-1931 metamatematyki. Jak Kartezjusz uważał

matematykę za wzorzec wszelkiego poznania naukowego, tak empiryzm logiczny

przy

jął metamatematykę (teorię poznania matematycznego) za wzorzec

metanauki (teorii poznania naukowego).

W metamatematyce

teorią T nazywa się ogół konsekwencji logicznych

pewnego zbior

u zdań X zwanych aksjomatami, symbolicznie T = Cn(X). Innymi słowy,

teorią nazywa się dedukcyjny system zdań, tj. zbiór zdań domknięty ze

względu na operację konsekwencji, tzn. taki, że jeżeli zdania p

1

, …, p

n

T

i

jeżeli q wynika ze zdań p

1

, …, p

n

na mocy reguł wnioskowania (inferencji), to q

T.

Reguły wnioskowania klasycznego rachunku zdań są dwie: (i) reguła

odrywania: jeżeli p i jeżeli p

q, to q

; (ii) reguła podstawiania: z dowolnej

formuły A wynika formuła powstała przez zastąpienie w A każdego

wystąpienia dowolnej zmiennej v inną zmienną. W klasycznym rachunku

predykatów od reguły podstawiania obowiązuje pewien wyjątek: mianowicie

za zmienną wolną (nie związaną za pomocą kwantyfikatora) nie wolno

podstawiać zmiennych związanych. Ponadto obowiązuje (iii) reguła

dołączania kwantyfikatora: A(x)

(

x)[A(x)]

1

. Zd

ania teorii, które nie są

aksjomatami nazywają się twierdzeniami. Twierdzeniem zatem jest zdanie,

1

Dla ułatwienia (skrócenia) dowodów zbiór reguł wnioskowania można poszerzyć,

wprowadzając tzw. reguły wtórne, o których trzeba udowodnić, że ich wprowadzenie nie
rozszerza zbioru konsekwencji aksjomatów. Przykładową regułą wtórną jest reguła przechodności
implikacji: jeżeli p

q

i jeżeli q

r, to p

r.

background image

Adam Grobler, O metodzie i strukturze nauki 95

które wynika logicznie z (jest konsekwencją) aksjomatów. Inaczej:

twierdzeniem nazywa się zdanie z, które ma dowód. Dowodem nazywa się ciąg

zdań p

1

, …, p

n

tak

i, że ostatnie jego zdanie p

n

= z

i każde zdanie p

i

tego ciągu

albo wynika (za pomocą reguł wnioskowania) z poprzednich zdań p

1

, …, p

i-1

,

albo jest aksjomatem.

Powyższe pojęcie teorii jest pojęciem formalnym. Tzn. o tym, czy jakieś

zdanie należy do teorii decyduje wyłącznie jego forma, czyli sposób złożenia

ze znaków alfabetu języka, w którym dana teoria jest sformułowana. Chcąc

zbadać, czy jakieś zdanie z należy do T, należy zacząć od sprawdzenia, czy

znajduje się na liście aksjomatów X. Jeżeli tak, problem jest rozstrzygnięty

natychmiast. Jeżeli nie, należy spróbować znaleźć jego dowód, czyli

wyprodukować ciąg zdań w sposób, który zależy wyłącznie od aksjomatów i

reguł wnioskowania. W całej tej procedurze treść zdania nie odgrywa żadnej

roli. Czy zdanie z jest aksjomatem można sprawdzić porównując je znak po

znaku ze wszystkimi po kolei aksjomatami na liście, niezależnie od tego, czy

wiemy, co to zdanie mówi i co mówią aksjomaty. Czy jakieś zdanie p

i

wynika

logicznie ze zdań p

1

, …, p

i-1

, można sprawdzić porównując ich ciągi lub

podciągi z regułami wnioskowania, które stosują się do zdań o określonej

formie, bez względu na ich treść.

Metamatematyka, posługując się formalnym pojęciem teorii, zajmuje

się badaniem, pod jakimi warunkami teorie matematyczne posiadają

pewne interesujące własności. Najważniejszą z nich jest niesprzeczność:

teoria T

jest niesprzeczna, gdy dla każdego zdania z rozpatrywanego języka,

do T należy co najwyżej jedno z pary zdań z,

¬

z

. Ze zdań z i

¬

z wynika dowolne

zdanie rozpatrywanego

języka. Toteż gdy T nie jest niesprzeczna, należą do

niej wszystkie zdania języka, w którym jest sformułowana. Toteż jasne jest,

że niesprzeczność jest koniecznym warunkiem akceptacji teorii

matematycznej.

Czy formalne pojęcia teorii i dowodu pozwalają trafnie ująć naturę

poznania matematycznego, jest kwestią sporną, której omówienie odłożymy

background image

Adam Grobler, O metodzie i strukturze nauki 96

do III.1. W każdym razie metodyczny zabieg Hilberta, polegający na

ujmowaniu zdań matematyki w oderwaniu od ich treści, zainspirował

powstanie poglądu zwanego formalizmem

2

. Zgodnie z nim

zdania matematyczne

rzeczywiście są pozbawione treści. W takim ujęciu matematyka w ogóle nie

jest nauką, bo jej zdania nic nie mówią o świecie. Zamiast tego, matematyka

jest grą polegającą na przekształcaniu napisów według reguł. Dopisanie

zdania do dowodu zgodnie z regułami wnioskowania jest posunięciem w

grze, zaś zakończenie dowodu jest w matematyce tym, co zamatowanie

przeciwnika w grze w szachy czy ułożenie kart kończące pasjansa. Myślę, że

niektórzy czytelnicy tej książki rozwiązując na klasówce jakieś

skomplikowane równanie, mieli niekiedy wrażenie, że grają w jakąś grę, w

której wykonuje się posunięcia w rodzaju wyłączenia wspólnego czynnika

przed nawias, podzielenia równania stronami przez ten czynnik,

zastosowania jakiegoś wzoru, np. skróconego mnożenia itp., aż wreszcie gra

się kończy uzyskaniem ostatecznego rozwiązania.

Formalizm stał się oficjalnym poglądem empiryzmu logicznego.

Matematykę uważano nie za naukę – bo nie jest empiryczna – lecz za

narzędzie nauki, dostarczające nauce środków wyrazu, w rodzaju funkcji

różniczkowalnych, macierzy, wektorów, tensorów i reguł wnioskowania w

rodzaju reguł rozwiązywania równań, działań na wektorach, tensorach,

macierzach itd. Samo w sobie zdanie w rodzaju

nic nie znaczy, dopóki

jego symbolom nie zostanie nadana tzw. interpretacja

empiryczna. Matematyka natomiast pozwala nam z tego zdania
wnioskować, że cokolwiek ono znaczy, to

Teorię naukową musi coś różnić od teorii matematycznej. Twierdzenia

teorii naukowej nie mogą być po prostu dedukcyjnymi konsekwencjami jej
aksjomatów, rezultatem manipulacji na symbolach. Muszą one mieć jakiś

2

Sam Hilbert nie był formalistą. Dlatego napisałem, że jego zabieg miał charakter

metodyczny, czyli został zastosowany do określonego celu poznawczego, bez konsekwencji

wykraczających poza ten cel. Zabiegiem metodycznym jest np. recenzowanie prac
nauk

owych z utajnieniem autora po to, by jego reputacja nie rzutowała na opinię

recenzenta. Po przyjęciu do druku prace przestają być anonimowe.

background image

Adam Grobler, O metodzie i strukturze nauki 97

związek z doświadczeniem, jakąś interpretację empiryczną. Myśl, że
teoria naukowa ma, z jednej strony, strukturę wzorowaną na strukturze teorii
matematycznej, z drugie

j ma mieć jakąś treść empiryczną, przerodziła się

w koncepcję nazwaną przez jej późniejszych krytyków poglądem otrzymanym
(the received view

), zesłanym z góry, którego autorem nie jest żaden z jego

wyznawców

3

.

Według tego poglądu teoria naukowa T jest sformułowana w pewnym języku

L

będącym odpowiednim rozszerzeniem rachunku predykatów pierwszego

rzędu

4

. Pozalogiczne terminy języka L dzielą się na niepuste dwie klasy:

terminy teoretyczne i obserwacyjne. W związku z tym można wydzielić
pewne podjęzyki języka L (podzbiory zdań zbioru zdań języka L): język
obserwacyjny L

o

, zawierający wyłącznie obserwacyjne zdania szczegółowe,

tj. bez terminów teoretycznych i bez kwantyfikatorów; rozszerzony język
obserwacyjny L

o

, zawierający wyłącznie obserwacyjne zdania, tj. bez

terminów teoretycznych, ale również zdania uniwersalne, tj. z
kwantyfikatorami; oraz język teoretyczny L

T

, zawierający wyłącznie zdania

teoretyczne, tj. bez terminów obserwacyjnych. T

o

= T

L

o

, T

o

= T

L

o

’ oraz T

T

= T

L

T

są odpowiednio podteoriami teorii T (tzn. same też są domknięte ze

względu na operację konsekwencji).

Wszystkie terminy języka L

o

odnoszą

się do obserwowalnych rzeczy, zdarzeń, własności rzeczy pewnej dziedziny,
każda wartość dowolnej zmiennej indywiduowej języka L

o

jest wyznaczona

przez jakieś wyrażenie języka L

o

. W ten sposób język L

o

ma pełną

interpretację empiryczną: o każdym jego zdaniu tego języka można za
pomocą obserwacji stwierdzić, czy jest prawdziwe. Terminy teoretyczne i
zdania języka L, w których takie terminy występują, mają częściową
interpretację empiryczną
, określoną za pomocą postulatów teoretycznych T,
czyli aksjomatów teorii T

sformułowanych w L

T

oraz tzw.

reguł korespondencji C,

które są zdaniami mieszanymi: zawierają terminy zarówno obserwacyjne,
jak i teoretyczne. Jak to ujmuje Carnap [1956], bez reguł korespondencji T

T

jest teorią w sensie metamatematycznym. Natomiast reguły korespondencji
C

umożliwiają wyprowadzanie ze zdań L

T

(w szczególności twierdzeń teorii

T

T

) i przesłanek z L

o

, np. sprawozdań z wyników obserwacji, wniosków z L

o

, tj.

przewidywań na temat obserwowalnych zdarzeń lub na temat
prawdopodobieństwa zajścia pewnych obserwowalnych zdarzeń.

Ta zawiła konstrukcja, która ewoluowała w czasie, miała służyć m.in.

objaśnieniu, w jaki sposób potwierdzenie zdań teoretycznych redukuje się
(sprowadza się) do potwierdzenia zdań obserwacyjnych. Jak stwierdziliśmy w
I.2 i I.3, ani koncepcja stopniowalnego potwierdzenia praw nauki, ani

3 Do ukształtowania się poglądu otrzymanego przyczynili się głównie Carnap, Hempel i

Ernest Nagel.
4

Język jest pierwszego rzędu, gdy pod kwantyfikatorem mogą występować tylko zmienne

indywiduowe, a nie predykat

y. Np. można w nim powiedzieć, że ktoś, nie wiadomo kto, ma

własność taką-a-taką – (

x)[p(x

)] – ale nie, że ten-a-ten ma jakąś, nie wiadomo jaką

własność – (

x)[x(a)].

background image

Adam Grobler, O metodzie i strukturze nauki 98

rozróżnienie obserwacyjne-teoretyczne nie nadają się dziś do przyjęcia. W
związku z tym powyższa koncepcja teorii naukowej jest zdeaktualizowana.
Niemniej niektóre kwestie powstałe przy okazji około-30-letniej wojny o
rozwiązanie problemu redukcji terminów/zdań teoretycznych do
obserwacyjnych są dogodnym punktem wyjścia do omówienia wciąż
aktualnych, a może nawet ponadczasowych zagadnień metodologicznych.
Parafrazując Whiteheada, który powiedział kiedyś, że cała filozofia jest
zbiorem przypisów do Platona, można zaryzykować twierdzenie, że cała
metodologia jest zbiorem przypisów do empiryzmu logicznego. W
koncepcjach koroboracji, postępowości naukowych programów badawczych,
wnioskowania do najlepszego wyjaśnienia tkwi jednak, choćby i mocno
przekształcony, motyw względnego potwierdzania. I choć teza o
uteoretyzowaniu obserwacji od około 40 lat należy do metodologicznego
katechizmu, wciąż można utrzymywać namiastki rozróżnienia obserwacyjne-
teoretyczne, ponieważ terminy naukowe są uteoretyzowane w rozmaity
sposób.

II.2. Problem redukcji terminów te

oretycznych a definiowanie

pojęć

Redukcja terminów teoretycznych języka do terminów obserwacyjnych

ma pełnić w teorii naukowej rolę analogiczną do definiowania terminów

(pojęć) za pomocą niewielkiej liczby terminów (pojęć) pierwotnych w

matematyce. Ma ono na celu objaśnienia znaczenia pojęć danej teorii za

pomocą pojęć pierwotnych, których znaczenie przyjmuje się jako zrozumiałe

bez definicji

5

. Przykładami pojęć pierwotnych w matematyce są pojęcia

punktu, prostej, płaszczyzny, odległości, liczby, dodawania, zbioru, należenia

do zbioru

6

. Podobnie, redukcja terminów teoretycznych do obserwacyjnych

ma objaśnić ich treść (empiryczną) za pomocą treści (znaczenia) terminów

obserwacyjnych. Znaczenie tych ostatnich przyjmuje się za zrozumiałe

5

Stosunek między terminem a pojęciem polega na tym, że termin jest nazwą pojęcia, czyli

po prostu wyrazem języka. Pojęcie ma pewną treść (intensję), która charakteryzuje
desygnaty pojęcia, tj. przedmioty, do których to pojęcie się odnosi. Zbiór desygnatów

pojęcia nazywa się jego zakresem (ekstensją).
6

Wybór pojęć pierwotnych jest konwencjonalny. Np. za pomocą pojęć zbioru i należenia do

zbior

u można zdefiniować pojęcie elementu zbioru. Alternatywnie można przyjąć pojęcie

elementu zbioru jako pierwotne, a pojęcie należenia do zbioru jako zdefiniowane za pomocą
pojęć zbioru i elementu zbioru.

background image

Adam Grobler, O metodzie i strukturze nauki 99

dzięki np. ostensji czyli pokazania palcem lub czegoś w tym rodzaju.

Ze

względu na to funkcjonalne podobieństwo redukcji i definiowania

nasuwa się pytanie, czy terminów teoretycznych nie można po prostu

zdefiniować za pomocą terminów obserwacyjnych. Zanim na nie

odpowiemy, wypada nieco bliżej scharakteryzować pojęcie definicji.

Definicje stosowan

e w matematyce są definicjami równościowymi.

Składają się z definiendum, tj. definiowanego terminu, definiensa, tj. wyrażenia,

które objaśnia treść pojęcia oznaczonego terminem definiowanym, oraz spójki

definicyjnej

, która łączy definiendum z definiensem. Nazwa “równościowe”

pochodzi stąd, że w roli spójki definicyjnej występują wyrażenia

oznaczające równość: “jest (to)”, “nazywa się”, “znaczy (to samo, co)” itp.

Np. “Kwadratem nazywa się czworokąt , którego wszystkie boki są równe

i wszystkie kąty są równe”. Definiens definicji równościowej podaje warunek

konieczny i

wystarczający przynależności do zakresu definiendum, co widać

wyraźnie, gdy definicję sformułować np. “Czworokąt jest (nazywa się)

kwadratem wtedy i tylko wtedy, gdy wszystkie jego boki są równe i wszystkie

jego kąty są równe”. Dzięki temu definicje są nietwórcze, tzn. włączenie

definicj

i do teorii nie wprowadza do niej żadnego nowego twierdzenia, które

nie byłoby logicznie równoważne z twierdzeniem już w niej obecnym. Z tego

względu definicje pełnią w teorii rolę podobną do aksjomatów, tzn. można je w

dowolnym miejscu dopisywać do dowodu (zob. II.1.).

Niektóre terminy trudno zdefiniować wprost i dlatego definiuje się je

kontekstowo

, podając w definiensie zamiast znaczenia samego terminu,

znaczenie dłuższego zwrotu, w którym ten termin występuje. Np.

“Logarytmem o podstawie a, gdzie a > 0 i a

1, z liczby dodatniej b

nazywa się

liczba c taka, że a

c

= b”. Szczególnym, i

interesującym, przypadkiem definicji

kontekstowej jest definicja przez abstrakcję. Ma ona formę zdania, które

mówi, że dwa przedmioty mają tą samą, taką-a-taką własność wtedy i

tylko wtedy, gdy pozostają do siebie w pewnej relacji

background image

Adam Grobler, O metodzie i strukturze nauki 100

równoważnościowej

7

. Symbolicznie: [p(x)

p(y)]

xRy. Np. gdy p

oznacza

pewien kierunek a R relację równoległości, otrzymujemy kontekstową

(przez abstrakcję) definicję kierunku: “Dwie proste mają ten sam kierunek

wtedy i tylko wtedy, gdy są równoległe”.

W wielu przypadkach, g

dy trzeba zdefiniować pojęcie o nieskończonym

zakresie, do którego należą różnorodne przedmioty, najlepiej nadaje się do

tego definicja rekurencyjna (indukcyjna). Składa się ona z warunku

wyjściowego, który definiuje to pojęcie wprost dla jakiegoś jednorodnego

zbioru przedmiotów, i warunku indukcyjnego, który podaje przepis, jak

rozszerzyć tę definicję na inne przedmioty wychodząc od warunku

wyjściowego. Przykładem może być definicja formuły poprawnie

zbudowanej języka rachunku predykatów pierwszego rzędu: “(i) p(x

1

, …, x

n

),

gdy p jest predykatem n-argumentowym, n

N

, jest formułą poprawnie zbudowaną;

(ii) gdy A i B są formułami poprawnie zbudowanymi, to A

B, A

B, A

B,

A

B,

¬

A,

xA,

xA

są formułami poprawnie zbudowanymi”.

Mówi się też niekiedy, że pojęcia pierwotne teorii też są w pewien

sposób zdefiniowane, mianowicie za pomocą definicji przez postulaty.

Znaczy to, że aksjomaty teorii razem wzięte kontekstowo określają

znaczenie pojęć pierwotnych. Przykładem stosowanym w tej książce jest

pojęcie prawdopodobieństwa (zob. I.2).

Oczywiście definicji używa się nie tylko w matematyce, ale wszędzie

tam, gdzie nieostrość albo wieloznaczność pojęć może być kłopotliwa.

Może być np. źródłem błędu ekwiwokacji, który polega na użyciu w

przesłankach rozumowania tego samego terminu w różnych znaczeniach,

co często prowadzi do dziwacznych wniosków. Dowiedziawszy się., że

Demokryt był pierwszym w dziejach materialistą można wywnioskować

np., że Demokryt był pierwszym, dla którego liczyły się tylko pieniądze.

B

rak ścisłej definicji może powodować jałowe, czysto werbalne spory. Np.

7 Relacj

a R nazywa się równoważnościowa wtedy i tylko wtedy, gdy jest (i) zwrotna, (ii) symetryczna

i (iii) przechodnia, tj. dla dowolnych x, y, z (i) xRx, (ii) xRy

yRx, (iii) xRy

yRz

xRz.

Np. relacja

równoległości prostych albo przystawania figur.

background image

Adam Grobler, O metodzie i strukturze nauki 101

czy Demokryt rzeczywiście był pierwszym materialistą, czy może był nim

już Tales. Zdefiniowaliśmy do tej pory wiele pojęć, nawet jeśli rzadko

opatrywaliśmy definicję stosowną etykietką, i wiele pojęć w dalszym ciągu

zdefiniujemy, także i tych, którymi do tej pory posługiwaliśmy się bez

wyraźnej definicji.

Definicje dzielą się na sprawozdawcze, projektujące i regulujące.

Definicje sprawozdawcze mają na celu zdać sprawę ze znaczenia, w jakim

faktycznie danego słowa się używa. Spotykamy je główne w słownikach.

Np. “Teoria = pomysł lub zespół pomysłów, który ma na celu wyjaśnienie

czegoś na temat życia lub świata, zwłaszcza taki, którego prawdziwości

dotąd nie udowodniono

8

. W nauce, a już szczególnie w matematyce,

przeważają definicje projektujące, które wprowadzają nowy termin

i ustalają jego znaczenie. Definicje regulujące mają pośredni charakter:

modyfikują potoczne znaczenie (lub jedno z kilku potocznych znaczeń)

danego słowa po to, by jego znaczenie uściślić i dostować do celów danej

dyscypliny. Taki charakter ma np. nasza definicja teorii, która na użytek

naszych rozważań wyklucza z zakresu tego pojęcia teorię debiutów

szachowych

9

, przymusów brydżowych

10

, teorię wiecznych powrotów,

spiskową teorię dziejów itp.

Definicje sprawozdawcze są błędne, gdy są nieadekwatne, tzn.

niedokładnie określają znaczenie danego pojęcia. Przytoczona ze słownika

Longmana definicja teorii jest nieadekwatna, bo nie stosuje się do teorii

debiutów szachowych ani przymusów brydżowych. Definicje projektujące i

regulujące nie mogą być w ten sposób błędne: ustalają one znaczenie

danego terminu na zasadzie podobnej do aktu chrztu. Utworzenie nowego

pojęcia i wybór nazwy dla niego nie jest zupełnie dowolnym kaprysem, ale

też nie ma sensu pytanie, czy termin, o którym mowa, naprawdę znaczy

to, co ma znaczyć. Podobnie jak wybierając imię dla dziecka można

8

Według Longman Dictionary of Contemporary English.

9 Debiutem nazywa się początkowa faza gry, którą kończy rozwinięcie wszystkich figur.
10 Gracz jest w przymusie, gdy

dowolna jego zrzutka wyrabia przeciwnikowi lewę.

background image

Adam Grobler, O metodzie i strukturze nauki 102

kierować się np. tradycjami rodzinnymi, ale nie ma sensu pytać, czy Jan

naprawdę jest Janem.

Niemniej definicje pr

ojektujące i regulujące muszą spełniać pewne kryteria

poprawności. Definicje muszą np. być niesprzeczne. Gdyby np. w przed

chwilą przytoczonej definicji logarytmu pominąć warunek a

1, to

zastosowanie definiensa do znalezienia log

1

1 daje różne wyniki. Jednym z typowych

błędów definiowania jest ignotum per ignotum (nieznane przez nieznane), który polega

na zastosowaniu w definiensie

niezdefiniowanego terminu. Dla przykładu weźmy

popularną w pewnych kręgach definicję matematyki: (i) “Matematyką jest

to, czym zajmują się matematycy do późna w nocy”. Gwoli poprawności,

trzeba zdefiniować termin “matematyk”. Gdyby jednak definiować

zdaniem: “Matematykiem jest ten, kto zajmuje się matematyką do późna

w nocy”, popełnilibyśmy inny błąd zwany błędnym kołem

11

: definic

ja

matematyka musi być niezależna od pojęcia matematyki. Ogólnie: definiens

żadnego terminu nie może zawierać terminów zdefiniowanych za jego

pomocą. Nie może też zawierać samego definiendum, jak np. (ii)

“Matematykiem jest ten, kogo inni matematycy uważają za matematyka”.

Żeby uniknąć błędnego koła, trzeba stosować hierarchiczny układ definicji:

w definiensie każdej definicji mogą występować wyłącznie terminy uprzednio

zdefiniowane.

Taka formuła może jednak prowadzić do regresu w nieskończoność:

x

1

defin

iujemy za pomocą x

2

, x

2

za pomocą x

3

, …, x

n

za pomocą x

n+1

itd. jak w

grze, w której gracz odpowiada na nie kończącą się serię pytań “A co to

jest…?” zadawanych przez bardzo młodego kandydata na uczonego.

Regres w nieskończoność przerywa się ustalając zestaw terminów (pojęć)

pierwotnych, które uważa się za zrozumiałe bez definicji lub za

zdefiniowane przez postulaty (za pomocą aksjomatów teorii).

Alternatywnie, za przerwanie regresu można uznać definicję terminu

11

Błędne koło może składać się nie z dwóch definicji, ale i z dłuższego ich ciągu. Polecam

przy

kład z Podróży Czternastej Dzienników gwiazdowych Stanisława Lema.

background image

Adam Grobler, O metodzie i strukturze nauki 103

specjalistycznego za pomocą wyłącznie wyrazów języka potocznego.

Regres może przerywać też gest ostensji (pokazania palcem): “To jest

TO!”. Za pomocą ostensji można też wyrwać się z błędnego koła. Np.

mówiąc (iii) “Matematykiem był Gauss”, czyli pokazując palcem na

przykładowego matematyka, uzupełniamy poprzednie, wadliwe warunki (i)

i (ii) uzyskując poprawną, rekurencyjną definicję matematyki.

Formalna poprawność definicji nie gwarantuje jeszcze jej użyteczności

poznawczej. Definicje służą precyzji wypowiedzi i rozumowania. Ścisłość

jednak nie jest celem samym w sobie. Ważniejsza jest trafność

merytoryczna pojęć. Polega ona na istotności nomologicznej, tj. na

przydatności do formułowania praw. W I.2.5. rozważaliśmy rozróżnienie

predykatów na rzutowalne i nierzutowalne. Oczywiście tylko te pierwsze są

istotne nomologicznie. Szczególnym przypadkiem istotności nomologicznej

jest naturalność terminów klasyfikacyjnych (zob. II.5).

Po omówieniu podstawowych zagadnień związanych z definiowaniem

terminów wróćmy do kwestii redukcji terminów teoretycznych do

obserwacyjnych. Problem, jak powiedziałem wyżej, w swej oryginalnej

wersji jest już zwietrzały: terminów absolutnie obserwacyjnych,

nieuteoretyzowanych, nie ma. Można jednak rozróżnić terminy teoretyczne

ze względu na daną teorię, tj. terminy, których znaczenie jest częściowo

określone przez postulaty teorii, o której mowa, i terminy, które wprawdzie

są uteoretyzowane, ale przez teorie z wiedzy zastanej. Wówczas

ewentualna redukcja terminów teoretycznych do terminów względnie

obserwacyjnych, lub do terminów nieteoretycznych, pozwoli nadać teorii

interpretację “empiryczną”, tj. interpretację uteoretyzowaną tylko przez

teorie wiedzy zastanej. Tzn. pozwoli nie tyle zredukować potwierdzenie

zdań teoretycznych do potwierdzenia zdań obserwacyjnych, ile

sformułować kryteria akceptacji zdań teoretycznych ze względu na

obserwację uteoretyzowaną przez wiedzę zastaną.

Zastanówmy się teraz, czy redukcji terminów teoretycznych do

background image

Adam Grobler, O metodzie i strukturze nauki 104

“obserwacyjnych” – cudzysłów ma nam przypominać o tym, że nie

mówimy o terminach obserwacyjnych w absolutnym sensie – nie da się

dokonać po prostu za pomocą definicji równościowych. Definicje

równościowe są, przypomnijmy sobie, nietwórcze. Gdyby więc terminy

teoretyczne można było zdefiniować za pomocą terminów

“obserwacyjnych”, każde twierdzenie teoretyczne teorii byłoby

równoważne jakiemuś twierdzeniu “obserwacyjnemu”, tj. wyrażonemu bez

użycia terminów charakterystycznych dla danej teorii. Dotyczyłoby to

również jej postulatów teoretycznych, które można byłoby niejako

przełożyć na twierdzenia wyrażone w języku wiedzy zastanej. Terminy

teoretyczne służyłyby w najlepszym razie jako dogodne skróty do

wyrażania twierdzeń, do sformułowania których ani one, ani postulaty

teoretyczne teorii, nie byłyby potrzebne. W ten sposób powstaje tzw.

sformułowany przez Hempla dylemat teoretyka: albo terminy teoretyczne

redukują się do terminów obserwacyjnych i wtedy są bezużyteczne

poznawczo, albo się nie redukują i wtedy nie mają interpretacji

empirycznej i też są bezużyteczne poznawczo.

Koncepcja częściowej interpretacji była próbą rozwiązania dylematu.

Zanim ją omówimy, zatrzymamy się chwilę przy jeszcze innym pomyśle

interpretacji empirycznej.

II.3. Operacjonizm, definicje operacyjne i pojęcie
pomiaru

W poszukiwaniu reguł interpretacji empirycznej teorii wczesny

empiryzm logiczny nawiązał do koncepcji Percy’ego Bridgmana [1927],

zwaną operacjonizmem. Zgodnie z nią pojęcia naukowe są identyczne ze

zbiorami operacji pomiarowych i rachunkowych. Stąd powstała myśl, że

operacje, o których mowa, wyznaczają znaczenie (sens empiryczny)

terminów naukowych. Dzięki temu np. temperaturę można zdefiniować za

background image

Adam Grobler, O metodzie i strukturze nauki 105

pomocą operacji służących do pomiaru temperatury. Tego rodzaju

definicje, które w definiensie podają operacje, jakie należy wykonać w celu

ustalenia, czy definiendum stosuje się do rozważanego przypadku, nazywają

się definicjami operacyjnymi.

Operacjonistyczne rozwiązanie problemu redukcji terminów

teoretycznych powoduje jednak nieprzezwyciężalne trudności.

Temperaturę można mierzyć termometrem rtęciowym albo alkoholowym.

Z punktu widzenia operacjonizmu różne operacje pomiarowe wyznaczają

różne pojęcia. Mamy więc temperaturę “rtęciową” i temperaturę

“alkoholową”. Gdy mowa zaś np. o temperaturze na powierzchni Słońca,

mamy na myśli jeszcze inną wielkość, bo przecież nie mierzy się jej za

pomocą termometru.

Bridgman nie traktował tej trudności poważnie. Jego zdaniem

przedmiotem nauki są tylko operacje, a nie domniemane “rzeczywiste”

przedmioty, jakości czy wielkości, które te operacje jakoby wykrywają.

Nauka, w jego ujęciu, poszukuje praw łączących te operacje ze sobą.

Mamy więc np. prawo, wedle którego temperatura “rtęciowa” i

temperatura “alkoholowa”, w pewnym zakresie ich zmienności, są sobie

równe. Takie rozszczepienie terminów teoretycznych odbiera im funkcję

systematyzującą doświadczenie, którą przyznawał im empiryzm logiczny,

zgodnie z wcześniejszą tradycją pozytywizmu. W szczególności

operacjonizm nie zdaje należycie sprawy z możliwości odkrycia

nieznanego dotąd sposobu pomiaru.

Skądinąd zgodność wyników uzyskiwanych rozmaitymi metodami

pomiaru nie jest prawidłowością czysto empiryczną, niezależną od teorii.

Samo wyskalowanie termometru, zarówno rtęciowego, jak i alkoholowego

byłoby niemożliwe bez teorii rozszerzalności cieplnej, w której

“temperatura” jest jednym z terminów teoretycznych. Pod względem

zaangażowania teorii zadanie wyskalowania dwóch różnych rodzajów

termometru nie różni się istotnie od zadania wyskalowania dwóch

background image

Adam Grobler, O metodzie i strukturze nauki 106

termometrów tego samego rodzaju.

Sama idea pomiaru jest wysoce teoretyczna. Pol

ega ona na określeniu pewnej

zmiennej albo ustaleniu skali

pomiarowej, czyli homomorfizmu pewnym

aspektem badanej rzeczywistości a pewną strukturą liczbową. Pojęcie

homomorfizmu objaśnię na przykładzie prostej struktury, zwanej strukturą

porządkową. Weźmy pod uwagę parę <Z, S>, gdzie Z jest pewnym zbiorem a

S określoną na tym zbiorze relacją słabego porządku. To znaczy: dla

dowolnych x, y ze zbioru Z zachodzi: (i) xSx, (ii) xSy lub ySx, (iii) jeżeli xSy i ySz, to

xSz

. Określmy teraz taką funkcję f: Z

R o dziedzinie Z

i wartościach w

zbiorze liczb rzeczywistych, że jeżeli xSy to f(x)

f(y

). O takiej funkcji f

mówimy, że jest homomorfizmem struktur <Z, S> i <R,

>. Wyrażając się

mniej uczenie, można powiedzieć, że relacja S zachowuje się w zbiorze Z

podob

nie do relacji słabej nierówności w zbiorze liczb rzeczywistych, i że

funkcja f przyporządkowuje elementom zbioru Z liczby w sposób, który to

podobieństwo między relacjami zachowuje.

Funkcja f określa tzw. skalę porządkową, dzięki której można

porównywać elementy zbioru Z ze względu na stopień nasilenia jakiejś cechy –

zmiennej porządkowej

12

. Przykładem może jakość zdania egzaminu:

studenci zdają egzamin lepiej lub gorzej i tę jakość mierzy się skalą ocen,

zazwyczaj od 2 do 5. Zauważmy, że jeżeli istnieje jakiś homomorfizm f

między strukturami <Z, S> i <R,

>, to istnieje ich więcej. Jeżeli bowiem

złożymy homomorfizm f z dowolną funkcją rosnącą g, np. g(x) = 2x-3,

otrzymamy funkcję h = gf, tj. h(x) = g(f(x)) = 2f(x)-3, która jest również

homorfizmem tych struktur. W naszym przykładzie otrzymalibyśmy skalę

ocen od 1 do 7, dlaczego nie? Gdy g będzie funkcją malejącą, złożenie h =

gf jest homomorfizmem struktur <Z, S> i <R,

>, która jest również

odpowiednią skalą pomiarową. Ostatecznie skala ocen, w której 1 jest

oceną bardzo dobrą a 7 niedostateczną (wówczas g(x) = 11-2x) jest równie

12

W literaturze często skalę utożsamia się ze zmienną. Ja wolę zachować potoczne

pojęcie skali i mówić, że tę samą zmienną można mierzyć według różnej skali.

background image

Adam Grobler, O metodzie i strukturze nauki 107

dobra, jak każda inna. W związku z tym mówimy, że zmienne porządkowe

są niezmiennicze ze względu na przekształcenia monotoniczne,

tzn.dowolne przekształcenie monotoniczne przekształca skalę porządkową

na skalę porządkową.

Skale porządkowe są stosunkowo mało czułe. Nie pozwalają na

określenie jednostki nasilenia danej cechy czyli na porównania pod

względem różnicy nasilenia danej cechy. W powszechnie stosowanej skali

ocen egzaminacyjnych różnica między oceną dobrą a dostateczną oraz

dostateczną a niedostateczną jest taka sama, co nie odzwierciedla wcale

wielkości różnicy jakości zdanych na te oceny egzaminów. Inaczej jest np.

z temperaturą, gdzie można sensownie mówić o tym, że np. różnica

temperatury powietrza o godzinie 8 rano i 12 w południe przez kilka dni

była taka sama. Tego rodzaju zmienna nazywa się zmienną interwałową.

Odpowiednia dla niej skala ma postać homomorfizmu f między strukturami

<Z, S

1

, S

2

> a <R, T

1

, T

2

>, czyli fu

nkcji o tej własności, że dla każdego x, y ze zbioru

Z

jeżeli xS

i

y, to f(x)T

i

f(y), i = 1, 2, gdzie T

1

jest relacją słabej nierówności (

lub

),

a T

2

jest relacją jednakowej różnicy określonej na zbiorze par liczb: <a,

b>T

2

<c, d>

b-a = d-c

. Każda zmienna interwałowa jest zmienną

porządkową, bo homomorfizm struktur <Z, S

1

, S

2

> i <R, T

1

, T

2

> jest zarazem

homomorfizmem struktur <Z, S

1

> i <R, T

1

>, ale nie na odwrót. Zmienne

interwałowe są niezmiennicze ze względu na przekształcenia liniowe, tj.

przekształcenia określone wzorem: y = A x+B. Taki właśnie związek

zachodzi między różnymi skalami temperatury: Celsjusza, Fahrenheita,

Kelvina i in.

Są skale jeszcze mocniejsze, które pozwalają na porównania nasilenia

jakiejś cechy nie tylko pod względem różnicy, lecz także pod względem

ilorazu, tzn. pozwalają sensownie mówić, ile razy nasilenie danej cechy w

jednym obiekcie jest większe niż w innym. Przykładem jest masa. Tego

rodzaju zmienne nazywają się ilorazowymi. Ich skale są homomorfizmami

background image

Adam Grobler, O metodzie i strukturze nauki 108

struktur <Z, S

1

, S

2,

S

3

> i <R, T

1

, T

2

, T

3

>, gdzie T

1

i T

2

są takie, jak poprzednio, a T

3

jest relacją proporcjonalności: <a, b>T

3

<c, d>

b/a = d/c

. Każda zmienna

ilorazowa jest zmienną interwałową, ale nie na odwrót. Zmienne ilorazowe

są niezmiennicze ze względu na przekształcenia podobieństwa, tj.

przekształcenia określone wzorem: y = A x. Taki właśnie związek zachodzi

między masami mierzonymi w kilogramach, gramach, funtach lub innych

jednostkach.

Z drugiej strony można wyróżnić bardzo proste zmienne, niezmiennicze

jedynie na przekształcenia różnowartościowe: x

1

x

2

y

1

= f(x

1

)

f(x

2

) = y

2

.

Ich skale są homomorfizmami struktur <Z, S> i <R, T>, gdzie T jest relacją

“różne od” (

). Takie zmienne nazywają się nominalne albo jakościowe,

ponieważ zamiast reprezentacji liczbowej można z równym pożytkiem użyć

jakiejkolwiek innej reprezentacji symbolicznej. Wyróżniając ten rodzaj

zmiennych można operacje polegające na wykrywaniu określonej jakości,

np. kwasowości za pomocą papierka lakmusowego, potraktować jako

szczególny przypadek pomiaru.

Powyższy przegląd rodzajów zmiennych pozwala do wcześniej

wspomnianego argumentu przeciw operacjonizmowi dołączyć kolejny:

struktura matematyczna zmiennej nadaje sens zdaniom, w których

występują wartości tej zmiennej spoza zakresu stosowalności znanych

operacji. I bez tego argumentu empiryści logiczni doszli do wniosku, że

operacje pomiarowe nie określają w pełni sensu żadnego terminu

teoretycznego. To też było motywem powstania koncepcji definicji

częściowych i częściowej interpretacji.

background image

Adam Grobler, O metodzie i strukturze nauki 109

II

.4. Definicje częściowe

Carnap [1936/37] przeprowadził analizę terminów dyspozycyjnych, tj.

wyrażających własności dyspozycyjne. Są to takie własności, które rzecz

przejawia w ściśle określonych okolicznościach, własności polegające na

dyspozycji, czyli skłonności rzeczy do zachowywania się w określony

sposób w określonych warunkach, do reagowania na określone warunki.

Wynikiem analizy była koncepcja definicji częściowych za pomocą tzw.

łańcuchów redukcyjnych.

Zdaniem redukcyjnym nazwał Carnap zdanie postaci następującej:

(

x){p(x)

[q(x)

r(x)]}

Zdanie to częściowo definiuje predykat r za pomocą predykatów p i q.

Głosi ono bowiem, że o przedmiocie x będziemy mówić, że ma własność r,

gdy znalazłszy się w warunkach p zachowa się w sposób q. Definicja ta jest

częściowa, ponieważ nic nie mówi na temat posiadania własności r przez

przedmioty, które nie znalazły się nigdy w warunkach p, albo znalazłszy się

w nich, zachowały się w sposób inny niż q. Np. niech p = “zanurzony w

wodzie”, q = “rozpuszcza się”, r = “rozpuszczalny”. Wówczas powyższe

zdanie redukcyjne częściowo definiuje własność dyspozycyjną

rozpuszczalności mówiąc, że gdy przedmiot x zostanie zanurzony w wodzie

i następnie będzie się rozpuszczał, to jest rozpuszczalny. Zdanie to jednak

nic nie mówi na temat ewentualnej rozpuszczalności przedmiotów nigdy

nie zanurzonych w wodzie, ani takich, które zanurzone w wodzie nie

rozpuszczają się.

Gdy do powyższego zdania dołączymy odpowiednie zdanie dla

¬

r:

(

x){s(x)

[t(x)

¬

r(x)]}

background image

Adam Grobler, O metodzie i strukturze nauki 110

otrzymamy tzw.

parę redukcyjną dla predykatu r. Para redukcyjna mówi, w

jakich okolicznościach przedmiotowi x można przypisać własność

dyspozycyjną r, a w jakich można mu jej odmówić. Para redukcyjna jest

częściową definicją predykatu r, ponieważ pozwala rozstrzygnąć, czy

przedmiot x

ma własność r, czy jej nie ma, tylko wtedy, gdy spełniony jest

warunek: [p(x)

q(x)]

[s(x)

t(x

)]. Dopełnienie tego warunku nazywa się

obszarem nieokreśloności predykatu r, ponieważ dla x, które tego warunku

nie spełniają, kwestia posiadania lub nie posiadania przez nie własności r

pozostaje nieokreślona.

W szczególnym przypadku, gdy s = p i t =

¬

q otrzymujemy tzw. zdanie dwustronnie

redukcyjne

(

x){p(x)

[q(x)

r(x)]}.

W przykładzie z rozpuszczalnością mówi ono, że gdy przedmiot x zostanie

zanurzony w wodzie, jest rozpuszczalny wtedy i tylko wtedy, gdy się

rozpuszcza. Znowu, to zdanie jest częściową definicją rozpuszczalności,

pozwala bowiem rozstrzygnąć, czy przedmiot x jest rozpuszczalny, czy nie, tylko

wtedy, gdy zostanie on zanurzony w wodzie.

Para redukcyjna (lub zdanie obustronnie redukcyjne), w której r jest

terminem teoretycznym a p, q, s i t terminami obserwacyjnymi, dostarcza

częściowej interpretacji empirycznej terminu r. Gdy któryś z terminów p, q,

s, t jest terminem teoretycznym, to gdy do pary redukcyjnej dla terminu r

dołączymy taką parę redukcyjną dla tego terminu, że poza nim pozostałe

terminy w niej występujące są obserwacyjne, otrzymamy dwustopniową

częściową redukcję r do terminów obserwacyjnych. Gdy i w tej drugiej

parze redukcyjnej nie wszystkie terminy “częściowego definiensa” są

obserwacyjne, możemy dołączyć kolejną parę redukcyjną itd. aż

otrzymamy, po skończonej liczbie kroków, tzw. łańcuch redukcyjny, który

background image

Adam Grobler, O metodzie i strukturze nauki 111

ostatecznie dostarcza częściowej interpretacji terminu r.

Obszar nieokreśloności terminu r można zmniejszać, wprowadzając

kolejne pary redukcyjne, które wszakże muszą spełniać warunek, że nie

prowadzą do rozstrzygnięć sprzecznych z rozstrzygnięciami

dokonywanymi na podstawie dotychczasowych par redukcyjnych. W miarę

postępu nauki obszar nieokreśloności terminów teoretycznych powinien

się systematycznie zmniejszać. W szczególności, przykładowe zdanie

obustronnie redukcyjne, częściowo definiujące rozpuszczalność, ma

kłopotliwie rozległy obszar nieokreśloności. Jak zauważył Carnap, jeżeli

wyciągniemy z fabrycznie nowego pudełka zapałek, potrzemy ją i

doszczętnie spalimy, nie będziemy mogli orzec na podstawie zdania, o

którym mowa, czy była ona rozpuszczalna, czy nie. Problem można

rozwiązać uzupełniając przykładowe zdanie redukcyjne warunkiem, wedle

którego każde dwa ciała o jednakowej strukturze chemicznej są bądź oba

rozpuszczalne, bądź oba nierozpuszczalne. Na tej podstawie próba

rozpuszczenia jednej zapałki rozstrzyga kwestię rozpuszczalności

wszystkich (podobnych do niej) zapałek świata.

Carnap [1956] zadanie dostarczenia częściowej interpretacji

teoretycznej części teorii powierza regułom korespondencji (zob. II.2), nie

przesądzając ich ogólnej formy. Z tego punktu widzenia łańcuchy

redukcyjne są szczególnym przypadkiem reguł korespondencji. Koncepcja

częściowej interpretacji ostatecznie upadła m.in. na skutek niejasnego

statusu reguł korespondencji. Jeżeli należą one do teorii, to każda zmiana

reguł korespondencji, np. wprowadzenie nowej pary redukcyjnej w celu

zmniejszenia obszaru nieokreśloności jakiegoś terminu, jest zmianą teorii:

przysparza jej nowych twierdzeń. Jeżeli zaś reguły korespondencji nie

należą do teorii, to zdania teoretyczne są pozbawione jakiejkolwiek, nawet

częściowej interpretacji. Ta trudność oczywiście nie odbiera definicjom

częściowym użyteczności do mniej ambitnych zastosowań, np. do

określania znaczenia terminów nieostrych, a mimo to ważnych. Skądinąd

background image

Adam Grobler, O metodzie i strukturze nauki 112

problem interpretacji empirycznej teorii, zgodnie z tym, co mówiłem

wcześniej, nie został unieważniony przez odrzucenie absolutnego

rozróżnienia obserwacyjne-teoretyczne. Może, i powinien, zostać

przekształcony przy założeniu względnego rozróżnienia na “obserwacyjne”

i teoretyczne. Rozwiązanie w postaci dynamicznej koncepcji teorii

naszkicowałem w [Grobler 1993]. Zanim je tutaj streszczę, dokończę wątek

definicji i omówię pojęcie prawa.

II.5. Terminy klasyfikacyjne i typologiczne

Terminy klasyfikacyjne odgrywają szczególną rolę w teoriach.

Klasyfikacją nazywa się wyczerpujący i rozłączny podział zbioru

przedmiotów pewnej dziedziny, tzn. podział zbioru Z na podzbiory (klasy) K

1

, …,

K

n

taki, że Z = K

1

K

n

oraz K

i

K

j

=

, i, j = 1, …, n, i

j

. W wyniku takiego

podziału każdy element zbioru Z należy do dokładnie jednej klasy spośród

K

1

, …, K

n

. Gdy na zbiorze Z

są określone jakieś zmienne, klasyfikację można

zdefiniować zaliczając do każdej klasy te i tylko te elementy zbioru Z, dla

których określone zmienne przybierają określone wartości. Przykładem

może być klasyfikacja pierwiastków chemicznych na metale, niemetale i

półmetale, w zależności od ich własności chemicznych: połyskliwości,

przewodności cieplnej i elektrycznej, tendencji do oddawania lub

przyłączania elektronów itd. Na tym samym zbiorze można określić więcej

niż jedną klasyfikację. Pierwiastki chemiczne można klasyfikować np. na

grupy. Są też klasyfikacje hierarchiczne, polegające na podziale klas na

podklasy: K

i

= K

i1

K

ip(i)

oraz K

ij

K

ik

=

, i = 1, …, n, ij, …, ik = 1, …p(i), ij

ik

.

Podklasy moga się dzielić na kolejne podpodklasy itd. Przykładem może

być systematyka zwierząt, w której typy dzielą się na podtypy, te na

gromady, które następnie dzielą się na podgromady, a dalej na rzędy,

background image

Adam Grobler, O metodzie i strukturze nauki 113

rodziny, rodzaje, gatunki itd.

Klasyfikacje są użyteczne poznawczo jeżeli są podporządkowane jakimś

zasadom teoretycznym. Np. gdy zachowanie elementów tej samej klasy

wykazuje podobne prawidłowości czyli gdy odpowiednie terminy

klasyfikacyjne są istotne nomologicznie, tj. nadają się formułowania praw.

Przebrzmiała, arystotelesowska klasyfikacja ciał na podksiężycowe

i nadksiężycowe opierała się na teorii, wedle której pierwsze poruszają się

ruchem naturalnym w dół, zaś drugie idealnym ruchem okrężnym.

Zakwalifikowanie ciepła jako formy energii było podyktowane

użytecznością zasady zachowania energii. Oparta na morfologicznych

podobieństwach organizmów systematyka Linneusza (1707-78)

zdeaktualizowała się, gdy podstawą klasyfikacji w biologii stała się teoria

ewolucji i hipotetyczne scenariusze ewolucyjne. Klasyfikacyjne pojęcie

k

wasu podlegało licznym rewizjom w miarę wzrostu wiedzy na temat

reakcji chemicznych.

Niekiedy od klasyfikacji bardziej użyteczne są typologie. Jest tak wtedy,

gdy teoretycznie interesujące zachowanie elementów dziedziny

przedmiotowej zależy od wielu zmiennych, zwłaszcza porządkowych, w

sposób, który nie daje się ująć za pomocą warunków koniecznych

i wystarczających. Np. klasyfikacja osiedli ludzkich na wielkie miasta,

miasteczka i wsie ze względu na liczbę mieszkańców nie byłby specjalnie

pouczający. Ważne są również inne zmienne: struktura zatrudnienia, styl

życia mieszkańców itd.. które niekoniecznie są współzmiennicze: pewne

osiedla mogą pod jednymi względami mieć charakter wielkomiejski, pod

innymi małomiasteczkowy. Typologia zatem nie dzieli dziedziny

przedmiotowej w sposób wyczerpujący i rozłączny. Pewne elementy

dziedziny wykazują cechy mieszane i nie da się ich zaliczyć do żadnego

typu. Inne można zaliczyć do pewnego typu na tej podstawie, że wykazują

tyle cech charakterystycznych dla niego, i w takim stopniu, że brak innych

cech “typowych” jest nieistotny ze względu na potrzeby teoretyczne. Gdy

background image

Adam Grobler, O metodzie i strukturze nauki 114

np. rozważamy typy antropologiczne w związku z teorią migracji ludności,

liczy się stopień podobieństwa do wzorca, a nie spełnianie kryteriów

określonych na zasadzie “wszystko albo nic”.

Szczególnym przypadkiem typologii jest wyróżnienie typów

krańcowych, charakteryzujących się, odpowiednio, najmniejszymi i

największymi wartościami zmiennych będących podstawą typologii. Np.

podział partii politycznych na prawicowe i lewicowe, według stopnia

przywiązania do wolności gospodarczych – od libertarianizmu do doktryny

państwa opiekuńczego – i stopnia przywiązania do tradycji narodowej, od

nacjonalizmu i ksenofobii do kosmpolityzmu. Większość partii wykazuje

w różnym stopniu jedne cechy bliższe charakterystyce prawicy, inne

bliższe lewicy. Zalicza się je do prawicy lub lewicy w zależności od

rozkładu tych cech i ich nasilenia. Są też partie, które wykazują cechy

silnie prawicowe i silnie lewicowe naraz: np. partie głoszące zarazem

nacjonalizm i interwencjonizm gospodarczy. Inne zajmują stanowisko

umiarkowane, pośrednie w sprawach będących podstawą typologii

i można je określić jako centrowe. Niektóre partie trudno zaliczyć

gdziekolwiek, np. partie “zielonych”.

W wielu

zastosowaniach wyróżnienia się typ przeciętny, określony przez

przeciętne wartości zmiennych będących podstawą typologii, np.

“przeciętny Polak”. Typ przeciętny może być pusty: przypuszczalnie żaden

Polak nie jest przeciętny w tym sensie, że ma zarazem przeciętne dochody,

przeciętny poziom wykształcenia, przeciętną liczbę dzieci, przeciętną

konsumpcję dóbr określonego koszyka itp. Niemniej wyróżnienie takiego

typu ma wysoką wartość informacyjną.

II.6. Pojęcie prawa

W “teoretycznej” części teorii naukowej (w T

T

) odpowiednikiem twierdzeń

background image

Adam Grobler, O metodzie i strukturze nauki 115

i aksjomatów są prawa i postulaty teoretyczne, które również mają

charakter prawa. Można wyróżnić różne rodzaje praw. Są prawa

jednoznaczne, zwane inaczej deterministycznymi, jak np. prawa dynamiki Newtona

13

i

prawa statystyczne

, jak np. prawa dziedziczenia Mendla. Są przyczynowe

prawa następstwa – skutek następuje w czasie po przyczynie – i prawa

współistnienia. Te ostatnie mogą być synchroniczne, przedstawiające

aczasową relację między zmiennymi, np. prawo gazu doskonałego Boyle’a-

Mariotta (PV = T), i diachroniczne

prawa zachowania, np. zasada zachowania

energii. Ta rozmaitość praw mocno utrudnia analizę pojęcia. Można jednak

zaryzykować tezę, że prawo nauki, bez względu na jego rodzaj, jest w

gruncie rzeczy hipotezą uniwersalną, czyli zdaniem postaci (

x)[W(x)

Z(x

)]. Wyraz “hipoteza” znaczy (z greckiego) tyle, co przypuszczenie.

Prawo nauki jest więc przypuszczeniem, domysłem na temat treści prawa

przyrody

, czyli reguły – jednej z wielu – rządzącej zachowaniem przyrody,

występowaniem zjawisk w przyrodzie. Prawa mówią więc

o prawidłowościach zachodzących w przyrodzie.

W przyrodzie mogą jednak występować prawidłowości czysto

przygodne. Weźmy np. zdanie “Wszystkie rzeki w przyrodzie (na

wszystkich planetach, w przeszłości, teraz i w przyszłości) mają długość

nie większą niż 10 000 km”. Nawet gdyby ono było prawdziwe, nie wydaje

się równie odpowiednim kandydatem na prawo jak zdanie “Wszystkie

elektrony mają jednakową, masę równą 9,107

×

10

-28

g”. Aby zdać sprawę z

tej intuicyjnie wyczuwalnej różnicy, niektórzy filozofowie uważają, że

prawa wyrażają prawdy konieczne. Nie jest jednak jasne, jak w tym

kontekście należy rozumieć pojęcie konieczności, które jest mocno

obciążone metafizycznie. Nie wikłając się w tę kwestię, Nelson Goodman

[1954] zaproponował, by za prawa uważać zdania uzasadniające

13

Termin “deterministyczne” jest o tyle niefortunny, że sugeruje, iż prawo przesądza bieg

wydarzeń w świecie. Obecność praw jednoznacznych jednak nie dowodzi w żaden sposób
metafizy

cznej tezy determinizmu, ponieważ – o czym będzie mowa poniżej – wszystkie

prawa zakładają idealizacje i warunek ceteris paribus.

background image

Adam Grobler, O metodzie i strukturze nauki 116

nierzeczywiste okresy warunkowe

14

. Nierzeczywistym okresem warunkowym

nazywa się zdanie postaci “gdyby A, to B”, symbolicznie: A å B. Zdanie (

x)

[W(x)

Z(x)] jest prawem, gdy uzasadnia zdanie W(a) å Z(a

). Np. prawo swobodnego

spadania uzasadnia zdanie “Gdybym upuścił tę szklankę, spadłaby na

podłogę (ruchem jednostajnie przyspieszonym)”.

Kłopot z nierzeczywistymi okresami warunkowymi polega na tym, że

niezbyt dobrze wiadomo, co one znaczą: w jakich warunkach można je

uznać za prawdziwe. Potrzebne jest zatem objaśnienie semantyki

(znaczenia, warunków prawdziwości) gdybania. Musi być ono przy tym

niezależne od pojęcia prawa, inaczej bowiem powstaje błędne koło.

Standardowe ujęcie tej kwestii pochodzi od Davida Lewisa [1973]

15

. W

największym skrócie, A å B jest prawdziwe wtedy i tylko wtedy, gdy w

każdym możliwym świecie wystarczająco podobnym do świata

rzeczywistego, w którym A jest prawdziwe, B jest również prawdziwe. Np.

“Gdyby babka miała wąsy, to by dziadkiem była” jest zdaniem

prawdziwym, gdy w każdym możliwym świecie, dostatecznie podobnym do

świata rzeczywistego, w którym babka ma wąsy, jest ona zarazem

dziadkiem.

Pod adresem tego rodzaju koncepcji można wysunąć szereg zastrzeżeń.

Niektórzy uważają samo pojęcie możliwych światów, pochodzące od

Leibniza (1646-1716), za obciążone podejrzaną metafizyką. Osobiście

uważam je za bardzo pożyteczne w analizie filozoficznej. Moje wątpliwości

budzi natomiast pojęcie podobieństwa. Wydaje mi się, że jest ono zbyt

względne, by można było nadać jednoznaczny sens wyrażeniu “x jest bardziej

podobne do y

niż do z”. Czy świat, w którym jeżdżę teraz na nartach wodnych

jest mniej czy bardziej podobny do świata rzeczywistego (w którym siedzę

przed komputerem, pisząc te słowa) niż świat, w którym siedzę teraz przy

biurku pisząc gęsim piórem i inkaustem?

14

Tłumacze, którzy counterfactual conditionals tłumaczą na “kontrfaktyczne okresy

warunkowe”, nie znają polskiej terminologii gramatycznej.
15

Późniejsze ujęcie Roberta Stalnakera [1984] jest nieco bardziej restryktywne.

background image

Adam Grobler, O metodzie i strukturze nauki 117

Kolejna trudność analizy możliwoświatowej powstaje, gdy wziąć pod

uwagę fakt, że w poprzedniku praw, W(x), często mowa jest o warunkach,

które nigdy w przyrodzie nie są realizowane. Np. zasada bezwładności

mówi: “(Każde) ciało, na które (jeżeli) nie działa żadna siła, porusza się

ruchem jednostajnym prostoliniowym”. Wydaje się, że nie ma w przyrodzie

ciał, na które nie działa żadna siła. Być może w żadnym możliwym świecie

nie ma takiego ciała. W takim przypadku nierzeczywisty okres warunkowy

“Gdyby na to-a-to ciało nie działała żadna siła, to poruszałoby się ono

ruchem jednostajnym prostoliniowym” jest, na mocy analizy Lewisa,

trywialnie prawdziwy: “na to-a-to ciało nie działa żadna siła” nie jest

prawdziwe w żadnym możliwym świecie, a więc w każdym możliwym

świecie, w którym to ostatnie zdanie jest prawdziwe, prawdziwe jest

zdanie “porusza się ono ruchem jednostajnym prostoliniowym”. Na tej

samej zasadzie (na zasadzie pustego spełnienia poprzednika implikacji), w

każdym możliwym świecie, w którym prawdziwe jest zdanie “na to-a-to

ciało nie działa żadna siła”, prawdziwe jest dowolne inne zdanie, np.

“porusza się ono w rytmie walca”. Wówczas prawdziwy jest nierzeczywisty

okres warunkowy “Gdyby na to-a-to ciało

nie działała żadna siła, to poruszałoby się ono w rytmie walca”. Okres ten

jest uzasadniony przez “prawo”: “(Każde) ciało, na które (jeżeli) nie działa

żadna siła, porusza się w rytmie walca”.

Wobec tego pa

radoksu przypuszczalnie trzeba zadowolić się

sformułowaniem, iż prawo wyraża pewną prawidłowość. Mimo to nie każda

prawidłowość jest prawidłowością przyrody. Np. zdanie “Zawsze się cieszę,

kiedy cię widzę” może wyrażać absolutnie bezwyjątkową prawidłowość i

ma formę zdania uniwersalnego (

x)[W(x)

Z(x)], gdzie x przebiega zbiór chwil, W

= “ja cię widzę”, Z = “ja się cieszę”, lecz mimo to nie jest dobrą

kandydaturą na prawo przyrody. Dlatego często w literaturze spotyka się

wymóg bezwzględnej uniwersalności zdania kandydującego na to

stanowisko. Powiada on, że takie zdanie musi obowiązywać w każdym

background image

Adam Grobler, O metodzie i strukturze nauki 118

czasie i miejscu oraz nie zawierać nazw własnych ani zaimków

wskazujących. To ograniczenie eliminuje z zasobu praw osobiste

deklaracje w rodzaju wyżej przytoczonej. Niestety eliminuje również np.

prawa Keplera, które wymieniają Słońce po imieniu, albo prawo popytu i

podaży, które działa tylko w gospodarce wolnorynkowej. Problem

rozwiązuje koncepcja wieloodniesienia teorii [Wójcicki 1991]. Powiada ona,

w swobodnym sformułowaniu, że teorie naukowe nie stosują się do “całego

świata”, lecz do wielu układów w świecie wyróżnionych na odrębnych

zasadach.

Przy takim podejściu znowu trudność sprawiają prawa, które

w poprzedniku zakładają warunek nigdy nie urzeczywistniony, jak

wspomniana zasada bezwładności (“ciało, na które nie działa żadna siła”).

O jakiej prawidłowości tu mowa? Czy są prawidłowości, których nie

egzemplifikuje żaden przykładowy przypadek? To pytanie odsyła nas do

zagadnienia idealizacji.

II.7. Idealizacje i warunki ceteris paribus

Prawa nauki mogą uwzględniać tylko skończoną liczbę czynników

mających wpływ na zjawiska, o których mówią. Inaczej w ogóle nie dałyby

się wysłowić. Z tej skończonej liczby mogą uwzględnić tylko niewiele. Tylko

niewiele czynników można kontrolować eksperymentalnie i tylko niewiele

zmiennych da się ująć za pomocą aparatu matematycznego na tyle

poręcznego, żeby stosowne obliczenia były wykonalne. Idealizacja polega

na milczącym założeniu, że czynniki, o których prawo milczy, nie mają

żadnego wpływu na zjawiska, o których prawo mówi. To milczące

założenie można sformułować wyraźnie nadając prawu postać

następującą:

background image

Adam Grobler, O metodzie i strukturze nauki 119

(

x)[W

f

(x)

W

i

(x)

Z(x)]

gdzie W

f

oznacza warunki faktualne, obejmujące czynniki, które mają wpływ

na zachowanie Z, a W

i

oznacza warunki idealizacyjne, wedle których inne

czynniki nie mają na Z wpływu. Gdy Z(x) ma postać równania, W

i

można

przedstawić jako warunek przyrównujący pewne zmienne do zera: W

i

(x)

p

1

(x) = 0

p

n

(x) = 0.

Na przykład prawo swobodnego spadania:

pomija przyrost przyspieszenia w wyniku wzrostu siły ciążenia ziemskiego na skutek
przybliżania się ciała do środka ciężkości Ziemi. Zakłada więc, że h/R = 0, gdzie R oznacza
promień Ziemi. h/R w rzeczywistości jest dodatnie, aczkolwiek niewielkie. W związku z tym
odległość między spadającym ciałem a środkiem Ziemi, siła ciążenia i przyspieszenie

zmieniają się nieznacznie. Kolejną idealizacją jest pominięcie przeciwdziałania siły oporu
powietrza, lokalnych różnic odległości od środka Ziemi z uwagi na położenie geograficzne
i ukształtowanie terenu, siły odśrodkowej pochodzącej od ruchu wirowego Ziemi, siły

przyciągania Księżyca, Słońca, ciśnienia światła itd. itd.

Jak widać, idealizacyjny charakter prawa jest konsekwencją uproszczenia problemu

naukowego. W wyniku idealizacji otrzymujemy prawo wyrażone w bardzo prostej postaci
matematycznej. Zabieg polegający na uchyleniu niektórych założeń idealizacyjnych
nazywa się faktualizacją albo konkretyzacją prawa. To samo prawo może mieć zatem

różne sformułowania: mniej lub bardziej wyidealizowane. Faktualizacja prowadzi do
sformułowania bardziej skomplikowanego pod względem matematycznym, mniej
poręcznego do rachunków. Czasami komplikacje faktualizacji przerastają ewentualne zyski

dokładności. Próba uwzględnienia choćby zmiany odległości spadającego ciała od środka
Ziemi prowadzi do równania różniczkowego o bardzo trudnych do znalezienia

rozwiązaniach. W wielu innych problemach komplikacje matematyczne są wręcz
nieprzezwyciężalne. Nie musimy się jednak nimi przejmować pod warunkiem, że potrafimy
oszacować rząd przybliżenia idealizacyjnego sformułowania prawa i na tej podstawie ustalić
zakres jego użytecznych zastosowań. Nawet tam, gdzie komplikacje matematyczne są do

pokonania, niekoniecznie opłaca się nimi zajmować. W takich przypadkach decyzja o
wyborze między prostotą sformułowania wyidealizowanego a dokładnością sformułowania

skonkretyzowanego zależy od potrzeb praktycznych. Np. gdy chodzi o wystrzelenie sondy
kosmicznej mającej wylądować na Księżycu, można śmiało zaniedbać różnicę między
rozwiązaniami prostych równań fizyki klasycznej i bardziej złożonych równań teorii

względności.

Z powyższego można wyciągnąć wniosek, że istota idealizacji polega na

przybliżeniach (aproksymacji). Kolejne faktualizacje prawa nauki powinny zasadniczo
dawać coraz dokładniejsze przybliżenia prawa przyrody, zbliżają nas do prawdy o świecie.

Standardowym przykładem, który tę tezę sugeruje, jest ciąg kolejnych faktualizacji prawa
Ohma:

V = I

×

R;

V = I

×

R + L

×

dI/dt;

background image

Adam Grobler, O metodzie i strukturze nauki 120

V = I

×

R + L

×

dI/dt + Q/C;

gdzie V

= napięcie na krańcach przewodnika, I = natężenie prądu, R = opór

przewodnika, L

= współczynnik samoindukcji przewodnika, Q = ładunek

elektryczny. C = pojemność elektryczna. Kolejne faktualizacje uchylają

założenia: L = 0 i Q/C = 0.

Rozważany przedtem przykład prawa swobodnego spadania dowodzi,

że wcale nie jest taka prosta. Nawet gdyby dzielnie stawić czoła

trudnościom matematycznym i uwzględnić zmianę odległości ciała w

ruchu od środka Ziemi, poprawka tym sposobem wprowadzona może

jeszcze powiększać błąd wynikający np. z pominięcia geograficznych

różnic promienia Ziemi. Przypuśćmy, że i one zostały wzięte pod uwagę i

rozważmy ewentualną kolejną faktualizację, uwzględnienie siły oporu

powietrza. Jest ona proporcjonalna do prędkości oraz zależy od wielkości

i kształtu ciała. Trzeba więc uchylić jeszcze jedno założenie idealizacyjne,

w myśl których ciała są punktami materialnymi, tzn. zachowują się tak, jak

gdyby cała ich masa była skupiona w ich środku ciężkości, a ich

zachowanie nie zależało od ich wymiarów ani kształtu. Powstają

komplikacje matematyczne, które można pokonać w przypadku kształtów

prostych do opisania, np. kuli lub płaskiej płytki. W związku z tym do

obliczeń uchylających idealizację pomijającą opór powietrza trzeba

zastosować kolejną idealizację upraszczającą opis kształtów spadającego

ciała. Wynikające stąd zniekształcenia opisu ruchu mogą, przy niedużych

prędkościach, prowadzić do większych rozbieżności między

przewidywaniami a faktycznym przebiegiem zjawisk niż pominięcie siły

oporu powietrza w ogóle. Toteż uchylenie kolejnej idealizacji nie musi

wcale poprawiać dokładności przewidywań. Faktualizacja może niekiedy

oddalać od prawdy, zamiast przybliżać do niej

16

. Dlatego w praktyce

współczynnik oporu powietrza dla większości ciał wyznacza się

16

Zwodniczość faktualizacji na przykładach z bardziej zaawansowanej fizyki omawia

Nancy Cartwright [1983].

background image

Adam Grobler, O metodzie i strukturze nauki 121

doświadczalnie.

Prócz idealizacji, prawa nauki zakładają również warunki ceteris paribus

(por. I.5.4), które prawie nigdy nie są spełnione. W naszym przykładzie

warunek ceteris paribus zakłada m.in. brak wiatru o odczuwalnej sile.

Tymczasem nawet drobny, niewyczuwalny wietrzyk, cyrkulacja powietrza

w osłoniętym pomieszczeniu lub ruch przelatującej muchy zakłóca proces

spadania. Warunek ceteris paribus, podobnie jak idealizacja, polega na

pominięciu pewnych oddziaływań i nadaje sformułowaniu prawa charakter

przybliżenia. Warto jednak odróżnić jedno od drugiego, ze względu na ich

odmienności metodologiczne. Idealizacja polega na pominięciu

systematycznych wpływów o których wiadomo na podstawie teorii, jak je

uwzględnić. Siła przyciągania ziemskiego w miarę przybliżania się

spadającego ciała do powierzchni Ziemi rośnie zgodnie z prawem

powszechnego ciążenia. Siła oporu powietrza zmienia się również

w sposób prawopodobny. Natomiast “wiatr wieje, kędy chce” [J, 3, 8], siła

przyciągania ze strony innych ciał zależy od ich przygodnego

rozmieszczenia względem spadającego ciała, ewentualne oddziaływania

magnetyczne (gdy spadające ciało posiada własności magnetyczne) zależą

m.in. od rozmieszczenia rud metali w skorupie ziemskiej itp. Warunek ceteris

paribus

pomija tego rodzaju wpływy, wpływy pochodzące od przygodnych

okoliczności sytuacji zastosowania prawa.

Różnica metodologiczna między idealizacją a warunkami ceteris paribus

przejawia się m.in. w zastosowaniach prawa. Dokładność przewidywań na

podstawie prawa zależy od idealizacji w sposób podlegający dyskusji

teoretycznej. Z góry można oszacować, w jakich zastosowaniach prawa

posłużenie się idealizacją przyniesie pożądane uproszczenie problemu bez

niepożądanych zniekształceń rozwiązania. Dopiero rozbieżności między

przewidywaniami a obserwacją, które przekraczają ustalony teoretycznie

margines błędu, można złożyć na karb naruszenia warunku ceteris paribus,

co może prowadzić do wykrycia nieznanych dotąd oddziaływań. Jak

background image

Adam Grobler, O metodzie i strukturze nauki 122

wspominałem (I.5.4), zastosowanie prawa w ten sposób może

przekształcić jego pozorną falsyfikację w spektakularny sukces

empiryczny.

Różnica między idealizacją a warunkiem ceteris paribus może być nieostra

albo pragmatyczna. Gdy Newton przystępował do wyprowadzania prawa

powszechnego ciążenia z praw Keplera, przyjął na początku idealizację

polegającą na uwzględnieniu jedynie oddziaływania grawitacyjnego

Słońca, z pominięciem oddziaływań planet na Słońce i planet między sobą.

Założenia te uchylił w dalszych swoich badaniach nad mechaniką nieba.

Z drugiej strony, wykrycie anomalii orbity Urana zostało przez Leverriera

potraktowane jako świadectwo naruszenia warunku ceteris paribus, działania

siły przyciągania nieznanej dotąd planety. Tak więc pominięcie działania

grawitacyjnego Neptuna, w zależności od kontekstu badawczego, można

uznać za idealizację lub zaliczyć w skład warunku ceteris paribus. Podstawą

rozróżnienia jest funkcja metodologiczna, jaką w rozpatrywanym

kontekście pełni dane założenie.

Różnica między idealizacją a warunkiem ceteris paribus ujawnia się

również w metodologii eksperymentu. Eksperyment planuje się tak, aby

wpływ czynników idealizacyjnych na jego przebieg ograniczyć do

minimum. Oddziaływania, o których mowa (a raczej niemowa) w warunku

ceteris paribus

, są na ogół nieznane. Usiłuje się je wyeliminować zazwyczaj

przez randomizację (nadanie charakteru losowego, “uprzypadkowienie”)

czynników ubocznych, tj. przez powtarzanie eksperymentu w

zmieniających się warunkach otoczenia (por. eksperyment Périera I.5.4).

Do czynności eksperymentalnych należą również operacje pomiarowe.

Pomiar oczywiście zakłada idealizacje związane z czułością aparatury. Inną

powszechną idealizacją pomiaru jest założenie, że wartość mierzonej

zmiennej jest przez pewien czas stała (przez czas nie krótszy niż czas

dokonywania pomiaru). Np. badanie laboratoryjne poziomu cholesterolu

we krwi zaniedbuje jego naturalne wahania np. po posiłkach. Nie mają one

background image

Adam Grobler, O metodzie i strukturze nauki 123

znaczenia dla diagnozy medycznej

17

. Z kolei warunek ceteris paribus

zakłada

oczywiście, że uboczne oddziaływania nie zakłócają procesu pomiaru.

Różnica między idealizacją a warunkiem ceteris paribus w przypadku pomiaru

rzutuje na metodę oceny błędu pomiarowego. Błąd pochodzący od

idealizacji można oszacować teoretycznie, błąd pochodzący od

domniemanego naruszenia warunku ceteris paribus szacuje się za pomocą

powtarzania pomiaru i analizy statystycznej wyników.

Kontekstualny charakter omawianego rozróżnienia w interpretacji

eksperymentu można zilustrować na przykładzie dyskusji nad

wspomnianym wcześniej efektem Michelsona-Morleya (I.4.2).

Eksperymentatorzy przyjmowali m.in. założenie idealizacyjne, wedle

którego ramiona ich przyrządu są sztywne, nie zmieniają długości w

trakcie obrotu. W rzeczywistości ciał doskonale sztywnych nie ma. W

ramach tej i innych idealizacji mogli potraktować wynik swojego

eksperymentu, jak gdyby był zerowy. Hipoteza skrócenia Lorentza

przeczyła założeniu, że ramiona interferometru są sztywne, zmieniając

zarazem jego status z idealizacyjnego na (niespełnione) ceteris paribus. Głosiła

bowiem, że na ramię prostopadłe do osi obrotu Ziemi działają siły

elektromagnetyczne, nie uwzględnione w pierwotnym planie

eksperymentu. Tym samym na miejsce teoretycznego problemu

oszacowania błędu pomiarowego postawiła nowe problemy

eksperymentalne, np. problem pomiaru zależności oporu elektrycznego od

ułożenia przewodnika względem osi obrotu Ziemi.

Idealizacja przejawia się również w konstruowaniu pojęć, jak np.

wspomnianego przed chwilą pojęcia ciała sztywnego. Idealizacyjny

charakter mają wszystkie pojęcia typologiczne. W tym przypadku

idealizacja polega na traktowaniu pojęć typologicznych jak gdyby były

pojęciami klasyfikacyjnymi.

17

Natomiast

przypadek jednego z moich znajomych, który nieco pośpiesznie poddał się

kuracji, zaniepokojony wynikami badania przeprowadzonego tuż po Świętach

Wielkanocnych, może być przykładem przeoczenia przez niego i jego lekarza, że warunek
ceteris paribus

nie jest spełniony.

background image

Adam Grobler, O metodzie i strukturze nauki 124

Powszechność idealizacji w nauce może sprawiać wrażenie, że jest w

niej coś sztucznego, coś filozoficznie problematycznego, zwłaszcza gdy

idzie o zagadnienie realizmu czyli związku poznania (naukowego) z prawdą

(IV.1). Osobiście sądzę, że jeżeli obecność idealizacji stanowi jakiś

szczególny problem, to w równej mierze dotyczy on poznania potocznego.

Kiedy kupujemy w sklepie 1 kilogram mięsa, nie będziemy składać

reklamacji z powodu braku kilku mikrogramów. Ewentualna różnica nie

wpływa na wysokość należności, a po przyniesieniu zakupów do domu i tak

waga towaru się zmieni na skutek procesów naturalnych (wysychanie).

Podobnie, najsurowsi jurorzy są nieczuli na dobowe wahania wymiarów

kandydatek na Miss Świata, pedanci punktualności nie dbają o sekundy

odjazdu autobusu a nauczyciele języka polskiego obojętnie traktują

indywidualne różnice w wymowie słowa “pięćdziesiąt”.

Naukowe idealizacje różni od potocznych ich teoretyczny charakter.

Ujawnia się on również w sposobie prowadzenia dyskursu naukowego.

Niemal w każdym zaawansowanym podręczniku fizyki można spotkać

“wyprowadzenia” wzorów, które polegają na rozwinięciu jakiejś funkcji

w szereg nieskończony, np. potęgowy, by następnie pominąć wszystkie

jego składniki odpowiednio niskiego rzędu wielkości. Z punktu widzenia

matematyki lub logiki takie zabiegi są nielegalne. W fizyce są na porządku

dziennym. Toteż teorię naukową od matematycznej różni nie tylko to, że

pierwsze muszą mieć jakąś interpretację empiryczną, ale też to, że

twierdzeniami teorii naukowej mogą być nie tylko logiczne konsekwencje

jej aksjomatów, ale również wystarczająco dobre ich przybliżenia. Można

zatem powiedzieć, że samo pojęcie teorii naukowej, ukute na wzór pojęcia

teorii matematycznej, jest idealizacyjnym pojęciem metodologii. W ujęciu

Carnapa zakłada ono m.in. idealizacyjne rozróżnienie terminów na

obserwacyjne i teoretyczne, o czym była mowa w I.3.2. Niektóre z tego rodzaju

idealizacji można uchylić stosując podejście semantyczne do teorii

naukowych.

background image

Adam Grobler, O metodzie i strukturze nauki 125

II.8. Teorie a modele

Trudności ujęcia treści empirycznej teorii naukowej skłoniły niektórych

filozofów do potraktowania teorii jako rodziny modeli. Pojęcie modelu jest

bardzo wieloznaczne. Dla naszych potrzeb wyróżnimy trzy jego znaczenia.

Model symulacyjny

. Jest to zjawisko, które można uczynić przedmiotem

eksperymentów i manipulacji w zastępstwie zjawiska modelowanego,

oryginału, będącego właściwym przedmiotem badania. Możliwość tę oferuje

nam gwarantowane lub postulowane przez teorię, z dokładnością do założeń

idealizacyjnych teorii, podobieństwa lub analogie zachowania modelu i

oryginału pod określonymi, interesującymi względami. Badania modeli

symulacyjnych zamiast badań bezpośrednich prowadzi się ze względów

ekonomicznych lub etycznych. Np. badanie działania pasów bezpieczeństwa,

poduszek powietrznych itp. urządzeń w samochodzie prowadzi się na

manekinach, a nie żywych pasażerach. Badanie wydolności nowych typów

pojazdów prowadzi się najpierw na ich makietach sporządzonych w

pomniejszonej skali, a dopiero gdy te wypadną pomyślnie, wypróbowuje się

prototypy naturalnej wielkości.

Model ikoniczny. Jest to symboliczna r

eprezentacja badanego zjawiska, która

ma charakter podobizny, tzn. niektóre cechy modelu odwzorowują czy

naśladują (z dokładnością do założeń idealizacyjnych) określone cechy

oryginału. Przykładem może być mapa terenu. Podobizna może mieć

charakter mniej lub bardziej dosłowny, co ilustruje różnica między mapą

przestrzenną a mapą płaską z zaznaczonymi poziomicami. Ten sam oryginał

może mieć różne podobizny w zależności od doboru cech będących

przedmiotem zainteresowania. Są np. mapy fizyczne, drogowe, bogactw

mineralnych itd. Granica między modelami symulacyjnymi i ikonicznymi jest

nieostra. Np. programy komputerowe mogą służyć do symulacji bardzo

background image

Adam Grobler, O metodzie i strukturze nauki 126

skomplikowanych zjawisk m.in. procesów atmosferycznych, ewolucji

gatunków biologicznych czy ewolucji społeczeństw ludzkich i zwierzęcych.

Trudno rozstrzygnąć, do którego z tych dwóch typów modeli należy je

zaliczyć: z jednej strony podlegają manipulacji w formie wprowadzania

danych, z drugiej zaś mają charakter symboliczny.

Model metamatematyczny albo semantyczny.

To pojęcie, najbardziej

uteoretyzowane, wymaga definicji krok po kroku. Weźmy pod uwagę pewien

język L, np. monadyczny język rachunku predykatów pierwszego rzędu,

którego alfabet został zdefiniowany w (I.2.2). Interpretacją I języka L

nazywa się takie odwzorowanie (funkcja), która (i) każdej stałej

indywiduowej języka L przyporządkowuje jakiś element pewnego ustalonego

zbioru U, zwanego uniwersum języka L, (ii) każdemu predykatowi języka L

przyporządkowuje pewien podzbiór zbioru U. Punkt (i) polega na nadaniu nazw

przynajmniej niektórym elementom uniwersum. Punkt (ii) polega na

wyróżnieniu w uniwersum podzbiorów tych elementów, o których będziemy

mówić, że mają własność nazwaną za pomocą danego predykatu. Np.

interpretacją języka, w którym jako stałe indywiduowe występują liczebniki i

w którym występują predykaty p = “parzysty”, q = “nieparzysty”, r = “…jest liczbą

pierwszą” itp. może być takie odwzorowanie, które liczebnikom

przyporządkowuje odpowiednie liczby, a predykatom p, q, r odpowiednio zbiory

liczb parzystych, nieparzystych, pierwszych

18

. Ciąg <U, Z

1

, …, Z

n

>, gdzie U

jest

uniwersum języka L a Z

1

, …, Z

n

interpretacjami poszczególnych predykatów

języka L, nazywa się modelem języka L. W naszym przykładzie modelem

jest ciąg złożony ze zbioru liczb naturalnych, zbioru liczb parzystych,

nieparzystych, pierwszych itd. Model języka L można uważać za jeden

z możliwych światów dających się opisać za pomocą języka L.

Pojęcie modelu z łatwością można uogólnić na bogatsze języki, w których

występują predykaty wieloargumentowe i symbole funkcyjne. Interpretacją

predykatu n-argumentowego może być relacja n-argumentowa czyli zbiór n-

18

Możliwe są inne interpretacje, tzw. niestandardowe, np. takie, które predykatowi “parzysty”

przy

porządkowuje zbiór liczb nieparzystych itd.

background image

Adam Grobler, O metodzie i strukturze nauki 127

elementowych ciągów uniwersum. Np. interpretacją predykatu “większa od”

może być zbiór par liczb, z których pierwsza jest większa od drugiej a

interpretacją predykatu “… ma się do … tak, jak … do …” jest zbiór czwórek

liczb takich, że pierwsza ma się do drugiej tak, jak trzecia do czwartej. Zaś

interpretacją symbolu funkcyjnego jest pewna funkcja określona na

uniwersum języka.

Teraz naszk

icuję z grubsza pochodzącą od Tarskiego [1933] definicję

prawdy. Wartościowaniem v nazywamy odwzorowanie, które każdej

zmiennej indywiduowej x języka L przyporządkowuje jakiś element v(x)

uniwersum U

, a każdej stałej indywiduowej a jej interpretację I(a). O wyrażeniu

atomowym (formule atomowej) p(t

1

, …, t

n

), gdzie t

1

, …, t

n

są zmiennymi lub

stałymi

19

, mówimy, że jest spełnione w interpretacji I przy wartościowaniu v,

gdy między elementami v(t

1

), …, v(t

n

) zbioru U

, wziętymi w tym porządku,

zachodzi relacja będąca interpretacją predykatu p. Dalej, wyrażenie

¬

A

jest

spełnione, gdy A nie jest spełnione; A

B

jest spełnione, gdy przynajmniej

jedno z nich jest spełnione; wyrażenie (

x)A

jest spełnione w interpretacji I

przy wartościowaniu v, gdy A jest spełnione w interpretacji I przy jakimś

wartościowaniu w, które różni się od v najwyżej dla x. Uzupełniając te

warunki o definicje: A

B =

¬

(

¬

A

¬

B); A

B =

¬

A

B; A

B = A

B

B

A; (

x)A

= (

x)[

¬

A

]; otrzymamy rekurencyjną (II.2) definicję spełniania dla całego

języka klasycznego rachunku predykatów. Dla ilustracji: gdy interpretacją

“<” jest relacja “mniejsze od”, a interpretacją nazw 1, 2, 3… są odpowiednie

liczby, wyrażenie x < 4 nie jest spełnione dla wartościowania v, gdy v(x) = 5.

Jest natomiast spełnione dla wartościowania w, dla którego w(x) = 3. Dlatego

też wyrażenie (

x)[x

< 4] jest spełnione dla dowolnego wartościowania.

Wreszcie, wyrażenie nazywa się prawdziwe w interpretacji I, gdy jest w tej

interpretacji spełnione dla dowolnego wartościowania.

Teraz już można zdefiniować pojęcie modelu metamatematycznego lub

semantycznego teorii. Modelem teorii T sformułowanej w języku L nazywa

19 Lub funkcjami od nich, gdy w alfabecie

języka L występują również symbole funkcyjne.

background image

Adam Grobler, O metodzie i strukturze nauki 128

się taki model języka L, w którym prawdziwe są wszystkie twierdzenia tej

teorii. Model teorii jest obiektem matematycznym, strukturą złożoną ze

zbioru (uniwersum modelu) i relacji określonych na tym zbiorze

20

. Można go

pojmować jako jeden z możliwych światów, w którym wszystkie twierdzenia

tej teorii są prawdziwe. Dopóki rozpatrujemy teorię w oderwaniu od jej

modeli, czyli teorię niezinterpretowaną lub formalną (II.1), stanowi ona zbiór

zdań domknięty ze względu na operację konsekwencji, zdań pojmowanych

jako ciągi symboli rozpatrywanych w oderwaniu od znaczenia, jakie można

im przypisać. Model teorii dostarcza jej interpretacji, tj. nadaje znaczenie jej

zdaniom. Pojęcie częściowej interpretacji, nad którym biedzili się zwolennicy

“poglądu otrzymanego” miało na celu dostarczenie teorii naukowej

częściowego modelu w postaci obserwowalnej części dziedziny

przedmiotowej teorii. Nieskuteczność ich wysiłków skłoniło część filozofów

do poszukiwań interpretacji semantycznej teorii naukowej na innej drodze.

II.9. Koncepcja niezdaniowa teorii naukowych

Główna idea nawiązuje do programu badań podstaw matematyki

sformułowanego przez grupę Bourbaki. Zgodnie z nim teoria

matematyczna nie jest systemem dedukcyjnym zdań, lecz rodziną

obiektów, tj. modeli albo struktur, w których spełnione są jej aksjomaty.

Przez analogię, Suppe [1989], Suppes [1967], van Fraassen [1970], Giere

[1988] i in., w Polsce m.in. Suszko [1957], Przełęcki [1969], Nowaczyk

[1990] i Wójcicki [1974], proponowali traktować teorię jako rodzinę modeli,

które są, z jednej strony, modelami semantycznymi teorii, z drugiej zaś

modelami ikonicznymi fragmentów rzeczywistości, do których teoria się

stosuje. Co do ogólnej formy modelu między wymienionymi autorami

panują różnice zdań. Niemniej w tzw. ujęciu semantycznym teoria

20 Ewentualnie jeszcze innych zbior

ów, funkcji i działań na elementach zbioru.

background image

Adam Grobler, O metodzie i strukturze nauki 129

naukowa nie składa się z praw, zdań uniwersalnych, które stosują się do

całego świata, ale z modeli pewnych wycinków świata. Treść empiryczną

teorii wyznaczają, po pierwsze, jej modele częściowe, tj. modele okrojone

do “obserwowalnych” zjawisk, oraz wzajemne związki między

poszczególnymi jej modelami. Te bardzo ogólnikowo naszkicowane idee

przedstawię zilustruję na przykładzie najbardziej wpływowej wersji

podejścia semantycznego, tzw. strukturalizmu albo niezdaniowej koncepcji

teorii naukowych, sformułowanej pierwotnie przez Josepha Sneeda [1971]

i rozwijanej następnie przez Wolfganga Stegmüllera [1979] i in.

W ujęciu Sneeda-Stegmüllera podstawowym składnikiem teorii (theory-

element) T jest para <K, I

>, złożona z rdzenia teorii K i zakresu zamierzonych

zastosowań I. K = <M

p

, M

pp

, M, C>, gdzie M

p

jest zbiorem modeli potencjalnych, M

pp

zbiorem częściowych modeli potencjalnych, M zbiorem modeli właściwych

albo naczelnym prawem teorii, C zbiorem powiązań (constraints) między

modelami. Intuicyjnie rzecz biorąc, M

p

jest ogółem logicznie możliwych

światów, w sensie tzw. “małych światów” [Savage], a nie “całych

światów”. Znaczy to m.in. że poszczególne “światy”, elementy M

p

mogą

przecinać się ze sobą. M

pp

jest ogółem “obserwowalnych” “warstw”

możliwych światów, czyli każdy element M

pp

jest podmodelem, “warstwą”

jakiegoś elementu M

p

. M

M

p

jest ogółem tych światów logicznie

możliwych, których nie wyklucza teorii. C jest klasyfikacją światów M na

klasy światów współmożliwych. I jest zbiorem tych rzeczywistych

obserwowalnych warstw światów, do których teoria powinna się stosować.

Każdy element x

M

p

jest ciągiem < n

1

, …, n

m,

t

1, …,

t

k

, > m+k funkcji, m > 0, k

0, odpowiednio nieteoretycznych i teoretycznych. Funkcje teoretyczne są

to funkcje, których wartości nie można wyliczyć bez posłużenia się

rozpatrywaną teorią. Funkcje nieteoretyczne są to te funkcje, których

wartości można wyznaczyć w sposób niezależny od rozpatrywanej teorii,

aczkolwiek – zgodnie z tezą o uteoretyzowaniu obserwacji – zależny od

background image

Adam Grobler, O metodzie i strukturze nauki 130

innych teorii. Każdy element y

M

pp

jest podciągiem <n

1

, …, n

m

> funkcji

nieteoretycznych jakiegoś x

M

p

. M jest pewnym podzbiorem M

pp

, zaś C pewnym

podzbiorem zbioru potęgowego (zbioru wszystkich podzbiorów) M

p

takim,

że (i)

C, (ii) x

M

p

{x}

C, (iii) X

C, Y

X

Y

C. To znaczy C

jest

zbiorem zbiorów światów “współmożliwych”: (i) pusty zbiór światów nie

jest zbiorem światów współmożliwych, (ii) każdy pojedynczy świat jest

współmożliwy z samym sobą, (iii) każdy podzbiór zbioru światów

współmozliwych jest zbiorem światów współmożliwych. I jest pewnym

podzbiorem M

pp

.

Tę wysoce abstrakcyjną zilustruję przykładem dobrze znanej teorii,

klasycznej mechaniki punktu materialnego. Każdy element zbioru modeli

potencjalnych tej teorii, x

M

p

, jest trójką x = <s, m, f> funkcji położenia,

masy i siły. Funkcja położenia s jest określona na iloczynie kartezjańskim P

×

T pewnego zbioru P

punktów materialnych i pewnego przedziału czasowego

T

i przyjmuje wartości z R

3

. Tzn. jej wartościami tej funkcji są trójki liczb –

współrzędne danego punktu materialnego w danej chwili. Funkcja masy m

jest określona na zbiorze punktów materialnych P (tym samym) i przyjmuje

wartości liczbowe, nieujemne. Funkcja siły f jest funkcją wektorową,

określoną na P

×

T

×

N, gdzie P i T

są te same, co poprzednio, N jest zbiorem

liczb naturalnych. Tzn. f(p, t, n) = (f

1

(p, t, n), f

2

(p, t, n), f

3

(p, t, n

)) czyli dla każdego

punktu materialnego p

P

, dla każdej chwili t

T

i każdej liczby naturalnej

n funkcja f

przyjmuje wartość będącą wektorem

21

. Zatem każdy element

zbioru modeli potencjalnych klasycznej mechaniki punktu materialnego

przedstawia możliwą historię pewnego możliwego zbioru punktów

materialnych P w jakimś możliwym odcinku czasu T, historię, która

rejestruje siły (ponumerowane liczbami naturalnymi) działające na każdy

punkt materialny z P w każdej chwili z T, masę każdego punktu

21 Zmienna n

N

umożliwia uwzględnienie działania wielu sił na ten sam punkt materialny w

tej samej chwili. Założenie, że liczba działających sił jest skończona można wyrazić
warunkiem: (

n

0

)(

p)(

t)(

n)[n > n

0

f(p, t, n) = 0].

background image

Adam Grobler, O metodzie i strukturze nauki 131

materialnego i jego trajektorię czasoprzestrzenną w odcinku czasu T.

Funkcje siły i masy są funkcjami teoretycznymi w tym sensie, że nie

można wyznaczyć ich wartości bez odwołania się do udanych zastosowań

klasycznej mechaniki punktu materialnego. Natomiast wartości funkcji

położenia można wyznaczyć w sposób niezależny od klasycznej mechaniki

punktu materialnego np. za pomocą metod optycznych (które są

oczywiście zależne od teorii optyki). W związku z tym, każdy element

zbioru częściowych modeli potencjalnych, y

M

pp

, jest jednoelementowym

ciągiem <s> funkcji położenia takiej, która występuje w jakimś x

M

p

.

Każdy element M

p

przedstawia zatem możliwą historię pewnego możliwego

zbioru punktów materialnych P w jakimś możliwym odcinku czasu T, ale

historię, która rejestruje tylko “obserwowalne” trajektorie czasoprzestrzenne punktów

materialnych z P

, przemilczając to, co “ukryte pod powierzchnią zjawisk”: siły

i masy.

Zbiór modeli właściwych (prawo teorii) M jest podzbiorem M

p

, do którego

należą, i tylko one, modele spełniające warunek: (

p

P)(

t

T)[3

i

N

f(p, t, i) =

m(p)

×

ds

2

(p, t)/dt

2

], gdzie ds

2

(p, t)/dt

2

oznacza drugą pochodna funkcji położenia

s

względem t (czyli czasu). Innymi słowy, ds

2

(p, t)/dt

2

jest funkcją

przyśpieszenia. Ponieważ lewa strona dla ustalonego p i t oznacza

wypadkową wszystkich sił działających na punkt materialny p w chwili t,

warunek, o którym mowa, jest sformułowaniem dobrze znanej, drugiej

zasady mechaniki. W historiach możliwych światów (układów punktów

materialnych w pewnym odcinku czasu) przedstawionych przez poszczególne

elementy M

p

związki między funkcjami położenia, masy i siły mogą być

zupełnie dowolne. M jest podzbiorem M

p

takim, że we wszystkich historiach

przedstawionych przez elementy M między funkcjami położenia, masy i

siły zachodzi związek wyrażony przez drugą zasadę mechaniki.

Powiązania C jest takim zbiorem podzbiorów zbioru podzbiorów M

p

, że dla

każdego X

C

, jeżeli x, y

X, gdzie x = <s

1

, m

1

, f

1

>, y = <s

2

, m

2

, f

2

>, to dla każdego

background image

Adam Grobler, O metodzie i strukturze nauki 132

punktu materialnego p należącego do wspólnej części dziedzin funkcji m

1

,

m

2

, m

1

(p) = m

2

(p

). Warunki powiązania dla funkcji położenia i siły są bardziej

liberalne. Dopuszczają zmianę układu współrzędnych czasoprzestrzennych

oraz idealizacyjne pominięcia niewielkich sił. Np. w układzie {Słońce,

Ziemia, Księżyc}, w porównaniu z Układem Słonecznym, warunki

powiązania wymagają identyczności mas Słońca i Ziemi, ale dopuszczają

pominięcie siły przyciągania innych planet i związane z tym nieznaczne

różnice funkcji położenia Ziemi i Słońca.

Zbiór zami

erzonych zastosowań I jest pewnym zdefiniowanym

paradygmatycznie (przez przykłady) podzbiorem M

pp

, czyli zbiorem różnych

trajektorii czasoprzestrzennych punktów materialnych różnych zbiorów

punktów materialnych. Do paradygmatycznych przykładów zamierzonych

zastosowań klasycznej mechaniki punktu materialnego należy Układ

Słoneczny (układ trajektorii planet i Słońca w pewnym odcinku czasu),

układ złożony z Ziemi i Księżyca albo z samego tylko jabłka Newtona itp.

Treścią empiryczną składnika teorii T nazywa się zbiór A(K) = r(2

M

C),

gdzie 2

M

jest zbiorem potęgowym (zbiorem wszystkich podzbiorów) zbioru

modeli właściwych M (prawa teorii), a r funkcją restrykcji, obcinającą funkcje

teoretyczne elementom M

p

, czyli przekształcającą modele potencjalne

teorii na częściowe modele potencjalne

22

. A(K

) jest zatem zbiorem zbiorów

światów współmożliwych zacieśnionych do ich obserwowalnej warstwy.

Tzn. każdy element A(K) jest zbiorem (obserwowalnych części) światów,

które są teoretycznie współmożliwe do zaobserwowania. W przypadku

klasycznej mechaniki punktu materialnego A(K

) składa się z tych zbiorów

obserwowalnych historii układów punktów materialnych (ich trajektorii

czasoprzestrzennych), których współistnienia nie wyklucza druga zasada

mechaniki wzięta razem z powiązaniami C.

Wreszcie tezą empiryczną składnika teorii T nazywa się zdanie I

A(K

).

22

Dokładniej: r jest funkcją określoną na zbiorze zbiorów modeli właściwych, indukowaną przez

funkcję restrykcji r, określoną na zbiorze modeli właściwych.

background image

Adam Grobler, O metodzie i strukturze nauki 133

Mówi ona, że zbiór zamierzonych zastosowań teorii należy do jej treści

empirycznej, czyli że prawo teorii razem wzięte z jej powiązaniami nie

wyklucza współistnienia ze sobą wszystkich zamierzonych zastosowań.

Sam składnik teorii T jest złożonym obiektem matematycznym, nie jest

zatem wrażliwy na doświadczenie. Potwierdzona lub sfalsyfikowana może

zostać jedynie teza empiryczna składnika teorii. Jej falsyfikacja polega na

stwierdzeniu, że prawo teorii razem wzięte z jej powiązaniami wyklucza

współistnienie któregoś z jej zamierzonych zastosowań z innymi jej

zamierzonymi zastosowaniami. W przypadku falsyfikacji należy

zrewidować zbiór zamierzonych zastosowań, zacieśniając go do jakiegoś I

I

takiego, że teza I

A(K) nie jest do tej pory sfalsyfikowana.

Składniki teorii w ujęciu strukturalistycznym odpowiadają temu, co

tradycyjnie nazywa się prawami nauki (lub teoriami z jednym tylko

prawem). Mogą one tworzyć obszerniejsze struktury, tzw. sieci teoretyczne

(theory-nets

), będące częściowo uporządkowanymi zbiorami składników

teorii

23

. Budowę ich pominę, wspomnę tylko, że sieci teoretyczne mogą

być, zależnie od struktury, odpowiednikami teorii w tradycyjnym sensie,

paradygmatu w sensie Kuhna – zestawu problemów, wzorcowych

rozwiązań, podstawowych założeń teoretycznych i reguł postępowania

naukowego – naukowego programu badawczego w sensie Lakatosa (I.3.4),

czy tradycji badawczej w sensie Laudana [1977]

24

.

Koncepcja niezdaniowa podk

reśla, że teoria nie jest próbą opisu “całego

świata”, a raczej stosuje się, w pewien systematyczny sposób, do

poszczególnych jego wycinków. Ta myśl wydaje się otwierać perspektywy

na ściślejsze powiązanie pojęć teorii i eksperymentu. Przedmiotem

eksperymentu nie jest nigdy cały świat, a zawsze jakiś jego wycinek zwany

układem względnie izolowanym. Tzn. układem spełniającym pewne

założenia idealizacyjne i/lub warunek ceteris paribus tej treści, że czynniki nie

23 Definicj

ę częściowego porządku przytoczyłem w (I.5.4).

24

Pojęcie tradycji badawczej jest modyfikacją pojęcia programu badawczego, polegającą

odrzuceniu jednolitej idei postępu, na rzecz idei względnego postępu, ze względu na określone

kryteria. Zmiana pod jednym względem postępowa, pod innym może być wsteczna.

background image

Adam Grobler, O metodzie i strukturze nauki 134

uwzględnione w projekcie eksperymentu mają znikomy wpływ na jego

przebieg. Jeżeli eksperyment ma być sprawdzianem teorii, to naturalną

rzeczą jest przyjąć, że i teoria odnosi się do (wielu) układów względnie

izolowanych: ma wiele zamierzonych zastosowań. Z drugiej strony,

związek pojęcia zamierzonego zastosowania z pojęciem eksperymentu

przedstawia się w tej koncepcji dość zagadkowo.

Rozważmy bowiem, co to znaczy, że jakieś zamierzone zastosowanie

składnika teorii, x

I

, okazuje się nie należeć do jego treści empirycznej

A(K) = r(2

M

C

). W ujęciu niezdaniowym obserwację, która doprowadziła do

odkrycia Leverriera można ująć następująco: częściowy model potencjalny

u

, złożony z funkcji położenia Słońca i 7 planet określonej na pewnym

odcinku czasu nie jest podmodelem modelu potencjalnego w, złożonego z

tej funkcji położenia oraz odpowiednich funkcji masy i siły, jeżeli na Słońce

i planety działają wyłącznie siły ciążenia pochodzące od Słońca i planet.

Czy Leverrier uznał na tej podstawie, że u

A(K

)? Przeciwnie. Zakładając,

że u

A(K

) wyliczył siłę działającą na Uran. Następnie przyjął hipotezę, że

ta siła jest siłą przyciągania nieznanej planety, Neptuna. Tym samym

przyjął, że funkcja położenia Słońca i 7 planet da się tak rozszerzyć, że

powstały w ten sposób częściowy model potencjalny u

A(K

). Można

powiedzieć, że Leverrier skonstruował u’. Nie mógłby jednak tego zrobić,

gdyby nie założył zarazem, że na Słońce i planety działają siły ciążenia

zgodnie z prawem powszechnego ciążenia, i tylko one. Inaczej musiałby

poprzestać na konstatacji, że na Słońce i planety działają siły, jakie można

wyliczyć na podstawie drugiej zasady mechaniki. O tym, że u i u’ należą do

A(K

) zadecydowała nie treść naszego składnika teorii, lecz jego treść

razem wzięta z treścią prawa powszechnego ciążenia i warunku ceteris

paribus. Na dodatek model u

’ nie był znany, dopóki nie został skonstruowany

dzięki tym wszystkim treściom.

Weźmy inny przykład: częściowy model potencjalny v złożony z funkcji

położenia spadochroniarza. Po czym można poznać, czy należy on do A(K)?

background image

Adam Grobler, O metodzie i strukturze nauki 135

Masę spadochroniarza można wyznaczyć na podstawie innych zastosowań

naszego składnika teorii, np. funkcji położenia, masy i siły określonych na

zbiorze złożonym ze spadochroniarza, odważników i szalek wagi szalkowej.

Gdy już mamy określoną funkcję położenia i masy spadochroniarza,

stajemy przed wyborem: albo uznać, że v

A(K

) i przestać sobie zawracać

głowę problemem, albo uznać, że v

A(K

) i w tym celu wyliczyć funkcję

siły tak, by po dołączeniu jej do poprzednich funkcji otrzymać model

potencjalny y

M

C. Kt

óre postępowanie jest naukowe? Oczywiście, to

drugie. Wyliczając siłę ciążenia na podstawie prawa powszechnego

ciążenia i rozkładając pozostałą resztę siły na składowe prostopadłą i

równoległe do kierunku ruchu można wyliczyć siłę oporu powietrza i siłę

wiatru, z pożytkiem dla teorii i praktyki skoków spadochronowych oraz,

ewentualnie, prognozy meteorologicznej. Tym razem zamiast jakoś

stwierdzić, czy pewien częściowy model jest zamierzonym zastosowaniem

teorii, skonstruowaliśmy pewien jego nadmodel, jego teoretyczne

rozszerzenie. Posłużyliśmy się jednak nie tylko prawem naszego składnika

teorii, drugą zasadą mechaniki, ale również założeniami faktualnymi

(antyidealizacyjnymi) na temat działania oporu powietrza i wiatru.

Mało tego. Mówiliśmy o funkcji położenia ciał niebieskich i

spadochroniarza, jak gdyby one same spadły z nieba. Żaden pomiar nie

pozwoli ustalić wartości tej funkcji jako trójki współrzędnych

przestrzennych i to nie tylko dlatego, że pomiar z natury rzeczy jest

obarczony błędem: mowa przecież o ciałach słusznych rozmiarów, a nie

punktach geometrycznych. Toteż funkcja położenia jest również

konstrukcją, do której trzeba użyć m.in. praw wyrażających związki między

funkcjami położenia, masy i siły. Można powiedzieć: teoria rządzi

pomiarem [por. Kuhn 1961].

Ta dyskusja prowadzi do wniosku, że nie da się pokazać palcem na

pewną rodzinę modeli i powiedzieć: ona wyznacza taką-a-taką teorię

naukową, jest identyczna z taką-a-taką teorię naukową. Nie modele

background image

Adam Grobler, O metodzie i strukturze nauki 136

wyznaczają treść teorii, lecz teorie, na ogół stosowane łącznie z innymi

teoriami, a zawsze łącznie z założeniami idealizacyjnymi i warunkiem

ceteris paribus

, są narzędziami konstruowania modeli [por. Wójcicki 1991].

Tak pojmowany model, nawet jeżeli jest czysto symboliczny, ma pewne

cechy modelu symulacyjnego. Służy mianowicie przeprowadzeniu

manipulacji rachunkowych po to, by uzyskać odpowiedzi na pewne

pytania, np. gdzie skierować lunetę, żeby wypatrzyć Neptuna, albo w

którym momencie skoczek powinien otworzyć spadochron.

II.10. Dziedziny a teorie

Czym więc są teorie naukowe? Nie są rodzinami modeli, bo są

narzędziami konstruowania modeli. Nie są też dedukcyjnymi systemami

zdań, bo prócz dedukcji stosuje się w nich wielorakie założenia

idealizacyjne, albo przeciwnie, faktualne; techniki aproksymacyjne,

założenia ceteris paribus. Obecnie dość energicznie rozwijają się tzw. logiki

niemonotoniczne, tj. teorie rozumowań, które nie są dedukcyjne w ścisłym

sensie, ale które “normalnych” warunkach, poza “wyjątkowymi”

okolicznościami, zachowują własności rozumowań dedukcyjnych. Mają one

na celu uchwycić faktyczną strukturę rozumowań, prowadzonych zarówno

w życiu codziennym, jak i w nauce, które odbiegają od dedukcyjnego

ideału niezawodności, zachowując mimo to wysoką skuteczność. Teorie

naukowe można więc ewentualnie uznać za systemy niemonotoniczne, a

więc takie, że można je uznać za systemy dedukcyjne w jakimś

idealizacyjnym sensie.

Mówiąc o teoriach w nauce mamy zazwyczaj na myśli twory ewoluujące

w czasie, o historycznie zmiennych sformułowaniach, podlegające

rewizjom i modyfikacjom. Newton oczywiście nie mógł drugiej zasady

dynamiki sformułować za pomocą równań różniczkowych, ujęcie

background image

Adam Grobler, O metodzie i strukturze nauki 137

szczególnej teorii względności w czterowymiarowej, pseudoeuklidesowej

geometrii Minkowskiego jest o trzy lata późniejsze od oryginalnego

artykułu Einsteina, mechanika kwantowa ma dwa standardowe

sformułowania: macierzowe i za pomocą równań Schrödingera. Toteż

traktowanie teorii naukowych jako systemy dedukcyjne zakłada kolejną

idealizację, pomijającą fakt, że ta sama teoria występuje w różnych

wariantach, czasem równoważnych, a czasem nie.

Wreszcie, teorie naukowe muszą mieć interpretację empiryczną czyli

być o czymś. To coś, o czym teoria naukowa jest, z uwagi na tezę o

uteoretyzowaniu obserwacji, nie jest żadnym zespołem obserwowalnych

zjawisk czy faktów, w żadnym dosłownym, nieuteoretyzowanym sensie

pojęcia obserwowalności, żadną dziedziną “czystego” doświadczenia. Wyraz

“fakt” pochodzi od łacińskiego facere = “czynić”, znaczy więc mniej więcej

tyle, co dzieło, twór. Z punktu widzenia współczesnej filozofii nauki, która

pod tym względem nawiązuje do Kanta, fakty nie są dziełem Boskiego

stworzenia, ani dziełem natury, lecz konstrukcjami teoretycznymi

25

. Nawet

samo wyodrębnienie określonej klasy zjawisk czy faktów jako dziedziny

pewnej teorii jest problemem teoretycznym. Dotyczy to nawet

najprostszych faktów życia codziennego. W czasach mojej młodości

człowiek biegnący ulicą wczesnym rankiem był jednoznacznie zjawiskiem

dziedzin

y organizacji pracy: śpieszył się do tramwaju, żeby się nie spóźnić.

Dziś taki człowiek jest na ogół zjawiskiem dziedziny rekreacji: ma właśnie

dużo czasu i uprawia jogging. Samotny przechodzień mówiący

w przestrzeń był dawniej zjawiskiem z dziedziny psychiatrii, dziś jest

zjawiskiem z dziedziny telekomunikacji: rozmawia przez telefon komórkowy

itd. Ruch planet Arystoteles, inaczej niż Newton, zaliczał do innej dziedziny

zjawisk niż spadanie kamieni. Włączenie do jednej dziedziny tak

25

Klasyczne już analizy pojęcia faktu naukowego można znaleźć u Henri Poincarégo [1902],

Pierre’a Duhema [1906] i Ludwika Flecka [1935]. Nowsze ujęcia zawiera J.R. Brown [1994],
Kaiser [1991], Woodward [1989]. Rozwój idei “konstruktywizmu”, jak nazwał ją Wojciech

Sady, jest przedstawiony w jego [2000]. O związanej z tą ideą kwestii, w jakiej mierze można
mówić o tym, że teorie naukowe są domysłami na temat prawdy, będzie mowa w IV.2.

background image

Adam Grobler, O metodzie i strukturze nauki 138

zróżnicowanych zjawisk, jak drganie żabich udek, błyskawice i

przyciąganie skrawków papieru przez potarty bursztyn, było rezultatem

rozciągniętego w czasie procesu kształtowania się dziedziny zjawisk

elektrycznych.

Analizując relacje między dziedziną a jej teorią, oraz historyczną

zmienność jednej i drugiej, Dudley Shapere [1974] zaproponował uznać za

dziedzinę teorii (domain) pewien zespół przedmiotów czy zjawisk

wyodrębnionych ze względu na pewne związki między nimi i pewien

szczególny problem wymagający wyjaśnienia. Dziedzina podlega

wielokrotnym rewizjom, zwłaszcza na skutek odkrywania jej powiązań z

innymi dziedzinami, np. między elektrycznością a magnetyzmem i

posługiwania się zmiennymi analogiami, np. elektryczności do płynu lub

elektromagnetyzmu do fali. Dziedziny mogą się łączyć w obszerniejsze

dziedzin

y, mogą też wyodrębniać się z nich poddziedziny. Nie będę

streszczał tej długiej historii, dość wspomnieć, że dziedzina jest tworem

wysoce uteoretyzowanym, zorganizowanym przez pewien zespół

powiązanych ze sobą informacji. Bez względu na stopień uteoretyzowania,

dziedzin

a jednak jest tym, co tradycyjnie uważa się za zespół

“obserwowalnych” faktów, do których teoria się odnosi.

Toteż objaśnienie pojęcia dziedziny wymaga dokładniejszego ujęcia

obserwacji, dokładniejszej analizy uteoretyzowania obserwacji. Według

Shapere [1982], obserwacja zasadniczo polega na przekazie sygnału.

Toteż opis obserwacji zakłada teorię źródła (tego, jak sygnał jest

emitowany), teorię ośrodka przekazu (ewentualnych przekształceń i/lub

zniekształceń sygnału) i teorię odbiornika (jego czułości). Tak pojmowana

obserwacja nie musi być obserwacją ludzką: odbiornikiem sygnałów może

być nim przyrząd, zwłaszcza gdy sygnały, o których mowa, są niedostępne

ludzkim zmysłom. Takie sygnały ostatecznie bywają wzmacniane i

ewentualnie przetwarzane (np. sygnał elektromagnetyczny na sygnał

dźwiękowy lub optyczny), co skutkuje dołączeniem do teorii obserwacji

background image

Adam Grobler, O metodzie i strukturze nauki 139

teorii wzmocnienia/przetworzenia sygnału. Niekiedy zamiast tego ludzki

obserwator otrzymuje już gotowe wyniki analizy komputerowej całego

zespołu sygnałów.

Tak czy owak, dziedzina “obserwacyjna” teorii jest przeprowadzoną za

pomocą teorii konstrukcją faktów nadających sens wzorom, w które się

układają otrzymywane przez nas sygnały. Konstruowanie dziedziny można

porównać do budowania słownika prehistorycznego języka na podstawie

napisów na znalezionych glinianych tabliczkach. Trzeba najpierw

zidentyfikować esy-floresy jako napisy (teoria odbiornika), ocenić zakres

możliwych deformacji znaków i ich ciągów (teoria przekazu), domyślić się

intencji autorów tekstów (teoria źródła). To wszystko wymaga stosowania

rozmaitych hipotez słowotwórczych, gramatycznych

i antropologicznokulturowych, hipotez często opartych na analogiach.

Samo zidentyfikowanie dziedziny wymaga rozwiązania szeregu

problemów. Dopiero ukształtowana dziedzina otwiera problemy

teoretyczne: wyjaśnienia prawidłowości w niej występujących. Podobnie

jak po odszyfrowaniu glinianych tabliczek powstaje pole do budowania

teorii kultury prehistorycznego plemienia.

Shapere [1974], rozróżniając problemy identyfikacji dziedziny i

problemy teoretyczne, analizuje dwa typy tych drugich i związane z nimi

typy teorii czyli rozwiązań tych problemów. Oba związane są z odkryciem

pewnego uporządkowania dziedziny, którego przykładem może być

okresowy układ pierwiastków. Jeden problem, to problem wyjaśnienia

porządku przez odwołanie się do wewnętrznej struktury elementów

dziedziny. Jego rozwiązaniem jest teoria strukturalna (compositional), np.

teoria budowy atomu. Drugi, to problem genezy porządku, którego

rozwiązaniem jest teoria ewolucyjna, np. ewolucji pierwiastków. Ta

typologia teorii jest daleka od kompletności: nie obejmuje np. teorii

mechaniki czy termodynamiki.

Myślę, że pochodzące od Shapere’a ujęcie podwójnej dynamiki rozwoju

background image

Adam Grobler, O metodzie i strukturze nauki 140

dziedziny i jej teorii, którego skądinąd liczne interesujące szczegóły

musimy tutaj pominąć, mogłoby zyskać znacznie na precyzji, gdyby je

uzupełnić o omówione w I.4.2. motywy erotetyczne

26

.

II.11. Identyfikacja dziedziny w ujęciu logiki pytań

Załóżmy, że dziedzina D jest (tymczasowo) określona przez wybór

terminów klasyfikacyjnych lub typologicznych oraz innych predykatów,

które stosują się do indywiduów jej uniwersum lub tylko do indywiduów

określonego rodzaju lub typu. Wśród predykatów wyróżnię, naśladując

Sneeda, predykaty D-teoretyczne, tj. takie, które są charakterystyczne dla

dziedziny D i każde ich zastosowanie poza dziedziną D musi odwoływać się

do jej teorii T. Np. predykat “…jest naładowany elektrycznie” jest D-

teoretycznym predykatem dziedziny zjawisk elektrycznych, któ

rej uniwersum składa

się z ciał sklasyfikowanych na przewodniki, dielektryki, kondensatory itd.

Załóżmy dalej, że predykaty D-teoretyczne są zdefiniowane za pomocą

(łańcuchów) częściowych definicji (w sensie Carnapa) z pewnego zbioru R,

które je częściowo redukują do predykatów D-nieteoretycznych, tj.

określonych niezależnie od teorii dziedziny D, nawet jeśli teoria D może je

dookreślać. Np. pojęcie położenia nie jest D-teoretyczne ze względu na

dziedzinę mechaniki klasycznej, bo jest pojęciem geometrii fizycznej,

niemniej wyznaczenie wartości funkcji położenia w modelach zjawisk z

dziedziny mechaniki klasycznej wymaga zastosowania teorii (por II.9).

Badanie dziedziny D

można przedstawić jako poszukiwanie odpowiedzi na

pytania implikujące za pomocą rozstrzygania pytań implikowanych

implikacji i/lub słabych implikacji erotetycznych postaci Ims(Q, X, E), gdzie Q

jest problemem teoretycznym, E pytaniem o wynik eksperymentu lub obserwacji, a X

zbiorem zdań oznajmujących obejmującym: (i) wiedzę zastaną spoza

26

Uważam, że pomysły Shapere’a zasługują na znacznie poważniejsze zainteresowanie

niż to, którym faktycznie się cieszą.

background image

Adam Grobler, O metodzie i strukturze nauki 141

dziedziny D, (ii) założenia faktualne na temat dziedziny D, (iii) (ewentualnie)

pewne niesfalsyfikowane hipotezy na temat dziedziny D

, (iv) częściowe definicje ze

zbioru R, (v) założenia idealizacyjne, (vi) założenia ceteris paribus. Zbiór X

został zatem dokładniej wyspecyfikowany niż w I.4.2. Rozwój teorii polega

na rozwiązywaniu kolejnych problemów teoretycznych czyli znajdowaniu

odpowiedzi bezpośrednich na pytania implikujące postaci j.w. Im więcej

pytań implikowanych zostanie rozstrzygniętych, tym wyniki badania będą

bogatsze i bardziej wiarogodne. Toteż w celu powiększenia zasobu pytań

implikowanych przez problemy teoretyczne dziedziny D, w toku badania zbiór X

może być uzupełniany o nowe założenia faktualne, hipotezy i częściowe

definicje predykatów D-teoretycznych. Te ostatnie uzupełnienia,

poszerzające zbiór R, można uznać za dookreślanie dziedziny D.

Niekiedy z odpowiedzi uzyskanych na pytania implikowane może

wynikać, że niektóre problemy teoretyczne nie mają rozwiązania. Tzn. na

niektóre pytania implikujące rozważanych implikacji i słabych implikacji

erotetycznych nie ma odpowiedzi bezpośredniej, którą można byłoby

uznać w świetle uzyskanych odpowiedzi na pytania implikowane.

Wówczas, zgodnie z tym, co napisałem w I.4.2, trzeba uznać, że (a) nie

wszystkie odpowiedzi na pytania implikowane są prawdziwe, lub że (b) nie

wszystkie zdania ze zbioru X są prawdziwe, lub że (c) presupozycje

niektórych problemów teoretycznych nie są prawdziwe. W przypadku (a)

należy ponownie przeanalizować poczynione eksperymenty. W przypadku

(b) należy (ib) podjąć rewizję wiedzy zastanej, i/lub (iib) zrewidować

założenia faktualne na temat dziedziny D, i/lub (iiib) zrewidować pewne

hipotezy na temat D, i/lub (ivb) zrewidować zbiór R, i/lub (vb) uchylić

niektóre założenia idealizacyjne, i/lub (vib) uchylić niektóre założenia ceteris

paribus

. Każde z tych posunięć, z których (ivb) i (vb) dookreślają dziedzinę

D

, może doprowadzić do ponownego rozpatrzenia niektórych z

wyeliminowanych w dotychczasowym badaniu rozwiązań niektórych

problemów teoretycznych, a tym samym do rozwiązania tych problemów.

background image

Adam Grobler, O metodzie i strukturze nauki 142

Wreszcie, gdy to nie pomoże pozostaje (c) unieważnienie niektórych

problemów teoretycznych skutkiem rewizji ich presupozycji.

To ostatnie posunięcie prowadzi do zasadniczej rewizji dziedziny D. W

przykładzie rozważanym w I.4.2. rewizja presupozycji problemu prędkości

wiatru eterycznego doprowadziła do usunięcia eteru, zastąpienia

absolutnej przestrzeni euklidesowej i absolutnego czasu

pseudoeuklidesową czasoprzestrzenią, usunięcia ciał sztywnych z uniwersum

dziedziny szczególnej teorii

względności (ze względu na skrócenie

relatywistyczne) itd. Tak więc istnieje ścisły związek między problemami

teoretycznymi a problemami określenia dziedziny

27

.

Wśród przedmiotów usuniętych z dziedziny przez szczególną teorię

względności wymieniłem ciała sztywne, co sugeruje, że ciała sztywne

należą do uniwersum dziedziny mechaniki klasycznej. Skądinąd wiadomo,

że ciał sztywnych w przyrodzie nie ma. Wynika stąd, że do uniwersum

dziedziny teorii naukowej mogą należeć przedmioty nieistniejące. I to nie

tylko do uniwersum dziedziny teorii takich, jak mechanika klasyczna czy

teoria eteru, które zostały zastąpione przez teorie lepsze, jak teoria

względności, a więc o których wolno sądzić, że są po prostu fałszywe. W

uniwersum dziedziny nawet najlepszej teorii wciąż można znaleźć

przedmioty o równie podejrzanym statusie ontycznym, jak ciała sztywne:

punkty materialne, ciała czarne itp. W związku z tym dość

rozpowszechniony jest pogląd, że przedmioty, o których mowa w teoriach

naukowych, jak punkty materialne, nie są przedmiotami rzeczywistymi,

o których mówimy w języku potocznym, jak kamienie i pociski, tylko ich

abstrakcyjnymi, idealnymi odpowiednikami, zamieszkującymi platońskie

zaświaty

28

.

Osobiście nie widzę żadnego uzasadnienia odmiennego traktowania

27

Przytoczone ujęcie jest adaptacją do rozważanych tutaj problemów koncepcji

wyłożonych w [Grobler 1993, 2000, 2001], które powstały niezależnie od idei logiki

erotetycznej i nie powołują się na nie. Czytelnik może tam znaleźć dalsze szczegóły,
którymi ewentualnie, po odpowiednim przeformułowaniu, można uzupełnić niniejsze
wywody.

28 Np. [Kałuszyńska 1994].

background image

Adam Grobler, O metodzie i strukturze nauki 143

przedmiotów języka naukowego i potocznego. Kamieniem nazywamy coś,

co zachowuje się tak, jak wedle naszej wiedzy potocznej zachowują się

kamienie. Punktem materialnym nazywamy coś, co zachowuje się tak, jak

wedle naszej wiedzy naukowej zachowują się punkty materialne. Tzn.

zachowują się tak, że ich ruch można opisać za pomocą równania, w

którym występuje funkcja położenia o wartościach w postaci trójek liczb

oraz funkcje masy i siły. Ten matematyczny opis ruchu może sprawiać

mylne wrażenie, jakoby mówiąc o punkcie materialnym mówilibyśmy o

przedmiocie o zerowej objętości, jak gdyby był właśnie idealnym punktem

geometrycznym, abstrakcyjnym przedmiotem matematycznym. W istocie

rzeczy, mówiąc o punktach materialnych abstrahujemy od ich objętości i

kształtu, bo mimo to lub dzięki temu można z powodzeniem rozwiązywać

problemy w rodzaju wyliczenia toru pocisku. Podobnie jak w życiu

codziennym rozwiązując problem wyboru kamieni do puszczania kaczek

trzeba wprawdzie brać poważnie pod uwagę kształt kamienia, ale można

z powodzeniem abstrahować od jego barwy i wartości jubilerskiej.

Pojęciom naukowym w rodzaju punktu materialnego nieodłącznie

towarzyszą założenia idealizacyjne, jak wszystkim pojęciom typologiczne

(II.5). Ale potoczne pojęcie kamienia jest również pojęciem typologicznym

– gdy w grę wchodzą różne możliwości, bez idealizacji nie da się

rozstrzygnąć: kamyk, żwirek, kryształek, odłamek skalny, wykopalisko

archeologiczne, kostka do gry w klasy czy amulet. Zwodzić może

matematyczny opis położenia, który punkty materialne, np. srebrne

łyżeczki spadające z balkonu (ale nie srebrne łyżeczki mieszające herbatę:

punktem materialnym się nie jest, tylko się bywa, podobnie jak

przechodniem albo pacjentem), na pozór wciska w bezwymiarowe punkty

przestrzeni. Tymczasem dokładnie takie same idealizacje zakładają

zupełnie potoczne pojęcia, jak “szczyt góry” czy “środek boiska”,

a rozkłady jazdy autobusów i słowa piosenki “Umówiłem się z nią na

dziewiątą” idealizacyjnie traktują czas (pomyślmy, co znaczy wyraz

background image

Adam Grobler, O metodzie i strukturze nauki 144

“punktualnie”?). Pod względem stosowania idealizacji język nauki nie różni

się od języka potocznego na tyle, by z tego powodu uważać, że teorie

naukowe mówią o przedmiotach należących do innego porządku

ontologicznego niż przedmioty, o których rozprawiamy językiem

potocznym.

II.12. Problem redukcji i jedności nauki

W skład “poglądu otrzymanego” wchodzi m.in. teza o jedności nauki.

Dobitnym wyrazem siły przekonania o jej słuszności jest wielotomowe

przedsięwzięcie wydawnicze pod nazwą International Encyclopedia of Unified

Science

pod redakcją Carnapa, Neuratha i Morrisa (1938-1970). Pojęcie

jedności nauki jest jednak wieloznaczne. Po pierwsze, można jedność nauki

rozumieć jako jedność jej języka. Wyraża się ona w koncepcji redukcji nauk

do jednej nauki podstawowej, sformułowanej w [Kemeny, Oppenheim 1956].

Zgodnie z nią teoria T

1

redukuje się do teorii T

2

jeżeli wszystkie dane

obserwacyjne wyjaśnione przez T

1

dadzą wyjaśnić się przez T

2

. W takim

przypadku terminy teoretyczne teorii T

1

można po prostu wyeliminować na korzyść

terminów teoretycznych T

2

. Takie pojęcie redukcji jest jednak bardzo ubogie

w treść. Niezależnie od rozumienia terminu “obserwacyjne” – absolutnego

lub względnego – i rozumienia terminu “wyjaśnienie” – klasycznego lub

bardziej nowoczesnego – sprowadza relację redukcji do relacji “bycia lepszą

teorią od” a pojęcie jedności nauki do jej postępu.

Bardziej wymagającą koncepcją jedności nauki jest koncepcja jedności

praw. Zgodnie z nią prawa każdej nauki redukują się, albo zostaną

zredukowane po dokonaniu odpowiedniego postępu poznawczego, do praw

nauki bardziej podstawowej, a w ostateczności do jednej nauki podstawowej,

którą jest fundamentalna fizyka. “Redukują się do” znaczy “można

wyprowadzić z”. Prawa nauk społecznych redukują się do praw psychologii,

background image

Adam Grobler, O metodzie i strukturze nauki 145

te do praw fizjologii czy biologii, te do praw fizyki i chemii, a prawa chemii do

praw fizyki. Tezę tę nazywano fizykalizmem

29

.

Żeby jednak można było wyprowadzić prawa sformułowane w języku

jednej nauki do praw sformułowanych w języku potrzebne są zdania łączące

jedne z drugimi. Zupełnie tak samo, jak w przypadku rozważanego w II.2.

problemu redukcji zdań teoretycznych do zdań obserwacyjnych, który

usiłowano rozwiązać za pomocą pojęcia reguł korespondencji. W przypadku

redukcji nauk Ernest Nagel [1961] analogiczną rolę powierzył tzw. prawom

pomostowym (bridge laws

). Mają one służyć niejako przekładowi praw języka

teorii redukowanej na prawa wyprowadzalne z praw teorii redukującej:

prawa teorii redukowanej T

2

mają wynikać logicznie z koniunkcji praw teorii

redukującej T

1

i praw pomostowych B

. Np. termodynamika redukuje się do

mechaniki statystycznej, gdy przyjąć prawo pomostowe, wedle którego

temperatura gazu jest proporcjonalna do średniej energii kinetycznej jego

cząsteczek.

Przeciw tej koncepcji wysuwano szereg zastrzeżeń. Po pierwsze, status

praw pomostowych jest niejasny. Np. gdyby samo prawo współzmienności

temperatury i średniej energii kinetycznej cząstek wystarczało do autentycznej

redukcji termodynamiki, t

o za pomocą arbitralnie ustalonych “praw” można

byłoby redukować różne teorie do teorii nie mających z nimi nic wspólnego.

Autentyczn

a redukcja wymaga wyjaśnienia współzmienności, które najlepiej

osiągnąć dzięki identyfikacji temperatury i średniej energii kinetycznej [Sklar

1967, Causey 1977]. Po drugie, teorie zakładają rozmaite idealizacje i

dlatego jest wysoce wątpliwe, czy między prawami dwóch różnych teorii da

się ustalić dedukcyjne związki.

Postulat redukowalności nauk wydaje się jednak bardzo atrakcyjną

zasadą metodologiczną w obliczu sukcesów redukcji optyki do teorii

elektromagnetycznej czy mniemanej redukcji genetyki Mendla do

29 Fizyk

alizmem nazywano również postulat, zgodnie z którym zdania bazowe nauki mają

być formułowane w języku obserwowalnych przedmiotów i zdarzeń, a nie doznań

psychicznych.

background image

Adam Grobler, O metodzie i strukturze nauki 146

biochemii. Toteż Oppenheim i Putnam [1959] ogłosili “hipotezę roboczą

jedności nauki”, wedle której redukcja nauk polega na mikroredukcji.

Mikroredukcja polega na wyprowadzeniu praw zachowania złożonych

struktur z praw zachowania elementów tych struktur. Jeżeli teraz

przedstawić hierarchię dziedzin nauki taką, że uniwersum kolejnego

poziomu składa się ze struktur złożonych z elementów bezpośrednio

niższego poziomu, można mieć nadzieję, że nauka ostatecznie zostanie

zredukowana do teorii poziomu, lub przynajmniej będzie dążyć do tego

celu. Hierarchia przedstawia się następująco: (6) grupy społeczne,

(5) (wielokomórkowe) żywe organizmy, (4) komórki, (3) molekuły, (2)

atomy, (1) cząstki elementarne. Ostatecznym celem programu redukcji

nauk jest więc wszechwyjaśniająca teoria cząstek elementarnych.

Jerry Fodor [1974] przedstawił mocny argument przeciw

redukcjonizmowi, oparty na rozróżnieniu między fizykalizmem typicznym

(type-physicalism) i fizykalizmem egzemplarycznym (token-physicalism). Fizykalizm

egzemplaryczny głosi, że każde zdarzenie – społeczne, psychiczne,

biologiczne, chemiczne – jest zarazem zdarzeniem fizycznym. Fizykalizm

typiczny jest tezą mocniejszą: każdy typ zdarzenia niefizycznego jest

zarazem jakimś typem zdarzenia fizycznego. Fizykalizm typiczny jest tezą

mało wiarygodną, ponieważ tego samego typu zdarzenia z dziedziny nauki

specjalnej (tzn. nie fizyki) mogą realizować się za pomocą bardzo

różnorodnych zdarzeń fizycznych. Np. zdarzenia wymiany pieniężnej mogą

polegać na użyciu paciorków, banknotów dolarowych, miedzianych monet,

weksli, czeków (dziś do tej listy można dodać zapisy na nośnikach

magnetycznych) itd. Czyli tego zdarzenia ekonomiczne tego samego typu

nie są zdarzeniami fizycznymi tego samego typu. Jest nader wątpliwe, by

tak zróżnicowane zdarzenia mogły stanowić zasięg jakiegoś prawa fizyki.

Toteż szanse na to, żeby jakiekolwiek prawo na temat wymiany pieniężnej

dało się zredukować do jakiegoś prawa fizyki są znikome. Wobec tego

fizykalizm – w wersji fizykalizmu egzemplarycznego – nie pociąga za sobą

background image

Adam Grobler, O metodzie i strukturze nauki 147

redukcjonizmu.

John Dupré [1993] zakwestionował nawet Oppenheima-Putnama

hierarchię dziedzin naukowych. Zwrócił uwagę na istnienie pośrednich

poziomów organizacji, np. organów i tkanek między poziomem

organizmów i żywych komórek, oraz heterogeniczność wielu struktur, np.

organizmów złożonych nie tylko z komórek, ale i drobniejszych elementów,

m.in. hormonów, które są molekułami. Dowodząc niejednorodności nauki

podał liczne przykłady nieprzystających do siebie systemów klasyfikacji

tych samych uniwersów, z których wszystkie są uprawnione ze względu na

problemy teoretyczne poszczególnych subdyscyplin nauk. N

p. terminy klasyfikacyjne

ekologii: “drapieżnik”, “ofiara”, “konkurent”, mają się nijak do systematyki

zwierząt. Dlatego, jego zdaniem, ekologia – nauka o dynamice populacji

rodzajów organizmów – jest nieredukowalna do nauki o indywidualnych

organizmach. Odrzucając redukcjonizm, Dupré uznaje jednak wartość

poznawczą niektórych szczegółowych programów redukcjonistycznych.

Np. z uwagi na przypuszczalnie nieprzezwyciężalne trudności identyfikacji

genów z elementami struktury chemicznej kodu genetycznego, nie wierzy

w ostateczny sukces redukcji genetyki do biologii molekularnej. Niemniej

postępy w badaniach nad strukturą kodu genetycznego uważa za

pożyteczne dla zrozumienia procesów ontogenezy i dziedziczenia.

Dupré odrzuca również nieredukcjonistyczne programy jedności nauki,

jak np. koncepcję teorii wielozakresowych (interfield theories) Darden i Maul

[1977]. Według nich dziedziny nie tworzą hierarchii redukującej się do

jakiegoś poziomu podstawowego, lecz sieć, której elementy są powiązane

za pomocą teorii wielozakresowych. Np. teoria chromosomów łączy

dziedziny cytologii i genetyki. Zdaniem Duprégo, o ile powiązania między

naukami biologicznymi są oczywiste, to nic nie wskazuje na to, by nauka

jako całość była lub może stać się taką siecią zamiast zbiorem izolowanych

od siebie sieci. Np. nie wydaje się, by mogło istnieć nawet bardzo

pośrednie powiązanie między elektroniką a antropologią kulturową.

background image

Adam Grobler, O metodzie i strukturze nauki 148

Problem redukcji międzyteoretycznej jest w gruncie rzeczy

uogólnieniem problemu redukcji terminów teoretycznych do

obserwacyjnych. Redukcja teorii lub całej dyscypliny polega bowiem na

redukcji terminów teoretycznych nauki specjalnej do terminów

teoretycznych nauki bardziej podstawowej. Koncepcja praw pomostowych

boryka się zatem dokładnie z tymi samymi trudnościami, jakie stały przed

koncepcją reguł korespondencji. Uporaliśmy się z nimi w II.11. włączając

częściowe definicje terminów teoretycznych do założeń i hipotez

występujących implikacjach i słabych implikacjach erotetycznych między

problemami teoretycznymi a eksperymentalnymi, założeń określających

lub dookreślających dziedzinę teorii. Dzięki temu mogliśmy, z jednej

strony, wyłączyć je ze zbioru hipotez samej teorii, z drugiej zaś ukazać

mechanizm ich rewizji, usuwając ewentualne podejrzenia, że mają one

charakter arbitralny.

Takie ujęcie “reguł korespondencji” odchodzi zasadniczo od idei

redukcji. Dziedzina teorii sama bowiem jest tworem wysoce

uteoretyzowanym, co stwarza merytoryczne związki między teorią

rozpatrywanej dziedziny a teoriami współokreślającymi dziedzinę. Do tych

ostatnich należą m.in. teorie będące składnikami teorii obserwacji

obiektów danej dziedziny. Toteż ujęcie przedstawione w II.11. jest zgodne

z pochodzącą od Darden i Maul ideą jedności nauki jako sieci dziedzin

teoretycznych (fields). Wątpliwości Duprégo wydają mi się nieco przesadne.

Ostatecznie oparte na teorii gier techniki komputerowej symulacji rozwoju

współpracy w społeczeństwie albo ewentualne badania wpływu rozwoju

elektroniki na kulturę mogą dostarczać powiązań między elektroniką

a antropologią kulturową.

Dygresja: Zmiana modelu analizy nauki z redukcjonistycznego na sieciowy jest

szczególnym przypadkiem ogólniejszej zmiany strategii w filozofii analitycznej.

Redukcjonistyczny model analizy filozoficznej pochodzi od Bertranda

Russella, który

najpierw zastosował go do ustalenia podstaw matematyki za pomocą

background image

Adam Grobler, O metodzie i strukturze nauki 149

redukcji jej pojęć do pojęć logiki [1903], a potem uogólnił tę technikę na

całą filozofię, co wyraża maksyma “ilekroć to możliwe, na miejsce bytów

wywnioskowanych należy podstawiać konstrukcje logiczne” [Russell 1918].

Jego antagonista, Peter Strawson [1991/1994], optuje za sieciowym

modelem analizy, który zamiast na redukcji pojęć do pojęć bardziej

podstawowych polega na ustalaniu powiązań między pojęciami.

Uporaliśmy się z problemem redukcji w ujęciu synchronicznym, tj.

problemem związku między teoriami współistniejącymi. Prócz tego istnieje

problem redukcji w ujęciu diachronicznym, tj. problem relacji między

kolejnymi teoriami, z których nowsza zastępuje starszą. Redukowalność

starszej teorii do nowszej ma być gwarancją postępu. Jest to bardziej niż

widoczne w koncepcji redukcji Kemeny’ego i Oppenheima, która na relację

redukcji nie nakłada właściwie żadnych innych warunków poza warunkiem,

który Popper – przy liberalnym pojęciu obserwacyjności – nazwałby

warunkiem przyrostu treści empirycznej. Bardziej wymagająca koncepcja

redukcji Nagela nakłada warunek wyprowadzalności praw teorii

redukowanej z praw teorii redukującej, co spotkało się, jak wspomniałem

wyżej, z krytyką z powodu pominięcia kwestii idealizacji i aproksymacji. W

związku z tym Schaffner [1967] wprowadził modyfikację koncepcji

redukcji, zgodnie z którą z praw teorii redukującej i praw pomostowych ma

wynikać poprawiona praw teorii redukowanej.

Podobną myśl realizuje w polskiej literaturze metodologicznej zasada

korespondencji

(nie mylić z regułami korespondencji), utrzymywana m.in. przez

Władysława Krajewskiego [1974, 1977]. Jest ona uogólnieniem zasady

heurystycznej, którą kierował się Niels Bohr konstruując teorię kwantów.

Mówiła ona, że kierując się teoriami fizyki klasycznej należy tak

modyfikować jej aparat matematyczny, by rezultat tych modyfikacji okazał

się skuteczny w dziedzinie zjawisk mikroskopowych. Innymi słowy, prawa

fizyki klasycznej mają okazać się przybliżeniami dokładniejszych w swojej

dziedzinie praw fizyki kwantowej. Uogólniona zasada korespondencji mówi,

background image

Adam Grobler, O metodzie i strukturze nauki 150

że prawa starej teorii powinny być granicznym przypadkami praw nowej

teorii. Paradygmatycznym przykładem tak rozumianej relacji

korespondencji są prawa szczególnej teorii względności, które –

z wyjątkiem słynnego E = mc

2

– sprowadzają się do praw mechaniki

klasycznej gdy v/c

0 (lub c

).

Koncepcję rozwoju nauki przez redukcję starszych teorii do nowszych

albo przez korespondencję nowszych teorii ze starszymi podważyły tezy o

niewspółmierności teorii naukowych sformułowane przez Kuhna [1962] i

Feyerabenda [1962]. Według Kuhna, o czym była już mowa w I.4.1, zmiana

teorii łączy się z radykalną zmianą znaczenia terminów. Stąd redukcja

starszej teorii do nowszej nigdy nie zachodzi: rzekome wynikanie praw

starej teorii z praw nowej polega na błędzie ekwiwokacji (por. II.2).

Podobnie, gdy idzie o relację korespondencji. Nie może być mowy o

przejściu granicznym, zmierzaniu funkcji w równaniu jednej teorii do

funkcji w równaniu drugiej, gdy zmienne występujące we wzorach tych

funkcji nie oznaczają tych samych wielkości. Feyerabend [1962] podaje

jeszcze dodatkowy argument. Nawet gdyby niewspółmierność nie stała

redukcji na przeszkodzie, postulat redukcji czy korespondencji byłby

szkodliwy: ograniczałby inwencję twórczą w poszukiwaniu nowych teorii,

blokowałby autentyczny postęp polegający na rozwijaniu radykalnie nowych

pomysłów.

Zasada korespondencji sprowadza się do warunku, w myśl którego

w pewnym zakresie zmienności zmiennych rozpatrywanej dziedziny nowa

teoria wprowadzała tylko niewielkie korektury do starej. Jest to wymóg

zupełnie zrozumiały, biorąc pod uwagę, że stara teoria musiała względnie

dobrze funkcjonować przynajmniej w pewnej części dziedziny. Część

teoretyków redukcji i korespondencji uznała tę kwestię za tak oczywistą,

że argumenty Kuhna i Feyerabenda zupełnie zignorowała. Tym bardziej, że

rzekome ekwiwokacje niekiedy wręcz pomagały uczonym wyprowadzać

równania nowych teorii, co można prześledzić np. czytając popularne

background image

Adam Grobler, O metodzie i strukturze nauki 151

pisma Einsteina. Jednak bez względu na obrazę naukowego zdrowego

rozsądku teza o niewspółmierności stawia pewien problem pojęciowy. W

przypadku teorii niewspółmiernych zmiana obejmuje również zmianę

dziedziny.

Problem ten

zręcznie omija koncepcja niezdaniowa teorii. Jeżeli teoria

naukowa jest obiektem matematycznym, relacje między teoriami z relacją

redukcji włącznie są strukturalnymi relacjami między obiektami

matematycznymi. Problem znaczenia znika. Sam byłem zwolennikiem

takiego rozwiązania w [1986]. Jednak relacje strukturalne mogą zachodzić

między modelami teorii o skądinąd całkowicie odmiennych dziedzinach.

Prawo powszechnego ciążenia i prawo Coulomba mają taką samą formę.

Ich modele są wręcz izomorficzne. Z uwagi na różnicę dziedzin zachodzi

między nimi związek analogii, a nie redukcji czy korespondencji.

Matematyczna forma zamazuje różnicę między jednym a drugim.

Myślę, że problem niewspółmierności rozwiązuje sformułowane w II.11.

ujęcie podwójnej dynamiki teorii i dziedziny. Zmiana dziedziny oczywiście

skutkuje zmianą znaczenia terminów nauki. Jednak ta zmiana nie jest

bynajmniej żywiołowa. Przeciwnie, została właśnie uchwycona za pomocą

pojęć logiki pytań jako rewizja presupozycji.

Pozostaje do omówienia jeszcz

e jeden aspekt problemu jedności nauki. Jest

nim kwestia jedności metodologicznej. Kryteria demarkacji – Koła

Wiedeńskiego i Poppera – kryteria postępowości programu badawczego

Lakatosa, zasada wnioskowania do najlepszego wyjaśnienia itp. sugerują,

że metoda naukowa, wzorowana na metodzie fizyki, jest jednakowa

w każdej dyscyplinie nauki. Pogląd ten miał i ma licznych zwolenników i

przeciwników. Toteż w następnym rozdziale zajmiemy się kwestią

ewentualnej odmienności metodologicznej poszczególnych nauk.

background image

Adam Grobler, O metodzie i strukturze nauki 152

III. TYPY NAUK I ICH ODMIENNOŚCI

METODOLOGICZNE

III.1. Nauki dedukcyjne i empiryczne

Wydaje się, że najbardziej oczywiste różnice metody dzielą nauki

dedukcyjne i empiryczn

e. Do pierwszych zalicza się matematykę i logikę, do

drugich wszystkie pozostałe. Podstawowa różnica polega na tym, że w

badaniach matematycznych i logicznych nie stosuje się eksperymentów ani

obserwacji w celu uzasadnienia twierdzeń. Dlatego ilekroć w filozofii

powstaje kwestia możliwości poznania a priori, matematyka i logika są

naturaln

ymi kandydatkami na stanowisko nauki apriorycznej. Z drugiej strony

prowadzenie obserwacji w celach heurystycznych, albo dydaktycznych bywa

w matematyce i logice pożądane. Toteż aprioryczny status tych dyscyplin

nie jest niewątpliwy.

John Stuart Mil

l [1843] uważał matematykę i logikę, jak wszystkie inne

nauki, za nauki empiryczne. Według niego aksjomaty matematyki trzeba

wpierw metodą indukcji i abstrakcji wyprowadzić z doświadczenia, by można

było potem stosować metodę dedukcyjną. Zaś metody logicznego

rozumowania, indukcji i dedukcji, są również uzasadnione empirycznie na

mocy empirycznej zasady jednostajności przyrody (por. I.1). Uznanie logiki

za naukę empiryczną ma jednak niedogodne konsekwencje, z których Mill

nie zdawał sobie sprawy.

Jeżeli zasady logiki mają charakter empiryczny, to mówią o tym, jak

ludzie faktycznie rozumują, a nie o tym, jak powinni rozumować. Czyli umysł

ludzki, zamiast podporządkowywać się obiektywnie obowiązującym normom

poprawności rozumowania, podnosi swoje nawyki postępowania do rangi

background image

Adam Grobler, O metodzie i strukturze nauki 153

powszechnie obowiązującej normy. Te normy z kolei są rzutowane na całą

naukę, bo logika jest narzędziem jej budowania. Tego rodzaju stanowisko,

wedle którego źródłem prawomocności nauki są właściwości ludzkiego

umysłu, czyli ludzkiej psychiki, nazywa się psychologizmem

30

. Gdyby jakieś inne

plemię, dajmy na to ufoludków, rozwinęło naukę podporządkowaną logice

odzwierciedlającej funkcjonowanie ich umysłów, i gdyby ich umysły

funkcjonowały inaczej od naszych, i gdyby te ufoludki zajmowały również

stanowisko będące ich odpowiednikiem naszego psychologizmu, daremne

byłyby próby nawiązania jakiejkolwiek współpracy naukowej. Psychologizm

prowadzi zatem do relatywizmu gatunkowego, albo, alternatywnie, do

antropocentryzmu: uznania ludzkiej perspektywy za jedyną ważną.

Tymczasem dążenie do przekroczenia biologicznych ograniczeń ludzkiego

poznania jest jedną z istotnych cech nauki (por. [Piątek 1988]).

Z tego

względu empiryzm logiczny przyjął stanowisko formalizmu, uznając

zarazem matematykę i logikę nie za dyscypliny naukowe, a jedynie

narzędzia nauki (por. II.1). Jednak fakt, że matematyka i logika są

narzędziami nauki samo przez się nie wyklucza ich z listy dyscyplin

naukowych. W starożytności ówczesne zalążki nauk empirycznych zaliczano

do techniki, zaś matematykę uważano za jedyną autentyczną naukę

31

.

Kartezjusz, w poszukiwaniu metody nauk przyrodniczych, upatrywał w

matematyce wzorzec wszelkiego poznania. Matematyka zawdzięcza te

awanse poczuciu pewności, które towarzyszy jej wynikom. Koło Wiedeńskie

wprawdzie odmawiało matematyce statusu nauki, ale za to uznało

metamatematykę za wzorzec metodologii nauki. Tutaj postąpię odwrotnie.

Spróbuję naszkicować pewien projekt metodologii matematyki na wzór

metodologii nauki w ujęciu tu rozwijanym. Z tej perspektywy

metamatematyka przedstawia wysoce wyidealizowany obraz matematyki.

Uchylając niektóre z tych idealizacji będziemy mieli okazję stwierdzić, że

30 Stanowisko Kanta niekoniecznie prowadzi do psycholog

izmu, ponieważ mowa w nim nie o

własnościach ludzkiego umysłu, tylko wszelkiego możliwego umysłu.

31 Włączając do niej muzykę, astronomię i harmonikę.

background image

Adam Grobler, O metodzie i strukturze nauki 154

choć matematyka nie posługuje się eksperymentem, to status poznawczy jej

twierdzeń jest o wiele bardziej hipotetyczny, niż się zazwyczaj wydaje.

Że teoria matematyczna jest systemem aksjomatyczno-dedukcyjnym, tj.

zbiorem twierdzeń dedukcyjnie wyprowadzonych ze zdań pewnego

skończonego zbioru zdań zwanych aksjomatami (w ujęciu metamatematyki:

zbiorem konsekwencji zbioru aksjomatów), jest prawdą obiegową. A to

znaczy, że nie całkiem trafną. Nie należy sobie wyobrażać, jak sugerowali

Kartezjusz i Spinoza, że teorię rozwija się lub że powinno się ją rozwijać

wpierw ustalając aksjomaty, by potem wywodzić z nich twierdzenia, jedno

po drugim. Zanim powstał system geometrii Euklidesa z Aleksandrii (ok. 300

p.n.e.), który skądinąd był mocno niekompletny – dowody twierdzeń były

entymematyczne, tzn. korzystały z nieujawnionych przesłanek, które nie

wynikały z postulatów (czyli aksjomatów) – znano najbardziej interesujące

jego twierdzenia, np. twierdzenie Talesa czy Pitagorasa

32

. Arytmetyka liczb

naturaln

ych doczekała się aksjomatyzacji dopiero w XIX w. Klasyczna analiza

matematyczna (rachunek różniczkowy i całkowy) nie jest zaksjomatyzowana

do dziś. Można śmiało powiedzieć, że najpierw powstają teorie – w sensie

zespołów problemów i twierdzeń, nie w sensie metamatematycznym –

a dopiero potem, jeżeli kiedykolwiek, dobiera się dla nich odpowiedni układ

aksjomatów. Pytanie: po co?

Uformowanie się teorii poprzedza pojawienie się problemów i twierdzeń

traktowanych zrazu jako problemy i twierdzenia teorii już istniejących.

Dopiero na pewnym poziomie zaawansowania rozwijająca się problematyka

zaczyna się wyodrębniać i osiąga status nowej teorii. Pouczającym

przykładem w tej mierze jest historia geometrii rzutowej. Jej twierdzenia

znajdowano już w Odrodzeniu, skutkiem zainteresowania perspektywą

malarską. Traktowano je jednak jako twierdzenia geometrii euklidesowej, innej

zresztą wtedy nie znano. Wprowadzony przez Keplera (1602)

32

Choć nie wiadomo, czy w tej formie, w jakiej znajdują się w Elementach Euklidesa. Kwestie

autorstwa starożytnych wynalazków są mocno zawikłane z uwagi na panujący w tych
czasach, a dziś zupełnie egzotyczny zwyczaj przypisywania własnych pomysłów swoim

nauczycielom albo innym sławnym mężom przeszłości.

background image

Adam Grobler, O metodzie i strukturze nauki 155

nieeuklidesowy wtręt, pojęcie “punktu w nieskończoności”, uważano za

niewinną sztuczkę. Dopiero prace Feliksa Kleina (1871, 1873) doprowadziły

do wyodrębnienia geometrii rzutowej jako odmiany geometrii nieeuklidesowej, a jej

aksjomaty sformułowano w następnej dekadzie

33

.

Wobec powyższego zaryzykuję tezę, że funkcją aksjomatyzacji w

matematyce jest określenie dziedziny jej teorii, dziedziny w sensie

analogicznym do rozważanego w II.10. Zwłaszcza, że aksjomaty często

uważa się za uwikłane definicje pojęć pierwotnych teorii (definicje przez

postulaty – zob. II.2), pojęć pełniących w matematyce rolę analogiczną do

terminów “obserwacyjnych” teorii naukowych: dowody są formą “redukcji”

zdań teoretycznych, tj. twierdzeń, do zdań bardziej podstawowych,

aksjomatów. Analogię tę podkreśla przestarzały już pogląd, że aksjomaty

akceptuje się jako oczywiste, niejako podległe bezpośredniej, umysłowej

“obserwacji”, i dlatego nie wymagające poparcia, jak twierdzenia, za

pomocą dowodu. Mit oczywistości aksjomatów rozwiał się, pod wpływem

prac Peana, Poincarégo, Hilberta i in. w związku z powstaniem geometrii

nieeuklidesowych. Decydująca o ich “uteoretyzowaniu”, dziedzinotwórcza

funkcja aksjomatów przejawia się w tym, że nadają one teoriom

matematycznym abstrakcyjny charakter. To znaczy, określają dziedzinę teorii

jako ogół przedmiotów spełniających aksjomaty, bez względu na

“rzeczywistą” naturę tych przedmiotów, w którą moglibyśmy mieć jakiś

intelektualny “wgląd”, czy też dostęp za pomocą ponadintelektualnej,

platońskiej ituicji lub kantowskiego “przedstawienia w czystej naoczności”.

Dopóki dziedzin

a teorii nie zostanie wyraźnie określona, jej twierdzenia są

błędnie zaliczane do innej dziedziny, co zniekształca ich treść, jak w

przypadku twierdzeń geometrii rzutowej. Czasami w ogóle nie są traktowane

jako twierdzenia, jak przydarzyło się wynalazkom Saccheriego. Girolamo

Saccheri (1733), usiłując dowieść nie wprost piąty postulat Euklidesa (na

33 W geometrii rzutowej

każde dwie proste się przecinają. “Punkt w nieskończoności”, mówiąc

obrazowo, jest dodanym do przestrzeni euklidesowej (po jednym dla każdego kierunku)
punktem prze

cięcia się prostych, które bez tego dodatku byłyby równoległe. Szczegóły

historii i filozofii geometrii znakomicie opisuje [Toretti 1978].

background image

Adam Grobler, O metodzie i strukturze nauki 156

podstawie pozostałych czterech), wyprowadził rozmaite twierdzenia

geometrii Łobaczewskiego, które odrzucił jako “absurdalne”, mimo że nie

stwierdził żadnej sprzeczności między nimi a czterema pierwszymi

postulatami Euklidesa

34

. Uzyskane przez niego wyniki można było

zaakceptować dopiero po określeniu dziedziny geometrii nieeuklidesowych.

Abstrakcyjny charakter teorii, który nadają jej aksjomaty, bywa nazywany

formalnym. Pozwala bowiem na rozpatrywanie twierdzeń nie ze względu na

ich treść, na to, o czym mówią, lecz ze względu na związki ich formalnej

budowy, tj. kształtów napisów, z formalną budową aksjomatów. Stąd wzięło

się formalne pojęcie dowodu (II.1). Jednak dowody stosowane

w matematyce są bardzo odległe od formalistycznego ideału, nawet gdy

teoria jest zaksjomatyzowana. Reguły wnioskowania muszą być na tyle

proste, by można było bez cienia wątpliwości rozstrzygnąć, czy kolejny krok

dowodowy został przeprowadzony zgodnie z nimi. Skutkiem tego

drobiazgowe przestrzeganie reguł niesłychanie spowalniałoby postępy w

dowodzeniu twierdzeń. Żeby ukończyć dowód w rozsądnym czasie, który dla

nowo proponowanych twierdzeń wynosi kilka miesięcy lub lat, matematycy

stosują radykalne skróty rozumowania. Dalszy rozwój teorii, dzięki

odkrywaniu kolejnych związków między twierdzeniami i pojęciami teorii,

p

rzynosi skróty tych skrótów. W rezultacie pierwotnie stustronicowe dowody,

po kilkunastu latach lub dłużej, trafiają do podręczników akademickich w

wersji półstronicowej. Skutkiem tego ocena prawomocności dowodu jest

bardziej kwestią intuicji i treningu zawodowego niż formalnej kontroli.

Na dodatek bardzo nieliczne teorie są zaksjomatyzowane. Bo też do

określenia dziedziny teorii, zamiast aksjomatyzacji, często wystarczy

odpowiednie zdefiniowanie jej charakterystycznych pojęć, “terminów

34

Piąty postulat Euklidesa przez wieki próbowano udowodnić, ponieważ w przeciwieństwie

do pierwszych czterech wydawał się nieoczywisty. Brzmiał on: jeżeli prosta przecinające
dwie inne proste tworzy z nimi po jednej stronie kąty wewnętrzne (w sumie) mniejsze od
dwóch kątów prostych, to te dwie proste, jeśli je przedłużyć, przetną się po tej stronie
(prostej je przecinającej), po której znajdują się kąty (w sumie) mniejsze od dwóch kątów
prostych (brr!). Zaprzeczając mu, Saccheri uzyskał wnioski w rodzaju: suma kątów trójkąta

jest mniejsza od dwóch kątów prostych, i to tym mniejsza, im większe jest pole trójkąta.

background image

Adam Grobler, O metodzie i strukturze nauki 157

teoretycznych”. Przykładem może być przełomowe dla dziedziny analizy

matematycznej zdefiniowanie pojęcia granicy metodą epsilonowo-deltową

przez Cauchy’ego (1820’). Pozwoliło ono wyeliminować siedemnastowieczne

pojęcia “nieskończenie małej” Leibniza i “fluksji” Newtona, skonstruowane

tak, jak gdyby odnosiły się do elementów uniwersum dziedziny, które nie

mogą istnieć, jeżeli tym uniwersum ma być zbiór liczb rzeczywistych. Tego

rodzaju wynalazki pojęciowe na równi z aksjomatyzacją podnoszą ścisłość

dowodów matematycznych, skądinąd odległą od ścisłości formalnej. Wymóg

ścisłości nie jest absolutny: pożądany jej poziom zależy od potrzeb

teoretycznych, analogicznie jak proporcje idealizacji i faktualizacji w naukach

empirycznych.

Jak od teorii empirycznych wymaga się, by dostarczały środków do

trafnych przewidywań zjawisk, tak od teorii matematycznych żąda się, by

były niesprzeczne. Zadaniem sformułowanej przez Hilberta teorii dowodu

(II.1) miała być (formalna) rekonstrukcja teorii matematycznych w celu

wykazania ich niesprzeczności. Program Hilberta załamał się skutkiem

odkrycia Gödla (1930), że dowodu niesprzeczności odpowiednio bogatej

teorii sformalizowanej (zawierającej arytmetykę liczb naturalnych) nie da się

przeprowadzić środkami, które by nie zakładały środków samej tej teorii

(zdanie wyrażające niesprzeczność tej teorii nie jest dowodliwe w żadnym

systemie, który nie jest od niej mocniejszy). Krótko mówiąc, dowód taki

wymagałby zręczności barona Münchhausena

35

.

Możliwe są natomiast względne dowody niesprzeczności, tj. dowody

niesprzeczności jednej teorii przy założeniu, że jakaś inna teoria jest

niesprzeczna. Stosuje się do tego inne twierdzenie Gödla, w myśl którego

każda teoria niesprzeczna ma model. W szczególności model teorii T można

uzyskać drogą jej interpretacji za pomocą pojęć innej teorii, T’ (pojęcia

modelu i interpretacji były przedstawione w II.8). Wówczas jeżeli T’ jest

niesprzeczna, T

jest również niesprzeczna. Na tej zasadzie można np.

35 Bohater zbioru przygodowych opowiadań Raspego (1785), który m.in. wyciągnął sam

siebie z błota, ciągnąc za włosy.

background image

Adam Grobler, O metodzie i strukturze nauki 158

udowodnić, że jeżeli geometria euklidesowa jest niesprzeczna, to geometrie

nieeuklidesowe też są niesprzeczne

36

. Podobnie, metoda analityczna

geometrii gwarantuje jej niesprzeczność, o ile elementarna algebra jest

niesprzeczna. Za pomocą konstrukcji teoriomnogościowych można z liczb

naturalnych skonstruować krok po kroku liczby całkowite, wymierne,

rzeczywiste, zespolone, kwaterniony itd

37

. Konstrukcje te są zarazem

gwarantują niesprzeczność odpowiednich arytmetyk, jeżeli niesprzeczna jest

teoria mnogości i arytmetyka liczb naturalnych.

Tego rodzaju konstrukcje dookreślają dziedzinę teorii interpretowanej i

wzmacniają – ale nie mają mocy bezwzględnego dowodu – hipotezę o jej

niesprzeczności. Interpretacje teorii sprzyjają też jej rozwojowi zwiększając

zasób środków dowodowychGdy trudno znaleźć dowód jakiegoś twierdzenia

teorii T

1

, można je zinterpretować w teorii T

2

i udowodnić je jej środkami.

Elementarnym przykładem takiej procedury jest dowodzenie twierdzeń

geometrycznych środkami analitycznymi. Przykładem bardzo

wyrafinowanym jest topologia algebraiczna, w której dowodzi się twierdzeń

topologii środkami algebry za pomocą interpretacji zbudowanej środkami

teorii kategorii i funktorów. Wiarygodność tych metod zależy jednak od

hipotetycznej niesprzeczności teorii interpretującej.

Prócz związków interpretacji, między dziedzinami i teoriami może

występować związek abstrakcji. Przykładem może być uogólniona geometria

36 Prosty dwuwymiarowy euklidesowy model geometri

i Łobaczewskiego można uzyskać

interpretując termin “płaszczyzna” (Łobaczewskiego) jako wnętrze pewnego okręgu

(euklidesowego), “prosta” jako łuk ortogonalny w tym okręgu, “punkt” jako punkt
wewnętrzny tego okręgu i “odległość” między punktami definiując np. za pomocą funkcji

logarytmicznej tak, aby dążyła do nieskończoności, gdy jeden z punktów zbliża się do brzegu
okręgu. Łatwo pokazać, że przy takiej “odległości”, “punkty”, “proste” i “płaszczyzna”
spełniają aksjomaty geometrii Łobaczewskiego.
37

Naszkicuję konstrukcję liczby całkowitej. Weźmy pod uwagę zbiór par liczb naturalnych N

×

N

z określoną na nim relacją równoważnościową R jak następuje: (a, b)R(c, d)

a + d = b + c.

Niech [a, b

] będzie zbiorem wszystkich par równoważnych (a, b): [a, b] = {(x, y): (x, y) = (a, b)}.

[a, b

] jest zdefiniowaną przez abstrakcję (II.2) liczbą całkowitą. Kto nie wierzy, niech czyta:

[a, b] = ab, gdy a > b, [a, b] = – (ba), w przeciwnym przypadku. Działania w tak zdefiniowanym
zbiore liczb całkowitych można zdefiniować za pomocą działań na liczbach naturalnych: [a, b] +
[c, d] = [a + c, b + d]; [a, b]

×

[c, d] = [ac + bd, ad + bc

]. Podobnie konstruuje się liczby wymierne z

liczb całkowitych, oraz liczby zespolone z rzeczywistych. Konstrukcja liczb rzeczywistych

z wymiernych jest trochę bardziej skomplikowana.

background image

Adam Grobler, O metodzie i strukturze nauki 159

Riemanna (1853). Jest to teoria przestrzeni, w której dla każdego punktu

określona jest wielkość skalarna, zwana krzywizną. W przypadku, gdy

krzywizna jest stała, tzn. taka sama dla każdego punktu przestrzeni,

otrzymujemy przestrzeń euklidesową (gdy krzywizna wynosi zero) lub jedną

z przestrzeni nieeuklidesowych (w pozostałych przypadkach). Ta relacja

między teoriami matematycznymi przypomina nieco relację idealizacji/

f

aktualizacji między sformułowaniami prawa nauki.

Modele teorii matematycznych buduje się zazwyczaj środkami teorii

mnogości. Przybierają one formę struktur, tj. ciągów złożonych ze zbiorów i

relacji, między którymi mogą zachodzić wielorakie związki. Teorie takich

struktur często są abstrakcyjnymi uogólnieniami innych teorii, w sensie

poprzedniego akapitu. Stąd grupa Bourbaki

38

uznała, że przedmiotem

matematyki w ogóle są struktury, o czym wspominałem w II.1. Nie wchodząc

w szczegóły, które by nas zaprowadziły w bardzo abstrakcyjne rejony,

można powiedzieć, że program grupy Bourbaki jest umiarkowaną wersją

redukcjonizmu w filozofii matematyki. Bardziej skrajny był program Fregego

(1893-1903) i Russella (1903-1910), zwany logicyzmem, którego celem była

redukcja matematyki do logiki. Program się nie powiódł: okazało się, że

domniemana redukcja matematyki do logiki nie może się obejść bez

pozalogicznych założeń. Niemniej liczne idee rozwinięte w ramach tego

programu, jak np. pomysł konstruowania dziedzin teorii za pomocą definicji

przez abstrakcję, są trwałym elementem kultury matematycznej.

System Fregego zawierał błąd wykryty przez Russella i nazwany

paradoksem jego imienia. Russell usunął ten paradoks w swoim systemie za

pomocą aksjomatów, które miały pewne niepożądane, a przynajmniej

mocno kontrowersyjne konsekwencje. W reakcji niektórzy filozofowie, m.in.

twórcy tzw. intuicjonizmu, Brouwer (1907) i Heyting (1930), kwestionowali

prawomocność środków dowodowych stosowanych w matematyce.

38 Nicolas Bourbaki jest pseudonimem elitarnej grupy matematyków francuskich, od lat
trzydziestych publikującej monograficzne opracowania podstaw kolejnych działów

matematyki.

background image

Adam Grobler, O metodzie i strukturze nauki 160

Obawiając się, że jeśli nawet na razie udało się wykluczyć paradoks Russella,

nie można wykluczyć pojawienia się kolejnych paradoksów. Intuicjonizm

upatrywał gwarancji w dopuszczeniu wyłącznie dowodów konstruktywnych,

tj. polegających na skonstruowaniu pewnego obiektu matematycznego, np.

rozwiązaniu równania. W szczególności nie dopuszczał dowodów nie wprost.

Ich zdaniem wyprowadzenie sprzeczności z założenia, że przedmiot o

określonych własnościach nie istnieje nie dowodzi, że on istnieje. Np.

wyprowadzenie sprzeczności z założenia, że jakieś równanie nie ma

rozwiązania nie dowodzi, że ma ono rozwiązanie. Trzeba jeszcze przedmiot o

żądanych własnościach skonstruować, np. znaleźć domniemane rozwiązanie

równania lub przynajmniej metodę rozwiązania.

Intuicjonizm prowadzi do rewiz

ji logiki klasycznej: odrzuca zasadę wyłączonego

środka (p

¬

p

). Co więcej, wiele rezultatów klasycznej matematyki jest, z

punktu widzenia intuicjonizmu, nie do przyjęcia. W szczególności, o wielu

równaniach, których nie umiemy rozwiązać, można metodami klasycznymi

(nie wprost) udowodnić, że mają rozwiązanie. Dowód taki daje podstawy i

środki rachunkowe do poszukiwania rozwiązań przybliżonych. To zaś jest nie

bez znaczenia dla zastosowań matematyki, zwłaszcza w nauce, a ich

zadziwiająca skuteczność podnosi wiarygodność metod matematycznych.

Tymczasem z punktu widzenia intuicjonizmu, gdy nie umiemy równania

rozwiązać wprost, pozostaje czekać na odkrycie rozwiązania, bez żadnych

gwarancji powodzenia. Toteż za bezpieczeństwo dowodów

intuicjonistycznych trzeba zapłacić wysoką cenę. Wydaje się, że zamiast

rezygnować z wielu wartościowych wyników, lepiej jest stosować bardziej

ryzykowne środki dowodowe i pogodzić się z hipotetyczną naturą

matematyki. Tym bardziej, że intuicjonizm i kierunki z nim spokrewnione

dzielą poważne różnice zdań na temat tego, które środki dowodowe dają

rzeczywiste gwarancje. Im bezpieczniejsze metody, tym mniej można nimi

osiągnąć.

Jeszcze bardziej do nauk empirycznych zbliża matematykę coraz szersze

background image

Adam Grobler, O metodzie i strukturze nauki 161

upowszechnienie dowodów komputerowych. Do niepewności dowodu w

ogóle, dochodzi zwiększone ryzyko naturalnej zawodności ludzkiego umysłu.

Błąd człowieka w dowodzie może, choć nieraz z ogromnym trudem,

naprawić inny człowiek. Dowody komputerowe natomiast stosuje się do

zagadnień, których rozwiązanie człowiekowi zajęłoby tysiące lat. Toteż

sprawdzenie dowodu komputerowego można powierzyć tylko komputerowi.

Komputery wprawdzie się nie mylą, ale mylą się programiści. Niezwykle

trudny do wykrycia błąd programu może skutkować niewykrywalnym

błędem dowodu komputerowego. Toteż status poznawczy dowodów

komputerowych jest przedmiotem dyskusji dalekiej od rozstrzygnięcia.

Nie jest wcale oczywiste, czy rozstrzygnięcie kwestii statusu

poznawczego, na zasadzie albo-albo, poszczególnych typów dowodów, jest

w ogóle potrzebne. Można bowiem z powodzeniem przyjąć pluralizm metod

dowodowych, przypisując twierdzeniom różne stopnie wiarygodności w

zależności od rodzaju dowodu. Wydaje się, że praktyka matematyczna

sankcjonuje takie podejście w tej mierze, w jakiej przedstawienie

konstruktywnego dowodu twierdzenia, które wcześniej miało tylko dowód

niekonstruktywny, uchodzi za postęp.

Podobieństwa między matematyką a naukami empirycznymi przyczyniają

się do odnowy empiryzmu w filozofii matematyki. Jednym z wymienionych

wcześniej filozofów o takim nastawieniu był Lakatos [1976]. Bardziej

konsekwentnym empirystą jest Philip Kitcher [1984]. W jego ujęciu

matematyka jest nauką o umysłowych reprezentacjach możliwych

manipulacji przedmiotami przez idealny podmiot, tj. podmiot o

nieograniczonych siłach i wytrwałości. Manipulacje, o których mowa, to

przede wszystkim grupowanie i porządkowanie (w tym porównywanie czyli

pomiar). Reszta jest kwestią abstrakcji. Myślę, że ten pogląd wyjaśnia

omówione wyżej aspekty badania matematycznego. Wyjaśnia również,

dlaczego matematyka może być narzędziem nauk empirycznych.

Postępowanie matematyki w kierunku coraz większej abstrakcji dostarcza

background image

Adam Grobler, O metodzie i strukturze nauki 162

nauce coraz bogatszych środków wyrazu. Daleko nie wszystkie są faktycznie

wykorzystywane, co w niczym jej nie uwłacza. Bowiem matematyka jest nie

tylko narzędziem nauk empirycznych, ale sama jest nauką, która wprawdzie

nie posługuje się eksperymentem, chyba że myślowym, jednak mimo to

wykazuje duże podobieństwa do nauk empirycznych.

Wspomniałem wyżej, że nazywanie matematyki nauką formalną jest

pewnym nieporozumieniem. Powstało ono zapewne pod wpływem

redukcjonizmu, z punktu widzenia którego matematyka jest zwykłym

przedłużeniem logiki. Logika zaś jest nauką formalną w tym sensie, że jej

przedmiotem są formalne własności rozumowania dedukcyjnego, tj.

własności niezależne od treści przesłanek i wniosków. Jeżeli o matematyce

powiedzieliśmy, za Kitcherem, że jest nauką o umysłowych reprezentacjach

pewnego rodzaju możliwych manipulacji na przedmiotach – reprezentacjach,

które abstrahują od natury czy własności przedmiotów – o logice można by

zaryzykować twierdzenie, że jest nauką o pewnego rodzaju możliwych

manipulacjach na wyrażeniach językowych, która abstrahuje od treści tych

wyrażeń. Mowa zaś o manipulacjach, z grubsza rzecz biorąc, które pozwalają

przechodzić od zdań prawdziwych do zdań prawdziwych. Logika zajmuje się

zatem w pierwszym rzędzie budowaniem rachunków formalnych, które

polegają na specyfikacji składni pewnego sztucznego języka, reguł

wnioskowania (inferencji) i aksjomatów.

Jednak nazywanie logiki nauką formalną jest również nieco mylące,

ponieważ w rozważaniach metalogicznych, dotyczących własności

rachunków formalnych, jak np. niesprzeczność, posługuje się dowodami

nieformalnymi, tej samej natury, co dowody matematyczne. Metalogika jest

metodologią logiki. Jednak jej oddzielanie od logiki, traktowanie jej jako

odrębną dyscyplinę, byłoby zabiegiem sztucznym. Skoro bowiem

przedmiotem logiki są własności rozumowania dedukcyjnego, to nie może

ona poprzestawać na formułowaniu reguł inferencji, musi jeszcze badać, czy

te reguły są trafnie dobrane ze względu na cel rozumowania: zachowywanie

background image

Adam Grobler, O metodzie i strukturze nauki 163

prawdy. Dlatego od czasów Tarskiego (1930) logika zajmuje się również

budowaniem semantyki rachunków, tj. teorii warunków prawdziwości zdań

danego rachunku. Semantyka logiczna posługuje się zazwyczaj pojęciami

teorii mnogości, a nawet algebry abstrakcyjnej (zwłaszcza pojęciem modelu

jako struktury relacyjnej), przez co logika istotnie krzyżuje się z matematyką.

Związek ten jednak nie ma nic wspólnego z domniemaną redukcją

matematyki do logiki. Polega raczej na zastosowaniu narzędzi

matematycznych do badań logicznych.

Pod pewnym względem logika przypomina matematykę, a nawet

dyscypliny ściśle empiryczne. Mianowicie budując rachunki często postępuje

w kierunku coraz większej ogólności, w kierunku, który można określić jako

uchylanie kolejnych idealizacji. Rachunki logiczne są w gruncie rzeczy

idealizacyjnymi teoriami, wyjaśniającymi argumentacyjną funkcję

języka. Klasyczny rachunek predykatów pierwszego rzędu zakłada daleko

idące idealizacje. Zakłada, że każde zdanie oznajmujące jest albo

prawdziwe, albo fałszywe. Pomija modalności, jak “możliwe”,

“prawdopodobne”, “konieczne”; tzw. nastawienia zdaniowe (propositional

attitudes)

39

, jak “wie, że…”, “sądzi, że…”, “postrzega, że…”, “obawia się,

że…”, “pragnie, żeby…”; wyrażenia deontyczne, jak “jest obowiązkiem”,

“jest dozwolone”; obecność czasów gramatycznych; nierzeczywiste okresy

warunkowe (“gdyby”) itd. Te idealizacje są uchylane przez rachunki o

wyższym stopniu ogólności: logiki intuicjonistyczne i tzw. pośrednie, logiki

wielowartościowe i logiki z lukami prawdziwościowymi, m.in. logikę

presupozycjo (zob. I.4.2), logiki modalne, epistemiczne, deontyczne,

czasowe (tensalne) itp. Że wynikanie jednego zdania z innego zakłada

39 W polskiej literaturze prze

kładowej rozpanoszyło się tłumaczenie propositional attitutes na

“postawy propozycjonalne”, co brzmi nieprzyzwoicie. Tłumaczom brakuje wytrwałości, by
znaleźć w słowniku drugi po “postawach” odpowiednik słowa attitude. A przecież zwroty
“sądzić, że …”, “obawiać się, że…” itp. wyrażają nie postawy, lecz nastawienia podmiotu do
treści zdania podrzędnego, następującego po “że”. Zapożyczenie “propozycjonalne” jest
również uzasadnione wyłącznie lenistwem tłumaczy. Termin propositional attitude pochodzi od
Russella, podobnie jak propositional function

, który na język polski od dawna przekłada się na

“funkcja zdaniowa” (aczkolwiek w przedwojennym przekładzie Problemów filozofii jest “funkcja
propozycjonalna”.

background image

Adam Grobler, O metodzie i strukturze nauki 164

pewien związek treściowy między nimi, uwzględniają tzw. logiki relewantne.

Że stawianie pytań w toku racjonalnego procesu rozwiązywania problemów

również rządzi się zasadami rozumowania i argumentacji, uwzględnia logika

erotetyczn

a (I.4.2). Logiki niemonotoniczne badają rozumowania w warunkach

niepełnej informacji. Uchylają więc nawet tę idealizację, którą przed chwilą

wymieniliśmy jako konstytutywną dla przedmiotu logiki: że rozumowanie

zachowuje prawdę (jest niezawodne i nietwórcze, czyli dedukcyjne).

Wiele rachunków logicznych, zwłaszcza modalne, epistemiczne i

deontyczne, mają wyraźne motywacje filozoficzne. Pierwsze łączą się z

metafizycznymi dociekaniami na temat rozróżnienia tego, co konieczne, od

tego, co przygodne. Drugie są istotne dla epistemologicznych zagadnień

odróżnienia wiedzy od mniemiania, albo trafnego postrzeżenia od złudzenia

lub halucynacji. Trzecie w oczywisty sposób łączą się z etyką. Logika zatem

krzyżuje się nie tylko z matematyką, ale również z filozofią. Rachunki, które

obejmuje się niekiedy nazwą logiki filozoficznej, często mają za cel zbadanie

trafności pewnych intuicji i/lub założeń filozoficznych przez zbadanie

konsekwencji, do których prowadzą. Logikę filozoficzną niekiedy

przeciwstawia się logice matematycznej, lecz z uwagi na rosnące

zastosowanie technik matematycznych w logice w ogóle trudno jest

przeprowadzić jakąkolwiek linię demarkacyjną.

Do logiki filozoficznej zalicza się niekiedy pragmatykę logiczną, teorię nie

argumentacyjnej, lecz

komunikacyjnej funkcji języka, uwzględniającą czynniki

kontekstowe. Te same wyrażenia w różnych kontekstach mogą pełnić różne

funkcje. Np. wypowiedź “już północ” może być zwykłym oznajmieniem,

udzieleniem rzeczowej informacji, ale też zachętą spóźnionych gości, ażeby

się wynieśli. Zależność znaczenia wyrażeń od kontekstu można ująć

środkami formalnymi i teoriomnogościowymi.

Logika krzyżuje się również z informatyką. Teoria algorytmów o tyle

należy do logiki, że jest teorią pewnej klasy rozumowań, o tyle zaś do

informatyki, że ma bezpośrednie zastosowanie do programowania. Można

background image

Adam Grobler, O metodzie i strukturze nauki 165

też mówić o pograniczach logiki i gramatyki.

Myślę, że ten pobieżny przegląd unaocznia, iż logika jest nie tylko

narzędziem nauk, ale również samodzielną nauką, której teorie mają

wyraźnie określone dziedziny.

III.2. Nauki przyrodnicze i społeczne

Od czasu wprowadzonego przez Diltheya [1883] rozróżnienia między

Naturwissenschaften i Geisteswissenschaften, naukami przyrodniczymi i “o duchu”, czyli

o kulturze i jej wytworach, albo humanistycznymi, trwa spór o to, czy metoda obu tych typów

nauk

powinna być taka sama. Dilthey upatrywał źródło różnic

metodologi

cznych w zasadniczej odmienności przedmiotu. Wobec przyrody

zajmujemy stanowisko zewnętrznego, niezaangażowanego obserwatora,

gdy idzie natomiast o kulturę, jesteśmy jej zaangażowanymi uczestnikami,

przeżywamy ją. W poznaniu przyrody dążymy do wyjaśnienia zjawisk,

w poznaniu kultury, dzięki przeżywaniu, mamy możność zrozumienia

(verstehen) jej zjawisk jako wytworów ludzkiego ducha. Rozważania na temat

ewentualnej odrębności od nauk przyrodniczych zawężę do takich nauk, jak

socjologia, ekonomia, nauki polityczne, antropologia, historia, które można

określić mianem nauk społecznych, wyłączając takie nauki humanistyczne,

jak nauki o literaturze czy filozofię (jeżeli filozofia jest nauką). Psychologii

poświęcę osobne uwagi w III.3.

Wedle naturalizmu

zasadniczym rysem nauki jest odkrywanie praw

sprawdzalnych empirycznie, umożliwiających przewidywanie i wyjaśnianie

zjawisk, zgodnie z treścią poprzednich rozdziałów. Nawet jeśli te wzory

metodologiczne zostały zbudowane w pierwszym rzędzie dla nauk

przyrodniczych, naturalizm traktuje je jako uniwersalne, stosując je również

nauk społecznych. Jeżeli nauki społeczne nie w pełni je przestrzegają, należy

zgodnie z tym uznać, że znajdują się na niskim poziomie rozwoju w

background image

Adam Grobler, O metodzie i strukturze nauki 166

porównaniu ze znacznie starszymi od nich naukami przyrodniczymi. A jeżeli

nie spełniają kryterium demarkacji – weryfikowalności, według Koła

Wiedeńskiego, falsyfikowalności, według Poppera – są pseudonaukami.

Główne wątpliwości antynaturalistyczne są następujące: (i) procesy

społeczne są tak złożone i splecione ze sobą, że odkrywanie autentycznych

praw jest niemożliwe; (ii) inaczej od zachowania zjawisk przyrody,

zachowania ludzi podlegają ich woli i dlatego są nieprzewidywalne; (iii) w

odróżnieniu od zjawisk przyrody, ludzie mogą kierować się w swoim

zachowaniu przewidywaniami teorii społecznej, co zmienia rzeczywistość

przez tę teorię opisywaną.

Argu

ment (i) nie docenia komplikacji zjawisk przyrody, z których modele

budowane w naukach przyrodniczych uchwytują jedynie grube rysy.

Pouczające w tej kwestii może być choćby ponowne rozpatrzenie kwestii ze

sformułowaniem prawa swobodnego spadania (II.7). Mimo nieuchronności

idealizacji i warunków ceteris paribus, przebieg nawet bardzo złożonych zjawisk

przyrodniczych, np. meteorologicznych, daje się z dość dużą dokładnością

przewidywać.

Argument (ii) opiera się na nieuprawnionym założeniu, że z istnienia praw

danej dziedzin

y zjawisk wynika determinizm w odniesieniu do tej klasy zjawisk.

Determinizm wynikałby z istnienia praw, gdyby były one ścisłe i

bezwarunkowe, tj. nie zakładały żadnych idealizacji ani warunku ceteris

paribus

. Innymi słowy, gdyby odnosiły się do układów autentycznie

izolowanych, a nie “prawie” izolowanych, z dokładnością do idealizacji. Poza

tym wolność woli nie wyklucza przewidywalności ludzkich zachowań.

Prawda, że ludzie lubią czasem zaskakiwać innych lub przynajmniej grozić

możliwością niespodzianki, zwłaszcza w grach towarzyskich i

ekonomicznych. Gdyby jednak przewidywania ludzkich zachowań nie były

wystarczająco skuteczne, życie społeczne byłoby niemożliwe. Gdybym nie

przewidywał, że kasjerka w sklepie wyda mi resztę, nie mógłbym zrobić

najprostszych zakupów.

background image

Adam Grobler, O metodzie i strukturze nauki 167

Argument (iii) oczywiście przedstawia poważny problem metodologiczny.

Zapowiedź zwyżki na giełdzie skłania inwestorów do zakupów, co powoduje

zwyżkę. Przewidywanie upadłości firmy skłania do podjęcia działań

naprawczych, które jej zapobiegają. W takich przypadkach przyczyną

powodzenia lub niepowodzenia przewidywań jest nie trafność lub

nietrafność teorii, lecz ludzkie reakcje na te przewidywania. Z drugiej strony

wpływ przewidywań na ludzkie zachowania poddaje się teoretycznym

przewidywaniom. Wobec tego przewidywanie można potraktować nie jako

test samej teorii, powiedzmy T, lecz teorii T

1

, która przewiduje ludzkie reakcje na

przewidywania teorii T

. Ludzie z kolei mogą uwzględnić wpływ własnych działań

na spełnienie się przewidywania i odpowiednio do tego modyfikować swoje

reakcje. Wówczas przewidywanie, o którym mowa, trzeba uznać za test

teorii T

2

, która przewiduje modyfikacje ludzkich reakcji na potencjalnie

samospełniające się lub samoobalające się przewidywanie itd. Proces

konstruowania kolejnych teorii T, T

1

, T

2

… przypomina procedurę faktualizacji

(uchylania kolejnych idealizacji) teorii nauk przyrodniczych.

Do tradycji naturalistycznej należy np. pogląd J. S. Milla, zgodnie z

którym ludzkie zachowanie podlega wyjaśnianiu przyczynowemu tak samo,

jak zjawiska przyrody. Przyczynami określonego działania są zawsze pewne

pragnienia oraz mniemania, wedle których te-a-te działania prowadzą do

zaspokojenia takich-a-takich pragnień. Zachowania grup społecznych

podlegają zatem pewnym prawom, ponieważ ludzie na ogół mają podobne

pragnienia i podobne mniemania. Odchylenia poszczególnych jednostek od

normy, gdy chodzi o pragnienia i mniemania w dużych grupach ludzkich nie

mają wpływu na zachowanie całej grupy, ponieważ po pierwsze, są

n

ieznaczne, a jeśli znaczne, to nieliczne, a po drugie, są odchyleniami w

różnych kierunkach, więc przynajmniej częściowo się znoszą. Według tej

opowieści zatem prawidłowości zachowania grup społecznych mają

charakter statystyczny: wynikają ze statystycznych prawidłowości

zachowania indywiduów.

background image

Adam Grobler, O metodzie i strukturze nauki 168

Antynaturalizm

reprezentuje kierunek nawiązujący do Diltheya, zwany

socjologią humanistyczną lub rozumiejącą. Odrzuca on naturalizm na tej

podstawie, że działanie można rozumieć jako działanie społeczne, a nie tylko

ruch w przyrodzie, tylko wtedy, gdy jego opis obejmuje intencje. Np. opis

człowieka tnącego drugiego człowieka ostrym narzędziem jest opisem ruchu

ciał w przyrodzie. Bez wiedzy o intencjach tnącego nie można wiedzieć, z

jakim działaniem mamy do czynienia: z operacją chirurgiczną czy

zabójczym zamachem. W związku z tym intencje (pragnienia i mniemania)

nie mogą być przyczynami działań. Przyczyna bowiem jest zdarzeniem

odrębnym od skutku, podczas gdy intencje są składnikiem działania

[Collingwood 1946].

M

yślę, że ten argument jest zupełnie chybiony. Intencje w wyjaśnianiu

działań w naukach społecznych pełnią funkcję analogiczną do terminów

teoretycznych w wyjaśnianiu zjawisk przyrody. Opis przesunięcia się

podłużnego przedmiotu umieszczonego za szybką na tle podziałki jest

opisem ruchu ciał w przyrodzie. Bez wiedzy o jego przyczynach nie można

wiedzieć, z jakim zjawiskiem mamy do czynienia: pomiarem natężenia

prądu, ciśnienia atmosferycznego, prędkości samochodu czy jeszcze jakimś

innym. Nikt jednak nie twierdzi, że uteoretyzowanie obserwacji wyklucza

przyczynowe wyjaśnianie zjawisk, bo to, co nazywamy przyczyną, jest w

gruncie rzeczy częścią składową zjawiska. Jeżeli ta analogia jest trafna, nie

ma żadnych przeszkód w traktowaniu intencji jako przyczyn działania.

Teoretyczny charakter intencji podkreśla teoria racjonalnego wyboru,

stosowana zwłaszcza w ekonomii. W tej teorii pragnienia lub preferencje

podmiotu reprezentuje funkcja użyteczności v

i

określona na pewnym zbiorze

stanów rzeczy {S

i

}, i = 1, …, n.

Mniemania podmiotu reprezentuje funkcja

prawdopodobieństwa, że działanie A

j

, j = 1, …, n, przyniesie skutek S

i

: P(S

i

| A

j

) = p

ij

.

Wyrażenie p

1j

×

v

1

+ p

2j

×

v

2

+ … + p

nj

×

v

n

nazywa się użytecznością

oczekiwaną działania A

j

. W myśl teorii, racjonalny podmiot działania

background image

Adam Grobler, O metodzie i strukturze nauki 169

wybiera zawsze działania o najwyższej użyteczności oczekiwanej.

Przypuśćmy na przykład, że gracz w “Milionerów” odpowiada na pytanie za

16 tys. zł. Po wykluczeniu dwóch możliwych odpowiedzi zostały mu dwie do

wyboru i nie ma pojęcia, która z nich jest trafna. Może zgadywać albo

zrezygnować z dalszej gry. Przypuśćmy, że jego funkcja użyteczności

przyjmuje wartości równe wysokości wygranej w tys. zł. Gdy zrezygnuje, na

pewno (z prawdopodobieństwem 1) wygrywa 8 tys. zł. Zatem użyteczność

oczekiwana rezygnacji z dalszej gry wynosi 8. Gdy podejmie ryzyko, z

prawdopodobieństwem ½ wygra 16 tys. zł., i z takim samym

prawdopodobieństwem wygra tylko gwarantowany 1 tys. zł. Użyteczność

oczekiwana zgadywania wynosi zatem ½

×

16 + ½

×

1 = 8,5. Powinien z

atem

grać.

Wartości funkcji użyteczności gracza nie muszą zależeć proporcjonalnie

od wysokości wygranej. Przypuśćmy, że gracz odpowiada na pytanie za 500

tys. zł. Gdy zrezygnuje, wygrywa 250 tys. zł., co wystarczy mu na kupno

wygodnego domu, nowego samochodu i trochę zostaje na lody poziomkowe.

Gdyby wygrał 500 tys. zł., mógłby kupić dom bardziej luksusowy, samochód

bardziej luksusowy i zostałoby mu więcej pieniędzy na lody w różnych

smakach. Jednak funkcja użyteczności takiego hipotetycznego stanu rzeczy

dla kogoś o, powiedzmy, moim statusie majątkowym, jest znacznie niższa od

dwukrotności funkcji użyteczności niższej wygranej: dodatkowe 250 tys. zł.

nie przynosi tak radykalnej poprawy komfortu życia, jak pierwsze. Toteż

racjonalny gracz, gdy ma szansę odgadnięcia równą ½, powinien w takim

przypadku zrezygnować. Jednak gracz, który np. jest winny dużą sumę

pieniędzy gangsterom, może mieć inną funkcje użyteczności: 250 tys. zł.

może go nie ratować przed niechybną egzekucją, a wyższa wygrana i

owszem. Użyteczność oczekiwana zależy nie tylko od funkcji użyteczności,

ale również od oceny własnych szans: kto ma mocne podejrzenia co do tego,

która odpowiedź jest trafna, może grać odważniej.

Zasada maksymalizacji użyteczności oczekiwanej ma, zdaniem

background image

Adam Grobler, O metodzie i strukturze nauki 170

niektórych teoretyków, niejasną treść empiryczną. Preferencji i mniemań

podmiotu nie da się bowiem ustalić w sposób niezależny od tej zasady. To

samo jednak można powiedzieć o terminach teoretycznych teorii nauk

przyrodniczych: masy ciała i sił działających na niego nie da się wyznaczyć

niezależnie od praw teorii. W cz. I i II starałem się pokazać, że treść

empiryczna praw nauk przyrodniczych nie jest określona za pomocą żadnej

prostej zasady w rodzaju zasady falsyfikowalności, lecz przez ich

zastosowanie do budowy modeli zjawisk, wyjaśniania (kontrastowego) oraz

skomplikowaną grę presupozycji, idealizacji/faktualizacji i warunków ceteris

paribus

. O tym, że modele teorii racjonalnego wyboru mają niezerową moc

wyjaśniającą świadczy choćby to, iż są zjawiska, które wyjaśnia się jako

odstępstwa od zasady maksymalizacji użyteczności oczekiwanej. Np. zakup

oczywiście niepotrzebnego przedmiotu pod namową zręcznego sprzedawcy.

Zasada maksymalizacji użyteczności oczekiwanej, podobnie jak prawa nauk

przyrodniczych, zakłada warunek ceteris paribus i ma charakter idealizacyjny.

Jeżeli jednak odrzucić wyjaśnianie przyczynowe na rzecz rozumienia,

trzeba podać zasady interpretacji działań. Collingwood w swojej koncepcji

rozumienia historycznego, do pewnego stopnia naśladując Diltheya, upatruje

możliwość rozumienia czynów historycznych w naszej zdolności do

wczuwania się w cudze intencje. Nawiązując do Wittgensteina [1953],

bardziej wpływową koncepcję sformułował Peter Winch [1958]. Według

niego rozumienie działań społecznych jest możliwe dzięki wykryciu reguł

kulturowych. W skład nich wchodzą nie tylko jawne, spisane reguły, ale

również niepisane normy kulturowe. Np. czynność podpisania czeku jest

zrozumiała wyłącznie dzięki znajomości reguł, jawnych i niepisanych,

regulujących obrót czekowy i działanie banku jako instytucji.

Metoda rozumiejąca jest charakterystyczna dla antropologii kulturowej. W

celu odkrycia reguł obcej kultury badacze stosują tzw. obserwację

uczestniczącą. Według koncepcji socjologii rozumiejącej ta sama metoda

jest właściwa dla zrozumienia własnej kultury. Znajomość reguł kulturowych

background image

Adam Grobler, O metodzie i strukturze nauki 171

w znacznej mierze pozwala na przewidywanie zachowania, mimo że reguły

nie są jego przyczynami, a tylko nadają sens działaniom. W związku z tym

ludzie mogą naruszać reguły lub nie przywiązywać do nich wagi, czy

wreszcie je przekształcać, tworząc nowe instytucje, konwencje i przepisy.

Jednakowoż zadaniem nauk społecznych, wedle antynaturalizmu, nie jest

przewidywanie.

Atrakcją antynaturalizmu jest uwzględnienie spostrzeżenia Kanta [1785],

że “istoty rozumne nie działają podług praw, ale podług przedstawienia

praw”, co w koncepcji socjologicznej Floriana Znanieckiego [1922] przybiera

formę postulatu uwzględniania w badaniach “współczynnika

humanistycznego”: tej cechy zjawisk kulturowych, że jako przedmiot

badania są już przedmiotem czyjegoś doświadczenia lub świadomym

działaniem. Jednak w odróżnieniu od innych przedstawicieli nurtu socjologii

rozumiejącej, Znaniecki uważał, że jej zadaniem jest badanie zjawisk o

pewnej trwałości i powtarzalności, a więc, jak w przypadku innych nauk,

poszukiwanie praw.

Niewątpliwie prawa społeczne istnieją. Mamy prawa w rodzaju prawa

wzrostu przestępczości ze wzrostem poziomu bezrobocia, czy prawa podaży

i popytu. Toteż nic dziwnego, że obecnie coraz silniejsze są tendencje do

unifikacji podejścia naturalistycznego i rozumiejącego. Np. David Papineau

[1978] sugeruje, że pragnienia i mniemania, o których mowa w teorii

racjonalnego wyboru, znajdują się pod wpływem norm kulturowych.

Uwzględnienie kulturowych wpływów na funkcje użyteczności i rozkład

prawdopodobieństwa uzupełnia wyjaśnienia zjawisk społecznych.

W szczególności, działania obciążone są zależnymi od norm kulturowych

kosztami społecznymi, co wpływa na funkcję użyteczności. Np. decydując się

na udział w programie “Big Brother” trzeba brać pod uwagę nie tylko

ewentualną wygraną, lecz również społeczny, czy towarzyski, koszt

naruszenia reguł dobrego smaku, skądinąd niejednakowy w różnych

środowiskach (w niektórych nawet ujemny, tj. obracający koszt w zysk).

background image

Adam Grobler, O metodzie i strukturze nauki 172

Teoria racjonalnego wyboru w swoim oryginalnym sformułowaniu

powstała w ramach tradycji indywidualizmu metodologicznego, stanowiska

reprezentowanego m.in. przez Milla i Poppera. Zgodnie z nim zjawiska

społeczne są wypadkową indywidualnych działań i należy je wyjaśniać przez

odwoływanie się do indywidualnych motywów. Przeciwne stanowisko, zwane

holizmem albo socjologizmem

, pochodzi od Emila Durkheima [1895]. Według

niego fakty społeczne muszą mieć przyczyny społeczne, nieredukowalne do

faktów dotyczących indywiduów. Indywidua znajdują się bowiem pod presją

otoczenia, skutkiem której mają skłonność dostosowywania własnych

sposobów myślenia, odczuwania i działania do sposobów uznawanych w

społeczeństwie. To sformułowanie sugeruje daleko idące zbieżności między

holizmem a socjologią rozumiejącą. Jednak błędem byłoby utożsamiać

podział na naturalizm i antynaturalizm z podziałem na indywidualizm i

holizm.

Indywidualizm stosuje

wyjaśnianie intencjonalne, odwołujące się do

intencji (mniemań i preferencji) osób, które traktuje jako odmianę

wyjaśniania przyczynowego. Holizm wyklucza wyjaśnianie intencjonalne i w

poszukiwaniu właściwej formy wyjaśniania sięga do wzoru zaczerpniętego z

biologicznej teorii ewolucji: wyjaśniania funkcjonalnego. Polega ono na

wyja

śnianiu instytucji społecznych, norm kulturowych i wzorców zachowania

społecznego przez wskazanie na ich funkcję, np. podtrzymywania trwałości

społeczeństwa, podobnie jak w biologii wyjaśnia się cechy filogenetyczne

organizmu i wzorce indywidualnego zachowania ich funkcją

przystosowawczą. Ta strategia eksplanacyjna zbliża przynajmniej niektóre

formy holizmu do naturalizmu.

Analogia ewolucyjna budzi jednak kontrowersje. Utrwalanie się

funkcjonalnych cech filogenetycznych wyjaśnia się za pomocą mechanizmu

dziedziczności. Dzięki temu wyjaśnienia funkcjonalne w biologii otrzymują

wsparcie ze strony odpowiednich wyjaśnień przyczynowych. Wyjaśnieniom

funkcjonalnym w naukach społecznych często tego brakuje. Z drugiej strony

background image

Adam Grobler, O metodzie i strukturze nauki 173

między instytucjami czy zjawiskami niekiedy występuje sprzężenie zwrotne:

funkcją jednych może być podtrzymywanie drugich. Wówczas wyjaśnienie

ich trwałości ma odpowiednie tło przyczynowe.

Funkcjonalizm

– pochodzący od Bronisława Malinowskiego [1922/1967]

pogląd, wedle którego wszystkie zjawiska społeczne mają wyjaśnienie

funkcjonalne – przybiera bardziej jednoznacznie naturalistyczną formę w

socjobiologii

[Wilson 1976, 1978/1988]. Traktuje ona ewolucję norm

kulturowych jako przedłużenie ewolucji biologicznej, silnie ograniczone

względami biologicznie przystosowawczymi. Np. altruizm ludzki, który

przybiera zmienne formy w zależności od okoliczności społecznych, jest

ugruntowany na altruizmie wykształconym w drodze tzw. doboru

krewniaczego. Dobór krewniaczy polega na upowszechnianiu pewnych

genów w populacji działaniem na rzecz przetrwania i reprodukcji własnych

krewnych .

Teoria doboru krewniaczego, w której jednostką selekcji są grupy

organizmów, a nie pojedyncze organizmy, powstała skutkiem

niewystarczalności indywidualizmu metodologicznego w teorii ewolucji.

Teoria doboru naturalnego nie wyjaśnia bowiem altruizmu, ponieważ

nieliczni egoiści w populacji altruistów osiągaliby większe od innych korzyści,

co sprzyjałoby ich osobniczemu przetrwaniu i, w konsekwencji,

upowszechnieniu genu egoizmu. Z drugiej strony [Axelrod 1984] pokazał, że

altruizm i powstanie współpracy społecznej można wyjaśnić również –

indywidualistycznymi metodologicznie – środkami teorii racjonalnego

wyboru i teorii gier. Punktem wyjścia jego rozważań jest tzw. dylemat

więźnia odwzorowujący sytuację, w której wzajemny altruizm popłaca, ale

egoizm jest bardziej opłacalny od nieodwzajemnionego altruizmu. Więzień

ma do wyboru lojalną współpracę z drugim więźniem lub zdradę.

W przypadku współpracy otrzymuje łagodną karę, gdy współwięzień go nie

zdradzi, zaś surową, gdy zdradzi. W przypadku zdrady otrzymuje średnią

karę bez względu na postępowanie drugiego więźnia. Rozpatrując iterowany

background image

Adam Grobler, O metodzie i strukturze nauki 174

dylemat więźnia, tj. serię dylematów z udziałem tych samych uczestników,

można dowieść, że najbardziej racjonalną strategią, w sensie teorii

racjonalnego wyboru, jest wet za wet: zacząć od współpracy następnie na

współpracę ze strony drugiego uczestnika odpowiadać współpracą w

następnej rundzie, na zdradę odpowiadać zdradą. W ten sposób uczestnicy,

w poszukiwaniu najskuteczniejszej strategii, uczą się współpracy.

Spór między indywidualizmem metodologicznym a holizmem ma

zasadnicze znaczenie dla problemu redukcji: jeżeli indywidualizm jest

słuszny, nauki społeczne redukują się do psychologii (por. II.12). Z drugiej

strony intencje są zrozumiałe tylko w kontekście kulturowym. poza nim nie

sposób odróżnić np. bezpośredniości, serdeczności, poufałości i

lekceważenia, albo zrozumieć wstydu, zazdrości czy pragnienia sławy.

Wydaje się zatem, że ewentualne indywidualistyczne redukcje są możliwe

jedynie przy ustalonym kontekście kulturowym, na zasadzie idealizacji w

pewnych przypadkach uprawnionej, w innych nie. Toteż osobiście skłonny

jestem zająć stanowisko pluralizmu metodologicznego, który dopuszcza zarówno

indywidualistyczne wyjaśnienia intencjonalne, jak i holistyczne wyjaśnienia

funkcjonalne, zgodnie z zasadą wnioskowania do najlepszego wyjaśnienia. W

stosunku do wyjaśnień intencjonalnych i funkcjonalnych, w ujęciu Kuipersa i

Wiśniewskiego, można bowiem sformułować kryteria względnej mocy

wyjaśniającej analogiczne do tych, jakie podałem dla wyjaśniania

przyczynowego w I.5.4. Szczegóły, ze względu na podobieństwo konstrukcji,

pominę.

Ostatnia kwestia, którą chciałem poruszyć w związku z domniemaną

odmiennością metodologii nauk społecznych i przyrodniczych, jest

wartościujące obciążenie tych pierwszych. Obiektywistyczny ideał nauki,

którego zwolennikiem w naukach społecznych był np. Max Weber, domaga

się ścisłego oddzielenia faktów i wartości. Z drugiej strony, często powiada

się, że w naukach społecznych nie sposób uniknąć wartościowania. Niektóre

kierunki czynią z tego nawet cnotę, jak np. szkoła krytyczna, która lansuje

background image

Adam Grobler, O metodzie i strukturze nauki 175

marksowskiego pochodzenia pogląd, że celem teorii społecznej jest

emancypacja grup uciśnionych. Teoria taka zakłada zatem ocenę, które

grupy są uciśnione i dlaczego. Po doświadczeniach marksizmu, którego

próby zastosowania w praktyce doprowadziły do skutków odległych od

teoretycznych celów, program szkoły krytycznej musi budzić nieufność.

W ostatnich latach krytyka feministyczna nauk społecznych wskazuje na

seksistowski charakter wielu jej pojęć. Za przykład można przytoczyć pojęcie

dochodu na gospodarstwo domowe, które ignoruje korzyści dla rodziny z

nieopłacanej pracy domowej kobiety. Różne warianty feminizmu [Harding

1986] wysuwają rozmaite programy uwolnienia nauki od męskich uprzedzeń

i budowania jej np. z punktu widzenia “kobiecych wartości”. Część tej krytyki

rozciąga się również na nauki przyrodnicze, której zainteresowania jakoby

odzwierciedlają męski światopogląd czyniąc ją narzędziem męskiej

dominacji.

Jest zupełnie możliwe, że męskie preferencje wywierają wpływ na

selekcję i sposób stawiania problemów podejmowanych w nauce. Jest więcej

niż możliwe, że nauki społeczne nie są wolne od przesądów, w tym

przesądów seksistowskich. Gdy idzie o przesądność, różnica między

naukami przyrodniczymi a społecznymi może być nie jakościowa, ale

kwestią stopnia.

Jak już mówiłem (I.4.1), nie można nie mieć przesądów, ale można je

krytykować. Odpowiadając na krytykę feministyczną James R. Brown [1989]

proponuje pluralizm ujęć i ich krytyczne porównywanie. Kwestię obciążenia

wartościującego można potraktować podobnie, jak uteoretyzowanie

obserwacji. Wartościowanie może wpływać na określenie dziedziny teorii,

może przejawiać się w zakładanych przez nią presupozycjach. Presupozycje

wszakże podlegają krytyce według wzorów przedstawionych w (I.4.2, II.11).

Toteż obciążenie wartościujące teorii nie stwarza dodatkowych, w

porównaniu z uteoretyzowaniem obserwacji, problemów metodologicznych.

background image

Adam Grobler, O metodzie i strukturze nauki 176

III.3. Psychologia

Psycholog

ii poświęcam osobne uwagi, ponieważ zajmuje ona niejako

pośrednią pozycję między naukami przyrodniczymi a społecznymi. Do nauk

przy

rodniczych zbliża ją szersza stosowalność eksperymentu niż np. w

socjologii oraz związki niektórych działów psychologii z fizjologią i medycyną.

Z naukami społecznymi łączy ją wrażliwość na kontekst kulturowy

i domniemanie wolnej woli indywiduów jej dziedziny przedmiotowej. Z uwagi na to

w projektach eksper

ymentów należy uwzględniać ewentualne różnice kulturowe

między jego uczestnikami oraz należy stosować maskowanie. Polega ono na

zatajaniu przed uczestnikami eksperymentu jego właściwego celu, aby

uniknąć dążenia z ich strony do przedstawienia się w korzystnym świetle.

Np. w badaniach wpływu okoliczności na skłonność do udzielania pomocy

znajomość celu eksperymentu na pewno miałaby wpływ na zachowanie jego

uczestników.

Pośrednia pozycja psychologii między naukami przyrodniczymi a

społecznymi powoduje, że problem redukcji psychologii do nauk bardziej

podstawowych ma kluczowe znaczenie dla problemu redukcji nauk.

Aczkolwiek redukcjonizm został już na kartach tej książki osądzony, w celu

pogłębienia tematu warto prześledzić jego trudności w zastosowaniu do

psychologii. W tej dyscyplinie redukcjonizm ma szczególne znaczenie

filozoficzne przez swoje związki z problemem psychofizycznym

(zagadnieniem duszy i ciała).

Nacisk empiryzmu logicznego na weryfikowalność w obserwacji

przyczynił się do spopularyzowania behawioryzmu, pochodzącego od

Watsona [1913]. Behawioryzm metodologiczny polega na odrzuceniu psychologii

introspekcyjnej, która zakładała uprzywilejowany dostęp poznawczy do

stanów własnego umysłu. Powątpiewając w wiarygodność introspekcji,

behawioryzm głosił, że jedynie publicznie obserwowalne zachowania mogą

background image

Adam Grobler, O metodzie i strukturze nauki 177

stanowić świadectwo empiryczne teorii psychologicznej. Behawioryzm naukowy

szedł dalej, odrzucając wszelkie teoretyzowanie na temat wewnętrznych

stanów umysłu, na korzyć poszukiwania wyłącznie prawidłowości

zachowania w reakcji na bodźce. Główną słabością tego stanowiska są

trudności w zbudowaniu adekwatnej teorii uczenia się bez pojęcia “pamięci”,

które zgodnie z jego zasadami powinno zostać wyeliminowane ze słownika

nauki. Behawioryzm naukowy jest formą redukcjonizmu eliminacyjnego.

Należy od niego odróżnić behawioryzm analityczny, stanowisko kojarzone

głównie z Gilbertem Ryle’em [1949], które jest tezą na temat znaczenia.

Mianowicie, mówiąc o wewnętrznych stanach lub własnościach umysłu,

według tej formy behawioryzmu, nie mamy na myśli nic więcej, jak tylko

skłonność do określonego zachowania się. Twierdząc np., że Jan jest

inteligentny, nie przypisujemy mu jakiejś tajemniczej, nieobserwowalnej

cechy, lecz mówimy, że na ogół zachowuje się w sposób, który określamy

jako inteligentny. Behawioryzm upadł głównie z tego powodu, że

zachowanie wyjaśniamy zazwyczaj odwołując się do pragnień i mniemań

podmiotu. Jak mówiliśmy w III.2, bez tego, zamiast o zachowaniu,

moglibyśmy mówić jedynie o ruchach ciała w przestrzeni.

Niedostępność wewnętrznych stanów umysłu dla obserwacji jest jednak

silnym motywem poszukiwania rozwiązań redukcjonistycznych. Doniosłym

przykładem jest teoria identyczności, np. [Armstrong 1968], która

utożsamia stany umysłu ze stanami centralnego układu nerwowego. Po

ewentualnym odkryciu praw identyczności, według tej koncepcji, można

będzie prawa psychologii zredukować, metodą Nagla (II.12), do praw

neurofizjologii. Wadą tej teorii jest wynikający z niej szowinizm gatunkowy:

jeżeli stany ludzkiego umysłu są identyczne ze stanami ludzkiego układu

nerwowego, organizmy o inaczej zbudowanym układzie nerwowym nie

mogą mieć stanów psychicznych takich, jak ludzie: postrzeżeń, pamięci,

pragnień, bólu itd.

W odpowiedzi na ten zarzut powstał funkcjonalizm, pogląd wedle którego

background image

Adam Grobler, O metodzie i strukturze nauki 178

identyczne stany umysłu mogą mieć różne materialne realizacje, tj. w

różnych układach nerwowych, “układu” komputera nie wyłączając. Są one

identyfikowalne podług funkcji przyczynowej, którą pełnią w wyjaśnieniach

zachowania. Funkcjonalizm jest też formą redukcjonizmu, ponieważ stany

umysłu są określone wyłącznie przez ich relacje przyczynowe z bodźcami i

reakcjami. Jego słabością jest zbytni liberalizm, zaliczający do uniwersum

dziedzin

y psychologii również komputery.

Inną formą redukcjonizmu jest materializm eliminatywistyczny [Churchland

1988]. Zgodnie z nim posługująca się terminami mentalistycznymi

(odnoszącymi się do stanów umysłu) “psychologia potoczna” (folk psychology)

jak dotąd ponosi same klęski i w związku z tym nie ma nadziei na dokonanie

w niej postępu poznawczego. Dlatego należy całkowicie porzucić

mentalistyczną psychologię i zastąpić ją całkowicie neurofizjologią.

Jest jednak nader wątpliwe, czy ewentualna przyszła neurofizjologia

będzie w stanie dostarczyć środków, które mogłyby zastąpić terminy

mentalistyczne w wyjaśnieniach nauk społecznych. Dlatego perspektywy

redukcjonizmu w psychologii są mało zachęcające. Antyredukcjonistyczny

argument, bardzo podobny do późniejszego argumentu Fodora (II.12),

sformułował Donald Davidson [1970]. Zgodnie z nim nie ma praw

psychofizycznych, bo nie ma korelacji między typami zdarzeń fizycznych i

mentalnych (a jedynie między okazami), co nie wyklucza istnienia praw

psychologicznych. Jego stanowisko nazywa się monizmem anomalnym.

O

sobiście w sprawie psychologii również skłonny jestem zająć stanowisko

pluralizmu metodologicznego połączone z zasadą wnioskowania do

najlepszego wyjaśnienia. Wybór strategii badawczej w konkretnym

przypadku zależy od najlepszych dostępnych wyjaśnień. Niekiedy mogą one

być psychofizyczne, jak wyjaśnienia depresji przez niedobór hormonów,

niekiedy psychospołeczne (funkcjonalistyczne), jak wyjaśnienia bierności

tłumu wobec chuligaństwa, niekiedy czysto psychologiczne

(indywidualistyczne).

background image

Adam Grobler, O metodzie i strukturze nauki 179

III.4. Nauki nomotetyczne i idiograficzne

Neokantyzm (Windelband, Rickert) odróżniał historię od nauk

przyrodniczych ze względu na to, że pierwsza, inaczej niż drugie, nie dąży

do formułowania praw, lecz zajmuje się opisem indywidualnych

osobliwości zdarzeń. Zaowocowało to rozróżnieniem na nauki

nomotetyczne (formułujące prawa) i idiograficzne (opisowe). Max Weber

[1903] do nauk idiograficznych zaliczał też socjologię. Choć dopuszczał w

niej formułowanie praw, uważał, że w naukach społecznych najbardziej

interesujące są właśnie indywidualne osobliwości. Wedle sugestii Diltheya

podział na nauki nomotetyczne i idiograficzne pokrywa się z podziałem na

nauki przyrodnicze i społeczne.

Z dzisiejszego punktu widzenia sprawa nie jest taka prosta. Wydaje się,

że niektóre nauki przyrodnicze są idiograficzne: astronomia, spore połacie

zoologii, botaniki i geologii, nie mówiąc już o geografii. Z kolei z nauk

społecznych socjologia, ekonomia, a zwłaszcza psychologia, formułują

prawa. Nawet w narracji historycznej często można znaleźć rozmaite

uogólnienia o charakterze prawopodobnym, np. “niezadowolenie ludu, po

przekroczeniu pewnej granicy, powoduje bunt” [por. Topolski 1978]. Myślę,

że z uwagi na uteoretyzowanie obserwacji aspekty nomotetyczny i

idiograficzny różnych nauk trudno od siebie oddzielić. Fakty są

konstrukcjami teoretycznymi, której instrumentami są prawa.

Indywidualne osobliwości są nimi ze względu na odstępstwo od prawa,

naruszenie warunku ceteris paribus. Inaczej nie byłyby osobliwościami,

a przynajmniej zrozumiałymi osobliwościami. Jeżeli geografia wydaje się

nauką czysto idiograficzną, to dlatego, że jej fakty zaczerpnięte są z

różnych nauk i przez różne, pozageograficzne nauki uteoretyzowane:

geologię, meteorologię, demografię itd.

background image

Adam Grobler, O metodzie i strukturze nauki 180

IV. STATUS POZNAWCZY NAUKI

IV.1. Zagadnienie realizmu

Francis Bacon [1620/1955] ogłosił, że celem nauki jest prawda

i wynalazki. To sformułowanie stało się osią sporu filozoficznego,

prowadzonego do dzisiaj. Mianem realizmu określa się doktryny

akcentujące pierwszy człon maksymy Bacona. Nauka, z tego punktu

widzenia, jest bezinteresownym poszukiwaniem prawdy, rozumianej

klasycznie, jako pewnego rodzaju zgodność myśli z rzeczywistością,

a ewentualne wynalazki są miłą premią za czysto intelektualne

osiągnięcia. Natomiast różne odmiany instrumentalizmu doceniają dążenia

intelektualne tylko jako środki sprzyjające zaspokajaniu potrzeb

praktycznych. Prawdę jako przedmiot kontemplacji uważają za cel

nieinteresujący lub utopijny. Niekiedy odrzucają samo pojęcie prawdy jako

niezrozumiałe albo redukują prawdę do wartości instrumentalnych,

najczęściej do trafności przewidywań wyprowadzonych za pomocą teorii.

Sam termin “instrumentalizm” ma sugerować, że teorie naukowe są

jedynie narzędziami przewidywania zjawisk, projektowania technologii czy

jakoś inaczej określonego radzenia sobie człowieka w świecie.

Instrumentalizm najczęściej łączy się ze skrajnymi formami empiryzmu.

Klasycznym przykładem jest George Berkeley [1710/1956]. W podobnym

do niego, późniejszym sformułowaniu empiriokrytycyzmu Ernsta Macha [1885],

funkcją nauki jest systematyzacja, czyli skrótowy opis doświadczenia.

Terminy teoretyczne nie odnoszą się do niczego, służą one jedynie

ekonomizacji myślenia.

W Stanach Zjednoczonych najbardziej

wpływową, i do dziś silnie oddziałującą odmianą empiryzmu był

background image

Adam Grobler, O metodzie i strukturze nauki 181

pragmatyzm. Jego twórca, Charles Sanders Peirce

[1966] sformułował zasadę

pragmatyczną, w myśl której myśl jest sensowna wtedy i tylko wtedy, gdy

wynikają z niej pewne dyrektywy działania. Kontynuator jego idei, William

James [1907/1999], wyprowadził stąd wniosek, że prawdziwość myśli

sprowadza się do skuteczności działania podjętego wedle dyrektyw,

o których mowa. Prawda nie jest, według niego, czymś do odkrycia, lecz

czymś do zrobienia, do uskutecznienia w działaniu. Sam Peirce pojmował

j

ednak prawdę realistycznie, jako coś, co odkrywa się, jako idealną granicę

poznania, w nieskończonym, samokorygowalnym procesie badania

naukowego.

We Francji Henri Bergson [1903] uznając instrumentalną wartość nauki

uważał, że dostarcza ona systematycznie zafałszowanego obrazu

rzeczywistości. Skutkiem stosowania pojęć nauka ujmuje przedmiot

w znieruchomieniu, a nie w trwaniu niepodzielnym na punktowe chwile,

które można uchwycić za pomocą pozapojęciowej, ponadintelektualnej

intuicji metafizycznej. Pod jego wpływem Pierre Duhem upatrywał źródło

prawdziwego poznania w doświadczeniu religijnym. Z powodów, o których

była mowa w I.3.3, za cel nauki uważał nie prawdę, lecz prostotę i

zgodność z doświadczeniem. Symplicyzm, jak zwane jest stanowisko Duhema, jest

odmianą konwencjonalizmu: wybór między alternatywnymi hipotezami, jest

według niego kwestią konwencjonalnej decyzji. Skrajny konwencjonalista,

Édouard Le Roy [1889-90], utrzymywał wręcz, że nauka jest w całości

sztucznym tworem. Prawa nauki są, według niego, definicjami pojęć w nich

występujących. Toteż pod naciskiem doświadczenia, zamiast odwoływać

prawa jako fałszywe w swej treści, dokonuje się ad hoc manipulacji na definicjach

pojęć. Bardziej umiarkowany Henri Poincaré [1902, 1905] twierdził, że

choć każda hipoteza ma pewien element konwencjonalny, działający na

podobieństwo definicji, to ma również i składnik empiryczny. Dzięki temu

prawa nauki mają wprawdzie wyraz językowy zależny od wyboru konwencji,

to jednak zdają sprawę z pewnych stałych relacji między rzeczami. Dla

background image

Adam Grobler, O metodzie i strukturze nauki 182

odróżnienia od instrumentalistycznego konwencjonalizmu Duhema i Le

Roya, stanowisko Poincarégo nazywa się niekiedy realizmem

strukturalnym.

Światopogląd religijny nie zawsze, jak w przypadku Duhema, albo

współcześnie van Fraassena, o którym będzie mowa niżej, sprzyja

instrumentalizmowi. Znane porzekadło Alberta Einsteina – “Bóg nie gra

w kości” – jest wyrazem realizmu podobnym do trzy wieki wcześniejszego

przekonania Kartezjusza o prawdomówności Boga. Stereotyp rzekomo

nieusuwalnego konfliktu między doktryną religijną a nauką, podkreślając

przypadki w rodzaju sprawy Galileusza, kopernikanizmu i darwinizmu,

prze

słania fakt, że jednym z konstytutywnych elementów kultury zachodniej

jest motyw uprawiania nauki na chwałę Bożą.

Postawiony prze

z Koło Wiedeńskie problem interpretacji empirycznej

terminów teoretycznych (II.2) dał nowy impuls instrumentalizmowi.

Ewentualny sukces redukcji do terminów obserwacyjnych dowiódłby, że terminy

teoretyczne są pod względem czysto poznawczym zbędne, że pełnią rolę

jedynie dogodnych skrótów pozwalających na zwięzłe ujęcie

doświadczenia. Wówczas można byłoby przyjąć, że np. elektrony są równie

fikcyjne, jak krasnoludki, tyle że w odróżnieniu od krasnoludków

rzeczywiście robią porządki: przydają się do porządkowania doświadczenia.

Z drugiej strony trudności realizacji programu redukcjonistycznego

prze

mawiały na korzyść realizmu. Ernest Nagel [1961/1970] zajął w tej

sprawie stanowisko neutralne. Uznał, że spór ma charakter czysto

werbalny, ponieważ jego ewentualne rozstrzygnięcie nie ma żadnych

konsekwencji metodologicznych, tj. nie ma wpływu na wybór norm

postępowania naukowego.

Na przekór temu Popper [1963] sformułował kilka argumentów

podkreślających różnice metodologiczne między realizmem a

instrumentalizmem. Dowodził m.in., że teorie naukowe nie tylko

dostarczają reguł działania, ale służą też teoretycznej dyskusji na temat

background image

Adam Grobler, O metodzie i strukturze nauki 183

zakresu ich stosowalności, w tym dyskusji na temat zakresu

instrumentalnej przydatności teorii sfalsyfikowanych. Podważenie przez

Poppera rozróżnienia obserwacyjne/teoretyczne usuwa wspomniany

w poprzednim akapicie motyw instrumentalizmu. Jednak dość długo

pojęcie prawdy uważano za zbyt mgliste, by można było je poważnie

traktować. Dlatego zdecydowany zwrot w kierunku realizmu Popper

wykonał dopiero po zaznajomieniu się z teorią prawdy wysuniętą przez

Tarskiego (II.8). Ostatecznie nauka, według Poppera, jest przedsięwzięciem

samokorygującym się, jak wcześniej u Peice’a, i przybliża nas do prawdy

przez wysuwanie i testowanie kolejnych hipotez poprawiających błędy

sfalsyfikowanych poprzedniczek.

Upadek empiryzmu logiczn

ego bynajmniej sporu nie rozstrzygnął. Stephen

Toulmin [1972], nawiązując do pragmatyzmu Deweya [1938], traktuje

naukę jako narzędzie przystosowawcze człowieka do środowiska. Teorie

naukowe, czy w ogóle uniwersalne prawa nauki, nie pełnią, według niego,

funkcji opisowej, są jedynie “talonami na wnioskowanie” od zdań

opisujących aktualne warunki do zdań wyrażających przewidywania

przyszłego stanu rzeczy. Na marginesie: wcześniej od Toulmina, zdania

uniwersalne jako reguły wnioskowania indukcyjnego traktował J. S. Mill

[1843/1962]. Motyw ewolucjonistyczny – ujęcie nauki jako narzędzia

przystosowania – który w USA kojarzy się z instrumentalizmem, w Europie,

m.in. u Poppera i Konrada Lorenza [1973/1977], łączy się z realizmem.

Po upadku empiryzmu logicznego powszechne uznanie tezy o uteoretyzowaniu obserwacj

i

doprowadziło do powstania nowych form antyrealizmu. Np. według

Thomasa Kuhna [1962/1968], nauka polega na rozwiązywaniu łamigłówek

zgodnie z regułami obowiązującego w danym czasie tzw. paradygmatu

(por. II.9). Zmiana paradygmatu przynosi tak radykalną zmianę poglądu na

świat (Weltanschauung), że o żadnym przybliżaniu się nauki do prawdy nie

może być mowy. Z drugiej strony pojawił się tzw. “ostateczny argument na

korzyść realizmu”, zaproponowany przez Richarda Boyda i przejęty przez

background image

Adam Grobler, O metodzie i strukturze nauki 184

Hilarego Putnama. Mówi on, że gdyby nasze teorie nie były choćby

w przybliżeniu prawdziwe, sukcesy nauki zakrawałyby na cud.

Larry Laudan [1977] wzor

em Kuhna, aczkolwiek unikając radykalnych

konsekwencji jego stanowiska, uznał, że zadaniem nauki jest

rozwiązywanie problemów. Nawiązując do Deweyowskiego pragmatyzmu,

odrzucił prawdę jako cel utopijny i dlatego nie do zaakceptowania [Laudan 1984].

Tymczas

em brytyjski kontynuator Poppera, John Watkins [1984/1989]

przedstawił rozróżnienia, które pozwalają obronić realizm przed zarzutem

utopizmu. O celu można według niego mówić w trzech znaczeniach: jako o

czymś do osiągnięcia, jak trafienie w dziesiątkę, jako o czymś, do czego

można się zbliżać bez ostatecznego osiągnięcia, jak zwiększanie

dokładności pomiaru, oraz jako o kierunku dążenia bez określonego

punktu docelowego, jak przedłużanie ludzkiego życia za pomocą

medycyny. Prawdę uznał on za cel nauki w tym trzecim sensie, cel

realizowany przez eliminację błędów (falsyfikację kolejno wysuwanych

hipotez).

Teza o uteoretyzowaniu obserwacji nasuwa myśl, obecną już u Poppera,

że teorie naukowe powstają nie tyle w wyniku empirycznego odkrycia, ile jako

twórcze p

omysły czy mniej lub bardziej swobodne konstrukcje umysłu. Bas

van Fraassen [1980] ten sam motyw uczynił istotnym składnikiem swojego

empiryzmu konstruktywnego

. Jest on niejako odwróceniem realizmu Wilfrieda

Sellarsa [1963], przeciwstawiającego prawdziwy, naukowy wizerunek

świata, z atomami i cząstkami elementarnymi, złudnemu, zjawiskowemu

wizerunkowi, z przedmiotami potocznego doświadczenia. Van Fraassen

twierdzi, że celem nauki może być jedynie adekwatność empiryczna, tj.

prawdziwość teorii w zakresie obserwowalnych (bez użycia przyrządów)

przedmiotów i zdarzeń. O prawdziwości teorii w zakresie rzeczy

nieobserwowalnych nie można się nigdy przekonać z uwagi na niemożność

rozstrzygnięcia między teoriami równoważnymi empirycznie: zgodnymi w

dziedzinie obserwo

walnej, a odmiennych poza nią.

background image

Adam Grobler, O metodzie i strukturze nauki 185

Empiryzm konstruktywny, w odróżnieniu od klasycznego

instrumentalizmu, uznaje tezę o uteoretyzowaniu obserwacji. W

szczególności, “obserwowalny” jest terminem teoretycznym. Nasze teorie

decydują o tym, co należy uznać za obserwowalne, a co nie. Niektórzy

krytycy van Fraassena dopatrywali się w tym sformułowaniu błędnego

koła. Czy ten zarzut jest słuszny, nie jest jasne. Z całą pewnością

natomiast empiryzm konstruktywny zakłada antropocentryzm.

“Obserwowalność” bowiem znaczy tyle, co “obserwowalność dla

człowieka”. Uprzywilejowanie statusu epistemologicznego obserwacji

dokonywanych “gołym okiem” względem obserwacji za pomocą

sztucznych instrumentów (lub za pośrednictwem reakcji innych

organizmów) jest najbardziej kontrowersyjnym rysem tej koncepcji.

Zwłaszcza w świetle teorii obserwacji Shapere’a (II.10).

W odpowiedzi na empiryzm konstruktywny Ronald Giere [1988] ogłosił

realizm konstruktywny

. Będąc zwolennikiem podejścia semantycznego (II.8), za

cel nauki uznał osiąganie coraz większego podobieństwa struktury modeli

do struktury modelowanej dziedziny. Słabością tej koncepcji jest

niejasność pojęcia podobieństwa. Jego związek z pochodzącą od Poppera,

a wadliwie przez niego ujętą, ideą przybliżania się do prawdy (verisimilitude =

“prawdoupodobnienie”)

szczegółowo analizował Ilkka Niiniluoto [1987]. Słabą

stroną jego teorii jest zdefiniowanie oceny stopnia podobieństwa do

prawdy za pomocą pojęć zaczerpniętych z logiki indukcji Carnapa (I.2.2),

obecnie mocno zdezaktualizowanej. Analizą pojęcia prawdoupodobnienia

za pomocą wyrafinowanych środków matematycznych zajmowali się

również inni, m.in. Kuipers i David Miller i jest ono w dalszym ciągu

przedmiotem zainteresowania teoretyków.

Pojawiły się również stanowiska pośrednie między realizmem

a antyrealizmem. Ian Hacking [1983] rozróżnił realizm w sprawie teorii (thory-

realism) i realizm w sprawie przedmiotów (entity-realism

). Pierwszy jest poglądem,

wedle którego kolejne teorie naukowe zmierzają do prawdy, drugi

background image

Adam Grobler, O metodzie i strukturze nauki 186

natomiast polega na uznaniu rzeczywistego istnienia przedmiotów, o

których jest mowa w teoriach. Drugi jest konsekwencją pierwszego, ale nie

na odwrót. Realizm w sprawie przedmiotów, za którym opowiada się

Hacking, nie wymaga uznania teorii, które ich dotyczą, za prawdziwe, czy

w części prawdziwe. Wymaga tylko uznania kilku prawd podstawowych,

niezbędnych do identyfikacji przedmiotów, o których mowa. Prawdy te

zresztą mogą być od teorii tych przedmiotów niezależne. Jako kryterium

istnienia – które z oczywistych powodów musi być niezależne od akceptacji

teorii, o których mowa – przyjmuje Hacking przydatność do manipulacji:

istnieją te przedmioty, którymi można się posłużyć do manipulacji innymi

przedmiotami (w eksperymencie). Pogląd Hackinga bywa nazywany nowym

eksperymentalizmem (w nawiązaniu do eksperymentalizmu Deweya).

Z kolei Nancy Cartwright [1983] ogłosiła, że “prawa fizyki kłamią”:

uniwersalne prawa nauki o dużym stopniu ogólności i dużej mocy

wyjaśniającej, które przeciwstawia konstruowanym za ich pomocą praw

fenomenologicznych o niskim stopniu ogólności, są fałszywe. Pogląd swój

nazwała instrumentalizmem, ponieważ prawa uniwersalne są, zgodnie

z nim, narzędziami formułowania praw fenomenologicznych. Jednak w

stosunku do tych ostatnich Cartwright zajmuje stanowisko zdecydowanie

realistyczne, nie uważając ich za jedynie narzędzia przewidywania.

Realizmem, o ile nie nawet esencjalizmem, wypada też nazwać jej pogląd

[1990], w myśl którego przedmioty występujące w przyrodzie, zależnie od

ich rodzaju, mają pewne stałe dyspozycje do określonego typu działania na

inne przedmioty, zależnie od ich rodzaju. Oddziaływania przyczynowe

redukują się do splotów manifestujących się dyspozycji.

Inną od instrumentalizmu czy ogólniej, antyrealizmu, opozycją wobec

realizmu są różne formy relatywizmu. Już wspominałem (I.4.1), że o

relatywizm oskarżano Thomasa Kuhna [1962/1968] w związku z jego tezą

o niewspółmierności teorii naukowych.. Wzrost liczby opornych, tj. nie

dających się rozwiązać łamigłówek, powoduje kryzys zaufania do

background image

Adam Grobler, O metodzie i strukturze nauki 187

panującego paradygmatu. Dochodzi do rewolucji, która ustanawia nowy

paradygmat, rozpoczyna się kolejny okres nauki normalnej. Teorie

przedzielone rewolucją naukową są niewspółmierne, co znaczy m.in. że

mają radykalnie odmienne ontologie. Zmiana paradygmatu ma charakter

globalny: wedle użytej przez Kuhna metafory, uczeni zachowują się

w swojej działalności tak, jak gdyby w trakcie rewolucji naukowej

przeprowadzili się na inną planetę. Kuhn sugeruje, że nie ma

ponadparadygmatycznych kryteriów oceny teorii i dlatego, mimo jego

energicznych prostestów, powszechnie został uznany za relatywistę.

Z Kuhnem często kojarzony jest Paul Feyerabend który jednocześnie z

nim ogłosił nieco inną wersję tezy o niewspółmierności teorii naukowych.

Feyerabend, początkowo zbliżony do Poppera, stopniowo wyprowadzał

z założeń jego filozofii coraz bardziej kontrowersyjne konsekwencje

usiłując, jak się kiedyś wyraził, sprowadzić ją do absurdu. W stadium

umiarkowanym [1962] ogłosił zasadę pluralizmu teoretycznego, w myśl

której należy równolegle rozwijać różne, wzajemnie niewspółmierne teorie,

jako narzędzia krytyki innych teorii. Zasada ta, zrazu instrumentalna ze

względu na poszukiwanie prawdy, przerodziła się w doktrynę anarchizmu

metodologicznego

[1974/1996]. Według niej należy, nie zważając na

ograniczenia metodologiczne, wysuwać coraz to nowe teorie, nie

rezygnując zarazem ze starych, aby mieć jak najwięcej punktów widzenia

na rzeczywistość. Wielość ujęć teoretycznych staje się celem

autonomicznym. Wpadłszy w koleiny myślenia lewackiego, Feyerabend

[1978] doszedł wreszcie do wniosku, że celem nauki jest to samo, co

celem każdej ludzkiej działalności, tj. szczęście. Z tego punktu widzenia

nauka nie jest ani lepsza, ani gorsza od innych form kultury, np. astrologii,

magii lub znachorstwa.

Zagadnienie pluralizmu teoretycznego skądinąd jest problemem,

którego Popper nie docenił, a podjął go później Lakatos [1970]. Kwestię tę

komentowałem w I.3.4.

background image

Adam Grobler, O metodzie i strukturze nauki 188

Z tezą o niewspółmierności teorii usiłował odeprzeć, ze stanowiska

realizmu, m.in. Hilary Putnam [1975]. Rozwinął on esencjalistyczną

teorię odniesienia przedmiotowego terminów naukowych, wzorowaną

na podobnej teorii Saula Kripkego [1971]. Wedle Putnama, mimo głębokich

zmian teoretycznych, nie zmienia się odniesienie przedmiotowe, czyli

ekstensja, większości terminów naukowych (inaczej mówiąc: zmienia się

treść pojęć naukowych, lecz w większości przypadków nie zmienia się ich

zakres). Np. zmieniają się teorie i modele atomu, jednak termin “atom”

odnosi się wciąż do tego samego jestestwa.

Później Putnam przeszedł na pozycje realizmu wewnętrznego,

ogłaszając tezę o względności pojęciowej. Zgodnie z nią nie ma żadnych

prawd absolutnych, niezależnych od wyboru układu pojęciowego. Nie

można bowiem nic sensownie powiedzieć o świecie “samym w sobie”, bez

uprzedniego narzucenia nań pewnej siatki pojęciowej, bez uprzedniej

kategoryzacji świata. Pojęcie układu pojęciowego, którego autorstwa nie

podejmuję się ustalić, wyłoniło się z dyskusji wokół pomysłów Kuhna i stało

się narzędziem artykulacji zainspirowanych przez niego, rozmaitych wersji

relatywizmu. Donald Davidson [1974] i Karl Popper [1994] krytykując

relatywizm próbowali dowieść, że to pojęcie jest niespójne. Ich argumenty,

z powodów, których tu nie będę rozwijał (omawiałem je w Grobler [2000]),

nie stosują się stosunku do realizmu wewnętrznego, która zresztą różni się

od relatywizmu zasadniczo. Mianowicie, według Putnama, gdy układ

pojęciowy jest ustalony, o tym, co jest prawdą, a co nie, rozstrzyga świat.

Prawda jest więc czymś obiektywnym (realizm), aczkolwiek tylko wewnątrz

danego układu pojęciowego (wewnętrzny). Wydaje się, że układ pojęciowy

u Putnama jest tym, co Ludwig Wittgenstein [1922/1997] nazywał logiczną

przestrzenią możliwości. Z tą różnicą, że Wittgenstein milczy na temat

liczby takich przestrzeni i ewentualnym zastępowaniu jednej przestrzeni

przez inną.

Pojęcie prawdy u Putnama różni się od klasycznego nie tylko

background image

Adam Grobler, O metodzie i strukturze nauki 189

relatywizacją do układu pojęciowego. Putnam odrzuca jako metafizyczny

pogląd, wedle którego mogą istnieć jakieś prawdy z zasady niepoznawalne

i nawet idealna teoria naukowa może być fałszywa. Zainspirowany

antyrealizmem semantycznym

Michaela Dummetta [1978], uznaje prawdę za

pojęcie epistemiczne, tj. niezrozumiałe bez odwołania się do możliwości jej

rozpoznania. Putnam nie odrzuca jednak zasady dwuwartościowości

40

, jak

Dummett. Ten ostatni utożsamiał prawdę ze słuszną stwierdzalnością

(correct assertibility), co zmusza do uznania zdań nierozstrzygalnych za ani

prawdziwe, ani fałszywe. Aby uniknąć rewizji logiki, Putnam zastępuje

słuszną stwierdzalność wyidealizowaną słuszną stwierdzalnością, czyli

stwierdzalnością w optymalnych warunkach poznawczych. Nawiązuje

w ten sposób do koncepcji Peirce’a, wedle której prawda jest idealną

granicą badania naukowego. Innym elementem pragmatyzmu u Putnama

jest myśl, że układy pojęciowe mogą być lepsze lub gorsze, w zależności

od naszych potrzeb. Z uwagi na te związki z tradycją amerykańską,

stanowisko Putnama bywa nazywane również realizmem pragmatycznym lub

neopragmatyzmem.

Do pragmatyzmu nawiązuje również Larry Laudan. Przejął on od Kuhna

myśl, że zadaniem nauki jest rozwiązywanie problemów.

W przeciwieństwie do niego uważa jednak, że istnieje obiektywne

kryterium postępu naukowego, mianowicie wzrost wydajności

w rozwiązywaniu problemów (Progress and Its Problems 1977). Pojęcie postępu

jest wszakże zrelatywizowane do przyjętych wartości. Pogląd ten również

nie prowadzi do relatywizmu. Stosując koncepcję wartości Deweya do

wartości i celów poznawczych, Laudan (Science and Values 1984) twierdzi, że

wybór między nimi podlega racjonalnej dyskusji. Należy przede wszystkim

odrzucić cele nieosiągalne, jakim jest np. prawda lub pewność, oraz cele

niejasno zdefiniowane, jak np. prostota. Kryterium wyboru celów

40 Wedle której

każde zdanie sensowne jest albo jednoznacznie prawdziwe, albo jednoznacznie fałszywe.

Dummett odrzucając tę zasadę sugeruje, że w odniesieniu do spornej klasy zdań, tj. klasy

zdań, na temat której toczy się spór między realizmem a antyrealizmem, należy stosować
logik

ę intuicjonistyczną.

background image

Adam Grobler, O metodzie i strukturze nauki 190

poznawczych ma być stopień ich osiągalności za pomocą dostępnych

metod naukowych, oceniany z punktu widzenia najlepszych dostępnych

teorii. W obrębie trójkąta teorie-metody-cele rozwiązywane mają być

również inne kontrowersje związane z badaniami naukowymi. O wyborze

teorii decyduje ocena stopnia realizowania przez nie aktualnie

akceptowanych wartości poznawczych, dokonywana za pomocą

dostępnych reguł metodologicznych, a wybór między alternatywnymi

regułami metodologicznymi zależy od oceny ich efektywności jako

środków do aktualnie akceptowanych celów poznawczych, dokonywanej

z perspektywy aktualnej wiedzy naukowej.

Pod wpływem ideiw rodzaju uteoretyzowania obserwacji, paradygmatu

czy układu pojęciowego, które wzorem Kanta odrzucają nieuprzedzone

doświadczenie, oraz renesansu pragmatyzmu, powstały w latach

osiemdziesiątych koncepcje traktujące teorie naukowe jako swobodne

konstrukcje umysłu, a nie “odkrycia”. Należą do nich m.in. empiryzm

konstruktywny van Fraassena i realizm konstruktywny Gierego. Niektórych

innych filozofów konstruktywizm doprowadził do relatywizmu. Przykładem

może być irrealizm Nelsona Goodmana [1978/1997]. Podmiot poznający,

w jego ujęciu, jest zaangażowany w różne formy światotwórstwa, jak

nazywa on konstruowanie i przekonstruowywanie przedmiotu przy użyciu

uprzedniej wiedzy, wyobraźni i wrodzonych mechanizmów porządkowania

doznań zmysłowych. Światotwórstwo ma miejsce zarówno w działalności

naukowej, jak i artystycznej, a nawet w samym tylko postrzeganiu. Nie ma

podstaw, by wśród wielu tworzonych i przetwarzanych przez podmiot

światów wyróżniać któryś jako “bardziej rzeczywisty” od innych.

Stanowisko Goodmana na pozór jest zbliżone do realizmu wewnętrznego

Putnama. Brakuje w nim jednak idei regulatywnej w rodzaju optymalnych

warunków poznawczych.

Wśród licznych kierunków skłaniających się ku relatywizmowi

najważniejszą pozycję zajmuje Szkoła Edynburska skupiona wokół mocnego

background image

Adam Grobler, O metodzie i strukturze nauki 191

programu socjologii wiedzy

sformułowany w latach siedemdziesiątych przez

Barry’ego Barnesa i Davida Bloora [1984/1993]. Postuluje on metodologię

badań socjologicznych nad mechanizmami powstawania i przekazywania

wiedzy, czy też tego, co w społeczeństwie uchodzi za wiedzę, która

zachowywałaby bezstronność wobec roszczeń do prawdziwości owej

wiedzy lub niby-wiedzy. Innymi słowy, w badaniach społecznych

mechanizmów tworzenia się konsensusu w nauce i jej funkcjonalnych

odpowiednikach w obcych kulturach zaleca abstrahowanie od stosunku

treści badanych systemów przekonań do ich przedmiotu. Pod wpływem

Kuhna, który podkreślał wpływ czynników psychologiczno-społecznych na

kształtowanie się paradygmatu, w rodzaju działania autorytetu, perswazji,

oślego uporu, a nawet tempa wymierania zwolenników starego

paradygmatu, mocny program rości sobie pretensje do nowej

epistemologii. Zgodnie z nią oceny wartości poznawczej przekonań zależą

jedynie od norm akceptowanych w danej kulturze, a nie od stosunku treści

tych przekonań do ich przedmiotu. Krótko mówiąc, nie to jest prawdziwe,

co prawdziwe, lecz to, co za prawdziwe uchodzi wedle norm

obowiązujących w danej kulturze.

Mocny progr

am zainspirował liczne studia nad społecznymi aspektami

kształtowania się pojęć naukowych. Do najbardziej znanych autorów

należą Bruno Latour i Steve Woolgar [1979], Arnold Pickering [1984]

i Steven Shapin [1996]. Twierdzą oni zgodnie, że fakty naukowe są

artefakt

ami, sztucznymi produktami subkultury uczonych, reguł społecznych

działających w ich środowisku. Że czynniki społeczne, w tym reguły

funkcjonowania instytucji naukowych, mają wpływ na rozwój nauki, nie

ulega wątpliwości. Jednak twierdzenie, że na ten rozwój obiektywna

rzeczywistość nie ma żadnego wpływu, lub że nie istnieje nic takiego, jak

obiektywna rzeczywistość, poza rzeczywistością skonstruowaną

społecznie, jest wyrazem relatywizmu. W ostatnich latach liderzy Szkoły

Edynburskiej wyrażają się znacznie bardziej powściągliwie, jak gdyby zdali

background image

Adam Grobler, O metodzie i strukturze nauki 192

sobie sprawę z przesady roszczeń epistemologicznych mocnego programu.

Niedawno zaś amerykański filozof John Searle [1995] wystąpił z koncepcją,

która usiłuje pogodzić realizm naukowy z tezą o istnieniu licznej klasy

faktów społecznie skonstruowanych.

Pojęcia w rodzaju niewspółmierności, paradygmatu, anarchii

metodologicznej, światotwórstwa, względności pojęciowej, czy społecznej

konstrukcji faktów są chętnie podchwytywane przez pisarzy zaliczanych do

postmodernizmu

. Z perspektywy francuskiego pisarza Jacquesa Derridy

[1967/1999), wszelkie teksty (w tym naukowe) odnoszą się nie do żadnej

obiektywnej, pozatekstowej rzeczywistości, lecz do innych tekstów. Zaś

amerykański filozof, Richard Rorty [1980/1994], twierdzi, że wartości

naukowe są wytworem naszej kultury a prawda jest pustym

komplementem prawionym niektórym zdaniom. Z postmodernizmem

związana jest bardzo niejednorodna tzw. lewica akademicka (do której zalicza

się wspomniany wcześniej Feyerabend), wysuwająca różnego typu

roszczenia do emancypacji intelektualnej. Nawiązuje ona m.in. do Michela

Foucaulta [1961/1987], upatrującego w nauce jedynie narzędzie władzy.

Np. pewne odłamy feminizmu głoszą, że nauka jest narzędziem męskiej

dominacji, zaś treść teorii naukowych nie ma nic wspólnego z obiektywną

rzeczywistością, lecz odzwierciedla męskie interesy i męski sposób

postrzegania świata. Pojęcie prawicy akademickiej nie wykształciło się, jak

dotąd. Można byłoby nim objąć, jak sądzę, filozofów o skłonnościach

dogmatycznych, którzy bądź ignorują kierunki skłaniające się ku

relatywizmowi, bądź uważają, że relatywizm sam się obala. Np. niektórzy

polemiści twierdzą, że z założeń mocnego programu wynika, iż roszczenia

poznawcze socjologii wiedzy są nieuzasadnione. Sprawa jest jednak

bardziej skomplikowana. Dlatego warto raczej zmierzać w stronę

akademickiego centrum.

background image

Adam Grobler, O metodzie i strukturze nauki 193

IV.2. Realizm pluralistyczny

Takie centralne stanowisko usiłowałem rozwijać w swoich [1993],

[2000], [2001]. Nawiązuje ono do realizmu wewnętrznego Putnama, a także

do konwencjonalizmu radykalnego Kazimierza Ajdukiewicza [1934]. W tej książce

można znaleźć liczne jego elementy, aczkolwiek przedstawione w

odmiennej stylistyce. Odpowiednikiem putnamowskiego układu

pojęciowego lub aparatury pojęciowej Ajdukiewicza jest tutaj język dziedziny

nauki (II.11). O tym

języku zakłada się, że na każde pytanie w nim sformułowane

istnieje prawdziwa odpowiedź, którą w zasadzie, tj. pomijając niesprzyjające

okoliczności poznawcze, można ustalić empirycznie, odpowiadając na

pytania na temat wyników stosownych eksperymentów lub obserwacji. A

więc zakłada się, że każde zdanie oznajmujące języka jest prawdziwym lub

fałszywym zdaniem o danej dziedzinie, przy czym pojęcie prawdy tu

występujące charakter podobnie epistemiczny jak u Putnama (i

Ajdukiewicza): prawdziwość zdania może być rozpoznana w idealnych

warunkach poznawczych.

Założenia, o których mowa, mają charakter hipotez. Sprowadzają się

bowiem do założeń o zachodzeniu pewnych implikacji lub słabych implikacji

erotetycznych, a więc prawdziwości pewnych presupozycji i hipotez wiedzy

zastanej, użyteczności poznawczej pewnych klasyfikacji, typologii,

częściowych definicji predykatów, idealizacji oraz prawdziwości warunków

ceteris paribus

. Hipotezy te mają charakter empiryczny, a ich odwołanie

skutkuje rewizją dziedziny teorii: wynalezieniem lepszego, ze względu na

określone potrzeby poznawcze, układu pojęciowego. Lepszego, tj. takiego,

że założenia wyznaczające daną dziedzinę są bardziej wiarygodne, a tym

samym bardziej wiarygodne są zdania akceptowane w ramach danej teorii jako

hipotetycznie prawdziwe.

Proces rozwoju teorii i ewolucji jej dziedziny można uważać jako

dwutorowy proces przybliżania się do prawdy. A właściwie wielotorowy,

background image

Adam Grobler, O metodzie i strukturze nauki 194

ponieważ ewentualne rewizje wiedzy zastanej, niezbędne dla rozwoju danej

teorii i/lub jej dziedziny, mogą skutkować rozwojem innych teorii i ich

dziedzin. Przybliżanie się do prawdy jest zatem procesem wzajemnych

dostosowań do siebie różnych fragmentów wiedzy. Przybliżanie się do

prawdy jest tutaj pojęciem porządkowym (dokładniej: częściowego

pseudoporządku), a nie metrycznym. Eksplanacjonistyczne kryteria wyboru

hipotez, sformułowane w I.5.4, wyznaczają bowiem relację (częściowego

pseudoporządku) “bliżej-dalej”, a nie funkcję “odległe od tego-i-tego o tyle-a-

tyle”. Prawda nie jest tutaj rozumiana jako pewien punkt docelowy,

osiągalny lub przybliżalny. Z uwagi na idealizacyjny charakter naszego

poznania takiego punktu może nie być, albo może być więcej niż jeden.

Może bowiem być tak, choć nie musi, że nie istnieje ostateczna faktualizacja,

uchylająca wszystkie idealizacje, albo że w różnych kontekstach

poznawczych różne, niezgodne ze sobą idealizacje są trafne ze względu na

potrzeby poznawcze w danym kontekście.

Jest to dość heretycki sposób rozumienia prawdy i dlatego mój akces do

obozu realizmu może być potraktowany podejrzliwie. Zwłaszcza jeżeli wziąć

pod uwagę, że określenie dziedziny łączy się – jak napisałem w II.10 – z

konstruowaniem faktów. Klasycznie zaś pod pojęciem prawdy rozumie się

zgodność z absolutnymi, a więc obiektywnymi, a nie skonstruowanymi

faktami. Jednak moje stanowisko na tyle różni się od instrumentalizmu i

relatywizmu, że nie poczuwam się do nadużycia. Ujęcie rozwoju nauki jako

procesu wzajemnych dostosowań do siebie różnych współistniejących teorii i

ich dziedzin,jest dla instrumentalizmu niedostępne. Jeżeli teorie mają być

tylko narzędziem przewidywania, po cóż dbać o ich uzgadnianie ze sobą,

gdy każda z nich jest dobrym narzędziem w swojej dziedzinie. Toteż

instrumentalizm, włączając w to empiryzm konstruktywny, a nawet realizm

Hackinga ograniczony do przedmiotów, nie jest w stanie należycie wyjaśnić,

dlaczego Einsteina słusznie trapiły niezgodności między mechaniką

klasyczną a klasyczną teorią elektromagnetyzmu albo dlaczego skłonni

background image

Adam Grobler, O metodzie i strukturze nauki 195

jesteśmy ewentualnie praktykować akupunkturę, ale nie zaakceptować

niezgodną z nauką zachodnią jej teorię, teorię kanałów transmisji energii

życiowej. Fakty skonstruowane można uznać dopiero wtedy, gdy mogą

pełnić funkcje teoretyczne nie tylko w jednej dziedzinie, lecz również w

innych, które się z nią krzyżują. “Zatory kanałów transmisji energii życiowej”

tego warunku nie spełniają, dlatego nie są faktami naukowymi. Fakty

naukowe są konstrukcjami na użytek nie czysto instrumentalny, ale na

użytek podawania coraz lepszych wyjaśnień zjawisk. Są więc konstrukcjami

dopasowywanymi, w miarę rosnących potrzeb, do hipotetycznej struktury

rzeczywistości.

Nie twierdzę, że wszystkie składniki teorii czy też modeli teoretycznych

mają interpretację realistyczną, tj. status domysłów na temat prawdy. Nie

wszystkie bowiem są pod kontrolą doświadczenia, nie wszystkie mają

interpretację empiryczną. Np. pytanie o to, czy trajektoria cząstki jest ciągła,

nie ma sensu empirycznego: ewentualne drobne nieciągłości mogą być

niewykrywalne. Natomiast wygodnie jest reprezentować ruch cząstki za

pomocą funkcji ciągłych. Dlatego własności aparatu matematycznego

stosowanego w danej teorii należy uznać raczej za własności środków

reprezentacji jej dziedziny niż za reprezentacje własności samej dziedziny.

Podobnie jak faktura płótna portretu jest własnością malarskiego środka

reprezentacji a nie reprezentacją cech powierzchowności portretowanej

damy. Ten element mojego stanowiska nazwałem w [1993] instrumentalizmem

matematycznym.

Nie znaczy to, że podzielam formalistyczne stanowisko empiryzmu

logicznego (III.1). Ale też nie jestem realistą w stylu Fregego i Russella.

Upatrywali oni jedyne uzasadnieni

e obiektywności matematyki w tym, że jej

przedmiot istnieje obiektywnie.

Ich systemy zmierzające do redukcji matematyki

do logiki miały udowodnić, że ostatecznym przedmiotem matematyki są

powszechnikami w rodzaju platońskich idei. System Fregego, jak

wspominałem (III.1), zawierał błąd wykryty przez Russella. Metaforycznie

background image

Adam Grobler, O metodzie i strukturze nauki 196

rzecz ujmując, Russell wykazał, że platońskie zaświaty matematyczne w

ujęciu Fregego są przeludnione. Rozwiązanie Russella polegało na

wykluczeniu z królestwa matematyki nadmiaru przedmiotów za pomocą

odpowiednich aksjomatów. Można je porównać do prawa skazującego na

banicję nielegalnych imigrantów do świata idei. Później powstały inne

systemy aksjomatyczne teorii mnogości, m.in. von Neumana i Zermelo-

Fraenkla, które ten sam cel – ugruntowanie podstaw matematyki za pomocą

redukcji arytmetyki do teorii mnogości – osiągały inaczej. Ich systemy

również stanowiły swoiste prawo imigracyjne, ale każdy inne. Można stąd

wyciągnąć wniosek, że nie ma żadnych absolutnych kryteriów istnienia

w matematyce, a najwyżej względne kryteria współistnienia.

Paradoks Russella i hip

otetyczna możliwość pojawienia się innych paradoksów

skłoniła m.in. Brouwera i Heytinga do sprzeciwu wobec realizmu. Uznali oni

przedmioty matematyczne za konstrukcje ludzkiego umysłu, istniejące tylko

o tyle, o ile dadzą się skonstruować. Jak wspomniałem w (III.1), różne

warianty konstruktywizmu nie były ze sobą zgodne co do tego, jakie reguły

konstrukcji są dozwolone. Nie ma więc obiektywnej miary odróżniającej

autentyczne konstrukcje od pseudokonstrukcji.

Dlatego skłonny jestem zająć stanowisko pośrednie, wedle którego

matematyka jest nauką quasi-empiryczną (III.1), dostarczającą środków

budowania modeli teoretycznych nauk empirycznych. Jako taka, dopuszcza

hipotetyczne istnienie przedmiotów nieskonstruowanych, dopóki hipoteza o

ich istnieniu nie prowadzi do sprzeczności. Że tym sposobem przedmioty

matematyczne mają tylko istnienie względne, określone niejako zasadami

współistnienia, a nie absolutne istnienie, niezależne od istnienia innych

przedmiotów matematycznych, nie stanowi zasadniczej trudności. Świadczy

to jedynie o tym, że teorie matematyczne mogą mieć różne dziedziny,

zamiast tworzyć naukę o unikatowym świecie platońskich idei.

Na koniec parę słów na temat mocnego programu socjologii wiedzy.

Zapatruję się nań jako na program badań zakładający pewien warunek ceteris

background image

Adam Grobler, O metodzie i strukturze nauki 197

paribus

: że wartość poznawcza przekonań nie ma wpływu na ich

rozpowszechnianie i utrwalanie się w społeczeństwie. Natomiast filozoficzne

teorie wiedzy, obecnej nie wykluczając, zakładają warunek ceteris paribus tej

treści, że wartość poznawcza przekonań jest decydująca dla ich społecznej

akceptacji. Historia nauki dostarcza przykładów naruszenia tego warunku:

hitlerowska fizyka, stalinowska biologia. Przyjmując niejako komplementarne

warunki ceteris paribus, teorie nie stają się konkurencyjne wobec siebie, ale

właśnie komplementarne. To znaczy, mogą one przyczynić się do

rozróżnienia okoliczności, w których jedno lub drugie założenie ceteris paribus

jest uprawnioną idealizacją. Na tej szkicowej próbie zastosowania zasad

metodologicznych tu wyłożonych do samej metodologii muszę, niestety, na

razie poprzestać.

background image

Adam Grobler, O metodzie i strukturze nauki 180

Bibliografia

Ajdukiewicz Kazimierz

1934/1985

Das Weltbild und die Begriffsapparatur,

„Erkenntnis” IV, 259-287. Przekład polski:

Obraz świata i aparatura pojęciowa w: Język i

poznanie, PWN Warszawa, tłum. Franciszek

Zeidler, t. I, ss. 145-174.

Armstrong David

1968

A Materialist Theory of Mind, RKP London.

Axelrod Robert

1984

The Evolution of Cooperation, Basic Book,

New York.

Bacon Francis

1620/1955

Novum Organum, tłum. Jan Wikarjak, PWN

Warszawa (BKF).

Barnes Barry, Bloor David

1982/1992

Relativism, Rationalism and the Sociology of

Knowledge w: Martin Hollis i Steven Lukes

(red.), Rationality and Relativism, Basil

Blackwell, Oxford 1982, ss. 21-47. Przekład

polski: Relatywizm, racjonalizm a socjologia

wiedzy, tłum. Józef Niżnik w: Edmund

Mokrzycki (red.), R cjonalność a styl myślenia,

Wyd. IFiS PAN, Warszawa, ss. 454-497.

Berkeley George

1710/1956

A Treatise Concerning the Principles of

Human Knowledge, Thomas Nelson,

Edinburgh. Przekład polski: Traktat o zasadach

poznania ludzkiego, tłum. J. Leszczyński,

PWN Warszawa (BKF).

Bergson Henri

1903/1963

Introduction à la métaphysique w: „Revue de

la métaphysique et de morale”, vol. 11, Paris.

Przekład polski w: Myśl i ruch. Wstęp do

metafizyki. Intuicja filozoficzna. Postrzeżenie

zmiany. Dusza i ciało, tłum. P. Beylin, K.

Błeszyński, Warszawa.

background image

Adam Grobler, O metodzie i strukturze nauki 181

Bloor David

1976

Knowledge and Social Imagery, Routledge,

London.

Bromberger Sylvan

1966

Why-Questions, w: R. Colodny (red.) Mind

and Cosmos, University of Pittsburgh Press,

Pittsburgh, PA.

1992

On What We Know We Don’t Know:

Explanation, Theory, Linguistics, and How

Questions Shape Them, University of Chicago

Press, Chicago.

Brouwer Luitzen E. J.

1907

Over de Grondslagen der Wiskunde, Maas en

van Suchtelen, Amsterdam.

1975

Collected Works, vol. 1, red. A. Heyting,

North-Holland, Amsterdam.

Brown James R.

1989

The Rational and the Social, Routledge, London.

1994

Smoke and Mirrors, Routledge, London.

Bürger Gottfried A.

1785/1997

Przygody barona Münchhausena, tłum. Hanna

Januszewska, Poznań.

Carnap Rudolf

1936-37/19

69

Testability and Meaning, „Philosophy of

Science” 3. Przekład polski: Sprawdzalność i

znaczenie, tłum. Czesław Znamierowski w: R.

Carnap, Filozofia jako analiza języka nauki,

PWN Warszawa.

1950

Logical Foundations of Probability, University

of Chicago Press, Chicago.

1952

The Continuum of Inductive Methods,

University of Chicago Press, Chicago.

1956

The Methodological Character of Scientific

Concepts, w: H. Feigl, M. Scriven (red.), The

Foundation of Science and the Concepts of

Psychology and Psychoanalysis, Minnesota

University Press, Minneapolis.

Cartwright Nancy

1983

How the Laws of Physics Lie, Clarendon Press,

Oxford.

Causey Robert

1977

Unity of Science, Dordrecht: Reidel

Churchland Patricia S.

1986

Neurophilosophy,: MIT Press, Cambridge,

MA.

background image

Adam Grobler, O metodzie i strukturze nauki 182

Collingwood Robin G.

1946

The Idea of History, Oxford University Press,

Oxford.

Darden Lindley, Maul Nancy

1977

Interfield Theories, w: „Philosophy of

Science” 44, ss. 43-64.

Davidson Donald

1970/1992

Mental Events, przedruk w: D. Davidson,

Actions and Events, Clarendon Press, Oxford

1980. Polski przekład: Zdarzenia mentalne,

tłum. Tadeusz Baszniak, w: D. Davidson,

Eseje o prawdzie, języku i umyśle, wybór

Barbara Stanosz, PWN Warszawa, ss. 163-193

(BWF).

1974/1991

On the Very Idea of a Conceptual Scheme,

przedruk w: D. Davidson, Inquiries into Truth

and Interpretation, Oxford University Press,

Oxford 1984. Polski przekład: O schemacie

pojęciowym, tłum. Jarosław Gryz, „Literatura

na Świecie” 5 (238), ss. 100-119.

Derrida Jacques

1967/1999

De la grammatologie, Paris. Polski przekład: O

gramatologii, tłum. Bogdan Banasiak, KR

Warszawa.

Dewey John

1938

Logic: The Theory of Inquiry, Holt, New

York.

Dilthey Wilhelm

1883

Einleitung in die Geisteswissenschaften, w:

Gesammelte Schriften, Stuttgart 1959.

Duhem Pierre

1906

La theorie physique, son object et sa structure,

Chevalier et Riviére, Paris. Polski przekład

(fragmenty) w: P. Duhem, Filozofia nauki.

Wybór pism, UWrocł. 1991.

Dummet Michael

1978

Truth and Other Enigmas, Harvard University

Press, Cambridge MA.

Dupré John

The Disorder of

Things,

Harvard

University

The Disorder of Things, Harvard University

Press, Cambridge MA.

background image

Adam Grobler, O metodzie i strukturze nauki 183

Press,

Cambridge

MA.

Durkheim Émile

1895/1968

Les regles de la methode sociologique, Alcan,

Paris. Polski przekład: Zasady metody

socjologicznej, tłum. Jerzy Szacki, Warszawa.

Earman John

1992

Bayes or Bust, MIT Press, Cambridge, MA.

Feyerabend Paul K.

1962/1979

Reduction, Explanation, and Empiricism , w:

Feigl H. i G. Maxwell (red.), Minnesota Studies

in the Philosophy of Science III, Minnesota

University Press, Minneapolis. Polski przekład:

Redukcja, wyjaśnianie i empiryzm, tłum.

Krystyna Zamiara, w: P. Feyerabend, Jak być

dobrym empirystą?, PWN Warszawa.

1965

Problems of Empiricism I w: Robert Colodny

(red.), Beyond the Edge of Certainty,

Englewood Cliffs, New York.

1974/1996

Against Method, NLB London. Polski przekład

(na podstawie wyd. z 1987): Przeciw metodzie,

tłum. Stefan Wiertlewski, Siedmioróg,

Wrocław.

1978

Science in a Free Society, NLB, London.

Fleck Ludwik

1935/1986

Entstehung und Entwicklung einer

wissenschaftlichen Tatsache, Benno Schwabe

und Co. Verlagbuchhandlung, Basel. Polski

przekład: Powstanie i rozwój faktu naukowego,

tłum. Maria Tuszkiewicz, Wyd. Lubelskie,

Lublin.

Fodor Jerry

1974

Special Sciences - or the Disunity of Science

as a Working Hypothesis, Synthese 28, 97-115.

Frege Gottlob

1893

Grundgesetze der Arithmetik, H. Pohle, Jena,

Bd. I (Bd. II – 1903).

Foucault Michel

1961/1987

Histoire de la Folie, Librairie Plon, Paris.

Przekład polski: Historia szaleństwa w dobie

background image

Adam Grobler, O metodzie i strukturze nauki 184

klasycyzmu, tłum. Helena Kęszycka, PIW

Warszawa.

Fromm Erich

1951/1994

Forgotten language, Grove Press, New York.

Polski przekład: Zapominany język, tłum.

Józef Marzęcki, PIW, Warszawa.

Giere Ronald

1988

Explaining Science, Chicago University Press,

Chicago.

Glymour Clark

1980

Theory and Evidence, Princeton University

Press, Princeton.

Goodman Nelson

1954

Fact, Fiction, and Forecast, Harvard University

Press, Cambridge, MA.

1978/1998

Ways of Worldmaking, Hackett, Indianapolis.

Polski przekład: Jak tworzymy świat, tłum.

Michał Szczubiałka, Aletheia, Warszawa.

Grobler Adam

1993

Prawda i racjonalność naukowa, Inter Esse,

Kraków.

2000

Prawda a względność, Aureus, Kraków.

2001

Pomysły na temat prawdy i sposobu

uprawiania filozofii w ogóle, Aureus, Kraków.

Grobler Adam,

Wiśniewski Andrzej

2002

Explanation and theory-evaluation, w: Roberto

Festa, Volume in Debate with Theo Kuipers,

Kluwer, Dordrecht-Boston.

Hacking Ian

1983

Representing and Intervening, Cambridge

University Press, Cambridge, UK.

Harding Sandra

1986

The Science Question in Feminism, Cornell

University Press, Ithaca.

Harman Gilbert

1965

Inference to the Best Explanation,

„Philosophical Review” 74.

Hempel Carl G.

1966/2001

Philosophy of Natural Science, Prentice-Hall,

Englewood Cliffs, NJ. Polski przekład:

Filozofia nauk przyrodniczych, tłum. Barbara

Stanosz, Fundacja Aletheia, Warszawa.

Hempel Carl G.,

Oppenheim Paul

1948

Studies in the Logic of Explanation,

„Philosophy of Science” 15, ss. 135-175.

Heyting Arend

1930

Die formalen Regeln der intuitionistischen

Logik, w: Sitzungsberichte der

background image

Adam Grobler, O metodzie i strukturze nauki 185

Preußische Akademie der Wissenschaften,

Berlin.

1956

Intuitionism: An Introduction, North

Holland, Amsterdam. Wyd. III poprawione

1971.

Hintikka Jaakko

1966

A Two-Dimensional Continuum of Inductive

Methods, w: J. Hintikka, P. Suppes (red.),

Aspects of Inductive Logic, North-Holland,

Amsterdam.

1983

New Foundations for a Theory of Questions

and Answers, w: F. Kiefer (red.), Questions

and Answers, Reidel, Dordrecht, ss. 159-90.

1992

The Interrogative Model of Inquiry as a

General Theory of Argumentation,

„Communication and Cognition” 25, ss.

221-42.

1992

Eseje logiczno-filozoficzne, tłum. Adam

Grobler, PWN Warszawa (BWF).

Hosiasson-Lindenbaum Janina 1940

On Confirmation, „Journal of Symbolic Logic”

5.

Hume David

1748/2001

An Enquiry Concerning Human

Understanding. Polski przekład: Badania

dotyczące rozumu ludzkiego, tłum. Jan

Łukasiewicz, Kazimierz Twardowski, de

Agostini, Warszawa 2001.

Husserl Edmund

1913/1975

Ideen. Przekład polski: Idee czystej

fenomenologii i fenomenologicznej filozofii,

tłum. Danuta Gierulanka, PWN Warszawa

(BWF).

James William

1897/1996

The Will to Believe, przedruk w: W. James,

The Will to Believe and Other Essays in

Popular Philosophy, Dover, New York 1956.

Polski przekład: Wola wiary, w: W. James,

Prawo do wiary, tłum. Adam Grobler, Znak,

background image

Adam Grobler, O metodzie i strukturze nauki 186

Kraków.

1907/1998

Pragmatism: A New Name for Some Old Ways

of Thinking, Hackett, Indianapolis-Cambridge.

Polski przekład: Pragmatyzm. Nowe imię paru

starych stylów myślenia, tłum. Michał

Szczubiałka, KR Warszawa.

Kaiser Matthias

1991

From Rocks to Graphs - The Shaping of

Phenomena, „Synthese” 111-133.

Kałuszyńska Elżbieta

1994

Modele teorii empirycznych, IFiS PAN.

Kant Immanuel

1781/1986

Kritik der reinen Vernunft. Polski przekład:

Krytyka czystego rozumu, tłum. Roman

Ingarden, PWN Warszawa (BKF).

1785/1984

Uzasadnienie metafizyki moralności, tłum.

Mścisław Wartenberg, popr. Roman Ingarden,

PWN Warszawa (BKF).

Kartezjusz (Descartes René)

1637/1981

Discours de la méthode. Polski przekład:

Rozprawa o metodzie, tłum. Wanda

Wojciechowska, PWN Warszawa.

Kemeny John,

Oppenheim Paul

1956

On Reduction, „Philosophical Studies” 7, 6-19.

Kitcher Phillip

1981

Explanatory Unification, „Philosophy of

Science” 48, 507-531.

1984

The Nature of Mathematical Knowledge,

Oxford University Press, Oxford.

Koterski Artur

2001/2002

Weryfikacjonistyczne kryteria demarkacji w

filozofii nauki Koła Wiedeńskiego. Wyd. I,

z błędami, UMCS Lublin. Wyd. II, poprawione i

rozszerzone, Centrum Nauki Języka

Angielskiego Metodą Callana Akces, Poznań.

Koterski Artur (red.)

2000

Spór o zdania protokolarne, Fundacja Aletheia,

Warszawa.

Krajewski Władysław

1974

Idealizacja, redukcja, korespondencja, w: W.

Krajewski, W. Mejbaum, J. Such (red.),

Zasada korespondencji w fizyce a rozwój nauki,

Warszawa.

background image

Adam Grobler, O metodzie i strukturze nauki 187

1977

Correspondence Principle and Growth of

Science, Kluwer, Dordrecht.

1998

Prawa nauki, KiW Warszawa. Wyd. II

zmienione (Wyd I 1982).

Kripke Saul

1972/1988

Naming and Necessity, w: Harman G., D.

Davidson (red.), Semantics of Natural

Language, Reidel, Dordrecht. Wydana potem

oddzielnie przez Basil Blackwell, Oxford1980.

Przekład polski: Nazywanie i konieczność, tłum.

Bohdan Chwedeńczuk, Aletheia, Warszawa.

Kuhn Thomas S.

1961/1985

The Function of Measurement in Modern

Physical Science, „Isis” 52, 161-190. Przedruk

w: T. Kuhn, The Essential Tension, University

of Chicago Press, Chicago 1977. Polski

przekład: Funkcja pomiaru w nowożytnej

fizyce, tłum. Stefan Amsterdamski, w: T. Kuhn,

Dwa bieguny, PIW Warszawa, 255-315.

1962/1968

The Structure of Scientific Revolutions,

University of Chicago Press, Chicago. Przekład

polski: T. Kuhn, Struktura rewolucji

naukowych, tłum. Halina Ostromęcka, PWN

Warszawa.

Kuipers Theo A. F.

2001

Structures in Science, Kluwer, Dordrecht.

Kuipers Theo A. F.,

Wiśniewski Andrzej

1994

An Erotetic Approach to Explanation by

Specification, „Erkenntnis” 40, 377-402.

Lakatos Imre

1970/1995

Falsification and the Methodology of Scientific

Research Programmes, w: I. Lakatos, A.

Musgrave (red.), Criticism and the Growth of

Knowledge, Cambridge University Press,

Cambridge. Polski przekład: Falsyfikacja a

metodologia naukowych programów

badawczych, tłum. Wojciech Sady, w: I.

Lakatos, Pisma z filozofii nauk przyrodniczych,

PWN Warszawa (BWF).

background image

Adam Grobler, O metodzie i strukturze nauki 188

1976

Proofs and Refutations, Cambridge University

Press, Cambridge UK.

Latour Bruno,

Woolgar Steve

1979

Laboratory Life: The Construction of Scientific

Facts, Princeton University Press, Princeton.

Laudan Larry

1977

Progress and Its Problems, University of

California Press, Berkeley.

1984

Science and Values, University of California

Press, Berkeley.

Lem Stanisław

1957

Dzienniki gwiazdowe, Iskry, Warszawa.

Le Roy Édouard

1899-1990 Science et philosophie, „Revue de

métaphysique et de morale” 7, 8.

Lewis Clawrence I.

1946

An Analysis of Knowledge and Valuation,

Open Court, La Salle, IL.

Lewis David

1973

Counterfactuals, Harvard University Press,

Cambridge, MA.

Lipton Peter

1991

Inference to the Best Explanation, Routledge,

London.

2000

Logman Dictionary of Contemporary English,

III wyd., Longman , Essex.

Lorenz Konrad

1973/1977

Odwrotna strona zwierciadła, PIW, Warszawa.

Mach Ernst

1985

Die Analyse der Empfindungen, Jena.

Malinowski Bronisław

1922/1981

Argonauts of the Western Pacific, Routledge,

London. Polski przekład: Argonauci

Zachodniego Pacyfiku, tłum. B. Olszewska-

Dyoniziak, S. Szynkiewicz, Warszawa 1967.

Przedruk w: Dzieła, t. 3, Warszawa.

Mill John Stuart

1843/1962

System of Logic: Ratiocinative and Inductive.

Polski przekład: System logiki dedukcyjnej i

indukcyjnej, tłum. Czesław Znamierowski,

PWN Warszawa (BKF).

Miller David

1974

Popper’s Qualitative Theory of Verisimilitude,

„The British Journal for the Philosophy of

Science” 25.

Mises Richard von

1957

Probability, Statistics, and Truth, Dover, New

York.

Mortimer Halina

1982

Logika indukcji, PWN Warszawa.

background image

Adam Grobler, O metodzie i strukturze nauki 189

Morton Adam

1977/2002

A Guide Trough The Theory Of Knowledge,

Blackwell Publishers, Oxford, II Wyd. 1997.

Polski Przekład: Przewodnik po teorii

poznania, tłum. Tadeusz Baszniak, Spacja

Warszawa.

Nagel Ernest

1961/1970

The Structure of Science, Hartcourt, New

York. Polski przekład: Struktura nauki, PWN

Warszawa.

Niiniluoto Ilkka

1987

Truthlikeness, Reidel, Dordrecht.

Nowaczyk Adam

1990

Wprowadzenie do logiki nauk ścisłych, PWN

Warszawa.

Papineau David

1978

For Science in the Social Sciences, St. Martin’s

Press, New York.

Peirce Charles Sanders

1887

The Fixation of Belief, „Popular Science

Monthly” 12, 1-15.

1878

How to Make Our Ideas Clear, „Popular

Science Monthly” 12: 286-302.

Piątek Zdzisława

1988

Aspekty antropocentryzmu, UJ, Kraków.

Pickering Arnold

1984

Constructing Quarks: A Sociological History

of Particles Physics, Edinburgh University

Press, Edinburgh.

Placek Tomasz

1998

Łukasiewicz’s Logical Probability and a Puzzle

about Conditionalisation, w: Katarzyna Kijania-

Placek, Jan Woleński (red.), The Lvov-Warsaw

School and Contemporary Philosophy, ss.

337-340, Reidel, Dordrecht.

Poincaré Henri

1902

La Science Et L’hypothèse, Paris. Polski

przekład: Nauka i hipoteza, tłum. L.

Silberstein, J. Mortkowicz, Warszawa 1908.

Fragmenty w: Irena Szumilewicz, Poincaré,

Wiedza Powszechna, Warszawa 1978.

background image

Adam Grobler, O metodzie i strukturze nauki 190

1905

La valeur de la science, Paris. Polski przekład:

Wartość nauki, tłum. L. Silberstein, J.

Mortkowicz, Warszawa 1908. Fragmenty w:

Irena Szumilewicz, Poincaré, Wiedza

Powszechna, Warszawa 1978.

1908

Science et méthode, Paris 1908. Polski

przekład: Nauka i metoda, tłum. L. Silberstein,

J. Mortkowicz, Warszawa 1911. Fragmenty w:

Irena Szumilewicz, Poincaré, Wiedza

Powszechna, Warszawa 1978.

Popper Karl R.

1934/1959/

1977

Logik der Forschung, Springer, Berlin. Wyd.

poszerzone w języku angielskim: The Logic of

Scientific Discovery, Hutchinson, London 1959.

Polski przekład: Logika odkrycia naukowego,

tłum. Urszula Niklas, PWN, Warszawa.

1963/1999

Conjectures and Refutations, Routledge,

Londyn. Polski przekład: Droga do wiedzy.

Domysły i refutacje, tłum. Stefan

Amsterdamski, PWN Warszawa (BWF).

1972/1992

Objective Knowledge, Oxford University Press,

Oxford. Przekład polski: Wiedza obiektywna,

tłum. Adam Chmielewski, PWN Warszawa

(BWF).

1994/1997

The Myth of the Framework. In Defence of

Science and Rationality, Routledge, London.

Polski przekład: Mit schematu pojęciowego. W

obronie nauki i racjonalności, tłum. Bohdan

Chwedeńczuk, Książka i Wiedza, Warszawa.

Przełęcki Marian

1969/1988

The Logic of Empirical Theories, RKP

London. Polski przekład: Logika teorii

empirycznych, tłum. Jolanta Ewa Jasińska,

PWN Warszawa.

background image

Adam Grobler, O metodzie i strukturze nauki 191

Putnam Hilary

1975

The Meaning of ‘Meaning’, w: Keith

Gunderson (red.), Minnesota Studies in the

Philosophy of Science, vol. 7, University of

Minnesota Press, Minneapolis. Przedruk w: H.

Putnam, Philosophical Papers, vol. II, Mind,

Language and Reality, Cambridge University

Press, Cambridge-New York. Polski przekład:

Znaczenie wyrazu „znaczenie”, w: [Putnam

1998].

1978

Meaning and the Moral Sciences, RKP

London.

1983

Why there is not a ready-made world, w:

Realism and Reason. Philosophical Papers,

vol. 3, Cambridge University Press, Cambridge

UK. Polski przekład: Dlaczego świat nie jest

wyrobem gotowym, w: [Putnam 1998].

1998

Wiele twarzy realizmu i inne eseje, wybór i

tłum. Adam Grobler, PWN Warszawa (BWF).

Quine Willard Van Orman

1951/2000

Two Dogmas of Empiricism, „Philosophical

Review” 60, 20-43. Przedruk w: W.V.

Quine, From a Logical Point of View, Harvard

University Press, Cambridge, MA 1953, II

wyd. zmienione 1961. Polski przekład: Dwa

dogmaty empiryzmu, w: Z punktu widzenia

logiki, tłum. Barbara Stanosz, Fundacja

Aletheia, Warszawa.

Reichenbach Hans

1938

Experience and Prediction, University of

Chicago Press, Chicago.

background image

Adam Grobler, O metodzie i strukturze nauki 192

1949

The Theory of Probability, University of

California Press, Berkeley-Los Angeles.

Poszerzone wydanie wcześniejszego (1935)

Wahrscheinlichkeitslehre A.W. Sijthoff’s

Uitgeversmattschappij, Leiden, tłum. (na j.

ang.) E.H. Hutton and M. Reichenbach.

1956

The Direction of Time, University of

California Press, Berkeley-Los Angeles.

Rorty Richard

1989/1994

Philosophy and the Mirror of Nature, Princeton

University Press, Princeton. Polski przekład:

Filozofia a zwierciadło natury, Biblioteka

ALETHEIA, tłum. Michał Szczubiałka, Wyd.

Spacja – Fundacja Aletheia, Warszawa.

Russell Bertrand

1903

The Principles of Mathematics, London.

1905/1967

On denoting, „Mind” 14. Przedruk w: H. Feigl,

W. Sellars (red.), Readings in Philosophical

Analysis, Appleton-Century-Crofts, New York

1949 oraz I. Copi, J.A. Gould (red.),

Contemporary Readings in Logical Theory,

MacMillan, New York 1967. Polski przekład:

Denotowanie, w: J. Pelc (red.), Logika i język,

PWN Warszawa.

Ryle Gilbert

1949/1970

The Concept of Mind, Barnes and Noble, New

York. Polski przekład: Czym jest umysł, tłum.

Witold Marciszewski, PWN Warszawa.

Sady Wojciech

1990

Racjonalna rekonstrukcja odkryć naukowych,

UMCS, Lublin (RRR 29).

2000

Spór o racjonalność naukową od Poincarégo do

Laudana, FUNNA, Wrocław (Monografie

FNP).

Salmon Wesley

Statistical Explanation, w: W. Salmon et al.,

Statistical Explanation and Statistical Relevance,

Pittsburg University Press, Pittsburg.

background image

Adam Grobler, O metodzie i strukturze nauki 193

Four Decades of

Explanation

, University

of

Minnesota

Press,

Minneapoli

s.

Four Decades of Explanation, University of

Minnesota Press, Minneapolis.

Scriven Michael

1962

Explanations, Predictions and Laws, w: H.

Feigl, G. Maxwell (red. ) Minnesota Studies in

the Philosophy of Science, vol. 3, University of

Minnesota Press, Minneapolis.

Sellars Willfried

1963

Science, Perception, and Reality, Routledge,

London.

Shapere Dudley

1974

Scientific Theories and Their Domains, w:

Frederick Suppe (red.), The Structure of

Scientific Theories, University of Illinois

Press, Urbana. Przedruk w: D. Shapere, Reason

and the Search for Knowledge, „Boston Studies

in the Philosophy of Science”, t. 78, Boston.

1982

The Concept of Observation in Science and

Philosophy, „Philosophy of Science” 49.

Skrócona wersja w: D. Shapere, Reason and the

Search for Knowledge, „Boston Studies in the

Philosophy of Science”, t. 78, Boston.

Shapin Steven

1996/2000

The Scientific Revolution, The University of

Chicago Press, Chicago. Polski przekład:

Rewolucja naukowa, tłum. Stefan

Amsterdamski, Prószyński i S-ka.

Sklar Lawrence

1967

Types of Intertheoretic Reduction, „The British

Journal for the Philosophy of Science” 18.

Searle John

1995

The Construction of Social Reality, Simon and

Schuster, New York.

background image

Adam Grobler, O metodzie i strukturze nauki 194

Sneed Joseph

1971

The Logical Structure of Mathematical

Physics, Reidel, Dordrecht.

Stalnaker Robert

1984

Inquiry, MIT Press/Bradford Books,

Cambridge, MA.

Stegmüller Wolfgang

1979

The Structuralist View of Theories, Springer,

Berlin.

Strawson Peter

1950

On referring, „Mind” 49. Przedruk w: Logico-

Linguistic Papers, Methuen, London 1971.

Polski przekład: O odnoszeniu się użycia

wyrażeń do przedmiotów, w: J. Pelc (red.),

Logika i język, PWN Warszawa.

1952

Introduction to Logical Theory,

Methuen, London.

1992/1994

Analysis and Metaphysics, Oxford University

Press, Oxford. Zmienione angielskie wydanie

francuskiej wersji, Analyse et Metaphysique,

Vrin, Paris 1985. Polski przekład: Analiza i

metafizyka. Wstęp do filozofii, tłum. Adam

Grobler, Znak, Kraków.

Suppe Frederick

1989

The Semantic Conception of Theories and

Scientific Realism, University of Chicago

Press, Chicago.

Suppes Patrick

1967

Set-Theoretical Structures in Science, Stanford

University Press, Stanford.

Suszko Roman

1957

Logika formalna a niektóre zagadnienia teorii

poznania, „Myśl Filozoficzna” 2 i 3. Przedruk

w: Tadeusz Pawłowski (wybór), Logiczna

teoria nauki, PWN Warszawa 1966.

background image

Adam Grobler, O metodzie i strukturze nauki 195

Tarski Alfred

1930

Fundamentale Begriffe der Methodologie der

deduktiven Wissenschaften I’, Monatshefte für

Mathematik und Physik 37, 361-404. Przekład

angielski: Fundamental

Concepts of the Methodology of Deductive

Sciences, tłum. J.H. Woodger, w: A. Tarski

(red. J. Corcoran) Logic, Semantics,

Metamathematics: Papers from 1923 to 1938,

Hackett, Indianapolis 1956.

1933

Pojęcie prawdy w językach nauk

dedukcyjnych, Towarzystwo Naukowe

Warszawskie. Przedruk w: A. Tarski, Pisma

logiczno–filozoficzne, t. I, PWN Warszawa

1995 (BWF).

Topolski Jerzy

1978

Rozumienie historii, PIW Warszawa.

Toulmin Stephen

1972

Human Understanding, Princeton University

Press, Princeton.

van Fraassen Bas

1970

On the Extension of Beth’s Semantics of

Theories, „Philosophy of Science” 37, 325-34.

1980

The Scientific Image, Clarendon Press,

Oxford.

Von Wright Georg

1966

The Paradoxes of Confirmation, w: J. Hintikka,

P. Suppes (red.), Aspects of Inductive Logic,

Amsterdam.

Watkins John

1984/1989

Science and Scepticism, Princeton University

Press. Polski przekład (skrócony): Nauka i

sceptycyzm, tłum. Ewa Chmielecka, PWN,

Warszawa (BWF).

Watson John B.

1913

Psychology as the Behaviorist Views It,

„Psychological Review” 20.

background image

Adam Grobler, O metodzie i strukturze nauki 196

Weber Max

1903-5

Roscher und Knies und die logischen Probleme

der historischen Nationalökonomie. Przekład

ang.: Roscher und Knies: The Logical

Problems of Historical Economics, tłum. G.

Oakes, Free Press, New York 1975.

Wilson Edward

1976

Sociobiology: The New Synthesis, Harvard

University Press, Cambridge, MA.

1978/1988

On Human Nature, Harvard University Press,

Cambridge, MA. Polski przekład: O naturze

ludzkiej, tłum. Barbara Szacka, Zysk i S-ka.

Wiśniewski Andrzej

1990

Stawianie pytań: logika i racjonalność, UMCS

Lublin (RRR 28). Wersja angielska,

rozszerzona: The Posing of Questions: Logical

Foundations of Erotetic Inferences, (Syntheses

Library, vol. 252), Kluwer, Dordrecht 1995.

1996

The Logic of Questions as a Theory of Erotetic

Arguments, Synthese 109, 1-25.

Wittgenstein Ludwig

1922/1997

Tractatus Logico-Philosophicus, Kegan Paul,

London. Polski przekład: Tractatus logico-

philosophicus, tłum. Bogusław Wolniewicz,

PWN Warszawa (BKF).

1953/2000

Philosophical Investigations, Basil Blackwell,

Oxford. Polski przekład: Dociekania

filozoficzne, tłum. Bogusław Wolniewicz, PWN

Warszawa (BKF).

Woodward John

1989

Data and Phenomena, „Synthese” 79.

Wójcicki Ryszard

1974

Metodologia formalna nauk empirycznych,

Ossolineum.

1991a

Filozofia nauki w poszukiwaniu metody,

maszynopis rozpowszechniany wśród

uczestników seminarium Semantyka języków

nauki.

1991b

Teorie w nauce, cz. I, IFiS PAN, Warszawa.

Zahar Elie

1995

The problem of empirical basis, w: O’Hear

Anthony (red.), Karl Popper: Philosophy and

background image

Adam Grobler, O metodzie i strukturze nauki 197

Problems, Cambridge UP.

Znaniecki Florian

1922

Wstęp do socjologii, Poznań.

background image

Adam Grobler, O metodzie i strukturze nauki 198

Indeks osób

Ajdukiewicz Kazimierz

Amsterdamski Stefan

Anaksymander z Miletu

Arystoteles ze Stagiry

Armstrong David

Axelrod Robert

Bacon Francis

Barnes Barry

Bayes Thomas

Berkeley George

Bergson Henri

Bloor David

Bohr Niels

Boyle Robert

Bromberger Sylvain

Brouwer Luitzen E. J.

Brown James R.

Bourbaki Nicolaus

Bürger Gottfried

Carnap Rudolf

Cartwright Nancy

Cauchy Augustin L.

Causey Robert

Chmielewski Adam

Churchland Patricia S.

Collingwood Robin G.

Comte August

Coulomb Charles-Augistine

Darden Lindley

Davidson Donald

Demokryt z Abdery

Derrida Jacques

Dewey John

Dilthey Wilhelm

Duhem Pierre

Dummet Michael

Dupré John

Durkheim Emil

Earman John

Engel Jerzy

Einstein Albert

Euklides z Aleksandrii

Feyerabend Paul K.

Fleck Ludwik

Fodor Jerry

Frege Gottlob

Fresnel Augustin J.

Freud Sigmund

Fries Jacob F.

Foucault Michel

Fraenkel Abraham

Fromm Erich

Galileusz (Galileo Galilei)

Gauss Karl F.

Giere Ronald

Glymour Clark

background image

Adam Grobler, O metodzie i strukturze nauki 199

Goodman Nelson

Grobler Adam

Hacking Ian

Harding Sandra

Harman Gilbert

Hempel Carl G.

Heyting Arend

Hilbert David

Hintikka Jaakko

Hosiasson-Lindenbaum

Latour Bruno

Le Roy Edouard

Łobaczewski

Hume David

James William

Kaiser Matthias

Kałuszyńska Elżbieta

Kant Immanuel

Kartezjusz (Descartes René)

Kemeny John

Kepler Johannes

Kitcher Phillip

Klein Felix

Kołmogorow Andriej

Kołodko Grzegorz

Koterski Artur

Krajewski Władysław

Kripke Saul

Kuhn Thomas S.

Kuipers Theo A. F.

Kwaśniewska Jolanta

Lakatos Imre

Laudan Larry

Leibniz Wilhelm G.

Lem Stanisław

Lepper Andrzej

Leverrier Urbain

Lewis Clawrence I.

Lewis David

Lisek

Linneusz (Linné Carl)

Lipton Peter

Longman

Lorentz Hendrik A.

Lorenz Konrad

Mach Ernst

Malinowski Bronisław

Mały Książę

Mariott Edme

Maul Nancy

Mendel Gregor J.

Michelson Albert A.

Mill John Stuart

Miller David

Mises Richard von

Morgan August de

Morley Edward W.

Morris Charles

Mortimer Halina

Münchausen, baron

Murawski Roman

Nagel Ernest

background image

Adam Grobler, O metodzie i strukturze nauki 200

Neumann John von

Neurath Otto

Newton Isaack

Niiniluoto Ilkka

Nowaczyk Adam

Oppenheim Paul

Papineau David

Pawłow Iwan

Peano Giuseppe

Peirce Charles Sanders

Périer Florin

Piątek Zdzisława

Pickering Arnold

Pitagoras z Samos

Placek Tomasz

Platon

Poincaré Henri

Popper Karl R.

Przełęcki Marian

Ptolemeusz

Putnam Hilary

Quine Willard Van Orman

Reichenbach Hans

Riemann Bernhard G. F.

Rickert Heinrich

Rorty Richard

Russell Bertrand

Ryle Gilbert

Saccheri Girolamo

Sady Wojciech

Salmon Wesley

Scriven Michel

Sellars Willfried

Semmelweiss Ignaz

Shapere Dudley

Shapin Steven

Sklar Lawrence

Searle John

Sneed Joseph

Stalnaker Robert

Stegmüller Wolfgang

Stokes Georg G.

Strawson Peter

Suppe Frederick

Suppes Patrick

Suszko Roman

Tales z Miletu

Tarski Alfred

Topolski Jerzy

Torricelli Ewangelista

Toulmin Stephen

van Fraassen Bas

von Wright Georg

Watkins John

Watson John

Weber Max

Whewell William

Whitehead Alfred

Wilson Edward

Winch Peter

Windelband Wilhelm

Wiśniewski Andrzej

background image

Adam Grobler, O metodzie i strukturze nauki 201

Wittgenstein Ludwig

Woodward John

Woolgar Steve

Wójcicki Ryszard

Zagłoba Jan Onufry

Zahar Elie

Zermelo Ernst

Znaniecki Florian

background image

Adam Grobler, O metodzie i strukturze nauki 202

Indeks rzeczowy

abdukcjonizm

adekwatność empiryczna

anarchizm metodologiczny

antynaturalizm

antyrealizm

semantyczny

anything goes

a priori

argument transcendentalny

argumentacyjna funkcja języka

aksjomat

aksjomatyzacja

bayesianizm

baza empiryczna

behawioryzm

analityczny

metodologiczny

naukowy

błąd

błędnego koła

ekwiwokacji

ignotum per ignotum

regresu w nieskończoność

ceteris paribus

czynniki istotne

definicja

częściowa

kontekstowa

operacyjna

projektująca

przez abstrakcję

przez postulaty

regulująca

rekurencyjna

równościowa

sprawozdawcza

wprost

definiendum

definiens

demarkacji

kryterium

problem

dogmatyzm

doxa

dowód

formalny

komputerowy

dylemat

teoretyka

więźnia

dziedzina (domain)

eksperyment

kontrolowany

maskowany (blind)

background image

Adam Grobler, O metodzie i strukturze nauki 203

podwójnie maskowany (double-

blind)

krzyżowy (experimentum crucis)

Michelsona-Morleya

eksplanandum (explanandum)

eksplanans (explanans)

eliminatywizm

empiryzm

konstruktywny

logiczny

esencjalizm

episteme

fakt

faktualizacja

fallibilizm

falsyfikacja

falsyfikacjonizm

falsyfikowalność

feminizm

fenomenologia

fizykalizm

egzemplaryczny (token-physicalism)

typiczny (type-physicalism)

formalizm

fundamentalizm epistemologiczny

(foundationalism)

funkcjonalizm

w filozofii umysłu (psychologii)

w filozofii społecznej (naukach

społecznych)

hipoteza

ad hoc

moc wyjaśniająca h.

preferencja h.

treść empiryczna h. (empirical content)

względny sukces empiryczny h.

holenderski system zakładów (Dutch-book)

holizm

Quine’a

w metodologii nauk społecznych

hyle

idealizacja

identyfikacja

sytuacji obserwacyjnej

intuicjonizm

implikacja erotetyczna

słaba eliminacyjna i. e.

indywidualizm metodologiczny

indukcja

eliminacyjna

enumeracyjna

iloraz zakładu

instrumentalizm

matematyczny

interpretacja

empiryczna

semantyczna

istotność

nomologiczna

przyczynowa

statystyczna

jedność nauki

background image

Adam Grobler, O metodzie i strukturze nauki 204

justyfikacjonizm (justificationism)

kanony indukcji

klasa kontrastu (contrast class)

klasyfikacja

komunikacyjna funkcja języka

koncepcja niezdaniowa teorii naukowych

(non-statement view)

konkretyzacja

konstruktywizm

kontekst

akceptacji (of acceptance)

odkrycia (of discovery)

rozpatrywania (of pursuit)

uzasadnienia (of justification)

zależność wyjaśniania od k.

konwencjonalizm

radykalny

koroboracja (corroboration)

kryterium demarkacji

lewica akademicka (academic left)

logika

czasowa/tensalna

deontyczna

epistemiczna

erotetyczna

filozoficzna

intuicjonistyczna

klasyczna

matematyczna

modalna

nauki

pośrednia

presupozycji

pytań

relewantna

wielowartościowa

matematyka

metoda

intuicyjno-dedukcyjna

hipotetyczno-dedukcyjna

metodologia naukowych programów

badawczych

moc wyjaśniająca

mocny program socjologii wiedzy

model

ikoniczny

metamatematyczny

potencjalny

częściowy p.

semantyczny

symulacyjny

monizm anomalny

możliwe światy

naturalizm

naukowy program badawczy

nauki

dedukcyjne

idiograficzne

empiryczne

nomologiczne

nomotetyczne

background image

Adam Grobler, O metodzie i strukturze nauki 205

o duchu/o kulturze

(Geistenwissenschaften)

przyrodnicze (Natuurwissenchaften,

science)

społeczne (social science)

neopragmatyzm

nierzeczywiste okresy warunkowe

(counterfactuals)

niewspółmierność (incommensurability)

noemat

obserwacja

pragmatyczna teoria o.

Shapere’a teoria o.

uczestnicząca

uteoretyzowanie o.

operacja konsekwencji

operacjonizm

opis

indywiduowy (state description)

statystyczny (structure description)

paradoks

Russella

-y potwierdzania:

doboru krzywej (curve-fitting p.)

kruków

przechodniości

sylogizmu probabilistycznego

zielbieskości (grue)

-y wyjaśniania

barometru i burzy

kiły i paraliżu postępowego

masztu i jego cienia

mężczyzny i pigułki

nieprawidłowej monety

psychoterapii

witaminy C w leczeniu kataru

paradygmat

pas ochronny

pluralizm

metodologiczny

teoretyczny

pogląd otrzymany (received view)

podejście semantyczne do teorii naukowych

podmiot idealny

pomiar

postmodernizm

postulaty teoretyczne

potencjalny falsyfikator hipotezy

potwierdzalność

potwierdzenie (confirmation)

predyktywne kryterium p.

stopień p.

powiązania (constraints)

pragmatyka

logiczna

wyjaśniania

pragmatyzm

prawda

prawdopodobieństwo

aksjomaty rachunku p.

a priori

interpretacja p.

background image

Adam Grobler, O metodzie i strukturze nauki 206

częstościowa

logiczna

subiektywna

warunkowe

prawidłowość

prawo

diachroniczne

jednoznaczne

nauki

pomostowe

przyrody

sformułowanie p.

statystyczne

synchroniczne

presupozycja

pytania

syntagmatyczna

podobieństwo

probabilizm

problem

bazy empirycznej

demarkacji

Duhema

redukcji (zob. redukcja)

rewizji wiedzy zastanej

program badawczy

degenerujący się

heurystyka

negatywna p. b.

pozytywna p. b.

pas ochronny p. b. (protective belt)

postępowy

twardy rdzeń p. b. (hard core)

prostota

przesądy (ich rola w nauce)

przyczyna

abnormalna

istotna

uboczna

pseudonauka

psychologizm

Q-liczby

Q-predykaty

Q-zbiory

racjonalne przekonanie

stopień r. p.

racjonalnego wyboru teoria

racjonalność

natychmiastowa (instant)

odroczona (postponed)

rewizji wiedzy zastanej

randomizacja

realizm

konstruktywny

naukowy

pluralistyczny

pragmatyczny

w sprawie przedmiotów (entity-realism)

w sprawie teorii (theory-realism)

wewnętrzny (internal)

redukcja

nauk do nauki podstawowej

background image

Adam Grobler, O metodzie i strukturze nauki 207

terminów teoretycznych do

obserwacyjnych

reguła

-y korespondencji

-y kulturowe/społeczne

-y wnioskowania

-a dołączania kwantyfikatora

-a odrywania

-a podstawiania

warunkowania (conditionalization rule)

relacja

istotności (relevance)

równoważnościowa

relatywizm

rozumienie (Verstehen)

rzutowalność predykatów (projectibility)

sceptycyzm

semantyka

możliwych światów

Tarskiego

sieć dziedzin teoretycznych

skala

ilorazowa

interwałowa

nominalna

porządkowa

socjobiologia

socjologia humanistyczna/rozumiejąca

socjologizm

spełnianie

spójka definicyjna

strukturalizm (zob. koncepcja niezdaniowa

teorii naukowych)

ścisłość

temat pytania

terminy

dyspozycyjne

klasyfikacyjne

obserwacyjne

pierwotne

teoretyczne

typologiczne

teoria

formalna

niesprzeczność t.

interpretacja empiryczna t. naukowej

częściowa i. e.

model t. (zob. model)

podstawowy składnik t.

racjonalnego wyboru

wg koncepcji niezdaniowej

(strukturalizmu)

wieloodniesienie t. (multireferentiality)

wielozakresowe (interfield)

teza

Duhema-Quine’a

o identyczności (stanów mentalnych i

fizycznych)

o niedookreśleniu teorii przez dane

empiryczne (underdetermination)

o niewspółmierności

(incommensurability)

background image

Adam Grobler, O metodzie i strukturze nauki 208

o uteoretyzowaniu obserwacji (theory-

impregnation, theory-ladeness)

treść empiryczna

trylemat Friesa

twierdzenie

Bayesa

typologia

twardy rdzeń

uczenie się

metodą prób i błędów

przez warunkowanie

uteoretyzowanie obserwacji (theory-

impregnation, theory-ladeness)

użyteczność oczekiwana

warościujące obciążenie nauki

warunek ceteris paribus

warunki przyrostu wiedzy

weryfikowalność

wiedza

towarzysząca (background knowledge)

zastana (background knowledge)

współczynnik humanistyczny

wyjaśnianie

asymetria w.

erotetyczna koncepcja w.

funkcjonalne

intencjonalne

jako unifikacja

klasyczna koncepcja w.

model

dedukcyjno-nomologiczny w.

indukcyjno-statystyczny w.

istotności statystycznej w.

(statistical relevance)

paradoksy w.

przyczynowe

pragmatyka wyjaśniania

przez wyszczególnienie (by

specification)

wnioskowanie do najlepszego

wyjaśnienia (inference to the best

explanation)

względny sukces empiryczny

zasada

korespondencji

krytycyzmu

ograniczonej różnorodności świata

przyczynowości

racji niedostatecznej

wspólnej przyczyny

zakorzenienie (entrenchment)

zdania bazowe


Wyszukiwarka

Podobne podstrony:
MPN 2 Struktura nauki w Polsce
Struktury językowe, Nauki o Ziemi, Geografia, Metodyka - konspekty geografia
Struktura narodowościowa i etniczna w Polsce, Nauki o Ziemi, Geografia, Metodyka - konspekty geograf
Programowanie strukturalne i obiektowe Podręcznik do nauki zawodu technik informatyk
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk prstko
pnom - sciaga, Politechnika śląska - Mechatronika semestr 1 i 2, Podstawy Nauki o materiałach, labor
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk prstko 2
sedno sprawy, Politechnika śląska - Mechatronika semestr 1 i 2, Podstawy Nauki o materiałach, labork
praca o polimerach, Politechnika śląska - Mechatronika semestr 1 i 2, Podstawy Nauki o materiałach,
pnom, Politechnika śląska - Mechatronika semestr 1 i 2, Podstawy Nauki o materiałach, laborki, cw 9
Struktura programu Word, Scenariusz zajęć z informatyki ( gimnazjum - I rok nauki)
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk 2
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk prstko
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk prstko
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk Wydanie II popr
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk Wydanie II popr
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk Wydanie II popr
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk prstko
Programowanie strukturalne i obiektowe Podrecznik do nauki zawodu technik informatyk prstko

więcej podobnych podstron