2. Metoda naukowa (własności metody naukowej)
Według definicji metoda naukowa jest procesem, w którym naukowcy zmierzają do skonstruowania prawidłowej reprezentacji świata. Metoda naukowa jest też zbiorem zasad, na podstawie których przyjmuje się lub odrzuca analizowane teorie lub opisy zjawisk. Za jej pomocą możemy nieustannie poszerzać naszą wiedzę, wzbogacając ją o nowe odkrycia, doświadczenia, prawa, oraz teorie. Z biegiem czasu kolejni filozofowie, oraz myśliciele postrzegali metodę naukową inaczej, każdy z nich odmiennie rozumiał to pojęcie i każdy wysuwał z niego własne wnioski, wzbogacając tym samym naszą wiedzę na ten temat. Toteż dziś możemy przedstawić wiele różnych spojrzeń na to zagadnienie, a także rozróżnić wiele metod naukowych, które prowadzą do zrozumienia i poznania otaczającego nas świata.
"Metoda naukowa sama w sobie donikąd nie prowadzi, nie narodziłaby się nawet, gdyby nie namiętne pragnienie zrozumienia świata" . Tymi słowami Albert Einstein wskazuje cel w jakim w ogóle pojęcie to prosperuje. Mimo, iż na przestrzeni wieków metody naukowe ulegały licznym modyfikacjom to zamysł ich wyodrębniania zawsze był taki sam. Począwszy od Bacona, aż do Poppera wszyscy dążyli do wyznaczenia jak najlepszego uniwersalnego sposobu, za pomocą którego można będzie poznać i opisać otaczający nas świat, oraz rządzące nim prawa. Niezwykle ciężko jest wskazać, która metoda jest najlepsza, czy bliższa prawdzie. Wszystkie z nich mają swoich zwolenników, oraz przeciwników. Każda posiada pewne zalety i równocześnie wady.
Pierwszym, który próbował wyrazić czym jest metoda nowożytnej nauki był Francis Bacon, angielski filozof żyjący na przełomie XVI i XVII wieku. Uważał on, iż celem nauki jest poprawa warunków życia człowieka, a cel ten można uzyskać poprzez zbieranie faktów za pomocą obserwacji i wyprowadzania z nich teorii . Francis Bacon uznał, iż właściwą metodą służącą osiągnięciu poznania jest indukcja , polegająca na wprowadzeniu uogólnień na podstawie eksperymentów i obserwacji faktów, oraz formułowaniu i weryfikowaniu hipotez. Przy czym zaznaczał on, iż indukcja nie powinna wychodzić od przypadkowych doświadczeń, lecz ma odwoływać się do zaplanowanych i celowych eksperymentów, oraz obserwacji. W kolejnych latach jego teoria ulegała licznym modyfikacjom, spotykała się z krytyką, ale także zyskała wielu zwolenników.
Kolejnym Filozofem, który znacznie przyczynił się do kształtowania metody naukowej jest Karl Popper. W dziele pt. ?Logika odkrycia naukowego? wprowadził pojęcie falsyfikowalności, które rozróżnia, czy dana teoria jest teorią naukową czy też nie. Zdaniem Poppera, teoria, aby mogła być uznana za naukową musi zostać ogłoszona publicznie , tak aby szeroka publiczność miała możliwość zapoznania się z jej treścią. Nie możemy, więc uznać za naukę wiedzy tajemnej, nie skonfrontowanej z opiniami innych.
Ponadto teoria powinna czynić przewidywania, precyzyjnie przewidywać wyniki doświadczeń, lub konsekwencje danych zdarzeń, gdyż im bardziej jest szczegółowa, tym bardziej jest podatna na falsyfikację. Czym zatem jest owa falsyfikacja? Otóż falsyfikacja, to wykazanie fałszywości. Jest to procedura metodologiczna, której celem jest obalenie danego zdania, czyli wykazanie jego fałszywości, stanowi ona kryterium przy wykrywaniu hipotez. Oznacza to, iż hipoteza aby mogła zostać uznana za teorię, musi dopuszczać możliwość, iż będzie istniał wynik eksperymentu lub konsekwencja jakiegoś zdarzenia, które umożliwią stwierdzenie, że dana teoria jest błędna. Za przykład tutaj może posłużyć proste zdanie ? Kasia zawsze dostaje piątki z klasówek?. Zdanie to jest falsyfikowalne, gdyż bardzo łatwo możemy dowieść jego prawdziwość, bądź fałszywość. Możemy je obalić jeżeli zauważymy, że Kasia dostała np. dwóję. Hipoteza, która wytrzymała bardziej zróżnicowane próby falsyfikacji zasługuje na większe uznanie, niż ta, która była poddawana mniejszej ilości i mniej różnorodnym próbom obalenia. Jest ona, więc uznawana za bardziej wiarygodną niż jej konkurentka. Należy zauważyć, iż falsyfikacyjność nie wymaga zgodności teorii z doświadczeniem. Uznaje, że także teoria niezgodna z doświadczeniem lub niemożliwa obecnie do zweryfikowanie może być uznana za naukową, a co za tym idzie badana i rozwijana.
Następnym filozofem nauki, o którego teorii niewątpliwie warto wspomnieć zajmując się problemem metody naukowej jest Węgier Imre Lakatos. Jest on twórcą teorii tzw. ?dobrego paradygmatu?. Lakatos zauważył, iż praktycznie każdą teorię da się zmodyfikować tak, aby pozornie falsyfikujący ją eksperyment w jakiś sposób z nią pogodzić. Wprowadził, więc nowe pojęcie ?program badawczy?, który tworzy zbiór teorii podstawowych zwanych paradygmatem. Następnie na podstawie tych teorii buduje się teorie szczegółowe, które są weryfikowalne, albo falsyfikowalne. Gdy pojawiają się jakieś nowe fakty, które w pewien sposób zaprzeczają lub podważają paradygmat, wówczas tworzy się teorię, która wyjaśnia nowe fakty w ramach starego paradygmatu. Niezbędne jest, aby naukowy paradygmat spełniał wyznaczone mu kryteria. Przede wszystkim musi on być spójny logicznie i nie może zawierać zbędnych pojęć, ponadto powinien być zbudowany w taki sposób, aby na jego podstawie można było swobodnie budować nowe teorie, które tłumaczyłyby znane już fakty empiryczne.
Generalnie rzecz biorąc, niezależnie od rozmaitych kwestii filozoficznych czy społecznych metoda naukowa opiera się na czterech krokach, według których badacz powinien postępować. Według nich działania naukowe rozpoczynają się od obserwacji i opisu zjawiska. Jest to faza wstępna, rozpoczynająca pracę nad danym zagadnieniem. Następnie należy sformułować hipotezę wyjaśniającą obserwacje, często przybierająca postać modelu (zwłaszcza w naukach przyrodniczych).
Kolejny etap polega na wykonywaniu eksperymentów weryfikujących hipotezę lub zbieraniu dodatkowych danych np. historycznych faktów mających na celu potwierdzenie lub obalenie naszej hipotezy. Na końcu uważnie przeprowadza się serię niezależnych eksperymentów mających na celu weryfikację lub walidację hipotezy, czy modelu . Jeżeli eksperymenty nie obalają hipotezy, bądź grupy hipotez może ona być traktowana jako teoria lub prawo, które następnie stają się częścią naszego rozumienia świata. Istotne jest również to, że wyniki badań naukowych poddane muszą być opiniom innych naukowców, którzy jeżeli uznają, iż informacje w nich zawarte są niewiarygodne mogą skonfrontować je ze swoimi własnymi badaniami.
Naukowcy, podczas tego złożonego procesu badawczego napotykają na różnego typu przeszkody, oraz popełniają liczne błędy. Zasadniczym błędem jest to, iż często naukowcy zajmują zbyt subiektywne stanowisko. Często kierują się osobistymi preferencjami i uprzedzeniami, co ma znaczący wpływ na interpretacje faktów, oraz wyników badań i czasem prowadzi nawet do pewnych zaniedbań. Bywa również tak, że dana osoba ma zbyt dużą wiarę w postawioną hipotezę, oraz zbyt małą w eksperyment, co prowadzi do lekceważenia tego drugiego. Zdarza się, że w sytuacji gdy wyniki eksperymentów nie są zgodne z postawioną wcześniej hipotezą są one po prostu ignorowane, czego wynikiem jest uznanie za dobrą i prawdziwą hipotezę, która rzeczywistości jest fałszywa. Mówiąc o błędach i pułapkach trzeba wspomnieć również o efekcie skali, jest on bowiem bardzo istotny podczas analizy badań. Efekt skali mówi o tym, iż te same zjawiska przebiegają różnie, lub wcale nie zachodzą jeśli zmienimy skalę tego zjawiska.
Metoda naukowa wyznaje ważną zasadę, o której należy tu wspomnieć. Zasada ta mówi, iż w metodzie naukowej nie powinno być uprzedzeń, nie mamy bowiem obowiązku ślepo wierzyć badaczowi. Każdy z nas ma bowiem prawo nie zgadzać się z daną teorią, zawsze można wykonać dane doświadczenie powtórnie i sprawdzić czy czyjeś wyniki są poprawne, czy może zupełnie nieprawdziwe. Często dzieje się, że stare prawa okazują się błędne w świetle nowych obserwacji. Nie ma bowiem stwierdzeń naukowych absolutnie pewnych, a to co dziś nazywamy wiedzą naukową jest zbiorem praw o różnym stopniu pewności , które w kolejnych latach mogą zostać zmienione lub obalone, gdyż tak naprawdę niewiele teorii wytrzymuje zderzenie z nowymi faktami.
Kończąc moją pracę, pragnę zauważyć jak bardzo na przestrzeni wieków zmieniło się rozumienie metody naukowej. W średniowieczu Jan z Głogowa pod tym pojęciem rozumiał drogę krótką i dokładną, która prowadzi szybko do osiągnięcia zamierzonego celu ? w tym przypadku do zgłębienia wiedzy . Następnie na przestrzeni wieków znaczenie tego pojęcia ulegało licznym modyfikacją, powstawały nowe teorie, które wypierały bądź poddawały wątpliwości stare. Dziś ewolucja poglądów odnoszących się do metody naukowej wciąż trwa i z pewnością w przyszłości pojawi się wiele nowych interesujących teorii dotyczących tego zagadnienia. Musimy pamiętać bowiem, że odpowiednia metoda naukowa jest główną siłą napędową badań naukowych i w znacznym stopniu ułatwia poznanie, opisanie, oraz zrozumienie tego co nas otacza.
WNIOSKOWANIE
Jednym z najważniejszych celów logiki jest analiza poprawności wnioskowań.
Fenomen wnioskowania nie przynależy tylko i wyłącznie do świata nauki. Wnioskujemy na
co dzień, natomiast rzadziej zastanawiamy się nad metodą naszych wnioskowań. Gdy
widzimy, że sąsiad idzie niepewnie i podpiera się o mur wnioskujemy, że jest pijany. Ale czy
owe rozumowanie jest niezawodne?
Naszym zadaniem jest więc, by choć trochę zastanowić się nad naturą wnioskowania,
odmianami wnioskowania, stopniem jego niezawodności. Wydaje się, że logika przez wieku
swego rozwoju wypracowała pewne interesujące sposoby odpowiedzi na powyższe
zagadnienia.
W samej istocie wnioskowania leży przejście od przesłanek, stanowiących punkt
wyjścia rozumowania, do wniosków. Interesujące i kluczowe są następujące zagadnienia:
- mechanizm przejścia od przesłanek do wniosków;
- stopień niezawodności wnioskowań;
- problem prawdziwości przesłanek;
- problem teoretycznego statusu przesłanek.
Powyższa lista nie wyczerpuje całego spektrum analizy złożonego problemu relacji
przesłanek i wniosków w metodologii nauki, lecz dość dobrze oddane najważniejsze punkty
refleksji metodologicznej.
Zacznijmy od prostej konstatacji, iż podstawowymi typami wnioskowań są dedukcja i
indukcja. Na podstawie analizy ich swoistości będziemy mogli wyrobić sobie wstępnie
pogląd odnośnie powyższych zagadnień.
3. DEDUKCJA
Jak wiemy nie zawsze wnioskowania nasze przebiegają w ten sposób, iż wniosek
wynika, a w szczególności wynika logicznie, z przyjmowanych przesłanek. Ale wśród ogółu
wnioskowań na uwagę zasługują szczególnie te wnioskowania, z których przesłanek wynika
logicznie wniosek, to jest takie, w których przesłanki są zdaniami uzyskanymi przez
odpowiednie podstawienia w poprzedniku prawa logicznego o postaci implikacji, a wniosek
jest zdaniem uzyskanym przez takie same podstawienia w następniku tego prawa.
Takie wnioskowanie, z którego przesłanek wynika logicznie jego wniosek, nazywamy
wnioskowaniem dedukcyjnym.
Wnioskowaniem dedukcyjnym jest więc np. wnioskowanie nie całkiem naturalnie
zbudowane, ale poprawne logicznie: „Ponieważ: jeżeli dziś jest tęgi mróz, to dziś jest lód na
stawie, i dziś jest tęgi mróz — więc: dziś jest lód na stawie". Wnioskowanie to przebiega
bowiem według schematu:
Ponieważ: jeżeli p, to q
i p więc:
==========
q
Schemat ten odpowiada prawu logicznemu zwanemu modus ponendo ponens:
[(p → q) ^ p] → q
które szczególnie często stanowi podstawę wnioskowań dedukcyjnych i jest najprostszym ich
schematem.
We wnioskowaniu dedukcyjnym przesłanka czy koniunkcja przesłanek jest racją, a
wniosek — następstwem logicznie wynikającym z tej racji: wnioskowanie przebiega tu
zgodnie z kierunkiem wynikania. Prawo logiczne, według którego przebiega wnioskowanie,
gwarantuje niezawodność wnioskowania dedukcyjnego: jeśli tylko w danym przypadku
wnioskowania dedukcyjnego prawdziwe są przesłanki, to musi być prawdziwy i wniosek.
Wnioskowanie dedukcyjne należy więc do wnioskowań niezawodnych.
Szczególną postacią wnioskowania dedukcyjnego jakim jest sylogizm. Warto na jego
podstawie bliżej przyjrzeć się prawom dedukcji
4. Wnioskowanie indukcyjne
Wnioskowanie indukcyjne — to takie wnioskowanie, w którym na podstawie wielu
przesłanek jednostkowych, stwierdzających, iż poszczególne zbadane przedmioty pewnego
rodzaju mają pewną cechę, dochodzi się (przy braku przesłanek negatywnych) do wniosku
ogólnego, że każdy przedmiot tego rodzaju taką cechę posiada.
Jeśli wiadomo nam, że nie ma innych przedmiotów danego rodzaju oprócz tych, które
zostały wymienione w przesłankach jednostkowych, mówimy o wnioskowaniu przez
indukcję zupełną; jeśli brak tej dodatkowej wiadomości — mówimy o wnioskowaniu przez
indukcję niezupełną. Wnioskowanie przez indukcję zupełną jest wnioskowaniem
niezawodnym: z koniunkcji przesłanek wyczerpujących zbiór badanych zjawisk logicznie
wynika wniosek.2
Wnioskowania przez indukcję zupełną mają tak oczywisty charakter, że nie powstają co
do nich żadne interesujące problemy metodologiczne.
Natomiast wnioskowania przez indukcję niezupełną nasuwają wiele ciekawych
problemów, a przede wszystkim ten, w jakich przypadkach jest rzeczą rozsądną uznać jakieś
zdanie ogólne za prawdziwe na podstawie takiego wnioskowania. Wiele czynników wpływa
na to, jaki jest stopień pewności wniosku uzyskiwanego we wnioskowaniu przez indukcję
niezupełną. Ważną jest sprawą, jaką część przedmiotów danego rodzaju zbadaliśmy: np. czy
zbadaliśmy 100 przedmiotów spośród ogółem 200, czy też 100 spośród l 000000
przedmiotów danego rodzaju. Im większą część przedmiotów danego rodzaju zbadaliśmy
stwierdzając, że mają one wszystkie określoną cechę, tym mniej jest szans na to, że
pominęliśmy w badaniu te przedmioty danego rodzaju, które owej cechy nie posiadają.
Prawdopodobieństwo wniosku otrzymanego przez indukcję niezupełną rośnie w miarę
zróżnicowania badanych przedmiotów klasy S pod względem przejawiania jakiejś takiej cechy, która może być związana z przynależnością tych przedmiotów do klasy P. Bardziej
zasadnie można coś ogólnie mówić o sytuacji robotników w krajach kapitalistycznych, jeśli
się zbadało sytuację 100 robotników w Anglii, 100 robotników w Belgii, 100 robotników w
Szwecji, 100 robotników w Grecji, 100 robotników w Brazylii i 100 robotników w Republice
Haiti, niż gdybyśmy zbadali sytuację 10000 robotników pracujących w przemyśle
maszynowym w Szwecji. Problem istotny leży przede wszystkim w tym, czy mamy jakieś
rzeczowe podstawy, by przypuszczać, że nasz wniosek ogólny opiera się na jakiejś
obiektywnej zależności między zjawiskami, między przynależnością do przedmiotów
określonego rodzaju a wykazywaniem określonej cechy. Nierozsądny byłby nasz wniosek
indukcyjny, gdybyśmy na podstawie przesłanek, że Roman A. jest blondynem, Roman B. jest
blondynem, Roman C. jest blondynem, wnioskowali, iż każdy człowiek noszący imię Roman
jest blondynem — ponieważ taką barwę włosów miał każdy z dotąd znanych nam Romanów.
Nie ma bowiem żadnych podstaw, by spodziewać się jakiegoś związku pomiędzy takimi
cechami, jak noszenie imienia „Roman” i posiadanie określonego koloru włosów.
Kanony indukcji
Spostrzeżenia, których dokonujemy, informują nas jednocześnie o wielu różnych cechach
spostrzeganych przedmiotów. Spostrzeżenia nie dają nam tedy gotowych, uporządkowanych
zestawień przesłanek: S1 jest P, S2 jest P, ...,S3 jest P, które od razu pozwalałyby na wniosek
indukcyjny, że każde S jest P. Stwierdzamy, że osobnik x jest P, że osobnik y jest P itd., ale
powstaje niejednokrotnie poważny kłopot, gdy chcemy ustalić, do jakiej to wspólnej klasy S
można by zaliczyć osobnika x i osobnika y, i osobnika z itd. Niejednokrotnie więc bywa tak,
że choć dobrze znamy poszczególne fakty, nie umiemy sformułować twierdzenia, które te
ustalone przez nas fakty ujmowałoby w sposób ogólny.
Ważną dla nas sprawą jest więc wykrycie zależności między występowaniem zjawisk
dwóch różnych rodzajów, między tym, że w pewnym momencie coś ma cechę S, a tym, że ma
ono w tym momencie cechę P. Zapoznamy się tu z tzw. kanonami indukcji eliminacyjnej,
które są pewnymi ogólnymi wskazówkami, jak wykrywać związek między występowaniem
zjawisk pewnego rodzaju a występowaniem zjawisk innego rodzaju. Spośród kanonów
indukcji, sformułowanych przez angielskiego logika z XIX w., Johna Stuarta Milla, omówimy
tu: l) kanon jedynej zgodności, 2) kanon jedynej różnicy.3
Chcąc ustalić, jakie to inne zjawiska mają istotny związek z występowaniem zjawiska Z,
musimy najpierw sporządzić listę zjawisk, które, jak podejrzewamy, mogą mieć istotny
związek, np. być przyczyną zjawiska Z. A więc np., jeśli chodzi o zjawisko usychania roślin
na pewnym polu, to podejrzenia nasze muszą objąć obecność jakichś szkodliwych owadów,
nieodpowiednią temperaturę, nieodpowiednią wilgotność, nieodpowiednie nasłonecznienie
czy florę bakteryjną gleby, czy skład chemiczny gleby, czy granulację gleby itd. W tym
właśnie leży słaby punkt kanonów indukcji, iż trzeba wpaść na pomysł, co ewentualnie może
być okolicznością istotną, a kanony służą tylko do wyeliminowania okoliczności nieistotnych.
Dla zastosowania kanonu zgodności trzeba najpierw kolejno notować nasze obserwacje co do
występowania zjawiska Z łącznie z innymi zjawiskami podejrzewanymi o to, iż mają istotny
związek ze zjawiskiem Z.
l. Zjawisko Z występuje razem ze zjawiskami A, B, C, D, E
2. " " " " " " B, C, D, E przy braku A
3. " " " " " " A, C, D, E przy braku B
4. " " " " " " A, B, C, D przy braku E
5. " " " " " " A, B, C, E przy braku D
6. " " " " " " C, E przy braku A, B, D
7. " " " " " " A, C, E przy braku B, D
8. " " " " " " B, C, D przy braku A, E
Na podstawie tych obserwacji możemy domyślać się, że widocznie okoliczność C ma istotny
związek z występowaniem zjawiska Z, bowiem tylko C powtarzało się we wszystkich
przypadkach. Możemy więc sformułować następująco kanon zgodności: Jeżeli zjawisko Z
występowało jednocześnie z różnymi zjawiskami podejrzanymi o związek z tym zjawiskiem, a
wśród owych zjawisk stale występowało zjawisko X, podczas gdy inne nie występowały stale
— to prawdopodobnie zjawisko X ma istotny związek ze zjawiskiem Z. Mówimy
„prawdopodobnie", bo nie wiadomo, czy przy następnej obserwacji nie okaże się, że zjawisko
Z wystąpiło, mimo że nie wystąpiło zjawisko X; a zjawisko będące istotną np. przyczyną
zjawiska Z mogło przecież zostać nie objęte naszymi podejrzeniami. Jeśli nasze podejrzenia
nie obejmą okoliczności istotnej, to nie wykryjemy jej drogą eliminacji. Jest to wada
wszystkich kanonów indukcji.
Jeśli np. kilkakrotnie popełniono podobnego rodzaju kradzież z magazynu, do którego
mieli dostęp różni ludzie, raz tacy, raz inni, ale w każdym przypadku był obecny w magazynie
Jan, to najprawdopodobniej przeciw Janowi trzeba skierować podejrzenia, że każda z tych
kradzieży wiąże się z jego obecnością w magazynie. Nie ma jednak co do tego bynajmniej
pewności, bo mogli kraść różni ludzie, kierując podejrzenia na Jana. Kanony indukcji są tylko
podstawą przypuszczeń.
Kanon jedynej różnicy możemy zastosować, gdy wielokrotnie zaobserwujemy, iż np.:
l. Zjawisko Z występuje, gdy zachodzą zjawiska A, B, C, D, E.
2.Zjawisko Z nie występuje, gdy zachodzą zjawiska A, B, D, E, lecz brak C.
Przypuszczamy wtedy, że prawdopodobnie zjawisko C ma istotny związek z występowaniem
zjawiska Z. Np. codziennie w biurze na ziemi leżały niedopałki papierosów. Przebywało tam
stale pięć osób. Gdy Jan wyjechał na urlop, to zawsze było czysto. Któż jest brudasem?
Najprawdopodobniej Jan. (Możemy to sprawdzić dodatkowo metodą zgodności. Kiedy Adam
wyjechał na urlop, a reszta została, było brudno. To samo było w czasie urlopu Bogdana,
Czesława, Damiana, jeśli tylko w biurze pozostawał Jan-śmieciuch.)
Możemy więc sformułować kanon jedynej różnicy: Jeżeli zjawisko Z stale występowało,
gdy wystąpiło zjawisko X; i stale nie występowało, gdy nie wystąpiło zjawisko X, choć inne
poprzednio występujące zjawiska zachodziły również i w tych przypadkach — to
prawdopodobnie zjawisko X ma istotny związek ze zjawiskiem Z.
Jeśli np. w zwykłych warunkach rozpalimy w piecu i zostawimy niedomknięte drzwiczki,
to węgiel pali się jasnym płomieniem; gdy w tych warunkach zamkniemy drzwiczki, to
płomień znika. Widocznie zamknięcie drzwiczek ma wpływ na płomień.
Indukcja niezupełna
Podstawowa reguła nauki i logiki oparta na podstawowej biologicznej funkcjonalności ludzkiego mózgu, to jest na: zdolności do uogólnień na podstawie skończonej (niezupełnej) powtarzalności wyników (porównaj też z ekstrapolacją).
Jest najoczywistszym typem wnioskowania indukcyjnego i jedynym możliwym, na którym oparte są podstawy sformułowań ogólnych praw natury kiedykolwiek odkrytych przez człowieka (człowiek, a nawet ludzkość ma możliwość przeprowadzenia jedynie skończonej czyli niezupełnej liczby eksperymentów, na potwierdzenie danego prawa natury). Niezupełność ujawnia się wielokrotnie na przestrzeni dziejów, np. gdy Einstein uzupełnił prawa Newtona.
Indukcja niezupełna (indukcja enumeracyjna niezupełna), polega na uznaniu jakiejś ogólnej prawidłowości na podstawie skończonej liczby zdań stwierdzających niektóre wystąpienia tej prawidłowości. Jest to jedno z podstawowych narzędzi nauk doświadczalnych, jej stosowanie wymaga oczywiście odpowiedniej metodologii (por. rachunek błędów w naukach doświadczalnych).
Indukcja enumeracyjna niezupełna jest wnioskowaniem w najprostszej postaci (stosującym się do sytuacji, gdy przesłanki i wniosek to zdania kategoryczne podmiotowo-orzecznikowe, nie np. okresy warunkowe) przebiegającym według schematu:
Indukcja enumeracyjna niezupełna wychodzi więc od obserwacji pewnej skończonej liczby przedmiotów, zdarzeń i sytuacji, należącej do jednej skończonej klasy, oznaczonej tu przez S. Za pomocą tej obserwacji stwierdza się, że niektórym przedmiotom należącym do klasy S przysługuje cecha P. Wnioskowanie polega tu na stwierdzeniu, że skoro niektórym przedmiotom należącym do klasy S przysługuje cecha P, to wszystkim przedmiotom należącym do klasy S przysługuje cecha P. Wystarczy jeden kontrprzykład, to znaczy chociaż jeden przedmiot należący do klasy S, któremu cecha P nie przysługuje, by uznać wniosek otrzymany przez indukcję enumeracyjną niezupełną za fałszywy.
Wnioskowania za pomocą indukcji enumeracyjnej niezupełnej rodzą wiele problemów metodologicznych. Przy wnioskowaniu przez indukcję enumeracyjną niezupełną brak nam przesłanki, że wszystkie przedmioty należące do klasy S zostały zbadane pod kątem posiadania cechy P - właśnie to sprawia, że wnioskowania przez indukcję enumeracyjną niezupełną są zawodne. Nie znając wszystkich przedmiotów klasy S nie możemy bowiem wykluczyć, że wśród tych nieznanych istnieją takie, które cechy P nie posiadają - a gdyby istniał chociaż jeden przedmiot klasy S nie posiadający cechy P, całe wnioskowanie musiałby zostać odrzucone. Tak np. obserwując pewną liczbę grudek soli stwierdzamy, że każda z nich rozpuszcza się w wodzie - nie odnaleziono dotąd kontrprzykładu dla wniosku tej indukcji enumeracyjnej, przyjmujemy więc wniosek, że wszystkie grudki soli rozpuszczają się w wodzie. Obserwując pewną liczbę grudek metalu stwierdziliśmy, że rozszerzały się pod wpływem ciepła, przyjęliśmy więc wniosek, że wszystkie grudki metalu rozszerzają się pod wpływem ciepła - wiedząc jednak, że w pewnych warunkach grudki żeliwa kurczą się pod wpływem ciepła, musimy wniosek, że wszystkie grudki metalu rozszerzają się pod wpływem ciepła odrzucić.
Współczesna logika indukcji próbuje oprzeć je na teorii prawdopodobieństwa, w praktyce naukowej, a tym bardziej w rozumowaniach indukcyjnych dokonywanych potocznie, głównym czynnikiem odróżniania wartościowych i bezwartościowych wnioskowań dokonywanych za pomocą indukcji enumeracyjnej niezupełnej pozostaje zdrowy rozsądek - podstawowe aspekty zdroworozsądkowej oceny poprawności rozumowań redukcyjnych, do których należy zwłaszcza potrzeba zachowania właściwej proporcji między subiektywnym poczuciem stopnia pewności przesłanek a stopnia pewności wniosku, omawia rozdział Ocena poprawności rozumowań artykułu Rozumowanie. Trudno np. uznać za rozsądne rozumowanie indukcyjne głoszące, że wszystkie powstania polskie były nierozsądne, bo wszystkie zakończyły się klęską - w przypadku tego rozumowania przyjmuje się bowiem bardzo niewielką liczbę przesłanek (jako że polskich powstań narodowych było tylko kilka) dla tezy o zjawisku o wielkim zasięgu.
Indukcja zupełna
Indukcja zupełna (indukcja enumeracyjna zupełna, indukcja wyczerpująca) to wnioskowanie, w którym jakąś ogólną prawidłowość uznaje się na podstawie zdań stwierdzających wszystkie możliwe przypadki wystąpienia tej prawidłowości. Od indukcji enumeracyjnej niezupełnej różni się tym, że indukcja enumeracyjna niezupełna stwierdza występowanie jakiejś ogólnej prawidłowości na podstawie tylko niektórych, a nie wszystkich możliwych jej wystąpień. Indukcja zupełna jest w istocie rozumowaniem dedukcyjnym i niezawodnym - wprawdzie przesłanki w niej wynikają logicznie z wniosku, ale o jej dedukcyjności stanowi to, że zarazem wniosek wynika w niej logicznie z przesłanek. Przykładem rozumowania przez indukcję zupełną może być stwierdzenie przez nauczyciela obecności wszystkich uczniów przez stwierdzenie przy wyczytywaniu listy obecności, że obecny jest każdy poszczególny uczeń. W praktyce naukowej zastosowania indukcji zupełnej są bardzo ograniczone, istnieje bowiem wiele sytuacji, w których liczba możliwych wystąpień danej sytuacji jest niezmiernie duża lub wręcz nieskończona.
Najprostszy schemat wnioskowania przy użyciu indukcji zupełnej (w sytuacji, gdy wniosek i przesłanki są zdaniami kategorycznymi podmiotowo orzecznikowymi, nie np. okresami warunkowymi) przedstawia się następująco:
Indukcja eliminacyjna
Indukcja eliminacyjna Francisa Bacona
Indukcja eliminacyjna sprowadza się do sformułowania wyczerpującej listy hipotez na dany temat, które wzajemnie się wykluczają a następnie dokonanie eliminacji z użyciem narzędzia jakim jest eksperyment. Zakłada się, że jeśli lista hipotez jest wyczerpująca to musi się wśród nich znajdować także hipoteza prawdziwa. F. Bacon sformułował zasadę ograniczonej różnorodności świata, która zakłada, że dany temat można sformułować wyczerpująco i przedstawić skończoną listę.
Indukcja eliminacyjna Johna Stuarta Milla
Pierwszą próbą udoskonalenia indukcji enumeracyjnej niezupełnej była indukcja eliminacyjna Francisa Bacona, w doskonalszej postaci przedstawił indukcję eliminacyjną John Stuart Mill. Indukcja eliminacyjna Milla stanowi metodę poszukiwania związków przyczynowych między zjawiskami, a więc albo przyczyn pewnego zjawiska, albo skutków innego. Punktem wyjścia poszukiwania związku przyczynowego jest zgromadzenie możliwych przyczyn danego zjawiska (okoliczności, w których zjawisko to zachodzi) lub analogicznie prawdopodobnych skutków danego zjawiska By wyodrębnić spośród przyczyn A1 − An rzeczywistą przyczynę zjawiska lub spośród skutków B1 − Bn rzeczywisty skutek zjawiska, Mill zbudował 5 schematów wnioskowań: kanon jedynej zgodności, kanon jedynej różnicy, kanon zmian współtowarzyszących, kanon połączonej metody zgodności i kanon różnicy reszt.Według kanonu jedynej zgodności przyczyną lub skutkiem danego zjawiska jest ta okoliczność, która zjawisku temu stale towarzyszy, podczas gdy pozostałe ulegają zmianie. Kanon umożliwia odnalezienie tego zjawiska, które jest konieczne dla zajścia pewnego innego zjawiska - przez przyczynę rozumie się tu warunek konieczny. Kanon jedynej zgodności nie stanowi metody odnalezienia warunku wystarczającego. Kanon ten (przy założeniu, że wyodrębniliśmy tylko trzy przyczyny lub skutki danego zjawiska) przybiera postać wnioskowania.
5.Problem indukcji
Na początku XVIII wieku szkocki filozof DAVID HUME (1711-1776) sformułował tak zwany problem indukcji. Ściśle mówiąc, jest to problem uzasadnienia indukcji. HUME przyznawał, że posługujemy się metodą indukcyjną w rozumowaniu, uważał jednak, że jest to tylko wynik przyzwyczajenia. (Nieco później amerykański filozof GEORGE SANTAYANA (1863-1952) nazwał to „zwierzęcą wiarą”). Spodziewamy się oto, że przyszłość będzie taka sama jak przeszłość. HUME zapytał, jak w racjonalny sposób uzasadnić wiarę w indukcję. Zwyczajowa odpowiedź na to pytanie brzmi: „indukcja się sprawdza”. HUME temu nie zaprzecza. Zwraca jednak uwagę, że odpowiadając w ten sposób, tak naprawdę myślimy: „indukcja (czy nauka ogólnie) sprawdzała się dotychczas i dlatego oczekujemy, że będzie sprawdzać się nadal”. HUME zauważa, że wnioskowanie o skuteczności indukcji w przyszłości na podstawie jej dotychczasowej skuteczności samo jest wnioskowaniem indukcyjnym, czyli opiera się na zasadzie indukcji! Odwoływanie się do dotychczasowej poprawności zasady indukcji, czyli stwierdzenie, że zasada ta „sprawdza się” jest zatem poruszaniem się po błędnym kole. Takie rozumowanie stanowi bowiem próbę uzasadnienia zasady indukcji samą zasadą indukcji. HUME wykazał, że zawodzą również inne próby uzasadnienia indukcji (na przykład zakładanie nie tyle jej pewności, co jedynie jej prawdopodobieństwa). Większość współczesnych nie rozumiała problemu, który poruszał HUME, i po prostu ignorowała jego twierdzenia. Wagę problemu dostrzegł natomiast IMMANUEL KANT (1724- 1804) i nazwał go „skandalem filozofii” (zważywszy na jego następstwa, równie dobrze mógł go nazwać skandalem nauki, chociaż większość ówczesnych naukowców nie zdawała sobie sprawy z jego istnienia). W proponowanym przez siebie rozwiązaniu KANT twierdził, że w umysł człowieka są wpisane zasady (jak przyczynowość czy konieczność), które pozwalają nam organizować doświadczenia w sposób dopuszczający występowanie regularności i umożliwiający rozumowanie indukcyjne. Rozwiązanie KANTA ma jednak swoją cenę.
Otóż o regularności natury nie można już wnioskować na podstawie samych rzeczy, oddzielonych od człowieka i istniejących poza nim, regularność ta jest bowiem tylko sposobem, w jaki porządkujemy nasze doświadczenia i wiedzę o naturze. Innymi słowy, nie wiemy i nie możemy wiedzieć, czy „rzeczy same w sobie” stosują się do określonych prawidłowości. Wiemy jedynie, że nasz umysł jest tak ustrukturowany, iż poszukuje takich prawidłowości i według nich porządkuje nasze doświadczenia. KARL POPPER (1902-1994) uznał nierozwiązalność problemu HUME'a. Stanowisko POPPERA zakłada jednak rezygnację z twierdzenia, że w nauce wykorzystuje się rozumowanie indukcyjne. Jak widać, rozmaite próby rozwiązania problemu HUME'a prowadziły do wykształcenia się takich koncepcji nauki, które znacznie odbiegały od zwyczajowo akceptowanych poglądów. Albo więc porządkujemy nasze doświadczenia w oparciu o indukcję, ale nie możemy wiedzieć, czy w naturze rzeczywiście występują ustalone prawa, albo w rzeczywistości nigdy nie stosujemy rozumowania indukcyjnego, a tylko oszukujemy siebie, że to robimy. Wprawdzie przedstawiciele pozytywizmu logicznego uważali rozpowszechnianie metody naukowej za dobrodziejstwo dla ludzkości, a w sferze polityki w większości wyrażali poglądy reformatorskie, nierzadko socjaldemokratyczne, to jednak nie zaliczali filozofii politycznej do prawdziwej, „naukowej” filozofii i — z nielicznymi wyjątkami — w analizach nauki nie wyrażali bezpośrednio własnych poglądów na sprawy społeczne. Pod tym względem godnym uwagi wyjątkiem był OTTO NEURATH (1882-1945), socjolog i filozof, który w jednoznacznie pozytywny sposób odnosił się do marksizmu (UEBEL, 1991). (NEURATH przyczynił się również do rozwoju rozwiązań technicznych na autostradach i lotniskach poprzez opracowanie niewerbalnego systemu diagramów i symboli piktograficznych, które ostrzegają kierowcę, że zbliża się do niebezpiecznego zakrętu lub że na drogę mogą wybiec dzikie zwierzęta; albo też na przykład wskazują pasażerom i klientom drogę do toalety; STADLER, 1982). Trzeba jednak pamiętać, że na początku lat pięćdziesiątych XX wieku, czyli w czasach makkartyzmu w Stanach Zjednoczonych, tłumiono nawet domniemane poparcie, jakiego przedstawiciele pozytywizmu logicznego i ich amerykańscy naśladowcy mogli udzielać socjaldemokracji (REISCH, 2005).
„Logiczny” element pozytywizmu logicznego dotyczył rekonstrukcji teorii naukowych przy zastosowaniu formalnej logiki matematycznej. Pozorny sukces, jakim zakończyła się podjęta przez BERTRANDA RUSSELLA (1872-1970) próba redukcji matematyki do logiki, zainspirował pozytywistów logicznych do usystematyzowania teorii naukowych w oparciu o założenia (aksjomaty) i rygorystyczne dedukcje logiczne. Pozytywiści na ogół traktowali naukę jako zbiór zdań i sądów. Teorie naukowe były dla nich przede wszystkim jednostkami pojęciowymi. W podobny sposób myślało wielu wcześniejszych filozofów. Jednak pozytywiści analizowali strukturę i związki twierdzeń bardziej precyzjnie i z większym rygorem niż ich poprzednicy. RUSSELLOWSKIE logiczne podstawy matematyki zainspirowały niektórych pozytywistów, przede wszystkim RUDOLFA CARNAPA (1891- 1970), do podjęcia prób sformułowania formalnej logiki indukcji. Fiasko tego programu, który prowadzono przez dziesięciolecia, przekonało niemal wszystkich filozofów nauki, że stworzenie formalnej logiki indukcji w formie proponowanej przez CARNAPA jest niemożliwe. Indukcja obejmuje bowiem nieformalne założenia i sądy (zob. rozdział 4). Dążenie do precyzji i rygoru doprowadziło pozytywistów do krytyki ich własnego kryterium sensowności, które opierało się na doświadczeniu i obserwacji. W konsekwencji kryterium to (zasada weryfikowalności) zostało odrzucone, ale pozytywistom należy się uznanie za uczciwość i konsekwencję, które kazały im poddać krytyce własny program i uznać jego zawodność. Rezygnacja ze sztywnej zasady weryfikowalności doprowadziła do wykształcenia się stanowiska, które nazwano empiryzmem logicznym. Zwolennicy tego kierunku złagodzili zasadę weryfikacji zdań, zastępując ją kryterium sprawdzalności lub stopniowego potwierdzenia. Empiryczne kryteria znaczenia były jednak albo tak wąskie, że nie obejmowały teoretycznych elementów nauki, albo na tyle szerokie, że wprawdzie brały pod uwagę aspekty teoretyczne, ale tylko za cenę ponownego włączenia zdań metafizycznych i teologicznych w zakres twierdzeń posiadających znaczenie. W swojej pierwotnej wersji zasada weryfikacji kazała odrzucać także takie teoretyczne pojęcia z zakresu fizyki jak „elektron”. Uznawano je bowiem za pozbawione sensu. Nowa wersja tej zasady pozwalała natomiast uznać, że zdanie „Albo ten przedmiot jest czerwony, albo Bóg jest leniwy” można sprawdzić, odnosząc jego treść do danego czerwonego przedmiotu. To, z kolei, prowadziło do uznania zdania „Bóg jest leniwy” za sensowne (pełne znaczenia).
6. Metoda naukowa Bacon'a i jej krytyka
Nauka jest nieodzowną częścią historii, życia i rozwoju człowieka. Jest częścią kultury, w której obraca się każdy z nas; wpływa na nasze życie, a my wpływamy na nią samą. Za pomocą przeróżnych metod naukowych możemy naukę wciąż rozbudowywać, poszerzać jej zasięg, wprowadzać coraz to nowsze rozwiązania a także ? stawiać kolejne pytania. Zagadnienie nauki od strony teoretycznej jest już rozpatrywane od dawna; za twórcę nowożytnej koncepcji nauki uchodzi angielski filozof żyjący na przełomie XVI i XVII wieku ? Francis Bacon. Ze współczesnych myślicieli problemem tym zajmował się m.in. Karl Popper.
Za kwestie sporną uznaje się samo pojęcie nauki i teorii naukowej, co można, a czego nie powinno się im przypisywać. Badania naukowe i nowe koncepcje zawsze nasuwają pytanie o prawdziwość tychże stwierdzeń, ich sprawdzalność (falsyfikalność). Wraz z pojawianiem się nowych filozofów ? pojawiały się inne propozycje rozwiązania tego problemu. Jednak dopiero Bacon przedstawił problem w dość ? jak na ówczesne czasy ? rewolucyjny sposób, zapoczątkowując tym samym nową erę w problematyce naukowości i dając, przynajmniej tymczasowe, wystarczające rozwiązanie oraz pole do rozważań dla kolejnych uczonych, którzy nadeszli po nim.
Bacon za zasadniczą uznaje naukę o przyrodzie. Jest ona we wszystkich rzeczach, które nas otaczają, a naszym celem jest dotarcie do jej sedna, do istoty rzeczy. Jednak nasze rozważania są z reguły zafałszowane przez różne przyzwyczajenia czy nawyki. Co zatem proponuje? ?Musimy oczyścić nasze umysły z wszelkich przesądów, z wszelkich z góry powziętych idei, z wszelkich teorii, z wszelkich zabobonów, czyli >>idoli<<, które mogła nam narzucić religia, filozofia, wychowanie czy tradycja.? Tylko w ten sposób będziemy w stanie dotrzeć do czystej natury rzeczy, odkryć prawdziwe, niezafałszowane prawa nimi rządzące i stworzyć prawdziwą, rzetelną naukę. Wyłącznie sama obserwacja jest w stanie dostarczyć nam pewnych wniosków, wniosków wszelka spekulacja ? jako nad wyraz niebezpieczna ? zniekształca nam obraz przyrody. Ta ?metoda antycypacji umysłu? , niecierpliwe, natychmiastowe wręcz przechodzenie wprost od pierwszych obserwacji do wniosków, prowadzi wyłącznie do przesądów i nie daje żadnych pewnych stwierdzeń. Należy unikać zabobonów, wyzbyć się wszelkich zbędnych teorii i starannie obserwować, a wtedy ?zostanie przed nami odsłonięta natura czy istota rzeczy.?
W ten sposób można określić wspomnianą już rewolucję Bacon?a. Jego obserwacjonizm, krytyka spekulacji, którą uznawał za źródło wszelkich błędów w teoriach wywarły głęboki wpływ na teorie i praktykę nauki. Jednak nie wszyscy wielcy tamtych czasów przyjmowali jego koncepcje, nie wszyscy i nawet nie większość. Najlepszym przykładem będzie Kopernik ze swoją hipotezą ?systemu świata? i stanowisko Galileusza w stosunku do tej teorii. Bacon stał w jawnej opozycji wobec tego typu rozwiązań, uważając, że samo teoretyzowanie jest niewystarczające do uznania jakiegoś stwierdzenia za bezapelacyjnie prawdziwe. Natomiast Galileo doceniał tych, którzy tworzyli takie rozwiązania, nie oparte na żadnych ? wtedy ? doświadczalnie sprawdzalnych dowodach, wręcz przeczących temu, co człowiek mógł dostrzec. ?W ten sposób Galileusz daje świadectwo sposobu, w jaki śmiałe i czysto spekulatywne teorie naukowe mogą nas wyzwalać z naszych przesądów.? To, co dostrzegały zmysły, zostało wyparte przez bystry rozum, jako niepokrywające się z prawdą. Bacon oczywiście odpiera te argumenty, uważając, że spekulacje mogą prowadzić tylko do innych spekulacji i nie są niczym innym jak przesądami czy zabobonami.
W owych przesądach i zabobonach Bacon widział jeden zasadniczy problem ? przysłaniają one nam dostęp do natury rzeczy, blokując tym samym rozwój nauki, który osiągany jest właśnie poprzez obserwacje i doświadczenie. Jedynym wyjściem, jakie wskazał Bacon było właśnie ?oczyszczenie? umysłu z wszystkich teorii, zabobonów, i operowanie na czystych obserwacjach.
Kolejny filozof, który zajął się tą problematyką, Karl Popper, postawił ostrą krytykę stanowisku Bacona. Uważał jego metodę badawczą za naiwną i niewłaściwą i to już u samych podstaw. Oczyszczony umysł to według niego pusty umysł; nie uświadamiamy sobie, że uznawane przez nas hipotezy to przesądy, dopóki rozwój nauki nie doprowadzi do ich obalenia; teoriami posługujemy się zawsze i wszędzie i niekoniecznie musimy być tego świadomi. Ponadto, Popper uważa, że nie ma czegoś takiego jak czysta obserwacja. ?Wszelka obserwacja, a szczególnie wszelka obserwacja w ramach eksperymentu, jest interpretacją faktów w świetle jakiejś teorii.?
Teoria opisująca pewien aspekt rzeczywistości, zjawisko czy zdarzenie historyczne, aby móc być uznaną za naukową, musi spełniać określone kryteria. Musi zostać ogłoszona publicznie, szerokiej publiczności; musi czynić pewne przewidywania, przypuszczenia, co do których nie możemy być pewni, jakie skutki przyniosą, czy dana teoria nie zostanie zastąpiona lepszą. Jednocześnie, przewidywania te muszą być zgodne z aktualnie obowiązującymi teoriami. Jednak zasadniczym punktem, które pozwala nam określić jej charakter, jest tzw. kryterium falsyfikalności lub obalalności. Popper poleca każdemu uczonemu, który twierdzi, że jakaś jego konkretna teoria jest z pewnością naukowa, by zadał sobie jedno zasadnicze pytanie: ?Czy mogę opisać jakieś możliwe wyniki obserwacji czy eksperymentu, które obalałyby, jeśli zostałyby rzeczywiście osiągnięte, moją teorię?? Kryterium to zakłada, że teoria, aby była naukowa, musi dopuszczać efektywnie falsyfikowalność - to znaczy musi w ramach tej teorii istnieć przewidywany wynik eksperymentu, wyjaśnienie zjawiska lub konsekwencji zdarzenia, który umożliwia stwierdzenie, że teoria jest błędna.
Wracając jeszcze w swoich rozważaniach do Bacona, Popper stara się rozstrzygnąć problem, jaki postawiły przed nim wnioski poprzednika. Kwestia związku pomiędzy doświadczeniem ? obserwacją ? a naukowością teorii stara się rozstrzygnąć właśnie za pomocą kryterium sprawdzalności. Nigdzie w wyżej opisanych kryteriach nie ma mowy o zgodności teorii z doświadczeniem. Jest to wymóg, by uznać daną teorię za prawdziwą, nie jest zaś konieczny do uznania jej za naukową. Także teorie niezgodne z doświadczeniem lub niemożliwe obecnie do sprawdzenia doświadczalnego bywają przez niektórych nazywane teoriami naukowymi, badanymi i rozwijanymi. Ta zgodność ma znaczenie dopiero wtedy, gdy jesteśmy w stanie stwierdzić ją na drodze wielokrotnego sprawdzania tej zależności. ?Obserwacje czy eksperymenty można uznać za potwierdzenia teorii [..] tylko wtedy, gdy stanowią surowe sprawdziany teorii lub, innymi słowy, tylko wtedy, gdy pojawiają się w wyniku poważnych prób obalenia teorii, a w szczególności prób znalezienia usterek tam, gdzie można spodziewać się ich w świetle całej naszej wiedzy[?].?
Wniosek, jaki się nasuwa po tych rozważaniach, można uznać za dość kontrowersyjny. Wiedza naukowa, która ? potocznie rzecz ujmując ? winna być niezbicie pewna, w gruncie rzeczy jest wyłącznie przypuszczalna. Przypomnijmy, że właśnie taki charakter mają wszelkie teorie naukowe ? musi istnieć przynajmniej hipotetyczna ewentualność jakiegoś zdarzenia czy sytuacji, w której dana teoria nie obowiązywałaby ? inaczej nie mogłaby być nazwana teorią naukową. Żadna teoria naukowa nigdy nie może być uznana za 100% pewną - każda pozostaje tylko bardziej lub mniej prawdopodobną hipotezą.
Według Bacona, to obserwacja zapoczątkowuje naukę. Obserwacja jest tym, co możemy nazwać metodą naukową; dzięki niej możliwy jest postęp w nauce, wysnuwanie nowych teorii itd. Popper jedna, poprzez zakwestionowanie słuszności przypisywania obserwacji takiej wagi, sugeruje coś zupełnie innego. Według niego nauka zawsze wychodzi od problemów, od teorii, które budzą w nas pewne oczekiwania, przypuszczenia. I nawet, jeśli w jakiś sposób rozwiążemy ów problem ? na jego miejscu pojawia się kolejny. ?Możemy więc powiedzieć, że nasza wiedza przyrasta, w miarę jak przechodzimy od starych problemów do nowych, posługując się przypuszczeniami i obaleniami ? obalając nasze teorie lub, ogólniej, nasze oczekiwania.? Co więcej, Popper uważa, ze te problemy i oczekiwania nie wywodzą się z naszych obserwacji i doświadczeń ? według niego mamy jakąś wrodzoną wiedzę, która stanowi dla nas swego rodzaju punkt wyjścia.
W jaki sposób możemy dotrzeć do rozwiązania trudności związanych z napotykanymi przez nas problemami? Popper przywołuje tu znaną wszystkim metodę, choć zapewne nigdy nie powiązywana z tego typu kwestiami. Mianowicie, jak pisze: ?[?] istnieje tylko jeden sposób, by nauczyć się rozumienia poważnego problemu, niezależnie od tego, czy jest to czysto teoretyczny problem czy praktyczny problem eksperymentalny. Sposób ten polega na tym, że próbujemy rozwiązać problem i spotyka nas niepowodzenie. Wtedy dopiero [?] zaczynamy go rozumieć.? Człowiek uczy się na własnych błędach ? jak zawsze wszystkim powtarzano. To proste przysłowie ma swoje przełożenie $na grunt teorii Poppera i z powodzeniem tłumaczy jego sposób rozwiązywania trudności.
Właśnie w taki sposób Popper wyjaśnia, czym jest rozumienie teorii naukowej. To według niego ta próba rozwiązania danego problemu, jego rozstrzygnięcia. ?Bez rozumienia sytuacji problemowej, która doprowadziła do powstania teorii, teoria jest pozbawiona sensu, a więc nie można jej rozumieć.?
Biorąc za przykład poglądy tych dwóch filozofów w jasny sposób można przedstawić, jak bardzo zmieniło się rozumienie metody naukowej i samej nauki. Począwszy od ?standardowego? rozumienia Bacona, tzn. uznawania obserwacji za podstawę wszelkiego rozumienia i nauki, za udowodnienie prawdziwości teorii, aż do dalekiego od takiego ujęcia Karla Poppera, z jego kryterium sprawdzalności teorii, twierdzeniem, że źródłem każdej wiedzy jest nie obserwacja, lecz problem i trudność. Dla niego nauka to ?rozwijający się system problemów? , a nie system przekonań, uznanych i uzasadnionych na podstawie doświadczenia i obserwacji. Różnica pomiędzy poglądami obydwóch uczonych jest dość znaczna, a przejście od jednego do drugiego ? nie do końca zrozumiałe, a mimo to do tej pory nie straciło wiele na znaczeniu. Ewolucja poglądów odnoszących się do tych zagadnień wciąż trwa, po teorii paradygmatów teraz należy czekać na kolejne rozwiązania.
7. Justyfikacjonizm i paradoksy potwierdzania
Żadne świadectwo empiryczne, choćby najbogatsze, lecz z natury rzeczy skończone nie jest w stanie w wyczerpującym stopniu uzasadnić żadnej hipotezy uniwersalnej. Świadectwo empiryczne przemawia jednak na korzyść jednych hipotez i niekorzyść innych. Można zatem stwierdzić, że przynajmniej w pewnym stopniu uzasadnia wybór hipotez. Żadna hipoteza nie jest wystarczająco uzasadniona, jednak może być potwierdzona przez świadectwo w mniejszym lub większym stopniu, potwierdzenie jest stopniowalne. W podejściu do problemu uzasadniania indukcji zwanym
justyfikacjonizmem stopień potwierdzenia hipotezy traktuje się jako prawdopodobieństwo jej prawdziwości. Relację między zdaniami stanowiącymi hipotezę i świadectwo można traktować jako uogólnienie implikacji i definiować przez pojęcie prawdopodobieństwa warunkowego (prawdopodobieństwo hipotezy ze względu na świadectwa empiryczne). Równość: P(H|E) = 1 mówi nam, że jeżeli zachodzi E (jest zdaniem prawdziwym), to P(H) = 1; hipoteza H jest pewna i tym samym prawdziwa. Równość: P(H|E) = 0 głosi, że jeżeli zachodzi E, to P(H) = 0; hipoteza H jest niemożliwa tzn. fałszywa. Przypadek pośredni: P(H|E) = r, 0 < r <1, w tej sytuacji E częściowo implikuje hipotezę H - prawdziwość E nie przesądza o wartości logicznej H, jedynie ją sugeruje. Im większe r, tym bardziej prawdopodobne, że H jest prawdziwe. Świadectwo empiryczne jedynie uprawdopodabnia hipotezy.
Paradoksy potwierdzania (confirmation).
Pojęcie potwierdzenia hipotezy przez jej szczególne przypadki (instant-confirmation)
Paradoksy potwierdzania pojawiają się w związku z problemem indukcji, tj. problemem prawomocności rozumowania indukcyjnego. Wydaje się, że rozumowania indukcyjne, prowadzące od zdań szczegółowych, na przykład raportów obserwacyjnych, do zdań ogólnych, hipotez kandydujących na miano prawa nauki, są powszechnie stosowane w nauce. Nasze zaufanie do wyników nauki powinno zatem zależeć od wiarygodności takich rozumowań.
Wedle koncepcji empiryzmu logicznego, rozwijanej od późnych lat 20-tych do wczesnych lat 60-tych ubiegłego wieku, rozumowanie indukcyjne polega na wzmacnianiu stopnia potwierdzenia hipotezy przez jej szczególne przypadki. Czyli hipoteza postaci
"x(W(x) → Z(x))
jest potwierdzona przez każdorazowe stwierdzenie w obserwacji, że dla jakiegoś indywiduum a zachodzi W(a) & Z(a).
Paradoks kruków
Sformułowany przez Carla Hempla w latach 40-tych ubiegłego wieku paradoks kruków powstaje przy dodatkowym założeniu, że zdania logicznie równoważne mają identyczne zbiory potwierdzeń. W szczególności zdanie „wszystkie kruki są czarne”
"x(K(x) → C(x))
gdzie K = „…jest krukiem”, C = „…jest czarne”,
jest logicznie równoważne zdaniu „wszystkie przedmioty nieczarne są niekrukami”
"x(¬C(x) → ¬K(x)).
Zgodnie z naszkicowaną wyżej koncepcją potwierdzania, to ostatnie zdanie jest potwierdzone przez obserwację, na przykład, białego buta. Tym samym, jeżeli zdania logicznie równoważne mają identyczne zbiory potwierdzeń, obserwacja białego buta potwierdza hipotezę, że wszystkie kruki są czarne. Wniosek jest paradoksalny, ponieważ wydaje się, że obserwacja białego buta jest zupełnie nieistotna dla ustalenia barwy kruków.
Rozwiązanie pragmatyczne
Sam Hempel proponuje rozwiązanie polegające na przyjęciu pozornie paradoksalnego wniosku. W sytuacji, w której uczony obserwuje niezidentyfikowany biały obiekt, jego obserwacja może podważyć hipotezę „wszystkie kruki są czarne”, jeżeli ów obiekt okaże się krukiem. Jeżeli jednak dalsza obserwacja wykaże, że ów obiekt nie jest krukiem, lecz butem, wówczas staje się ona autentycznym potwierdzeniem hipotezy.
Rozwiązanie to sugeruje, że to, czy określona obserwacja jest lub nie jest istotna dla rozpatrywanej hipotezy, zależy od kontekstu. Tym samym potwierdzenie nie jest relacją czysto logiczną, lecz zależy od czynników pragmatycznych. Wadą rozwiązania Hempla jest, że nie zakłada ono żadnej systematycznej teorii pragmatyki potwierdzania.
Rozwiązanie falsyfikacjonistyczne
Odpowiednią pragmatykę sformułował Karl Popper. Według niego rozumowania indukcyjne nie odgrywają żadnej roli w nauce. Jedyną logiką nauki jest logika dedukcyjna, stosowana przy próbach falsyfikacji hipotezy. Schemat falsyfikacji jest następujący:
W(a)
¬Z(a)
---------------
¬"x(W(x) → Z(x))
Nieudane próby falsyfikacji można uznać za pewnego rodzaju potwierdzenia hipotezy. Popper nazywa je corroborations, dla odróżnienia od indukcjonistycznych confirmations. Obserwacja białego obiektu, który przypomina kruka, jest próbą falsyfikacji hipotezy „wszystkie kruki są czarne”. Stwierdzenie, że domniemany kruk jest butem jest jej corroboration. A więc kontekst, w którym obserwacja białego buta jest potwierdzeniem wyjściowej hipotezy jest zupełnie jasny: jest to kontekst próby falsyfikacji.
Paradoks przechodniości potwierdzenia
Załóżmy, że hipoteza G wynika logicznie z hipotezy H:
H |= G
czyli, na mocy twierdzenia o dedukcji
|= H → G
Następnie załóżmy, że hipoteza H jest potwierdzona przez obserwację E. Wydaje się, że obserwacja E jest również potwierdzeniem G: skoro G wynika logicznie z H, G dziedziczy poziom wiarygodności H. Innymi słowy, wydaje się, że potwierdzenie hipotezy przenosi się na jej konsekwencje logiczne, czyli że potwierdzenie jest przechodnie ze względu na wynikanie logiczne.
Weźmy teraz pod uwagę zupełnie dowolną hipotezę G. Jeżeli obserwacja E potwierdza hipotezę H, potwierdza również hipotezę H & G. Jest tak dlatego, że jeżeli H jest postaci "x(W(x) → Z(x)), zaś E jest postaci W(a) & Z(a), to E potwierdza hipotezę H, ponieważ z H & W(a), czyli koniunkcji hipotezy i opisu warunków początkowych, wynika logicznie przewidywanie Z(a). Dołączenie do koniunkcji w przesłance dowolnego składnika nie psuje wynikania logicznego. Również w ujęciu falsyfikacjonistycznym, jeżeli E corroborates H, czyli jest nieudaną próbą falsyfikacji H, jest zarazem nieudaną próbą falsyfikacji (corroboration) H & G, gdzie G jest zupełnie dowolnym zdaniem.
Mamy teraz:
|= H & G → G
Jeżeli zatem potwierdzenie jest przechodnie, G jest potwierdzona przez obserwację E. Ale G jest zupełnie dowolną hipotezą! Otrzymaliśmy zatem paradoksalny wniosek: jeżeli jakaś obserwacja jest potwierdzeniem jakiejkolwiek hipotezy, jest potwierdzeniem dowolnej hipotezy.
Rozwiązanie: nieprzechodniość potwierdzenia
Teza o przechodniości potwierdzenia jest opiera się na następującym rozumowaniu:
H jest potwierdzona
H → G
-----------------
G jest potwierdzona
Powyższe rozumowanie nie jest rozumowaniem dedukcyjnym: wniosek nie wynika logicznie z przesłanek. Błąd polega na pomyleniu powyższego schematu z dwoma innymi prawomocnymi schematami dedukcyjnymi:
H
H → G
-----------------
G
H jest potwierdzona
H jest potwierdzona → G jest potwierdzona
-------------------------------------
G jest potwierdzona
W pierwszym z nich potwierdzenie H nie gwarantuje prawdziwości pierwszej przesłanki. W drugim druga przesłanka byłaby zagwarantowana dopiero wtedy, gdyby potwierdzenie było przechodnie. Inaczej mówiąc, przyjęcie rozumowania według drugiego schematu jest błędem petitio principii.
Okazuje się zatem, że nie jest wcale oczywiste, czy wolno łączyć ze sobą uzasadnienia indukcyjne z dedukcyjnymi. Zilustruję to przykładem:
Niech H będzie hipotezą, że wszystkie kruki są czarne.
Niech G będzie hipotezą, że wszystkie kruki w Opolu są czarne.
G wynika logicznie z H.
Niech H będzie potwierdzone przez obserwacje kruków na Wyspach Brytyjskich. Czy G jest przez te obserwacje potwierdzona?
Odpowiedź zależy od dodatkowych przesłanek. Jeżeli mamy teoretyczne powody przypuszczać, że kruki opolskie nie różnią się upierzeniem od kruków brytyjskich, odpowiedź jest pozytywna. Jeżeli mamy teoretyczne powody przypuszczać, że w rejonie Opola działają czynniki, które mogły wywołać jakieś mutacje u kruków, odpowiedź jest negatywna. Po raz kolejny okazuje się, że potwierdzenie zależy od szerszego kontekstu, a zatem analiza potwierdzania musi brać pod uwagę kontekst.
Sprawa jest kontrowersyjna. Peter Lipton (Cambridge UK) uważa, że teza o nieprzechodniości potwierdzenia brzmi jak „ponury żart”. Hilary Putnam (Harvard, Cambridge MA), z którym kiedyś rozmawiałem na podobny temat, powiedział mi „Adam, don't be silly” (wbrew pozorom to nie znaczy „Głupiś”, lecz ma wymowę zbliżoną do „Nie rób sobie jaj”). Podobnie jak ja myśli m.in. Clark Glymour (Pittsburg).
Paradoks zielbieskości (grue)
Paradoks zielbieskości został sformułowany przez Nelsona Goodmana (1954). Brzmi on następująco:
Każda obserwacja zielonego szmaragdu potwierdza hipotezę:
Wszystkie szmaragdy są zielone.
Zdefiniujmy teraz predykat „…jest zielbieski” następująco: x jest zielbieskie wtedy i tylko wtedy, gdy x jest zielone do 2000 roku, a niebieskie potem.
Dzisiaj trzeba oryginalne sformułowanie uaktualnić, zastępując datę 2000 inną datą z przyszłości, na przykład 2050.
Wówczas każda obserwacja szmaragdu zielonego do roku 2050 potwierdza hipotezę:
Wszystkie szmaragdy są zielbieskie.
Zatem do 2050 pierwsza z rozpatrywanych hipotez nie może zostać mocniej potwierdzona od drugiej. Jest to wniosek paradoksalny, ponieważ na podobnej zasadzie można sformułować bardzo wiele hipotez alternatywnych wobec dowolnej hipotezy wyjściowej, co prowadzi do wniosku, że żadna hipoteza nie może być mocniej potwierdzona od nieskończenie wielu hipotez alternatywnych.
Rozwiązanie Goodmana:
Potwierdzenie indukcyjne może mieć tylko taka hipoteza, w której występują wyłącznie predykaty rzutowalne (projectible). Predykat „…jest zielbieski” przypuszczalnie nie jest rzutowany (to znaczy, nie nadaje się do formułowania uogólnień indukcyjnych), ponieważ przypuszczalnie rzutowanym jest predykat „…jest zielony”. Podstawą tego przypuszczenia jest fakt, że „…jest zielony” (inaczej niż predykat „…jest zielbieski”) jest predykatem dobrze zakorzenionym (well-entrenched) w naszej praktyce indukcyjnej.
Krytyka: powoływanie się na zakorzenienie może hamować nowatorstwo w nauce, które często polega na definiowaniu nowych predykatów.
Wydaje się, że problem powstaje znowu przez zaniedbanie szerszego kontekstu. Hipoteza, że wszystkie szmaragdy są zielone, milcząco zakłada warunek ceteris paribus (= „warunki pozostają takie same”). Założenie ceteris paribus głosi, że jeżeli nawet warunki uboczne się zmienią, to w taki sposób, że nie narusza przebiegu zdarzeń. Takie założenie milcząco towarzyszy każdej hipotezie. Krócej założenie ceteris paribus można ująć jako „…o ile uboczne okoliczności nie mają istotnego wpływu”. Na przykład prawo swobodnego spadania zakłada, że nie powstaną okoliczności mające istotny na spadanie, na przykład, że Księżyc nie zbliży się do Ziemi tak, by swoim działaniem grawitacyjnym istotnie wpływał na ciała spadające przy powierzchni Ziemi.
Pragmatyka potwierdzania
W przypadku szmaragdów milcząco zakładamy, że okoliczności w przyrodzie nie zmienią się w sposób, który miałby istotny wpływ na ich barwę. Że, na przykład, nie powstanie takie zanieczyszczenie atmosfery, które zmieniłoby barwę szmaragdów. Hipoteza zielbieskości, przeciwnie, zakłada, że zachodzi w przyrodzie jakiś tajemniczy proces, skutkiem którego dochodzi do przesuwania się barw w widmie w taki sposób, że na przełomie 2005/06 dojdzie do przekroczenia granicy między zielonym a niebieskim. Znowu zatem okazuje się, że teoria potwierdzania powinna brać pod uwagę kontekst: hipotezy towarzyszące badanej hipotezie.
8.Kryterium demarkacji
Praca wymyślającego nową teorię naukowca podobna jest do prac artysty czy filozofa; opisując je wszystkie używamy określeń w rodzaju "intuicja", "natchnienie", "wyobraźnia twórcza". Nie istnieje intuicja swoiście naukowa, a żadna cecha naszych intuicji (np. towarzyszące natchnieniu uczucie oczywistości) nie gwarantuje prawomocności jej wytworów. Ale przecież istnieje różnica między mechaniką Newtona czy teorią względności a biblijną historią stworzenia czy wywodami Hegla. I jest to różnica ze względu na poznawcze zalety różnego typu produktów wyobraźni! Tak docieramy do centralnego problemu Popperowskiej filozofii nauki, czyli problemu demarkacji: Jakie uniwersalne kryterium pozwala odróżnić teorie naukowe od matematyki i logiki z jednej, a od systemów metafizycznych z drugiej strony?
Przedmiotem oceny, z uwagi na to, co już powiedziano, jest gotowa teoria: jej pochodzenie, a więc czy np. została w jakiś sposób wywnioskowana z wiedzy zastanej, czy od początku do końca wymyślona "z niczego", a może jej twórca inspirował się jakimś systemem filozoficznym bądź religijnym, w żaden sposób o jej naukowym czy pseudonaukowym charakterze nie świadczy. Popper odrzuca również w Logice odkrycia naukowego przekonanie - i w tym momencie radykalnie zrywa ze zdroworozsądkowym pojmowaniem nauki - aby kryterium naukowości mogło mieć coś wspólnego z prawdziwością teorii, a nawet "prawdziwością w przybliżeniu" lub "prawdziwością z pewnym prawdopodobieństwem". A to dlatego, że, po pierwsze, kryterium łączące naukowość z prawdziwością kazałoby odmówić np. mechanice Newtona miana teorii naukowej - skoro z punktu widzenia teorii względności okazała się teorią fałszywą. Po drugie, kryterium takie byłoby bezużyteczne, albowiem niczego o prawdziwości (choćby tylko prawdopodobnej) naszych teorii wiedzieć nie możemy.
Oczywiście prawdziwości teorii nie da się dowieść: żadne logiczne własności teorii empirycznych nie wykazują ich prawdziwości, nie dowodzą jej też wyniki doświadczeń, albowiem teorie są ogólne, mają nieskończony czasowo i przestrzennie zakres możliwych zastosowań. Popper argumentuje dalej, iż w roli kryterium demarkacji nie da się zastosować kryterium empirycznej sensowności rozwijanego przez filozofów Koła Wiedeńskiego. Tak z(dez)interpretowane brzmiałoby ono: teoria jest naukowa, jeśli na podstawie pozytywnych wyników doświadczeń można orzec, że jest prawdziwa z pewnym prawdopodobieństwem. (Należy zaznaczyć, że spory pomiędzy Popperem a empirystami logicznymi były w dużej mierze pozorne: on rozumiał neopozytywistyczne kryteria sensowności zdań jako kryteria demarkacji, oni uważali Popperowskie kryterium demarkacji za osobliwą odmianę kryterium empirycznej sensowności.) Takie kryterium miałoby fatalne konsekwencje dwojakiego co najmniej rodzaju.
Podstawowy schemat indukcyjnego potwierdzania teorii przez fakty byłby następujący:
T → O1, O2, ..., Ok, ...
O1, O2, ..., Ok
-----------------------------------------------------------
T jest prawdziwa z prawdopodobieństwem p
Stwierdzamy mianowicie, że z T wynikają pewne zdania obserwacyjne Oi, których jest nieskończenie wiele, zaś k z nich zostało pomyślnie zweryfikowanych przez wyniki doświadczeń. Na tej podstawie chcemy orzec, że T jest prawdziwa z pewnym prawdopodobieństwem. Prawdopodobieństwo to powinno wzrastać w miarę, jak rośnie liczba zweryfikowanych doświadczalnie konsekwencji T. Mowa jest zatem o prawdopodobieństwie T ze względu na O1, ...,Ok. Twierdzenie Bayesa głosi, że prawdopodobieństwo x za względu na y, które oznaczamy p(x/y), równa się p(y/x)p(x)/p(y). Podstawiamy za x - T, a za y - O1, ...,Ok. Ponieważ O1, ...,Ok wynikają z T, to p(O1, ...,Ok/T) = 1. Otrzymujemy więc
p(T/ O1, ...,Ok) = p(T)/p(O1, ...,Ok),
gdzie p(T) to prawdopodobieństwo początkowe T, czyli prawdopodobieństwo, jakie teoria miała przed poddaniem jej jakimkolwiek empirycznym sprawdzianom. Z punktu widzenia Popperowskiej filozofii nauki p(T) musi być równe zeru - T ma przecież orzekać o całym wszechświecie, nieskończenie wykraczać w swych konsekwencjach poza to, co należało do naszej wiedzy przed jej sformułowaniem. Poza tym, o czym była mowa w rozdziale poprzednim, możliwych teorii zgodnych z wiedzą zastaną jest nieskończenie wiele, tak jak nieskończenie wiele jest krzywych, jakie można przeprowadzić przez skończony zbiór punktów doświadczalnych. A skoro tak, to prawdopodobieństwo to będzie równe zeru zawsze, niezależnie od tego, ilu i jak mało prawdopodobnych zdarzeń użyto w celu jej potwierdzenia. (Intuicyjnie można to ująć następująco: sprawdzić możemy skończenie wiele konsekwencji obserwacyjnych teorii, nie sprawdzonych pozostanie zawsze nieskończenie wiele, a stosunek dowolnie wielkiej liczby do nieskończoności jest równy zeru.) Tak więc indukcyjna potwierdzalność w roli kryterium demarkacji prowadziłaby do wniosku, że wszystkie teorie naukowe są - jako niepotwierdzalne - nienaukowe. (Chyba że nadamy teorii niezerowe prawdopodobieństwo początkowe, co mogłoby jednak nastąpić wyłącznie w wyniku arbitralnej, nieuzasadnionej decyzji.)
Kryterium takie miałoby też destruktywny wpływ na praktykę naukową. Starając się nadać swoim teoriom niezerowe prawdopodobieństwo początkowe, naukowcy odmawialiby formułowania teorii ogólnych, a im mniej wykraczałyby one poza znane fakty, tym lepiej (przypomnijmy, że Robert Boyle - prowadzący badania jeszcze przed Newtonem - chciał ograniczyć zadanie naukowca do sporządzania sprawozdań z wyników doświadczeń). Unikaliby ponadto formułowania teorii ścisłych: intuicyjnie rzecz biorąc początkowe prawdopodobieństwo teorii dostarczającej przewidywań z dokładnością np. do siódmego miejsca po przecinku jest mniejsze niż teorii dostarczającej wartości przybliżonych np. do pierwszego miejsca, a najlepiej wypadają w tym współzawodnictwie teorie jedynie jakościowe. Tymczasem w Einsteinowskiej teorii względności uderzyły Poppera jej ogólność i ścisłość przewidywań.
A zatem logika ani nie pozwala nam teorii dowieść, ani nawet potwierdzić. Logika (dedukcyjna), twierdzi Popper, pozwala nam natomiast na doświadczalne obalenie - falsyfikację - teorii. Jeśli nasza teoria powiada np. "wszystkie łabędzie są białe", to wystarczy zaobserwować jednego czarnego łabędzia, aby logicznie dowieść, że teoria ta jest fałszywa. Falsyfikacja teorii przebiega zgodnie z prawem logiki zwanym modus tollendo tollens:
T → O
~O
-----------
~T.
Z logicznego punktu widzenia wygląda to tak, że z teorii - w koniunkcji z odpowiednimi warunkami dodatkowymi - wynikają zdania bazowe, opisujące zdarzenia, które - w danych warunkach - powinny, zgodnie z teorią, zajść. A zatem z teorii wynika też, co - w danych warunkach - zdarzyć się nie powinno. Teoria, powiada Popper, ma charakter empiryczny, jeśli dzieli klasę możliwych zdań bazowych na dwie rozłączne i niepuste podklasy: podklasę zdań bazowych z nią zgodnych i podklasę zdań bazowych z nią sprzecznych. Klasa zdań bazowych sprzecznych z teorią to klasa potencjalnych falsyfikatorów teorii. Jeśli zaobserwujemy zdarzenie opisywane przez zdanie bazowe sprzeczne z teorią, to dowiedziemy tym samym jej fałszywości.
Kryterium demarkacji - odróżniające nauki przyrodnicze z jednej strony od matematyki, a od systemów "metafizycznych" z drugiej - brzmi: teoria jest naukowa, jeśli klasa jej potencjalnych falsyfikatorów nie jest pusta. Innymi słowy, teoria jest naukowa, jeśli może zostać sfalsyfikowana przez pewne zdania bazowe, przyjęte na podstawie wyników doświadczeń. Klasę potencjalnych falsyfikatorów nazywa Popper treścią empiryczną teorii i w związku z tym pisze: teoria jest naukowa wtedy i tylko wtedy, gdy posiada treść empiryczną.
Jeśli możemy czegoś o świecie się uczyć, to możemy uczyć się jedynie na błędach. Na tyle bowiem pozwala nam logika (której statusu Popper nie próbuje wyjaśniać): możemy formułować hipotezy nadające sens naszym doświadczeniom, a następnie eliminować te, które okażą się z wynikami doświadczeń - za ich pomocą zinterpretowanych - niezgodne. A zatem im łatwiej eliminowalne - w im wyższym stopniu falsyfikowalne - są nasze hipotezy, tym lepiej.
Falsyfikacjonizm Poppera
Karl Popper (1902-1994) nie był członkiem Koła Wiedeńskiego, ale uczestniczył w jego seminariach. Inaczej niż większość filozofów wiedeńskich, schronił się przed aneksją Austrii nie w USA, lecz w Nowej Zelandii, a później przeniósł się do London School of Economics. Jeszcze w Austrii opublikował Logik der Forschung (1934), gruntowną krytykę Koła Wiedeńskiego. Oddziałała ona w Europie, ale angielska wersja Logic of Scientific Discovery (1959, polski przekład: Logika odkrycia naukowego ) ukazała się w czasie, gdy empiryzm logiczny w USA upadał pod wpływem wewnętrznych trudności oraz krytyki ze strony Toulmina, Hansona i Kuhna (nieco później również Wilfrieda Sellarsa, o którym nie wspomniałem na wykładzie).
Do upadku empiryzmu logicznego bodaj najbardziej przyczyniło się odkrycie uteoretyzowania obserwacji , zwanego przez Poppera theory-impregnation , a przez amerykańskich filozofów theory-ladeness . Zalążków tezy o uteoretyzowaniu obserwacji można dopatrzeć się m.in. u Peirce'a, który uwzględnia wpływ pamięci i oczekiwań na treść sądu percepcyjnego. Pod koniec lat 1950. tezę o uteoretyzowaniu obserwacji antycypowali m.in. Stephen Toulmin (1922-) i Norwood Russell Hanson (1924-1967), który twierdził, że seeing jest zawsze seeing-as (widzeniem czegoś jako coś). W sformułowaniu Poppera, każda obserwacja jest uteoretyzowana w tym sensie, że żadne zdanie nie da się rozstrzygnąć na podstawie samej tylko obserwacji wolnej od wcześniejszych założeń teoretycznych. Przykładem może być zdjęcie rentgenowskie, na którym wykształcony lekarz zaobserwuje zmiany chorobowe, a pacjent dostrzeże jedynie niezrozumiały układ cieni. Nawet obserwacje „gołym okiem” nie są wolne od założeń. Nie można, na przykład, zaobserwować, że w szklance jest woda bez żadnej wiedzy na temat wyglądu, smaku i zapachu wody. Tak samo jak obserwacji, uteoretyzowanie dotyczy również operacji pomiarowych: wyskalowanie termometru, albo zbudowanie wagi skręceń (Cavendish 1978) do pomiaru masy Ziemi, nie byłoby możliwe bez uprzednich hipotez na temat przedmiotu pomiaru. Teza o uteoretyzowaniu obserwacji podważa zatem również operacjonizm.
Teza o uteoretyzowaniu obserwacji jest Kantowskiego rodowodu. Według Kanta doświadczenie nie jest możliwe bez apriorycznych form zmysłowości i kategorii czystego intelektu, czyli pojęć organizujących doświadczenie. Według Poppera, doświadczenie jest zorganizowane za pomocą hipotez. Hipotezy zatem są genetycznie a priori , to znaczy są twórczymi pomysłami, które poprzedzają wszelką obserwację. Są one jednak metodologicznie empiryczne, to znaczy, mogą zostać wymienione w następstwie doświadczenia (Jak to ujął Imre Lakatos: „Teoretyk strzela, eksperymentator kule nosi”). Ogniwem pośrednim między Kantem a Popperem jest konwencjonalizm Poincarégo, według którego doświadczenie jest zorganizowane za pomocą konwencji, czyli zasad wymiennych, podobnie jak hipotezy a inaczej niż kantowskie formy aprioryczne, lecz wymiennych inaczej niż hipotezy, bo niezależnie od doświadczenia.
Popper odrzucił kryterium potwierdzalności, uznając dążenie do potwierdzeń za charakterystyczną cechę pseudonauki , na przykład astrologii, marksistowskiej teorii walki klas i psychoanalizy Freuda. Teoria, która może się tylko potwierdzić, nie jest naukowa, ponieważ nie mówi nic o świecie. Teoria naukowa powinna wykluczać jakieś zdarzenia. Zatem zdanie jest naukowe wtedy i tylko wtedy, gdy jest falsyfikowalne. Warto zauważyć, że kryterium falsyfikowalności, inaczej niż kryterium demarkacji Koła Wiedeńskiego, nie jest kryterium sensowności. Oddzielając zdania naukowe od pseudonaukowych Popper nie odrzuca metafizyki , ponieważ
• dąży do sformułowania normatywnej, a więc apriorycznej metodologii, jako „etyki uczonego”;
• w związku z tym dopuszcza uprawianie etyki normatywnej w ogóle;
• a także normatywnej teorii politycznej;
• samo uprawianie nauki opiera się na metafizycznym założeniu, że w świecie występuje co najmniej jedna prawidłowość (jest to warunek transcendentalny nauki, podobny do warunku Peirce'a i zasady jednostajności przyrody Milla);
• nadto teorie metafizyczne we właściwym sensie tego słowa, jak atomizm antyczny, uważa za źródło idei heurystycznych dla nauki, zaś idee bezsensowne oczywiście nie mogą pełnić żadnej funkcji heurystycznej. Normą metodologiczną, którą Popper wywodzi ze swego kryterium demarkacji jest zasada krytycyzmu , która głosi, że należy wysuwać śmiałe hipotezy a następnie podejmować rzetelne próby ich obalenia. Zasadę tę w Społeczeństwie otwartym i jego wrogach (1945) rozciągnął na teorię polityczną: społeczeństwo otwarte dopuszcza nieustanną krytykę swoich instytucji w celu powolnych i przewidywalnych ulepszeń, unikając ryzykownego zamknięcia się w ramach jednej ideologii. Zasada krytycyzmu rodzi jednak poważny problem. Aby sfalsyfikować hipotezę trzeba wyprowadzić z niej jakieś przewidywanie, a następnie eksperymentalnie stwierdzić, że się nie spełniło. To stwierdzenie, jako naukowe, musi również być falsyfikowalne, a zatem wymaga podjęcia prób falsyfikacji. Jego ewentualny falsyfikator, czyli zdanie z nim sprzeczne, jeżeli zostanie stwierdzone, musi znowu poddać się próbie falsyfikacji itd.
Problem ten Popper formułuje jako trylemat Friesa (Jacob Fries, niemiecki filozof z XIX w.):
• dogmatyzm - przerwanie regresu w nieskończoność arbitralną decyzją;
•„ psychologizm” - przyznanie sobie zdolności umysłowej do rozstrzygania niektórych zdań bez
odwoływania się do innych zdań • regres w nieskończoność. Dogmatyzm nie wchodzi w rachubę jako sprzeczny z zasadą krytycyzmu. „Psychologizm” (cudzysłów oznacza, że Popper użył tego terminu w sposób niestandardowy) jest stanowiskiem empiryzmu logicznego, który zakłada możliwość rozstrzygania zdań bazowych za pomocą samej tylko obserwacji (doznań zmysłowych). Zostaje regres nieskończoność, który można przerwać przyjmując jakąś tymczasową „bazę empiryczną” . Tymczasowość „bazy empirycznej”, przyjmowanej dopóty, dopóki dobrze funkcjonuje jako narzędzie krytyki hipotez, gwarantuje uniknięcie wszystkich członów trylematu.
To rozwiązanie wyraźnie nawiązuje do fallibilizmu Peirce'a i jego krytyki kartezjańskiego fundamentalizmu epistemologicznego. Sama koncepcja falsyfikowalności nawiązuje metody indukcji eliminacyjnej Francisa Bacona oraz do Williama Whewella (1794-1866), oponenta Johna Stuarta Milla. Zasadę krytycyzmu Popper kierował m.in. przeciw stosowaniu w nauce „wybiegów konwencjonalistycznych”. Przypuszczalnie Popper miał na myśli konwencjonalizm Pierre'a Duhema ( La théorie physique son objet et sa structure , 1906), wedle którego żadna hipoteza nie może okazać się fałszywa. Projekt eksperymentu bowiem zawsze zakłada jakieś hipotezy pomocnicze, na przykładhipotezy na temat działania przyrządów pomiarowych. Toteż negatywny wynik eksperymentu świadczy tylko o tym, że nie wszystkie hipotezy uwikłane w eksperyment (hipoteza testowana i hipotezy pomocnicze) są prawdziwe, ale nie pozwala stwierdzić, które. Zatem hipotezę testowaną można bronić przed odrzuceniem za pomocą odpowiedniej modyfikacji hipotez pomocniczych. Popper sprzeciwia się również konwencjonalizmowi Poincarégo, który uważał, że niektóre prawa nauki z czasem przekształcają się w konwencjonalne zasady - na przykład zasady dynamiki Newtona - które funkcjonują jak definicje terminów w nich występujących i dlatego są niewrażliwe na doświadczenie).
Co ciekawe, sam Popper określił się mianem "konwencjonalisty na poziomie zdań szczegółowych", w odróżnieniu od francuskiego konwencjonalizmu na poziomie zdań ogólnych (hipotez, praw, zasad). Tymczasowa "baza empiryczna" jest bowiem, w ujęciu Logiki odkrycia naukowego , przyjmowana z "wyroku naukowego jury". Późniejsza koncepcja wiedzy zastanej, o której mowa niżej, podważa tę jego autoetykietkę: wydaje się, że trzeba albo zająć stanowisko konwencjonalizmu na poziomie zdań ogólnych, albo odrzucić je w ogóle. Pytanie o to, przeciw której hipotezie skierować negatywny wynik eksperymentu, nazywa się problemem Duhema . Sam Duhem rozwiązywał go następująco: hipotezy upadają nie dlatego, że okazują się fałszywe, bo nigdy nie okazują się fałszywe, ale dlatego, że kolejne modyfikacje hipotez w celu ich uzgodnienia z doświadczeniem zwiększają poziom komplikacji całego systemu teoretycznego. Jeżeli zostanie zaproponowany system prostszy, a równie zgodny z doświadczeniem, wówczas dotychczasowy, bardziej skomplikowany system ustępuje mu miejsca. Celem nauki zatem jest nie prawda, lecz zgodność z doświadczeniem i prostota. Natomiast Popper zajmował stanowisko realizmu naukowego, wedle którego nauka jest poszukiwaniem prawdy, i dlatego nie mógł zaakceptować konwencjonalizmu. Początkowo był nieśmiałym realistą, ze względu na powszechną opinię, iż pojęcie prawdy jest wysoce niejasne. Ośmieliło go dopiero spotkanie z Alfredem Tarskim w 1935, którego teoria prawdy (1933) wprawiła go (w cokolwiek przesadny) zachwyt. Realizm Poppera jest skrajnie nieepistemiczny. Z zasady krytycyzmu wynika bowiem, że nawet mając prawdziwą hipotezę należy poddawać ją próbom falsyfikacji, czyli żadnej hipotezy nie wolno uznać za prawdziwą.
Koroboracja jest to nieudana próba falsyfikacji jakiegoś twierdzenia (za Popperem). Teoria czy hipoteza została skoroborowana w chwili, gdy nie udało się wykazać jej fałszywości. O takiej teorii lub hipotezie Popper mówi, że "okazała hart" ze względu na negatywny wynik eksperymentu falsyfikującego. W stosunku do następującego twierdzenia: "Wszystkie orbity planet są elipsami", powiedzieć możemy, że zostało skoroborowane ponieważ (mimo poszukiwań - prób falsyfikacji) nie jest znana orbita planety, która nie jest elipsą.
FALLIBILIZM (łac. fallere - omylić, zawieść, nie spełnić) - termin wprowadzony przez Ch. S. Peircea na oznaczenie teoriopoznawczego pragmatyzmu oraz formułowanych w jego ramach wniosków z teorii nauki.
Prekursorem f. był Karneades (III-II w. przed Chr.), scholarcha Średniej Akademii, rzecznik umiarkowanego sceptycyzmu, wg którego nie jest nam dostępna wiedza pewna, lecz jedynie (mniej lub bardziej) prawdopodobna. W czasach nowożytnych reprezentatywnym interpretatorem f. był Ch. S. Peirce; w poznaniu naukowym f. stosował P. Duhem, G. Bachelard, R. Carnap, a zwł. K. R. Popper i H. Spinner.
W teorii nauki f. występuje współcześnie w różnych orientacjach, którym są wspólne następujące tezy: 1) zdania syntetyczne, oparte zwł. uzasadniająco na indukcji lub abdukcji, nie są kwalifikowane teoriopoznawczo jako pewne, lecz w różnym stopniu prawdopodobne, a więc posiadają charakter hipotetyczny, fallibilistyczny; 2) zdania nie stanowią powodu do preferowania dogmatyzmu bądź sceptycyzmu w naukach przyrodniczych, natomiast eksponowany jest wymóg poddawania takich zdań ustawicznej kontroli; 3) umożliwiająca nieodzowną ważność budowania hipotez logika odkrycia powinna mieć podstawy transcendentalne, a w razie zrezygnowania z uzasadniania transcendentalnego, powinna być zasadnie uznana na podstawie prognostycznej mocy sformułowanych za jej pomocą zdań. Alternatywą będzie zabieg testowania hipotez na podstawie dedukcyjnej logiki odkrycia naukowego ustalonej konwencjonalnie, oraz poprzez aplikację testowanych teorii.
Wiedza naukowa jest istotnie kwestionowalna; nie jest też wykluczone, że okaże się fałszywa. O teoriach naukowych nie orzeka się prawdziwości kategorycznie, lecz jedynie prawdopodobnie. Na płaszczyźnie ogólności i precyzji właściwej wiedzy przyrodniczej (np. w fizyce teoretycznej) nie osiąga się definitywnej i finalnej prawdy w charakterystycznych dla niej kwestiach. Eksponowana jest nie tyle fałszywość czy nieosiągalność takiej wiedzy, ile jej zasadniczo prowizoryczny charakter.
Nowa, osiągana w określonych warunkach poznawczych i pozapoznawczych wiedza teoretyczna nie dopełnia, lecz zasadniczo koryguje wiedzę zastaną. W postępie nauki jest miejsce na rewolucyjne rewizje wiedzy naukowej, co wyklucza ewentualność Peirce'owskiej koncepcji aproksymującego konwergentyzmu w rozwoju nauki.
Epistemologicznym źródłem kwestionowalności wiedzy o świecie jest niedookreśloność teorii naukowych przez dostępny materiał obserwacyjny, co umożliwia formułowanie alternatywnych teorii naukowych. Transcendowanie danych przez teorie wyklucza możliwość ich definitywnej konfirmacji przez te dane. Ta niestabilna równowaga, typowa dla nauk przyrodniczych, wyraża się przez temporalność teoretycznej wiedzy o świecie, jej podatność na modyfikacje i doskonalenie.
Właściwy przedsięwzięciom poznawczym f. różni się zasadniczo od nihilistycznego sceptycyzmu. Poznawczy ideał postępowania badawczego jest połączony z dążeniem do jego realizacji, czemu towarzyszy przekonanie o braku jej adekwatnej aktualizacji.
Tzw. f. konsekwentny H. Alberta, wg którego obiektem krytyki i rewizji są metodologiczne reguły (standardy, zdania), jest stowarzyszony z krytycznym realizmem, zgodnie z którym powyższe zabiegi są dokonywane na podstawie empirycznych danych, odnoszących się do własności świata, oraz z metodologicznym racjonalizmem, zgodnie z którym tego rodzaju krytyka jest realizowana na podstawie racjonalnych argumentów.
Możliwość realizacji takiego stanowiska w filozofii nauki nie wyklucza cyrkularności, której nie uchyli się, rezygnując z niezmiennego punktu wyjścia w poznaniu czy też z uzasadnień ostatecznych. Argumentacyjne wyróżnianie wymienionych reguł i standardów, z wykluczeniem możliwości popadnięcia w wadliwość cyrkularności, jest do zrealizowania przez odwołanie się do metametodologicznych kryteriów, niezależnych od wyróżnionych na ich podstawie metodologicznych reguł czy standardów. nauką, Wr 1993).
Problem Duhema
• Każdy eksperyment zakłada hipotezy pomocnicze
- na przykład hipotezy na temat działania przyrządów pomiarowych
• Zatem nigdy nie wiadomo, przeciw której hipotezie przemawia negatywny wynik eksperymentu
• Hipotezy upadają nie dlatego, że okazują się fałszywe,
• lecz z powodu nadmiernych komplikacji teoretycznych
• Cel nauki: prostota + zgodność z doświadczeniem
Holizm Quine'a
• Żadne zdanie nie jest odporne na rewizję
• Nauka jako całość stoi przed trybunałem doświadczenia
Poppera krytyka holizmu
Ze względu na uteoretyzowanie obserwacji pojęcie konfrontacji całego systemu z doświadczeniem
jest niezrozumiałe. Do konfrontacji zawsze staje część systemu przeciw innej części systemu.
Trzy warunki przyrostu wiedzy Karl Popper
Warunek wstępny: nowa hipoteza wyjaśnia wszystkie zjawiska, które wyjaśniały hipotezy dotychczasowe, a ponadto wyjaśnia jeszcze jakieś inne zjawiska.
• Bogactwo treści empirycznej
- liczba potencjalnych falsyfikatorów
- zakaz hipotez ad hoc
• Prostota
- wskazanie na nowe związki
• Względny sukces empiryczny
Powyższe kryteria są zrelatywizowane do wiedzy zastanej, co prowadzi do nowej wersji problemu Duhema
Problem zmiany pojęciowej Kuhn
• Nauka normalna polega na rozwiązywaniu łamigłówek według reguł określonych przez
panujący paradygmat
• Paradygmat określa:
- podstawową ontologię
- repertuar problemównaukowych
- wzorce rozwiązań
- kryteria oceny
• Nagromadzenie opornych łamigłówek powoduje kryzys zaufania do paradygmatu
• W czasie kryzysu (extraordinary research)
dochodzi do osłabienia reguł paradygmatu
• W czasie kryzysu (extraordinary research) dochodzi do osłabienia reguł paradygmatu
• Tworzą się zalążki nowych paradygmatów
• Zwycięstwo jednego z nich kończy rewolucję naukową
• Teorie przedzielone rewolucją naukową są
niewspółmierne
• Terminy naukowe radykalnie zmieniają
znaczenie
• Nie ma między paradygmatycznych
kryteriów oceny teorii
• Rewolucje naukowe przynoszą zarówno zyski, jak i straty eksplanacyjne tzw. „straty Kuhna”
• Problem niewspółmierności podważa projekt poszukiwania „logiki nauki”
- logiki indukcji
- metodę hipotetyczno-dedukcyjną
Metodologia naukowych programów badawczych Lakatosa
Problemy do rozwiązania:
• Problem Duhema w wersji Poppera
• Problem niewspółmierności
• Falsyfikacja hipotezy jest zawsze potwierdzeniem innej hipotezy
• Przedmiotem oceny są zatem nie pojedyncze hipotezy, lecz ich ciągi
• Naukowym programem badawczym nazywa się ciąg hipotez wyodrębniony przez
- twardy rdzeń (heurystykę negatywną)
- pas ochronny hipotez (heurystykę pozytywną)
• Naukowy program badawczy nazywa się postępowy wtw
- kolejne hipotezy mają nadwyżkę treści empirycznej nad poprzednimi
- część nadwyżki treści empirycznej jest potwierdzona
• Należy rozwijać programy postępowe, a zarzucać programy degenerujące się