Filozofia nauki w XX wieku stała się jedną z najważniejszych dyscyplin filozoficznych, obok tradycyjnie ważnych takich dyscyplin jak ontologia, teoria poznania czy etyka. Stało się tak jednak nie dzięki zasługom filozofów nauki, ale dzięki coraz większej roli, jaką nauka odgrywa we współczesnej cywilizacji. Nauka i związana z nią bezpośrednio technologia wywiera decydujący wpływ na sposób życia człowieka i to, co myśli on o sobie i otaczającym świecie. Ale jednocześnie znaczenie terminu „nauka” jest w dużym stopniu niejasne.
W dawnych epokach, kiedy korpus twierdzeń naukowych był ubogi, a sam wpływ nauki na życie codzienne ludzi niewielki, rozważania metanaukowe zawsze poprzedzały badania naukowe. Dzisiaj tego się nie praktykuje, ale przecież zawsze uczony posiada jakąś koncepcję nauki, zgodnie z którą działa (na przykład gdy odrzuca jako nienaukowe twierdzenia kreacjonizmu, o trójkącie bermudzkich, odwiedzinach kosmitów, lewitacji, psychokinezie, telepatii itd.). Można zauważyć, że wybitni uczeni mają bardziej sprecyzowaną samoświadomość tego, co robią i dlaczego. Wyrazem tego są publikacje, nawet książkowe, o charakterze filozoficznym (np. Albert Einstein, Niels Bohr, Werner Heisenberg, David Bohm, Czesław Białobrzeski, Stephen Hawking, Steven Weinberg, Stephen Jay Gould, Ernst Mayr). Rekonstrukcja ich filozoficzno-naukowych poglądów może być wdzięcznym tematem dla filozofów nauki.
Kiedyś naukę uprawiali pojedynczy uczeni (była to tzw. mała nauka). Dziś nauka staje się coraz bardziej wielką nauką – zinstytucjonalizowaną i powiązaną z rozmaitymi pozanaukowymi sferami życia (ekonomią i gospodarką, polityką, zbrojeniami, kulturą i sztuką, religią itp.). Filozofia takiej nauki musi uwzględniać to jej wszechstronne uwikłanie i patrzeć na nią z wielu punktów widzenia.
Już na temat stosunku wiedzy naukowej do przednaukowej (zdroworozsądkowej) istnieją spory. Większość uczonych i filozofów nauki (np. A. Einstein) uważa, że istnieje ciągłe przejście od wiedzy przednaukowej do naukowej. W tym ujęciu myślenie naukowe to nic innego jak myślenie zdroworozsądkowe, tyle że nieco bardziej subtelne i wyrafinowane, bo poddane rygorom logiki i doświadczenia. Niektórzy jednak widzą radykalną różnicę między omawianymi typami wiedzy. Na przykład Leszek Nowak za istotną cechę nauki uważa formułowanie praw idealizacyjnych. Te twierdzenia naukowe zakładają pewne faktualnie fałszywe twierdzenia.
Bez względu na to, czy te różnice są radykalne, jakieś jednak istnieją. Wiedzę zdroworozsądkową cechuje znaczna nieokreśloność (nieostrość pojęciowa, nieprecyzyjne charakteryzowanie przedmiotów), brak wyjaśnień albo jeśli są, to nie są oparte na metodzie naukowej (np. przez generalizację: „kamień spada, bo wszystkie kamienie spadają”), niska informatywność i związany z tym brak rygorystycznej kontroli twierdzeń (częściowym źródłem wiedzy zdroworozsądkowej jest tradycja), niewielka ogólność, brak rozwoju (praktyczna statyczność) i wszechstronność (wiedza zdroworozsądkowa dotyczy wszystkich tradycyjnych sfer działalności praktycznej człowieka). W przeciwieństwie do tego wiedzę naukową cechuje dążenie do wyjaśnień (zwłaszcza teoretycznych, czyli odwołujących się do przedmiotów i procesów nieobserwowalnych), ustalanie związków między twierdzeniami naukowymi, określanie granic błędów teorii i faktów, większa obalalność, większa abstrakcyjność, ogólność i precyzja, zdolność do samokrytyki i samokontroli, czego wynikiem jest ciągły rozwój.
Pojęcia nauki używamy w dwu znaczeniach. W znaczeniu funkcjonalnym przez naukę rozumie się czynności prowadzące głównie do konstruowania teorii (tzw. kontekst odkrycia) oraz ich sprawdzania i uzasadniania (tzw. kontekst uzasadniania). W I połowie XX wieku niektórzy (zwłaszcza logiczni pozytywiści i falsyfikacjoniści) uważali, że filozofia nauki może zajmować się tylko kontekstem uzasadniania. W II połowie stulecia bardziej popularne stały się poglądy rozszerzające zakres zainteresowań filozofii nauki także i na kontekst odkrycia. W znaczeniu przedmiotowym przez naukę rozumie się najczęściej zespół teorii, dotyczących określonej dziedziny rzeczywistości i spełniających warunki metodologiczne co do precyzji pojęć, uzasadniania twierdzeń itp. Same teorie rozumie się tu jako zespoły twierdzeń jakoś ze sobą powiązanych formalnie, np. przez aksjomatyzację. Ale istnieją też tzw. niezdaniowe koncepcje teorii, w których teoria jest narzędziem prowadzącym do tworzenia twierdzeń o rzeczywistości. Teorię ujmuje się tu albo za pomocą definicji odpowiednich predykatów teoriomnogościowych (Patrick Suppes, Joseph D. Sneed, Wolfgang Stegmüller) albo jako przestrzenie stanów (E. Beth, Baas C. van Fraassen) lub jako systemy relacyjne (Frederick Suppe). Te niezdaniowe koncepcje dotyczyły głównie zmatematyzowanych teorii fizykalnych, choć nie wyłącznie.
Istnieją rozmaite przekonania odnośnie charakteru badanej rzeczywistości i granic w jej poznawaniu. Najczęściej uważa się (zwłaszcza uczeni nie zainteresowani refleksją metanaukową), że nauka dotyczy obiektywnej rzeczywistości, transcendentnej względem podmiotu poznającego. Ale gdy uczony zacznie się zastanawiać nad tym, jak istnieją ciała doskonale sztywne, doskonale czarne, doskonale sprężyste, planety i gwiazdy jako punkty matematyczne itp. to zaczyna mieć wątpliwości, gdzie istnieje świat badany przez naukę – może tylko w myśli? Pewne cechy nauki wskazują, że dotyczyć ona może raczej modeli rzeczywistości, a więc czegoś nierzeczywistego. Ale może modele są jakoś związane z rzeczywistością? Najczęściej odpowiadano: przez aproksymację, przybliżenie. Nie zawsze jednak taką odpowiedź można było utrzymać – kolejno przyjmowane modele mogły się znacznie różnić, wtedy lepiej pasuje koncepcja idealizacji i stopniowej konkretyzacji: modele bardziej wyidealizowane dotyczyłyby realnych „głębiej” istniejących struktur esencjalnych. Albo też pojedynczy model wydawał się niepodatny na realistyczną interpretację („jak coś może być i cząstką, i falą?”) – dlatego niektórzy głosili instrumentalizm. W nauce w tym ujęciu chodziłoby tylko o skutki, np. przewidywanie, nie zaś o realistycznie traktowany opis. Oprócz poglądu, że przedmiotem nauki jest obiektywna rzeczywistość i świat myśli, niektórzy wskazywali na język jako taki przedmiot albo przynajmniej jako niezwykle istotny czynnik kształtujący naukę. Język jest narzędziem poznawczym odzwierciedlającym aktywność uczonych względem wszystkiego, co nas otacza („granice mojego języka są granicami mojego świata”). Musi więc wpływać na to, co poznajemy (hipoteza Sapira-Whorfa).
Filozoficzne poglądy na temat rzeczywistości i poznania wpływają na określenie przedmiotu nauki. Najczęściej przyjmowany realizm uznaje istnienie i poznawalność rzeczywistości niezależnej od umysłu, ale niekiedy był ograniczany do fenomenalizmu, według którego poznajemy wyłącznie zjawiska, a nie same rzeczy (Alfred N. Whitehead, Bertrand Russell. Czasami pod wpływem odkryć w fizyce, zwłaszcza w mechanice kwantowej, przyjmuje się idealizm, negujący istnienie lub poznawalność niektórych typów rzeczywistości, sugerujący, że przedmiotem poznania naukowego nie jest świat materialny, bo czymś pierwotnym i aktywnym w doświadczeniu jest umysł (Arthur Eddington, James Jeans). Aktualny obserwator wpływa nie tylko na to, co jest, ale nawet na to, co było (Archibald A. Wheeler i tzw. eksperymenty z opóźnionym wyborem).
Cel uprawiania nauki bywa rozmaicie rozumiany. Jeśli jako motywy, skłaniające człowieka do zdobywania wiedzy, to najczęściej przyjmuje się kontemplacyjny model poznania (człowiek z natury dąży do wiedzy, powoduje nim ciekawość itd.). Inni podkreślają, że dążenie do wiedzy jest z takich czy innych względów korzystne, przy czym występuje szeroki wachlarz postulowanych korzyści – od bezpośrednich, zwłaszcza technicznych, do bardzo ogólnych, dotyczących gatunku ludzkiego (jak w performancyjnym modelu wiedzy Gonzalo Munévara). Przez cel nauki można też rozumieć rezultat przedmiotowy, do jakiego zmierza postępowanie badawcze – system wiedzy. Ale co składa się na system wiedzy? Z pewnością opis i przewidywanie. Filozofia nauki XX wieku dołączyła też kwestionowane w poprzednim wieku wyjaśnianie. Także, zwłaszcza w naukach społecznych, rozumienie i ocena rzeczywistości. W nauce XX wieku, zwłaszcza pod jego koniec, nie ulegało już wątpliwości, że akceptowanie tylko celów praktycznych jest zbyt wąskie. Nauka wyraźnie stawia sobie cele teoretyczne, czasami przekraczając nawet dawną granicę między science i science fiction (np. światy równoległe, podróżowanie w czasie, laboratoryjne stwarzanie nowych wszechświatów).
W przeciwieństwie do samej nauki, w której od kilkuset lat obserwuje się w danej epoce w każdej dyscyplinie panowanie jednej teorii (z krótkimi przerwami na tzw. rewolucje naukowe), w filozofii nauki XX wieku występuje pluralizm stanowisk. Na przełomie XIX i XX wieku ukazywały się wartościowe dzieła francuskich konwencjonalistów (Henri Poincaré, Edouard LeRoy, Pierre Duhem). Myśl konwencjonalistyczna została na krótko przerwana przez neopozytywizm (Koło Wiedeńskie: Rudolf Carnap, Otto Neurath; Szkoła Berlińska: Hans Reichenbach, Gustaw C. Hempel) i odrodziła się, w zmodyfikowanej postaci, w falsyfikacjonizmie Karla R. Poppera, a jej podstawowe wątki są obecne w tzw. uhistorycznionej filozofii nauki (Stephen E. Toulmin, Norwood Russell Hanson, Thomas S. Kuhn i Paul K. Feyerabend). Próbę pogodzenia Poppera z Kuhnem podjął Imre Lakatos w postaci metodologii naukowych programów badawczych. Pod koniec stulecia próbę zakwestionowania teoretycyzmu wcześniejszej filozofii nauki podjęli przedstawiciele tzw. nowego eksperymentalizmu (Ian Hacking, Allan Franklin), ale bez większego sukcesu. Wspomnieć jeszcze należy bardzo oryginalną i szeroko rozbudowywaną tzw. idealizacyjną teorię nauki (Leszek Nowak i jego uczniowie), rozwijaną jednak nieco na uboczu tego, co się działo w głównym nurcie filozofii nauki.
Nad oddzieleniem nauki od nienauki zastanawiano się i w dawnych wiekach. W XX wieku potężnego impulsu w sprawie kryterium demarkacji dostarczył logiczny pozytywizm. Logicznych pozytywistów naprawdę interesowało nie tyle zagadnienie oddzielenia nauki od nienauki (czy węziej: od metafizyki), ale oddzielenie sensu od bezsensu. Mówiąc o bezsensowności twierdzeń metafizycznych mieli oni na myśli brak tzw. znaczenia poznawczego. Twierdzenia bezsensowne nie niosą, ich zdaniem, informacji o istnieniu lub charakterze konkretnego rodzaju bytu. To może robić tylko nauka. Tradycyjne traktaty filozoficzne tylko z pozoru mówią coś o rzeczywistości. Naprawdę informują jedynie o trwałych dyspozycjach emocjonalno-wolicjonalnych ich autorów, np. metafizyczny monizm wyraża stan emocjonalny kogoś, kto życie traktuje jako wieczną walkę, realizm jest symptomem osobowości ekstrawertycznej, idealizm – introwertycznej itd. Metafizycy, inaczej niż poeci, oszukują innych i samych siebie, że mówią cokolwiek o rzeczywistości. Dlatego Carnap z aprobatą cytował Hume’a, gdy ten twierdził, że tomy traktujące o teologii lub scholastycznej metafizyce należy wrzucić w ogień.
Chociaż neopozytywistów interesował bardziej problem demarkacji sensu od bezsensu, kryteria, jakie proponowali, można traktować także jako kryterium demarkacji nauki od nienauki (dokładniej: jako istotny element kryterium demarkacji). Oddzielali oni naukę z jednej strony od logiki i matematyki (tu kryterium oddzielenia było rozróżnienie analityczne-syntetyczne), a z drugiej – od metafizyki (tu kryterium oddzielenia było rozróżnienie sensowne-bezsensowne). Ponieważ sądzili, że podział zdań na analityczne i syntetyczne jest względnie nieproblematyczny (pogląd ten obalił dopiero Willard V.O. Quine po II wojnie światowej), rozstrzygnięcie, co jest kryterium sensowności, w praktyce było równoważne rozstrzygnięciu, czym jest kryterium demarkacji.
Logiczni pozytywiści proponowali kilka tak rozumianych kryteriów demarkacji. Propozycje te oraz propozycje filozofów krytycznie usposobionych do logicznego pozytywizmu można zrekonstruować w wyidealizowanej postaci ciągu, w którym następny element jest odpowiedzią na zauważone słabości elementu poprzedniego (jest to idealizacja, gdyż rzeczywisty rozwój poglądów, zwłaszcza neopozytywistycznych, nie był tak jednorodny i uporządkowany, różni przedstawiciele tej myśli w tym samym czasie prezentowali niejednokrotnie odmienne poglądy).
Najmocniejszym kryterium była empiryczna weryfikowalność: twierdzenie jest naukowe (ściślej, jak wyżej wyjaśniłem – sensowne), jeśli na podstawie doświadczenia empirycznego (obserwacji i eksperymentów) można wykazać ich prawdziwość. W tym ujęciu zdanie jest naukowe, jeśli jest zdaniem obserwacyjnym lub jest równoważne koniunkcji zdań obserwacyjnych.
Propozycja ta spotkała się z dwoma poważnymi zarzutami. Pierwszy sformułował Roman Ingarden na jednym z międzynarodowych kongresów filozoficznych. Jeśli sensowne są tylko te twierdzenia, które można empirycznie zweryfikować, to sama zasada empirycznej weryfikowalności jako empirycznie nieweryfikowalna jest bezsensowna. Nie wystarczyło to, by neopozytywiści porzucili tę propozycję. Niektórzy mówili, że zasada empirycznej weryfikowalności jest tylko zaleceniem, co byłoby znacznym osłabieniem stanowiska, gdyż zalecenia można przyjmować lub odrzucać. Inni, jak Carnap, że jest ona eksplikacją takich pojęć jak „metafizyka”, „nauka” i „znaczenie”, co umożliwia rozróżnianie rozmaitych form aktywności umysłowej.
Skuteczny zarzut wobec kryterium empirycznej weryfikowalności oparty był na spostrzeżeniu, że istnieje pewna klasa niezwykle ważnych twierdzeń naukowych, praw naukowych, które nie są empirycznie weryfikowalne. Zdania te są równoważne, jak uważano, nieskończonej koniunkcji jednostkowych zdań obserwacyjnych (zdania takie nazywa się ściśle ogólnymi lub ściśle uniwersalnymi), a nieskończonej koniunkcji zdań z praktycznych względów zweryfikować nie można. W konsekwencji byłyby one bezsensowne i nienaukowe. Przez pewien czas neopozytywiści próbowali akceptować i „oswoić” ten wniosek. Głoszono więc, że prawa naukowe są jedynie tzw. zezwoleniami inferencyjnymi, tzn. same do nauki nie należą, ale pełnią w niej ważną rolę: pozwalają wyprowadzać jedne twierdzenia obserwacyjne (np. przewidywania lub twierdzenia wyjaśniane) z innych twierdzeń obserwacyjnych (z tzw. warunków początkowych). Przeważyła jednak idea, że skoro sami uczeni traktują prawa naukowe jako twierdzenia o rzeczywistości i niekiedy je obalają empirycznie, to musza one być twierdzeniami naukowymi, bo reguł inferencji empirycznie się nie obala. Ale jeśli prawa naukowe mają naukowy charakter, to znaczy to, że kryterium empirycznej weryfikowalności było zbyt restryktywne. Wprawdzie eliminowało ono wszystkie znane twierdzenia metafizyczne, ale poza nawias nauki wyrzucało także twierdzenia powszechnie uważane za naukowe, a nawet za stanowiące jądro nauki.
Drugie neopozytywistyczne kryterium demarkacji było słabsze. Wymagało ono nie empirycznej weryfikowalności, ale empirycznej konfirmowalności (potwierdzalności). Zdanie jest empirycznie konfirmowalne, gdy można z niego wyprowadzić prawdziwe zdanie empiryczne. Różnica między tym i wcześniejszym kryterium demarkacji dotyczyła nie jednostkowych zdań obserwacyjnych, ale zdań ściśle uniwersalnych, praw naukowych. Zdania te są empirycznie konfirmowalne, wynikają z nich prawdziwe twierdzenia empiryczne, tym samym unieważniono najgroźniejszy zarzut stawiany poprzedniemu kryterium. Łatwo zauważyć, że konfirmacja, w przeciwieństwie do weryfikacji, jest pojęciem stopniowalnym. Zdanie albo jest, albo nie jest zweryfikowane, ale skonfirmowane może być słabiej lub silniej. Konfirmacja doprowadzona do końca (dotyczy to tzw. zdań numerycznie ogólnych, które są równoważne skończonej koniunkcji zdań jednostkowych) jest jego weryfikacją. Weryfikacja więc jest granicznym przypadkiem konfirmacji.
Kryterium empirycznej konfirmowalności nie wymagało odrzucenia z nauki praw naukowych, miało jednak inne wady, na które krytycy zwrócili uwagę.
Karl Popper uważał, że kryterium to sugeruje uczonym niewłaściwe postępowanie. Jeśli bowiem naukowość polega na empirycznej konfirmowalności, to skłania to uczonego do poszukiwań potwierdzeń empirycznych dla teorii naukowej. A to, mówił Popper, może zahamować rozwój nauki. Rozwój ten bowiem, jego zdaniem, toczy się nie dzięki znajdowanym potwierdzeniom, które znaleźć jest względnie łatwo, ale dzięki krytyce i podważaniu zastanych lub proponowanych teorii. Tylko krytyka teorii naukowych pozwala pozbyć się błędów. Gdyby uczeni uwierzyli, że empiryczna konfirmowalność jest znamieniem naukowości, mogłoby to przynieść dla nauki katastrofalne skutki.
Drugi zarzut Poppera miał bardziej techniczny charakter. Popper zauważył mianowicie, że prawdopodobieństwo praw uniwersalnych jest równe zeru. A neopozytywiści utożsamiali stopień konfirmacji zdania z jego prawdopodobieństwem. Skoro stopień konfirmacji praw naukowych jest zerowy, to niczym się (pod tym względem) prawa te nie różnią od zdań metafizycznych. Pojęcie konfirmacji, zdaniem Poppera, jest więc w nauce nieprzydatne. Zaproponował więc na jego miejsce pojęcie koroboracji – stopień koroboracji zależeć miał od ilości nieudanych prób sfalsyfikowania teorii oraz od surowości tych testów.
Wskazywano także na fakt, że twierdzenia metafizyczne mogą przy takim kryterium demarkacji przedostawać się do nauki „od kuchni”. Jeśli bowiem jakieś zdanie p jest konfirmowalne empirycznie, to również konfirmowalna empirycznie jest koniunkcja tego zdania z twierdzeniem metafizycznym. Ratunkiem przed tym zagrożeniem jest ograniczenie koniunkcji do nietrywialnych, czyli do takich, które prowadzą do nowych konsekwencji empirycznych. Ale historia nauki pokazuje, ze czasami trudno jest wskazać na takie nowe konwekwencje, ujawniają się one dopiero po jakimś czasie.
Istnieje też cała klasa argumentów wymierzonych przeciwko stosowalności pojęcia konfirmacji, co w pośredni sposób godzi także w kryterium demarkacji oparte na empirycznej konfirmowalności. Są to tzw. paradoksy konfirmacji. Sformułowany przez Carla G. Hempla tzw. paradoks czarnych kruków pokazuje, że obserwacje, które konfirmują daną hipotezę mogą dotyczyć całkowicie odmiennych przedmiotów, niż te, o których w hipotezie jest mowa. Paradoks dopasowywania krzywej (mówił o nim jeszcze W.S. Jevons w XIX wieku) pokazuje, że z obserwacjami o charakterze ilościowym zgodnych jest wiele (teoretycznie: nieskończenie wiele) hipotez wyjaśniających. A paradoks grue-bleen (ziebieski-nielony) Nelsona Goodmana pokazuje to samo dla obserwacji o charakterze jakościowym. Skoro tak, to potencjał konfirmacyjny przeprowadzonych obserwacji rozkłada się na nieskończenie wiele zgodnych z nimi teorii, w rezultacie czego każda z nich jest poparta w zerowym stopniu. Jeśli o naukowości decyduje konfirmowalność, to teorie naukowe niczym się nie różnią od metafizyki.
Popper, który był twórcą kolejnego kryterium demarkacji, opartego na empirycznej falsyfikowalności (niektórzy twierdzą jednak, że był on nie tyle twórcą, ile skutecznym propagatorem tego kryterium, a mówili o tym kryterium przed nim neopozytywiści), oddzielił problem sensowności od problemu naukowości. Jego zdaniem kryterium demarkacji nie jest tożsame z kryterium sensowności. Metafizyka, choć nie jest naukowa, może być sensowna. Co więcej, zdaniem Poppera może pełnić wobec nauki pewną korzystną funkcję. Stanowi ona heurystyczne źródło nowych pomysłów. Zanim uczony sformułuje nową teorię, ma mgliste i ogólne wyobrażenie badanego wycinka rzeczywistości. Ze względu na ową mglistość i ogólnikowość wyobrażenie to jest niepodatne na empiryczne sprawdzenie, ma więc charakter metafizyczny. Ale ta metafizyczna wizja rzeczywistości może być przez uczonego tak doprecyzowana, że podlegać będzie empirycznemu testowi, przekształci się w naukową hipotezę. Popper odszedł więc wyraźnie od neopozytywistycznego skrajnego rozumienia metafizyki jako zarazem bezsensownej, nienaukowej i szkodliwej.
Był to tylko pierwszy krok w obserwowanej w XX-wiecznej filozofii nauki stopniowej rehabilitacji metafizyki. Dalszy krok jest zasługą Henryka Mehlberga, który kilka lat po zakończeniu II wojny światowej zauważył, że jeśli teorie naukowe przedstawi się w postaci systemu aksjomatycznego, to część bazy aksjomatycznej jest niepodatna na empiryczne testowanie, co znaczy, że ma charakter metafizyczny. Taka metafizyka, inaczej niż u Poppera, jest istotna nie tylko w trakcie powstawania nowych teorii, ale także podczas ich funkcjonowania. Mehlberg pod wpływem idei neopozytywistycznych podzielił bazę aksjomatyczną na zewnętrzną (względem nauki) i wewnętrzną, ale było jasne, że podział ten jest sztuczny. Pełnej rehabilitacji metafizyka doczekała się 20 lat później w koncepcjach Thomasa S. Kuhna i Imre Lakatosa, według których jest ona integralną częścią nauki (w koncepcji paradygmatów metafizyczny charakter mają wartości naukowe oraz tzw. modele ontologiczne, natomiast w metodologii naukowych programów badawczych metafizyczny charakter ma tzw. twarde jądro programu badawczego).
Zgodnie z falsyfikacjonistycznym kryterium demarkacji twierdzenie jest naukowe, jeśli można je obalić na podstawie danych empirycznych. Musi być więc ono niezgodne z pewnym możliwym zdaniem obserwacyjnym (tzw. potencjalnym falsyfikatorem). Teoria jest naukowa, jeśli jej klasa potencjalnych falsyfikatorów jest niepusta. Mówiąc potocznie, teoria jest naukowa, jeśli można sobie wyobrazić takie doświadczenie (obserwację lub eksperyment), które obali teorię. Teoria naukowa musi więc coś zakazywać, nie może być zgodna z wszystkimi możliwymi do pomyślenia obserwacjami. Im teoria jest bardziej precyzyjna, tym więcej zakazuje. Jeśli niczego nie zakazuje, jest nienaukowa. Popper przytaczał dwa przykłady pseudonauk: psychoanalizę i marksistowską historiografię (materializm historyczny).
Także i to kryterium spotkało się z wieloma zarzutami. Pokazywano – po pierwsze – że falsyfikacja nie oznacza obalenia, że jest niekonkluzywna. Jest kilka powodów tej niekonkluzywności. Przede wszystkim, zdanie obserwacyjne, jakim jest falsyfikator, ma uteoretyzowany charakter, jest – jak mówiono – obciążone teorią. Jego prawdziwość zależy od prawdziwości często nawet wielu teorii, niejednokrotnie z innych dziedzin nauki. Obserwacji dzisiaj dokonuje się najczęściej przy użyciu wyrafinowanych narzędzi, które skonstruowane są i funkcjonują zgodnie z pewnymi teoriami (biorąc najprostszy przykład: mikroskopy czy lunety astronomiczne zbudowane są zgodnie z zasadami optyki). Instrumenty obserwacyjne są więc czymś w rodzaju „zakrzepłej” teorii. Jeśli jest ona błędna, otrzymywane wyniki nie będą wiarygodne. Jeśli obserwacje lub wyniki eksperymentów są niezgodne z przewidywaniami testowanej teorii, to zawsze winę zrzucić można na te dodatkowo przyjmowane teorie, wedle których skonstruowano przyrządy obserwacyjne i pomiarowe. Na fakt, iż hipotez nie testuje się w izolacji, wskazywał już na początku XX wieku francuski konwencjonalista, Pierre Duhem. Jego tezę pół wieku później zradykalizował Willard V.O. Quine. Ponadto historia nauki wykazuje, że zagrożoną przez obserwacje teorię zawsze można ratować coś w niej modyfikując, wprowadzając nowe hipotezy pomocnicze. A nawet jeśli nie wiadomo, jak to zrobić, to zawsze można mieć nadzieję, że wkrótce ktoś wpadnie na odpowiedni pomysł. Bywało tak niejednokrotnie w historii nauki, że teoria spisana na straty, odzyskiwała swoje znaczenie. Jeśli tak, to w jakim sensie naukowe teorie są empirycznie obalalne, skoro można przy nich trwać dowolnie długo?
Popper, który sam zauważał te trudności, odpowiadał, że jego kryterium demarkacji stosuje się nie tyle do teorii, ile do postaw uczonych. Jeśli uczeni zechcą, mogą dowolnie długo utrzymywać zagrożoną teorię, stosując tzw. wybiegi konwencjonalistyczne. Ale nie powinni tak się zachowywać. (Problem, które z wybiegów konwencjonalistycznych są zakazane, a które – nie, które są przynajmniej czasami korzystne dla rozwoju nauki, stał się przedmiotem dalszej dyskusji.) Falsyfikacjonistycznemu kryterium demarkacji stawiano także zarzuty, na które Popper nie umiał odpowiedzieć, np. że uczony nie porzuca teorii, jeśli nie ma „pod ręką” nowej. Gdyby uczeni stosowali się do zaleceń Poppera, szybko zostaliby z niczym. Lakatos ukuł nawet zgrabne powiedzenie na ten temat: „teorie pływają w morzu anomalii” – pływają, nie toną wskutek zderzeń z nimi (zatapiane są dopiero przez inne teorie z pomocą faktów, a nie przez same fakty). Kryterium to jest też „sitem” o dużych oczkach – przepuszcza jawnie niepoważne teorie (np. „Księżyc jest zbudowany z sera szwajcarskiego”).
Kryteria demarkacji, proponowane przez filozofów nauki w pierwszej połowie XX wieku, miały wspólną cechę – ponadhistoryczność. Miały obowiązywać w każdej epoce istnienia nauki. W drugiej połowie XX wieku popularyzowano także odmienną wizję. Według tzw. uhistorycznionych filozofów nauki nie istnieje niezależna od czasu istota naukowości. Zmienna historycznie jest nie tylko sama nauka, ale także, choć dużo wolniej, jej metodologiczna nadbudowa, w tym – kryteria demarkacji.
W XX wieku poglądy na temat struktury teorii naukowych ulegały znacznej ewolucji. Początkowo pod wpływem neopozytywistów dominował pogląd, że najlepszą postacią dla teorii naukowej jest system aksjomatyczny (takie uporządkowanie twierdzeń teorii, że z jednego z podzbiorów tych twierdzeń, z reguły niewielkiego, wynikają wszystkie pozostałe twierdzenia). Sami neopozytywiści uważali, że poddanie takiego systemu zabiegowi formalizacji uwyraźni wszystkie składniki teorii. W systemie sformalizowanym wszystkie twierdzenia zaksjomatyzowanej teorii składają się jedynie ze stałych logiko-matematycznych oraz zmiennych nazwowych, za które można podstawiać terminy empiryczne teorii.
Formalizacja teorii umożliwia wydobycie jej szkieletu formalnego. W formułach rachunku abstrakcyjnego sens zachowują jedynie symbole odnoszące się do pojęć logiko-matematycznych. Słownik teorii charakteryzuje podwójna dychotomia: terminy dzielą się najpierw na logiko-matematyczne i pozalogiczne (empiryczne), a te ostatnie – na obserwacyjne i teoretyczne. Terminy obserwacyjne można definiować ostensywnie (dejktycznie), natomiast terminy teoretyczne należało definiować przy pomocy terminów obserwacyjnych (i logiko-matematycznych).
Ta druga dychotomia (obserwacyjne-teoretyczne) stała się przedmiotem żywej dyskusji i krytyki. Wskazywano na nieostrość pojęcia bezpośredniej obserwacji i jego stopniowalność. Argumentowano, że to, co jest obserwowane, zależy od stopnia wytrenowania (pragmatyczna teoria obserwacji). Ale najwięcej wypowiadano się na temat uteoretyzowania obserwacji.
Zwolennicy teoretycznego charakteru obserwacji różnili się między sobą opiniami, na czym polega ten charakter. Najmniej popularna opinia głosiła, że to teoria nadaje wagę obserwacji, że ta sama obserwacja może być mniej lub bardziej ważna zależnie od teorii, której dotyczy. Ta wersja uteoretyzowania obserwacji niewiele się różni od poglądu o braku uteoretyzowania. Mocniejsza (i najbardziej popularna) wersja uteoretyzowania miała polegać na tym, że obserwacje są „przesiąknięte” lub „obciążone” teorią, są więc częściowo teoretyczne. W obserwacjach można, wedle tej wersji, wyróżnić obserwacyjne jądro i teoretyczną otoczkę. Niektórzy próbowali nawet znajdować sposoby oddzielania tego jądra od otoczki.
Najskrajniejsza wersja doktryny o uteoretyzowaniu obserwacji głosiła, że obserwacje są całkowicie teoretyczne, że nie ma w nich żadnego nieteoretycznego jądra. Wzbudziła ona najwięcej kontrowersji i najwięcej nieporozumień. Tezę o całkowitym uteoretyzowaniu obserwacji interpretowano często jako pogląd, że to od teorii zależy, czy zdanie obserwacyjne jest prawdziwe czy fałszywe, że obserwacje widziane w świetle teorii nie mogą być z nią niezgodne. Ponieważ podważałoby to kontrolną funkcję obserwacji, ostro pogląd taki krytykowano. Krytyka ta była jednak chybiona, gdyż zwolennicy całkowitego uteoretyzowania obserwacji (Thomas S. Kuhn i Paul K. Feyerabend) takiej epistemicznej tezy nie głosili. Całkowite uteoretyzowanie obserwacji w ich ujęciu dotyczyło zależności od teorii znaczeń zdań obserwacyjnych, a nie ich wartości logicznych. Zdania obserwacyjne całkowicie uteoretyzowane mogły być jednak z teorią niezgodne.
W ujęciu neopozytywistycznym terminy teoretyczne w rachunku abstrakcyjnym uzyskiwały sens empiryczny dzięki tzw. regułom korespondencji. Początkowo rozumiano je jako definicje. Poglądy na rolę i kształt reguł korespondencji podlegały wyraźnej ewolucji. Pierwotnie sądzono, że są one definicjami równościowymi terminów teoretycznych przy pomocy terminów obserwacyjnych. Pogląd ten upadł, gdy Carnap zauważył, że przy pomocy definicji równościowych nie można zdefiniować pewnej podklasy pojęć teoretycznych, tzw. terminów dyspozycyjnych (takich jak „rozpuszczalny”, „łamliwy”, „palny”). Sam Carnap rozwiązał ten problem wymyślając tzw. definicje cząstkowe. Propozycja Carnapa została jednak już po II wojnie światowej skrytykowana przez innego neopozytywistę, Hempla. Postawił on dwa zarzuty tezie, ze terminy teoretyczne można definiować przy pomocy definicji cząstkowych.
Po pierwsze, nie można w ten sposób zdefiniować tzw. terminów metrycznych, jak „długość”, „ciśnienie”, „temperatura” itd. Zbiór cząstkowych definicji długości (długość L1, L2,... ) może być co najwyżej przeliczalnie nieskończony (praktycznie zawsze jest skończony) i nie może objąć nieprzeliczalnie wielu wartości długości. Trzeba tu pamiętać, że reguły korespondencji miały być jednocześnie i definicjami, i procedurami operacyjnymi – jeśli definicja nie mogła być procedurą operacyjną, to i nie mogła być regułą korespondencji.
Po drugie, w dotychczasowy sposób nie można nadać sensu empirycznego tzw. terminom specyficznym. Choć Hempel używał tu liczby mnogiej, to podał tylko jeden przykład terminu specyficznego i nie jest pewne, czy istnieją w nauce jakieś inne. Terminem specyficznym w sensie Hempla jest funkcja falowa ψ z równania Schrödingera. W izolacji nie ma ona sensu empirycznego. Stanowić może jedynie element większego sensownego już wyrażenia, które pozwala obliczyć prawdopodobieństwo znalezienia się cząstki w danym obszarze. Sens empiryczny ma więc dopiero to większe wyrażenie.
Z tych powodów Hempel uznał, że ostatecznie sens empiryczny rachunek abstrakcyjny teorii uzyskuje holistycznie dzięki tzw. systemowi interpretatywnemu. System interpretatywny, będący koniunkcją twierdzeń teorii i tradycyjnie rozumianych reguł korespondencji (np. w postaci definicji cząstkowych), jest definicją w uwikłaniu wszystkich pozalogicznych terminów.
Dyskusje na temat kształtu reguł korespondencji stopniowo ucichły, gdy filozofowie nauki doszli do wniosku, że nie da się niearbitralnie przeprowadzić dychotomii tych terminów na obserwacyjne i teoretyczne.
Ostatnim, wyróżnianym przez logicznych pozytywistów składnikiem teorii, był model teorii. Początkowo uważano zdroworozsądkowo, że model teorii jest ta część rzeczywistości, której teoria dotyczy. Później, gdy zwrócono uwagę na elementy idealizacyjne, jak ciało doskonale czarne, pręt doskonale sztywny, ciało doskonale sprężyste itp., zaczęto mówić, że model teorii jest częścią jakiegoś możliwego świata. Zresztą nawet i bez elementów idealizacyjnych teoria naukowa dotyczy nie tylko realnego świata, ale i wielu możliwych (astronom może na przykład wyliczyć okres obiegu Księżyca wokół Ziemi, gdyby Księżyc znajdował się dwa razy bliżej Ziemi, niż obecnie).
Spór ten znany jest bardziej pod nieprawidłową nazwą sporu realizmu z instrumentalizmem. Dotyczy on tego, czy teoriom naukowym przysługuje wartość logiczna –czy teorie są prawdziwe lub fałszywe czy też nie są ani prawdziwe, ani fałszywe. Źródłem sporu był dychotomiczny podział terminów naukowych na teoretyczne i obserwacyjne. Terminy obserwacyjne miały być definiowalne ostensywnie, przez wskazanie desygnatu. Terminy teoretyczne jednak tak zdefiniowane być nie mogły. I to spowodowało powstanie wątpliwości, czy desygnaty tych terminów w ogóle istnieją? A także: jaki status mają zdania używające tych terminów, tzw. zdania teoretyczne? Spór o status poznawczy teorii można więc wyrazić jeszcze inaczej: czy istnieją desygnaty terminów teoretycznych, tzw. przedmioty teoretyczne?
Realizm to pogląd, że teoria naukowa jest prawdziwa lub fałszywa, choć najczęściej ustalić można tylko jej prawdopodobieństwo. Przedmioty teoretyczne istnieją.
Najczęściej stawiane realizmowi zarzuty dotyczą występowania w nauce pojęć granicznych lub wyidealizowanych, które nie odnoszą się do faktycznie istniejących przedmiotów. Wskazuje się też, że w tej samej dziedzinie czasami stosuje się skutecznie teorie, które w oczywisty sposób są ze sobą niezgodne. Czasami nawet ta sama teoria przypisuje przedmiotom własności, które wydają się nie do pogodzenia (np. dualizm falowo-korpuskularny mechaniki kwantowej).
Instrumentalizm to pogląd, że przedmioty teoretyczne nie istnieją, a teoria jest tylko narzędziem logicznym organizującym doświadczenie. Twierdzenia teoretyczne (czyli takie twierdzenia, w których występuje przynajmniej jeden termin teoretyczny) nie są takimi samymi twierdzeniami jak obserwacyjne. Są to reguły lub zasady, zgodnie z którymi analizujemy doświadczenie i przeprowadzamy wnioskowania (np. dokonujemy przewidywań).
Zarzuty przeciwko instrumentalizmowi oparte są na praktyce naukowej. Uczeni szukają danych świadczących za lub przeciwko teorii, bo traktują je jako zbiory prawdziwych twierdzeń. Po wielu dziesiątkach lat rozwoju nauki coraz trudniej nie wierzyć w istnienie cząstek elementarnych czy genów, skoro nauka wypowiada o nich coraz to precyzyjniejsze twierdzenia.
Istnieje jeszcze trzecie stanowisko w tym sporze i właśnie istnienie tego stanowiska świadczy, że potoczna nazwa sporu jest niepoprawna. Koncepcja opisowa (deskryptywna) sprowadza się do uznania, że teoria jest skrótowym sformułowaniem zależności łączących poszczególne zdarzenia i obserwowalne własności. Przedmiotów teoretycznych nie ma – pod tym względem deskryptywiści są zgodni z instrumentalistami. Ale – i tu zgodni są z realistami – teorie naukowe można charakteryzować jako prawdziwe lub fałszywe, pod jednym wszakże warunkiem, którego realiści nie wysuwają: o ile teorie są przekładalne na twierdzenia o obserwowalnych przedmiotach. Komentatorzy nie byli zgodni, czy koncepcja deskryptywna naprawdę przedstawia „trzecią drogę” w omawianym sporze; niektórzy uważali, że jest ona tylko innym sposobem werbalizowania instrumentalistycznych przekonań.
W miarę upowszechniania się wśród filozofów nauki poglądu, że nie można terminów naukowych dzielić dychotomicznie na obserwacyjne i teoretyczne, że podział ten jest w dużym stopniu arbitralny, wygasał spór o status poznawczy. Nigdy jednak do końca nie wygasł, a jego źródłem jest dzisiaj nie tyle przekonanie o odmienności terminów teoretycznych, ile charakter współczesnych teorii naukowych, głównie z fizyki, ich niepodatność na wizualizację lub nieintuicyjność. Niezależnie od tego, nie ulega jednak wątpliwości, że głoszenie koncepcji opisowej w sporze o status poznawczy teorii wywołało obszerną dyskusję na temat przekładalności twierdzeń teoretycznych na twierdzenia o przedmiotach obserwowalnych. Tezę o przekładalności rozumiano w tej dyskusji dwojako – fenomenalistycznie i fizykalistycznie.
Według pierwszego rozumienia psychologicznie pierwotnymi niewątpliwymi przedmiotami naszego poznania są bezpośrednie wrażenia lub treści doznań doświadczenia zmysłowego (uważał tak np. Ernst Mach). Wszystkie twierdzenia o charakterze empirycznym odnoszące się do niepoznawalnych, niedostępnych obserwacji przedmiotów (przedmiotów teoretycznych) muszą być przekładalne bez utraty swego znaczenia empirycznego na zdania o następstwie lub współwystępowaniu jakości zmysłowych danych bezpośrednio w doświadczeniu. Pogląd ten napotkał na zasadniczą trudność, jaką jest nieistnienie języka danych zmysłowych, języka nagich treści doznań. Elementarne dane zmysłowe nie stanowią pierwotnej treści doświadczenia. Wrażenia uzyskuje się wtórnie, przez analizę spostrzeżeń.
Według drugiego rozumienia przyjmuje się, że w normalnych warunkach obserwujemy nie elementarne jakości zmysłowe atomistycznej psychologii, ale na przykład kamienie, ruchy ciał itp. Twierdzenia teoretyczne są przekładalne z zachowaniem ich zawartości znaczeniowej na zdania tzw. fizykalnego języka przedmiotowego, to jest na zdania dotyczące obserwowalnych zdarzeń, rzeczy, własności i relacji ujmowanych przez zdrowy rozsądek i potoczne doświadczenie.
Teza o przekładalności twierdzeń teoretycznych wymaga wyraźnych definicji terminów teoretycznych przez obserwacyjne, czyli tzw. eliminowalności terminów teoretycznych. Był to w pierwszej połowie stulecia ważny i szeroko dyskutowany problem.
Najbardziej znanymi sposobami rozwiązania problemu eliminowalności terminów teoretycznych było twierdzenie Craiga oraz metoda Ramseya. Ze względu na porzucenie poglądu o możliwości dychotomicznego podziału pozalogicznych terminów naukowych na teoretyczne i obserwacyjne osiągnięcia te mają dziś jedynie znaczenie historyczne.
W XIX wieku nie było zgodnej opinii w kwestii, czy w nauce wyjaśnia się zjawiska. Niektórzy chcieli wyeliminować wyjaśnianie z nauk empirycznych i twierdzili, że nauki te ograniczają się do odpowiedzi na pytanie „jak zjawiska przebiegają?”, czyli do opisu. Ale niektórzy szli dalej i pytali „dlaczego zjawiska przebiegają tak, jak przebiegają?” W filozofii nauki XX wieku większość filozofów uznaje wyjaśnianie za prawomocne zadanie nauki, a przeciwników można było znajdować jedynie na początku wieku. Dawniej rozróżniano wyjaśnianie przez prawo i wyjaśnianie przez hipotezę, gdyż sądzono, że prawo jest pewne i niehipotetyczne. Dzisiaj to rozróżnienie upadło, bo upadło przeświadczenie, że cokolwiek w nauce ma niehipotetyczny charakter.
Polega ono na ujawnianiu struktury badanego przedmiotu, zjawiska czy układu rzeczy lub zjawisk. Wyjaśnić zjawisko w ten sposób to tyle, co podporządkować je jakiemuś prawu (stałemu związkowi pomiędzy zjawiskami lub cechami). Prawa strukturalne (zwane też koegzystencjalnymi) odzwierciedlają niezmienny sposób wewnętrznej organizacji elementów w określoną całość. Wyjaśnianie tego typu jest szczególnie popularne w chemii i dyscyplinach pokrewnych (krystalografii, krystalochemii itp.).
Ten typ wyjaśniania charakteryzuje się bądź językowo, bądź przedmiotowo. Zwolennicy wyjaśniania systemowego uważają, że cała teoria (w skrajnym przypadku nawet cała wiedza) jest jedyną całością znaczącą. Sprzeciwiają się tym samym redukcjonizmowi logicznych pozytywistów. Zdanie ujmujące prawo lub fakt uważa się za wyjaśnione, gdy ujawni się, że stanowi spójny element systemu. Wyjaśnienie polega więc na włączeniu izolowanego faktu w teoretyczną całość.
Wyjaśnić w tym sensie, to uczynić coś dla kogoś jasnym, zrozumiałym, pojęciowo dostępnym, wyeksplikować. Wyjaśnianie pragmatyczne jest związkiem pomiędzy tym, czego się nie rozumie, a tym, co jest zrozumiałe. Rezultatem wyjaśniania pragmatycznego jest zrozumienie.
Jest to najlepiej znany i najchętniej przytaczany sposób wyjaśniania. Jego strukturę ujawnia tzw. schemat Hempla-Oppenheima. Składa się on z dwu części: explanansa i explanandum. Explanandum stanowi zdanie opisujące zjawisko wyjaśniane, zaś explanans to układ zdań, przy pomocy których wyjaśniamy explanandum. Pomiędzy explanansem a explanandum zachodzi logiczna relacja wynikania dedukcyjnego. Explanans składa się z dwu rodzajów zdań: praw uniwersalnych i warunków początkowych.
Explanandum tego modelu wyjaśniania nie wynika logicznie z explanansa. Przesłanki czynią jedynie wniosek bardziej prawdopodobnym. Jest to także wyjaśnianie nomologiczne, ale odwołujemy się w nim do praw probabilistycznych lub statystycznych.
Wyjaśnianie tego typu odpowiada na pytanie, w jaki sposób dany przedmiot lub zjawisko rozwinął się z pewnego wcześniejszego stadium. Polega na rozłożeniu danego procesu na poszczególne fazy, dające w sumie tzw. szereg genetyczny. Pojedyncze elementy tego szeregu mogą być wyjaśnianie przy użyciu innych modeli wyjaśniania.
Jest to najbardziej kontrowersyjny typ wyjaśniania. Dla wyjaśnienia zdarzeń aktualnych odwołujemy się do zdarzeń przyszłych. Ten typ wyjaśniania jest właściwy dla świadomego działania istot rozumnych, a budzi kontrowersje, gdy się go stosuje do świata pozaludzkiego, ponieważ sugeruje istnienie istoty (istot) rozumnych odpowiedzialnych za ten świat (niekoniecznie istot boskich). Dlatego niektórzy wolą mówić tylko o wyjaśnianiu funkcjonalnym, które polega na wskazaniu funkcji, jaką element spełnia w zachowaniu się systemu.
Redukcja teorii jest wyjaśnieniem jednej teorii przez inną teorię. Rozwijaniu koncepcji redukcji sprzyjały tendencje monistyczne, np. w neopozytywizmie. Istnieje bardzo wiele koncepcji redukcji interteoretycznej.
Klasyczne typy redukcji pochodzą od Ernesta Nagla. Wyróżnił on redukcję homogeniczną (kiedy zakres jednej i drugiej teorii jest jakościowo podobny, np. mechanika niebieska przed i po odkryciu nowej planety lub nowego księżyca) oraz heterogeniczną (kiedy teoria redukująca dotyczy własności czy zdarzeń odmiennego rodzaju (lub przynajmniej tak się wydaje na pierwszy rzut oka), np. gdy biologię redukuje się do fizyki i chemii. Nagel przypadek redukcji homogenicznej uznał za trywialny i znacznie dokładniej omawiał redukcję heterogeniczną. Przedmiotem późniejszych obszernych dyskusji stały się zwłaszcza dwa sformułowane przez niego warunki – spójności i wynikania logicznego. Pierwszy z nich wymagał, by terminy teorii redukowanej były zdefiniowane (znaczeniowo lub – w innych koncepcjach – słabiej: zakresowo) przy pomocy terminów teorii redukującej (są to tzw. definicje koordynujące lub prawa pomostowe). Natomiast warunek wynikania logicznego wymagał, by wszystkie prawa teorii redukowanej wynikały logicznie z postulatów teoretycznych i związanych z nimi definicji koordynujących teorii redukującej.
Krytycy tej koncepcji argumentowali, że żaden z tych warunków nie jest spełniony w najciekawszych okresach rozwoju nauki. Po pierwsze, nie da się zbudować definicji koordynujących dla bardzo odmiennych par teorii, takich jak teoria grawitacji Newtona i Einsteina, gdyż teorie te używają niewspółmiernych pojęć i postulują odmienne ontologie. A jeśli tak, to i warunek wynikania logicznego nie może być spełniony.
Z tych właśnie powodów liczne koncepcje redukcji dotyczyły nie wyprowadzania twierdzeń teorii redukowanej z twierdzeń teorii redukującej, ale albo modyfikowały system redukujący, albo system redukowany (ewentualnie i jeden, i drugi).
Problematyka redukcji interteoretycznej związana jest z niezwykle ważnymi filozoficznie sporami o naturę nauk biologicznych (kontrowersja mechanicyzm-witalizm) czy psychologicznych (redukcja psychologii do biologii lub nawet do fizyki i chemii).
Pojęcia redukcji używano także w bardzo szeroko dyskutowanej, zwłaszcza w drugiej połowie stulecia, problematyce ciągłości rozwoju nauki. Zwolennicy ciągłości używali albo pojęcia redukcji, albo (zwłaszcza w Polsce) korespondencji. Niejasny jest wzajemny status obu tych pojęć. Czasami uznawano, że redukcja jest pojęciem ogólniejszym (bo może dotyczyć nie tylko relacji między teorią dawną i bezpośrednio po niej następującą, o czym jest mowa przy korespondencji, ale ogólnie między dwiema teoriami, bez względu na czas ich powstania), albo pojęciem węższym (gdyż korespondencja obejmuje nie tylko relacje bazujące na pojęciu wynikania logicznego).
Koncepcje te oparte są na pojęciu wynikania logicznego. Występuje tu kilka odmian.
O ciągłości można mówić, gdy każdy aksjomat teorii dawnej jest szczególnym przypadkiem jakiegoś twierdzenia teorii nowszej. Na przykład prawa rządzące określoną dziedziną zjawisk fizycznych, dzięki ustaleniu nowych, bardziej ogólnych praw, okazują się szczególnymi przypadkami tych nowych praw – ogólnie: dawna teoria wynika z nowej.
Może być też tak, że prawa teorii późniejszej przechodzą w granicznym przypadku w prawa teorii wcześniejszej. Jest to bardzo popularna koncepcja wśród samych uczonych. Według niej teorie, których prawdziwość jest ustalona eksperymentalnie dla tego lub innego obszaru zjawisk fizycznych, nie zostają odrzucone z pojawieniem się nowych, bardziej ogólnych teorii jako fałszywe, lecz zatrzymują swoją wartość dla poprzedniego obszaru zjawisk.
W końcu może być też tak, że teoria dawniejsza wynika z nowszej i z pewnych twierdzeń łączących terminy teorii nowszej z terminami teorii starszej (jak w redukcji heterogenicznej Nagla).
Nie wymaga się tu redukcji czy korespondencji całych teorii, ale tylko ich części obserwacyjnej. Zasadniczą tezą tej koncepcji, sformułowanej przez Kemeny’ego i Oppenheima, jest to, że każde zdanie obserwacyjne, wyjaśniane przez teorię redukowaną, jest wyjaśniane przez teorię redukującą. Koncepcja ta unika problemu odmiennych semantyk obu teorii, zwłaszcza odmienności znaczeń terminów teoretycznych, ale zakłada sensowność i możliwość przeprowadzenia podziału terminów i zdań na obserwacyjne i teoretyczne (wikła się tym samym w jeszcze większy problem niż ten, którego unika).
Z teorii późniejszej nie wynika ani teoria wcześniejsza, ani jej tłumaczenie przy pomocy definicji koordynujących, ani część obserwacyjna, lecz aproksymacja teorii wcześniejszej, dająca lepsze przybliżenie do wyników pomiarów niż oryginalna wcześniejsza teoria.
* * *
Wiek XX był świadkiem burzliwego rozwoju filozofii nauki. Z tylko niewielką przesadą można powiedzieć, że ze względu na obszerność i głębię analiz przeprowadzanych w tym okresie, osiągnięcia poprzednich wieków, dotyczące filozofii nauki, można zaniedbać i uznać, że ten typ filozofowania jest tworem typowo XX-wiecznym.
Rudolf Carnap, Wprowadzenie do filozofii nauki, Fundacja Aletheia, Warszawa 2000.
Paul K. Feyerabend, Jak być dobrym empirystą?, PWN, Warszawa 1979.
Paul K. Feyerabend, Przeciw metodzie, Siedmioróg, Wrocław 1996.
Thomas S. Kuhn, Dwa bieguny, Państwowy Instytut Wydawniczy, Warszawa 1985.
Thomas S. Kuhn, Struktura rewolucji naukowych, Fundacja Aletheia, Warszawa 2001.
Imre Lakatos, Pisma z filozofii nauk empirycznych, Wyd. Naukowe PWN, Warszawa 1995.
Ernest Nagel, Struktura nauki, PWN, Warszawa 1970.
Leszek Nowak, Zasady marksistowskiej filozofii nauki, PWN, Warszawa 1974.
Karl R. Popper, Droga do wiedzy. Domysły i refutacje, Wyd. Naukowe PWN, Warszawa 1999.
Karl R. Popper, Logika odkrycia naukowego, PWN, Warszawa 1977.
Wiedza naukowa a wiedza przednaukowa 1
Pluralizm XX-wiecznej filozofii nauki 3
a) kryterium empirycznej weryfikowalności 5
b) kryterium empirycznej konfirmowalności 6
c) kryterium empirycznej falsyfikowalności 7
d) kryteria demarkacji uhistorycznionych filozofów nauki 9
a) rachunek abstrakcyjny i uteoretyzowanie obserwacji 9
Spór o status poznawczy teorii 11
a) wyjaśnianie strukturalne 14
b) wyjaśnianie systemowe (kontekstowe) 14
c) wyjaśnienie pragmatyczne 14
d) wyjaśnianie dedukcyjno-nomologiczne 14
e) wyjaśnianie indukcyjno-statystyczne (probabilistyczne) 14
f) wyjaśnianie historyczno-genetyczne 15
g) wyjaśnianie funkcjonalno-teleologiczne 15
Spory o ciągłość rozwoju nauki 16
c) koncepcje aproksymacyjne 17