TEORIA 182
nie semantyczna teoria prawdy rozwinięta przez Alfreda Tarskiego. Zakłada ona relatywizację pojęcia prawdy do ustalonego języka, co nieraz jest interpretowane w duchu relatywizmu. Wszelako jest to interpretacja błędna, gdyż przy ustalonym znaczeniu wyrażeń prawdziwość semantyczna (teoriomodelowa) jest własnością o charakterze absolutnym (por. Woleński, 1993, S. 233-243).
Za podstawowe funkcje teorii naukowych uchodzą wyjaśnianie i przewidywanie faktów (por. Hem-pel, 1968; Nagel, 1970; Nikitin, 1975). Upraszczając sprawę można powiedzieć, że wyjaśnianiem jest znalezienie stosownych hipotez umożliwiających odpowiedź na stawiane wobec pewnych zjawisk pytanie „dlaczego?", natomiast przewidywanie polega na wyprowadzeniu zdania o nieznanych zjawiskach (często przyszłych) na podstawie znanych przesłanek. Panuje zgoda, że wyjaśnianie (w szczególności tzw, wyjaśnianie nomologiczno-dedukcyjne, polegające na takim dobraniu hipotez, że zdanie o wyjaśnianym zjawisku logicznie z nich wynika), i przewidywanie są możliwe dlatego, że w skład teorii wchodzą prawa i hipotezy ogólne. Z tej właśnie przyczyny, tj. z uwagi na funkcje teorii, istotnym atrybutem teorii naukowych jest uniwersalność. Często głosi się tezę o symetrii między wyjaśnianiem a przewidywaniem: Każde wyjaśnianie jest potencjalnym przewidywaniem, a każde przewidywanie jest potencjalnym wyjaśnianiem. Teza ta wydaje się trafna w odniesieniu do teorii deterministycznych i wyjaśniania nomologiczno-dedukcyjnego, natomiast nastręcza trudności w przypadku teorii statystycznych i innych typów wyjaśniania (probabilistycznego, funkcjonalnego czy genetycznego).
Zdarza się, że teorie pełnią funkcje integrujące wiedzę, a nawet funkcje światopoglądowe. Teoria Kopernika, mechanika klasyczna, teoria ewolucji czy teoria względności nie tylko wyjaśniły określone fakty, ale również wywarły olbrzymi wpływ na pojmowanie świata. Te dodatkowe funkcje, aczkolwiek ważne, są jednak wtórne: Teoria bez funkcji światopoglądowych jest teorią, a bez mocy wyjaśniającej czy predyktywnej jest „tylko teorią”. Trzeba bowiem pamiętać, że tzw. światopoglądowe konsekwencje danych teorii (np. uniwersalny mechanicyzm jako „konsekwencja" mechaniki klasycznej czy totainy ewolu-cjonizm jako „konwekwencja" teorii Karola Darwina) nie są dedukcyjnymi wnioskami z założeń właściwych tym systemom teoretycznym. Znaczy to. że stosowne rozumowania faktycznie wyprowadzają poza takie teorie.
Przez długi czas panowało przekonanie, że teorie empiryczne są uzasadniane Indukcyjnie. Pogląd ten został zakwestionowany przez Poppera (1977). Uzna! on, że tylko dedukcja jest prawomocną procedurą naukową. Ponieważ prawa i hipotezy teoretyczne są uniwersalne, ich prawdziwości nigdy nie jesteśmy w stanie wykazać. Możemy natomiast je sfalsyfiko-wać, tj. wykazać ich faiszywość. Sprawdzanie teorii powinno więc polegać na poszukiwaniu rzetelnych testów, które mogłyby ją sfalsyfikować. Nieudane próby faisyfikacji wzmacniają wiarygodność teorii, alę w przypadku teorii empirycznych nigdy nie usuną możliwości, że hipotezy okażą się fałszywe. Pogląd Poppera jest określany jako hlpotetyzm (zdania naukowe są zawsze hipotetyczne) tub fallibilizm (zdania naukowe nigdy nie są pewne). Hipotetyzm i fallibilizm w ujęciu Poppera dotyczą nie tylko hipotez i praw, ale również tzw. zdań bazowych, tj. ujmujących dane doświadczenia, jest tak diatego, że nie ma zdań czysto empirycznych, pozbawionych zawartości, teoretycznej. Pogląd Poppera nasuwa jednak pewne zastrzeżenia. Zawsze bowiem można bronić teorii przed obaleniem odpowiednio manipulując tzw. hipotezami pomocniczymi (tak np. broniono geocentryzmu, mianowicie przez dodawanie nowych ruchów planet, które to zabiegi uzgadniały teorię Ptolemeusza z nowymi obserwacjami). Falsyfikacja hipotezy nie jest więc zabiegiem tak prostym, jak Popper sobie to wyobrażał.
Rozważana sprawa wiąże się z problemem wyboru alternatywnych teorii. Metodologia Popperowska odrzuca tzw. pozytywny eksperyment krzyżowy (pozytywne experimentum crucis). który w zbiorze teorii. konkurencyjnych mógłby wskazać teorię prawdziwą, dopuszcza natomiast takowy eksperyment negatywny, tj. eliminujący teorie fałszywe. Jednakże możliwość obrony teorii przed falsyfikacją przez manipulowanie hipotezami pomocniczymi stawia pod znakiem zapytania także negatywny eksperyment krzyżowy. Tedy wybór jednej spośród wielu konkurencyjnych teorii musi mieć za podstawę nie tylko fakt, że teoria przeszła testy mające ją sfalsyfikować, ale tównież jej pozytywne uzasadnienie. W ten sposób powrócił problem indukcji, wprawdzie nie w tradycyjnej postaci rozumowania od szczegótu do ogółu, ale jako szacowanie uzasadnienia hipotez ogólnych wedle ewidencji empirycznej. Ostatnio (por. Howson, Urbach, 1989; Ma-her, 1993; Kapłan, 1996) próbuje się stosować teorię decyzji do analizy kwestii uzasadniania i wyboru teorii. Szczególnym rozwiązaniem tej kwestii jest anarchizm metodologiczny (Feyerabend, 1996), w myśl którego w robocie teoretycznej uchodzi wszystko i nie ma żadnych kryteriów sprawdzania teorii.
Wiadomo, że jedne teorie zastępują inne, późniejsze wypierają wcześniejsze. Kumulatywizm jest poglądem. który proponuje ewolucyjny model rozwoju wiedzy. Polega on na tym, że teorie ogólniejsze zastępują mniej ogólne, a mniej ogólne są szczególnymi przypadkami ogólniejszych w myśl tzw. zasady korespondencji międzyteoretycznej (por. Krajewski. Mejbaum, Such, 1974). Przeciwko temu występuje antykumulatywizra, który zapoczątkował Kuhn swoją teorią rewolucji naukowych; anarchizm metodologiczny jest innym rodzajem antykumulatywizmu. Kuhn utrzymuje, że rozwój nauki, zwłaszcza na poziomie teoretycznym, jest nieciągły. W szczególności teorie przedzielęne rewolucją naukową są niewspółmierne pojęciowo (por. Jodkowski, 1984; 1990). Tak jest np. w przypadku mechaniki klasycznej i mechaniki relatywistycznej z uwagi na odmienne pojęcia masy. Rozwiązaniem kompromisowym jest koncepcja programów badawczych Imre Lakatosa (1995). Wedle niego, rozwój nauk) jest następstwem programów badawczych. Każdy taki program składa się z rdze-. nia w postaci hipotez centralnych, tzw. wału ochronnego, tj. hipotez pomocniczych, heurystyki pozytywnej (wskazującej, co ma być potwierdzane) i heurystyki negatywnej (wskazującej, co ma być odrzucane). Program badawczy Jest płodny (postępowy), dopóki wskazuje nowe problemy, a zdegenerowany, gdy ich nie wskazuje. Program badawczy zawsze zaleca obronę rdzenia i dopuszcza, jak długo jest to możliwe, modyfikacje wału ochronnego. Zmianą programu badawczego oznacza rewolucję naukową, ale niekoniecznie nśewspólmierność, ponieważ wszystko zależy od konkretnych okoliczności. Metodologia naukowych programów badawczych miała być nie tylko kompromisem między kumulatywizmem a antyku mu-latywizmem, ale również poprawieniem wczesnego falsyfikacjonizmu Poppera w kierunku koncepcji bardziej wyrafinowanej.
Spór o charakter metodologiczny nauk innych niż przyrodnicze rozpoczął się w XIX w. i początkowo dotyczył klasycznej humanistyki, w szczególności historii. Organizował się wokół dwóch przeciwstawień, mianowicie nauk o przyrodzie i nauk o kulturze oraz nauk nomotetycznych (ustalających prawa) i nauk idiogra-ficznych (czysto opisowych). Upraszczając nieco historię można powiedzieć, te humanistyka została scharakteryzowana jako nauka o kulturze i idiograficzna. Wilhelm Diihtey dodał do tego ideę, że nauki humanistyczne operują szczególnym rodzajem rozumienia polegającym na wczuwaniu się w ducha kultury (wszelkie koncepcje tzw. współczynnika humanistycznego, m.in. w ujęciu Floriana Znanieckiego, są kontynuacją tego poglądu), w przeciwieństwie do nauk przyrodniczych, które dostarczają zrozumienia zjawisk przez podciągnięcie ich pod prawa ogólne, czyli wyjaśnienie. Przedstawiciele humanistyki klasycznej nie musieli sprzeciwiać się charakterystyce swej dziedziny jako nauki o kulturze z punktu widzenia przedmiotowego, a idiograficznej i rozumiejącej wedle metody, a w konsekwencji jako zdecydowanie różnej od przyrodoznawstwa. Z punktu widzenia teoretyczności nie było dziwne, że humanistyka nic ma teorii w sensie przyrodniczym. Można też było utrzymywać, że teorie humanistyczne mają inną naturę, np. polegają na syntezach.
Sytuacja zmieniła się po powstaniu socjologii w sensie, w jakim rozumiał ją Augustę Comte, podzielającej cechy metodologiczne nauki przyrodniczej. Przypomnijmy, że Comte umieścił socjologię w swym wykazie sześciu nauk abstrakcyjnych, wprawdzie na ostatnim miejscu, ale w ramach ogólnego schematu dyscyplin, na który składały się matematyka, astronomia, fizyka, chemia, biologia i socjologia, przy czym każda poprzednia jest ogólniejsza od następnej, a każda następna zakłada poprzednią. Na przełomie XIX i XX w. badania socjologiczne stały się popularne, socjologia rościła sobie przy tym pretensje do bycia nauką podstawową w całej grupie nauk społecznych i humanistycznych. Nic tedy dziwnego, że problem tzw. osobliwości nauk społecznych stał się palący (por. Mises, 1957; Rudner, 1966; Ossowski, 1967; Acham, 1983), a w szczególności zaczęto zastanawiać się nad tym, czy możliwe są teorie socjologiczne uniwersalne, wyjaśniające i przewidujące. Owe osobliwości nauk społecznych to m.in. brak ścisłej ogólności w przypadku twierdzeń o zjawiskach społecznych, nikły stopień matematyzacji i związany z tym brak precyzyjnego języka, odwoływanie się do wartości, ograniczenia w eksperymentowaniu i obserwacji, słaba moc wyjaśniająca (uciekanie się do wyjaśnień celowościowyeh i genetycznych) i predyktywna (lianę prognozy sa-mospetniające się i sam on iszczące), wpływ badań na badane postawy.
Nie ma zgody wśród metodologów nauk społecznych, czy wspomniane wyżej osobliwości stwarzają nieprzekraczalne bariery konstruowaniu teorii socjologicznych (por. Sztompka, 1973; Turner, 1985). jedni uważają, że ograniczenia są tylko czasowe i wynikają jedynie z zapóźnienia nauk społecznych wobec przyrodniczych. Wydaje się jednak, że wskazywanie na opóźnienie jest obchodzeniem problemu. Nie ma raczej wątpliwości, że nikła matematyzacja będzie zawsze przeszkodą na drodze do teorii społecznych w pełnym