JÓZEF M. BOCHEŃSKI
WSPÓŁCZESNE METODY
MYŚLENIA
Tytuł oryginału
Die zeitgenössischen Denkmenthoden
© A. Francke AG Verlag Bern 1954
© Copyright for the Polish edition
by Wydawnictwo “W drodze” 1988
Przełożył i opracował
Stanisław Judycki
ISBN 83-7033-121-1
Spis treści
Uwaga tłumacza 6
Przedmowa 7
I. WPROWADZENIE
1. Terminologia 8
Terminologia ontologiczna - Terminologia psychologiczna – Terminologia semiotyczna - Terminologia teoriopoznawcza
2. Logika, metodologia i nauka 12
Logika - Metodologia - Nauka - Nauka i logika - Plan książki
II. METODA FENOMENOLOGICZNA
3. Uwagi ogólne 16
Historyczne uwagi wstępne - Metodologiczne uwagi wstępne – Istotne rysy fenomenologii - Uprawomocnienie metody fenomenologicznej
4. Z powrotem do rzeczy samych! 18
Ogląd istoty - Obiektywizm - Subiektywne myślenie Kierkegaarda – Wyłączenie teorii i tradycji - Pozytywne reguły oglądu istoty
5. Przedmiot badań fenomenologicznych 21
Fenomen - Wyłączenie istnienia - Istota - Istota a znaczenie słowa – Fenomenologia egzystencji - O nowszej i “głębszej” fenomenologii
III. METODY SEMIOTYCZNE
6. Uwagi ogólne 26
Metodologiczne uwagi wstępne - Historyczne uwagi wstępne – Ogólne uprawomocnienie analizy języka - Trzy wymiary znaku – Semiotyczne pojęcie słowa
7. Formalizm 29
Orientacja wstępna – Liczenie - Zastosowanie liczenia do przedmiotów nie-matematycznych - Sens ejdetyczny i operacyjny – Model - Istota formalizmu - Uprawomocnienie formalizmu – Sztuczny język
8. Syntaktyczne reguły sensu 34
Budowa języka - Pojęcie kategorii syntaktycznej - Funktory i argumenty – Przykłady syntaktycznego nonsensu
9. Funkcje i stopnie semantyczne 37
Dwie semantyczne funkcje znaku - Mówienie o tym, co nie wypowiedzialne – Oznaczanie i znaczenie - Stopnie semantyczne - O użyciu cudzysłowu
10. Sens semantyczny i weryfikowalność 41
Metodologiczne znaczenie problemu - Zasada weryfikowalności – Co to znaczy “weryfikowalny?” - Zasada intersubiektywności – Weryfikowalność zdań ogólnych
11. Przykład zastosowania metod semantycznych 45
A. Tarski: Pojęcie zdania prawdziwego w języku potocznym
IV. METODA AKSJOMATYCZNA
12. Uwagi ogólne 49
Struktura poznawania pośredniego - Prawo i reguła - Dwie podstawowe formy wnioskowania - Niezawodne i zawodne reguły wnioskowania – Historyczne uwagi wstępne - Plan prezentacji
13. System aksjomatyczny 52
Wstępne pojęcie systemu aksjomatycznego - Budowa aksjomatycznego systemu zdań – Wymagania dotyczące systemu aksjomatycznego - System konstytucyjny – Dedukcja progresywna i regresywna
14. Logika matematyczna 55
Znaczenie metodologiczne - Historia logiki matematycznej - Istotne rysy logiki matematycznej - Udział logiki matematycznej w pozalogicznych systemach aksjomatycznych - Względność systemów logicznych - Implikacja i wyprowadzalność
15. Definicja i tworzenie pojęć 59
Podstawowe typy definicji - Typy definicji syntaktycznych - Definicja za pomocą systemu aksjomatycznego - Definicje semantyczne - Definicje realne
16. Przykład zastosowania metody aksjomatycznej 63
Aksjomatyzacja logiki zdań Hilberta-Ackermanna
V. METODY REDUKCYJNE
17. Uwagi ogólne 67
Historyczne uwagi wstępne - Pojęcie i podział redukcji - Redukcja regresywna i pojęcie wyjaśniania - Weryfikacja - Nauki redukcyjne
18. Struktura nauk przyrodniczych 70
Zdania obserwacyjne - Postęp w naukach przyrodniczych - Weryfikacja – Doświadczenie i myślenie - Schematyczna ilustracja - Teoria Kopernika – Przykłady weryfikacji
19. Typy zdań wyjaśniających 74
Wprowadzenie - Typy warunków - Wyjaśnianie kauzalne i teleologiczne – Prawa funkcjonalne - Prawa statystyczne
20. Indukcja 77
Indukcja autentyczna i nieautentyczna - Podział indukcji - Metody Milla – Założenia metod Milla - Indukcja i system - Reguła prostoty - Streszczenie. Interpretacje filozoficzne
21. Prawdopodobieństwo i statystyka 82
Dwa znaczenia słowa “prawdopodobieństwo” - Statystyka - Wzajemna zależność fenomenów - Tablice korelacyjne - Korelacja i prawdopodobieństwo
22. Metoda historyczna 85
Nauki przyrodnicze i historia - Punkt wyjścia - Wybór - Interpretacja - Krytyka historyczna - Wyjaśnianie historyczne - Uwagi końcowe
Posłowie 90
Współczesna filozofia nauk przyrodniczych (Uzupełnienie 1986) 92
Wskazówki dotyczące literatury 95
Posłowie do przekładu polskiego 96
Bibliografia 97
Książka I. M. Bocheńskiego Współczesne metody myślenia miała 1 wydanie w 1954 roku (Die zeitgenössischen Denkmethoden, Dalp TB, Bd. 304, Bern, Francke, 1954). Dotychczas wznowiono ją 9 razy (ostatnie wyd. z 1986 r.). Polskie tłumaczenie jest 4 z kolei po hiszpańskim (Los metodos actueles del pensamiento, tłum. R. Drudis Baldrich, Madrid, Ediciones Rialp, 1957), angielskim (The Methods of Contemporary Thought, tłum. P. Caws, Harper Torchbooks, New York, 1968) i chińskim (Szanghaj 1987). Planowana jest też wersja francuska.
Polskie tłumaczenie zawiera również uzupełnienie pochodzące z 1986 roku, przewidziane do wydania francuskiego, pt. Współczesna filozofia nauk przyrodniczych. Autor zezwolił na dołączenie tego tekstu do wydania polskiego.
Należy zauważyć, że Współczesne metody myślenia oprócz zalet zwięzłości, precyzji i jasności, z jakimi prezentują najważniejsze elementy współczesnej metodologii nauk i filozofii poznania naukowego, wniosły również oryginalny wkład do filozofii. Najogólniejszy podział nauk przedstawiony tutaj przez Bocheńskiego, tzn. na nauki dedukcyjne i redukcyjne, nie zaś jak to było tradycyjnie na dedukcyjne i indukcyjne, został odnotowany w wielkim słowniku historii filozofii J. Rittera (Historisches Wörterbuch der Philosophie, Bd. 2, 622, hasło “Erfahrungswissenschaft”).
Książeczka ta jest próbą przedstawienia w bardzo elementarny sposób najważniejszych ogólnych - tzn. używanych w wielu dziedzinach - metod myślenia, zgodnie z poglądami dzisiejszych metodologów.
Aby uniknąć nieporozumień, korzystne będzie nieco bliższe wyjaśnienie wszystkich wymienionych wyżej ograniczeń.
1. Chodzi tu o metody myślenia; książka ta należy do dziedziny ogólnej metodologii, a więc tej części logiki, która dotyczy zastosowania praw logicznych do praktyki myślenia. Należy zauważyć, że została ona napisana przez logika, stąd też prawdopodobnie bierze się pewna jej jednostronność: szczególne podkreślenie tego, co logiczne w omawianych metodach. Co prawda, wydaje się, że akurat to, co logiczne jest decydujące w metodologii.
2. Książka ta zawiera tylko rzeczy bardzo elementarne. Tak ważne teorie, jak np. teoria prawdopodobieństwa lub szczegóły metody historycznej zostały albo zupełnie nie uwzględnione, albo tylko zarysowane. Było to jednak konieczne, aby na tych niewielu stronach móc powiedzieć to, co istotne. Wyłączone zostało szczególnie wszystko, co zakładałoby jakąkolwiek znajomość matematyki - z wyjątkiem zupełnie prostych operacji rachunkowych - i logiki matematycznej. Tak samo, aby tekst uczynić lepiej zrozumiałym dla laika, zrezygnowano częściowo z fachowej terminologii.
3. Pomimo dogmatycznej formy książka ta jest referatem. Autor nie bierze osobiście żadnej odpowiedzialności za reguły i uzasadnienia, które opisuje. Gdyby pisał metodologię systematycznie, wypadłaby ona być może całkowicie inaczej niż treść tej książki.
4. Poglądy tutaj referowane są poglądami metodologów, nie zaś samych naukowców. W tej mierze jest to zatem książka o współczesnej filozofii. Jednakże słowo “filozofia” musi być tutaj rozumiane w bardzo wąskim i niepotocznym sensie, ponieważ prawdziwie filozoficzne pytania, np. te, które dotyczą natury logiki lub podstaw indukcji zostały prawie całkowicie pominięte. Książka omawia wyłącznie metody, nie zaś ich interpretacje i ostateczne uzasadnienia.
Aby jednoznacznie zreferować treść współczesnych teorii metodologicznych, musimy posłużyć się dokładnie w nich ustaloną terminologią. Z tego powodu właściwy wykład należy poprzedzić kilkoma ustaleniami terminologicznymi. Nie zamierzamy przy tym podawać żadnych twierdzeń, lecz reguły używania pewnych słów i zwrotów. Reguły te będą nieraz przybierały formę zdań, które mogłyby być rozumiane jako twierdzenia o rzeczach; chodzi tutaj jednak tylko o wyjaśnienia, jak w tej książce rozumiemy odpowiednie słowa.
Ogólnie rzecz biorąc, nasza terminologia należy do wspólnego dobra filozofów, jednak pewne wyrażenia używane są przez różnych myślicieli w różnym sensie. W takich wypadkach trzeba było wybrać jedno znaczenie i w tym sensie to, co tu przedstawiamy, jest konwencjonalne: mówimy, że to a to wyrażenie rozumiemy w ten a ten sposób.
Terminologia ontologiczna. Świat składa się z rzeczy (substancji), np. gór, roślin, ludzi itd., które określone są przez różne cechy - np. barwy, kształty, dyspozycje - i wzajemnie połączone różnorakimi relacjami. Ogólną nazwą filozoficzną dla wszystkiego, co jest i co może być, jest “byt”: zgodnie z tym tak samo rzeczy, jak cechy i relacje nazywane są “bytami”. W każdym bycie można odróżnić dwa aspekty lub momenty: to, czym [was] on jest - a więc jego istotę, jego “co” [Washeit], uposażenie treściowe [Sosein], jego esencję - oraz moment, który polega na tym, że byt jest - jego istnienie, egzystencję.
Gdy pewien byt jest taki a taki - np. jeśli pewna rzecz jest czerwona albo pewna geometryczna figura posiada dwa razy większą powierzchnię niż inna - mamy do czynienia z pewnym stanem rzeczy [Sachverchalt]: przedmiot (tutaj w najogólniejszym sensie, a więc jako byt) ma się tak a tak, tzn. jest taki a taki.
Stany rzeczy nie są od siebie niezależne. Przeciwnie, często jest tak, że jeśli pewien stan rzeczy istnieje, wtedy istnieje także inny. Świat może być pomyślany jako układ stanów rzeczy. Rzeczywiście, sam w sobie jest on kolosalnym, w najwyższym stopniu skomplikowanym stanem rzeczy, w którym wszystko, co jest i co może być, połączone jest nieskończoną siecią stosunków ze wszystkim innym.
Oczywiście, nie twierdzi się, że nie byłoby możliwe pomnożenie lub redukcja wymienionych kategorii. Faktycznie w dziejach filozofii twierdzono czasem np., że nie ma żadnych rzeczy, lecz tylko cechy lub relacje; inni myśliciele nauczali, iż istnieje tylko jedna jedyna rzecz. Nie brakuje także takich, którzy sprowadzają wszystko do wielości rzeczy. Listę tego typu doktryn można byłoby dowolnie dalej prowadzić, jednakże z metodologicznego punktu widzenia spory te są prawie bez znaczenia. “Głębsza” analiza dozwala być może na jedną z wymienionych redukcji, lecz w praktyce naukowej stale używa się wszystkich tych kategorii. Uderzające jest też, iż w odniesieniu do tych kategorii wśród czołowych myślicieli naszego kręgu kulturowego odnajdujemy daleko idącą zgodność: Platon, Arystoteles, Plotyn, Augustyn, Tomasz, Spinoza, Leibniz, Kant, Hegel, Hussler, Whitehead, używają wszyscy języka, w którym występują nazwy dla naszych kategorii, niezależnie od tego, jak rozumieją świat “sam w sobie”.
Terminologia psychologiczna. Metodologia ma do czynienia z wiedzą. Czym ta wiedza jest, to trudne i wielce sporne pytanie. Tutaj chcemy tylko opisać sens, który temu słowu nadajemy.
(1) Traktujemy wiedzę jako coś psychicznego, a więc jako coś, co można odnaleźć w duszy i tylko w niej; chcemy także ograniczyć wiedzę do wiedzy ludzkiej. Nie ujmujemy jej w sensie aktu, a więc pewnego procesu, lecz w sensie cechy. Dokładniej powiedziawszy, jest ona dla nas pewnym stanem. Wiedza jest mianowicie tym, dzięki czemu jakiś człowiek zostaje nazwany “wiedzącym” - dokładnie tak, jak dzielność jest tym, dzięki czemu zostaje on nazwany “dzielnym”, a siła tym, z powodu czego mówi się o pewnym wole lub motorze, że jest silny. Wynika stąd, że w tym sensie nie ma żadnej wiedzy <w sobie> - a więc wiedzy poza psychiką konkretnego pojedynczego człowieka. Każda wiedza jest wiedzą indywidualnego człowieka.
We współczesnej filozofii dosyć dużo mówi się o ponadindywidualnej wiedzy. Ten zwyczaj mówienia jest jednakże uwarunkowany albo tym, że myśli się o przedmiocie wiedzy (w naszym sensie), albo tym, że wprowadza się metafizyczne założenie zbiorowego podmiotu, mniej więcej w sensie heglowskiego ducha obiektywnego. W metodologii celowe jest jednak terminologiczne odróżnienie wiedzy jako zjawiska psychicznego od jej treści, a wymieniona teza metafizyczna (skądinąd wielce problematyczna) jest dla niej bez znaczenia, ponieważ ostatecznie metoda może być zastosowana zawsze i tylko przez indywidualnego człowieka, nie zaś przez rzekomego ducha obiektywnego.
(2) Wiedza ma zawsze pewien przedmiot: to, co się wie. Przedmiot ten jest zawsze jakimś stanem rzeczy. Ściśle biorąc rzeczy ani cechy, ani relacji nie można wiedzieć: jeśli wie się coś, to wie się zawsze, że dana rzecz albo wchodząca w grę cecha, lub relacja jest tak a tak uposażona lub że po prostu istnieje, a więc wie się pewien stan rzeczy.
(3) Przedmiot zostaje w wiedzy do pewnego stopnia odbity. Rzeczy, cechy i relacje są odbite w pojęciach, stany rzeczy w zdaniach. Zgodnie z tym, co właśnie powiedzieliśmy, pojęcie nie wystarcza dla wiedzy: wiedza odnosi się do stanów rzeczy, te zaś zostają odbite dopiero w zdaniach. Dopiero zdania wystarczają dla wiedzy.
(4) Wymienione wyżej odbicia mogą być traktowane albo subiektywnie, albo obiektywnie. Jeśli traktuje się je subiektywnie, wtedy chodzi o pewnego rodzaju struktury psychiczne, które stanowią jedną część ludzkiej psychiki; obiektywnie patrząc, mamy do czynienia z ich treścią, z tym, co odpowiednie struktury psychiczne odbijają. Można byłoby wprawdzie mniemać, że owa treść jest czymś rzeczywistym, pewnym bytem, mianowicie bytem, którego dotyczy wiedza. Ale tak nie jest. Aby to zrozumieć, wystarczy zauważyć, że istnieją również tzw. zdania fałszywe - tego rodzaju zdania mają oczywiście pewną treść, nie są tylko czystymi tworami psychicznymi, a mimo to nie są odbiciami realnego świata.
Z tego powodu wyrażenia “pojęcie” i “zdanie” są dwuznaczne: należy odróżnić pojęcie subiektywne i zdanie subiektywne - a więc struktury psychiczne - od pojęcia obiektywnego i zdania obiektywnego, które nie są wcale strukturami psychicznymi, lecz treściami odpowiednich subiektywnych pojęć czy też zdań.
(5) Każde poznanie dochodzi do skutku dzięki pewnemu procesowi psychicznemu. Wiedza jest dopiero rezultatem tego procesu. Proces ten nie jest stanem, lecz czynnością podmiotu. Chcemy go nazwać “poznawaniem” [Erkennen]. Poznawanie jest zatem, dokładnie tak jak wiedza, czymś psychicznym, występującym w indywidualnym człowieku. W przeciwieństwie jednak do pojęć i zdań obiektywnych nie istnieje “obiektywne poznawanie”; coś takiego jest absurdem.
Momentem szczytowym poznawania w pełnym sensie jest sąd, poprzez który zdanie obiektywne zostaje stwierdzone (albo zaprzeczone). Odpowiedni “niższy” proces poznawania, który prowadzi do utworzenia pojęcia subiektywnego i do pojmowania obiektywnego pojęcia, chcemy nazwać “pojmowaniem” [Begreifen].
Faktycznie w procesie poznawania oba te akty są ze sobą ściśle złączone; dodatkowo posiadają one bardzo skomplikowaną strukturę. Struktura ta nie będzie jednak przedmiotem naszego zainteresowania. Należy jeszcze zauważyć, że niektórzy myśliciele (np. scholastycy i Kant) używają słowa “sąd” w tym sensie, który my nadajemy słowu “zdanie”. W naszej terminologii sąd jest jednak zawsze pewnym procesem, podczas gdy zdanie jest tworem obiektywnym, treściowym.
(6) Od poznawania trzeba odróżnić myślenie. Chcemy mianowicie wyrażeniu “myślenie” dać pewien szerszy zakres: rozumiemy przez nie pewien ruch duchowy [geistige Bewegung] od jednego przedmiotu do drugiego. Tego rodzaju ruch nie potrzebuje być koniecznie poznawaniem. Możemy także myśleć w ten sposób, że w wolnej chwili przypominamy sobie po kolei różne rzeczy. Zgodnie z tym poznawanie należałoby ująć jako poważne myślenie, którego celem jest wiedza.
Terminologia semiotyczna. Aby nasze pojęcia i zdania przekazywać innym i aby sobie samym ułatwić myślenie, używamy znaków [Zeichen], szczególnie znaków języka [Sprache] pisanego i mówionego, który składa się ze słów lub podobnych symboli. Ważne są przy tym dwa następujące fakty:
(1) Język nie odbija bezpośrednio bytu, lecz obiektywne pojęcia i obiektywne zdania. Nie wypowiadamy bytu tak, jak on istnieje, ale tak, jak go myślimy. Jest to bardzo ważne stwierdzenie, którego zlekceważenie może prowadzić do poważnych błędów.
(2) Język nie zawsze adekwatnie odbija obiektywne pojęcia i zdania. Często dzieje się tak, że pewien znak języka reprezentuje różne tego rodzaju struktury obiektywne (wieloznaczność) lub odwrotnie: wiele znaków odwzorowuje tę samą strukturę (synonimiczność).
Istnieje naturalna i całkiem uprawniona tendencja do kształtowania języka w ten sposób, aby reprezentował pojęcia obiektywne i zdania obiektywne tak adekwatnie, jak to tylko jest możliwe. Taka sytuacja jest jednak rzadko urzeczywistniającym się ideałem. Ponieważ język odgrywa dominującą rolę w ludzkim poznawaniu (już z tego powodu, że poznawanie to jest uwarunkowane społecznie, tj. przez to, co inni ludzie poznali i za pośrednictwem języka udostępnili), analiza języka, jego interpretacja należy do najważniejszych składników metody poznania.
Znak dla pojęcia obiektywnego chcemy określić jako “nazwę” [Namen], a znak dla obiektywnego zdania jako “wypowiedź” [Aussage]1. W ten sposób otrzymujemy następującą tabelę, która streszcza naszą terminologię:
dziedzina tego, co realne: |
byt |
stan rzeczy |
dziedzina procesów poznawania: |
pojmowanie |
sądzenie |
dziedzina struktur obiektywnych: |
pojęcie obiektywne |
zdanie obiektywne |
dziedzina struktur subiektywnych: |
pojęcie subiektywne |
zdanie subiektywne |
dziedzina języka: |
nazwa |
wypowiedź |
Jest to oczywiście tylko tymczasowa orientacja, która dalej zostanie wielorako pogłębiona.
Terminologia teoriopoznawcza. Zdanie obiektywne - a stąd też zdanie subiektywne i sensowna wypowiedź - jest albo prawdziwe, albo fałszywe. Znaczenie tych wyrażeń chcemy tutaj określić w sposób następujący: jakieś zdanie jest prawdziwe ściśle wtedy, gdy jest ono trafne, tzn. jeśli odpowiadający mu stan rzeczy istnieje. Jest ono ściśle fałszywe wtedy, gdy nie jest ono trafne, tzn. jeśli odpowiadający mu stan rzeczy nie istnieje. Słowo “prawda” ma znaczyć tu tyle, co “własność pewnego zdania (czy też wypowiedzi) polegająca na tym, że odpowiadający jemu (jej) stan rzeczy istnieje”. Analogicznie można zdefiniować sens słowa “fałsz”.
Jest to oczywiście tylko jedno z bardzo licznych znaczeń słowa “prawda”, gdyż nie tylko np. w języku teorii sztuki ma ono przynajmniej tuzin różnych znaczeń, lecz także w obrębie samej logiki istnieje zwyczaj używania go w wielorakim sensie. Ponadto wielu filozofów nadaje temu słowu inne, mniej lub więcej uprawnione (tzn. odpowiednie) znaczenia.
Wybieramy wszelako wyżej wymienione znaczenie, gdyż, po pierwsze, występuje ono w każdej nauce (przynajmniej jako jedno obok innych) i, po drugie, dlatego że, jak się wydaje, wszystkie inne definicje w jakiś sposób je zakładają. Jeżeli ktoś mówi np., że zdanie jest prawdziwe, gdy odpowiada autentycznej egzystencji człowieka je akceptującego, to natychmiast na wyższym poziomie powstaje pytanie: czy jest prawdą, że zdanie to odpowiada autentycznej egzystencji? itd. I tu oczywiście “prawda” może mieć tylko wyżej wymieniony sens. Gdyby ktoś twierdził, że każda prawda jest względna (a więc przypisywał temu słowu całkowicie inny sens, niż my to czynimy), to musiałby jednak w naszym sensie zapytać: czy jest to prawda?
Jakkolwiek by było, tyle wydaje się pewne, że każda nauka dąży do ustanowienia prawdziwych wypowiedzi (w powyższym sensie): jest to ostatecznym celem naukowego poznawania. Oczywiście nie mówi się tym samym, że cel ten jest zawsze osiągany lub że jest osiągalny we wszystkich dziedzinach, jednak tendencja kierująca się do niego jednoznacznie determinuje każde poznawanie. Dlatego przyjęty przez nas tutaj sens “prawdy” jest podstawowy dla metodologii.
Cel ten można oczywiście osiągnąć w dwojaki sposób: (1) tak, że (zmysłowo albo duchowo) oglądamy odpowiedni stan rzeczy; jeżeli ktoś chce wiedzieć np., czy zdanie “Ten stół tutaj jest brązowy” jest prawdziwe, wtedy wystarczy się przyjrzeć temu stołowi; tego rodzaju poznawanie chcemy nazwać poznawaniem bezpośrednim; (2) oraz tak, że przyglądamy się nie samemu odpowiedniemu stanowi rzeczy, lecz patrzymy na inne stany rzeczy i wnioskujemy z nich o tym pierwszym. Ten typ poznawania chcemy nazwać poznawaniem pośrednim. Należy zauważyć, że każda interpretacja znaku jest poznawaniem pośrednim: tym, co widzimy, są tu, z jednej strony, materialne znaki (takie jak małe plamy suchego atramentu), a z drugiej strony (duchowo) widzimy pewne ogólne związki między tego typu znakami a stanami rzeczy. Stąd w konkretnym wypadku wnioskujemy o znaczeniu znaków.
Oczywiście, sam fenomen poznawania pośredniego przedstawia się jako szczególnie zagadkowy. Trudno jest początkowo dobrze zrozumieć, jak tego rodzaju poznawanie ma być możliwe, natomiast to, że wiele rzeczy poznajemy pośrednio - że, jak się wydaje, do każdego poznawania przynajmniej domieszane jest poznawanie pośrednie - pozostaje poza dyskusją. Bardzo trudne problemy teoriopoznawcze przedstawia także istota poznawania pośredniego, ponieważ jednak jesteśmy nastawieni wyłącznie na metodologię, chcemy to zagadnienie opuścić i założyć sam fakt, że tego rodzaju poznawanie istnieje.
Dla rozumienia teorii metodologicznych konieczne jest także zwięzłe opisanie miejsca metodologii w systemie nauk. Z tego powodu musimy zająć się krótko pojęciem logiki - której częścią jest metodologia - i pojęciem nauki.
Logika. Mało istnieje słów - również wśród fachowych wyrażeń filozoficznych - które są tak wieloznaczne jak słowo “logika”. Jeśli pozostawimy poza rozważaniami wszystkie interpretacje logiki, które nie mają nic wspólnego z wnioskowaniem, to mimo to mamy do czynienia z wieloznacznością albo, lepiej powiedziawszy, z trójpodziałem dziedziny, która jest określana przez to słowo. Logika pojęta jako nauka odnosząca się do wnioskowania obejmuje mianowicie trzy dyscypliny, które powinny być ściśle oddzielane.
(1) Logika formalna. Logika formalna rozważa tzw. prawa logiczne, tzn. zdania, “według których” musi się wnioskować, jeśli chce się od jednych zdań prawdziwych dojść do innych zdań prawdziwych. Istota logiki formalnej przedstawia znowu trudne problemy, jednakże na kilku przykładach łatwo jest pokazać, o czym ona traktuje. Tego typu przykładem jest znany modus ponendo ponens: “Jeżeli: ma miejsce A, wtedy także B; i ma miejsce A, wtedy B”. Jest to prawo logiczne, gdyż jeśli podstawimy jakiekolwiek zdania za nasze litery “A” i “B”, otrzymamy zdanie prawdziwe. Inaczej powiedziawszy: możemy za pomocą tego prawa z jednych prawdziwych zdań wyprowadzić inne prawdziwe zdania. Innym przykładem jest sylogizm Barbara: “Jeżeli wszystkie M są P i wszystkie S są M, wtedy także wszystkie S są P”. Logika formalna zajmuje się tego rodzaju prawami, ich formułowaniem, porządkowaniem, metodami ich weryfikacji itd.
(2) Metodologia. Można byłoby mniemać, że sama logika formalna wystarczyłaby do analizy pośredniego poznawania. A jednak tak nie jest. W praktyce badania naukowego okazuje; się bowiem, że te same prawa logiczne mogą być zastosowane w różny sposób. Inną rzeczą jest samo prawo logiczne, inną zaś wnioskowanie, które przeprowadza się według tego prawa. Tak np. istota znanego podziału myślenia na dedukcyjne i indukcyjne polega nie na użyciu różnych praw logiki, lecz na różnym użyciu tych samych praw. Metodologia jest właśnie teorią zastosowania praw logiki do różnych dziedzin.
(3) Filozofia logiki. W końcu można też postawić różne pytania dotyczące samej logiki i natury jej praw. O co tutaj chodzi? O twory językowe, procesy psychiczne, struktury obiektywne czy też nawet o stany rzeczy? Czym jest właściwie prawo logiczne? Skąd wiemy, że jest ono prawdziwe? I czy w tym kontekście można w ogóle mówić o prawdzie? Czy prawa logiczne obowiązują “w sobie”, czy też są tylko supozycjami [Annahmen]? Dalej, prawa logiczne zawierają często wyrażenie “dla wszystkich”. Co to wyrażenie właściwie znaczy? Czy w ogóle istnieje to, co ogólne? Jeżeli coś takiego istnieje, to gdzie to można znaleźć? W psychicznym, w obiektywnym czy te w realnym obszarze - albo być może tylko w językowym? Te i podobne pytania nie należą oczywiście ani do logiki formalnej, ani do metodologii: tworzą one przedmiot filozofii logiki.
Najważniejsze jest przy tym ścisłe oddzielanie tych trzech dziedzin. Wiele zła wyrządzono dostatecznie ich nie odróżniając.
Metodologia. Drugą część logiki nazwaliśmy metodologią Słowo to pochodzi z greckich słów “μετα” - “wzdłuż” i “οδός” - “droga”. Znaczy więc ono dosłownie tyle, co “λόγος”, a więc “mówienie o (poprawnym)-chodzeniu-wzdłuż-drogi”. Metoda jest sposobem, w jaki musimy postępować w pewnej dziedzinie, tzn. sposobem, w jaki musimy porządkować nasze działanie, a mianowicie przyporządkowywać je pewnemu celowi. Metodologia jest teorią metody.
Metodologię można sformułować dla każdej dziedziny: tak np. istnieją metodologie chemii, dydaktyki, ascetyki i jeszcze wiele innych. Można je podzielić na dwie klasy: te, które omawiają techniki działania fizycznego, i te, które omawiają techniki działania duchowego. Tutaj interesują nas tylko te drugie, przy czym należałoby zauważyć, że w wielu dziedzinach, np. w archeologii, chemii, anatomii itd., badanie naukowe potrzebuje instrukcji także dla czynności fizycznych.
W dziedzinie działań duchowych można znowu odróżnić różne klasy metod. Zajmiemy się tutaj wyłącznie metodami myślenia, a więc wskazaniami dla myślenia poprawnego. Odpowiednia metodologia, tzn. nauka o poprawnym myśleniu, odnosi się oczywiście do myślenia poważnego, a więc do poznawania. Nie wszystkie jednak metody myślenia poważnego będą nas tutaj interesować. Pozostawimy poza rozważaniami metody tzw. myślenia praktycznego, np. teorii organizacji albo strategii, i ograniczymy się do myślenia teoretycznego. Różnica między nimi polega na tym, że myślenie praktyczne zawsze odnosi się bezpośrednio do czegoś, co myślący może wykonać: chce się oczywiście w ten sposób osiągnąć pewną wiedzę, ale tylko taką, jak to lub tamto można byłoby zrobić. W przeciwieństwie do tego myślenie teoretyczne nie posiada żadnych takich zamiarów: odnosi się ono wyłącznie do stanów rzeczy, które chciałoby uchwycić, pomijając zupełnie, czy te stany rzeczy dałoby się w jakiś sposób wykorzystać, czy nie.
Dla każdego obszaru myślenia teoretycznego istnieją specjalne metody i stąd też specjalne metodologie. Omawiane są one w ramach poszczególnych nauk. Ale istnieje także ogólna metodologia myślenia teoretycznego; omawia ona metody, które znajdują zastosowanie w każdym myśleniu teoretycznym albo przynajmniej w znacznej części nauk. Ta i tylko ta metodologia jest częścią logiki - i tylko ona będzie tutaj omawiana. Jest to ogólna metodologia myślenia naukowego.
Nauka. Słowo, “nauka” posiada, między innymi, dwa ściśle skoordynowane, lecz różne znaczenia. Można mianowicie słowo to rozumieć albo w subiektywnym, albo w obiektywnym sensie.
(1) Nauka rozumiana subiektywnie nie jest niczym innym niż wiedzą systematyczną. Jest ona (a) wiedzą, a więc pewną własnością ludzkiego - indywidualnego - podmiotu. Kto, ja się mówi, posiadł naukę, ten ma zdolność do rozumienia wielu rzeczy z jej dziedziny i do poprawnego przeprowadzania (duchowych) działań w tej dziedzinie. Tak np. człowiek, który zna arytmetykę, ma zdolność rozumienia praw arytmetycznych i poprawnego arytmetycznego liczenia. Nauka w tym sensie nie jest niczym innym niż taką właśnie zdolnością, która naturalnie połączona jest z wiedzą we właściwym sensie, tzn. w naszym przykładzie ze znajomością wielu praw. Ponadto wiedza rozumiana subiektywnie jest (b) wiedzą systematyczną. Nie każdy, kto wie coś o pewnej dziedzinie posiada odpowiadającą jej naukę, lecz tylko ten, kto systematycznie przebadał tę dziedzinę i kto poza pojedynczymi stanami rzeczy zna związki zachodzące między nimi.
Mówi się niekiedy o czynnościach naukowych, a więc o badaniu. Czynności te nazwane są dlatego naukowymi, gdyż cel ich polega na wytworzeniu lub udoskonaleniu nauki w sensie subiektywnym. Ten bowiem, kto bada, uczy się itd., stara się o zdobycie wiedzy systematycznej.
(2) Nauka rozumiana obiektywnie nie jest wiedzą lecz układem zdań obiektywnych. W tym sensie mówi się np. “Matematyka uczy, że...” albo “Bierzemy z astronomii następując twierdzenie...” itd. Tak rozumiana nauka nie istnieje oczywiście “w sobie”, ale nie jest ona także związana z pojedynczy człowiekiem. Przy takim rozumieniu chodzi w niej raczej o pewien twór społeczny, istniejący w myśleniu wielu ludzi, a mianowicie istniejący często w ten sposób, że żaden z tych ludzi nie zna wszystkich należących do niej zdań. Nauka rozumiana obiektywnie posiada następujące cechy:
(a) Jest ona systematycznie uporządkowanym układem zdań obiektywnych - odpowiednio do systematycznego charakteru nauki w subiektywnym sensie tego słowa.
(b) Do nauki zaliczają się nie wszystkie należące do jej dziedziny zdania, lecz tylko takie, które znane są przynajmniej jednemu człowiekowi. Dokładniej powiedziawszy: poza zdaniami komuś znanymi nie ma żadnych zdań faktycznych, lecz tylko możliwe. Nauka nie składa się z możliwych, lecz z faktycznie utworzonych zdań. Dlatego można mówić o rozwoju, postępie nauki. Dochodzi on do skutku w ten sposób, że ludzie poznają nowe stany rzeczy i odpowiednio do nich tworzą nowe zdania.
(c) Nauka jest, jak powiedzieliśmy, tworem społecznym. Z tego powodu należą do niej tylko takie zdania, które w jakiś sposób zostały zobiektywizowane, tzn. przedstawione za pomocą znaków, przedstawione tak, że przynajmniej zasadniczo dostępne są innym ludziom. Można byłoby sobie być może pomyśleć także jakąś indywidualną naukę, zbudowaną przez pojedynczego człowieka i tylko jemu znaną; ktoś taki nie potrzebowałby jej w ogóle przedstawiać za pomocą znaków. Faktycznie jednak taka nauka nie istnieje.
Nauka i logika. Z naszego opisu nauki wynika, że jest ona istotnie zależna od logiki. Zależność ta ma różnoraki sens.
Jeśli chodzi najpierw o naukę w rozumieniu obiektywnym, to jest jasne, że musi być ona zbudowana logicznie. Nauka jest bowiem zbudowana systematycznie, tzn. jej zdania znajdują się we wzajemnych stosunkach logicznych. We wczesnych fazach swojego rozwoju nauka zawiera często oczywiście tylko pewną mnogość nie połączonych wzajemnie zdań. Jest to jednak przez wszystkich naukowców traktowane jako coś niezadowalającego i głównym dążeniem każdego badania naukowego jest nie tylko odkrywanie nowych stanów rzeczy, lecz także (a być może przede wszystkim) logiczny porządek już ustalonych zdań. Logika - a mianowicie tutaj logika formalna - tworzy więc niezbędne ramy dla tak rozumianej nauki, która zawsze musi zakładać logikę.
Również dla nauki w sensie subiektywnym logika stanowi założenie, gdyż nauka ta (jako stan) jest pewną wiedzą systematyczną, polegającą na pojmowaniu nauki w sensie obiektywnym. Tworzące tę wiedzę sądy muszą być więc między sobą tak samo połączone jak zdania nauki obiektywnej.
Jeśli tak jest, to także badanie naukowe musi być prowadzone przez logikę i to nawet w podwójny sposób: (1) Przede wszystkim oczywiście badaczowi nie tylko nie wolno gwałcić praw logicznych, lecz musi on postępować zgodnie z tymi prawami. W większości bowiem wypadków poznawanie naukowe jest poznawaniem pośrednim, a więc wnioskowaniem. Stąd logika formalna jest niezbędnym założeniem badania naukowego. (2) Ponadto w każdym takim badaniu musi się, jak się mówi, postępować “metodycznie”. Znaczy to, że należy zastosować pewne poprawne metody. Metody takie są opracowywane w każdej nauce zgodnie z rodzajem przedmiotów, którymi się ona zajmuje. Jednak każde badanie naukowe potrzebuje także pewnych ogólnych zasad metodycznych obowiązujących dla wszystkich - lub przynajmniej dla wielu różnych - nauk. Zasady te rozważane są w metodologii, która, jak powiedzieliśmy, tworzy jedną z części logiki. Tym samym badanie naukowe zakłada także logikę w szerszym sensie tego słowa.
Nie należy jednak tego tak rozumieć, jakby naukowiec musiał nauczyć się logiki czy też metodologii zanim przystąpi do badania. Przeciwnie, wiadomo, że znajomość żadnej z nich nie jest niezbędna w fazach początkowych jakiejś nauki - wystarczają naturalne zdolności. Jest także faktem, że zasady logiki dopiero wtedy zostają wyabstrahowane z nauk i sformułowane, gdy te dość daleko postąpią w swoim rozwoju. Jednakże dwie rzeczy pozostają niewątpliwe: (1) każda nauka budowana jest według zasad logicznych i metodologicznych, nawet wtedy kiedy naukowiec czyni to nieświadomie; (2) zreflektowane sformułowanie tych zasad jest zwykle konieczne w dalszych fazach rozwoju danej nauki. <Logika naturalna> wystarcza w prostszych zagadnieniach; jeśli jednak dojdzie się do bardziej skomplikowanych, to w większości wypadków zawodzi. Regularnie i całkowicie zawodzi ona wtedy, gdy chcemy zdać sobie sprawę z sensu tego, co dokonało się w nauce: w tym wypadku niezbędna jest dokładna znajomość logiki formalnej i metodologii.
Plan książki. Po tym, co powiedzieliśmy, można byłoby sądzić, że ogólna metodologia nauk odnosi się wyłącznie do poznawania pośredniego. Tak jednak nie jest. Także w dziedzinie poznawania bezpośredniego istnieją pewne metody, które zostały współcześnie technicznie rozwinięte i stały się przedmiotem metodologii ogólnej. Wyróżnione miejsce zajmuje wśród nich metoda fenomenologiczna. Jest ona metodą duchowego patrzenia i opisywania tego, co zobaczone. Zawiera przy tym wiele reguł, które obowiązują całkowicie ogólnie, tzn. dla każdego myślenia. Chodzi w niej o jedną z nowszych zasad, która nie tylko używana jest przez mniej więcej połowę ogółu filozofów, lecz także stosowana poza filozofią w różnych naukach humanistycznych i która, jak się wydaje, znajduje coraz większe uznanie. Logika stoi z nią w ścisłym związku, mianowicie jeśli chodzi o trzecią część logiki, tzn. filozofię logiki. Metodę fenomenologiczną będziemy rozważać najpierw.
Z metod pośrednich opracowano w ostatnich czasach trzy grupy. W pierwszej chodzi o ten typ poznania pośredniego, który polega na interpretacji jakiegoś języka. Ze względu na szczególną wagę języka w wielu naukach (przede wszystkim historycznych, lecz także matematycznych), analiza języka należy do ogólnej teorii metod. Do pewnego stopnia stanowi ona człon przeciwny dla metody fenomenologicznej: także w niej analizuje się rzeczy, tylko że w całkiem inny, pośredni sposób, tzn. poprzez układ znaków.
W dalszym ciągu będziemy mieli do czynienia z samym wnioskowaniem. Spotkamy się przy tym z dwoma rodzajami wniosków: dedukcyjnymi i redukcyjnymi. (Znaczenie tych wyrażeń zostanie podane później).
Otrzymujemy zatem następujący podział:
1. metoda fenomenologiczna,
2. analiza języka,
3. metoda dedukcyjna,
4. metoda redukcyjna.
Historyczne uwagi wstępne. Nazwy “fenomenologia” użył po raz pierwszy, jak się wydaje, J. H. Lambert w swoim Neues Organon (1764). Następnie słowo to występuje także u Kanta (Metaphysische Anfangsgründe der Naturwissenschaft, 1786), Hegla (Phänomenologie des Geistes, 1807)1, Renouviera (Fragments de la philosophie de Sir W. Hamilton, 1840), W. Hamiltona (Lectures on Logic, 1860), Amiela (Journal intime, 1869), E. von Hartmanna (Phänomenologie des sittlichen Bewusstseins, 1879) i innych. Jego znaczenie u każdego z tych autorów jest bardzo różne, żaden z nich jednak nie używał go dla określenia pewnej szczególnej, dokładnie zdeterminowanej metody myślenia.
Dopiero Edmund Husserl (1859-1938) wprowadził słowo “fenomenologia” w tym sensie. Jego metodologiczne idee wywarły decydujący wpływ na europejską i częściowo również amerykańską filozofię. Pomiędzy dwiema wojnami światowymi utworzyła się wokół niego znacząca szkoła filozoficzna (M. Scheler, R. Ingarden, M. Farber, E. Stein, O. Becker, E. Fink, A. Pfänder, A. Koyré i inni). Później, z pewnymi zmianami, jego metodę przejęli egzystencjaliści. Jest ona dzisiaj najważniejszym sposobem postępowania w tej szkole (G. Marcel, M. Heidegger, J.-P. Sartre, M. Merleau-Ponty) i ponieważ w różnych krajach, przede wszystkim w Niemczech, we Francji i we Włoszech, egzystencjalizm wywarł silny wpływ na całość nauk humanistycznych, to przez to także metoda fenomenologiczna stała się ważna dla tych dyscyplin. Również kilku niezależnych myślicieli - jak N. Hartmann - używa pewnej odmiany metody fenomenologicznej. Można więc bez przesady twierdzić, że przynajmniej na kontynencie europejskim metoda ta ma decydujące znaczenie dla filozofii. W przeciwieństwie do tego w północnoamerykańskiej i angielskiej filozofii jest ona mało używana.
Metodologiczne uwagi wstępne. Nie jest łatwo dokładnie określić, jakie reguły metody fenomenologicznej były uważane przez Husserla za podstawowe. Rozwijał on bowiem tę metodę w trakcie swoich badań filozoficznych stopniowo i nigdy jasno jej nie streścił. Tylko przygodnie pojawiają się w jego pismach uwagi metodologiczne i ponadto nie są one zawsze łatwo zrozumiałe. Dodatkowo dochodzi do tego fakt, że słowo “fenomenologia” oznacza u Husserla zarówno metodę jak też pewną doktrynę. Żadnej metody nie można wprawdzie całkowicie oddzielić od pewnych treściowych założeń, ale w tym wypadku splecenie metody i treści jest tak ścisłe, że często wydaje się wątpliwe, czy czysto metodologiczne idee dadzą się w ogóle całkiem jasno przedstawić.
Następujące rozróżnienie posiada jednak znaczenie decydujące. Istotnym rysem metody fenomenologicznej jest tzw. redukcja. U Husserla mamy do czynienia z dwiema redukcjami “ejdetyczną” i “fenomenologiczną” w węższym sensie. Redukcję ejdetyczną Husserl opracował głównie w swoich Logische Untersuchungen (1901), fenomenologiczną w węższym sensie stosował coraz częściej od Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie (1913)2. Tutaj chcemy zająć się bliżej tylko pierwszą, ejdetyczną odmianą redukcji, a redukcję fenomenologiczną pozostawić całkowicie poza rozważaniem, gdyż jest ona tak ściśle złączona ze specyficzną doktryną Husserla, że z trudem da się ją traktować jako metodę o znaczeniu ogólnym.
Istotne rysy fenomenologii. Metoda fenomenologiczna jest szczególnym rodzajem postępowania poznawczego. Jej istotnym składnikiem jest pewien typ duchowego oglądania przedmiotów, tzn. opiera się ona na intuicji. Intuicja ta odnosi się do tego, co dane. Główna zasada fenomenologii brzmi: “z powrotem do rzeczy samych”, przy czym przez “rzeczy” należy rozumieć właśnie to, co dane. Wymaga to jednak trojakiego wyłączenia bądź “redukcji”, zwanej także “epoché”: po pierwsze, wyłączenia wszystkiego, co subiektywne: należy zająć czysto obiektywną, zwróconą ku przedmiotowi postawę; po drugie, wyłączenia wszystkiego, co płynie z różnego typu teorii, jak hipotezy, dowody, wyłączenia w inny sposób zdobytej wiedzy - tak że tylko to, co dane dochodzi do głosu: po trzecie, wyłączenia wszelkiej tradycji, tzn. wszystkiego, co inni twierdzili na temat wchodzącego w grę przedmiotu.
Dany przedmiot (“fenomen”) podlega znowu dwojakiego typu redukcji: po pierwsze, pozostawia się poza rozważaniem istnienie przedmiotu, a uwaga zostaje skierowana wyłącznie na jego uposażenie treściowe [Washeit], na to, czym [was] dany przedmiot jest; po drugie, z tego uposażenia treściowego zostaje wyłączone wszystko, co nieistotne i tylko istota przedmiotu jest poddana analizie.
W związku z powyższym należy zauważyć, że “fenomenologiczne” wyłączenie nie jest równoznaczne z zaprzeczeniem. Wyłączone elementy pomija się tylko, abstrahuje się od nich i rozważa wyłącznie to, co pozostaje. Redukcja ejdetyczna nie zawiera także żadnego sądu dotyczącego wartości innych procedur i innych aspektów. Ten, kto postępuje fenomenologicznie, nie rezygnuje z późniejszego zastosowania innych procedur i z ponownego rozważenia pominiętych aspektów. Zasada redukcji obowiązuje tylko w trakcie trwania fenomenologicznych rozważań.
Uprawomocnienie metody fenomenologicznej. Na pierwszy rzut oka ogląd fenomenologiczny wydaje się czymś całkiem prostym, polegającym tylko na uruchomieniu duchowej władzy widzenia, w danym wypadku może to być także zewnętrzne poruszanie się, np. podróż, zajęcie dogodnej pozycji itd., które czynią przedmiot dobrze widocznym. Specjalna metoda, która regulowałaby ruch myśli, wydaje się na pierwszy rzut oka zupełnie niekonieczna.
Jest ona jednak konieczna i to z dwóch względów. (1) Człowiek jest tak ukształtowany, że posiada prawie nieprzezwyciężalną skłonność do wkładania w to, co widzi, obcych - w przedmiocie wcale nie danych - elementów. Elementy te wkładane są albo z powodu naszych subiektywnych emocjonalnych nastawień (człowiek tchórzliwy widzi siłę wroga jako podwójną), albo z powodu w inny sposób zdobytej wiedzy. Wprojektowujemy w dany przedmiot nasze hipotezy, teorie, wyobrażenia itd. W redukcji ejdetycznej chodzi zaś o to, aby widzieć sam dany przedmiot i poza tym nic innego. Aby to osiągnąć musi być zastosowana starannie opracowana i wyćwiczona metoda. (2) Żaden przedmiot nie jest prosty, każdy jest nieskończenie złożony, składa się z różnych komponentów i aspektów, które nie są jednakowo ważne. Człowiek nie może jednak wszystkich tych elementów uchwycić jednocześnie, musi je obserwować jeden po drugim. Także to wymaga mądrze przemyślanej i wyćwiczonej metody.
Z tych powodów nie tylko istnieje metoda fenomenologiczna, lecz także konieczne jest dobre jej opanowanie w celu poprawnego widzenia.
Tyle twierdzą sami fenomenologowie. Ich punkt widzenia krytykowany jest przez empirystów i kantowskich krytycystów. Abstrahując jednak od znaczenia tego sporu, nawet w krótkim przedstawieniu współczesnych metod myślenia nie może zabraknąć rozdziału o metodzie fenomenologicznej, ponieważ jest ona stosowana przez dużą część (być może przez większość) dzisiejszych filozofów i zawiera wiele reguł obowiązujących niezależnie od stanowiska filozoficznego. Prawie wszystkie reguły metody fenomenologicznej można byłoby nawet uznać za ogólne reguły naukowe. To jednak nie odpowiadałoby intencjom samych fenomenologów. Mimo to jest obiektywnym faktem, że sformułowali oni ważne, ogólnie obowiązujące reguły myślenia teoretycznego.
Ogląd istoty. Wymieniona wyżej główna reguła metody fenomenologicznej “z powrotem do rzeczy samych” oznacza przede wszystkim, iż rzeczy te powinno się widzieć duchowo. Metoda fenomenologiczna jest metodą intuicji, duchowego patrzenia. Według fenomenologów tego rodzaju ogląd jest konieczną podstawą każdego prawdziwego poznania. W terminologii Husserla: źródłowo prezentująca świadomość jest jedynym źródłem prawomocności poznania. Każde bowiem poznawanie pośrednie, a więc wnioskowanie, jest wnioskowaniem na podstawie czegoś i ostatecznie owo coś musi być dane w jakimś typie oglądu. Widzieć można jednakże tylko to, co dane. To, co dane, “rzecz”, nazywa się u Husserla “fenomenem”, od greckiego φαινόμενον, to co się przejawia, co w sposób jasny znajduje się przed nami (φώς = światło). Sam ogląd jest (wewnętrzną, duchową) artykulacją fenomenu, po grecku λέγειν. Stąd nazwa “fenomenologia”. Jest ona artykulacją tego, co dane, dane bezpośrednio w duchowym patrzeniu.
W tym kontekście należy zauważyć: (1) intuicja jest tu przeciwstawiona zarówno poznawaniu dyskursywnemu, jak też abstrakcji. Używamy tego słowa tylko w pierwszym sensie, tzn. rozumiemy przez “intuicję” bezpośrednie, lecz nie wyczerpujące uchwycenie przedmiotu. Poznanie ludzkie jest istotnie abstrakcyjne, ujmuje tylko aspekty tego, co dane i nie jest w stanie wyczerpać wszystkiego, co jest obecne w tym, co dane. Intuicja w sensie poznania wyczerpującego nie istnieje, w każdym razie nie u nas ludzi. (2) Zarzuca się niekiedy fenomenologom - i być może nie całkiem bez powodu - że chcieliby oni pominąć każdą inną formę wiedzy, np. wiedzę o tym, co prawdopodobne. Jednakże ich zasady nie głoszą nic takiego. Wiedza, że coś jest prawdopodobne, ma oczywiście miejsce aż nazbyt często; ale niemniej jednak jest ona wiedzą. Jeżeli więc pewne zdanie zostaje stwierdzone tylko z prawdopodobieństwem, to i tak ten, kto je stwierdza, musi wiedzieć, że zdanie to jest prawdopodobne. Jednak prawdopodobieństwo jakiegoś zdania może zostać poznane tylko dzięki wnioskowaniu, takie wnioskowanie zakłada zawsze pewność dotyczącą czegoś, a więc uchwycenie jakichś przedmiotów. W tym i tylko w tym sensie obowiązuje podstawowa zasada fenomenologiczna. Gdyby ją rozumieć w ten sposób, że wiedzieć coś możemy tylko w sposób pewny, to byłaby ona oczywiście fałszywa.
Obiektywizm. Druga podstawowa reguła metody fenomenologicznej, tak jak ją reprezentował Husserl, mogłaby być sformułowana następująco: w każdym badaniu myślenie powinno być skierowane wyłącznie na przedmiot z całkowitym wyłączeniem wszystkiego, co subiektywne. Tak ujęta, reguła ta należy do wspólnego dobra zachodniej metody naukowej. Zawiera ona dwie różne, lecz ściśle ze sobą złączone zasady praktyczne.
Przede wszystkim wymaga ona, aby naukowiec, żeby tak powiedzieć, oddał się w pełni badanemu przedmiotowi widząc tylko to, co obiektywne. Musi on zatem wyłączyć wszystko, co pochodzi od niego samego, od podmiotu, przede wszystkim swoje uczucia, życzenia, osobiste nastawienia itd. Wymagany jest bowiem czysty ogląd, czysto teoretyczne nastawienie w pierwotnym greckim sensie słowa “teoria” (= oglądanie). Naukowiec wypełniający tę regułę jest czysto poznającą istotą, która w pełni zapomina o sobie samej.
Po drugie, reguła ta wymaga postawy kontemplacyjnej, tzn. wyłączenia tego co praktyczne. Badaczowi nie wolno się pytać, jakiemu celowi to czy tamto mogłoby służyć, lecz tylko i wyłącznie, jakie to coś jest. Dziedzina tego, co praktyczne np. moralność, religia, może być jednakże badana fenomen logicznie, tak jak to się dzieje w pracach Schelera i Otto, lecz wtedy przedmioty praktyczne, jak cele, wartości itd. są traktowane czysto kontemplacyjnie. Fenomenologia jest więc na wskroś teoretyczna także i w tym sensie, że jest apraktyczna.
Obiektywizm, do którego dążą fenomenologowie jest oczywiście tylko ideałem. Człowiek nie jest tylko intelektem, także w badaniu naukowym w mniejszym lub większym stopniu współobecne są motywy emocjonalne. Niektóre z nich wydają się nawet wspierać badanie naukowe, tak np. wola, namiętne pragnienie wiedzy. W pozostałych jednak wypadkach uczucia i akty woli aż nazbyt często zaciemniają czystość naukowego patrzenia. Mimo to wydaje się praktycznie niemożliwe całkowite ich wyłączenie i w tej sytuacji fenomenologiczna reguła jest tym bardziej ważna. Ten bowiem, kto ciągle i świadomie nie stara się jej dotrzymać, tym łatwiej popadnie w subiektywizm. Wielkie zdobycze naszego kręgu kulturowego zawdzięczamy, jak słusznie podkreślają fenomenologowie, właśnie obiektywizmowi.
Subiektywne myślenie Kierkegaarda. Przeciwko tej dawno potwierdzonej, a ostatnio szczególnie przez Husserla wyostrzonej, regule obiektywizmu bronią się uczniowie Sørena Kierkegaarda, egzystencjaliści. Twierdzą oni, że dla dociekań filozoficznych obiektywizm jest niewystarczający, przeciwnie, badacz, <subiektywny myśliciel> musi “się trwożyć”. “Je ne suis pas au spectacle” chce powtarzać sobie codziennie G. Marcel. Także myślenie czysto teoretyczne egzystencjaliści uważają za bezwartościowe. Idą często nawet aż tak daleko, aby twierdzić, że prawdziwie filozoficzne myślenie jest bezprzedmiotowe, gdyż odnosi się ono do tzw. egzystencji (do ludzkiego Dasein), która nie jest żadnym przedmiotem, żadnym obiektem, lecz podmiotem.
Te dzisiaj bardzo popularne poglądy kontynentalnych filozofów przy bliższym przyjrzeniu okazują się mniej rewolucyjne, niż się to początkowo wydaje.
(1) Przede wszystkim należy zauważyć, że słowo “obiekt” (względnie “przedmiot”) jest wieloznaczne. W terminologii Husserla “przedmiotem” jest wszystko, co dane, wszystko, co w jakiś sposób może być rozważane. Jednakże egzystencjaliści biorą ten termin w dosłownym sensie: przedmiotem jest wszystko, co stoi na przeciw ja [Gegenstand ist, was dem Ich gegen übersteht]. Przy takim rozumieniu ja (tzw. egzystencja) nie może być oczywiście żadnym obiektem. Jeżeli jednak rozważamy egzystencję, to jest ona jednak pewnego typu obiektem w pierwotnie fenomenologicznym sensie, gdyż obiektem jest to, o czym mówimy. Gdy mówimy zatem o egzystencji, wtedy staje się ona dla nas przedmiotem. Dodatkowo egzystencjaliści interpretują egzystencję jako coś, co nigdy nie jest gotowe coś, co nie ma żadnego trwałego kształtu, jednocześnie mówią, że obiekt jest czymś uformowanym i dającym się ująć. Również z tego powodu egzystencja nie jest dla nich żadnym “przedmiotem”. Jednakże pierwotna terminologia fenomenologiczna nie determinuje przedmiotu w żaden określony sposób a stąd także egzystencja może być nazwana “przedmiotem”. Jest to zatem właściwie spór o słowa.
(2) Jeżeli egzystencjaliści w trwodze widzą konieczny stan umożliwiający uchwycenie egzystencji, to myślą oczywiście, że ten szczególny przedmiot, którym jestem ja sam (moja egzystencja) odsłania się najlepiej w tego rodzaju sytuacji emocjonalnej. Być może jest to trafne, lecz tym samym nie jest powiedziane, że również właściwa analiza byłaby możliwa w stanie trwogi. Tak na przykład dzieło Sartre'a L’Être et le néant nie zostawia żadnych wątpliwości, że jego autor dokonał tej gigantycznej pracy myślowej w całkowicie kontemplatywnym nastawieniu, zimno i naukowo. Być może trwoga była warunkiem wstępnym tej analizy, z pewnością nie była jednak stanem który podczas pracy badawczej mógł ją wspomagać, raczej odwrotnie, stan trwogi uniemożliwiłby spokojną analizę.
(3) Przedmiotem zalecanej przez egzystencjalistów metody jest ludzka egzystencja, a więc coś całkowicie szczególnego. Sądzą oni, że każdy przedmiot z konieczności znajduje się w relacji do egzystencji i dopiero na bazie jej rozjaśnienia [Erhellung] może zostać filozoficznie pojęty. Jest to jednak teza, która nie jest ogólnie uznana, a w każdym razie nie jest trafna w wypadku nauk przyrodniczych. Nauki te przeprowadziły do dzisiaj skuteczną interpretację przedmiotów bez odnoszenia się do egzystencji, postępując całkowicie obiektywistycznie. Zresztą w dziełach Heideggera i Sartre'a, a więc u dwóch wiodących egzystencjalistów, metoda obiektywistyczna jest wręcz wzorcowo stosowana.
Wyłączenie teorii i tradycji. Reguła “z powrotem do rzeczy samych” wymaga nie tylko wyłączenia subiektywnych postaw lecz również tych wszystkich obiektywności, które w przedmiocie badanym nie są bezpośrednio dane. Do tego należy jednak wszystko, co wiemy dzięki innym źródłom lub też przez wnioskowanie. Powinno się widzieć tylko to, co jest dane, fenomen, i nic poza tym.
(1) Po pierwsze, reguła ta wymaga, aby wyłączone zostały wszystkie teorie, wnioski, hipotezy itd. W ten sposób fenomenologowie nie chcą jednak wyłączyć każdego poznawania pośredniego, dopuszczają je całkowicie, ale dopiero po fenomenologicznym ugruntowaniu. Ugruntowanie to jest absolutnym początkiem; uzasadnia ono m.in. także prawomocność reguł wnioskowania i dlatego w toku badania fenomenologicznego nie można robić żadnego użytku z pośrednich metod poznawania.
(2) Z tym łączy się ściśle wyłączenie tradycji. Nie chodzi przy tym tylko o już przez . Tomasza z Akwinu wyraźnie sformułowaną zasadę, według której powołanie się na ludzki autorytet stanowi najsłabszy argument w ten sposób, że tego, co twierdzą inni, nigdy nie wolno traktować jako pewnej podstawy. Metoda fenomenologiczna wymaga nie tylko ścisłego zastosowania tej tomistycznej zasady, lecz ponadto, aby cały <stan wiedzy> został wyłączony niezależnie, czy był on przez fenomenologa sprawdzony czy nie. Rzeczy same, fenomeny, tak jak się pojawiają przed duchowym okiem badacza, powinny dojść do głosu i nic poza tym.
Praktycznie postulaty te, podobnie jak ścisły obiektywizm, są niezwykle trudne i w całej ich czystości niemożliwe do spełnienia. Oglądanie i wnioskowanie są tak ściśle złączone w ludzkim duchu, że tylko z największym trudem możemy je rozdzielić. Automatycznie wprojektowujemy naszą wcześniej zdobytą wiedzę w przedmiot. Długi i rygorystyczny trening jest konieczny, aby nauczyć się czystego oglądania.
Ilustracją tych reguł niech będą dwa przykłady z praktyki seminaryjnej. Student, który ma fenomenologicznie opisać czerwoną plamę, zaczyna tak: “Widzę czerwoną plamę na tablicy. Plama ta składa się z małych kawałków czerwonej kredy”... To nie jest już jednak fenomenologiczne: o tym, że plama ta składa się z kawałków kredy, student wie, ponieważ przedtem widział, jak profesor namalował ją za pomocą kredy; w samym przedmiocie kreda nie jest w ogóle dana. Inny przykład: student podejmuje następującą analizę poczucia obowiązku “Poczucie obowiązku powstaje w naszej świadomości, leżeli w mózgu dochodzą do skutku pewne skomplikowane procesy fizjologiczne”. Jest to oczywiście fenomenologicznie całkowicie fałszywe: swojego własnego mózgu człowiek ten nigdy nie widział, a tym bardziej fizjologicznych procesów które w nim miałyby mieć miejsce. Fenomen poczucia obowiązku, jako fenomen, nie ma w ogóle nic wspólnego z fizjologicznymi procesami.
Pozytywne reguły oglądu istoty. Można byłoby mniemać, że patrzenie jest tak prostym procesem, iż nie są do niego konieczne żadne szczególne reguły i wystarczy mieć szeroko otwarte oczy ducha, aby poprawnie widzieć przedmiot. Tak jednak nie jest. Wskazaliśmy już na kilka negatywnych reguł postępowania fenomenologicznego: jeżeli badacz nie ma wystarczającego treningu w patrzeniu, a nawet jeżeli tylko dostatecznie nie uważa, aby widzieć tylko to, co się przed nim znajduje, będzie wprojektowywał w przedmiot elementy subiektywne, teorie, tradycyjne poglądy itp. Istnieją jednak również pozytywne reguły tego postępowania. Można je sformułować w następujący sposób.
(1) Wszystko, co jest dane powinno się widzieć tak dalece, jak to jest tylko możliwe. Ta w sobie jasna i prosta reguła musi być dlatego wyraźnie formułowana i świadomie stosowana, ponieważ człowiek jest tak ukształtowany, że posiada silną skłonność, aby widzieć tylko niektóre aspekty z tego, co dane. Uexküll pokazał, że zwierzęta uchwytują tylko to, co jest dla nich witalnie ważne; człowiek ma jednak wiele wspólnego ze zwierzęciem. Tym, co posiada ponad tę wspólnotę, je m.in. zdolność do teoretycznego, nie-praktycznego poznawania. Mimo to jesteśmy zbyt skłonni do pozostawania ślepymi na pewne elementy tego co dane. Pierwszym więc zadaniem badania fenomenologicznego jest odsłonięcie przeoczonych fenomenów.
(2) Dalej, ogląd fenomenologiczny powinien być deskryptywny, opisowy. Znaczy to, że przedmiot powinien zostać rozłożony, a następnie jego części opisane, zanalizowane, gdyż każdy przedmiot jest nieskończenie złożony. Im bardziej jasny jest więc ogląd, tym lepiej elementy przedmiotu dają się odróżnić i zrozumieć w ich wzajemnych relacjach. Taką analizę Heidegger nazywa “interpretacją” [Auslegung] albo “hermeneutyką”. Wyraźnie należy jednak podkreślić, że tego rodzaju fenomenologiczna hermeneutyka albo interpretacja nie może być mieszana z redukcją (którą omówimy dalej w rozdziale 5); tutaj chodzi o poznawanie bezpośrednie tam o pośrednie.
Fenomen. Przedmiot fenomenologicznego oglądu i interpretacji został przez Husserla i jego uczniów nazwany “fenomenem”. Słowo to posiada poza fenomenologicznym także inne, różne znaczenia. Aby uniknąć nieporozumień krótko je teraz omówimy.
(1) “Fenomen” przeciwstawia się “rzeczywistości”: w ten sposób wskazuje się na pewien pozór. Nie ma to jednak nic wspólnego z fenomenologicznym sensem tego słowa. Dla fenomenologów nie ma żadnego znaczenia, czy to, co dane, jest “rzeczywiste” czy też jest “tylko pozorem”. Ważne jest jedynie, że ma to być po prostu dane.
(2) Dalej, fenomen jako zjawisko przeciwstawia się często “rzeczy samej”. W tym sensie rzecz ukazuje się poprzez fenomen, mniej więcej tak jak choroba poprzez gorączkę. Także i o to nie chodzi fenomenologom. “Rzecz sama”, znajdująca się ewentualnie poza fenomenem, wcale ich nie interesuje, chcą oni oglądać tylko fenomen, to co dane.
(3) W naukach przyrodniczych używa się wyrazu “fenomen” dla określenia zmysłowo dających się obserwować procesów. Znaczenie to jest o wiele bardziej wąskie niż te, które fenomenologowie łączą z tym wyrazem, gdyż, po pierwsze, nie jest według nich konieczne, aby fenomen można było zmysłowo obserwować (jak zobaczymy wystarczy, jeżeli fenomen zostanie wyobrażony) i, po drugie, fenomen nie potrzebuje być żadnym procesem; chociaż fenomenolog może również badać procesy, to przede wszystkim bierze on pod uwagę struktury.
Sens słowa fenomen, o który tutaj chodzi, mówiąc słowami Heideggera, jest następujący: to, co ukazuje-się-w-sobie-samym [das Sich-an-sich-selbst-zeigende], to, co się ukazuje, tak się ukazuje, jakie samo jest; to, co jasno się przed nami znajduje.
Wyłączenie istnienia. Wymienione dotychczas wyłączenia (tego, co subiektywne, teoretyczne i tradycji) jeszcze nie wystarczają. Autentyczna metoda fenomenologiczna wymaga również, żeby także istnienie przedmiotu zostało wyłączone. Jest więc obojętne, czy przedmiot istnieje czy nie, jego istnienie w ogóle nie wchodzi w rachubę. Jeżeli np. przeprowadza się analizę fenomenologiczną pewnej czerwonej plamy, to nie ma żadnego znaczenia, czy w świecie w ogóle istnieje czerwona plama czy nie.
W tym leży jedna z podstawowych różnic między metodą fenomenologiczną a empiryczną. W tej ostatniej wychodzi się od stwierdzenia faktów, tzn. stwierdza się najpierw, że faktycznie jest tak a tak. Ustala się np., że ta czy inna ilość wody znajdowała się rzeczywiście w określonym czasie, w określonym miejscu. W przypadku postępowania fenomenologicznego nie mają miejsca żadne tego rodzaju stwierdzenia. Fakty nie mają tu żadnego znaczenia.
Może powstać w tym miejscu wątpliwość: jak wobec tego można jeszcze w fenomenologii mówić o tym, co dane? To, co dane, wydaje się przecież być czymś rzeczywiście istniejącym Należy stwierdzić, że wprawdzie każdy przedmiot musi ostatecznie jakoś istnieć lub przynajmniej być ugruntowany w czymś istniejącym, aby mógł być dany, z tego jednak w żaden sposób nie wynika, że fenomenologia musi się zajmować jego istnieniem. Gdyż nawet wtedy, gdy przedmiot istnieje można abstrahować od jego istnienia i brać pod uwagę tylko jego uposażenie treściowe [Washeit] - tak jak to robią fenomenologowie. Można także rozważać czysto wyobrażone przedmioty
Istota. Właściwym przedmiotem badania fenomenologicznego ma być istota, είδος. Także to słowo posiada wiele znaczeń, które należy teraz krótko przedstawić, aby uchwycić ten szczególny sens, który nadają mu fenomenologowie.
(1) Słowa “istota” używa się zwykle w takich zwrotach jak “człowiek jest istotą śmiertelną”. “Istota” znaczy tu mniej więcej tyle co “rzecz”; oczywiście w tym wypadku raczej “żywa rzecz”. W języku fenomenologów żadna tego rodzaju rzecz. np. żaden człowiek, nie jest określana jako “istota”. “Istotą” nazywa się tutaj tylko aspekty, pewne elementy tego typu rzeczy.
(2) Mówi się także o “istocie pewnej rzeczy”, np. o istocie życia. Także i to nie jest znaczeniem, które temu słowu nadają fenomenologowie. Podczas gdy istota życia jest bardzo trudno dostępna, fenomenologiczna istota pojawia się jasno przed obserwatorem, nie jest żadną “ukrytą istotą”, przeciwnie, jej fenomenem, czymś, co samo się ukazuje.
(3) W końcu należy też odróżnić istotę w sensie fenomenologicznym od arystotelesowskiego είδος. Fenomenologiczne pojęcie istoty jest bardziej obszerne zakresowo. Oprócz είδος w swoim sensie Arystoteles odróżnia także inne, koniecznie z nim współwystępujące określenia. własności (ϊδια). W przeciwieństwie do tego, wszystko, co koniecznie współwystępuje w fenomenie, a więc także arystotelesowskie własności, ujmuje się w fenomenologii terminologicznie jako “istotę”.
Fenomenologiczna istota wyklucza więc dwa rodzaje czynników: istnienie i wszystko to, co przypadkowe. Istotę tę można byłoby określić jako fundamentalną strukturę przedmiotu. Przez “strukturę” nie wolno tutaj jednak rozumieć np. tylko pewnej sieci stosunków, lecz należy tego słowa używać dla określenia całej podstawowej treści przedmiotu, wraz z jego jakościami itd.
Istota a znaczenie słowa. Aby dalej wyjaśnić pojęcie istoty, chcemy teraz krótko przedstawić punkt widzenia empirystów, którzy zaprzeczają istnieniu istoty i pogląd fenomenologów na ten temat.
Według empirystów istota jest względna. To, co z jednego punktu widzenia jest istotne dla pewnej rzeczy, z innego może okazać się nieistotne. Np. w trójkącie wykonanym z drewna ktoś, kto jest zainteresowany jego geometrycznym uposażeniem, uzna tylko własności geometryczne za istotne, powie więc, że dla tego przedmiotu istotne są tylko trzy boki, trzy kąty itd., natomiast fakt, że jest on zrobiony z drewna lub też że jest tyle a tyle centymetrów długi, jest nieistotny, bez znaczenia. Dla innego obserwatora, który interesuje się nie geometrycznymi własnościami, lecz właśnie materiałem, z którego zrobiony jest ten trójkąt, bycie z drewna będzie istotne, a geometryczna forma, trzy boki i trzy kąty, będzie nieistotna. Można byłoby w tym momencie oczywiście zauważyć, że używając słowa “trójkąt” domniemujemy właśnie trójboczną i trójkątną figurę. Zarzut ten nie zbiłby jednak z tropu empirystów, gdyż oni właśnie podkreślają słowo “domniemywać”: jak widać z powyższego przykładu istotą jest dla nich to i tylko to, co domniemujemy używając pewnego słowa; istota nie jest niczym innym niż znaczeniem słowa [Wortbedeutung]. Ponieważ wszystkie znaczenia słów są względne - za pomocą tego samego słowa można oznaczyć bardzo wiele dowolnych przedmiotów - to istota przedmiotu jest pojęciem względnym: to, co jest istotne dla jednego obserwatora może być całkowicie nieistotne dla innego. Wszystko zależy wyłącznie od znaczenia. które dowolnie nadajemy słowom. W samych rzeczach nie istnieje żadna istota, wszystkie aspekty rzeczy są w sobie równowartościowe. Dopiero człowiek przez swoje konwencje wprowadza różnice między tym, co istotne, a tym, co nieistotne, a to w ten sposób, że przypisuje słowom znaczenia.
Ta droga myślowa jest jednak przez fenomenologów odrzucana jako niezadowalająca. Należy wprawdzie przyznać, że znaczenie słowa jest względne i prawdą jest również, że w tej samej rzeczy możemy ująć i analizować raz jeden aspekt np. geometryczną formę - a innym razem inny - np. materiał, ale właśnie te aspekty są według fenomenologów “przedmiotami”, np. bycie z drewna jest tego rodzaju przedmiotem. Przedmiot ten, całkowicie niezależnie od nazwy, którą mu nadajemy, posiada pewne konieczne własności. Tak np. każda rzecz, która jest wykonana z drewna, jest także przestrzenna i rozciągła. Jest tak nie dlatego, że nazywamy ją “drewnianą” lecz dlatego że sama w sobie jest tak ukonstytuowana. Gdybyśmy zamiast “drewno” powiedzieli “duch”, to ta nowa nazwa przedmiotu nie zmieniłaby absolutnie nic w jego strukturze: pozostałby on nadal materialny i rozciągły. W wypadku drewna przeciwnie, geometryczna forma jest nieistotna i to niezależnie od tego, jak je nazywamy, podczas gdy w trójkącie (tzn. w tym, co normalnie nazywamy “trójkątem”) forma ta jest istotna. Względność możliwych punktów widzenia nie polega zatem na niczym innym niż na możliwości wzięcia pod uwagę różnych przedmiotów i nie ma nic wspólnego z naszym problemem. Tak samo bez znaczenia jest w tym kontekście relatywność znaczeń słów.
Fenomenologia egzystencji. Po tym, co dotychczas powiedzieliśmy, może wydać się dziwne, że większość nam współczesnych uczniów Husserla zajmuje się właśnie problemem egzystencji. W każdym razie słowo “egzystencja” ma u egzystencjalistów, do których należą ci uczniowie Husserla, węższe znaczenie niż u innych filozofów, znaczy ono tylko ludzką egzystencję. Ale egzystencja ta jest całkowicie wyraźnie ujęta jako Dasein, a więc, pozornie przy odwróceniu postępowania Husserla, jej uposażenie treściowe [Sosein], jej istota zostają wyłączone z analiz. Tak przynajmniej twierdzą ci filozofowie. Jeżeli się jednak bliżej przyjrzymy ich faktycznemu postępowaniu, wtedy okazuje się, że w zasadzie nie porzucili oni prawie stanowiska Husserla. Stwierdzamy mianowicie, co następuje:
(1) Egzystencjaliści analizują to, co dane, fenomen, i z zasady chcą wyłączyć ze swoich badań poznawanie pośrednie. Nie mówią wprawdzie, że ich metoda polega na oglądzie, ale ponieważ dzięki postawie emocjonalnej poznanie może być co najwyżej przygotowane, natomiast nie może dojść do skutku, to duchowy akt, który ostatecznie ma miejsce, musi być pewnym rodzajem oglądu, jakkolwiek by się go nazwało.
(2) Przedmiot ich badań, a więc wymieniona wyżej egzystencja, został opisany i, w rzetelnie fenomenologicznym sensie, zinterpretowany. Heidegger, jak to zostało powiedziane, dał najlepszą teoretyczną ilustrację tego rodzaju interpretacji, główne dzieło Sartre’a nosi podtytuł Próba ontologii fenomenologicznej3, a Marcel napisał Fenomenologię posiadania4. Faktycznie więc filozofowie ci stosują metodę fenomenologicznej analizy do przedmiotów swoich badań.
(3) Analiza ta zawsze pokazuje, że egzystencja posiada, jak mówią ci filozofowie, “strukturę”. Heidegger wprowadził nawet osobną nazwę dla elementów tej struktury, nazywa je elementami egzystencjalnymi - “Existentiale”. W ogóle rozważania nad egzystencją zajmują u egzystencjalistów dużo miejsca.
(4) Chociaż twierdzą oni zawsze, że analizują, aby użyć sformułowania Heideggera, tylko to, co każdorazowo moje [je-meinige], to, co ma miejsce tylko raz, to jednak jest oczywiste, że to, co sądzą, że odkryli, przysługuje każdej ludzkiej egzystencji. Nie jest to po prostu struktura, lecz konieczna struktura tej egzystencji.
Osiągnięcie egzystencjalistów polega więc na wykazaniu, że w samej egzystencji można odnaleźć pewną istotę. Znaczący współczesny filozof sformułował to pewnego razu w ten sposób, że egzystencjaliści są ekstremalnym przykładem filozofów esencjalnych. W każdym bądź razie ich sposób traktowania ludzkiej egzystencji pozostaje całkowicie w ramach metody fenomenologicznej .
O nowszej i “głębszej” fenomenologii. Już sam Husserl, a tym bardziej wielu spośród jego następców interesowało się tzw.. “konstytucją” przedmiotu. Próbowali oni badać, jeżeli wolno się tak wyrazić, przed-przedmiotowe przedmioty. W większości wypadków chodzi tutaj o wykazanie, że człowiek w ten lub inny sposób wytwarza swoje przedmioty, i o wyjaśnienie, jak on to czyni. Jednocześnie dość znaczna część tych myślicieli zaczęła używać metod, które nie miały nic wspólnego z wczesnohusserlowskim prostym oglądem. Z tego punktu widzenia wszystko, co tutaj zostało powiedziane, uznane byłoby za elementarne, a być może nawet za przedfilozoficzne, przedfenomenologiczne.
Jest to jednak całkiem szczególnego rodzaju postawa, chociaż wśród filozofów w kontynentalnej Europie szeroko rozpowszechniona. Żadna rzetelna nauka szczegółowa, a także żaden filozof, który nie należy do tej szkoły, nie będzie w stanie zaakceptować tej metody albo też nie będzie mógł jej używać. Tutaj chodzi nam o ogólne metody myślenia i tym samym nie potrzebujemy dalej rozważać problemów postawionych przez nową fenomenologię
Metodologiczne uwagi wstępne. W dalszym ciągu rozważań usprawiedliwimy jeszcze włączenie tego rozdziału o języku w przedstawienie dzisiejszych metod myślenia. Najpierw jednak krótko dwie uwagi metodologiczne.
Można byłoby zapytać, dlaczego rozważenie problemów językowych następuje zaraz po przedstawieniu metody fenomenologicznej. Powód leży w tym, że chociaż analiza języka nie jest bez znaczenia dla bezpośredniego poznawania, to jest ona o wiele ważniejsza dla poznawania pośredniego, gdyż tutaj przedmiot nie jest dany, a ruch myślenia jest o wiele bardziej skomplikowany i posłużenie się symbolami jest o wiele bardziej konieczne. Jak jeszcze zobaczymy, dochodzi się przy tym do procedur, w których użycie języka jest absolutnie konieczne. Dlatego metody semiotyczne mogą być omawiane dopiero po fenomenologicznych, natomiast muszą być omówione przed innymi metodami.
Innym, o wiele bardziej trudnym pytaniem jest, jak powinno się oddzielić dziedzinę semiotyczną od dedukcyjnej. Według pewnych szkół filozoficznych, przede wszystkim logiczno-empirystycznej, logika i analiza języka są tym samym. Jeżeli się nawet nie podziela tego krańcowego punktu widzenia, to i tak często nie jest łatwo odróżnić obie te dziedziny. Już Arystoteles włączył semiotykę (pierwsze pięć rozdziałów rozprawy O zdaniu) do swojej logiki. W każdym razie z metodologicznego punktu widzenia, pomijając całkowicie każdorazowe zasadnicze stanowisko filozoficzne, odróżnienie obu tych dziedzin będzie zawsze dość dowolne i do pewnego stopnia względne. Tutaj odróżnienie to ustanowimy w następujący sposób: wszystko, co dotyczy poprawności zdań [Aussage], będzie omawiane w rozdziale o dedukcji, wszystko zaś, co dotyczy sensu wyrażeń, w rozdziale semiotycznym.
Historyczne uwagi wstępne. Już sofiści (Kratylos i inni), a także Platon, poruszali okolicznościowo problemy semiotyczne. Jako pierwszy w systematyczny sposób rozważał je Arystoteles. Jego dzieło O zdaniu zawiera m.in. pierwszy znany system kategorii syntaktycznych. Znaczący postęp dokonał się w semiotyce dzięki stoikom i scholastykom, u tych ostatnich przede wszystkim w ich “Grammaticae speculativae”. Z wyjątkiem niewielu fragmentów dzieła stoików niestety zaginęły, a semiotyka scholastyczna pozostała do dzisiaj prawie nie zbadana. Tzw. czasy “nowożytne” zapisały się tylko niewielkim postępem w tej dziedzinie i dopiero rozwój logiki matematycznej spowodował nowe tego rodzaju badania. Husserl (który wprawdzie nie był logikiem matematycznym) przeprowadził w Logische Untersuchungen doniosłe analizy semiotyczne, podczas gdy G. Frege zrekonstruował i częściowo rozszerzył dorobek myślowy starej szkoły stoickiej. Nowsze badania nawiązują przede wszystkim do metamatematyki D. Hilberta. Najbardziej znaczącymi badaczami w tej dziedzinie są dzisiaj A. Tarski (1935) i R. Carnap (1937). Nazwa “semiotyka”, jak również ogólny podział tej nauki pochodzi od Ch. Morrisa (1938). Dzisiaj semiotyka jest aktywnie uprawiana i dalej rozwijana, częściowo dzięki bodźcom płynącym z innych nauk - przede wszystkim z fizyki - które domagają się o wiele bardziej dokładnej analizy języka niż dotychczas. Także ogólne nastawienie szkoły logiczno-empirystycznej, która analizę języka traktuje jako jedyny przedmiot filozofii, istotnie przyczyniło się do rozwoju semiotyki.
Ogólne uprawomocnienie analizy języka. Znaki, a więc przedmiot semiotyki, stały się z wielu powodów ważne, a nawet konieczne dla metody naukowej.
(1) Nauka jest dziełem pewnej wspólnoty, może dojść do skutku tylko dzięki trwającej w czasie współpracy wielu ludzi. Współpraca ta wymaga jednak dzielenia się wiedzą, które realizuje się poprzez znaki, szczególnie przez mówione i pisane słowa. Słowa nie są więc tylko czymś ubocznym, lecz są istotnym narzędziem nauki.
(2) Słowa są materialnymi, materiałowymi rzeczami lub zdarzeniami. Jeżeli za ich pomocą uda się jasno przedstawić pojęcia, to - abstrahując nawet od czynnika społecznego - praca naukowca zostaje znacznie ułatwiona. Ludzki duch jest bowiem tak ukształtowany, że najłatwiej pracuje mu się za pomocą rzeczy materialnych, ujmuje je najlepiej. Pomyślmy tylko o liczeniu: może być ono całkiem dobrze przeprowadzone jako “liczenie w pamięci”, ale o ile prostsze i pewniejsze będzie przy użyciu znaków pisanych.
(3) Jest także w końcu trzeci powód, dlaczego słowa są tak ważne dla wiedzy. Wyrażanie myśli za pomocą słów jest pewnego rodzaju dziełem sztuki. Ogólnie znaną rzeczą jest, że wprawdzie normalnie artysta w trakcie tworzenia prowadzony jest przez ideę, to jednak zwykle idea ta nie jest adekwatna do gotowego dzieła. W czasie materialnego tworzenia zostaje ona rozbudowana i sprecyzowana. Tak też dzieje się często w wypadku słownego wyrazu: pojęcie, które ma być zakomunikowane za pomocą słów, uzyskuje kompletność i precyzję dopiero w procesie wyrażania go. Pomijamy w tej chwili, że słowa są nie tylko wehikułem dla pojęć, lecz również mogą mieć samodzielną funkcję. Już jednak jako sam środek wyrazu posiadają oczywiście najwyższą doniosłość.
Jeżeli słowa są niezbędne dla wiedzy, to z drugiej strony mogą być dla niej niebezpieczne; prowadzą łatwo do nieporozumień nie tylko między ludźmi, lecz także w wypadku samotnej pracy: bierze się słowo za adekwatny wyraz pojęcia, a tak często nie jest, lub też kryje ono w swoim znaczeniu coś, co sprowadza badanie na fałszywe drogi.
Trzy wymiary znaku. Główną myśl semiotyki, która jednocześnie stanowi podstawę dla jej podziału, można przedstawić następująco. Jeżeli ktoś mówi coś komuś innemu, wtedy każde użyte przez niego słowo odnosi się do trzech różnych przedmiotów:
(a) Przede wszystkim słowo to należy do pewnego języka, a to oznacza, że znajduje się ono w pewnych stosunkach z innymi słowami tego języka, np. w zdaniu znajduje się między dwoma innymi słowami (tak jak w wypadku słowa “i”), albo na początku zdania itd. Stosunki te określa się jako syntaktyczne, są to wzajemne stosunki między słowami.
(b) Po drugie to, co ktoś mówi, posiada pewne znaczenie: jego słowa znaczą coś, chcą one zakomunikować komuś drugiemu coś określonego. Poza syntaktycznym stosunkiem mamy więc jeszcze do czynienia z innym, mianowicie ze stosunkiem słowa do tego, do czego ono odnosi. Ten stosunek nazywa się semantycznym.
(c) W końcu słowo jest wypowiedziane przez kogoś i do kogoś skierowane. Istnieje zatem trzeci rodzaj stosunków, mianowicie między słowem a ludźmi, którzy go używają. Stosunki te nazywają się pragmatycznymi.
Te różne stosunki słów wchodzą jeszcze we wzajemne, określone relacje. Stosunek pragmatyczny zakłada semantyczny i syntaktyczny, a semantyczny zakłada syntaktyczny. Bezsensowne słowo nie może służyć porozumiewaniu się ludzi, a aby mieć sens musi się ono znajdować w pewnych określonych stosunkach do innych słów. W przeciwieństwie do tego relacja syntaktyczna nie zakłada semantycznej i pragmatycznej, a relacja semantyczna daje się badać bez brania pod uwagę pragmatycznej. Także dla zupełnie bezsensownego języka można zbudować zupełną syntaksę. Moglibyśmy np. utworzyć pewien prosty język, w którym istniałyby tylko znaki P i x, i jako syntaktyczna reguła obowiązywałoby, że P znajduje się zawsze przed x; nie byłoby przy tym żadnej potrzeby wiedzieć, co znaczy P albo x.
Relacje między trzema rodzajami stosunków semiotycznych podobne są do tych między trzema wymiarami bryły geometrycznej. Cały fenomen słowa jest jak trójwymiarowa bryła, tylko przez abstrakcję możemy z niego oddzielić albo dwa pierwsze rodzaje stosunków (syntaktyczne i semantyczne), albo tylko jeden rodzaj (syntaktyczne), dokładnie tak samo jak w geometrii możemy wyabstrahować z bryły bądź płaszczyznę, bądź linię prostą. Porównanie to najlepiej wyjaśnia wyżej zamieszczony rysunek.
Semiotyczne pojęcie słowa. Na początku tych uwag trzeba specjalnie zwrócić uwagę, że słowo, o którym mówi się w semiotyce, jest słowem materialnym, tzn. w wypadku gdy chodzi o słowa mówione, jest to grupa fal dźwiękowych, w wypadku zaś słów pisanych rząd małych plamek suchego atramentu na papierze. Fakt, że słowo należy wziąć właśnie w takim sensie, wynika już jasno z tego, że jest ono przeciwstawione swojemu znaczeniu. Uwaga ta jest dlatego ważna, że w języku potocznym używa się wyrażenia “słowo” w pewnym innym sensie.
Ważną konsekwencją takiego ujęcia jest to, że nigdy nie możemy użyć tego samego słowa w jednej wypowiedzi, a cóż dopiero w wielu wypowiedziach. Weźmy np. proste zdanie identycznościowe “a jest a”. Zgodnie z semiotycznym ujęciem mamy tu pewien rząd plamek suchego atramentu. Plamki atramentu, które na początku zdania czytamy jako “a”, nie są w żadnym wypadku identyczne z tymi, które stoją na końcu tego zdania, ponieważ za każdym razem chodzi o dwie różne plamki, które są umieszczone w różnych miejscach na papierze, co przy jednej i tej samej rzeczy nigdy nie jest możliwe. Jeżeli w języku potocznym mówi się “to samo słowo”, to ma się na myśli “dwa słowa, które mają mniej więcej tę samą formę i to samo znaczenie”. W semiotyce natomiast mówi się w tym wypadku o dwóch słowach o tej samej formie. Nie znaczy to, że forma obu słów jest identyczna, wystarczy wziąć je pod silne szkło powiększające, aby stwierdzić, że identyczność formy nie ma miejsca. Chodzi mianowicie o to, że ich ogólna struktura graficzna jest taka sama.
Niektórzy fenomenologowie (Ingarden) przeciwstawiają semiotycznie rozumianemu słowu “brzmienie słowa” [Wortlaut], a więc dokładnie tę wspólną strukturę, którą posiadają słowa o takiej samej formie w sensie semiotycznym. Techniczny rozwój semiotyki wymaga rzeczywiście, aby mówić o tego rodzaju “brzmieniach słów”, ułatwia to bowiem badania. Należy być jednak świadomym, że brzmienie słowa jest czymś ogólnym, a więc czymś, co istnieje tylko w indywiduach, tzn. w słowach w sensie semiotycznym. Nie jest ono jakąś rzeczą, lecz własnością rzeczy, a mianowicie materialnie (semiotycznie) rozumianego znaku.
Orientacja wstępna. Jedną z najważniejszych zdobyczy nowożytnej metodologii jest zrozumienie, że operowanie językiem na poziomie syntaktycznym może znacznie ułatwić pracę myślową. Tego rodzaju operowanie nazywa się “formalizmem”. Polega on na tym, że pomija się jakiekolwiek znaczenie używanych znaków i bierze się pod uwagę wyłącznie ich formę graficzną. Jeżeli w tym sensie pewien język zostanie formalistycznie zbudowany, wtedy nazywa się go “językiem sformalizowanym”, niekiedy mówi się krótko o “formalizmie”, lecz to sformułowanie prowadzi do błędów, bardziej odpowiednie jest używanie słowa “formalizm” tylko dla określenia metody.
Stosując formalizm jasno odróżnia się dwie rzeczy. Z jednej strony mamy sam język z jego czysto syntaktycznymi regułami, tzn. z regułami, które odnoszą się wyłącznie do materialnej formy znaków, ale nigdy do ich znaczenia; z drugiej strony - przynajmniej w większości wypadków - treściową interpretację tego języka, tzn. jakieś przyporządkowanie znaczeń znakom. Sam język i jego interpretacja są w pewnej mierze niezależne od siebie. Wprawdzie jakaś syntaksa musi już istnieć, zanim przystąpi się do interpretacji, lecz nie odwrotnie, gdyż łatwo można skonstruować język nie interpretując go w żaden sposób. Taki język nazywa się “formalistycznym” albo “abstrakcyjnym”. Temu samemu językowi sformalizowanemu można zwykle dać różne interpretacje.
Interpretacja języka jest sprawą semantyki, a nie syntaksy. Zagadnienie to omówimy później. Jeśli chodzi o syntaksę, a więc o język sformalizowany, to aby go skonstruować musimy rozwiązać najpierw dwa problemy: (a) po pierwsze, musimy przyjąć reguły, które w każdym wypadku pozwolą jednoznacznie stwierdzić, które znaki tego języka są dopuszczalne, tzn. “sensowne”; (b) po drugie, muszą także zostać ustanowione reguły określające, które zdania - jeżeli w ogóle język ten zawiera zdania - są poprawne. To drugie zadanie tradycyjnie przypisuje się logice formalnej; także w tym wypadku związane z nim problemy omówimy dopiero w czwartym rozdziale. W pierwszym zadaniu dadzą się odróżnić trzy grupy problemów: ta, która dotyczy formalizmu w ogóle, ta, która odnosi się do syntaktycznego sensu prostego wyrażenia, i ta, która odnosi się do syntaktycznego sensu wyrażeń złożonych. Pierwszą grupę problemów omówimy krótko zaraz, dwie pozostałe w dwóch następnych paragrafach.
Liczenie. Istotą formalizmu jest rozszerzenie zastosowania metody znanej już od stuleci, a mianowicie metody liczenia. Dlatego celowe będzie najpierw krótkie rozważenie struktury zwykłego, tzn. arytmetycznego i algebraicznego liczenia, tak jak się go uczy w szkołach.
(1) Prosta operacja arytmetyczna np. mnożenie, wydaje się z istoty polegać na tym, że rozkładamy problem na poszczególne części i rozwiązujemy każdą część osobno. Aby np. w “pamięci” pomnożyć 27x35 postępujemy w następujący sposób: najpierw mnożymy 20x30, potem 7x5 itd. O żadnym formalizmie wydaje się tutaj nie być mowy. Jeżeli jednak zaczniemy mnożyć pisemnie, to zwykle zapisujemy poszczególne rezultaty w określonym porządku, np.:
27 x 35
135
81__
945
Gdyby .nas zapytano, dlaczego w drugim wierszu zapisaliśmy 1 o jedno miejsce dalej na lewo, a nie pod 5 pierwszego wiersza, to po pewnym zastanowieniu odpowiedzielibyśmy: ponieważ 1 należy do kolumny dziesiątek i jej miejsce jest pod kolumną dziesiątek cyfry znajdującej się wyżej. W samym akcie liczenia nie przeprowadzamy jednak tego rozważania, lecz po prostu stosujemy regułę syntaktyczną, zgodnie z którą każde poszczególne mnożenie (a więc każdy nowy wiersz cyfr) należy przesunąć o jedno miejsce dalej na lewo. Aby poprawnie liczyć, nie potrzebujemy wiedzieć, dlaczego tak właśnie powinniśmy postępować, wystarczy całkowicie, gdy znamy odpowiednią regułę syntaktyczną (oczywiście także jeszcze kilka innych).
(2) Rozważmy teraz inny przykład, tym razem z algebry. Niech to będzie równanie:
ax2+bx+c=0
Aby znaleźć formułę potrzebną do rozwiązania tego równania, zaczynamy od “przeniesienia” c na prawą stronę, opatrując je przeciwnym znakiem:
ax2+bx= -c
Także tutaj łatwo moglibyśmy podać treściowe uzasadnienie tego “przeniesienia”, faktycznie jednak wcale się o to nie troszczymy, lecz postępujemy po prostu według reguły syntaktycznej: “każdy człon jednej strony równania wolno przenieść na drugą stronę, ale w takim wypadku musi on otrzymać przeciwny znak, a więc «-» zamiast «+» albo odwrotnie”. Jeżeli mamy do czynienia z nieco bardziej skomplikowanymi obliczeniami, wtedy musimy się ograniczyć do samych reguł syntaktycznych, gdyż nasza pojemność myślowa po prostu nie wystarcza, aby w tym samym czasie myśleć jeszcze o treściowym uzasadnieniu reguł.
Swojej relatywnej pewności liczenie nie zawdzięcza faktowi, iż dokonuje się za pomocą liczb, lecz formalizmowi. Jest ono zastosowaniem formalizmu do języka liczb.
Zastosowanie liczenia do przedmiotów nie-matematycznych. Tę samą metodę można także łatwo zastosować w innych dziedzinach, które w ogóle z liczbami nie mają nic wspólnego. Wybieramy przykład z arystotelesowskiej sylogistyki. W sylogistyce tej, jak wiadomo, można dokonać <konwersji> na negatywnym zdaniu ogólnym, np. zdanie negatywne “Żaden człowiek nie jest kamieniem” wolno przekształcić w zdanie “Żaden kamień nie jest człowiekiem”. W logice klasycznej tego rodzaju zdanie zwykło się przedstawiać za pomocą układu znaków SeP, gdzie S reprezentuje podmiot, P predykat, a litera e (z łacińskiego nEgo) wskazuje, że chodzi o ogólne zdanie negatywne. Jeżeli nasze zdanie zapiszemy w tej formie, to łatwo jest skonstruować czysto syntaktyczną regułę, która dokładnie odpowiada zasadzie konwersji dla tego typu zdań. Mówimy zatem: “W każdej formule typu XeY litery znajdujące się obok e mogą być zamienione miejscami”. Jeżeli raz ustanowimy taką regułę, wtedy okazuje się, że np. tzw. redukcja Cesare do Celarent jest przeprowadzalna czysto rachunkowo. Celarent ma mianowicie następującą formę
MeP (przesłanka większa)
SaM (przesłanka mniejsza)
SeP (wniosek)
Możemy bez trudu zastosować naszą regułę do (1) i wtedy otrzymujemy
PeM
SaM
SeP
a więc właśnie Cesare.
Można oczywiście wątpić, czy celowe jest zastosowanie tej metody do tak prostych pytań. Nasz przykład pokazuje jednak, że liczenie - w formalistycznym sensie - jest stosowalne poza matematyką, że może być używane w dziedzinach pozamatematycznych.
Sens ejdetyczny i operacyjny. Z naszych rozważań wynika, że znak może mieć dwojaki sens, tzw. ejdetyczny i tzw. operacyjny. Znak posiada sens ejdetyczny wtedy, gdy znamy jego semantyczny odpowiednik [Gegenstuck], tzn. jeżeli wiemy, co on oznacza czy też co on znaczy. Czysto operacyjny sens znak posiada wtedy, gdy wiemy tylko, jak można go używać, tzn. jeżeli znamy obowiązujące go reguły syntaktyczne. Nie wiemy wtedy, co znak ten znaczy, natomiast wiemy, jak możemy nim operować. Stosunek między tymi sensami znaku jest prosty: jeżeli dany jest sens ejdetyczny, wtedy zawsze obecny jest sens operacyjny, ale nie odwrotnie. Jak widzieliśmy, można do znaku dołączyć sens operacyjny, nie dając mu przy tym żadnego sensu ejdetycznego.
Aby zapobiec nieporozumieniom, trzeba podkreślić, że operacja, o której tutaj mówimy, jest operacją na znakach, a więc liczeniem, nie jest to operacja na rzeczach. Znając operacyjny sens znaku, nie wiemy jeszcze zupełnie, jak należy traktować odpowiadające mu rzeczy, gdyż do tego musielibyśmy znać sens ejdetyczny. Nie byłoby np. poprawne powiedzenie, że formuły współczesnej teorii dotyczącej struktury materii mają tylko sens operacyjny, gdyż dzięki nim wiemy jedynie, jak wytwarzać bomby atomowe itd. Jest raczej tak, że aby wyprodukować bombę atomową, musimy ejdetycznie rozumieć znaki występujące w tych formułach, rozumieć ich znaczenie. Gdyby miały one tylko operacyjny sens, nie bylibyśmy w stanie z nimi zrobić nic innego, jak tylko rachować.
W dzisiejszej filozofii istnieją dwa skrajne stanowiska: z jednej strony chce się ograniczyć wiedzę ludzką do sensu ejdetycznego z drugiej wyłącznie do operacyjnego. W pierwszym wypadku dąży się do wykluczenia jakiegokolwiek formalizmu, albo w każdym razie odrzuca się systemy, które nie mogą być w pełni zinterpretowane. W drugim, twierdzi się, że w ogóle nie istnieje żaden sens ejdetyczny, mamy tylko do dyspozycji sens operacyjny. Oba poglądy są jednak błędne. Jest oczywiste, że w pewnych wypadkach istnieje ejdetyczny sens znaków. Z drugiej strony wydaje się, że w matematyce, fizyce. astronomii itd. istnieją elementy, którym nie jesteśmy w stanie przypisać sensu ejdetycznego, chociaż wzięte w całości prowadzą one znowu do ejdetycznie dających się zinterpretować rezultatów.
Model. Z powyższym łączy się kwestia wielokrotnie rozważana w ostatnich dziesięcioleciach, a mianowicie problem modelu. Zwykło się mówić, że gdy starsze teorie fizykalne miały model, to model taki nie istnieje już dla wielu nowszych teorii. Przy tym przez “model” rozumie się fizyczną, zasadniczo obserwowalną przez nieuzbrojone oko strukturę, mającą tę samą formę, co stan rzeczy reprezentowany w zdaniu naukowym (teorii itd.). Tak np. istnieje model dla teorii atomu Bohra: składa się on z kuli, wokół której w określonych odstępach krążą mniejsze kule. Oczywiście tego rodzaju model nie zawsze może być zbudowany, może on jednak być przynajmniej “pomyślany”, tzn. wyobrażony. Jeżeli zatem mówi się, że dla współczesnych teorii fizykalnych nie istnieje żaden model, to znaczy to, że żadnej tego typu struktury nie można sobie wyobrazić.
To jednak prowadzi - przynajmniej w większości wypadków - do twierdzenia, że zdanie naukowe (teoria itd.) nie posiada żadnego sensu ejdetycznego, a tylko operacyjny. Mówimy “w większości wypadków”, gdyż zasadniczo możliwa jest trzecia, pośrednia sytuacja, w której dane zdanie ma sens ejdetyczny, przy czym jednak odpowiada mu struktura dająca zobaczyć się tylko intelektualnie, a nie zmysłowo (obrazowo). I tak np. nie ma żadnych wątpliwości, że pewne zdania fenomenologii i wszystkie zdania ontologii są właśnie tego rodzaju: mają nie tylko operacyjny, lecz również ejdetyczny sens, chociaż tego, do czego odnoszą, nie da się obrazowo przedstawić. Jeżeli jednak chodzi o teorie z nauk przyrodniczych nie posiadające modelu, to w większości wypadków nie mają one żadnego sensu ejdetycznego.
Stąd przejście w pewnej nauce od teorii z modelami do teorii bez modelu oznacza, w większości wypadków, rozszerzone zastosowanie formalizmu. Jak wiadomo, dotyczy to wielu dziedzin współczesnej nauki.
Istota formalizmu. Formalizm jest więc metodą polegającą na całkowitym pominięciu ejdetycznego sensu znaków i operowaniu nimi w oparciu o określone reguły transformacji, biorące pod uwagę tylko graficzny kształt znaków. Traktuje się je, jakby nie były żadnymi znakami, lecz np. figurami w jakiejś grze, elementami, które na różne sposoby dają się kombinować i przestawiać. Dlatego ktoś kiedyś dowcipnie powiedział, że ten, kto posługuje się formalizmem, nie wie, co mówi i czy to, co mówi, jest prawdą. W tym miejscu należy jednak zrobić następujące uwagi.
(1) Celem liczenia, a więc celem formalizmu, jest zawsze jakaś wiedza. System formalistyczny wypełnia tylko wtedy swoje zadanie, jeżeli jego rezultaty dadzą się ostatecznie zinterpretować ejdetycznie. Nauka nie jest grą. W naszej wiedzy nie zawsze jednak osiągamy co, niekiedy musimy się ograniczyć do jak.
(2) Reguły operacji formalistycznych muszą być ejdetycznie sensowne, reguły te mówią bowiem, co powinniśmy robić, musimy zatem być w stanie je rozumieć. Z tego wynika, że żaden system nie da się w pełni sformalizować, przynajmniej jego reguły nie mogą być ostatecznie sformalizowane. Można wprawdzie reguły pewnego systemu, powiedzmy systemu A, sformalizować w innym systemie, nazwijmy go systemem B, lecz system B domaga się znowu sensownych reguł. Można je wprawdzie ponownie sformalizować w jakimś innym systemie C, ale w końcu musimy się gdzieś zatrzymać i posłużyć nie sformalizowanymi regułami. Ponadto już same reguły dotyczące A, w wypadku gdy chcemy rozbudować A, muszą mieć dla nas sens ejdetyczny, gdyż inaczej nie posunęlibyśmy się dalej w naszym liczeniu.
(3) W praktyce przy budowie systemów sformalizowanych prawie zawsze postępuje się w ten sposób, że najpierw ustanawia się sensowne znaki, potem dopiero abstrahuje się od ich sensu i konstruuje się system formalistycznie, aby w końcu gotowemu systemowi ponownie dać jakąś interpretację.
(4) To, co powiedzieliśmy, obowiązuje szczególnie w logice. Chociaż nauka mająca wyłącznie sens syntaktyczny nie byłaby niemożliwa, to jednak w wypadku logiki nie jest to możliwe. Logika ma bowiem dostarczyć reguł wnioskowania dla każdego pośredniego myślenia i gdyby jej reguły nie były ejdetycznie sensowne, wtedy żadne wnioskowanie nie mogłoby dojść do skutku. Z tego powodu systemów, które nie dopuszczają żadnej znanej interpretacji ejdetycznej, większość współczesnych logików nie uważa za logikę.
Uprawomocnienie formalizmu. Następujące racje uzasadniają zastosowanie metody formalistycznej:
(1) W skomplikowanych sytuacjach nasz wgląd ejdetyczny w przedmiot bardzo szybko się załamuje. Możemy bezpośrednio i bez trudu dojrzeć, że 2 x 3 = 6, lecz tylko niewielu ludzi potrafi tak samo łatwo i szybko zobaczyć, że 1952 x 78,788 = 153 794,176. Możemy również bezpośrednio dojrzeć, że negacją zdania “pada” jest zdanie “nie pada”, ale nie jest tak samo łatwo zrozumieć negację znanego twierdzenia Euklidesa, zgodnie z którym przez punkt leżący poza linią prostą można poprowadzić jedną i tylko jedną prostą do niej równoległą. To samo dotyczy wszystkich bardziej skomplikowanych dróg myślowych, także tych, które znajdują się u filozofów. Geniusz wielkich filozofów uchronił ich, bez używania formalizmu, od popełnienia błędów, lecz, patrząc całościowo, mętność zbyt często występująca w filozofii jest do pewnego stopnia wynikiem braku adekwatnych metod formalistycznych.
(2) Ponieważ w systemie formalistycznym wszystkie reguły odnoszą się wyłącznie do graficznego kształtu znaków, stąd niemożliwe jest tutaj konstruowanie dowodu za pomocą nie sformułowanych reguł i aksjomatów. Jak wiadomo, nie sformułowane założenia są bardzo niebezpieczne, mogą łatwo okazać się fałszywe, i ponieważ nie są wyraźnie sformułowane, nie dają się racjonalnie przebadać. Formalizm przyczynia się więc istotnie do wyeliminowania tego typu milczących założeń.
(3) W ten sposób osiąga się jeszcze coś. W systemie aksjomatycznym zbudowanym formalistycznie wszystkie konsekwencje dają się stosunkowo łatwo wyprowadzić z wybranych aksjomatów i wyraźnie od siebie oddzielić. Przy tym często okazuje się, że zastosowane pojęcia zostają dokładniej zdeterminowane w porównaniu z początkiem tego postępowania. Formalizm jest zatem powołany do oddzielania i wyjaśniania pojęć.
(4) Zastosowanie formalizmu prowadzi jeszcze do następującej możliwości. Jeżeli pewien system zostanie czysto formalistycznie zbudowany, wtedy często na końcu okazuje się, że dopuszcza on wiele interpretacji i w ten sposób za jednym zamachem rozwiązuje się wiele problemów. Przykładu dostarcza znana zasada dualności geometrii euklidesowej. Z obowiązującego tu zdania: “Dwa dowolne punkty wyznaczają pewną prostą” da się (dołączywszy dalsze aksjomaty i odpowiednio dopasowane reguły) wyprowadzić wiele dalszych zdań geometrycznych. Zdanie to możemy teraz sformalizować w następujący sposób: “Dwa dowolne A wyznaczają pewne B”, przy czym znaczenie “A” i “B” powinno pozostać nieokreślone (wszystkie inne wyrazy występujące w tym zdaniu mogą być zinterpretowane tylko jako stałe logiczne). Teraz okazuje się jednak, że są tu możliwe dwie interpretacje: (1) można “A” przypisać znaczenie “punkt”, a “B” znaczenie “prosta” i (2) odwrotnie, “A” znaczenie “prosta”, a “B” znaczenie “punkt”. Widać mianowicie, że także zdanie powstałe w wyniku interpretacji (2) jest prawdziwe: również dwie proste równoległe wyznaczają pewien punkt w nieskończonej odległości. W ten sposób powstaje cały system zdań wyprowadzalnych z tego (sformalizowanego) zdania, a my otrzymaliśmy z jednej formuły dwie zasady geometrii. Podobne wypadki mają miejsce również w innych dziedzinach nauki.
W ten sposób przedstawiliśmy zasadnicze racje dla stosowania formalizmu. Nie można jednak przeoczyć pewnych łączących się z nim niebezpieczeństw. Przede wszystkim nie można dążyć do formalizacji przedwcześnie, najpierw musi być całkowicie wyjaśniony wchodzący w rachubę stan rzeczy. Dalej, trzeba być świadomym, że system formalistyczny jest zawsze bardzo abstrakcyjny i nie wolno go stawiać na równi z rzeczywistością. Stąd nigdy właściwie nie powinno się używać formalizmu jako jedynej metody, lecz łączyć go z innymi metodami.
Sztuczny język. Użycie sztucznego języka należy ostro oddzielić od formalizmu. Zasadniczo również <naturalny> (codzienny) język mógłby zostać sformalizowany, a z drugiej strony jakiś sztuczny język może być traktowany nieformalistycznie, np. elementarne części języka logiki matematycznej są tak właśnie traktowane.
Jednakże użycie sztucznych symboli wystąpiło jednocześnie z formalizmem. Użycie to Whitehead i Russel uprawomocniają w następujący sposób.
(1) W nauce w ogóle, szczególnie jednak w logice potrzebne są tak abstrakcyjne pojęcia, iż w języku potocznym nie można znaleźć dla nich odpowiednich słów. Jest się więc zmuszonym do tworzenia symboli.
(2) Syntaksa języka potocznego jest zbyt mało ścisła, jej reguły dopuszczają zbyt wiele wyjątków, aby mogła być dobrym instrumentem w dziedzinie nauk ścisłych. Byłoby wprawdzie możliwe zatrzymanie słów języka potocznego i zmiana tylko jego reguł, lecz wtedy przez kojarzenie słowa te sugerowałyby luźne reguły języka codziennego i powstawałoby pomieszanie. Z tego powodu lepiej jest budować sztuczny język z własnymi, ściśle syntaktycznymi regułami.
(3) Jeżeli zdecydujemy się na zastosowanie sztucznego języka, wtedy można wybrać całkiem krótkie symbole, np. pojedyncze litery zamiast całych słów. W ten sposób zdania staną się znacznie krótsze niż w języku potocznym i istotnie łatwiej zrozumiałe.
(4) Większość słów języka potocznego jest bardzo wieloznaczna; tak np. słowo “jest” ma przynajmniej tuzin różnych znaczeń, które w trakcie analizy muszą być ściśle od siebie oddzielane. Celowe jest więc, aby zamiast tego typu słów używać sztucznych, ale jednoznacznych symboli.
Trzeba jeszcze zauważyć, że wyrażenie “język symboliczny” prowadzi do błędów: każdy język składa się z symboli i mógłby dlatego być nazwany “symbolicznym”. Tutaj jednak mamy na myśli język, który, w przeciwieństwie do języka potocznego, składa się ze sztucznych symboli.
Budowa języka. Z syntaktycznego punktu widzenia język składa się z pewnej mnogości wyrażeń, dla których obowiązują określone reguły. Dla uproszczenia przez język będziemy rozumieli język pisany, chociaż, z pewnymi ograniczeniami, rozważania poniższe obowiązywałyby również w dziedzinie języka mówionego. Reguły pewnego określonego języka, powiedzmy języka S, determinują, które wyrażenia należą do S, tzn. które są sensowne w S; wszystkie inne wyrażenia są w tym języku syntaktycznie bezsensowne. Tak np. słowo “homme” jest wprawdzie wyrażeniem, ale jest bezsensowne w języku polskim.
Sensowne wyrażenia języka S mogą być podzielone na dwie klasy: (1) atomowe albo proste wyrażenia. Wyrażenia te są tak utworzone, że żadna ich indywidualna część nie może być właściwym (sensownym) wyrażeniem w S. Tak np. wyrażenie “człowiek” jest wyrażeniem atomowym języka polskiego. (2) Molekularne albo złożone wyrażenia. Tutaj już indywidualne części są pewnym sensownym wyrażeniem w S. Przykład z języka polskiego: “człowiek jest organizmem”. W tym wypadku “człowiek”, “organizm”, “jest”, wzięte same dla siebie, są sensownymi (atomowymi) wyrażeniami języka polskiego.
Jeśli uwzględni się języki naturalne podział na wyrażenia atomowe i molekularne nie jest jednak zupełnie bez zarzutu. Na przykład słowo “imię” jest oczywiście atomowym wyrażeniem języka polskiego, a jednak część słowa “imię”, a mianowicie “i”, jest również wyrażeniem atomowym. Niezgodności tego typu dadzą się wprawdzie usunąć za pomocą środków semantycznych, ale bardziej praktyczne i bardziej łatwe jest zbudowanie takiego sztucznego języka, w którym one w ogóle nie występują.
W paragrafie tym zajmujemy się tylko syntaktycznymi regułami sensowności wyrażeń molekularnych, gdyż wyłącznie one dadzą się rozważyć bez uwzględniania teorii systemu aksjomatycznego. W paragrafie dotyczącym aksjomatyki omówimy odpowiednie reguły dla wyrażeń atomowych.
Pojęcie kategorii syntaktycznej. Dla syntaktycznej sensowności wyrażeń molekularnych pewnego języka obowiązują dwie fundamentalne reguły: (1) wyrażenia molekularne powinny być złożone wyłącznie z sensownych wyrażeń danego języka, a więc ostatecznie tylko z sensownych wyrażeń atomowych tego języka; (2) Samo składanie powinno przebiegać według określonych dla danego języka reguł formowania. Reguły te mają we wszystkich językach wspólny rdzeń, który może być streszczony w prawach tzw. kategorii syntaktycznych. Najpierw więc rozważymy te ważne prawa syntaktyczne.
Mianem “kategorii syntaktycznej” określa się tę klasę wyrażeń jakiegoś języka, z której każde wyrażenie może być zamienione z dowolnym innym wyrażeniem tej klasy w ramach sensownej wypowiedzi, a wypowiedź ta nie straci przy tym swojego sensu. Tak np. imiona własne tworzą kategorię syntaktyczną języka polskiego. W każdym sensownym polskim zdaniu - np. “Fryderyk pije” - można zastąpić imię własne przez inne, a zdanie to nie straci swojego sensu. W powyższym przykładzie “Fryderyk” może być zastąpiony przez “Jan”, “Ewa”, “Napoleon”, a nawet przez “Gaurisankar”, zdanie nadal jednak pozostanie sensowne (prawdziwe albo fałszywe, ale jednak sensowne). W przeciwieństwie do tego pewien czasownik, np. “śpi”, należy do innej kategorii syntaktycznej. Jeżeli w naszym zdaniu za “Fryderyk” podstawimy “śpi”, to powstanie wyrażenie bezsensowne: “śpi pije”.
Jak widać, pojęcie kategorii syntaktycznej odpowiada dość dokładnie pojęciu części zdania ze zwykłej gramatyki. Różnica polega na tym, że w gramatyce rozważa się żywy, więc bardzo niedokładnie skonstruowany język i dlatego jej prawa są luźne i nieprecyzyjne. Dla celów naukowych powinno się jednak dążyć do perfekcyjnego języka, dla którego można i trzeba ustalić ścisłe prawa. Syntaksa logiczna znajduje się w takim samym stosunku do gramatycznej, jak np. geometria do mierzenia konkretnych pni drzew: jedna dostarcza drugiej idealnej teoretycznej podstawy.
W tym kontekście warto zauważyć, że kategorie syntaktyczne - zgodnie z ogólną funkcją języka dążącego do odwzorowania bytu realnego - odwzorowują tzw. kategorie ontologiczne. Tak np. syntaktyczna kategoria imion własnych odpowiada ontologicznej kategorii substancji, kategoria tzw. funktorów jednoargumentowych jakości itd. Odpowiedniość ta nie jest jednak całkiem dokładna, gdyż między realnością a językiem znajduje się myśl, która tworzy nowe kategorie (bytów idealnych).
Funktory i argumenty. Chcemy teraz naszkicować prosty system kategorii syntaktycznych wychodząc od pojęcia funktora i argumentu. Wyrażenie, które określa inne wyrażenie nazywa się jego “funktorem”, wyrażenie określane jest “argumentem”. “Określanie” należy tu rozumieć w możliwie najszerszym sensie. Mówi się np., że w zdaniu “pada deszcz i pada śnieg” “i” określa oba zdania częściowe (“pada deszcz” i “pada śnieg”), a więc jest ich funktorem, podczas gdy one są argumentami “i”. W każdym rozwiniętym języku istnieją dwojakiego rodzaju wyrażenia: jedne mogą być tylko argumentami, np. nazwy indywiduowe i zdania, natomiast inne tylko funktorami, jak np. czasowniki. Kategorie syntaktyczne wyrażeń pierwszego rodzaju chcemy nazwać “kategoriami podstawowymi”, drugiego rodzaju “kategoriami funktorowymi”.
Ilość kategorii podstawowych jest dość dowolna; dla uproszczenia przyjmujemy tutaj tylko dwie: wspomniane wyżej kategorie nazw i zdań. W związku z tym wszystkie funktory możemy podzielić w następujący sposób:
(1) Według kategorii syntaktycznej ich argumentów. Odróżniamy więc: (a) funktory określające nazwy (np. “śpi”, “kocha”, “jest większy niż” itd.); (b) funktory określające zdania (np. i” “nie jest tak, że”, “albo” itd.); (c) funktory określające funktory (np. “bardzo” w “dziecko jest bardzo ładne”, argumentem jest tutaj “ładne”).
(2) Według kategorii syntaktycznej wyrażenia molekularnego składającego się z funktora i jego argumentów odróżniamy: (a) funktory nazwotwórcze (np. “dobry” w “dobre dziecko”, ponieważ tutaj całe wyrażenie jest nazwą); (b) funktory zdaniotwórcze (np. wyżej wymienione funktory określające zdania, np. “pada deszcz i pada śnieg” jest ponownie zdaniem); (c) funktory funktorotwórcze (np. “głośno” w “pies głośno szczeka”, tutaj “głośno” wraz ze swoim argumentem “szczeka” jest znowu funktorem).
(3) Według ilości argumentów odróżniamy funktory jednoargumentowe albo monadyczne (np. “śpi”, “biegnie”), dwuargumentowe albo diadyczne (np. “kocha”, “jest większy niż”), trzyargumentowe (np. “daje”: A daje B C; tutaj A, B i C należy rozumieć jako argumenty od “daje”), i dalej, n-argumentowe funktory.
Widać natychmiast że wyrażenia języków naturalnych nie stosują się do tego schematu, gdyż bardzo często są syntaktycznie wieloznaczne. Tak np. polskie słowo “je” raz okazuje się jednoargumentowym funktorem (“Co robi Fryderyk? On je”), innym razem funktorem dwuargumentowym (“Fryderyk je kiełbasę”). Ta wieloznaczność przyczynia się wprawdzie do piękna języka i jest poetycko wartościowa, lecz bardzo osłabia jego ścisłość i jasność, i w ten sposób stanowi jeszcze jeden powód dla używania języków sztucznych.
Przykłady syntaktycznego nonsensu. Na podstawie powyższych zasad możemy ustanowić następującą ogólną regułę formowania: wyrażenie molekularne jest tylko wtedy sensowne, gdy każdemu w nim występującemu funktorowi przyporządkowane są argumenty, które dokładnie odpowiadają jego syntaktycznej kategorii co do ilości i rodzaju. Wszystko, co sprzeciwia się tej regule jest syntaktycznie nonsensowne.
Podamy kilka przykładów z dziedziny filozofii. Weźmy na początek takie zdanie pozorne: “Byt jest identyczny”. Nazywamy je zdaniem pozornym, ponieważ nie ma ono żadnego sensu syntaktycznego, a więc w ogóle nie może być zdaniem; “jest identyczny” jest funktorem dwuargumentowym, a zatem używa się go sensownie tylko wtedy, gdy przyporządkowuje się mu dokładnie dwa argumenty, jak np. w zdaniu “Autor Fausta jest identyczny z Goethem”. W naszym zdaniu pozornym mieliśmy jednak tylko jeden argument, mianowicie .,byt”. Jest ono więc syntaktycznym nonsensem.
Inny przykład: pewien filozof mówi: “Nicość nicuje” [das Nichts nichtet]. Tutaj “nicość” jest argumentem od “nicować”. To ostatnie wyrażenie jest oczywiście jednoargumentowym funktorem zdaniotwórczym określającym nazwy. Jak jednak w zadaniu tym może on określać nazwy? Czym bowiem, patrząc od strony syntaktycznej, jest “nicość”`' Chociaż czymś takim wydaje się być, nie jest to oczywiście żadną nazwą. Gdy mówimy “nie ma nic” [es gibt nichts], wtedy właściwie chcemy powiedzieć “dla każdego x nie zachodzi wypadek, że tu i teraz to x jest”. “Nicość” jest więc tylko skrótem dla negacji. Negacja nie jest jednak żadną nazwą, lecz funktorem. To, co w tym wypadku filozof myśli, może być trafne, ale to, co mówi, musi być traktowane jako nonsens syntaktyczny. Nie jest to żadne zdanie i nic ono nie znaczy.
Powołując się na tego typu przykłady, zwolennicy szkoły neopozytywistycznej chcieli pokazać, że cała filozofia jest nonsensowna. Pomieszali przy tym nonsens syntaktyczny z czymś całkiem innym, mianowicie z nonsensem semantycznym. Z czasem okazało się, że poszli oni zbyt daleko. W każdym razie ich ataki przyczyniły się do wzrostu ogólnej świadomości, że język poetycki tylko z wielką ostrożnością może być używany jako środek komunikacji idei naukowych, gdyż łatwo ukrywa w sobie nonsens syntaktyczny. Stąd syntaktyczna analiza sensu posiada dzisiaj w filozofii o wiele większe znaczenie niż w poprzednich stuleciach.
Dwie semantyczne funkcje znaku. Zwrócimy się teraz w kierunku problemów semantycznych, tzn. problemów dotyczących związków między znakiem a tym, czego ten znak jest znakiem. Przede wszystkim trzeba tutaj dokonać odróżnienia - dobrze już znanego scholastykom - między dwiema funkcjami znaku. Z jednej strony znak może do czegoś odnosić [meinen], coś intendować, a więc być nośnikiem pewnej obiektywnej treści. Tę funkcję chcemy nazwać “obiektywną”. Z drugiej strony znak może wyrażać [ausdriicken] coś subiektywnego, mianowicie osobisty stan człowieka lub zwierzęcia dającego ten znak. Tę drugą funkcję nazywamy “subiektywną”.
Zwykle znak używany w ramach normalnego ludzkiego języka posiada obie te funkcje. Jeżeli np. pewien obserwator mówi: “Tutaj jest ołów”, to przede wszstkim odnosi się on do czegoś obiektywnego; a mianowicie. że w określonych współrzędnych czasoprzestrzennych znajduje się pewna substancja zwana .,ołowiem”. Jednocześnie jednak myśli on tę obiektywną treść. Fakt, że formułuje zdanie, wskazuje, iż tę myśl posiada. Wraz ze zdaniem wyraża więc także pewien stan subiektywny. Czynniki subiektywne, które są wyrażane przez znak, nie są jednak tylko myślami, lecz zwykle również uczuciami, tendencjami woli itd. Te ostatnie odgrywają często tak wielką rolę, że niektórzy metodologowie wszystkie czynniki subiektywne określają po prostu jako “treść emocjonalną”, w przeciwieństwie do treści “obiektywnej” albo “naukowej”.
Jeżeli w trakcie normalnego używania znaków obie te funkcje semantyczne przeważnie się łączą, to mimo to dadzą się teoretycznie pomyśleć wypadki graniczne, w których znak albo nie wyraża nic subiektywnego, albo, przeciwnie, nie odnosi do niczego obiektywnego. Przynajmniej w niektórych formach muzyki ten ostatni wypadek mógłby mieć miejsce. Znaki, z których składa się język takiej muzyki, miałyby tylko subiektywną, a nawet tylko czysto emocjonalną treść. Nie jest łatwo stwierdzić, czy w odniesieniu do zdań języka potocznego przeciwny wypadek jest możliwy. Jednak w dziełach naukowych dość łatwo dadzą się pokazać znaki i zdania, które w ogóle nic nie wyrażają, lecz wyłącznie odnoszą do czegoś.
Z metodologicznego punktu widzenia jedno jest jasne: w nauce, jeśli chodzi o poznawalne, a stąd dające się wypowiedzieć przedmioty, ważne jest tylko odniesienie do [Meinung], a więc pierwsza funkcja semantyczna. To, co sam naukowiec przeżywa, jest zupełnie bez znaczenia. Wypowiedzenie jego osobistych stanów może w pewnych okolicznościach dostarczyć materiału dla badania psychologicznego, ale nie “dowodzi” ono niczego, ponieważ do niczego nie odnosi, nie kieruje się obiektywnie do niczego.
Mówienie o tym, co niewypowiedzialne. Jak jednak przedstawia się ten problem, gdy chodzi o coś niepoznawalnego (niepoznawalnego zasadniczo albo niepoznawalnego dla ludzi), a stąd także o coś niewypowiedzialnego? Wśród współczesnych metodologów istnieją w tym względzie różne opinie. Można wyróżnić trzy grupy stanowisk.
(1) Rzecznikami pierwszej są przede wszystkim H. Bergson i K. Jaspers. Sądzą oni - a także wielu innych filozofów, których większość należy do tradycji neoplatońskiej - że wprawdzie tego, co niewypowiedzialne, nie można powiedzieć, tzn. przedstawić i zakomunikować za pomocą znaków mających odniesienie obiektywne, ale można to w pewnej mierze udostępnić, używając języka pozbawionego treści obiektywnej. Tak np. Bergson twierdzi, że prawdziwa wiedza filozoficzna o najważniejszych elementach rzeczywistości (np. o stawaniu się) może dojść do skutku tylko dzięki <intuicji>. Komuś drugiemu treści tej intuicji nie można zakomunikować, ale używając pewnych obrazów można ją tak ująć, że ów drugi będzie mógł ją przeżyć. Dlatego w dziełach Bergsona nie znajdujemy żadnych opisów fenomenologicznych, żadnych dowodów, lecz przede wszystkim obrazy, które mają pobudzać intuicję. Podobnie Jaspers mówi, że jego słowa “nic nie znaczą”. Są one tylko wskazówkami pokazującymi drogę temu, kto w nie dającym się ująć w słowa <egzystencjalnym> [existentiell] doświadczeniu chce spotkać to, co niewypowiedzialne. Dla Boga, a więc czegoś, co jest w najwyższym stopniu niewypowiedzialne, nie ma już znaków, lecz tylko <szyfry>, które właśnie tym się charakteryzują, że nie przysługuje im żadna obiektywna funkcja semantyczna.
(2) Inna grupa myślicieli reprezentuje dokładnie przeciwne stanowisko. Najostrzej zostało ono sformułowane w tezie L. Wittgensteina: “O czym nie można mówić, o tym należy milczeć”. Przy czym dla Wittgensteina i jego zwolenników “mówić” znaczy tyle, co “używać znaków posiadających obiektywną treść”. Według tych filozofów jest to jednak niemożliwe w wypadku tego, co niewypowiedzialne, ponieważ zgodnie ze swoją definicją to, co niewypowiedzialne, nie może zostać powiedziane. Mówienie o tym w sposób <muzyczny> może być wprawdzie przyjemne, ale nie mówi nic. Jedno z największych niebezpieczeństw używania języka polega właśnie na tym, że słowa, które rzekomo miałyby coś mówić, w rzeczywistości posiadają tylko zawartość emocjonalną, a więc nic nie mówią.
(3) W końcu istnieje również grupa myślicieli, którzy uznając zasadniczo tezę Wittgensteina nie wyciągają jednak wniosku, że filozof musi się ograniczyć do w pełni poznawalnych przedmiotów. Do tej grupy należą przede wszystkim N. Hartmann ze swoją teorią o tym, co irracjonalne, i tomiści z teorią o analogicznym poznaniu Boga. Hartmann sądzi, że wprawdzie istnieje to, co irracjonalne, jako to, co dla nas niepoznawalne, a więc także niewypowiedzialne, jednak posiada ono zawsze stronę poznawalną (to, co irracjonalne nazywa Hartmann “metafizycznym”). W związku z tym nie tylko dadzą się określić granice tego, co irracjonalne, lecz również sformułować antynomie, które zawsze tutaj powstają i w ten sposób tym, co irracjonalne można się zajmować. Według tomistycznej teorii analogii, chociaż Bóg w swojej istocie jest dla nas niepoznawalny, to jednak jesteśmy w stanie <analogicznie> przenosić na niego pewne predykaty. Nie wiemy wprawdzie i nie możemy wiedzieć, czym np. jest myślenie Boga, ale możemy powiedzieć, że znajduje się ono w takich relacjach do swojego przedmiotu, które są proporcjonalnie podobne do tych, jakie zachodzą między ludzkim myśleniem a jego przedmiotem. Zinterpretowano tę teorię w taki sposób, że relacje pomyślane w Bogu są izomorficzne z tymi, które znamy empirycznie. Jak widać ani u Hartmanna, ani u tomistów nie chodzi o mówienie o tym, co niewypowiedzialne, ale o tej jego części, która da się wypowiedzieć.
Oznaczanie i znaczenie. W obiektywnej funkcji znaku znowu trzeba zrobić dwa odróżnienia, co wymaga kilku terminologicznych uwag. Od czasów stoików zwykło się odróżniać oznaczanie od znaczenia. Jeszcze dzisiaj odpowiednia terminologia jest chwiejna (tak np. G. Frege używał terminu “znaczenie” [Bedeutung] dokładnie w sensie naszego “oznaczania” [Bezeichnung]), ale podstawowa zasada tego odróżnienia jest ogólnie uznana i doprowadziła do sformułowania ważnych reguł metodologicznych. Mówimy np. że nazwa “koń” oznacza wszystkie indywidualne konie, ale jednocześnie znaczy “koniowatość”, a więc to, czym [was] każdy koń jest. Okazuje się, że oznaczanie odpowiada zakresowi (extensio) obiektywnego pojęcia, znaczenie zaś jego treści (intensio). W odniesieniu do oznaczania mówi się więc o <ekstensjonalności>, a w odniesieniu do znaczenia o <intensjonalności>. Należy dodać, że przedmioty oznaczane przez jakąś nazwę nazywają się jej “desygnatami”. Jest kwestią sporną, czy także zdania i funktory posiadają desygnaty. U Fregego desygnatem zdania jest jego wartość logiczna, a więc jego prawda lub fałsz.
Oznaczanie jest istotnie słabszą funkcją niż znaczenie, o tyle, że wraz ze znaczeniem dane jest zawsze oznaczanie, lecz nie odwrotnie. Wynika to z faktu, że ta sama klasa desygnatów może mieć różne treści, a więc jednej i tej samej klasie desygnatów mogą odpowiadać różne znaczenia. Weźmy np. słowo “trójkąt”. Przez wyliczenie wszystkich trójkątów mamy dane oznaczanie tego słowa, ale temu oznaczaniu mogą odpowiadać całkowicie różne znaczenia, np. znaczenia utworzone z następujących treści: płaska trójkątna figura, płaska figura z trzema bokami, figura o wewnętrznej sumie kątów równej 180” itd. Każda z tych treści jednoznacznie determinuje klasę desygnatów słowa “trójkąt”.
Mimo to logika współczesna i przyrodoznawstwo wykazują uderzającą tendencję do ekstensjonalnego myślenia, tzn. do używania nazw z uwzględnieniem wyłącznie ich oznaczania. Ta w sobie osobliwa i ponadto przez wielu filozofów i humanistów zwalczana tendencja staje się zrozumiała, gdy uwzględnimy, że oznaczaniem jest o wiele łatwiej się posługiwać niż znaczeniem. Wprawdzie całkowite wyłączenie znaczenia wydaje się raczej niemożliwe, gdyż ostatecznie oznaczanie może być zdeterminowane tylko przez znaczenie, to jednak zalety postępowania ekstensjonalnego są w wymienionych wyżej dziedzinach tak wielkie, że właśnie ogólną regułą metodologiczną uczyniono, aby postępować ekstensjonalnie, o ile jest to tylko możliwe.
Stopnie semantyczne. W świetle powyższych rozważań staje się także zrozumiała inna ważna teoria semantyki współczesnej, teoria tzw. stopni semantycznych. Zasadniczą jej myślą jest, że należy odróżnić język dotyczący rzeczy od języka dotyczącego samego języka; w stosunku do tego pierwszego drugi nazywa się jego “meta-językiem”. Nieco dokładniej teoria ta da się przedstawić w następujący sposób. Wszystkie byty, które (z naszego punktu widzenia) nie są znakami, traktujemy jako stopień zerowy. Dalej następuje klasa znaków, które oznaczają rzeczy, a więc elementy stopnia zerowego. Klasę tych znaków nazywamy “pierwszym stopniem” albo “językiem przedmiotowym”. Do niej dołącza się trzecia klasa: składa się ona ze znaków, które oznaczają znaki języka przedmiotowego. Tworzy ona “drugi stopień” i jest metajęzykiem w stosunku do pierwszego języka. W ten sposób można postępować w nieskończoność. Ogólnie językiem “n-tego stopnia” nazywa się taki język, w którym przynajmniej jeden z jego znaków oznacza pewien element stopnia n-1, żaden zaś nie oznacza elementu n-tego lub wyższego stopnia.
Teoria ta prowadzi do ustanowienia nowej ważnej reguły sensowności, a mianowicie następującej reguły semantycznej: każde wyrażenie, w którym mowa jest o nim samym, jest bezsensowne. Poprawność tej reguły jest łatwo zrozumiała na podstawie tego, co zostało powiedziane wyżej: wyrażenie tego rodzaju należałoby jednocześnie do dwóch stopni semantycznych, do języka przedmiotowego i do metajęzyka, a to z kolei jest nie do pogodzenia z teorią stopni semantycznych.
Przykładem zastosowania tej reguły jest sławny <kłamca>, nad którym trudzili się wszyscy logicy od czasów Platona aż do początków tego stulecia. Zdanie to brzmi następująco: “To, co teraz mówię, jest fałszywe”. Stąd natychmiast powstaje sprzeczność, gdyż jeżeli wypowiadający to zdanie mówi prawdę, wtedy to, co mówi, jest fałszem, natomiast gdy nie mówi prawdy, wtedy to, co właśnie powiedział, jest prawdą. W oparciu o naszą regułę trudność ta da się jednak łatwo rozwiązać. Pokazuje ona bowiem, że <kłamca> nie jest w ogóle żadnym zdaniem, lecz nonsensem semantycznym: w tym pseudo-zdaniu mówi się mianowicie coś o nim samym.
<Kłamca> jest tylko jednym przykładem spośród wielu innych antynomii semantycznych. Za pomocą samej syntaksy antynomie te nie mogą być rozwiązane. Okazało się także, że wiele ważnych pojęć, jak np. pojęcie prawdy, pojęcie desygnatu itd, da się bez zarzutu analizować tylko na poziomie metajęzyka.
Z powyższego wynika, że wszystko, co należy powiedzieć o pewnej nauce, nie może być rozważane w języku tej nauki, lecz w jej meta-języku, zwanym także “meta-nauką”, tak np. analiza symboliki występującej w danej nauce, metodologia i wiele innych. Wiele nauk posiada dzisiaj swoje metanauki, m.in. istnieje rozbudowana meta-logika i meta-matematyka.
O użyciu cudzysłowu. W trakcie stosowania teorii stopni semantycznych sformułowano określone reguły techniczne dla używania cudzysłowu. Są one dzisiaj ściśle przestrzegane przez większość logików i metodologów nauki.
Jakieś wyrażenie stawia się w cudzysłowie, jeżeli oznacza ono samo siebie lub wyrażenie równokształtne z nim, bez cudzysłowu nie oznacza ono samego siebie, lecz coś innego. Innymi słowy: wyrażenie w cudzysłowie jest znakiem samego tego wyrażenia, a więc metajęzykowym wyrażeniem w odniesieniu do podobnego wyrażenia bez cudzysłowu.
Kilka przykładów rozjaśni sens tej reguły. Jeżeli napiszemy zdanie
kot jest zwierzęciem
bez umieszczania pierwszego słowa w cudzysłowie, wtedy zdanie to jest prawdziwe, gdyż pierwsze słowo oznacza znane zwierzę domowe. Jeżeli jednak napiszemy
“kot” jest zwierzęciem
wtedy sformułujemy zdanie fałszywe, gdyż słowo znajdujące się w cudzysłowie nie oznacza żadnego kota, lecz słowo “kot”. a żadne słowo nie jest zwierzęciem.
W przeciwieństwie do tego zdanie
“kot” składa się z trzech liter
jest oczywiście prawdziwe, ale zdanie
kot składa się z trzech liter
jest równie oczywiście fałszywe, gdyż znane wszystkim drapiące zwierzątko nie składa się przecież z liter.
Wyrażenie znajdujące się w cudzysłowie jest zawsze nazwą, nawet wtedy, gdy bez cudzysłowu byłoby zdaniem lub funktorem; w cudzysłowie jest ono nazwą tego zdania albo tego funktora.
W języku potocznym cudzysłowy są oczywiście używane także w inny sposób, stawia się je np., gdy jakieś wyrażenie występuje w innym niż jego zwykły sens. W takich sytuacjach warte byłoby jednak polecenia zastosowanie innych znaków (innego graficznego kształtu cudzysłowu) niż te, których techniczne użycie zostało tutaj opisane.
Metodologiczne znaczenie problemu. Jak to już zostało powiedziane, należy odróżnić syntaktyczny i semantyczny sens pewnego wyrażenia. Może się bowiem bardzo łatwo zdarzyć, że wyrażenie jest poprawnie utworzone według reguł danego języka, a więc jest syntaktycznie sensowne, a mimo to nie posiada sensu semantycznego. Aby pewien znak mógł mieć sens semantyczny, muszą zostać spełnione określone warunki pozajęzykowe. Warunki te łączą się z weryfikowalnością zdań, tzn. z metodą, która pozwala nam stwierdzić, czy pewne zdanie jest prawdziwe czy fałszywe.
W wyniku najnowszego rozwoju nauk przyrodniczych weryfikowalność stała się niezwykle ważna dla metodologii. Pokazują to dwa następujące fakty.
(1) Rozwój nowożytnego przyrodoznawstwa stał się możliwy dopiero dzięki wyeliminowaniu pewnych wyrażeń filozoficznych, mianowicie takich, których obecność w zdaniach uniemożliwiała zweryfikowanie tych zdań za pomocą środków empirycznych.
(2) W trakcie rozwoju do samej dziedziny nauk przyrodniczych zostały wprowadzone pewne wyrażenia (np. “eter”). które w ten sam sposób jak wspomniane wyżej wyrażenia filozoficzne okazały się nieużyteczne.
Okoliczności te doprowadziły do żądania, aby wszystkie tego rodzaju wyrażenia wyłączyć z języka naukowego. Opierający się na pozytywistycznej filozofii metodologowie Koła Wiedeńskiego, jak również zwolennicy szkoły empiryczno-logicznej rozciągnęli ten postulat na całość poznania i to początkowo w bardzo wąskich, dogmatycznych sformułowaniach. Stopniowo jednak doszła do głosu postawa bardziej tolerancyjna. Dla współczesnych badań cały ten spór zaowocował sformułowaniem kilku ważnych i ogólnie obowiązujących wglądów oraz pewnych reguł dotyczących metody nauk przyrodniczych, ale również doprowadził do ujawnienia się wielu trudnych problemów.
Zasada weryfikowalności. Istnieją dwie fundamentalne reguły, które nazwane zostały “zasadą weryfikowalności”. Brzmią one:
(1) Zdanie jest wtedy sensowne semantycznie, gdy można pokazać metodę, dzięki której jest ono weryfikowalne.
(2) Wyrażenie nie będące zdaniem jest wtedy sensowne semantycznie, gdy można go używać jako części semantycznie sensownego, a więc weryfikowalnego zdania.
Oba powyższe zdania zawierają wiele słów, które muszą być dokładnie rozumiane, jeżeli chce się poprawnie uchwycić sens tej reguły.
Przede wszystkim należy zauważyć, że nie identyfikuje się w nich sensu i weryfikowalności. Jest prawdą, że pewni filozofowie robili to, lecz ich stanowisko okazało się nie do utrzymania: sens nie jest tym samym co weryfikowalność. Chociaż zdanie, aby mieć sens, musi być weryfikowalne, to z tego nie wynika, że sens i weryfikowalność są tym samym.
Dalej należy zauważyć, że w podanych wyżej zasadach weryfikowalność nie jest bliżej określona. Także i w tym względzie zajęto początkowo ekstremalne stanowisko chcące dopuścić tylko jeden rodzaj weryfikowalności, a mianowicie zmysłową obserwację stanu rzeczy domniemanego w jakimś zdaniu. Dzisiaj przeważa bardziej tolerancyjna postawa, dopuszcza się mianowicie różne sposoby obserwacji. Zgodnie z obowiązującym dzisiaj ujęciem przedstawione wyżej reguły domagają się tylko jakiejś metody, za pomocą której moglibyśmy stwierdzić, czy zdanie jest (w pewnym stopniu) poprawne czy nie.
Aby to zrozumieć, pomyślmy np. następujące zdanie; “Okno w moim pokoju jest zamknięte”. W jaki sposób zdanie to mogłoby mieć sens, jeżeli nie byłoby wiadomo, jak można ustalić to, co zdanie to stwierdza? Faktycznie jednak metoda taka istnieje, gdyż wypowiadający to zdanie wie, że, jeżeli np. chciałby wyciągnąć rękę przez okno, to napotkałby opór itd.
Warto również zauważyć, że pierwsza z wymienionych wyżej zasad zawiera w pewnej mierze wszystkie inne warunki sensowności. Aby pewne zdanie było weryfikowalne, musi np. być sensowne syntaktycznie. Syntaktyczny nonsens jest niemożliwy do zweryfikowania.
Co to znaczy “weryfikowalny”? Wielką jednak trudność sprawia znaczenie słowa “weryfikowalny” i “weryfikowalność”. Jakieś zdanie wtedy jest weryfikowalne, gdy można je albo zweryfikować, albo sfalsyfikować, tzn. jeżeli możliwe jest pokazanie, że jest ono prawdziwe lub fałszywe. Co to jednak znaczy “możliwe”? H. Reichenbach odróżnia następujące znaczenia tego słowa:
(1) Techniczna możliwość, Zachodzi ona wtedy, gdy posiadamy środki pozwalające zweryfikować dane zdanie. W tym sensie np. zdanie “Temperatura jądra słonecznego wynosi 20 000 000° C” nie jest bezpośrednio weryfikowalne. Nie istnieje, jakbyśmy więc powiedzieli, żadna możliwość techniczna jego weryfikacji.
(2) Fizyczna możliwość. Ma ona miejsce wtedy, gdy weryfikowanie zdania nie stoi w sprzeczności z prawami natury. Wymienione wyżej zdanie o temperaturze jądra słonecznego jest fizycznie weryfikowalne, chociaż dla jego zweryfikowania nie posiadamy technicznej możliwości. W przeciwieństwie do tego zdanie “Jeżeli pewne ciało porusza się z prędkością 350 000 km/s, wtedy jego masa staje się znikomo mała” nie może być fizycznie zweryfikowane, gdyż zgodnie z prawami fizyki żadne ciało nie może poruszać się z taką prędkością.
(3) Logiczna możliwość. Zachodzi ona wtedy, gdy weryfikacja nie zawiera sprzeczności. Zdanie wprowadzone w punkcie (2), chociaż nie jest fizycznie weryfikowalne, to jest weryfikowalne logicznie, ponieważ nie zawiera żadnej sprzeczności.
(4) Transempiryczna możliwość. Jako przykład Reichenbach wybiera wypowiedź zwolenniczki jakiejś sekty religijnej: “Kot jest istotą boską”.
Podział tych możliwości jest przeprowadzony z pozytywistycznego punktu widzenia, a czwarty jego człon wydaje się alogiczną koncesją. Można byłoby sformułować inny podział, a mianowicie według rodzajów doświadczenia, za pomocą których pewne zdanie miałoby być weryfikowalne. Dałoby to w rezultacie zmysłową, introspekcyjną, fenomenologiczną i transnaturalną weryfikowalność. Wydaje się np. niewątpliwe, że fenomenologowie weryfikują swoje zdania przez doświadczenie swoistego rodzaju, przez ogląd istoty. Podobnie zdania należące do wiary nie są wprawdzie zweryfikowane, ale są weryfikowalne, z pewnością jednak nie za pomocą środków naturalnych.
Ze swojej strony R. Carnap sformułował zasadę tolerancji: każdy jest wolny w określeniu, jaki rodzaj weryfikacji chce dopuścić. Dzisiaj jednak ogólnie obowiązuje reguła, że w naukach przyrodniczych tylko te zdania wolno traktować jako sensowne, które ostatecznie są weryfikowalne przez doświadczenie zmysłowe. Przez weryfikowalność rozumie się jednak zwykle coś szerszego niż weryfikowalność techniczną i coś węższego niż czystą weryfikowalność fizyczną.
Zasada intersubiektywności. Zasada weryfikowalności została jeszcze o wiele mocniej dookreślona przez tzw. zasadę intersubiektywności. Zgodnie z tą zasadą weryfikowanie niezbędne dla sensowności jakiegoś zdania, musi być intersubiektywne, tzn. dostępne wielu badaczom. Nie wystarcza, aby w ogóle istniała jakaś metoda weryfikacji, przynajmniej zasadniczo użycie tej metody musi być intersubiektywnie możliwe. Metodologowie neopozytywistyczni, którzy sformułowali tę zasadę, odrzucili na jej podstawie każdego rodzaju psychologię introspekcyjną jako bezsensowną. Sądzili mianowicie, że zdania o własnych stanach psychicznych nie mogą być nigdy zweryfikowane przez innych i stąd muszą być pozbawione jakiegokolwiek sensu. Rzeczywiście, wydaje się, że w tym wypadku weryfikacja intersubiektywna jest logicznie niemożliwa. Z tego powodu zasada intersubiektywności doprowadziła najpierw do całkowitego fizykalizmu, tzn. do zakazu używania wyrażeń, które nie oznaczają procesów lub rzeczy fizycznych.
Jest jednak oczywiste, że, ściśle wzięta, zasada intersubiektywności zabraniałaby każdego zdania w ogóle. Także bowiem w dziedzinie tego, co fizyczne, obserwacja tego samego fenomenu przez dwóch badaczy nie jest możliwa: albo obserwują go po kolei, a w tym czasie zachodzi zmiana w fenomenie, staje się on inny, albo widzą go z dwóch różnych punktów obserwacyjnych, wtedy zaś spostrzegają różne aspekty fenomenu, każdy inny. Żadna weryfikacja nie może być ściśle intersubiektywna.
Dlatego zasada ta nie jest dzisiaj wprost odrzucana, a jest traktowana raczej jako tylko zasada regulatywna. Zgodnie z dzisiejszym poglądem, powinno się, tak dalece jak to jest możliwe, używać tylko takich wyrażeń i tworzyć tylko takie zdania, które mogą być przez innych względnie łatwo zweryfikowane. Tak sformułowana, reguła ta obowiązuje ogólnie dla wszystkich dziedzin wiedzy i powinna być w nich ściśle stosowana. Niestety zbyt wielu ludzi jeszcze nie zrozumiało, jak to jest ważne. Dla wszystkich nauk empirycznych - z wyjątkiem psychologii, chyba, że należałoby ją uznać za naukę przyrodniczą - zasada ta obowiązuje w tym sensie, że wszystkie zdania indywidualne powinny być weryfikowalne przez obserwację zmysłową.
Weryfikowalność zdań ogólnych. Można byłoby teraz słusznie zapytać, jak mają się rzeczy w wypadku zdań ogólnych? Tego rodzaju zdanie nie może być oczywiście nigdy zweryfikowane przez obserwację zmysłową. Dałoby się jeszcze np. zweryfikować, że pewien fenomen wystąpił w 100, 100 000, 100 000 000 wypadków, ale logicznie niemożliwe jest zweryfikowanie, że doszedł on do skutku we wszystkich możliwych wypadkach. O ile więc ktoś nalega wyłącznie na weryfikowalność zmysłową, to wszystkie zdania ogólne wydają się bezsensowne. Jednak z drugiej strony, nauki przyrodnicze bez zdań ogólnych są niemożliwe, składają się one przecież głównie właśnie z takich zdań i bez nich nie mogłyby być naukami przyrodniczymi.
Metodologowie odróżniają dwie klasy zdań ogólnych: tzw. logiczne i tzw. empiryczne zdania ogólne. Według powszechnie panującego poglądu pierwsze z nich nie mogą być zweryfikowane przez obserwację, nie jest to również konieczne dla ich sensowności. W jaki jednak sposób takie zdanie mogłoby być mimo to sensowne, jest to pytanie, które wywołało różne, zależne od stanowiska filozoficznego, poglądy. Badacze nastawieni fenomenologicznie przyjmują, że aksjomaty logiki są weryfikowalne dzięki duchowemu wglądowi, np. dzięki widzeniu istoty; przeciwnie empiryści, uważają oni tego rodzaju zdania za <puste>, tzn. wprawdzie nie za całkiem bezsensowne, ale jednak za niezależne od ogólnych reguł sensowności semantycznej. Jakkolwiek można byłoby to teoretycznie uzasadniać, faktem jednakże pozostaje, że logicznych zdań ogólnych nie da się zmysłowo (empirycznie) zweryfikować. W tym leży fundamentalna różnica między dzisiejszą metodologią a dawniejszymi poglądami Comte'a i Milla.
W przeciwieństwie do tego tzw. empiryczne zdania ogólne, zgodnie z przeważającą opinią, są wtedy sensowne semantycznie, jeżeli można z nich wyprowadzić przynajmniej jedno zdanie weryfikowalne przez obserwację zmysłową. I tak np. zdanie “Każdy kawałek siarki spala się niebieskim płomieniem” jest sensowne, gdyż można z niego wyprowadzić zmysłowo weryfikowalne zdanie “Ten kawałek siarki spala się niebieskim płomieniem”. Natomiast zdanie filozoficzne “Każdy kawałek siarki składa się z materii i formy” jest bezsensowne, ponieważ nie można z niego wyprowadzić żadnego zmysłowo obserwowalnego zdania.
W ostatnich czasach okazało się jednak, że precyzyjne sformułowanie tego postulatu napotyka na duże trudności. Główną trudność można przedstawić w następujący sposób: z pojedynczego zdania nie da się zwykle nic wyprowadzić, tylko z wielu zdań, a więc np. z uprzednio skonstruowanej teorii itd. Należy więc wspomnianą zasadę rozszerzyć w tym właśnie sensie. Wtedy jednak okazuje się, że praktycznie ze wszystkich zdań wyprowadzalne jest jakieś zdanie zmysłowo weryfikowalne. Jako przykład może posłużyć zdanie metafizyczne “Absolut jest doskonały”. Jeżeli połączymy je ze zdaniem “To drzewo tutaj kwitnie”, wtedy z tego połączenia można wyprowadzić np. zdanie “Na tym drzewie tutaj są kwiaty” i w ten sposób nasze z pewnością nieprzyrodnicze zdanie o bycie absolutnym stanie się w sensie nauk przyrodniczych weryfikowalne i sensowne.
Jedyne, jak się wydaje, możliwe dzisiaj rozwiązanie tej trudności polegałoby na zrobieniu inwentarza wyrażeń, które miałyby obowiązywać jako dopuszczalne w naukach przyrodniczych. Jak widać, chodzi tu ostatecznie nie o prawdę, której w jakikolwiek sposób można byłoby dowieść, lecz wyłącznie o regułę czysto praktyczną. Jej uprawomocnienie leży w jej pożyteczności dla rozwoju nauk przyrodniczych. W innych dziedzinach nie wchodzi ona oczywiście w rachubę i tylko w oparciu o wątpliwe dogmaty filozoficzne można byłoby w nich bronić jej pożyteczności lub konieczności.
Inną trudność stwarzają słowa oznaczające stany, np. “rozpuszczalny”. Chociaż zmysłowo można zweryfikować, że pewna substancja faktycznie się (np. w wodzie) rozpuszcza, to jednak jeżeli z tego chce się wyprowadzić definicję rozpuszczalności w wodzie, dochodzi do niezgodności. Na podstawie takiej definicji łatwo byłoby bowiem pokazać, że każdy przedmiot, np. kawałek żelaza, którego nigdy nie włożono do wody, musi uchodzić za rozpuszczalny w wodzie. A jednak nauki przyrodnicze nie mogą się obyć bez tego rodzaju słów. R. Carnap częściowo rozwiązał tę trudność za pomocą wprowadzonych przez siebie <definicji redukcyjnych>. Nie możemy się dalej zajmować tymi pytaniami, wspomnieliśmy o nich jednak, aby wskazać na te ważne problemy, które wynikają ze ściśle ujętej zasady weryfikowalności.
A. TARSKI: POJĘCIE ZDANIA PRAWDZIWEGO W JĘZYKU POTOCZNYM1
Aby wprowadzić czytelnika w krąg rozważań, wydaje mi się wskazane pobieżnie choćby omówić problemat definicji prawdy w zastosowaniu do języka potocznego; pragnę tu zwłaszcza uwypuklić te różnorodne trudności, na które napotykają próby rozwiązania wspomnianego zagadnienia.
Spośród różnych usiłowań, mających na celu zbudowanie poprawnej definicji prawdy dla zdań języka potocznego, najnaturalniejszą wydaje się próba skonstruowania definicji semantycznej. Mam tu na myśli tego rodzaju definicję, która w pierwszym rzucie dałaby się ująć w następujących słowach:
(1) zdanie prawdziwe jest to zdanie, które wyraża, że tak a tak rzeczy się maja, i rzeczy mają się tak właśnie.
Wysłowienie powyższe jest jeszcze, rzecz oczywista, nader niedoskonałe pod względem poprawności formalnej oraz jasności i jednoznaczności występujących w nim wyrażeń. Tym niemniej sens intuicyjny i ogólna intencja tego wysłowienia wydają się dość przejrzyste i zrozumiałe; zadaniem definicji semantycznej byłoby właśnie sprecyzowanie tej intencji i ujęcie jej w poprawną formę.
Jako punkt wyjścia narzucają się tu pewne zdania o bardziej specjalnym charakterze, które mogą być uważane za cząstkowe definicje prawdziwości zdania lub raczej za wyjaśnienia różnych konkretnych zwrotów typu “x jest zdaniem prawdziwym”. Oto ogólny schemat tego rodzaju zdań:
(2) x jest zdaniem prawdziwym wtedy i tylko wtedy, gdy p; aby przejść do konkretnych wyjaśnień, zastępujemy w tym schemacie symbol “p” przez jakiekolwiek zdanie, zaś “x” - przez dowolną nazwę jednostkową tego zdania.
Mając daną nazwę jednostkową zdania, możemy dla niej skonstruować wyjaśnienie typu (2) w każdym przypadku, w którym potrafimy wymienić zdanie, oznaczane przez daną nazwę. Najważniejszą i najczęściej spotykaną kategorię nazw, dla których spełniony jest powyższy warunek, stanowią tzw. nazwy cudzysłowowe; jak łatwo się domyśleć, terminem tym oznaczamy każdą tego rodzaju nazwę zdania lub dowolnego innego wyrażenia (nawet bezsensownego), która składa się z cudzysłowów, lewostronnego i prawostronnego, oraz z wyrażenia, zawartego między cudzysłowami, a będącego właśnie desygnatem nazwy. Jako przykład cudzysłowowej nazwy zdania służyć może choćby “śnieg pada”; odpowiednie wyjaśnienie typu (2) brzmi wówczas:
(3) “śnieg pada” jest zdaniem prawdziwym wtedy i tylko wtedy, gdy śnieg pada.
Inną kategorię nazw jednostkowych zdań, dla których potrafimy konstruować analogiczne wyjaśnienia, stanowią tzw. nazwy strukturalnoopisowe, tj. nazwy opisujące, z jakich wyrazów składa się wyrażenie, będące desygnatem nazwy, z jakich znaków składa się każdy poszczególny wyraz i w jakim porządku te znaki i wyrazy po sobie następują. Nazwy takie dają się formułować bez pomocy cudzysłowów. W tym celu należy włączyć do języka rozważań, a więc - w danym wypadku - do języka potocznego, jakiekolwiek jednostkowe, ale nie cudzysłowowe nazwy wszystkich liter i innych znaków, z których składają się wyrazy i wyrażenia języka: tak np. jako nazwy spółgłosek “f”, “j”, “p”, “x”... narzucają się wyrazy “ef”, “jot”, “pe”, “iks”... zaś jako nazwy samogłosek “a”, “e”, “i”... można by np. obrać “aj”, “ej”, “ij”... (nie zaś “a”, “e”, “i”... - dla uniknięcia wieloznaczności). Łatwo zdać sobie sprawę, że każdej nazwie cudzysłowowej daje się obecnie przyporządkować wyrażona bez pomocy cudzysłowów nazwa strukturalnoopisowa o tym samym zakresie (tj. oznaczająca to samo wyrażenie) i vice versa; tak np. nazwie “śnieg” odpowiada nazwa “wyraz, składający się z pięciu kolejnych liter: eś, en, ij, ej i ge”. Jest więc oczywiste, że dla nazw strukturalnoopisowych zdań możemy również konstruować cząstkowe definicje typu (2), jak to widać z następującego choćby przykładu:
(4) wyrażenie, które składa się z dwu wyrazów, z których pierwszy składa się z pięciu kolejnych liter: eś, en, ij, ej i ge, zaś drugi - z czterech kolejnych liter: pe, aj, de i aj, jest zdaniem prawdziwym wtedy i tylko wtedy, gdy śnieg pada.
Twierdzenia analogiczne do (3) i (4) wydają się intuicyjnie oczywiste i najzupełniej zgodne z tą intuicją prawdziwości, która tkwi w wysłowieniu (1); nie budzą one na ogół wątpliwości pod względem jasności treści i poprawności formy (oczywiście przy założeniu, że zdania, które podstawiamy w (2) zamiast symbolu p, nie nasuwają podobnych wątpliwości).
Niezbędne tu jest jednak pewne zastrzeżenie. Znane są sytuacje, w których twierdzenia tego właśnie typu w zestawieniu z pewnymi innymi, intuicyjnie nie mniej oczywistymi przesłankami prowadzą do jawnej sprzeczności, mianowicie do tzw. antynomii kłamcy. Oto możliwie proste ujęcie tej antynomii pochodzące od J. Łukasiewicza.
Umówmy się dla większej przejrzystości używać symbolu “c” jako skrótu typograficznego wyrażenia “zdanie, wydrukowane na tej stronicy w wierszu 25 od góry”. Zwróćmy uwagę na następujące zdanie:
c nie jest zdaniem prawdziwym.
Pamiętając o znaczeniu symbolu “c”, stwierdzamy nadto na drodze empirycznej, iż:
(α) “c nie jest zdaniem prawdziwym” jest identyczne z c. Dla nazwy cudzysłowowej (lub jakiejkolwiek innej nazwy jednostkowej) powyższego zdania budujemy wyjaśnienie typu (2):
(β) “c nie jest zdaniem prawdziwym” jest zdaniem prawdziwym wtedy i tylko wtedy, gdy c nie jest zdaniem prawdziwym.
Zestawiając przesłanki (α) i (β), uzyskujemy natychmiast sprzeczność:
c jest zdaniem prawdziwym wtedy i tylko wtedy, gdy c nie jest zdaniem prawdziwym.
Łatwo się zorientować, gdzie tkwi źródło tej sprzeczności: w celu skonstruowania twierdzenia (α) podstawiliśmy zamiast symbolu “p” w schemacie (2) tego rodzaju zwrot, który sam zawiera w sobie termin “zdanie prawdziwe” (wobec czego uzyskane twierdzenie - w przeciwstawieniu np. do (3) i (4) - nie może już być uważane za cząstkową definicję prawdy). Nie widać jednak rozsądnego powodu, dla którego podobne podstawienia miałyby być zasadniczo wzbronione.
Poprzestaję tu na sformułowaniu powyższej antynomii, rezerwując sobie na później wyciągnięcie z tego faktu należytych konsekwencji. Na razie abstrahując od tej trudności, podejmę myśl zbudowania definicji zdania prawdziwego na drodze uogólnienia wyjaśnień tego typu co (3). Na pozór zadanie to może wydać się zupełnie łatwe - dla tych zwłaszcza, którzy władają nieco aparatem współczesnej logiki matematycznej. Mogłoby się zdawać, że podstawiając w (3) zamiast dwukrotnie występującego tam wyrażenia “śnieg pada” dowolną zmienną zdaniową (tj. symbol, za który wolno podstawiać dowolne zdania) i stwierdzając następnie, że uzyskany zwrot ma walor dla wszelkiej wartości zmiennej, dochodzi się z miejsca do zdania, obejmującego wszystkie twierdzenia typu (3) jako szczególne przypadki:
(5) dla dowolnego p - “p” jest zdaniem prawdziwym wtedy i tylko wtedy, gdy p.
Zdanie powyższe nie mogłoby być jeszcze uważane za ogólną definicję zwrotu “x jest zdaniem prawdziwym” z tego choćby względu, że zakres możliwych podstawień symbolu “x” uległ tu zwężeniu do nazw cudzysłowowych. Aby usunąć to ograniczenie, należałoby się odwołać do znanego intuicyjnie faktu, że każdemu zdaniu prawdziwemu (i w ogólności każdemu zdaniu) odpowiada nazwa cudzysłowowa, oznaczająca to właśnie zdanie. Opierając się na tej intuicji, można by się pokusić o uogólnienie wysłowienia (5) na następującej choćby drodze:
(6) dla dowolnego x - x jest zdaniem prawdziwym wtedy i tylko wtedy, gdy - dla pewnego p - x jest identyczne z “p” i przy tym p.
Na pierwszy rzut oka gotowi bylibyśmy może przyjąć zdanie (6) za poprawną definicję semantyczną wyrażenia “zdanie prawdziwe”, realizującą w precyzyjny sposób intencję wysłowienia (1) i uznać wobec tego, że stanowi ono zadowalające rozstrzygnięcie interesującego tu nas zagadnienia. W gruncie jednak rzeczy sprawa nie przedstawia się bynajmniej tak prosto: z tą chwilą, gdy zaczynamy bliżej analizować znaczenie występujących w (5) i (6) wyrażeń cudzysłowowych, dostrzegamy szereg trudności i niebezpieczeństw.
Nazwy cudzysłowowe można traktować tak jak pojedyncze wyrazy języka, a zatem jak wyrażenia syntaktycznie niezłożone; poszczególne części składowe tych nazw - cudzysłowy i wyrażenia, zawarte między cudzysłowami, - pełnią tę samą funkcję, co litery lub zespoły kolejnych liter w pojedynczych wyrazach, nie posiadają zatem w tym kontekście żadnego samodzielnego znaczenia. Każde wyrażenie cudzysłowowe jest wówczas stałą nazwą jednostkową pewnego określonego wyrażenia (tego mianowicie, które jest ujęte w cudzysłowy) i to nazwą o tym samym charakterze co imiona własne ludzi; w szczególności np. nazwa “p” oznacza jedną z liter alfabetu. Przy tej interpretacji - która nb. wydaje się najbardziej naturalna i najzupełniej zgodna z intuicją potoczną - cząstkowe definicje tego typu co (3) nie są podatne dla jakichkolwiek rozsądnych uogólnień. W każdym zaś razie za uogólnienie takie niepodobna uważać zdania (5) czy też (6): wyprowadzając bowiem konsekwencje z (5) za pomocą tzw. reguły podstawiania, nie mamy prawa czegokolwiek podstawiać zamiast litery “p”, wchodzącej w skład wyrażenia cudzysłowowego (podobnie jak nie wolno nic podstawiać zamiast litery “p”, występującej w wyrazie “prawdziwym”), w ten sposób jako wniosek uzyskujemy nie (3), a następujące zdanie: “p” jest zdaniem prawdziwym wtedy i tylko wtedy, gdy śnieg pada. Widać już stąd, że zdania (5) i (6) nie są wypowiedziami myśli, które pragnęlibyśmy wyrazić, że są to, co więcej, jawne niedorzeczności z intuicyjnego punktu widzenia. Zdanie (5) prowadzi nawet z miejsca do sprzeczności: można bowiem z niego, obok konsekwencji przytoczonej powyżej, wyprowadzić z równą łatwością konsekwencję sprzeczną: “p” jest zdaniem prawdziwym wtedy i tylko wtedy, gdy śnieg nie pada. (6) nie prowadzi co prawda samo przez się do sprzeczności, pociąga za sobą natomiast jawnie niedorzeczny wniosek, w myśl którego jedynym zdaniem prawdziwym jest litera “p”.
Wobec niepowodzenia dotychczasowych prób nasuwa się mimo woli przypuszczenie, że rozważane tu zagadnienie nie daje się w ogóle w sposób zadowalający rozwiązać. Można istotnie przytoczyć ważkie argumenty natury ogólnej, które przemawiają za tym przypuszczeniem, a które tu pobieżnie tylko omówię.
Charakterystyczną cechą języka potocznego (w przeciwstawieniu do różnych języków naukowych) jest jego uniwersalizm: byłoby niezgodne z duchem tego języka, gdyby w jakimkolwiek innym języku występowały wyrazy lub zwroty, nie dające się przetłumaczyć na język potoczny; “jeśli o czymkolwiek można w ogóle z sensem mówić, to można o tym mówić i w języku potocznym”. Kultywując tę uniwersalistyczną tendencję języka potocznego w odniesieniu do rozważań semantycznych, musimy konsekwentnie włączać do języka obok dowolnych jego zdań lub innych wyrażeń również nazwy tych zdań i wyrażeń, zdania, zawierające te nazwy, a dalej takie wyrażenia semantyczne jak “zdanie prawdziwe”, “nazwa”, “oznacza” itd. Z drugiej strony ten właśnie uniwersalizm języka potocznego w zakresie semantyki jest przypuszczalnie istotnym źródłem wszelkich tzw. antynomii semantycznych takich jak antynomia kłamcy lub antynomia wyrazów heterologicznych; antynomie te zdają się po prostu wykazywać, że na gruncie każdego języka, który byłby w powyższym sensie uniwersalny i który by podlegał przy tym normalnym prawom logiki, musi wyłonić się sprzeczność. Dotyczy to tego zwłaszcza sformułowania antynomii kłamcy, które podałem na str. 46, a które nie zawiera funkcji cudzysłowowej o argumencie zmiennym. Analizując antynomię w powyższym sformułowaniu, dochodzimy mianowicie do przeświadczenia, że nie może istnieć język niesprzeczny, zachowujący zwykłe prawa logiki a przy tym czyniący zadość następującym warunkom: (I) obok dowolnego zdania, występującego w języku, pewna nazwa jednostkowa tego zdania należy do języka; (II) każde wyrażenie, uzyskane z (2) przez zastąpienie symbolu “p” dowolnym zdaniem języka, zaś symbolu “x” - nazwą jednostkową tego zdania, ma być uznane za zdanie prawdziwe danego języka; (III) w języku tym można sformułować i uznać za zdanie prawdziwe uzasadnioną empirycznie przesłankę równoznaczną z (β).
Jeśli uwagi powyższe są słuszne, to sama możność konsekwentnego i przy tym zgodnego z zasadami logiki i z duchem języka potocznego operowania wyrażeniem “zdanie prawdziwe” i, co za tym idzie, możność zbudowania jakiejkolwiek poprawnej definicji tego wyrażenia wydaje się mocno zakwestionowana.
Struktura poznawania pośredniego. Jeżeli przedmiot poznawania nie jest dany bezpośrednio, wtedy musi zostać poznany przez inny przedmiot, a więc pośrednio. Ponieważ przedmiot jest pewnym stanem rzeczy, ten zaś uchwytywany jest w zdaniu [Satz], stąd w wypadku każdego poznawania pośredniego chodzi o wnioskowanie na podstawie jednego zdania o drugim albo o wyprowadzenie drugiego zdania z pierwszego. Jednym z najważniejszych osiągnięć ścisłej metodologii jest dojrzenie, że prawdziwość jakiegoś zdania musi albo być bezpośrednio zrozumiana, albo pośrednio wywnioskowana; inne postępowanie nie istnieje i nie może istnieć. W dalszym ciągu będziemy jednak mówić, jak to jest dzisiaj we zwyczaju, nie o zdaniach [Satz], lecz o (sensownych) wypowiedziach [Aussage].
Jak dochodzi do skutku wnioskowanie? Są tutaj dwa założenia: po pierwsze, potrzebne jest zdanie [Aussage] uznane za prawdziwe, po drugie, reguła, która pozwala nam “na podstawie” tego zdania uznać za prawdziwe inne zdanie. Przy bliższym przyjrzeniu okazuje się mianowicie, że zdanie będące założeniem musi być zawsze złożone; chodzi przy tym o koniunkcję (logiczny produkt) przynajmniej dwóch zdań. Prosty przykład jest następujący: mamy zdanie warunkowe o formie “Jeżeli A, to B” i do tego zdanie o formie “A”; posiadamy również regułę wnioskowania, która może być sformułowana następująco: “Jeżeli w systemie występuje zdanie warunkowe (“Jeżeli A, to B”), a także zdanie równokształtne z jego poprzednikiem (“A”), wtedy do systemu wolno wprowadzić zdanie równokształtne z następnikiem zdania warunkowego (“B”). Na podstawie tych zdań i za pomocą wymienionej reguły wnioskujemy o “B”.
Przykład ten można uogólnić i powiedzieć, że przesłanki mają formę F(p1, p2, p3, ..., pn) i pj (przy czym 1 j n), zaś reguła wnioskowania pozwala na podstawie tego wnioskować o pk (1 k n). Zdarza się również, że zamiast pj lub pk mamy do czynienia z ich negacjami - jednak podstawowa struktura pozostaje zawsze ta sama. Każde poznawanie pośrednie posiada tę a nie inną formę.
Jeszcze kilka uwag terminologicznych. Zdania będące założeniami nazywa się “przesłankami”, zdanie z nich wyprowadzone “wnioskiem”, operację, w której, aby uzasadnić wniosek, wyraźnie formułuje się przesłanki i regułę, “dowodem”. Wprowadzona wyżej, często używana, reguła wnioskowania jest to modus ponendo ponens lub krócej modus ponens.
Prawo i reguła. Uwagi powyższe nie dla każdego będą natychmiast jasne. Po co, można zapytać, jeszcze reguły? Weźmy np. sylogizm kategoryczny Barbara:
Wszyscy logicy palą fajki,
Wszyscy metodologowie są logikami,
Więc wszyscy metodologowie palą fajki.
Wniosek, może ktoś powiedzieć, wynika tutaj bezpośrednio z przesłanek i co więcej nie zakłada on żadnego zdania warunkowego; mamy tu do czynienia z sylogizmem kategorycznym.
Jednakże tak nie jest. Warto zwrócić uwagę, że Arystoteles, twórca sylogistyki kategorycznej, nigdy nie konstruował swoich sylogizmów w wyżej podanej formie. Nasz przykład sformułowałby następująco:
Jeżeli wszyscy logicy palą fajki
i wszyscy metodologowie są logikami,
wtedy wszyscy metodologowie palą fajki.
Aby w tym wypadku dojść do wniosku (“wszyscy metodologowie palą fajki”), trzeba mieć jeszcze inną przesłankę, mianowicie (złożone) zdanie: Wszyscy logicy palą fajki i wszyscy metodologowie są logikami. Chociaż więc sam sylogizm jest kategoryczny, to dowód otrzymuje się tylko w ten sposób, że dodatkowo zakłada się modus ponendo ponens. Modus ten nie musi być pomyślany jako prawo, lecz jako reguła. Prawo mówi, co jest - w naszym wypadku: jeżeli to, wtedy to; my musimy jednak wiedzieć, co możemy robić, a to może być dane tylko na podstawie reguły.
Nie potrzeba oczywiście przy każdym wnioskowaniu myśleć o tej regule, proces wnioskowania jest często tak prosty i naturalny, że stosujemy go bez żadnych trudności. Ale, po pierwsze, sytuacja nie jest zawsze tak prosta jak w naszym sylogizmie, w wyższych regionach myślenia prawie nigdy nie jest ona prosta, przeciwnie, zwykle jest aż nazbyt skomplikowana. Po drugie, z powodów przedstawionych w rozdziale o formalizmie, w tego rodzaju skomplikowanych procesach dowodzenia musimy często posługiwać się formalizmem. Jeżeli to jednak robimy, to abstrahujemy od sensu używanych zdań i w ogóle nie jesteśmy w stanie postępować bez wyraźnie sformułowanej reguły.
Są to powody, za pomocą których teoretycy metody aksjomatycznej usprawiedliwiają odróżnienie między prawem a regułą.
Dwie podstawowe formy wnioskowania. Odróżnienie praw od reguł posiada nie tylko duże znaczenie teoretyczne, pozwala ono także, jak to pokazał J. Łukasiewicz, podzielić wszystkie procesy dowodzenia na dwie wielkie klasy, mianowicie na dedukcję i redukcję. Podział ten będzie tworzył ogólne ramy dla dalszego przedstawienia współczesnych metod myślenia.
Zakłada się, że we wszystkich dowodach przesłanki mogą być tak przekształcone, że jedna jest zdaniem warunkowym (“Jeżeli A, to B”), druga zaś jest równokształtna bądź z poprzednikiem, bądź z następnikiem tego zdania. Tak jest również faktycznie: logika matematyczna zawsze dopuszcza tego rodzaju transformację. Oba wypadki można przedstawić następująco:
(1) jeżeli A, to B (2) jeżeli A, to B
A B
więc B więc A
Wnioskowanie według pierwszego schematu nazywa się u Łukasiewicza “dedukcją”, według drugiego “redukcją”. Regułą wnioskowania używaną w dedukcji jest wspomniany wyżej modus ponens. Nie nastręcza on żadnych trudności. W przeciwieństwie do tego reguła wnioskowania stosowana w redukcji może wydawać się podejrzana, gdyż jak wiadomo, wnioskowanie z następnika o poprzedniku jakiegoś zdania warunkowego nie jest w logice niezawodne. A jednak odpowiadająca mu reguła jest bardzo często stosowana zarówno w życiu codziennym, jak też szczególnie w naukach.
Łukasiewicz pokazuje, że tak zwana indukcja jest specjalnym przypadkiem redukcji. Weźmy prosty przykład: mamy trzy kawałki fosforu, a, b, c, o których stwierdzono, że zapalają się w temperaturze poniżej 60° C; wnioskujemy stąd, że wszystkie kawałki fosforu tak się zachowują. Jak wygląda schemat tego wnioskowania? Oczywiście jest on następujący:
Jeżeli wszystkie kawałki białego fosforu zapalają się poniżej 60° C, to także a, b i c,
a, b i c zapalają się poniżej 60 ° C,
więc wszystkie kawałki białego fosforu zapalają się poniżej 60° C.
Jest to jednak całkowicie oczywiście redukcja, gdyż ze zdania warunkowego i jego następnika wywnioskowaliśmy jego poprzednik. Tego rodzaju indukcje stosowane są we wszystkich naukach przyrodniczych i humanistycznych, są one nawet częstsze niż inne typy wnioskowania (chociaż nie mają tak prostej formy jak w powyższym przykładzie).
Redukcja nastręcza bardzo trudnych, do dzisiaj jeszcze ostatecznie nie rozwiązanych problemów. Omówimy je trochę dokładniej w następnym rozdziale. Teraz jednak powiemy jeszcze nieco więcej o rodzajach reguł wnioskowania.
Niezawodne i zawodne reguły wnioskowania. Jeżeli bliżej rozważymy obie formy wnioskowania, to widzimy, że różnią się one zasadniczo: modus ponens, jako reguła dedukcji, jest absolutnie niezawodną regułą wnioskowania, odpowiadająca mu natomiast reguła redukcji nie jest niezawodna.
Kiedy reguła wnioskowania jest niezawodna? Odpowiedź brzmi: wtedy i tylko wtedy gdy, jeżeli, przesłanki są prawdziwe, to także prawdziwy jest wniosek wyprowadzony w oparciu o tę regułę. Obowiązuje to dla wszystkich możliwych przesłanek, o ile tylko posiadają wyżej opisaną formę. Chodzi, tutaj o absolutnie ogólną obowiązywalność, która niekiedy nazywana jest “a priori” i która oczywiście należy do specjalnej dziedziny. Jest to tak zwana logiczna, w ścisłym sensie, formalno-logiczna dziedzina. Reguła wnioskowania nie należy wprawdzie bezpośrednio do dziedziny logiki - przynajmniej w potocznym sensie - ale pewnej niezawodnej regule wnioskowania odpowiada zawsze jakieś prawo, które na mocy zasad logicznych absolutnie obowiązuje w obrębie logiki.
Na temat relacji pomiędzy logiką formalną a metodologią poznawania pośredniego należy zauważyć, co następuje.
1. Logikę należy ostro odróżnić od metodologii, bada ona tylko zdania ogólnie obowiązujące, metodologia natomiast nie tylko takie.
2. Logika tworzy bezpośrednią bazę dla metodologii dedukcyjnej, o ile jej prawa dadzą się bezpośrednio przetransformować w dedukcyjne, niezawodne reguły wnioskowania.
3. Poza tym w każdym procesie wnioskowania logika odgrywa jeszcze dodatkową rolę przez to, że bardzo często pierwsza przesłanka powstaje przez podstawienie za jakieś prawo logiczne. Tak też w powyżej wprowadzonym przykładzie o fosforze przesłanka powstała oczywiście przez podstawienie za następujące prawo logiczne:
W wypadku gdy dla wszystkich x, jeżeli x jest A,
to także x jest B - wtedy:
jeżeli a, b i c są A, to są one również B.
Z tego wynika, że nie istnieją dwie logiki, ale istnieją dwie metodologie: dedukcyjna i redukcyjna. Stosunek logiki formalnej do nich jest asymetryczny: dla dedukcji logika formalna dostarcza nie tylko pierwszej przesłanki, lecz także tworzy bazę dla reguł wnioskowania, natomiast redukcja potrzebuje logiki tylko do skonstruowania pierwszej przesłanki, nie zaś reguł wnioskowania. W obu wypadkach chodzi jednak o tę samą logikę, chociaż raz zostaję uwzględniona w jednej, drugi raz w innej części. Nie istnieje logika <indukcyjna> albo <redukcyjna>, a tym bardziej nie istnieje, <logika badania> i <odkrycia>.
Historyczne uwagi wstępne. Metodologia poznawania pośredniego jest o wiele starsza niż metodologia poznawania bezpośredniego. Wydaje się ona być nawet starsza niż logika formalna, ponieważ u przedsokratyków, Platona i młodego Arystotelesa, występują już jej początki, nie ma natomiast żadnej logiki we właściwym sensie. W dojrzałym okresie swojej twórczości Arystoteles rozwinął systematycznie nie tylko pierwszą logikę, lecz także niektóre podstawowe idee metodologii wnioskowania, w tym między innymi ideę systemu aksjomatycznego. Wydaje się, że w starożytności tego rodzaju systemy były budowane głównie w matematyce, wiemy jednak, że u stoików również reguły logiczne były aksjomatyzowane. Przez długi czas nie było w tym względzie żadnego rozwoju. Aksjomatyka ustanowiona przez Arystotelesa jako postulat dla każdej nauki dedukcyjnej pozostała praktycznie przywilejem matematyki. Pierwowzór w tej dziedzinie stworzył Euklides. Jest także prawdą, że scholastycy, a potem szczególnie racjonalistyczni filozofowie XVII wieku, twierdzili, iż metoda ta obowiązuje również w filozofii. Jak wiadomo, Spinoza chciał zbudować swoją etykę <more geometrico>, tzn. aksjomatycznie, jednak próba ta była żałośnie nieudana.
W ostatnich czasach zastosowanie tej metody zostało znacznie rozszerzone. Teorie w fizyce są dzisiaj aksjomatyzowane. Od czasu jej zmatematyzowania sama logika jest zwykle przedstawiana w zaksjomatyzowanej formie. Po raz pierwszy od czasów Arystotelesa, w XX wieku podjęto ponownie poważne studia nad samym systemem aksjomatycznym. Husserl znowu wprowadził (znane już stoikom) rozróżnienie między prawem a regułą. Ścisłe współczesne pojęcie konsekwencji zostało po raz pierwszy sformułowane przez B. Bolzano, potem, niezależnie od niego, przez A. Tarskiego. Temu logikowi i R. Carnapowi zawdzięczamy najważniejsze wglądy w istotne własności systemu aksjomatycznego.
Plan prezentacji. Musimy się tutaj ograniczyć do tego, co najistotniejsze i najprostsze w wielorako rozbudowanej dziedzinie teorii aksjomatyki. Najpierw podamy kilka informacji o dzisiejszym stanie logiki matematycznej, następnie omówimy podstawowe rysy samego systemu aksjomatycznego. Ponieważ determinacja pojęć jest jedną z najważniejszych konsekwencji aksjomatyzacji, w dalszym ciągu nastąpi paragraf o naukowym formowaniu pojęć i definicji. W końcu rozważymy także kilka szczegółów systemu aksjomatycznego.
Wstępne pojęcie systemu aksjomatycznego. Słowo “aksjomat” pochodzi z greckiego άξιός, które znaczy pozytywną ocenę, a w szczególności uznanie obowiązywalności czegoś. U Arystotelesa (ale nie u stoików) “aksjomat” oznacza zdanie będące zasadą (αρχή) dla innych zdań, które z tej zasady zostają wyprowadzone. Zgodnie z tym system aksjomatyczny przedstawia się mniej więcej następująco: dzielimy wszystkie zdania należące do pewnej dziedziny na dwie klasy: (1) na klasę aksjomatów i (2) na klasę zdań wyprowadzonych. Te ostatnie zostają wydedukowane z aksjomatów, wynikają z nich. Klasycznym przykładem tego rodzaju systemu aksjomatycznego jest system geometrii Euklidesa.
Nowożytna metodologia dedukcji modyfikuje dawny system w następujący sposób:
1. System aksjomatyczny jest zbudowany całkowicie formalistycznie. Jest to system znaków. Interpretacja tych znaków nie należy już do tego systemu.
2. Wraz z formalizacją wszystkie warunki, które dawna aksjomatyka stawiała aksjomatom - a więc oczywistość, pewność, ontologiczne pierwszeństwo - stały się nie do utrzymania. Aksjomat tylko tym odróżnia się od innych zdań systemu, że nie jest w tym systemie wyprowadzony.
3. Aksjomaty są ostro odróżnione od reguł. Nowożytny system aksjomatyczny ma więc dwa rodzaje zasad: aksjomaty (które są prawami) i reguły (które nie są prawami, lecz instrukcjami).
4. W wyniku zastosowania formalizmu i wprowadzenia odróżnienia między aksjomatami a regułami, zrelatywizowane zostało pojęcie wyprowadzania: nie mówi się więcej o wyprowadzaniu albo o dowodzeniu [Beweisbarkeit] w ogóle, lecz zawsze tylko w odniesieniu do danego systemu.
5. Obok aksjomatycznego systemu zdań znamy dzisiaj podobny i ściśle z nim złączony aksjomatyczny system wyrażeń.
Budowa aksjomatycznego systemu zdań. Budując jakiś system aksjomatyczny postępuje się dzisiaj w następujący sposób: Najpierw wybiera się klasę zdań, które mają funkcjonować jako aksjomaty. Zostają one przyjęte bez dowodu. Wraz z aksjomatami ustala się reguły wnioskowania, według których powinno się postępować w systemie. Za pomocą tych reguł z aksjomatów będą potem wydedukowane nowe (wyprowadzone) zdania. Przy każdym kroku zostaje dokładnie podane, z których aksjomatów się wychodzi i jakich reguł się używa. W dalszym ciągu z już wyprowadzonych zdań (z użyciem lub bez użycia aksjomatów), za pomocą tych samych reguł i w ten sam sposób, wyprowadza się nowe zdania. Postępuje się w ten sposób dalej tak długo, jak to jest konieczne.
Widać więc, że system aksjomatyczny jest całkowicie określony wyłącznie przez swoje aksjomaty i reguły. Wszystko inne jest tylko rozwinięciem tego, co w nich już jest dane.
Widać także, że z semantycznego punktu widzenia, system aksjomatyczny zawiera zawsze dwa rodzaje elementów: aksjomaty i zdania wyprowadzone należą do języka przedmiotowego, reguły do metajęzyka. Tylko pierwsze mogą (i powinny) być sformalizowane, gdyż gdyby reguły zostały również sformalizowane, tzn. gdyby abstrahowało się od ich sensu, wtedy nie wiadomo byłoby, co one oznaczają i z tego powodu nie można byłoby ich używać. Znaczy to jednak, że nie istnieje całkowicie sformalizowany system aksjomatyczny. Nazywa się go mimo to “całkowicie sformalizowanym”, jeżeli wszystko oprócz reguł traktuje się w nim formalistycznie.
Należy jeszcze zauważyć, że w ostatnim czasie zostały skonstruowane także nieco inaczej ukształtowane systemy aksjomatyczne, mianowicie takie, w których nie ma aksjomatów, a tylko reguły, i takie, w których z reguł podstawowych dedukuje się inne, wyprowadzone reguły. Systemy te jednak mają znaczenie tylko dla metodologii logiki i dla żadnej dziedziny poza tym.
Wymagania dotyczące systemu aksjomatycznego. Nie każdy system aksjomatyczny uchodzi dzisiaj za poprawny, nawet wtedy, gdy jest dokładnie sformalizowany i ściśle wyprowadzony. Formułuje się wobec niego zawsze dalsze postulaty, które można podzielić na dwie klasy. Postulaty należące do klasy pierwszej są uważane za obowiązujące bezwarunkowo, natomiast te, które należą do klasy drugiej, obowiązują mniej ściśle.
(1) Wymaga się, aby system aksjomatyczny był niesprzeczny. Postulat ten postawił już Arystoteles, dzisiaj jednak formułuje się go jeszcze o wiele ostrzej i obowiązuje on jeszcze bardziej bezwarunkowo. Wymaga się nie tylko, aby faktycznie nie dała się wykazać żadna sprzeczność, lecz także wymaga się dowodu, że żadna sprzeczność w systemie nie może w ogóle wystąpić. Wymaga się takiego dowodu (który może być przeprowadzony wieloma metodami), ponieważ logika matematyczna pokazuje, że z każdej sprzeczności wyprowadzalne jest każde zdanie danej dziedziny; w takim wypadku nie byłoby żadnej różnicy między uznanymi (prawdziwymi) a nieuznanymi (fałszywymi) zdaniami, a to zniszczyłoby każdą naukę.
(2) Do drugiej grupy należą wymagania zupełności [Vollständigkeit] systemu i wzajemnej niezależności aksjomatów. System nazywa się “zupełnym”, gdy z jego aksjomatów dadzą się wyprowadzić wszystkie zdania prawdziwe do niego należące. Aksjomaty są niezależne wtedy, gdy z żadnego z nich nie da się wyprowadzić inny. Postulat ten ma pewien rys estetyczny. Faktycznie też w dzisiejszej aksjomatyce racje estetyczne wydają się odgrywać większą rolę niż dawniej. Próbuje się np. znaleźć możliwie najmniejszą liczbę aksjomatów, a nawet tylko jeden, z którego dałyby się wyprowadzić wszystkie odpowiadające mu zdania, przy czym chce się go ukształtować możliwie najprościej. Ta estetyzująca tendencja idzie dzisiaj aż tak daleko, że ze względu na prostotę preferuje się mniej oczywisty aksjomat przed wieloma oczywistymi.
Nie wymieniliśmy tutaj jeszcze jednego wymagania, o którym wspomnieliśmy już poprzednio, a mianowicie ścisłej formalizacji. Jednakże wymaganie to jest ściśle przestrzegane tylko przez logików matematycznych, matematycy postępują zwykle o wiele swobodniej i często posługują się intuicją.
System konstytucyjny. Współczesny system aksjomatyczny zawiera nie tylko aksjomaty, reguły wnioskowania i zdania wyprowadzone, lecz także - i przede wszystkim - tak zwany system konstytucyjny [Konstitutionssystem], który może być uznany za aksjomatyczny system wyrażeń. Jest on zbudowany całkowicie analogicznie do aksjomatycznego systemu zdań, tak jak ten ostatni zawiera również trzy rodzaje elementów i jest konstruowany w następujący sposób.
Najpierw określona zostaje klasa wyrażeń, które mają funkcjonować jako wyrażenia pierwotne. Przyjmuje się je do systemu bez definicji. Do tego dołącza się reguły, według których do systemu można wprowadzić nowe wyrażenia atomowe (reguły definiowania) i tworzyć wyrażenia złożone (reguły formowania). Wykorzystując te reguły definiuje się nowe wyrażenia za pomocą wyrażeń pierwotnych albo tworzy się nowe wyrażenia z pierwotnych. W trakcie każdego kroku zostaje dokładnie podane, które wyrażenia pierwotne i reguły były użyte. Na podstawie tak zdefiniowanych wyrażeń (względnie utworzonych przez złożenie) wprowadza się znowu (przy użyciu albo bez użycia wyrażeń pierwotnych) nowe wyrażenia. Postępuje się w ten sposób tak długo, jak to jest konieczne. Cały ten proces przebiega dokładnie równolegle do procesu, w którym tworzy się system zdań. Jest jednak jasne, że system konstytucyjny leży u podstaw systemu zdań, gdyż zanim można określić, które zdania mają obowiązywać, trzeba już wiedzieć, które wyrażenia są obowiązujące. Ale to właśnie jest zdeterminowane przez reguły systemu konstytucyjnego.
Dokładnie biorąc, reguły te są trojakiego rodzaju:
1. Reguła, która określa, jakie wyrażenia przyjmowane są jako pierwotne.
2. Reguły definiowania, które określają, w jaki sposób można wprowadzić nowe wyrażenia atomowe.
3. Reguły formowania, według których z już zawartych w systemie wyrażeń wolno tworzyć dalsze (molekularne) wyrażenia.
Ostatnie z wymienionych reguł zostały już omówione w paragrafie poświęconym syntaksie. Reguła pierwszego rodzaju nie potrzebuje specjalnych rozważań, natomiast stosowne byłoby teraz omówienie różnych rodzajów definicji. Ponieważ łączą się one ściśle z metodologicznie ważnymi problemami naukowego tworzenia pojęć, omówimy je w specjalnym paragrafie.
Dedukcja progresywna i regresywna. Patrząc z zewnątrz, konstrukcja sformalizowanego systemu aksjomatycznego wydaje się zawsze progresywna, tzn. że najpierw ustanawia się zasady .(aksjomaty i reguły), potem zaś, w oparciu o nie, dokonuje się wnioskowania. Jednak w rzeczywistości nie każda dedukcja jest progresywna, lecz należy odróżnić dwa rodzaje wnioskowania dedukcyjnego: dedukcję progresywną i regresywną. Obie są rzetelnymi dedukcjami, tzn. że prawdziwość przesłanek jest już znana, natomiast dopiero szuka się prawdziwości wniosków. Można jednak, niezależnie od tego, wyjść albo od już ustalonych przesłanek, albo od wniosku, który ma być właśnie dowiedziony. Dowody Euklidesa są przykładem dedukcji regresywnej: najpierw formułuje się zdanie, które ma być dowiedzione, potem wprowadza się konieczne dla dowodu, wcześniej już uznane, prawa. W przeciwieństwie do tego zwykłe liczenie jest w większości wypadków przeprowadzane w formie progresywnej: ostateczny wniosek formułuje się dopiero na końcu.
Jeżeli się zapytamy, która z tych dwóch rodzajów dedukcji występuje częściej w praktyce naukowej, to okaże się, że w większości wypadków najpierw formułuje się wnioski, a dopiero potem szuka się dla nich uzasadnienia, tzn. że postępuje się regresywnie. Dobrze znany jest np. fakt, że wielkie odkrycia matematyczne dochodziły do skutku właśnie w ten sposób: odkrywca najpierw formułował twierdzenie, którego dowód przeprowadzał dopiero o wiele później, chociaż na podstawie dawno już znanych przesłanek.
Z tego jednak nie wynika, że we współczesnych naukach dedukcyjnych dedukcja progresywna nie odgrywa żadnej roli. Przeciwnie, każde obliczanie jest oczywiście, jak to zostało zaznaczone wyżej, dedukcją progresywną.
Należy dodać jeszcze jedną uwagę. Sama aksjomatyzacja jest całkowicie neutralna nie tylko w odniesieniu do tych dwóch rodzajów dedukcji, lecz także w odniesieniu do dedukcji i redukcji. Można równie dobrze aksjomatyzować zarówno na bazie wcześniej uznanych aksjomatów, jak też wcześniej uznanych wniosków. Tylko dlatego omawiamy tę metodę w paragrafie dotyczącym dedukcji, ponieważ aksjomatyzacja jest abstrakcją z żywego procesu dedukcji progresywnej i odzwierciedla jego strukturę.
Znaczenie metodologiczne. Nie może być zadaniem tej książki danie zarysu logiki matematycznej, gdyż logika ta jest logiką formalną, tutaj natomiast chodzi o metodologię, którą, jak to już wielokrotnie podkreślaliśmy, należy odróżnić od logiki. Jednakże krótkie omówienie, jeżeli nie systemu logiki matematycznej, to przynajmniej kilku jej ogólnych własności, mogłoby być tutaj na miejscu. Logika matematyczna (jak zresztą każda logika formalna) może być rozważana z dwojakiego punktu widzenia. Z jednej strony, można ją traktować jako pewną naukę teoretyczną, która bada własne, czysto teoretyczne problemy. Jako taka logika zawiera między innymi badania dotyczące najkrótszego i jedynego aksjomatu, z którego dałyby się wyprowadzić wszystkie prawa logiczne, albo badania dotyczące jedynego funktora, za pomocą którego dałyby się zdefiniować wszystkie funktory jakiejś dziedziny logiki. Tak widziana, logika matematyczna jest pewną nauką specjalną, która tutaj nas nie interesuje.
Z drugiej strony, logika formalna, jak to już zauważyliśmy, tworzy bazę dla dedukcyjnych reguł wnioskowania, a poza tym także odgrywa pewną rolę w procesach naukowego myślenia. Zwolennicy logiki matematycznej twierdzą, że jest ona logiką formalną, jedyną dzisiaj naukową logiką formalną. Z tego punktu widzenia nie powinno zabraknąć omówienia tej nauki w ramach metodologii dedukcyjnej. Logika matematyczna posiada nie tylko czysto teoretyczne, spekulatywne znaczenie, lecz także metodologiczne.
Faktycznie w ostatnim czasie logika matematyczna wywarła szczególnie duży wpływ na metodologię, a to z dwóch powodów. Po pierwsze, była ona pierwszą nauką, dla której została rozwinięta ścisła metoda aksjomatyczna i podczas gdy metoda ta stosowana jest dzisiaj w wielu innych dziedzinach, to jednak ciągle jeszcze najważniejszą rolę odgrywa w logice matematycznej. Dodatkowo struktura dzisiejszej logiki matematycznej (w odróżnieniu od wcześniejszych form logiki) jest tego rodzaju, że bezpośrednio ukazuje ciekawe, a nawet palące problemy metodologiczne.
Stąd też dzisiaj tylko niewielu metodologów dedukcji nie jest matematycznymi logikami i to także jest powód, dla którego w tym krótkim omówieniu należy powiedzieć coś o logice matematycznej .
Historia logiki matematycznej. Dla zrozumienia dzisiejszej sytuacji w tej dziedzinie użyteczne będzie podanie kilku informacji o rozwoju logiki matematycznej. Jej historia da się podzielić na określone etapy. G. W. Leibniz (1646-1716) jest zwykle traktowany jako pierwszy logik matematyczny albo w każdym razie jako logik, który pierwszy rozwijał idee matematyczno-logiczne. Nie wpłynęły one jednak ani na współczesnych mu myślicieli, ani na bezpośrednich następców. Dopiero około 1900 roku odkryto je ponownie. Historia tej nauki zaczyna się właściwie wraz z G. Boolem (1815-1864) i A. de Morganem (1806-1878), którzy w roku 1847 opublikowali pierwsze prace na ten temat. Do tego pierwszego okresu należą także dzieła L. Couturata (1868-1914) i innych. Okres ten można uważać dzisiaj za całkowicie przekroczony. W końcu XIX wieku wielu znaczących logików, przede wszystkim G. Frege (1848-1925) i obok niego G. Peano (1858-1932) oraz E. Schröder (1841-1902), zaczęło rozwijać nową formę logiki matematycznej. Te początki znalazły swoją kontynuację i rozszerzenie w gigantycznym dziele A. N. Whiteheada (1861-1947) i B. Russela (1872-1970) Principia Mathematica (1910-1913). Wraz z tym dziełem rozpoczął się nowy okres badań.
Principia Mathematica w tym, co w nich istotne, są tylko formalistycznym opracowaniem i rozszerzeniem arystotelesowsko-stoickiej logiki formalnej. Charakterystyczne dla najnowszego, trzeciego okresu, zaczynającego się około 1920 roku, jest pojawienie się “heterodoksalnych” systemów, które zbudowane są na innej, nie-arystotelesowskiej i nie-stoickiej podstawie. Jako najważniejsze wśród nich należy wymienić wielowartościową logikę J. Łukasiewicza (1921) i intuicjonistyczną logikę A. Heytinga (1930). Równocześnie pojawiają się różne systemy arystotelesowskie, ale odbiegające od systemu Principiów, jak np. system S. Leśniewskiego (między 1920-1930). Najnowszy rozwój przyniósł bardzo dużo oryginalnych systemów, m.in. tak zwane logiki naturalne (logiki konsekwencji, które składają się z samych reguł) G. Gentzena i S. Jaśkowskiego, jak również logikę kombinatoryczną H. Curry'ego (1930).
Istotne rysy logiki matematycznej. Liczne nieporozumienia na temat logiki matematycznej były szerzone przez wielu filozofów różnych kierunków. Identyfikowano tę naukę z całą logiką (włącznie z metodologią i filozofią logiki). Identyfikowano ją z pewnym kierunkiem filozoficznym, mianowicie z neopozytywizmem (chociaż ani logika matematyczna, ani jej najbardziej znaczący twórcy nie mieli nic do czynienia z neopozytywizmem). Mówiono, że jest ona próbą sprowadzenia wszystkiego do ilości. Podczas gdy faktycznie miało miejsce coś niemalże przeciwnego (przynajmniej Whitehead i Russell próbowali pozbyć się [wegerklären] ilości). Dzisiaj jeszcze miesza się ją często z jednym z wielu matematyczno-logicznych systemów, a nawet z filozoficznymi poglądami pewnych logików matematycznych. Wszystkie te nieporozumienia wynikają z powierzchownej znajomości faktów lub z całkowitej ich nieznajomości.
Logika matematyczna w jej dzisiejszej formie jest czymś zupełnie innym. Najlepiej można ją scharakteryzować przez odgraniczenie od innych typów logiki formalnej - gdyż jest ona pewnym rodzajem tej logiki. Różni się ona od nich tym, że, po pierwsze, jest zaksjomatyzowana, po drugie, sformalizowana i po trzecie, zrelatywizowana w tym sensie, że zawiera wiele bardzo różnych systemów. Drugorzędną jej własnością (którą często błędnie uważa się za podstawową) jest to, że w większości wypadków przedstawiana jest w sztucznym języku symbolicznym. Inną, także akcydentalną, ale ważną własnością jest to, że jej treść jest nieporównywalnie bogatsza niż wszystkich innych form logiki formalnej. Zawiera ona m.in. całą sylogistykę arystotelesowską - i to w bardzo precyzyjnej formie - całą logikę modalną, całą stoicką teorię konsekwencji i ponadto tysiące innych praw.
Ponieważ zajmowaliśmy się już formalizmem i metodą aksjomatyczną, nie potrzebujemy teraz mówić na ich temat. Zauważmy tylko, że aksjomatyzacja i formalizacja logiki matematycznej uchodzą dzisiaj za paradygmatyczne i z tego powodu logika ta posiada duże znaczenie metodologiczne. Kto chce nauczyć się metody aksjomatycznej, ten musi studiować rozprawy z zakresu logiki matematycznej.
Należy jednak jeszcze coś powiedzieć na temat względności systemów matematyczno-logicznych i krótko rozważyć kilka metod rozwiniętych w tej nauce, które mają pewne znaczenie dla każdego myślenia dedukcyjnego.
Udział logiki matematycznej w pozalogicznych systemach aksjomatycznych. Jeżeli w jakiejkolwiek dziedzinie, np. w fizyce, astronomii, biologii czy teologii, chce się zbudować sformalizowany system aksjomatyczny, wtedy nieuniknione jest zastosowanie logiki matematycznej. Można tego dokonać w dwojaki sposób. (1) Można tak konstruować system, że wszystkie aksjomaty należą do dziedziny będącej przedmiotem rozważania, tzn. że nie przejmuje się żadnych praw z logiki. Aby jednak móc wnioskować, trzeba posłużyć się jakimiś regułami wnioskowania i, jak pokazuje praktyka, stosunkowo wieloma regułami. Skąd naukowiec weźmie te reguły wnioskowania? Oczywiście z logiki. Rzeczywiście też dostarcza ona albo gotowych reguł wnioskowania (z tak zwanych logicznych systemów konsekwencji), albo przynajmniej praw, które bezpośrednio dadzą się przełożyć na takie reguły. (2) Można jednak również i tak dzieje się zazwyczaj - oprócz specjalnych aksjomatów dla danej dziedziny, założyć pewną liczbę praw zapożyczonych z logiki. W takim wypadku potrzeba tylko niewielu reguł wnioskowania (często wystarczą dwie lub trzy), ale tym bardziej liczne będą aksjomaty logiczne.
W tej sytuacji, w obliczu dzisiejszego stanu logiki matematycznej, powstaje ważny problem: który spośród licznych systemów tej logiki powinien służyć jako podstawa aksjomatyzacji w pierwszym lub drugim sensie? Jest to całkiem nowy problem. Dawna metodologia nie znała go i nie mogła go znać, ponieważ wcześniejsza logika - przed 1921 rokiem - nie oferowała wielu różnych systemów. Jednak w 1921 roku J. Łukasiewicz i E. Post (jednocześnie i niezależnie od siebie) sformułowali tak zwane wielowartościowe systemy logiki, które znacznie różnią się od logiki <klasycznej>. Systemy Łukasiewicza zostały następnie ściśle zaksjomatyzowane, ich niesprzeczność i zupełność została dowiedziona itd. Potem pojawiła się tak zwana logika intuicjonistyczna L. Brouwera. W 1930 roku ściśle zaksjomatyzował ją A. Heyting. Dzisiaj mamy do dyspozycji wiele różnych systemów, a różnice pomiędzy nimi są znaczne. Tak np. tertium non datur (prawo wylączonego środka) nie obowiązuje ani w trójwartościowej logice Łukasiewicza, ani w intuicjonistycznej logice Heytinga, podczas gdy jest ono prawem <klasycznej> logiki matematycznej (takiej np. jak w Principia Mathematica).
Względność systemów logicznych. Można byłoby mniemać, że chodzi tu o czystą spekulację logików, która nie posiada żadnego znaczenia dla żywej nauki. Tak jednak nie jest. W 1944 roku H. Reichenbach pokazał, że mechanika kwantowa nie da się bez sprzeczności zaksjomatyzować na gruncie <klasycznej> logiki (takiej jak w Principia Mathematica), ale że jest łatwo i niesprzecznie aksjomatyzowalna w ramach logiki trójwartościowej Łukasiewicza. Relatywizacja systemów matematyczno-logicznych stała się problemem dla metodologii. Aby czegoś dowodzić, trzeba założyć jakiś system logiczny, istnieje jednak wiele tego rodzaju systemów. Który z nich powinien być wybrany?
Odpowiedź brzmi: ten, który w najłatwiejszy sposób, bez sprzeczności, pozwoli zaksjomatyzować daną dziedzinę. Wiodącą zasadą jest tutaj, z jednej strony, zupełność, z drugiej, niesprzeczność. Dodatkowo grają także pewną rolę motywy estetyczne: im prościej i bardziej elegancko dadzą się w ramach systemu przeprowadzić dowody i im mniej potrzeba aksjomatów, tym lepiej. To jest dzisiejsza sytuacja, tak ją widzą wszyscy poważni metodologowie nauk dedukcyjnych.
Tyle o metodologicznej zawartości nowych odkryć. Do tego jeszcze jedna uwaga filozoficzna. Zbyt wielu myślicieli wyciągnęło z tej sytuacji przedwczesne wnioski filozoficzne w sensie całkowitego relatywizmu, a nawet sceptycyzmu. Faktycznie jednak nie wydaje się istnieć żaden powód dla tego rodzaju pesymistycznych konkluzji. Gdy bliżej przyjrzymy się sytuacji, wtedy można stwierdzić, co następuje.
(1) Tak zwane “heterodoksalne” systemy logiczne stosowane są tylko w tych dziedzinach, w których prawdopodobnie znakom nie przysługuje żaden sens ejdetyczny. We wszystkich tych wypadkach, w których nauka operuje ejdetycznie sensownymi znakami używa się logiki klasycznej.
(2) Reguły metajęzykowe używane do formalizacji odpowiednich systemów są na wskroś <klasyczne>. Tak np. trójwartościowa logika Łukasiewicza nie uznaje tertium non datur, jednak metajęzykowo zawsze zakłada się, że każdemu zdaniu przysługuje albo nie przysługuje pewna wartość i że trzecia możliwość nie zachodzi. Istnieją systemy, w których zasada niesprzeczności nie obowiązuje, ale same te systemy muszą być skonstruowane niesprzecznie i każdy logik stara się o dowód tej niesprzeczności.
(3) W większości wypadków, w których pozornie mamy do czynienia ze sprzecznymi ze sobą systemami logicznymi albo nie istnieje żadna interpretacja dla jednego z nich, albo użyte znaki nie mają tego samego sensu w jednym i w drugim. Tak np. znak negacji w logice intuicjonistycznej posiada całkowicie inny sens niż w systemie z Principia Mathematica.
(4) Z drugiej strony, przy tego rodzaju systemach chodzi często o wycinki z całego pola praw logicznych. Może się zdarzyć, że taki wycinek wystarcza i dlatego tego typu logika częściowa jest używana.
W ten właśnie sposób filozof, który nie jest nastawiony sceptycznie, może osądzić sytuację metodologiczną w tej dziedzinie. I my dołączamy tutaj ten osąd, ponieważ większość naukowców nie jest sceptykami. Ich intuicyjna wiara w absolutną ważność praw logicznych nie jest w żaden sposób zagrożona przez ostatni rozwój logiki. To nie sama logika, lecz filozofujący metodologowie głoszą sceptycyzm.
Implikacja i wyprowadzalność. Pomiędzy wieloma pojęciami, którymi zajmuje się logika matematyczna, pojęcie konsekwencji odgrywa szczególnie ważną rolę. Jest ono podstawowe dla metodologii poznawania pośredniego, ponieważ ona zawsze je zakłada. W dzisiejszej klasycznej logice matematycznej odróżnia się przynajmniej dwa pojęcia konsekwencji: implikację i wyprowadzalność. Implikacja jest o tyle pojęciem absolutnym, o ile może ona istnieć między dwoma zdaniami bez żadnego odniesienia do systemu aksjomatycznego; przeciwnie wyprowadzalność, musi ona zawsze być rozważana w relacji do jakiegoś systemu aksjomatycznego.
Implikacja zachodzi między dwoma zdaniami - poprzednikiem A i następnikiem B - dokładnie wtedy, gdy A jest fałszywe i B jest prawdziwe, albo gdy A i B są jednocześnie fałszywe, bądź prawdziwe. Z definicji tej wynika, że implikacja nie zachodzi tylko w jednym wypadku, mianowicie wtedy, gdy poprzednik (A) jest prawdziwy, a następnik (B) fałszywy; we wszystkich innych wypadkach, czymkolwiek mogłyby być A i B, implikacja ma miejsce. W szczególności zdanie fałszywe implikuje każde zdanie, a zdanie prawdziwe jest implikowane przez każde zdanie. Przykładami (gdy zechcemy “jeżeli - to” nadać taki właśnie sens) mogą być: “Jeżeli 2 + 2 = 5, to każdy pies jest rybą”; “Jeżeli 2 + 2 = 5, to każdy zdrowy pies ma 4 łapy”; “Jeżeli 2 + 2 = 4, to 1 = 1”.
Jest to, jak łatwo można zauważyć, bardzo dziwna interpretacja zwykle używanego “jeżeli - to” i, co gorsza, prowadzi ona do trudności metodologicznych. Już megarejczycy (Diodor Kronos), i potem scholastycy próbowali uniknąć tych trudności w ten sposób, że implikację definiowali za pomocą (modalnego) funktora możliwości: “Jeżeli A, to B” miało zgodnie z tym znaczyć tyle co “Nie jest możliwe, że A i nie B”. Taką samą definicję sformułował ponownie w 1918 roku C. I. Lewis. Definicja ta nie usunęła jednak trudności; gdyż w wypadku zastosowania tej (nazwanej “ścisłą”) definicji Diodora względnie Lewisa, nie powstaje wprawdzie twierdzenie, że implikacja zachodzi między każdym fałszywym i dowolnym prawdziwym zdaniem, ale za to powstaje analogiczne twierdzenie, że zachodzi ona między każdym niemożliwym a każdym dowolnym innym zdaniem.
Logika matematyczna oferuje jeszcze inne, podobne pojęcie, mianowicie pojęcie wyprowadzalności. Mówi się że, B jest wyprowadzalne z A w systemie S wtedy i tylko wtedy, gdy S zawiera aksjomaty i reguły, które pozwalają pokazać, że gdy A należy do S, to także B należy do S. Następujący prosty przykład może unaocznić różnicę między implikacją a wyprowadzalnością. Niech to będzie klasyczny sylogizm:
(1) Wszyscy ludzie są śmiertelni.
(2) George Boole był człowiekiem.
(3) George Boole był śmiertelny.
Ponieważ tutaj (2) i (3) są prawdziwe, to przesłanka mniejsza (2) implikuje wniosek (3). Jednak wyłącznie z (2) w ramach zwykłej logiki nie da się wyprowadzić (3). (3) da się wyprowadzić tylko z obu wcześniejszych zdań, tzn. z (1) i (2). (3) jest zatem implikowane przez (2), ale nie jest wyprowadzalne wyłącznie z (2).
Oczywiście ze zdania fałszywego, wyłącznie na podstawie jego fałszywości, nie można nic wyprowadzić; z drugiej strony, zdanie prawdziwe tylko przez to, że jest prawdziwe, nie jest wyprowadzalne z każdego innego zdania. Pod pewnym względem więc pojęcie wyprowadzalności znajduje się bliżej naturalnego pojęcia konsekwencji niż pojęcie implikacji. Jednakże naturalne pojęcie konsekwencji posiada pewne własności wspólne z implikacją i, dodatkowo, wydaje się ono obejmować przyczynowość w sensie ontologicznym. Dlatego ścisłe postępowanie wymaga dokładnego i konsekwentnego oddzielenia implikacji i wyprowadzalności.
Podstawowe typy definicji. Słowo “definicja” określa prawie każdą odpowiedź na pytanie “Co to jest x?”, przy czym za “x” może być podstawione jakiekolwiek stałe wyrażenie. Jest oczywiste, że odpowiedzi mogą być tak różne, iż słowo “definicja” jest samo wieloznaczne. Pierwszym odróżnieniem typów definicji, sformułowanym już przez Arystotelesa i do dzisiaj jeszcze używanym, jest odróżnienie definicji realnych od nominalnych. Definicja realna mówi, czym jakaś rzecz jest, nominalna odnosi się nie do rzeczy, lecz do znaku. W XIX wieku różni filozofowie (m.in. W. Wundt) próbowali sprowadzić wszystkie definicje do nominalnych. Współczesna metodologia odróżnia jednak oba te gatunki.
Dodatkowo przeprowadza ona jeszcze pewne rozróżnienia w ramach samych definicji nominalnych. Mogą one być albo syntaktyczne, albo semantyczne. W pierwszym wypadku chodzi tylko o regułę pozwalającą zastąpić jeden znak przez inny (zwykle krótszy). W przeciwieństwie do tego definicja semantyczna determinuje znaczenie znaku. Dzieli się ona jeszcze na dwa gatunki, a mianowicie mówi się o definicji analitycznej albo leksykalnej i o definicji syntetycznej albo tak zwanej twórczej. W definicji analitycznej pewnemu znakowi zostaje wyraźnie przypisane znaczenie, które już mu dotychczas gdzieś przysługiwało. Chodzi więc tutaj o pojęcie pragmatyczne, które zakłada znaczenie znaku już istniejące w jakiejś grupie ludzi. Przeciwnie definicja syntetyczna, nadaje ona znakowi nowe, dowolnie wybrane znaczenie. Według R. Robinsona cały ten podział można przedstawić za pomocą następującego schematu:
Trzeba przy tym pamiętać, że wszystko, co jest ważne dla definicji syntaktycznej, ważne jest a fortiori także dla wszystkich innych rodzajów definicji, ale nie odwrotnie. Należy również zauważyć, że definicja syntaktyczna staje się semantyczną, jeżeli system, do którego należy, otrzymuje interpretację. Dlatego najpierw dokładniej omówimy definicję syntaktyczną.
Typy definicji syntaktycznych. Można odróżnić przynajmniej cztery różne typy definicji syntaktycznych - a więc a fortiori także i innych: definicje wyraźne, kontekstowe, rekurencyjne i aksjomatyczne.
(1) Definicje wyraźne. Są one regułami, według których pewne wyrażenie może zostać bezpośrednio zastąpione przez inne i w większości wypadków chodzi tu o zastąpienie dłuższego (molekularnego) wyrażenia przez krótsze (często atomowe). Za pomocą tego rodzaju definicji wprowadza się do systemu nowe wyrażenie. W takiej sytuacji fachowo zapisuje się oba wyrażenia - nowe (definiendum) i stare (definiens) - połączone znakiem równości, ze znakiem “df” na końcu całego wyrażenia albo pod znakiem równości. Tak np. w logice zdań Łukasiewicza znak implikacji “C” mógłby być wprowadzony za pomocą następującej definicji:
C = AN df.
(2) Definicje kontekstowe. Nie są one regułami, lecz prawami, tzn. zdaniami formułowanymi w języku przedmiotowym, które konstruuje się w następujący sposób: po lewej stronie umieszcza się zdanie, które zawiera pewną liczbę wyrażeń już w systemie występujących i dodatkowo także definiendum; potem następują słowa “wtedy i tylko wtedy, gdy” i inne zdanie, składające się wyłącznie z wyrażeń już w systemie obecnych. Przykładem takiej definicji byłoby następujące zdanie: “Człowiek jest heroiczny wtedy i tylko wtedy, gdy dokonuje czynów, które są 1. moralnie dobre, 2. bardzo trudne, 3. połączone z największym niebezpieczeństwem” - przy czym wszystkie części tego zdania, poza słowem “heroiczny”, powinny być uważane za znane.
(3) Definicje rekurencyjne. Tego rodzaju definicje składają się z sekwencji zdań zbudowanych w ten sposób, że każde następne wskazuje na wszystkie je poprzedzające, a definicja dopiero wtedy dochodzi do skutku, gdy dane są wszystkie zdania. Najlepiej będzie to zrozumiałe na podstawie przykładu. Wybieramy definicję wyrażenia “zdanie” we wspomnianej już logice zdań Łukasiewicza:
1. Każda litera o formie “p”, “q” albo “r” jest zdaniem; 2. wyrażenie, które składa się z litery o formie “N” i ze zdania, jest zdaniem; 3. wyrażenie, które składa się z liter o formie “C”, “D”, “E” albo “K” i z dwóch zdań, jest zdaniem.
Widać z tego, że w systemie Łukasiewicza np. wyrażenie
CCpqCNqNp
jest zdaniem, gdyż “p” i “q” są zdaniami zgodnie z 1.; dlatego zdaniami są także “Nq” i “Np” zgodnie z 2.; z tego wynika, że “CNqNp” jest zdaniem zgodnie z 3. (wyrażenie to składa się z “C” i z dwóch zdań, “Nq” i “Np”); całość więc składa się z “C” (pierwszego) i z dwóch zdań (mianowicie “Cpq” i “CNqNp”), jest zatem zdaniem zgodnie z 3.
(4) Definicje za pomocą systemu aksjomatycznego. Mówi się dzisiaj o definicji także i w tych wypadkach, w których (syntaktyczny) sens pewnego wyrażenia zostaje częściowo zdeterminowany przez serię zdań. Dzieje się to wtedy, gdy formułuje się pewną liczbę zdań, w których wyrażenie mające być zdefiniowane występuje razem z innymi wyrażeniami. Zdania te w przeciwieństwie do definicji kontekstowych - nie potrzebują być równoważnościami; mogą one być np. zdaniami warunkowymi albo dysjunkcjami itd.
Definicja za pomocą systemu aksjomatycznego. Ostatni z czterech omówionych wyżej typów definicji syntaktycznych posiada duże znaczenie i zasługuje na nieco bliższe omówienie. Chodzi tutaj o determinację (syntaktycznego) sensu jakiegoś znaku wyłącznie przez fakt, że znak ten pojawia się w aksjomatach systemu. Metoda ta (po raz pierwszy omówiona przez C. Burali-Fortiego) jest do pewnego stopnia podobna do metody nauki języków Berlitza. Weźmy jakieś nieznane słowo, niech to będzie “TAR”. To, co ono ma znaczyć, stanie się stopniowo zrozumiałe, jeżeli weźmie się pod uwagę następujące aksjomaty: 1. TAR ma dwie nogi, 2. TAR mówi po angielsku, 3. TAR pali fajkę. Gdyby dane było tylko 1, TAR mogłoby oznaczać także jakiś mebel. Wraz z 1 i 2 oznacza ono na pewno istotę żyjącą, ale mogłoby być również papugą. Jeżeli jednak mamy wszystkie trzy aksjomaty, wtedy wiemy, że “TAR” może oznaczać tylko człowieka. Przykład ten odnosi się do sensu semantycznego, ale powinno być jasne, że także sens syntaktyczny jest zdeterminowany przez system aksjomatów.
Fakt, że przez system aksjomatów może być zdefiniowany jakiś znak, posiada, po przeciwnej stronie, swój odpowiednik w następującej, bardzo ważnej regule: sens znaku, który został włączony do pewnego systemu aksjomatycznego, nie może być dowolnie zmieniany. I odwrotnie: jeżeli zmieni się system aksjomatyczny, zmianie ulegnie także sens wszystkich znaków, które w nim występują. Można pójść jeszcze dalej i twierdzić, że większość znaków, które nie zostały włączone do jakiegoś systemu aksjomatycznego, nie posiada w ogóle żadnego sensu.
Reguły te, szczególnie w tak zwanych naukach formalnych - w matematyce i logice - mają znaczenie rozstrzygające. Okazało się np., że prosty znak negacji (“nie”) może przyjąć całkowicie różne znaczenia zależnie od systemu, w którym jest używany. Także jednak w innych naukach reguły te odgrywają rolę, gdyż nie istnieje nauka bez języka, a każdy język jest pewnym (chociaż nie zawsze precyzyjnie zbudowanym) systemem aksjomatycznym.
Definicje semantyczne. Czymś zupełnie innym niż definicja syntaktyczna, tzn. czymś innym niż reguła skracania, jest definicja semantyczna. Dzięki niej znakowi zostaje przypisany pewien sens. Zasadniczo można tego dokonać w dwojaki sposób. (1) To, co znak znaczy, można komuś drugiemu po prostu pokazać palcem. Jeżeli np. chcę komuś wyjaśnić sens polskiego słowa “krowa”, mogę mu wskazać palcem na krowę i jednocześnie wypowiedzieć to słowo. Tego typu działanie określa się niekiedy jako definicję, mówi się wtedy o “definicji dejktycznej” (z greckiego άποδείχνυι = pokazywać). (2) Łatwo jednak zobaczyć, że metoda ta rzadko tylko da się zastosować. Już dejktyczna definicja przymiotników i czasowników nastręcza trudności, a cóż dopiero pojęć abstrakcyjnych, np. stałych logicznych “i”, “jeżeli, to” itd. W większości wypadków trzeba się więc posłużyć innymi znakami, których sens jest już znany. Tego rodzaju definicja, którą będziemy nazywać “semantyczną” w wąskim sensie, polega na ustanowieniu reguły przyporządkowującej między dwoma znakami, przy czym sens pierwszego z nich (definiendum) jest nieznany, natomiast drugi traktowany jest jako zrozumiały (definiens).
Jak tego typu definicja semantyczna może być zbudowana? Łatwo dostrzec, że musi być dokładnie tak utworzona jak definicja syntaktyczna. Tu i tam należy odróżnić definicje wyraźne, kontekstowe, rekurencyjne i aksjomatyczne. Z punktu widzenia techniki definiowania nie istnieje żadna różnica między tymi dwoma rodzajami definicji. Tylko w odniesieniu do definicji semantycznej może powstać sytuacja bardziej skomplikowana, wtedy mianowicie, gdy formułuje się reguły przekładania z jednego (nieznanego) na inny (znany) język. W tym bowiem wypadku trzeba się posłużyć trzecim językiem, tzn. metajęzykiem. Dodatkowo, w przeciwieństwie do definicji czysto syntaktycznych, założona jest tu także interpretacja systemu.
Definicje semantyczne dzielą się na analityczne i syntetyczne. Jeżeli chce się zdeterminować już istniejący sens znaku, wtedy stosuje się definicję analityczną; gdy przeciwnie, pewnemu znakowi nadaje się nowy sens, wtedy powstaje definicja syntetyczna.
Obie odmiany mogą przyjąć wszystkie cztery wyżej opisane formy. Wprawdzie na pierwszy rzut oka wydaje się, że aksjomatyczna forma nie pasuje do definicji analitycznej, gdyż przez system aksjomatów znakowi zostaje nadany nowy sens, to jednak faktycznie nic się tu nie zmienia, gdyż odpowiedni sens może być sensem już istniejącym.
Współczesne nauki używają bardzo często definicji syntetycznych nie tylko dlatego, że muszą tworzyć nowe pojęcia, lecz również dlatego, że potoczny sens słów jest w większości wypadków niedostatecznie ostry, aby mógł być dokładnie zdefiniowany. Proszę np. spróbować zdefiniować tak zdawałoby się łatwo zrozumiałe słowo jak “jarzyna”! Klasycznym przykładem tego rodzaju trudności jest pojęcie wynikania logicznego, tzn. sens “jeżeli - to”. Nikomu jeszcze nie udało się zdefiniować go analitycznie i już starożytni stoicy, aby osiągnąć dającą się stosować definicję, musieli uciec się do nadania temu wyrażeniu pewnego nowego sensu. Tego typu postępowanie jest jednak niebezpieczne, gdyż zwykły, nieostry sens będzie i tak aż nazbyt często pojawiał się w trakcie używania danego słowa i prowadził do nieporozumień i błędów. Lepsze efekty osiąga się przy tworzeniu sztucznych znaków (takich jak np. terminy techniczne w chemii czy anatomii) albo krótszych symboli jak w matematyce.
Definicje realne. Podczas gdy definicje nominalne - syntaktyczne albo semantyczne - są szczególnie ważne dla matematyków i logików, to przyrodnicy i humaniści zajmują się nimi tylko ubocznie, w tej mierze, w jakiej także i oni muszą posługiwać się jakimś językiem. Ich właściwe zainteresowanie skierowane jest jednak nie na wyjaśnianie sensu słów, lecz na zrozumienie rzeczy. Zrozumienie to dochodzi do skutku przede wszystkim w ten sposób, że formułuje się zdania na temat tych rzeczy. Nie wszystkie jednak zdania prawdziwe mają w nauce taką samą doniosłość, istnieje raczej powszechne dążenie, aby od zdań “powierzchownych” przechodzić do zdań “podstawowych”, <fundamentalnych>. Te jednak są właśnie, jak to się dzisiaj mówi, “definicjami realnymi”.
Różnią się one między sobą w wielu aspektach. R. Robinson chciał wykazać, że istnieje 12 różnych znaczeń wyrażenia “definicja realna”, jednak liczne spośród nich odnoszą się w oczywisty sposób do definicji syntaktycznej i semantycznej. W każdym razie następujące pojęcia dadzą się oddzielić od siebie:
1. Określenie istoty. Do tego typu definicji dążą filozofowie nastawieni metafizycznie i fenomenologicznie.
2. Określenie przyczyny. Tutaj m.in. należą tak zwane definicje genetyczne, za pomocą których opisuje się powstawanie jakiegoś przedmiotu.
3. Analiza stanu rzeczy ze względu na jego różne aspekty i części.
4. Określenie praw obowiązujących w danej dziedzinie. Ten typ definicji jest równoważny produktowi logicznemu praw naukowych dla danej dziedziny.
Trzy ostatnie typy definicji realnej znajdują się w większości nauk realnych, pierwszy natomiast jest wyraźnie używany tylko przez filozofów o orientacji metafizycznej i fenomenologicznej. O istocie w naukach przyrodniczych zwykło się nie mówić. Gdy jednak bliżej przyjrzymy się przyrodoznawczemu sposobowi badania, wtedy widać dążenie do, oczywiście nieosiągalnej, definicji istotowej. Badania wnikają coraz “głębiej” w strukturę przedmiotu. Tak np. odpowiedź na pytanie “Co to jest światło?” brzmi dzisiaj inaczej niż za czasów Newtona, a wtedy brzmiała inaczej niż za czasów Galileusza. Jak nauki przyrodnicze metodycznie realizują tę beznadziejną <pogoń> za definicją istotową, przedstawimy w rozdziale o metodach redukcyjnych, gdyż tego rodzaju definicje są zdaniami, które mogą być sformułowane tylko na drodze redukcji.
Na przykładzie rachunku zdań przedstawimy teraz system aksjomatyczny. Zastosowana tu metoda jest najbardziej ścisła spośród znanych. Zaprezentujemy tylko podstawy (definicje, aksjomaty, reguły itd.) i kilka początkowych dowodów.
AKSJOMATYZACJA LOGIKI ZDAŃ HILBERTA-ACKERMANNA1
8.1. Terminy pierwotne, reguły definiowania i formowania
8.11. Terminy pierwotne: D - funktor diadyczny; p, q, r, s, - zmienne zdaniowe2.
8.12. Reguła definiowania: Do systemu można wprowadzić nowy termin, gdy utworzy się grupę terminów nazwanych “definicją”, która kolejno składa się z następujących części: (1) z wyrażenia, które zawiera nowy termin, podczas gdy wszystkie inne są już terminami należącymi do systemu; (2) z “=“, (3) z wyrażenia, które składa się wyłącznie z terminów pierwotnych albo z terminów już zdefiniowanych.
8.13. Reguły formowania: (1) zmienna jest zdaniem, (2) grupa terminów, która składa się z N i następującego po nim zdania jest zdaniem, (3) grupa terminów, która składa się z A, B, C, D, E, J, albo K i z dwóch następujących po nich zdań jest zdaniem.
8.2. Definicje
8.21. Np = Dpp
8.22. Apq = DNpNq
8.23. Cpq = ANpq
8.24. Kpq = NANpNq
8.25. Epq = KCpqCqp
8.26. Bpq = CNpq
8.27. Jpq = NEpg
8.3. Reguły dedukcji
8.31. Reguła podstawiania: Za zmienną może być podstawione zdanie, przy czym za wszystkie zmienne izomorficzne danego wyrażenia trzeba podstawić to samo zdanie.
8.32. Reguła zastępowania definicyjnego: Wyrażenie w zdaniu może być zastąpione przez inne wyrażenie definicyjnie z nim równoważne, przy czym inne wyrażenia izomorficzne w tym samym zdaniu nie mogą być zastąpione.
8.33. Reguła odrywania: Jeżeli zdanie, które składa się z C i z dwóch zdań, jest prawem systemu i jeżeli zdanie, które jest izomorficzne z pierwszym z tych dwóch zdań, jest prawem systemu, wtedy także każde zdanie, które jest izomorficzne z drugim z tych zdań, jest prawem systemu.
8.4. Aksjomaty
8.41. CAppp
8.42. CpApq
8.43. CApqAqp
8.44. CCpqCArpArq
8.5. Dedukcja
8.44 / Nr x 8.23 p/r, q/p x 8.23p/r = 8.51
8.51. CCpqCCrpCrq
Wyjaśnienie: Schemat drogi dowodzenia teorematu 8.51 należy czytać następująco: “Weź aksjomat 8.44; zastąp w nim r przez Nr; następnie do otrzymanego rezultatu zastosuj definicję 8.23, w której uprzednio należy podstawić r za p i p za q; do tego, co w ten sposób otrzymasz zastosuj ponownie definicję 8.23, podstawiwszy w niej r za p; w ten sposób otrzymuje się teoremat 8.51, który miał być dowiedziony”.
8.51 p/App, g/p, r/p = C8. 41 - C8.42 q/p - 8.52
8.52. Cpp
Wyjaśnienie: Dokonawszy w 8.51 trzech na początku wskazanych substytucji, otrzymujemy następujące wyrażenie:
CCApppCCpAppCpp;
jest ono złożone z: (1) C, (2) z CAppp, tzn. wyrażenia, które jest izomorficzne z 8.41, (3) z C, (4) z CpApp, które jest izomorficzne z 8.42 po uprzednim podstawieniu w tym ostatnim wyrażeniu p za q, (5) z teorematu Cpp, który nazywamy 8.52; da się on otrzymać z całej reszty wyrażenia w wyniku dwukrotnego zastosowania reguły odrywania (8.33).
8.52 x 8.23q/p = 8.53
8.53. ANpp
8.43 p/Np, q/p = C8.53 - 8.54
8.54. ApNp
8.54 p/Np x 8.23 q/NNp = 8.55
8.55. CpNNp
8.44 p/Np, g/NNNp, r/p = C8.55 p/Np - C8.54 - 8.56
8.56. ApNNNp
8.43 q/NNNp x 8.23 p/NNp, q/p = C8.56 - 8.57
8.57. CNNpp
8.44 q/NNp, r/Nq = C8.55 - 8.58
8.58. CANqpANqNNp
8.51 p/ANqNNp, q/ANNpNq, r/ANqp = C8.43 p/Nq, q/NNp - C8.58 - 8.59
8.59. CANqpANNpNq
8.59 p/q, q/p x 8.23 x 8.23 p/Nq, q/Np = 8.60
8.60. CCpqCNqNp
8.41 p/Np x 8.23 q/Np = 8.61
8.61. CCpNpNp
8.51 p/Apq, g/Aqp, r/p = C8. 43 - C8. 42 - 8.62
8.62. CpAqp
8.62 q/Nq x 8.23 p/q, q/p = 8.63
8.63. CpCqp
8.63 q/Np = 8.64
8.64. CpCNpp
8.44 p/r, g/Apr, r/g = C8.62 p/r,q/p - 8.65
8.65. CAqrAqApr
8.44 p/Aqr, q/AqApr, r/p = C8.65 - 8.66
8.66. CApAqrApAqApr
8.51 p/ApAqApr, q/AAqAprp, r/ApAqr = C8.43 q/AqApr - C8.66 - 8.67
8.67. CApAqrAAqAprp
8.51 p/Apr, q/AqApr, r/p = C8.62 p/Apr - C8.42 q/r - 8.68
8.68. CpAqApr
8.44 q/AqApr, r/AqApr = C8.68 - 8.69
8.69. CAAqAprpAAqAprAqApr
8.51 p/AAqAprAqApr, q/AqApr, r/AAqAprp = C8.41 p/AqApr - C8.69 - 8.70
8.70. CAAqAprpAqApr
8.51 p/AAqAprp, q/AqApr, r/ApAqr = C8.70 - C8.67 - 8.71
8.71. CApAqrAqApr
8.44 p/Aqr, q/Arq, r/p = C8. 43 p/q, q/r - 8. 72
8.72. CApAqrApArq
8.51 p/ApArq, q/ArApq, r/ApAqr = C8. 71 q/r, r/q - C8. 72 - 8.73
8.73. CApAqrArApq
8.51 p/ArApq, q/AApqr, r/ApAqr = C8.43 p/r,q/Apq - C8.73 - 8. 74
8.74. CApAqrAApqr
8.51 p/AqApr, q/AqArp, r/ApAqr = C8. 72 p/q, q/p - C8. 71 - 8.75
8.75. CApAqrAqArp
8.51 p/ArApq, q/ArAqp, r/ApAqr = C8. 72 p/r, q/p, r/q - C8. 73 - 8.76
8.76. CApAqrArAqp.
Historyczne uwagi wstępne. Podobnie jak to miało miejsce w wypadku większości innych działów logiki, także dla teorii redukcyjnych metod myślenia podstawy dał Arystoteles. Wprawdzie interesował się o wiele bardziej dedukcją niż redukcją, przynajmniej w swojej logice; ale w praktyce naukowej stosował powszechnie indukcję, a także w godny uwagi sposób rozważał ją teoretycznie. Nowoczesną formę metodom redukcyjnym nadał F. Bacon, którego “tabulae” są pierwszymi próbami sformułowania odpowiednich dla tej dziedziny reguł. Za czasów Bacona i jeszcze aż do połowy XIX wieku mieszano ciągle w fatalny sposób logikę z metodologią, tak że w końcu prawie wszyscy metodologowie sądzili, że należy znaleźć “inną” i “lepszą” logikę niż dedukcyjna, a mianowicie tak zwaną logikę “indukcyjną”.
W XIX wieku, szczególnie w Anglii, zostały przeprowadzone znaczące badania w tej dziedzinie, m.in. przez J. Herschela i J. St. Milla. Podstawowe idee Herschela mają do dzisiaj znaczenie. Pojawienie się logiki matematycznej ukazało nowe punkty widzenia i doprowadziło do rozległych badań na tym polu. Z ostatnich publikacji należy wymienić prace W. Kneale'a, R. G. Braithwaitha i G. von Wrighta.
Szczególnie trudnym i żywo dzisiaj badanym działem metodologii redukcyjnej jest teoria prawdopodobieństwa i jej zastosowania. Rozstrzygające znaczenie dla tych badań miała publikacja dzieła lorda M. Keynesa w 1927 roku. Innym ważnym dziełem na temat zastosowania teorii prawdopodobieństwa i redukcji jest praca R. Carnapa (1951). Jednakże cała ta dziedzina badań jest do dzisiaj o wiele mniej rozświetlona niż dziedzina metodologii dedukcyjnej.
Pojęcie i podział redukcji. Na podstawową różnicę między dedukcją a redukcją wskazaliśmy już odwołując się do J. Łukasiewicza. W wypadku dedukcji na podstawie zdania warunkowego i jego poprzednika wnioskuje się o jego następniku:
Jeżeli A, to B
A
a więc B
W wypadku redukcji wnioskuje się odwrotnie, ze zdania warunkowego i jego następnika o jego poprzedniku:
Jeżeli A, to B
B
a więc A
Chwilowo pomijamy trudny problem uprawomocnienia takiego postępowania (które oczywiście nie jest niezawodne) i zajmiemy się tylko podziałem redukcji. Istnieją dwie możliwości takiego podziału.
(a) Dokładnie tak jak dedukcję, redukcję można podzielić na progresywną i regresywną. W obu wypadkach następnik jest znany jako prawdziwy, poprzednik zaś nie. Jeżeli jednak przeprowadza się redukcję progresywnie, wtedy zaczyna się od, co do swojej wartości prawdziwościowej jeszcze nieznanego, poprzednika i postępuje się do znanego i dającego się stwierdzić następnika. Ta progresywna redukcja nazywa się “weryfikacją”. Przeciwnie jest w wypadku redukcji regresywnej, tu zaczyna się od znanego następnika i idzie się do nieznanego poprzednika. Redukcja regresywna nazywa się “wyjaśnianiem”. Widać, że często używane wyrażenie “hipotetyczno-dedukcyjny” wskazuje właśnie na te dwa kierunki postępowania redukcyjnego: jest ono hipotetyczne, tzn. formułuje się w nim hipotezy wyjaśniające (dzięki redukcji regresywnej) i dedukcyjne, gdyż następnie z tych hipotez wyprowadza się następniki, które są weryfikowalne (redukcja progresywna). Oczywiście wyrażenie “dedukcyjny” jest tutaj użyte w innym znaczeniu, niż my to czynimy.
(b) Inny podział powstaje przy uwzględnieniu rodzaju poprzednika: jeżeli jest on uogólnieniem następnika, wtedy tego typu redukcję nazywa się “indukcją”; jeżeli natomiast to nie ma miejsca, wtedy mówimy o redukcji nie-indukcyjnej.
Redukcja regresywna i pojęcie wyjaśniania. Najpierw chcemy się zająć redukcją regresywną, ponieważ stanowi ona pierwszy krok w postępowaniu redukcyjnym. Jak powiedzieliśmy nazywa się ona “wyjaśnianiem”. Słowo to jest jednak wieloznaczne, dlatego najpierw należy ustalić różne jego znaczenia.
Może niekiedy chodzić o wyjaśnienie sensu jakiegoś znaku. Dzieje się to za pośrednictwem definicji. O jej metodach mówiliśmy już w poprzednim rozdziale na temat metody aksjomatycznej. Nie ma tu miejsca żadna redukcja w naszym sensie.
Wyjaśnianie może się jednak odnosić do wypowiedzi [Aussage] - a więc do obiektywnego zdania [Satz] - którego sens jest już znany. Polega ono wtedy na wyprowadzeniu tego zdania z innego zdania. Ogólnie można powiedzieć, że “wyjaśniać” w tym sensie nie znaczy nic innego niż tworzyć pewien a system aksjomatyczny, w którym zdanie mające być wyjaśnione zostaje wyprowadzone. Jednakże możliwe są tutaj znowu dwa wypadki: (a) zdanie(a), wyjaśniające, znane jest (są) już jako prawdziwe, (b) jest (są) ono (one) co do swojej wartości prawdziwościowej jeszcze nieznane.
W pierwszym wypadku praca myślowa polega tylko na samym znalezieniu zdań potrzebnych do wyjaśniania; w drugim zdania te powstają dopiero w wyniku wyjaśniania. Pierwszy typ wyjaśniania wydaje się często mieć miejsce m.in. w historiografii. Mamy np. jakieś zdanie stwierdzające podróż pewnej osoby i chcielibyśmy wiedzieć, dlaczego podjęła ona tę podróż. W tym celu bierzemy inne, znane już historykom jako prawdziwe, zdanie i pokazujemy, że zdanie dotyczące podróży da się wyprowadzić z tego zdania. Chodzi tu jednak raczej o regresywną dedukcję niż o redukcję. Natomiast drugi typ wyjaśniania jest rzetelnie redukcyjny.
Dotychczas mówiliśmy tylko o wyprowadzalności, która jest minimalnym warunkiem każdej redukcji wyjaśniającej. Nie każda jednak redukcja polega na czysto logicznym stosunku między wyjaśnianym i wyjaśniającym zdaniem. Wtedy, gdy między oboma zdaniami zachodzą jeszcze inne stosunki, mówi się o “kauzalnym” i “teleologicznym” wyjaśnianiu. Tymi pojęciami zajmiemy się później.
Weryfikacja. Jeżeli zdanie wyjaśniające zostało już redukcyjnie sformułowane, wtedy następnym etapem jest zwykle tzw. weryfikacja, tzn. zdanie to próbuje się potwierdzić albo odrzucić za pomocą redukcji progresywnej. Dzieje się to w następujący sposób: ze zdania sformułowanego na drodze redukcji wyprowadza się, w oparciu o system aksjomatyczny (który zwykle nie jest czysto logiczny, lecz zawiera także wiele redukcyjnie utworzonych zdań), nowe zdania, które w odpowiedniej dziedzinie są bezpośrednio weryfikowalne, tzn. których wartość prawdziwościowa da się stwierdzić. Następnie przeprowadza się operacje (eksperymenty itd.) wymagane, aby móc ustalić wartość prawdziwościową wyprowadzonych zdań. Jeżeli okaże się, że są one prawdziwe, wtedy uzyskuje się konfirmację zdania, z którego zostały one wyprowadzone. Jeżeli okazuje się jednak że są one fałszywe, wtedy mówi się o falsyfikacji: w tym wypadku zdanie, z którego zostały one wyprowadzone odrzuca się jako fałszywe.
Ma tu miejsce uderzająca asymetria. Falsyfikacja jest logicznie konkluzywna, natomiast konfirmacja nigdy nie jest ostateczna, gdyż jak już powiedzieliśmy, wnioskowanie z następnika o poprzedniku nie jest niezawodne, podczas gdy wnioskowanie z negacji następnika o negacji poprzednika jest uzasadnione przez prawo logiczne i obowiązuje ogólnie. W związku z tą sytuacją twierdzono, że nauki redukcyjne rozwijają się właściwie nie przez pozytywne, lecz przez negatywne kroki, wykluczając jedno po drugim fałszywe wyjaśnienia za pomocą falsyfikacji.
Asymetria ta nie jest jednak aż tak ostra, jak to się na początku wydaje. W żadnej bowiem redukcji nie wyprowadza się czegoś z pojedynczego zdania, powiedzmy “A”, które ma być zweryfikowane, lecz z koniunkcji tego zdania z innymi zdaniami (mogą to być teorie itd.), powiedzmy “T”. Schemat zatem wygląda nie tak:
Jeżeli A, to B
nie B
a więc nie A
lecz tak:
Jeżeli A i T, to B
nie B
z czego można jednak tylko wnioskować:
więc albo nie A, albo nie T.
Teoretycznie mamy więc zawsze wybór między odrzuceniem “A” albo odrzuceniem “T”. Praktycznie jednak “T” jest zdaniem o takiej doniosłości, że raczej dochodzi do decyzji o odrzuceniu “A”, i o tyle ma miejsce wymieniona wyżej asymetria.
Nauki redukcyjne. Pojęcie redukcji pozwala połączyć wiele nauk, z punktu widzenia ich metody, w jedną klasę. Przede wszystkim należą tutaj nauki indukcyjne. Tak zwane empiryczne nauki przyrodnicze stanowią ważną, chociaż nie jedyną, klasę nauk indukcyjnych. Wiadomo bowiem, że indukcja (i to indukcja w autentycznym sensie) stosowana jest także w pewnych gałęziach matematyki, np. w teorii liczb pierwszych.
Inną klasę tworzą tzw. nauki historyczne. Bez pojęcia redukcji nie można byłoby ich właściwie nigdzie zaklasyfikować: nie są one na pewno dedukcyjne, indukcyjne również nie, gdyż nie formułuje się w nich ogólnych hipotez i teorii. Zagadka rozwiąże się, jeżeli zwrócimy uwagę, że używają one redukcji nie-indukcyjnego typu. Ten sam wypadek wydaje się zachodzić w niektórych innych naukach, tak np. w pewnych dziedzinach geologii, astronomii (np. w selenologii), geografii itd.
Ponieważ wśród wszystkich tych klas nauk klasa nauk przyrodniczych jest najobszerniejsza i należące do niej dyscypliny mają o wiele lepiej wykształconą metodologię niż wszystkie inne, zajmiemy się teraz prawie wyłącznie metodami, które są w nich stosowane. Są one aktualnie najlepszym przykładem redukcyjnego sposobu myślenia.
Zdania obserwacyjne. Nauki przyrodnicze, jak powiedzieliśmy, stanowią podklasę tzw. nauk empirycznych, do których poza tym należą jeszcze tzw. nauki historyczne. Nauki empiryczne charakteryzują się tym, że w nich wszystkich występują zdania o fenomenach, tzn. zdania obserwacyjne i że w pewnym sensie zdania te tworzą właściwą bazę całego systemu. Zbadajmy najpierw, jakie znaczenie przypisuje się wyrażeniom “fenomen” i “zdanie obserwacyjne”.
Mianem fenomenu określa się tutaj - w przeciwieństwie do fenomenologów - po prostu pewne zmysłowo dające się zaobserwować zdarzenie. Przedmiotem sporu jest tylko, czy odpowiednia obserwacja może być przeprowadzona wyłącznie za pomocą zmysłowego spostrzeżenia zewnętrznego (wzrok, słuch, dotyk itd.). W jednej z nauk empirycznych, mianowicie w psychologii, niektórzy badacze dopuszczają także inne metody obserwacji (introspekcja). Jest to jednak wyjątek. W większości nauk przyrodniczych obserwacji dokonuje się wyłącznie za pomocą zmysłów zewnętrznych. W ten sposób za fenomen uznaje się np. spadanie jakiegoś ciała, zapalenie się lampy, podniesienie się temperatury, nie zaś takie zdarzenia jak: przepływ prądu elektrycznego przez drut (w odróżnieniu od jego. dających się zaobserwować, następstw) albo choroba jako taka (w odróżnieniu od jej symptomów).
Zdania, które stwierdzają zachodzenie fenomenów, nazywają się zdaniami obserwacyjnymi [Protokollaussagen] dlatego, że zostają zapisane w protokole z laboratorium, obserwatorium, z wykopalisk archeologicznych czy w innych podobnych raportach obserwacyjnych. Zdanie obserwacyjne zawiera zwykle następujące dane: współrzędne czasowe, współrzędne przestrzenne, okoliczności, opis fenomenu. W praktyce zawiera ono dodatkowo jeszcze nazwisko obserwatora. Prostym przykładem zdania obserwacyjnego jest notatka robiona przez pielęgniarkę na temat temperatury pacjenta. Notatka taka może mieć np. następującą formę: łóżko nr 47 (współrzędna przestrzenna), 3.5.1953, godz. 17.15 (współrzędna czasowa), J. Kowalski (przedmiot), w ustach (okoliczności), temperatura 38,7° C (zdarzenie).
Zdania obserwacyjne występują także w nieempirycznych naukach, np. kosmologii filozoficznej, jednak w naukach przyrodniczych są używane w specjalny sposób. Przedyskutujemy to teraz krótko.
Postęp w naukach przyrodniczych. Schematycznie i upraszczająco patrząc, pewna nauka przyrodnicza rozwija się mniej więcej następująco: punktem wyjścia są zdania obserwacyjne. (Jest to uproszczenie, faktycznie bowiem do zdań obserwacyjnych prowadzą często zdania otrzymane na drodze redukcji). Zdania obserwacyjne są początkowo nieuporządkowaną klasą, która ponadto ma tendencję do ciągłego narastania, ponieważ badania stale postępują i wciąż robi się nowe obserwacje. Ta klasa zdań obserwacyjnych jest pierwszym stopniem w strukturze nauki przyrodniczej.
Zdania obserwacyjne zostają następnie wyjaśnione w ten sposób, że formułuje się inne (zazwyczaj ogólne) zdania, z których, przy uwzględnieniu istniejących teorii i na podstawie jakiegoś prawa logicznego, są one wyprowadzane. Dopóki nie zostaną zweryfikowane nazywają się “hipotezami”. Po weryfikacji stają się prawami nauk przyrodniczych. W ten sposób powstaje drugi stopień zdań należących do nauk przyrodniczych, mianowicie klasa hipotez lub praw, które bezpośrednio i redukcyjnie zostały ustanowione na podstawie zdań obserwacyjnych.
Następnie przechodzi się do wyjaśniania samych praw. Dzieje się to przez utworzenie trzeciego stopnia zdań, z których prawa te dadzą się wyprowadzić. Jeżeli zdania trzeciego stopnia są wystarczająco ogólne i wyjaśniają wiele praw, zostają nazwane ogólnie “teoriami” (odpowiednia terminologia metodologiczna jest ciągle jeszcze nieco chwiejna). Proces prowadzący do utworzenia teorii jest, z logicznego punktu widzenia, zasadniczo taki sam jak ten, który prowadził do sformułowania praw. Istnieją jednak dwie różnice.
(1) Prawa formułuje się (redukcyjnie) bezpośrednio na podstawie zdań obserwacyjnych - teorie natomiast pośrednio; bazują one (redukcyjnie) bezpośrednio na prawach.
(2) Prawa są uogólnieniami zdań obserwacyjnych, tzn. nie zawierają one żadnych pozalogicznych wyrażeń, które nie byłyby już obecne w zdaniach obserwacyjnych. W przeciwieństwie do tego teorie z reguły zawierają nowe, w prawach, na których się opierają, nieobecne wyrażenia <teoretyczne> (jak “neutron”, “inflacja”, “nieświadomy” itd.). Nie są więc one tylko czystymi uogólnieniami praw.
Teorie mogą być znowu wyjaśniane, tak że logiczny gmach nauk przyrodniczych staje się wielostopniowy. Dla uproszczenia bierzemy tu pod uwagę tylko trzy stopnie: zdania obserwacyjne, prawa i teorie.
W toku rozwoju nauk przyrodniczych normalnie dzieje się tak, że obserwacja dostarcza coraz to nowych zdań obserwacyjnych i odpowiednio do tego wyjaśnienie tworzy nowe prawa. Zazwyczaj dawniej sformułowana teoria <pokrywa> początkowo te nowe prawa, tzn. pozwala je wyprowadzić. Po pewnym jednak czasie nie jest ona już wystarczająca. Wtedy zwykle nieco się ją ulepsza i zmienia, tak aby znowu mogła pokrywać nowe prawa. Wcześniej lub później przychodzi jednak moment, w którym nie nadaje się ona w ogóle do wyjaśnienia wszystkich nowych praw. Mimo to toleruje się ją, w każdym razie tak długo, jak może ona wyjaśniać wiele praw. W końcu staje się tak skomplikowana i niewystarczająca, że się ją porzuca, traktując jako obowiązującą co najwyżej dla przypadku granicznego, ale zasadniczo szuka się nowej teorii. W ten sposób cały proces zaczyna się od nowa. Ani w dotychczasowej historii nauk przyrodniczych, ani w logicznej analizie ich struktury nie można znaleźć jakiejkolwiek racji dla przyjęcia, że proces ten będzie kiedykolwiek miał swój koniec.
Weryfikacja. W szkicu tym jeden ważny czynnik został wprawdzie już wymieniony, ale nie był jeszcze bliżej rozważany, mianowicie weryfikacja hipotez. W naukach przyrodniczych wyjaśnianie i weryfikacja są stosowane na przemian. Po utworzeniu hipotezy mającej wyjaśniać zdania obserwacyjne, wyprowadza się z niej jeszcze nie istniejące zdania obserwacyjne, tzn. zdania. które mają formę zdań obserwacyjnych i których wartość prawdziwościowa da się technicznie ustalić, ale jeszcze nie została ustalona. Teraz przeprowadza się operacje konieczne dla stwierdzenia tej wartości, tzn. podejmuje się odpowiednie eksperymenty albo inne obserwacje, aby otrzymać konfirmację lub falsyfikację. Jeżeli zdania wyprowadzone z hipotezy okażą się prawdziwe, wtedy hipoteza uchodzi za potwierdzoną i w pewnych okolicznościach staje się prawem. Jeżeli jednak zdania z niej wyprowadzone okażą się fałszywe, wtedy hipoteza jest sfalsyfikowana i powinna - w związku z wyżej wymienionym zastrzeżeniem - być odrzucona. Ogólną regułą jest, że hipoteza dopiero wtedy staje się prawem, gdy (1) została potwierdzona przez weryfikację w wielu wypadkach i (2) w żadnym wypadku nie została sfalsyfikowana.
Z tego, co wyżej powiedzieliśmy, widać, że hipotezy mają bardzo wielkie znaczenie dla kierowania obserwacją, a stąd dla tworzenia zdań obserwacyjnych. Bez nich w większości wypadków nie byłoby wiadomo, czego właściwie się szuka. Nadają one obserwacji określony kierunek. Są więc podstawą dla każdego rodzaju eksperymentów. Eksperymentowanie bez prowadzącej go hipotezy jest nie do pomyślenia.
Doświadczenie i myślenie. Kilka dalszych uwag na temat struktury nauk empirycznych, tak jak ją tutaj zarysowaliśmy, może przyczynić się do wyjaśnienia metodologicznej sytuacji w tej dziedzinie.
(1) Całkiem poprawnie zwykło się mówić, że doświadczenie stanowi podstawę dla całego systemu tych nauk. Dokładniej powiedziawszy: zdania obserwacyjne rozstrzygają o dopuszczalności innych elementów systemu w tych dyscyplinach. To, co stoi w sprzeczności ze zdaniami obserwacyjnymi, musi zostać odrzucone, to, co służy wyjaśnieniu tych zdań, musi być przyjęte. Reguła ta wyznacza empiryczny charakter tych nauk.
(2) Z tego jednak w żaden sposób nie wynika, że możliwa byłaby <czysto empiryczna> nauka w tym sensie, że składałaby się wyłącznie ze zdań obserwacyjnych. Nie byłaby to nauka, lecz nie uporządkowana klasa zdań. Nie jest też nawet prawdą, że w jakiejś nauce empirycznej poza zdaniami obserwacyjnymi mogłyby występować tylko ich uogólnienia. Normalnie teorie zawierają bowiem, jak to już zaznaczyliśmy, wyrażenia, które w zdaniach obserwacyjnych zupełnie nie występują i stąd nie mogą być uogólnieniami tych zdań. Każda nauka składa się z dwóch rodzajów zdań: ze zdań obserwacyjnych, które bezpośrednio opierają się na doświadczeniu, i z hipotez, praw, teorii itd., a więc ze zdań, które powstają dzięki myśleniu, za pomocą redukcji. Te ostatnie chcemy nazwać “teoretycznymi elementami” w nauce.
(3) W odniesieniu do wszystkich nauk redukcyjnych wyrażenie “podstawa” jest dwuznaczne. Z logicznego punktu widzenia nauka jest systemem aksjomatycznym, w którym właśnie najbardziej abstrakcyjne, najbardziej oddalone od doświadczenia teorie tworzą “podstawę”, tzn. aksjomaty, natomiast zdania obserwacyjne są ostatecznymi konsekwencjami tych teorii. Jednak z epistemologicznego punktu widzenia zdania obserwacyjne znajdują się na początku i w oparciu o nie tworzy się (redukcyjnie) elementy teoretyczne i ostatecznie najbardziej abstrakcyjne teorie. Obrazowo można byłoby powiedzieć, że nauka redukcyjna jest stojącym <na głowie> systemem aksjomatycznym.
(4) Również jednak patrząc epistemologicznie, prawa i teorie nie są bez znaczenia. Naiwnością byłoby sądzić, że przyrodnik porzuca dobrze zweryfikowane prawo, jeżeli znajdzie jedno lub dwa sprzeczne z nim zdania obserwacyjne, albo że porzuca wielką, pokrywającą wiele dziedzin teorię, gdy stwierdzi, że nie pokrywa ona kilku nowych praw. Okazuje się zatem, że, z epistemologicznego punktu widzenia, zdania obserwacyjne są wprawdzie najważniejszą, ale nie jedyną podstawą systemu. Także elementy teoretyczne odgrywają ważną, chociaż drugorzędną rolę.
Schematyczna ilustracja. Dwa schematy i jeden całkiem prosty przykład powinny jeszcze lepiej wyjaśnić poprzedni opis struktury nauk empirycznych. Pierwszy schemat przedstawia proces psychologiczny, przy czym strzałki wskazują kierunek, w którym przebiega myślenie, nie zaś porządek wyprowadzania logicznego. Ruch myśli idzie od P11 i P12 do H1 (redukcja regresywna, tworzenie hipotez), następnie od H1 do P13 (weryfikacja). To samo ma miejsce dla P21, P22 i P23. Teorię T1 osiąga się regresywnie z H1 i H2; następnie z T1 (wraz z odpowiednimi teoriami pomocniczymi itd.) wyprowadza się H3 i stąd P31, które jest weryfikującym zdaniem obserwacyjnym.
Drugi schemat ma przedstawiać strukturę logiczną gotowej teorii. Tutaj wszystkie strzałki skierowane są w dół, gdyż wskazują na relacje wyprowadzalności logicznej. Tak więc z teorii T1 zostają wyprowadzone H1 H2 i H3, potem z H1 H2 i H3 odpowiednie zdania obserwacyjne.
Porównanie obydwu rysunków pokazuje, dlaczego naukę przyrodniczą nazwaliśmy stojącym “na głowie” systemem aksjomatycznym.
Teoria Kopernika. Poprzednie opisy i schematy unaocznimy przez stary, lecz dopiero w świetle dzisiejszej metodologii całkowicie zrozumiały przykład, mianowicie przez schematyczne przedstawienie teorii systemu słonecznego Kopernika. Jeżeli najpierw zapytamy, co jest dane jako podstawa epistemologiczna tej teorii, to odpowiedź brzmi: zdania obserwacyjne, które mówią, że w określonych miejscach, w pewnych czasach, na sklepieniu niebieskim można znaleźć świecące punkty. To jest wszystko. Rzeczywistego ruchu Ziemi, a także pozornego ruchu gwiazd nie możemy obserwować. Widzieć możemy tylko świecące punkty w tym lub innym miejscu na niebie.
Najpierw formułuje się hipotezę wyjaśniającą, że świecące punkty poruszają się wzdłuż określonej krzywej na sklepieniu niebieskim. Tę krzywą można przedstawić za pomocą funkcji matematycznej: Jeżeli przyjmie się taką funkcję, wtedy dadzą się z niej wyprowadzić nie tylko zdania już zaakceptowane na temat położenia określonego punktu świecącego, lecz także przewidywania o położeniu tego samego punktu w innym czasie. Obserwujemy odpowiedni sektor nieba o czasie znalezionym dzięki wyprowadzeniu (liczeniu) i stwierdzamy, że punkt, o który chodzi, faktycznie się tam znajduje, gdzie się powinien znajdować. W ten sposób hipoteza jest zweryfikowana i staje się prawem.
Tak stopniowo powstaje klasa - i to całkiem obszerna - tego rodzaju praw. W odniesieniu do nich podejmuje się ponownie wyjaśnianie redukcyjne, w wyniku którego otrzymujemy właśnie teorię Kopernika: zakładamy, że świecące punkty są gwiazdami i planetami i że planety obracają się wokół Słońca wzdłuż pewnych krzywych. Ten opis upraszcza oczywiście w najwyższym stopniu faktyczne postępowanie; w rzeczywistości mamy tu do czynienia z najbardziej skomplikowaną strukturą, złożoną ze zdań matematycznych, które częściowo pochodzą z geometrii i fizyki, częściowo jednak są składnikami samej tej teorii. Z tego kompleksu wyprowadza się teraz rachunkowo wszystkie dotychczas ustalone prawa, ale też prawa, które nie zostały jeszcze sformułowane, i ze wszystkich tych praw dające się stestować zdania obserwacyjne o procesach na niebie. Jeżeli zdania te zgadzają się z obserwacją, teoria jest zweryfikowana. Następnie zostaje ona sformalizowana i uwidacznia się jako potężny system aksjomatyczny, w którym teoria Kopernika wraz z matematycznymi i fizycznymi teoriami tworzy zespół aksjomatów, natomiast zdania obserwacyjne są z nich wyprowadzone.
Przykłady weryfikacji. W oparciu o nowszy rozwój nauki przedstawiony wyżej przykład można jeszcze bardziej rozszerzyć w następujący sposób.
Wśród teorii matematyczno-fizycznych, które służyły do wyprowadzenia praw astronomicznych w systemie Kopernika, znajdowała się także teoria grawitacji Newtona. Jak wiadomo, w 1919 roku Einstein przeciwstawił jej inną teorię, która miała tę wielką zaletę, że była o wiele prostsza (sprowadza ona grawitację do czysto geometrycznych własności); dalej zobaczymy jeszcze, jak ważna jest ta zaleta większej prostoty. Dodatkowo jednak - i to interesuje nas tutaj przede wszystkim - teoria Einsteina mogła być zweryfikowana za pomocą zdań obserwacyjnych. Z teorii tej wynikała mniej więcej dwukrotnie wyższa wartość odchylenia promieni świetlnych przez masę Słońca niż z teorii starszych. 29 maja 1919 roku miało miejsce zaćmienie Słońca, podczas którego dwie ekspedycje (jedna na Wyspę Książęcą w Zatoce Gwinejskiej, pod kierownictwem Eddingtona i Cottinghama) mogły obserwować ten fenomen w szczególnie korzystnych okolicznościach. Rezultaty odpowiadały całkowicie przewidywaniom wyprowadzonym z teorii Einsteina.
Innym klasycznym przykładem jest sławny eksperyment Michelsona-Morley'a (1887). Chodziło w tym wypadku o weryfikację obowiązującej wówczas teorii Stoksa i Kelvina, według której miało istnieć coś takiego jak eter służący jako medium dla rozprzestrzeniania się promieni świetlnych. W oparciu o tę teorię Michelson i Morley wnioskowali, że ponieważ Ziemia znajduje się w ruchu, powinien istnieć <wiatr eteru>, a stąd wynikało dalej, że prędkość światła musiałaby być różna, zależnie od jego kierunku w stosunku do tego <wiatru>. W Cleveland (Ohio), za pomocą skomplikowanych aparatów, przeprowadzono eksperyment, który wykazał ostatecznie, że nie da się stwierdzić żadna różnica w prędkości światła. W ten sposób teoria została sfalsyfikowana.
Najbardziej interesujące jest jednak, że teorii tej natychmiast nie odrzucono, lecz próbowano ją ratować przez różne teorie pomocnicze. Sami Michelson i Morley sądzili, że eter porusza się wraz z Ziemią. W 1895 Fitzgerald sformułował teorię pomocniczą, która głosiła, że rozmiary aparatów zmieniają się wraz ze zmianą kierunku i dlatego nie można zaobserwować żadnych różnic w prędkości. Dopiero teoria Einsteina umożliwiła całkowite wyjaśnienie tego nowego zdania obserwacyjnego.
Wprowadzenie. Ogólna struktura nauk redukcyjnych jest o wiele bardziej skomplikowana niż struktura nauk dedukcyjnych. Widzieliśmy już, że w naukach przyrodniczych należy odróżnić przynajmniej trzy rodzaje zdań: zdania obserwacyjne, hipotezy (lub prawa) i teorie. Do tego dochodzi jeszcze fakt, że, z wyjątkiem zdań obserwacyjnych, wszystkie zdania systemu redukcyjnego mogą być podzielone na różne klasy. W tym względzie dawniejsza metodologia okazuje się dzisiaj bardzo nieadekwatna. Wykazuje ona szeroko rozpowszechnioną tendencję do sprowadzania wszystkich tych zdań do jednego typu. Tak też np. często sądzono, że każde wyjaśnianie redukcyjne albo indukcyjne dochodzi zawsze do skutku w wyniku sformułowania tzw. praw przyczynowych; inni natomiast twierdzili, że każde wyjaśnianie polega na znajdowaniu warunków. Także i dzisiaj jeszcze pokazują się nierzadko tego typu tendencje monistyczne, chociaż najczęściej uznaje się, że w naukach redukcyjnych (a także w węższej klasie nauk przyrodniczych) istnieją różne rodzaje praw i teorii i stąd również różne rodzaje wyjaśniania.
Ponieważ odróżnienie różnych rodzajów zdań wyjaśniających ma znaczenie dla zrozumienia samej metody redukcyjnej lub indukcyjnej, chcemy teraz krótko opisać najważniejsze z tych zdań, tak jak one są dzisiaj rozumiane.
Dzisiaj odróżnia się:
(a) wyjaśnianie kauzalne i wyjaśnianie teleologiczne,
(b) prawa współwystępownia i prawa funkcjonalne,
(c) prawa deterministyczne i prawa statystyczne.
Typy warunków. Całkiem ogólnie można powiedzieć, że zdania redukcyjno-wyjaśniające ustalają zawsze przynajmniej jeden warunek wyjaśnianego fenomenu. W ten sposób nie twierdzi się, że wystarcza to we wszystkich naukach, lecz tylko, że obojętnie jaki typ wyjaśniania wybierze się, zawsze również będzie on zawierał wyjaśnianie za pomocą warunków. Jeżeli np. sformułuje się wyjaśnienie teleologiczne i powie się, że A jest B, ponieważ prowadzi to do tego, że A jest także C, wtedy podaje się nie tylko cel bycia A-B, lecz również warunek tego faktu.
Warunki dzieli się na wystarczające, konieczne oraz wystarczające i konieczne.
(1) Warunki wystarczające. Mówimy, że A jest wystarczającym warunkiem B, wtedy i tylko wtedy, gdy obowiązuje zdanie “Jeżeli A, to B”. W tym wypadku wystarcza bowiem, żeby było dane A, wtedy także dane jest B.
(2) Warunki konieczne. Mówimy, że A jest koniecznym warunkiem B, wtedy i tylko wtedy, gdy obowiązuje (odwrotne) zdanie: “Jeżeli B, to A”. Gdyby A nie było dane, wtedy także nie mogłoby się pojawić B; A jest więc tutaj koniecznym warunkiem B.
(3) Warunki wystarczające i konieczne. Mówimy, że A jest warunkiem wystarczającym i koniecznym B, wtedy i tylko wtedy, gdy oba wyżej wymienione zdania obowiązują, tzn. “A wtedy i tylko wtedy, gdy B”.
Wydaje się, że ostatecznie wszystkie nauki dążą do formułowania warunków wystarczających i koniecznych. Jest to np. prawdą w odniesieniu do fizyki klasycznej. W wielu jednak wypadkach trzeba się zadowolić innym typem warunków.
Każda klasyfikacja naukowa dostarcza naocznych przykładów dla dwóch pierwszych typów warunków. Bazuje ona, jak łatwo można dojrzeć, na tzw. prawach współwystępownia. Jeżeli np. mówimy, że wszystkie ssaki są kręgowcami, to w zdaniu tym zawarte jest prawo współwystępowania, które stwierdza konieczny warunek bycia ssakiem, a mianowicie bycie kręgowcem. Jednocześnie zostaje stwierdzony także warunek wystarczający bycia kręgowcem, mianowicie bycie ssakiem, gdyż dla istoty żywej wystarcza, aby była ssakiem, żeby tym samym była kręgowcem.
Przykładu dla trzeciego rodzaju warunków dostarcza wiele praw chemicznych, zgodnie z którymi pewna substancja posiada tę lub inną cechę, np. specyficzny ciężar.
Dla dzisiejszej metodologii nie ulega wątpliwości, że wiele wyjaśnień przyjmuje formę tego typu zdań. Nie są one oczywiście prawami przyczynowymi, gdyż fenomen nie jest wyjaśniany za pomocą jakiejś przyczyny, lecz za pomocą czegoś z dziedziny formy (w arystotelesowskim sensie tego słowa).
Wyjaśnianie kauzalne i teleologiczne. Zauważyliśmy już, że w wielu naukach wyjaśnianie przez same warunki nie wystarcza. Przeważa raczej wyjaśnianie kauzalne, które polega na podaniu przyczyny fenomenu. Należy jednak oddzielić dwa różne pojęcia przyczyny.
(1) Pojęcie ontologiczne. Pojęcie to można z grubsza opisać w następujący sposób. Pojawienie się A jest przyczyną pojawienia się B wtedy, gdy w danych okolicznościach A wywołuje urzeczywistnienie się B. A pojawia się tutaj jako pewien agens, który wywiera wpływ na B, udzielając B bytu.
Pod wpływem Hume'a i jego następców wielu metodologów twierdziło kategorycznie, że to pojęcie przyczyny nigdy nie występuje w naukach przyrodniczych. Trudno jest jednak zaprzeczyć, że bardzo wielu przyrodników (nie tylko psychologów i historyków) bardzo często w swoich wyjaśnieniach myśli o przyczynie właśnie w ten sposób. Tak np. geologowie powstawanie gór interpretują całkiem jednoznacznie jako wywołane przyczynowo przez czynniki geotektoniczne - a zatem wywołane przyczynowo w ontologicznym sensie tego wyrażenia.
(2) Pojęcie fenomenalistyczne. W fizyce, a także jeszcze w wielu innych wysoko rozwiniętych naukach, ontologiczne pojęcie przyczyny wydaje się być, i to z dobrze umotywowanych racji, wyeliminowane. Jeżeli się mianowicie założy, że dana nauka ma do czynienia tylko ze zdaniami obserwacyjnymi, które opisują zmysłowo dające się obserwować fenomeny, wtedy jest jasne, że nie może tu być mowy o żadnym wpływie, ponieważ nie da się on zmysłowo zaobserwować. Wydaje się więc, że nauki te ograniczają się do wyjaśniania przez warunki. A jednak tak nie jest. Wprawdzie, jak powiedzieliśmy, występują tu często zdania stwierdzające wyłącznie tylko warunki, ale mówi się jednak zawsze również o przyczynach i o wyjaśnianiu przyczynowym.
Co tutaj mogą znaczyć te wyrażenia? Wydaje się, że przez przyczynę rozumie się: (1) warunek wystarczający, który (2) czasowo poprzedza to, co jest wywołane przyczynowo, albo przynajmniej jest z nim równoczesny i, dodatkowo, (3) znajduje się z nim w pewnych stosunkach przestrzennych. Nie jest to jednak ani jasne, ani wyraźne i stąd jest zrozumiałe, dlaczego wielu metodologów współczesnych woli w ogóle wyeliminować ten rodzaj przyczynowości i mówić tylko o warunkach.
Jeszcze bardziej kontrowersyjne są, ciągle na nowo pojawiające się, tzw. wyjaśnienia teleologiczne. Ich istota polega na tym, że podaje się cel wyjaśnianego fenomenu. Na przykład wspaniałą strukturę pewnych kwiatów wyjaśnia się przez to, że zapewnia ona zapłodnienie. Z logicznego punktu widzenia ten typ wyjaśniania jest częściowo przeciwstawny przyczynowemu, gdyż podaje się w nim wprawdzie warunek fenomenalny, ale warunek ten znajduje się w jeszcze nie istniejącym fenomenie, który czasowo pojawia się dopiero po fenomenie wyjaśnianym.
W fizyce i w innych naukach zajmujących się naturą nieożywioną do wyjaśnień teleologicznych nikt się już obecnie nie odwołuje. W naukach biologicznych wyjaśnianie przyczynowe wydaje się wprawdzie dominować, ale od czasu do czasu pojawia się także wyjaśnianie teleologiczne, np. w wypadku problemu celowości organów. Tak samo w socjologii pojawiają się tendencje teleologiczne, chociaż jako całość zbudowana jest kauzalnie.
Wyjaśnianie teleologiczne kryje trudne problemy filozoficzne. Przede wszystkim powstaje pytanie, jak coś, co jeszcze się nie pojawiło, co jeszcze nie istnieje, może wyjaśnić (istniejący) fenomen. Pomijamy tutaj ten i inne ważne problemy filozoficzne, które przekraczają granice czystej metodologii.
Prawa funkcjonalne. W wysoko rozwiniętych naukach - nie tylko w fizyce, lecz także w psychologii - formułuje się tzw. prawa funkcjonalne. Mają one zawsze następującą formę: dla każdego A, F i G - przy czym F i G są cechami A - wielkość F jest (matematyczną) funkcją wielkości G. Prostym i klasycznym przykładem jest tu fizyczne prawo spadania ciał: prędkość jakiegoś ciała jest funkcją jego czasu spadania.
Jak można logicznie zinterpretować tego rodzaju prawa? Są one zdaniami zawierającymi podwójne uogólnienie: najpierw mówi się o wszystkich A, np. o wszystkich spadających ciałach, dokładnie tak jak w prawach nie-funkcjonalnych. Do tego dochodzi jednak drugie uogólnienie: funkcja matematyczna pokrywa się ze zdaniem uniwersalnym, że wszystkie wielkości jednego rodzaju przyporządkowane są w pewien sposób wielkościom drugiego rodzaju.
Fundamentalnie rzecz biorąc, prawa funkcjonalne są więc tylko pewną skomplikowaną formą praw warunkowych. Trzeba przy tym zauważyć, że odpowiednie warunki mogą mieć wymieniony wyżej, trojaki charakter. Praktycznie jednak każda nauka dąży do formułowania praw funkcjonalnych, które są wystarczającymi i koniecznymi warunkami danego fenomenu.
Ustanawianie praw funkcjonalnych jest głównym zadaniem indukcji ilościowej. Niestety, ta część ogólnej metodologii nie jest jeszcze opracowana teoretycznie, chociaż każda nauka przyrodnicza, która formułuje tego rodzaju prawa, posiada do tego celu swoje własne metody.
Prawa statystyczne. Jeszcze przed kilkoma dziesiątkami lat prawa statystyczne stosowane były prawie wyłącznie w naukach społecznych, dzisiaj używa się ich także w wielu innych dziedzinach. Chodzi tutaj nie o zdania o indywiduach, lecz o klasach indywiduów. W prawach statystycznych mówi się, że pewna cecha B przysługuje określonej części elementów klasy A, np. 60% tych elementów. Prostym przykładem jest statystyczne prawo śmiertelności, które głosi, że z 1000 żywo urodzonych ludzi n umrze w k-tym roku życia.
Takie prawa nazywane są także “indeterministycznymi”, ponieważ nie mówi się w nich nic określonego (zdeterminowanego) o poszczególnych indywiduach; z tego np. że z 1000 żywo urodzonych Francuzów dokładnie 138 umiera w 47 roku życia, nie wynika absolutnie nic na temat śmierci mojego przyjaciela Jean-Paula, który aktualnie ma 47 lat: może on umrzeć, ale może także żyć. W takich wypadkach mówi się więc o prawdopodobieństwie, które matematycznie da się dokładnie obliczyć. Ale ścisłość tego obliczenia nie może nas mylić co do jego rezultatów, nie może nic zmienić w tym, że nie jesteśmy w stanie wiedzieć, co będzie się działo z jakimś indywiduum.
Jasne jest zatem, że prawa statystyczne nie tworzą osobnego rodzaju obok innych rodzajów praw; to, co posiada formę statystyczną może być równie dobrze wyjaśnieniem przez warunki jak też wyjaśnieniem przyczynowym, znane są także prawa statystyczno-funkcjonalne.
Należy jeszcze zauważyć, że prawa nie-statystyczne można ująć jako wypadek graniczny praw statystycznych; według tych praw dany fenomen występuje w 100% wypadków.
Indukcja autentyczna i nieautentyczna. Ważną i stosowaną przede wszystkim w naukach przyrodniczych formą redukcji jest indukcja. Od indukcji autentycznej należy najpierw odróżnić różne metody myślenia nazywane wprawdzie “indukcją”, lecz nie będące redukcjami.
(1) Indukcją nieautentyczną jest tzw. indukcja matematyczna. Polega ona na zastosowaniu następującej reguły. Jeżeli F przysługuje liczbie 1, i jeżeli przysługuje ono liczbie n, wtedy także liczbie n + 1, to F przysługuje każdej liczbie. Tego typu <indukcje> są bardzo częste w matematyce, powinno być jednak jasne, że chodzi tutaj raczej o autentyczną dedukcję. Nazwa “indukcja” jest w tym wypadku zwodnicza.
(2) Poza tym mówi się niekiedy o tzw. <zupełnej> czy też <sumatywnej> indukcji. Stosuje się przy tym następującą regułę: jeżeli x1, x2, x3 ... xn są elementami klasy a i są wszystkimi jej elementami (tzn., że poza nimi nie istnieje żaden element tej klasy) i jeżeli F przysługuje x1, x2, x3 ... xn, wtedy F przysługuje wszystkim elementom a. Także i to nie jest żadną indukcją w autentycznym sensie, lecz pewnym rodzajem dedukcji; istnieje bowiem w logice matematycznej prawo, na którym można niezawodnie oprzeć tę regułę. Chociaż jej zastosowanie jest niekiedy pożyteczne, to w naukach przyrodniczych nie da się ona praktykować, gdyż zwykle mamy w nich do czynienia z nieskończonymi klasami, a nieskończona liczba rzeczy nigdy nie może być obserwowana.
(3) Należy jeszcze zauważyć, że Arystoteles używał tego słowa nie tylko dla określenia pewnego rodzaju wnioskowania, lecz także w wypadku abstrakcji, a więc metody tworzenia pojęć. Także i dzisiaj jest to zwyczajem niektórych filozofów, ale chodzi wtedy o metodę, która mało ma wspólnego z indukcją w naukach przyrodniczych.
“Autentyczną indukcją” nazywamy tutaj, po pierwsze, proces wnioskowania, a więc metodę myślenia, za pomocą której formułuje się zdania; po drugie metodę, która jest istotnie rozszerzająca, tzn. przechodzi się w niej nie tylko od sumy indywiduów do ogółu (jak w indukcji zupełnej), lecz od kilku indywiduów, które nie są wszystkimi elementami wchodzącej w grę klasy, do ogółu. Tego rodzaju postępowanie przedstawia oczywiście szczególnie trudny problem metodologiczny: co nas uprawnia do takiego przejścia? Jest to tzw. problem indukcji. Już Arystoteles, z godną podziwu wnikliwością, pokazał, że indukcja nie jest konkluzywna i jego dowód na to do dzisiaj nie został obalony. A jednak indukcja stosowana jest ciągle nie tylko w życiu codziennym, lecz także stanowi jedną z głównych metod w naukach przyrodniczych. Na jakiej podstawie?
Nie możemy tutaj dyskutować różnych prób rozwiązania tych trudnych problemów filozoficznych i musimy się ograniczyć do wskazania, że pewne pytania metodologiczne są przez nie uwarunkowane. W ramach naszego przedstawienia nie chodzi o to, aby poszczególne metody filozoficznie uprawomocniać, lecz tylko o to, aby opisać metody, które są dzisiaj stosowane w praktyce naukowej i rozważane w metodologii.
Podział indukcji. Indukcje, które określiliśmy jako “autentyczne”, można podzielić w następujący sposób.
(1) Ze względu na przedmiot na pierwszorzędne i drugorzędne. Pierwsze prowadzą do hipotez lub praw, drugie do teorii (zob. wyżej, s. 68).
(2) Ze względu na rodzaj zdań wyjaśniających na indukcje jakościowe i ilościowe, deterministyczne i statystyczne, zależnie od tego, czy powstające zdanie dotyczy tylko współwystępowania fenomenów czy też ich wzajemnej funkcjonalnej zależności, a to albo w sensie niezmiennym, albo w sensie statystycznym. Jak już zauważyliśmy, metody indukcji ilościowej są jeszcze mało teoretycznie opracowane.
(3) Ze względu na samą metodę indukcje dzielą się na enumeracyjne i eliminacyjne. Indukcja enumeracyjna akumuluje tylko zdania, które mogą być wyprowadzone ze zdania wyjaśniającego. Rozstrzygająca jest tu ilość zebranych zdań. W wypadku indukcji eliminacyjnej nie potrzeba mnożyć zdań na temat wypadków indywidualnych (np. zdań obserwacyjnych), lecz eliminuje się możliwe hipotezy, które w danej sytuacji mogłyby wchodzić w grę. Przy tej drugiej metodzie ilość wziętych pod uwagę zdań jest nieistotna, istotny jest natomiast ich rodzaj, tzn. różnorodność uwzględnianych fenomenów. Tabulae Francisa Bacona i metody Milla są specjalnymi sposobami stosowania indukcji eliminacyjnej.
Przyjmuje się dzisiaj powszechnie, że czysto enumeracyjna indukcja stosowana jest bardzo rzadko - zwykło się ją nawet niekiedy określać jako “nienaukową”. Z drugiej strony, metodologowie nie są zgodni, jak należy rozumieć drugi rodzaj indukcji. Podczas gdy G. von Wright jest zdania, że jest ona wyłącznie eliminacyjna, to R. N. Braithwaite utrzymuje, że eliminacja odgrywa dziś znikomą rolę w praktyce nauk przyrodniczych, których postęp wynika raczej z konfirmacji niż z falsyfikacji (tzn. eliminacji).
Metody Milla. Chociaż są one przestarzałe, a nawet w tej formie, w jakiej ujmował je John Stuart Mill, nigdy nie były w nauce stosowane; to jednak omówimy je teraz krótko, ponieważ ułatwiają wgląd w to, co rzeczywiście dzieje się podczas wnioskowania indukcyjnego.
Mill przedstawia pięć takich metod. Streszczamy jego opis, przy czym to, co on nazywa “przyczyną”, tłumaczymy jako “warunek” i dla prostoty zakładamy, że istnieją tylko dwie klasy fenomenów, a każda z nich posiada tylko trzy elementy: a, b, c i A, B, C.
(1) Metoda zgodności: a pojawia się zarówno z AB jak i z AC. Założywszy, że (1) a w ogóle posiada jakiś warunek i że (2) tylko ABC wchodzą w grę jako możliwe warunki, wynika z tego, że A jest warunkiem wystarczającym dla a.
(2) Metoda różnicy: a pojawia się wraz z ABC, natomiast nie pojawia się z BC (gdzie brakuje tylko A). Przy takich samych założeniach wynika, że A jest koniecznym warunkiem a.
(3) Połączone metody zgodności i różnicy: a pojawia się wraz AB i AC, natomiast nie pojawia się z BC. Przyjmując ciągle te same założenia, można stąd wnioskować, że A jest wystarczającym i koniecznym warunkiem dla a.
(4) Metoda reszt: w wyniku innych indukcji zostało stwierdzone, że B jest warunkiem b i C jest warunkiem c; abc pojawiają się wraz z ABC. Pod wyżej wymienionymi warunkami i dodatkowym, że każdy fenomen może być warunkiem tylko jednego typu fenomenów, wynika, że A jest wystarczającym i koniecznym warunkiem a.
(5) Metoda zmian towarzyszących: A zmienia się w taki sam sposób jak a, B i C zmieniają się jednak w inny sposób. Jest to metoda indukcji ilościowej, o której jeszcze będziemy mówili; tymczasowo możemy ją pominąć.
W wypadku czterech pierwszych metod dało się zauważyć, że wymagają one przynajmniej dwóch założeń, mianowicie, że w ogóle istnieje warunek odpowiedniego typu i - dalej - że tylko jeden z wyliczonych fenomenów (w naszym przykładzie ABC) może być tym warunkiem. Pierwsze z tych założeń nazywa się “postulatem determinizmu”, drugie nazywane jest niekiedy “postulatem zamkniętego systemu”. Jeżeli je założymy, wtedy wnioski wynikają dedukcyjnie. Można jednak zaraz zapytać, jak takie założenia mogą być usprawiedliwione. Faktycznie nie tylko nie mają one żadnego uzasadnienia, lecz często muszą być po prostu uznane za fałszywe.
Założenia metod Milla. Zauważmy najpierw, że determinizm, o którym tutaj jest mowa, nie jest determinizmem ontologicznym. Nauki przyrodnicze nie znają przyczynowości ontologicznej i stąd też nie posługują się determinizmem w tym sensie (z czego poza tym wynika, że bezsensowne jest dedukowanie wolności woli z odrzucenia determinizmu metodologicznego). Ale jeżeli nawet mówi się tylko o determinizmie fenomenalnym (a więc nie o przyczynach ontologicznych, lecz o warunkach), wyrażenie to jest jeszcze wieloznaczne. O ścisłym determinizmie da się mówić tylko w wypadku połączonej metody zgodności i różnicy, gdyż tylko tutaj przyjmuje się, że dla każdego fenomenu istnieje warunek wystarczający i konieczny. W metodzie różnicy zakłada się tylko, że dla każdego fenomenu istnieje warunek konieczny, tzn. że zawsze konieczny jest pewien inny fenomen, nie zaś, że wystąpienie pierwszego fenomenu wystarczałoby, żeby również obecny był drugi. W tym wypadku mówi się o częściowym determinizmie. Jest to założenie akceptowane w dzisiejszej mikrofizyce: żeby jakąś cząstkę, np. elektron, wprawić w ruch muszą być spełnione pewne warunki, jednak one same nie wystarczają, gdyż nawet wtedy, gdy są spełnione, oczekiwany fenomen może nie wystąpić.
Jak można usprawiedliwić przyjęcie jednego bądź drugiego rodzaju determinizmu? Na pewno nie przez odwołanie się do ontologii. Może ona pokazać, że każdy fenomen ma przyczynę, ale nie że przyczyna ta jest fenomenem. Także logika nie może dostarczyć usprawiedliwienia dla zasady determinizmu. Wreszcie nie może ona być również ustalona indukcyjnie, ponieważ jest założona w każdej indukcji. W tych oto prostych uwagach leży punkt ciężkości tzw. problemu indukcji i wystarczają one, aby pokazać, że każda próba transformacji indukcji w dedukcję przez przyjęcie nowych przesłanek jest skazana na niepowodzenie.
To samo dotyczy drugiego rodzaju determinizmu. Nie mamy ani ontologicznej, ani logicznej, ani indukcyjnej podstawy dla założenia, że możliwe są tylko hipotezy wzięte przez nas pod uwagę. Przeciwnie, wiemy z doświadczenia, że wiele innych hipotez jest także możliwych.
Uwagi te potwierdzają to, co już powiedzieliśmy o determinizmie: nie istnieje most między indukcją a dedukcją, w każdym razie nie w formie dodatkowych przesłanek.
Niektórzy metodologowie, aby jeszcze o tym krótko wspomnieć, próbowali ustalić to połączenie w inny sposób. Twierdzili mianowicie, że indukcja wtedy zmienia się w dedukcję, gdy odpowiedni fenomen po prostu inaczej się zdefiniuje. Jako przykład weźmy diament i załóżmy, że dotąd był on zdefiniowany przez trzy własności: A, B i C. Załóżmy także, że ktoś spalił jeden lub dwa diamenty, tak jak to uczynił Lavoisier, i widzi, że ze spalenia powstał tlenek węgla (CO), stąd też twierdzi, że każdy diament składa się z węgla. Jak twierdzenie to da się usprawiedliwić? Po prostu tak, że nowo znalezioną własność, bycie z węgla, doda się do już znanych własności ABC: “diamentem” ma się od teraz nazywać, zgodnie z nową definicją, każde ciało, które posiada własności ABC i dodatkowo nowo odkrytą własność bycia z węgla. Jeżeli to założymy, wtedy dedukcyjnie wynika, że diament musi zawsze składać się z węgla.
Od razu jednak widać, że tego rodzaju czysto konwencjonalna metoda nie wchodzi poważnie w rachubę w naukach przyrodniczych. Wprawdzie da się ona konsekwentnie przeprowadzić, ale pozostawia bez odpowiedzi pytanie, dlaczego ABC ma zawsze występować z nowo odkrytą własnością. Konwencja nie jest prawem przyrody, a nauka wymaga poważniejszych uzasadnień.
Indukcja i system. Gdy przyjrzymy się bliżej, jak rzeczywiście wygląda praktyka w naukach przyrodniczych, wtedy dostrzeżemy, że decydującym czynnikiem w formułowaniu praw jest zupełnie coś innego niż założenia Milla, mianowicie prostota praw i ich wzajemne związki w systemie aksjomatycznym. Na czym związki te polegają, pokażemy na prostym przykładzie. Jeżeli wie się, że wszyscy ludzie urodzeni przed określonym rokiem już umarli, wtedy wystarcza to do sformułowania hipotezy, że wszyscy ludzie w ogóle są śmiertelni. Hipoteza ta stanie się jednak jeszcze o wiele bardziej przekonywająca, jeżeli dodatkowo wie się - z innych indukcji - że wszyscy ludzie są kręgowcami i że wszystkie kręgowce są śmiertelne. W ten sposób hipoteza ta nie jest tylko indukcyjnie osiągnięta w oparciu o zdania obserwacyjne, lecz także wyprowadzona z ogólnego prawa, a to znacznie ją wzmacnia. Aksjomatyczny związek z innymi prawami i z całością określonego systemu naukowego jest w każdym wypadku czynnikiem, który istotnie powiększa wiarygodność hipotezy. Według niektórych metodologów jest on nawet koniecznym warunkiem transformacji hipotezy w prawo, według innych jedyną racją dla przyjęcia hipotezy w naukach przyrodniczych. Wprawdzie to ostatnie stanowisko jest z pewnością przesadne, lecz nie da się zaprzeczyć, że aksjomatyczny związek między prawami odgrywa ważną rolę w akceptacji hipotez.
Niekiedy jednak używa się także hipotez, które nie znajdują się w takich relacjach; są to tzw. hipotezy robocze, których w związku z tym nie nazywa się “prawami”. Posługuje się nimi, o ile jest to celowe dla zbadania określonej, ograniczonej dziedziny. Tak np. znany etnolog P. W. Schmidt skutecznie posługiwał się w swoich badaniach materializmem historycznym jako hipotezą roboczą, chociaż sam stwierdził, że nie istnieje żaden szerszy system, w związku z którym mogłaby ona być używana.
Reguła prostoty. Drugie zwyczajowe założenie funkcjonujące w trakcie formułowania praw można przedstawić następująco: jeżeli wiele hipotez wyjaśnia dane zdanie, należy wybrać najprostszą z nich. Reguła ta jest konieczna, aby w sytuacji, w której dana jest nieskończona klasa możliwych hipotez, móc je zredukować do jednej. To, że nieskończona klasa hipotez często może być obecna, da się pokazać na następującym przykładzie. Rozważamy trzy punkty na płaszczyźnie, które mają reprezentować trzy zdania obserwacyjne (np. dotyczące ciśnienia jakiegoś gazu w zamkniętej przestrzeni) i szukamy krzywej, na której mogą leżeć. Funkcja matematyczna odpowiadająca tej krzywej będzie hipotezą wyjaśniającą. Widać od razu, że istnieje nieskończona klasa takich krzywych. Rysunek pokazuje tylko kilka przykładów.
W tym wypadku wybierzemy na pewno ostatnią krzywą, mianowicie prostą, ponieważ jest najprostsza.
Streszczenie. Interpretacje filozoficzne. Streszczając możemy powiedzieć, że do stosowania indukcji jakościowej konieczne są przynajmniej cztery postulaty: postulat determinizmu, postulat zamkniętego systemu, postulat związku między prawami i postulat prostoty. Odpowiednio do tego dadzą się sformułować cztery następujące reguły: szukaj warunków; zakładaj, że te warunki muszą należeć do istniejącego już systemu; wybieraj te hipotezy, które najlepiej są związane z całością systemu; wybieraj hipotezę najprostszą.
Jak teraz wszystkie te reguły dadzą się uzasadnić? Filozofowie spierają się o to od wieków. Jednym z uzasadnień jest uzasadnienie intuicyjne: zgodnie z nim prawa natury można uchwycić nie tylko w racjonalnym wnioskowaniu, ale też w pewnym rodzaju intuicji. Według drugiego wyjaśnienia, kantowskiego, prawa są formami naszego myślenia, które wprojektowujemy w przyrodę w ten sposób, że faktycznie pojawia się nam ona jako przez nie uformowana. Pragmatyści natomiast twierdzą, że indukcja jest w istocie sprawą czysto praktyczną, chce się przez nią tylko osiągnąć możliwie najkorzystniejsze przewidywania. Wreszcie według sceptyków, których także nie brakuje, zdania sformułowane indukcyjnie nie posiadają w ogóle żadnej wartości prawdziwościowej.
Po tym, co dotychczas powiedzieliśmy, powinno być jasne, że wszystkie te ujęcia są błędne. Ani nie istnieje intuicja praw przyrody, ani nie są one dane a priori, przeciwnie, jest oczywiste, że tylko przez trudną pracę racjonalną dochodzimy do naszych wniosków i nie zawsze noszą one charakter pewności. Opinię, że w naukach przyrodniczych chodzi tylko o sprawy praktyczne, można odrzucić chociażby przez wskazanie, że aby jakieś zdanie sformułowane indukcyjnie mogło być praktyczne, musi uprzednio być prawdziwe, tzn. musi być zgodne z rzeczywistością. Sceptycyzm natomiast jest osłabiany przez praktyczne osiągnięcia techniki: jak nasze prawa mogłyby się ciągle potwierdzać, gdyby nie miały żadnej pozytywnej wartości prawdziwościowej? Godne uwagi jest także, że przy wszystkich zmianach teorii oraz mimo postępu w naukach i wynikających stąd podwyższonych wymaganiach, wiele praw, w tym, co istotne, pozostaje nadal nie zmienionych.
Krótko mówiąc: dzięki metodzie indukcyjnej udało się dotąd uchwycić kilka aspektów przyrody, jak to jest jednak możliwe, nie udało się do dzisiaj nikomu powiedzieć. Gigantyczna, dokonana dzięki indukcji praca, logikowi jawi się jako pełne sukcesów odszyfrowywanie zakodowanego tekstu, do którego brakuje nam klucza. Wydaje się pewne, że kilka rzeczy odszyfrowaliśmy, nie wiemy natomiast, jak to się dzieje.
Dwa znaczenia słowa “prawdopodobieństwo”. Większość dzisiejszych metodologów akceptuje pogląd, że słowo “prawdopodobieństwo” i podobne wyrażenia posiadają bardzo różne znaczenia nie tylko w codziennym użyciu, ale też, że w językach technicznych oznacza się przez nie często dwie lub więcej całkowicie różnych rzeczy. Może to wyjaśni następujące rozważanie. Liczne prawa przyrodoznawstwa są prawami probabilistycznymi, tzn. stwierdzają one prawdopodobieństwo zdarzeń. Same te prawa są jednak tylko prawdopodobne, ponieważ opierają się na indukcji. Słowo “prawdopodobieństwo” ma więc dwa różne znaczenia: prawdopodobieństwo zdarzenia i prawdopodobieństwo hipotezy (względnie prawa lub teorii).
Istotna różnica pomiędzy tymi pojęciami polega przede wszystkim na tym, że pierwsze prawdopodobieństwo, przynajmniej zasadniczo, da się ująć liczbowo: można sensownie powiedzieć, że prawdopodobieństwo jakiegoś zdarzenia wynosi tyle a tyle. Prawdopodobieństwo hipotezy nie da się natomiast określić liczbowo. Wydaje się nonsensowne powiedzenie, że teoria Einsteina czy prawo Boyle'a mają prawdopodobieństwo wynoszące 3/4 itd. Pierwszy rodzaj prawdopodobieństwa jest dlatego zwykle nazywany “numerycznym”, “matematycznym” albo “statystycznym”, drugi określa się mianem “akceptowalności” (acceptability) albo “wiarygodności” (credibility).
Statystyka. Każda hipoteza probabilistyczna, tak jak inne zdania osiągnięte na drodze redukcji, opiera się na zdaniach obserwacyjnych. Nie opiera się ona jednak wprost na tego rodzaju pojedynczych zdaniach, lecz za pośrednictwem statystyki. Rozumie się przez to po prostu liczbowe uchwycenie poszczególnych wypadków, w których razem występują dwa rodzaje fenomenów (jednocześnie albo w określonym następstwie czasowym). Zdanie statystyczne ma więc zawsze następującą formę: z m wypadków fenomenu klasy A, n wypadków należy też jednocześnie do klasy B. Konkretnym przykładem może być: na 3567 mieszkańców miasta X przypada 78 obcokrajowców: Powinno być jasne, że każdy prosty rezultat statystyczny zakłada dwie kolejno przeprowadzone operacje: (1) ustalenie zdań obserwacyjnych, (2) policzenie ich. Praca statystyka nie ogranicza się jednak tylko do tego. Zebrane dane muszą uzyskać formę umożliwiającą pewne i wygodne zastosowanie metod redukcyjnych: np. przedstawia się je w ujęciu procentowym, na podstawie którego dadzą się znaleźć wartości średnie. To jednak często zakłada skomplikowany proces matematyczny (istnieją różne pojęcia wartości średniej i bardzo wyrafinowane metody znajdowania jej). W końcu statystyk musi też poświęcić uwagę, stosując dalsze metody matematyczne, wyeliminowaniu błędów powstałych w trakcie ustalania początkowych rezultatów.
Przy zbieraniu danych dla celów statystycznych duże znaczenie posiada następująca reguła. Często nie można uchwycić całego obszaru (całej populacji), lecz tylko pewną jej próbkę. W takim wypadku ważne jest, aby klasa wybranych fenomenów była możliwie <reprezentatywna> dla całości, mianowicie w tym sensie, aby posiadała tę samą kompozycję co cały obszar. Może to być jednak osiągnięte - zgodnie z fundamentalnymi prawami teorii prawdopodobieństwa - tylko pod warunkiem, że dystrybucja wybranych wypadków jest przypadkowa i neutralna. Wszystko powinno być zrobione, żeby wybór odbył się bez jakiejkolwiek <stronniczości>. Przykład: jeżeli na podstawie książki telefonicznej chce się zbadać, ilu londyńczyków jest obcokrajowcami, to nie można tylko szukać w nazwiskach, które zaczynają się na “Z”, gdyż jak wiadomo, znajduje się tu stosunkowo więcej obcokrajowców niż gdzie indziej. Przeciwnie, wybierane nazwiska powinny być równomiernie rozrzucone po całej książce.
Wzajemna zależność fenomenów. Ogólnie rzecz biorąc, badacz posługujący się metodą statystyczno-indukcyjną ma do czynienia nie z dwiema, lecz przynajmniej z trzema klasami. Przede wszystkim jest to obszerna klasa A fenomenów (klasa nadrzędna), np. klasa dzieci w Zurychu. Zawiera ona dwie podklasy, np. klasę dzieci zaszczepionych (B) i klasę dzieci cierpiących na daną chorobę (C). Pytaniem jest teraz, czy i w jakim stosunku procentowym obydwie podklasy B i C zależne są od siebie. Liczby dostarczane przez statystykę dadzą się w tym najprostszym przypadku przedstawić w następującej tabeli:
|
C |
nie C |
B |
x |
y |
nie B |
z |
t |
Zmienne “x”, “y”, “z” i “t” mogą być zastąpione przez liczby.
Pierwszym pytaniem jest: w jakich stosunkach znajdowałyby się x, y, z i t, gdyby między B i C nie zachodziły żadne relacje, tzn. gdyby B nie było w żadnym sensie warunkiem C i odwrotnie. Proste rozważanie pokazuje, że stosunek między dziećmi chorymi, które zostały zaszczepione (x), a wszystkimi zaszczepionymi (x + y), musi być taki sam jak między chorymi w ogóle (x + z), a wszystkimi wziętymi pod uwagę dziećmi (x+y+z+t), tzn.
x : (x+y) = (x+z) : (x+y+z+t).
Za pomocą prostych operacji formuła ta da się zredukować do:
xt = yz
Co się jednak dzieje, gdy szczepienie wywarło pozytywny wpływ na zachorowania? Wtedy stosunek między dziećmi chorymi, które zostały zaszczepione (x), a wszystkimi zaszczepionymi (x + y), będzie większy niż między wszystkimi chorymi w ogóle (x + z), a wszystkimi dziećmi branej pod uwagę klasy (x + y + z + t). Operacja matematyczna analogiczna do poprzedniej prowadzi do formuły:
xt > yz
W odwrotnym wypadku, jeżeli szczepienie wpływa negatywnie na zachorowania (co powinno być sytuacją normalną), rezultat będzie następujący:
xt <yz
Obie ostatnie formuły są przykładami praw statystycznych prostego typu.
Tablice korelacyjne. Przedstawimy teraz krótko nieco bardziej skomplikowaną formę statystycznego traktowania fenomenów, tzw. tablice korelacyjne. Za ich pomocą formułuje się prawa funkcjonalne. W tym przykładzie także będzie jedna klasa nadrzędna i dwie podklasy: A klasa nadrzędna roślin, B podklasa roślin nawożonych i C podklasa roślin nawożonych, które urosły. W przeciwieństwie do poprzedniego przykładu zarówno B jak i C będą podzielone na pięć dalszych podklas, a mianowicie według ilości otrzymanego nawozu albo stopnia wzrostu. Na podstawie obserwacji powstaje np. następująca tablica:
|
C0 |
C10 |
C20 |
C30 |
C40 |
B0 |
x00 |
x01 |
x02 |
x03 |
x04 |
B10 |
x10 |
x11 |
x12 |
x13 |
x14 |
B20 |
x20 |
x21 |
x22 |
x23 |
x24 |
B30 |
x30 |
x31 |
x32 |
x33 |
x34 |
B40 |
x40 |
x41 |
x42 |
x43 |
x44 |
“Bn” (“B0”, “B10” itd.) oznacza tutaj, że rośliny odpowiedniej podklasy otrzymały n jednostek (gramów) nawozu, “Cn” (“C0”, “C10” itd.), że urosły one o n jednostek (milimetrów). Litery “x” z podwójnym indeksem są zmiennymi, za które powinny być podstawione wartości uzyskane dzięki liczeniu. Dwie liczby indeksu wskazują po prostu na wiersz lub kolumnę.
Jeżeli nawóz oddziaływuje pozytywnie na wzrost roślin, wtedy obowiązuje prawidłowość: im więcej nawozu, tym większy wzrost. Weźmy najprostszy wypadek: wzrost powiększa się jednostajnie wraz z ilością nawozu. Wtedy oczywiście w pierwszym wierszu x00 będzie większe niż w x01 to ostatnie większe niż w x02 itd. W drugim wierszu x11 będzie większe niż x10 i x12, ta ostatnia wartość będzie większa niż x13, a ta niż x14. W trzecim wierszu x22 musi być większe niż x20 czy x24. Ogólnie otrzymujemy następujący obraz: na przekątnej tablicy - tzn. na miejscach, gdzie w naszym przykładzie znajdują się x00, x11, x22, x33, x44 - będą stały większe liczby, obie proste leżące obok przekątnej (x10, x21, x32, x43 i x01, x12, x23, x34) będą pokazywały mniejsze liczby i im bliżej będziemy szli do rogów (x40 i x04), tym liczby będą mniejsze. Krótko: będziemy mieli koncentrację w pobliżu przekątnej x00 – x44 i dekoncentrację w kierunkach do x40 i x04.
Wszystko to można potraktować matematycznie. Istnieją (dające się przedstawić za pomocą krzywych) formuły, ukazujące <normalną> dystrybucję indywiduów w tego rodzaju tabeli korelacji.
Nie jest naszym zadaniem opisywanie odpowiednich dla tego metod i formuł matematycznych. Chodziło tutaj tylko o uczynienie zrozumiałymi, o ile to możliwe bez zastosowania matematyki, najbardziej elementarnych zasad metody statystycznej.
Korelacja i prawdopodobieństwo. Co daje nam omówiona metoda? W zasadzie jest ona tylko zebraniem zdań obserwacyjnych: tyle a tyle wypadków współwystępowania, takich a takich wielkości dwóch fenomenów, w pewnej nieskończonej klasie. Jak od tej czysto faktycznej konstatacji, można dojść do ogólnie obowiązującego prawa, które odnosi się do nieskończonej ilości wypadków - właśnie do wszystkich wypadków jakiegoś fenomenu?
Należy tu przede wszystkim oddzielić dwa różne problemy.
(1) Czy na podstawie tablicy korelacji można cokolwiek wywnioskować na temat, czy i jak pewien indywidualny fenomen będzie się zmieniać - np. o ile milimetrów urośnie roślina, jeżeli otrzyma określoną ilość nawozu? Także wtedy, gdy chodzi o fenomeny, które już były obserwowane, tzn. te, które są uwzględnione w tablicy korelacji; odpowiedź brzmi: wyjąwszy wypadki, w których możliwa jest bezpośrednia obserwacja, albo odpowiednie zdanie obserwacyjne da się odczytać, z tablicy korelacji można wnioskować tylko o prawdopodobieństwie. W naszym przykładzie jest ono po prostu równoważne tak zwanej częstości względnej: jeżeli wśród m roślin, które otrzymały k gramów nawozu, n urosło o p milimetrów, wtedy prawdopodobieństwo, że inna roślina (która także otrzymała dokładnie k gramów nawozu) urosła o p milimetrów, wynosi n/m. Znaczy to jednak, że nic nie wiemy na temat określonego indywiduum, natomiast wiemy coś tylko w odniesieniu do całej ich klasy. Wystarcza to oczywiście, aby obliczyć pewne dane dla polityki ubezpieczeniowej, nie uwzględniając przy tym indywidualnych wypadków.
(2) Czy na podstawie tablic korelacji można coś orzekać o wszystkich, także i tych nieobserwowanych (m.in. przyszłych), fenomenach jakiejś klasy? Ten drugi problem nie ma już nic wspólnego z prawdopodobieństwem w wyżej opisanym sensie. Logiczna struktura postępowania indukcyjnego jest tutaj dokładnie taka sama jak ta, którą rozważaliśmy w związku z metodami Milla. To, czego tu potrzebujemy to: determinizm, postulat zamkniętego systemu, postulat związku między prawami i postulat prostoty - tego ostatniego oczywiście dopiero wtedy, gdy ma być skonstruowane prawo funkcjonalne.
Nauki przyrodnicze i historia. Zwykło się mówić, że między naukami przyrodniczymi a historią istnieją dwie fundamentalne różnice. (1) Przedmiotem pierwszych są rzeczy i zdarzenia nie-duchowe (materialne), tematem historii są natomiast przedmioty duchowe. (2) Podczas gdy nauki przyrodnicze formułują ponadczasowe prawa, a więc pomijają to, co historyczne, to dla historii charakterystyczne jest, że zajmuje się tym, co przeszłe, przeszłością jako taką.
Oba te kryteria nie są jednak bardzo pożyteczne, gdy chce się jasno oddzielić wymienione właśnie dziedziny, ponieważ (1) człowiek, którego działalność rozważają nauki historyczne, nie składa się oczywiście tylko z ducha, lecz także z materii i nie zawsze łatwo jest określić, jak dalece w konkretnym wypadku działa on właśnie jako duch. Czy np. sprawy ekonomiczne, które w pewnym sensie są wspólne ludziom i zwierzętom, należą do duchowego czy materialnego obszaru? A historia przecież zajmuje się także fenomenami ekonomicznymi. Z drugiej strony, nie można z pewnością zaliczyć psychologii do historii, chociaż nie ulega wątpliwości, że częściowo jej przedmiotem jest także to, co duchowe. (2) Również drugie kryterium nie jest wystarczające: znamy bowiem różne nauki przyrodnicze, w których omawia się przeszłość, przeszłość jako taką. B. Russell zauważył, że fenomeny, o których mówi się w fizyce, są zawsze przeszłymi fenomenami, tylko że przeminęły one niedawno, podczas gdy historia zajmuje się dawno minioną przeszłością. W ten sposób różnica byłaby tylko różnicą stopnia.
Wyraźniejsza jest natomiast różnica w metodzie. Uderza fakt, że żadna nauka historyczna nie formułuje zdań ogólnych. Wprawdzie wykorzystuje je w trakcie swojej pracy myślowej, ale sformułowane za ich pomocą hipotezy i prawa są zawsze indywidualne. Dlaczego Napoleon zaczął tak późno kampanię przeciwko Rosji? Ponieważ nie mógł wystarczająco szybko zgromadzić koniecznej ilości zapasów. Dlaczego Aleksander zaatakował właśnie Indie? Wyjaśnienie można znaleźć w jego wykształceniu itd. Chodzi tutaj zawsze o wyjaśnianie, tzn. o postępowanie redukcyjne. Nie jest to w żadnym wypadku indukcja.
Wielu metodologów tak zwanych nauk humanistycznych [Geisteswissenschaften] (które wszystkie w pewnym sensie są naukami historycznymi) twierdzi również, że nauki te nie są w ogóle wyjaśniające, lecz tylko opisujące, a więc quasi-fenomenologiczne, chociaż bez wyłączania istnienia. Jest to oczywiście fałszywe. Dzisiejsze nauki historyczne i humanistyczne nie tylko opisują, lecz także wyjaśniają. Wygląda na to jakby ci metodologowie zmuszeni do wyboru między dedukcją a indukcją, nie widzieli żadnego innego wyjścia niż cytowane wyżej twierdzenie. Z metodologicznego punktu widzenia, nauki historyczne dadzą się najprecyzyjniej scharakteryzować jako nie-indukcyjne nauki redukcyjne.
Punkt wyjścia. Nauki historyczne są naukami empirycznymi. Także i ich podstawę tworzą zdania o fenomenach w “przyrodniczym” sensie tego słowa, mianowicie dające się obserwować procesy. Fakt, że są to fenomeny należące do przeszłości nic tu nie zmienia. Już w samych naukach przyrodniczych fakt ten jest nie tylko do pomyślenia, lecz także zachodzi rzeczywiście. A jednak ta okoliczność wprowadza istotną komplikację do metody redukcyjnej. Tam bowiem, gdzie przyrodnik ma zwykle do czynienia ze zdaniami obserwacyjnymi, które w precyzyjnym języku zostały sformułowane przez badaczy należących do tego samego kręgu kulturowego co on, których więc interpretacja nie sprawia zasadniczo żadnych trudności, to historyk zmuszony jest zaczynać od tak zwanych dokumentów, które w tym względzie nie są w najmniejszym stopniu podobne do zdań obserwacyjnych przyrodnika. Źródła historyczne, nierzadko napisane w mało znanym języku, aż nazbyt często pochodzą z obszaru kultury obcego dla historyka. Poza słowami znajduje się najczęściej nieznany związek aksjomatyczny. Dodatkowo wiarygodność dokumentów jest zawsze wątpliwa. Nie chodzi w nich o trzeźwe raporty z laboratorium, sporządzone przez fachowców, których ethos naukowy (a także zaangażowanie w karierę naukową) stanowiłyby wystarczającą gwarancję rzetelności.
Jasne jest więc, że to, co w naukach historycznych odpowiada zdaniom obserwacyjnym, nie leży na początku, lecz musi być osiągnięte przez długą i często trudną pracę interpretacyjną. Dopiero dzięki niej można otrzymać - redukcyjnie albo dedukcyjnie - zdania o faktach. W tym leży dalsza fundamentalna różnica między dyscyplinami historycznymi a przyrodniczymi.
Opisaną sytuację można wyrazić również następująco: nauki historyczne, dokładnie tak samo jak przyrodnicze, zawierają dwa stopnie logiczne zdań: zdania o fenomenach indywidualnych i zdania wyjaśniające. Ponadto znajdujemy w nich jeszcze jeden stopień, który leży przed stopniem tworzonym w naukach przyrodniczych przez zdania obserwacyjne: są to zdania bezpośrednio czerpane z dokumentów. Schemat nauk historycznych wygląda więc następująco: dokumenty - zdania o faktach - zdania wyjaśniające.
Wybór. Istnieją jeszcze inne różnice między rozważanymi naukami. Masa dokumentów i zawartych w nich faktów jest tak olbrzymia, że jednym z pierwszych zadań historyka jest mądry wybór pomiędzy nimi. Oczywiście także i przyrodnik jest postawiony przed wielką liczbą zdań obserwacyjnych i być może jeszcze większą fenomenów, ale dzięki swojej indukcyjnej metodzie (tzn. dzięki tendencji do formułowania zdań ogólnych) ma on o wiele łatwiejszy wybór, gdyż interesuje go tylko to, co może być uogólnione. Przeciwnie historyk, stoi on przed nie dającą się opanować ilością dokumentów, bez żadnej mogącej go prowadzić zasady. Kto np. pomyśli o historii pierwszej wojny światowej, łatwo dojrzy, że praktycznie niemożliwe jest jednoczesne uwzględnienie tysięcy, dziesiątków tysięcy raportów, aktów dyplomatycznych, aktów sztabów generalnych, wspomnień, książek i artykułów itd. Historyk musi pomiędzy nimi wybierać.
Ujawniają się tu dwa specyficzne dla nauk historycznych problemy. Pierwszy jest natury filozoficznej: dlaczego historyk nie chce stosować indukcji? Na to pytanie dano dwie odpowiedzi. Pierwsza, która w swoich istotnych rysach pochodzi od Wilhelma Windelbanda, brzmi: przedmiot nauk historycznych, a mianowicie duch, jest tak ukonstytuowany, że interesujące jest w nim to, co indywidualne, a nie to, co ogólne. Np. to, co Napoleon czy św. Franciszek mieli wspólnego z innymi ludźmi jest nieistotne, rozstrzygająca jest ich niepowtarzalna osobowa charakterystyka. Z tego powodu nauki historyczne nie są dyscyplinami nomotetycznymi (formułującymi prawa), lecz idiograficznymi (opisującymi własności) i stąd nie mogą stosować indukcji. Druga odpowiedź polega na wskazaniu na wielką złożoność fenomenów historycznych, która uniemożliwia formułowanie praw ogólnych. Z tego względu historia pozostaje na niskim stopniu, stopniu zbierania zdań obserwacyjnych i indywidualnego wyjaśniania. Mogłaby się ona rozwinąć do postaci nauki indukcyjnej - istniejąca już socjologia jest przykładem takiego rozwoju - a samą historiografię należałoby wtedy uznać za stopień wstępny. Jednak większość historyków ostro krytykuje i odrzuca dzisiaj pogląd reprezentowany w tej drugiej odpowiedzi.
Drugi problem jest problemem natury metodologicznej i brzmi: według jakiej reguły powinno się dokonywać wyboru między dokumentami? O ile wiadomo, na to czysto metodologiczne pytanie nie istnieje do dzisiaj żadna jasna odpowiedź i być może w ogóle nie może istnieć, gdyż jak powiedzieliśmy, dokumenty tworzą początek każdego badania historycznego. Oczywiście ten, kto formułuje hipotezę i chce ją zweryfikować ma w niej w pewnym sensie zasadę prowadzącą, ale w odniesieniu do samej hipotezy znowu można postawić pytanie o zasadę, na podstawie której została wybrana. Wydaje się więc, że przy wyborze decyduje ostatecznie subiektywne wartościowanie. Z tego powodu mówi się o naukach historycznych, w przeciwieństwie do nauk przyrodniczych, że są <uwarunkowane wartościami>. Nie oznacza to jednak, że historia, jeśli chodzi o prawdę jej rezultatów badawczych, jest nauką subiektywnie uwarunkowaną. Wolność dotyczy tylko wyboru fenomenów. Jeżeli to zostało zrobione, wtedy dalsze opracowanie przebiega nie mniej obiektywnie niż w naukach przyrodniczych.
Interpretacja. <Styl> dzisiejszej pracy historycznej jest luźny, przywiązuje się dużą wagę do językowej elegancji prezentacji. Jeżeli jednak uwzględnimy nie formę, lecz kryjące się za nią metody myślenia, to okaże się, że przy badaniu dokumentów stosowana jest przede wszystkim metoda semiotyczna wspomagana aksjomatyką (aksjomatyzacją), chociaż nie w takiej samej ścisłości jak w logice czy matematyce. Na pierwszym miejscu znajduje się krytyczne badanie tekstów - często przeinaczonych w wyniku błędów transkrypcji - w celu odtworzenia tekstu oryginalnego. W odniesieniu do pewnych fragmentów stosuje się bardzo skomplikowane, częściowo redukcyjne, częściowo nawet dedukcyjne metody. Także statystyka może tutaj odgrywać dużą rolę.
Dopiero po tym ma miejsce właściwa interpretacja, a mianowicie zawsze w wyniku - oczywiście luźnego - zastosowania reguł definicji za pomocą systemu aksjomatycznego. Dane są słowa. Znaczenie słowa w zdaniu określa się w ten sposób, że zdania zawierające słowa równokształtne ze słowem badanym zestawia się najpierw w tym samym dokumencie, potem w innych pismach tego samego autora, w końcu w pismach innych autorów należących do tego samego okresu. W ten sposób - jak to przedstawiliśmy przy omawianiu definicji - da się coraz lepiej określać znaczenie jakiegoś słowa i dedukcyjnie eliminować różne hipotezy na temat jego znaczenia. W praktyce tę czysto semiotyczną metodę łączy się jeszcze z redukcją, uwzględniając opracowanie wielkiej ilości zdań historycznych, hipotez, teorii itd.: wszystko to w celu uchwycenia znaczenia znaku.
W ten sposób jednak nie osiąga się jeszcze faktów historycznych. Zdania mogą być dopiero wtedy rozważane jako wyrażające fakty, gdy, w ten lub inny sposób, otrzymały jedno z możliwych znaczeń. Dopiero wtedy, gdy zamierzony przez autora sens słów został jednoznacznie ustalony, może zacząć się badanie dotyczące prawdy tych zdań.
Krytyka historyczna. Po interpretacji dokumentu, tzn. po ustaleniu przez historyka, co autor chciał powiedzieć, następnym zadaniem jest tak zwana krytyka historyczna. Jej istotą jest próba stwierdzenia, czy dane zdanie jest prawdziwe. Używane w tym wypadku postępowanie badawcze jest całkiem jednoznacznie wyjaśnianiem i z logicznego punktu widzenia dokładnie takim samym jak w naukach przyrodniczych: problem zostaje rozwiązany przez wcielenie badanego zdania w pewien system aksjomatyczny. Oczywiście systemy aksjomatyczne budowane w tym i innych wypadkach przez historyków są zwykle co do swej formy bardzo luźne, ale droga myślowa nie jest inna niż w systemach ścisłych.
Wchodzący tutaj w grę system zawiera zwykle dwie klasy zdań. (1) Najpierw potrzebne są pewne metajęzykowe, dokładniej, pragmatyczne zdania na temat autora: stwierdzają one, czy mógł on znać prawdziwy stan rzeczy, czy chciał i był w stanie go opisać itd. Używa się przy tym różnego rodzaju specjalnych postulatów: np. zazwyczaj zakłada się, że człowiek mówi to, co myśli, jeżeli nie ma żadnego specjalnego powodu, aby kłamać. (2) Po drugie, w trakcie budowania systemu używa się zdań należących do języka przedmiotowego, zarówno takich, które otrzymuje się bezpośrednio z interpretacji dokumentów jak też takich, które już wcześniej zostały sformułowane w naukach historycznych w wyniku zastosowania metody redukcyjnej. Jeżeli wszystkie te zdania dadzą się niesprzecznie uzgodnić ze zdaniem badanym, wtedy jest to argument na rzecz jego prawdziwości. Postępuje się przy tym także weryfikująco, wyprowadzając z niego w ramach systemu nowe zdania.
Wyjaśnianie historyczne. Dopiero teraz historyk może przystąpić do właściwego wyjaśniania: cała dotychczas opisana praca służyła tylko do tego, aby otrzymać zdania odpowiadające zdaniom obserwacyjnym w naukach przyrodniczych. To, co teraz pozostaje do zrobienia, nie zawiera nic szczególnie osobliwego: dokładnie tak, jak w naukach przyrodniczych próbuje się redakcyjnie wyjaśniać zdania o faktach przez inne zdania, przy czym stosuje się zarówno regresywną redukcję jak i weryfikację. Najważniejsze różnice między zastosowaniem tych metod a tym, co się robi w naukach przyrodniczych są następujące.
(1) Jak już powiedzieliśmy, w historii nie używa się indukcji, tzn. nie wyjaśnia się przez zdania ogólne. Z tego oczywiście nie wynika, że żadne zdania ogólne nie występują w wyjaśnianiu, faktycznie jest tak, że zdania tego rodzaju, czerpane z różnych nauk, ciągle są stosowane, ale to, co w oparciu o redukcję formułuje się w tym wypadku - a więc to, co odpowiada prawom i teoriom przyrodniczym - są to zdania o indywiduach.
(2) Eksperymentować tutaj nie można, gdyż chodzi o minione indywidualne fenomeny. Z tego powodu wykluczone jest zastosowanie metod Milla czy innych im podobnych. Jest to prawdopodobnie jeden z najważniejszych powodów względnej niedoskonałości nauk historycznych.
(3) Wyjaśnianie historyczne jest prawie zawsze genetyczne. Użycie tej metody nie ogranicza się do nauk historycznych, jednak w nich odgrywa ważniejszą rolę niż gdziekolwiek indziej. Chodzi tutaj o wyjaśnienie, jak doszło do jakiegoś wydarzenia w ten sposób, że zdanie stwierdzające to wydarzenie, powiedzmy zdanie A, wyjaśnia się przez zdanie odnoszące się do bezpośredniej przeszłości, np. B. Następnie zdanie B zostaje wyjaśnione przez trzecie zdanie C, które odnosi się do bezpośredniej przeszłości, ze względu na to, co było domniemane w B, itd. Jeżeli chce się np. genetycznie wyjaśnić wybuch rewolucji francuskiej, to nie można się tylko tym zadowolić, że odpowiednie zdanie wyprowadza się ze zdania na temat bezpośrednio ją poprzedzających warunków ekonomicznych, społecznych i religijnych, lecz to ostatnie także będzie się wyjaśniać przez np. zdanie stwierdzające wpływ encyklopedystów itd.
Również historiografia konstruuje systemy, a więc ma swoje teorie, ale teorie te nigdy nie są zdaniami ogólnymi. Pamiętając o tym ograniczeniu, można powiedzieć, że rezultat pracy myślowej historyka wygląda dokładnie tak samo jak przyrodnika: masa zdań historycznych jest uporządkowana i logicznie połączona w system. Powinno być jasne, że chodzi tu o metodę typowo redukcyjną.
Uwagi końcowe. Z naszych szkicowych rozważań wynika, że na pewno istnieje coś takiego, jak metoda historyczna, ale tylko w takim sensie, w jakim można mówić o metodzie psychologicznej, astronomicznej czy demograficznej; jest ona więc pewną specjalną metodą tego typu, który każda nauka musi sobie zbudować. Tym samym metoda historyczna nie może uchodzić za jedną z najogólniejszych metod myślenia. Polega ona na specjalnym zastosowaniu ważnych metod ogólnych, głównie metody redukcyjnej. Decydująca różnica między tym, co znajdujemy w historii i w naukach przyrodniczych nie leży tak bardzo w obszarze metody, ale w dziedzinie materiału: w historii jest on nieporównanie bardziej skomplikowany i wymaga zastosowania bardzo skomplikowanych dróg myślowych.
Jaka w szczegółach jest logiczna struktura metody historycznej, tego właściwie nie wiemy. Wydaje się, że niemożliwość zaliczenia metody historycznej do niegdyś jedynie znanych metod indukcji i dedukcji była powodem, dla którego większość metodologów nauk historycznych ograniczała się albo tylko do opisu techniki badawczej, albo próbowała szukać irracjonalnych dróg rozwiązywania teoretycznych problemów w tej dziedzinie. Chociaż domieszka tego, co subiektywne jest tutaj oczywiście duża, nie potrzeba jednak sięgać do tego rodzaju heroicznych środków. Współczesna ogólna metodologia myślenia oferuje bowiem pojęcia, za pomocą których można badać metodę historyczną.
Badanie to, jeśli chodzi o szczegóły, jest zadaniem odpowiedniej specjalnej metodologii. Tutaj dotknęliśmy tylko kilku podstawowych elementów metody historycznej. Wybraliśmy je, ponieważ dostarczają doskonałej ilustracji płodności nowych pojęć, a także dlatego, że metoda historyczna - chociaż jest metodą szczegółową - dotyczy bardzo dużej klasy dyscyplin i tym samym może być przedmiotem większego zainteresowania niż przeważająca ilość innych metodologii szczegółowych.
Nowsze poglądy i próby rozwiązań różnych problemów szkicowo zreferowane w tej książce pozwalają na kilka uwag ogólniejszej natury. Chcemy je podzielić na dwie klasy. Pierwsze odnoszą się do samej metodologii, drugie wyrażają myśli na temat filozofii ludzkiego myślenia.
W odniesieniu do metodologii należy powiedzieć trzy rzeczy:
- że rozwija się ona dzisiaj szybko i daje wiele pozytywnych rezultatów. Być może nie byłoby żadną przesadą stwierdzenie, że rzadko była uprawiana tak pilnie jak w naszych czasach.
- że postęp ten przyniósł pewną ilość nowych wglądów i rozwój dawniejszych. Jako dowód wystarczy podać: wypracowanie metody fenomenologicznej, wgląd w doniosłość analizy językowej, nowy podział metod myślenia i rozbudowę teorii systemów aksjomatycznych.
- że mimo tego - albo właśnie z tego powodu - dzisiejsza metodologia walczy z wieloma nie rozwiązanymi problemami. Wśród nich wymieńmy stary problem indukcji, całkiem nowe pytanie o sens i możliwość ustalenia prawdopodobieństwa hipotez, niezupełnie jeszcze wyjaśnioną względność systemów logicznych. Wydaje się, że w odniesieniu do pytań filozoficznych, w oparciu o nowsze poglądy, można ważyć się na następujące twierdzenia:
- że wyrażenia “poznawanie”, “myślenie”, “wiedza” i stąd też “nauka”, a także “prawda” i inne podobne nie są jednoznaczne, lecz przeciwnie wieloznaczne (w scholastycznym sensie tego słowa analogiczne). Współczesna metodologia pokazuje bowiem, jak różne są metody i wartość uzyskiwanych w oparciu o nie rezultatów w różnych dziedzinach.
- że w obliczu tej sytuacji każde proste rozwiązanie problemu poznania należy odrzucić jako niewystarczające. Rzeczywistość, a stąd i praca myślowa chcąca ją uchwycić jest oczywiście gigantycznie skomplikowana. Wszystkie próby, które chcą uprościć tę pracę - wąski dogmatyzm, nie mniej niż leniwy relatywizm i sceptycyzm - są całkowitym nieporozumieniem.
- że wszyscy naukowcy i filozofowie - pomimo tego, co często sami na ten temat mówią - wyznają w zasadzie wiarę w wartość racjonalnego myślenia: ponieważ metodologia nie jest niczym innym niż obrazem wielości metod rozwiniętych - szczególnie w ostatnich czasach - po to, aby móc racjonalnie myśleć.
Niech mi teraz będzie wolno na podstawie tego wszystkiego wyciągnąć kilka wniosków na temat dzisiejszej sytuacji w filozofii. Charakteryzuje się ona, niestety, istnieniem ostrych podziałów. W trakcie międzynarodowych kongresów - tak np. ostatnio na kongresie filozoficznym w Brukseli w 1953 roku często nie słyszy się już żadnego dialogu, lecz wymianę monologów: zwolennicy fenomenologii i zwolennicy analizy językowej stoją na przeciw siebie bez żadnego wzajemnego zrozumienia. Jednak w świetle tego, co metodologia współczesna ma do powiedzenia, różne metody nie są wyłączającymi się alternatywami, lecz komplementarnymi aspektami myślenia. W pełni rozwinięta filozofia współczesna nie powinna rezygnować z żadnych środków, tym bardziej, że jak to widać na przykładzie metodologii, trudno jest osiągnąć ważne rezultaty w trakcie pracy myślowej.
Dalej wynika z tego, że prawdopodobnie można byłoby dzisiaj mówić o autentycznej metodzie filozoficznej, gdyby tylko filozofowie nie wiązali się a priori z jedną z wielu metod, lecz, włączając się w tradycję wielkich myślicieli, chcieli rozważyć nihil humani a se alienum. Taka metoda filozoficzna opierałaby się na metodzie fenomenologicznej. Nie poprzestawałaby jednak na tym, lecz, z jednej strony, stosowałaby analizę do tego, co istnieje i istnienia samego, z drugiej, świadoma ludzkiej słabości, używałaby szeroko analizy językowej, w końcu także nie rezygnowałaby z żadnego rezultatu nauk redukcyjnych.
Tego typu filozofia jest nam dzisiaj, w czasie gdy wiedza jest tak dalece wyspecjalizowana, pilnie potrzebna. Jest ona tym bardziej konieczna, gdy ludzkość - dzisiaj być może więcej niż w innych epokach - poddaje się ślepo dzikim instynktom. Wiedza, rozum są dzisiaj tak zagrożone, jak to się niegdyś rzadko zdarzało, a wraz z nimi zagrożone jest także to, co ludzkie po prostu; być może nawet samo istnienie człowieka. Tylko autentyczna filozofia, która do poznawania używa wszystkich środków, mogłaby przyjść z pomocą w tej sytuacji. Nie zaś nauki szczegółowe i podobne im upraszczające systemy, które jako związane z jedną metodą, nie są w stanie ogarnąć całości.
Badając rozwój metodologii od czasu pierwszego ukazania się mojej książki Współczesne metody myślenia (1954) stwierdziłem, że chociaż w okresie tej jednej trzeciej wieku nastąpił pewien postęp w metodologii nauk humanistycznych - szczególnie w polskiej szkole J. Kmity - to jednak większość nowych poglądów dotyczy filozofii nauk przyrodniczych (co jest normalne, jeśli chodzi o metodologię w ogóle).
W świetle ostatniej literatury dotyczącej tego tematu można powiedzieć, że w XX wieku mieliśmy nie mniej niż pięć następujących po sobie okresów.
1. Okres dogmatyczny: indukcja naukowa, główne narzędzie logiczne nauk przyrodniczych, daje im pewność absolutną.
2. Okres indukcjonistyczny (R. Carnap): indukcja pozostaje naczelnym instrumentem nauki, lecz nie mogąc dać pewności, może przynajmniej zagwarantować pewien stopień prawdopodobieństwa.
3. Okres falsyfikacjonistyczny (główny myśliciel K. Popper): indukcja nie może nawet dać prawdopodobieństwa. Nauka rozwija się przez falsyfikację hipotez - to, co pozostaje jest rezultatem pozytywnym.
4. Okres relatywistyczny, nazywany okresem “czterech” lub nawet okresem “bandy czworga” - T. S. Kuhn, P. K. Feyerabend, S. Toulmin i N. R. Hanson: jedynym powodem akceptacji teorii jest “smak” [taste] (Feyerabend) lub “zgoda wspólnoty naukowców” (Kuhn).
5. Okres programów (główny myśliciel I. Lakatos): istnieją obiektywne kryteria wartości programu naukowego, tzn. wielkiej teorii: spójność logiczna i zdolność wspierania postępu w nauce.
Trzy pierwsze okresy omówiłem w mojej książce. Mają one wiele rysów wspólnych. Bada się tu (1) wartość konkluzji, a szczególnie (2) wartość pojedynczych zdań, nie zaś struktur; (3) odróżnia się wprawdzie prawa od teorii naukowych, lecz wyłącznie w oparciu o przekonanie, że teorie zawierają terminy teoretyczne, natomiast prawa ich nie zawierają.
Wszystko to zmieni się wraz z dwoma nowymi okresami.
Zaczynając od relatywizmu, podam najpierw kilka znaczących dzieł jego protagonistów.
S. Toulmin, The Philosophy of Science, 1953.
N. R. Hanson, Patterns of Discovery, 1958.
T. S. Kuhn, The Copernican Revolution, 1957 (Przewrót Kopernikański, Warszawa 1966).
The Structure of Scientific Revolutions, 1962
(Struktura rewolucji naukowych, Warszawa 1968).
P. K. Feyerabend, artykuły począwszy od 1962 r.
EWOLUCJA FILOZOFII NAUK PRZYRODNICZYCH (SCHEMAT)
Okres |
Główni myśliciele |
Przedmiot badań |
Aspekt badany |
Metoda i kryteria |
Wartość logiczna |
1. |
scjentyści |
pojedyncze zdania |
wartość logiczna |
indukcja |
pewność |
2. |
R. Carnap |
pojedyncze zdania |
wartość logiczna |
indukcja |
prawdopodo-bieństwo |
3. |
K. Popper |
pojedyncze zdania i struktury |
wartość logiczna |
falsyfikacja |
prawdopodo-bieństwo |
4. |
T. S. Khun (“czterech”) |
struktury |
rozwój historyczny |
“zgoda wspólnoty naukowców” “smak” |
żadna |
5. |
I. Lakatos |
struktury (programy) |
rozwój historyczny i wartość logiczna |
1) spójność 2) zdolność do wspierania postępu |
prawdopodo-bieństwo |
Uwaga: przedstawiony porządek dotyczy rzeczywistego wpływu; nie zawsze zgadza się z porządkiem chronologicznym zasadniczych publikacji, tak np. główne dzieło Poppera ukazało się w 1935 r., dziesięć lat przed pierwszą ważną pracą Carnapa (1945).
Spośród tych autorów Kuhn przyczynił się z pewnością najbardziej do rozwoju filozofii nauki, zarówno przez swoje studia historyczne, jak i nowatorstwo poglądów. W przeciwieństwie do filozofów okresów poprzednich Kuhn kładzie nacisk na rozwój faktu nauki. Nie zajmuje się pojedynczymi zdaniami, lecz systemami w ich całości i - co jest najbardziej znaczące twierdzi, że istnieje ważna różnica między prawami szczegółowymi i wielkimi teoriami, które nazywa “paradygmatami”. Podczas gdy pierwsze ustanawiane są wewnątrz systemu i za pomocą tradycyjnych procedur, to paradygmaty odrzucane są tylko w wyniku prawdziwych rewolucji naukowych.
Jeśli zaś chodzi o kryterium, w oparciu o które paradygmat jest akceptowany, to nie istnieje inne niż “smak” [taste] (Feyerabend) lub “zgoda wspólnoty naukowców” (Kuhn).
Główny powód nieuznania wartości kryterium tradycyjnego, szczególnie doświadczenia, jest logiczny: zdania empiryczne, z punktu widzenia logiki, są tezami wyprowadzonymi w systemie, w którym wielkie teorie grają rolę aksjomatów. Logika formalna sformułowała metatezę, według której zmiana aksjomatów pociąga zmianę sensu terminów danego systemu. Stąd jeżeli jedna teoria zastępuje inną, to sens terminów w zdaniach empirycznych zmienia się radykalnie. Znaczy to, że dwa paradygmaty - np. Ptolemeusza i Kopernika - nie mają żadnych wspólnych zdań empirycznych. Feyerabend twierdzi np., że jeśli Tycho Brahe (zwolennik Ptolemeusza) i Kepler (zwolennik Kopernika) patrzą na zachód Słońca, nie widzą tego samego. Nie można więc w oparciu o doświadczenie rozstrzygnąć na korzyść któregoś z dwóch paradygmatów - ponieważ wspólne doświadczenie nie istnieje.
Mamy więc pełny relatywizm.
Jednakże na reakcję wobec takiego poglądu nie trzeba było długo czekać. Reprezentowana jest ona przede wszystkim przez Imre Lakatosa, filozofa amerykańskiego węgierskiego pochodzenia, który zdominował ostatnie 10 lat rozwoju naszej dyscypliny. Jego pierwszy artykuł, który się cytuje, pochodzi z 1965 r. - P. Weingartner, filozof dobrze zaznajomiony z literaturą naukową, wymienia Lakatosa w swojej książce z 1971 r. tylko marginesowo. Jednak obecnie jest on niezaprzeczalnym mistrzem filozofii nauki. Wraz ze swoją szkołą wyróżnia się przede wszystkim tak wielką ilością szczegółowych studiów historycznych, że przynajmniej jego doktryna dotycząca faktów historycznych stała się ogólnie obowiązująca.
Badania Lakatosa, podobnie jak jego poprzedników, odnoszą się przede wszystkim do historycznego rozwoju nauki i w tej właśnie dziedzinie odniósł on największe sukcesy. Przedmiotem zainteresowania Lakatosa nie są pojedyncze zdania, lecz struktury. Pojmuje on je jednak inaczej niż Popper czy Kuhn: nie chodzi mu w tej mierze o tezy, co o programy badawcze. Jest przekonany, że dla tych programów znalazł dwa absolutne kryteria heurystyczne: spójność logiczną i zdolność do wspierania przyszłych badań.
W tym ostatnim okresie mamy także do czynienia z odrzuceniem jedynego poważnego argumentu relatywistów przeciwko obiektywności nauk przyrodniczych, tzn. przeciwko możliwości rozstrzygnięcia między dwiema teoriami w oparciu o zdania empiryczne. W szczególności zostało wykazane, że jeżeli zmiana aksjomatyki pociąga pewną zmianę sensu pewnych terminów w systemie, to nie wynika stąd, że wszystkie terminy zmieniają całość swojego znaczenia.
Rezultaty tej ewolucji można streścić następująco:
1. Przede wszystkim radykalnie odrzucono - i to jest trwały rezultat badań Kuhna - scjentyzm, który wierzył w prawdę absolutną w naukach przyrodniczych i tylko w nich. Jest to pogląd, którego dzisiaj nikt nie reprezentuje, oprócz oczywiście marksistów.
2. Mamy także do dyspozycji wielką ilość informacji o istocie rozwoju nauk przyrodniczych, których jeszcze pół wieku temu w ogóle nie znano. Tak np. dzisiaj wiemy, że w XVI wieku teoria Kopernika była z punktu widzenia logicznego o wiele słabsza niż teoria Ptolemeusza.
3. Ale jeśli chodzi o kwestię, jak uczony może dojść do pewności lub nawet tylko prawdopodobieństwa, pozostajemy w takiej samej niewiedzy, jak w roku 1954. Jest pewne, że wszystkie nauki przyrodnicze stosują indukcję. Jest również pewne - zostało to dowiedzione przez Arystotelesa i ponownie przez Poppera - że żadna konfirmacja nie powiększy prawdopodobieństwa wniosku indukcyjnego. Pewne jest w końcu, że coś wiemy - ale jak, tego logicy nie wiedzą.
Jeden z największych logików naszego wieku J. Łukasiewicz miał być może rację, gdy mówił: “badanie przyrody przypomina lekturę zaszyfrowanego pisma, do którego zgubiliśmy klucz. Najbardziej zadziwiającą rzeczą jest jednak, że w tych warunkach udaje się mimo wszystko zrozumieć kilka fragmentów.”
I. WPROWADZENIE. Pfänder, Maritain, Carnap (6).
II. METODA FENOMENOLOGICZNA. Podstawowe dzieło: Husserl (1); najlepsze przedstawienie: Heidegger s. 27n; zob. także Farber; przykłady zastosowania: Husserl (1) (2), Scheler (1) (2), Ingarden (1) (2). Natomiast większość rozpraw pt. “Fenomenologia” itd. nie zawiera żadnej metodologii w sensie tej książki; mogą one być pożyteczne dla zrozumienia innych (filozoficznych) aspektów fenomenologii: Van Breda, Merleau-Ponty, Reinach.
III. METODY SEMIOTYCZNE. Bibliografia: Church, Beth (1), bieżąca bibliografia w: “Journal of Symbolic Logic” 1936 nn. Podstawowe dzieła: Carnap (1), Tarski (1), Morris (1) (2). Rozbudowany system: Carnap (3) (4). Problem weryfikacji: Carnap (2), Reichenbach (1). Hempel (bibliografia!). Czasopisma: “Journal of Symbolic Logic”, “Journal of Philosophy of Science”, “British Journal of Philosophy of Science”, “Mind”.
IV. METODA AKSJOMATYCZNA. Bibliografia i czasopisma: jak w III. Logika matematyczna, podstawowe dzieła: Whitehead-Russell, Hilbert (2). Większe podręczniki: Beth (2), Dopp, Quine. Zarysy (niemieckie): Bocheński-Menne, Becker, Carnap (6), Hilbert (1), Tarski (3). Technika systemu aksjomatycznego: Weyl, Woodger (tam Tarski). O definicji: Dubislav, Robinson.
V. METODY REDUKCYJNE. Nowsze prace syntetyczne: Braithwaith, Kneale, Popper, Reichenbach (1), Weyl, von Wright; pośród starszych: Broad, Nicod. Zbiory ważniejszych artykułów: Feigl-Brodbeck, Wiener. Znaczenie mają także historyczne prace Duhema (starsze) i Thorndika (podstawowe). Tworzenie pojęć: Hempel (2). Prawdopodobieństwo: Carnap (5), Keynes, Mises, Nagel (przegląd problematyki). Nauki historyczne: Wagner (z dużą bibliografią; przedstawia m.in. irracjonalistyczne interpretacje metody, które zasadniczo nawiązują do Diltheya i może być pożyteczny dla zrozumienia filozoficznych i szczegółowych problemów tej dziedziny). - Obszerna bibliografia i przedstawienie metodologicznych poglądów przyrodników znajduje się u Bavinka.
Współczesne metody myślenia zostały napisane przed 36 latami. Choć więc zasadnicze informacje zawarte w tej książce są nadal aktualne, powstały w międzyczasie i rozpowszechniły się nowe poglądy, przede wszystkim w dziedzinie metodologii nauk doświadczalnych. Do najważniejszych należą następujące:
1. Indukcjonizm, reprezentowany przez R. Carnapa, stracił na znaczeniu - większość metodologów nauki poszła z biegiem czasu za K. Popperem, przejmując jego falsyfikacjonizm.
2. Grupa badaczy historii nauk (zwana niekiedy “grupą czterech”: K. Feyerabend, N. R. Hansom T. S. Kuhn i S. Toulmin) wystąpiła z twierdzeniem, że najogólniejsze teorie w rodzaju Kopernikowej, które Kuhn nazwał “paradygmatami”, nie mogą być uzasadnione przez powołanie się na zdania doświadczalne - tak dalece, że wybór między nimi jest “sprawą smaku” (Feyerabend).
3. Imre Lakatos wystąpił z tezą, że paradygmaty należy uważać nie za teorie, ale za programy badań.
Aczkolwiek każdy z tych poglądów zawiera interesujące myśli, żaden z nich nie jest ogólnie przyjęty, jako że praca badawcza toczy się w naukach doświadczalnych, inaczej niż one przewidują. Bo używa się w niej indukcji, rozstrzyga między teoriami za pomocą zdań doświadczalnych, a same teorie są zapewne nieraz programami badań, ale równocześnie także i przede wszystkim zdaniami opisującymi rzeczywistość.
W ostatnich latach mówi się wiele o tzw. modelach matematycznych rzeczywistości. Chodzi jednak przy tym nie o nowy pogląd, ale o nowe słowo - bo owe modele to po prostu zdania wyjaśniające, napisane w języku matematycznym. Warto przy tym zauważyć, że słowa “model” używa się w logice matematycznej we wręcz odwrotnym znaczeniu. Tam rzeczywistość (reprezentowana przez klasę stałych) jest modelem teorii matematyczno-logicznej, a nie odwrotnie.
J. M. B.
Fryburg 20 IX 1989
BAVIK B., Ergebnisse und Probleme d. Naturwissenschaften, 1914.
BECKER O., Einführung in die Logistik, 1950.
BERGSON H., (1) Essai sur les données immédiates de la conscience, 1889
(O bezpośrednich danych świadomości, Warszawa 1913).
(2) L'Evolution créatrice, 1907 (Ewolucja twórcza, Warszawa 1957).
BETH E. W., (1) Symbolische Logik und Grundlegung der exakten Wissenschaften, 1948.
(2) Les fondements logiques des mathématiques, 1950.
BOCHEŃSKI I., MENNE A., Abriß der mathematischen Logik, 1954.
BOLZANO B., Wissenschaftslehre, 4 tomy, 1837.
BRAITHWAITH R. B., Scientific Explanation, 1953.
BROAD C. D., Scientific Thought, 1923.
CARNAP R., (1) Logische Syntax der Sprache, 1934.
(2) Testability and Meaning, Philos. of Science 2, 1936 - 4, 1937.
(3) Introduction to Semantics, 1942.
(4) Formalization of Logic, 1943.
(5) Logical Foundations of Probability, 1950.
(6) Einführung in die symbolische Logik, 1954.
CHURCH A., A Bibliography of Symbolic Logic, “Journal of Symbolic Logic” 1, 1936 (dalej prowadzona w tym samym czasopiśmie).
DOPP J., Leçons de logique formelle, 3 tomy, 1949-50.
DUBISLAV V. W., Die Definition, 1931.
DuUHEM P., Le systeme du monde, 5 tomów, 1913 nn.
FARBEK M., Foundations of Phenomenology, 1943.
FEIGL H., Brodbeck M., Readings in the Philosophy of Science, 1953.
FREGE G., Über Sinn und Bedeutung, Ztschr. f. Philos. u. philos. Kritik 100, 1892 (Sens i nominat, w: J. Pelc (red.), Logika i język: studia z semiotyki logicznej, Warszawa 1967).
HARTMANN N., Zur Grundlegung der Ontologie, 1935.
HEIDEGGER M., Sein und Zeit, 1927.
HEMPEL C. G., (1) Problems and Changes in the Empiricist Criterion of Meaning, Rev. Intern. de Philos. 2, 1950 (nr 11)
(2) Fundamentals of Concept Formation in Empirical Science (Int. Enc. of Un. Science, II, 7) 1952.
HEYTING A., (1) Die formalen Regeln der intuitionistisehen Logik, Sitzungsb. d. Preuß. Akad. d. Wiss., Phys.-math. Kl., 1930.
(2) Mathematische Grundlagenforschung. Intuitionismus. Beweistheorie, 1934.
HILBERT D., (1) ACKERMANN W., Grundzüge der theoretischen Logik, 1928.
(2) BERNAYS P., Grundlagen der Mathematik, 2 tomy, 1934-39.
HUSSERL E., (1) Logische Untersuchungen, 2 tomy, 1901 n.
(2) Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, 1913 (Idee czystej fenomenologii i fenomenologicznej filozofii. Księga pierwsza, Warszawa 1975).
INGARDEN R., (1) Essentiale Fragen, 1924 (O pytaniach esencjalnych, w: Z teorii języka i filozoficznych podstaw logiki, Warszawa 1972).
(2) Das literarische Kunstwerk, 1931 (O dziele literackim, Warszawa 1988).
JASPERS K., (1) Philosophie, 3 tomy, 1932.
(2) Von der Wahrheit, 1947.
KEYNES J. M., Treatise on Probability, 1921.
KNEALE W., Probability and Induction, 1949.
ŁUKASIEWICZ J., (1) O logice trójwartościowej, Ruch Filozoficzny 5. 1920.
(2) Philosophische Bemerkungen zu mehrwertigen Systemen des Aussagenkalküls, Comptes rend. d. séances d. l. Soc. d. Sciences et d. Lettres d. Vars. Cl. III, 1930.
(3) W sprawie odwracalności stosunku racji i następstwa, Przegl. Fil. 16, 1913.
MARCEL G., Positions et approches concretès du mystère ontologique, w: Le monde cassé, 1933.
MARITAIN J., Petite Logique, 1946 (15 wyd.).
MERLEAU-PONTY M., Phénoménologie de la perception, 1945.
MILL J. St., A System of Logic, 2 tomy, 1843 (System logiki, Warszawa 1962).
MISES R., Wahrscheinlichkeit, Statistik und Wahrheit. 1928.
MORRIS Ch., (1) Foundations of the Theory of Signs, Intern. Encycl. of Unified Science, II, 2, 1938.
(2) Signs, Language and Behavior, 1946.
NAGEL E., Principles of the Theory of Probability, Intern. Encycl. of Unified Science. I, 6, 1939.
NICOD J. , Le problème logique de l’induction, 1923.
OGDEN C. K., RICHARDS I. A., The Meaning of Meaning, 1949.
PFÄNDER A., Logik, 1929.
POPPER K., Die Logik der Forschung, 1935 (Logika odkrycia naukowego, Warszawa 1977).
POST E., Introduction to a General Theory of Elementary Propositions, American Journal of Mathematics 43, 1921.
QUINE V. W., Mathematical Logic, 1940.
REICHENBACH H., (1) Experience and Prediction, 1938.
(2) Philosophic Foundations of Quantum Mechanics, 1944.
REWACH A., Was ist Phänomenologie?, 1951.
ROBINSON R., Definition, 1950.
SCHELER M., Der Formalismus in der Ethik und die materiale Wertethik, 1913-16.
(2) Wesen und Formen der Sympathie, 1913 (Istota i formy sympatii, Warszawa 1980).
TARSKI A., (1) Der Wahrheitsbegriff in den formalisierten Sprachen, Studia Philosophica I, 1936 (Pojęcie prawdy w językach nauk dedukcyjnych, Warszawa 1933).
(2) Grundzüge des Systemenkalküls, Erster Teil. Fundamenta Mathematicae 25, 1935.
(3) Einführung in die mathematische Logik und die Methodologie der Mathematik, 1937.
THORNDIKE L., A history of Magic and Experimental Science, 6 tomów, 1923 nn.
VAN BREDA H. L. (wyd.), Problèmes actuels de la phénoménologie, 1952.
VON WRIGHT G. H., A Treatise on Induction and Probability, 1951.
WAGNER Fr., Geschichtswissenschaft, 1951.
WIENER Ph., Readings in Philosophy of Science, 1953.
WEYL H., Philosophie der Mathematik und Naturwissenschaft, 1928.
WHITEHEAD A. N., RUSSEL B., Principia Mathematica, 3 tomy, 1910-1913.
WITTGENSTEIN L., Tractatus Logico-Philosophicus, Annalen der Naturphilosophie 1921 (tłum. pol., Warszawa 1970).
WOODGER J., (1) The Axiomatic Method in Biology, 1937.
(2) The Technique of Theory Construction, Encycl. of Unified Science II, 5, 1939.
skan&OCR&Pdf – Peart – 2002
1 W zwiazku z tym, ze Autor uzywa slowa “Satz” (zdanie) w kontekscie przeciwstawienia pojecie - zdanie (pojecie subiektywne - zdanie subiektywne, pojecie obiektywne - zdanie obiektywne) i jednoczesnie rezerwuje slowo “Urteil” (sad) dla procesu stwierdzania lub zaprzeczania zdania obiektywnego, to w tym fragmencie ksiazki pozostaje tylko jedna mozliwosc oddania niemieckiego slowa “Aussage” - wlasnie jako “wypowiedz”. Dalej jednak nalezy tlumaczyc “Aussage” jako “zdanie”, gdyz przy tlumaczeniu go jako “wypowiedz” powstalyby wyrazenia klócace sie z polskimi zwyczajami terminologicznymi, np. “logika wypowiedzi” (Aussagenlogik) zamiast wlasciwego “logika zdan”. W miejscach, gdzie moglyby powstac nieporozumienia, podaje w nawiasach terminy niemieckie. Zasadniczo wiec w dalszych partiach tekstu wszedzie, gdzie wystepuje slowo “zdanie”, jest ono tlumaczeniem niemieckiego “Aussage” i nalezy je rozumiec w sensie okreslenia podanego wyzej przez Autora. tzn. jako znak dla zdania obiektywnego (przypis tlumacza).
1 Fenomenologia ducha, tlum. A. Landman, 2 tomy, Warszawa 1963, 1965 (przypis tlumacza).
2 Idee czystej fenomenologii i fenomenologicznej filozofii. Ksiega pierwsza, tlum. D. Gierulanka. Warszawa 1975 (przypis tlumacza).
3 J. P. Sartre, L'Ętre et le néant. Essai d'ontologie phénoménologique, Paris 1943 (przypis tlumacza).
4 G. Marcel, Zarys fenomenologii posiadania, w: Byc i miec, tlum. P. Lubicz, Warszawa 1986 (przypis tlumacza).
1 A. Tarski, Pojecie prawdy w jezykach nauk dedukcyjnych, Warszawa 1933, s. 4-15 (z opuszczeniami). Jestem wielce zobowiazany Panu Profesorowi Tarskiemu za uprzejme pozwolenie przedrukowania tego tekstu.
1 I. Bochenski, A. Menne, Abriss der mathematischen Logik. Jestem bardzo wdzieczny Panu Doktorowi Albertowi Mennemu za pozwolenie na przedrukowanie tego tekstu.
2 Tutaj, a takze w 8.13, 8.33 oraz w wyjasnieniach do 8.51 i 8.52 litery wydrukowane kursywa powinny byc umieszczone w cudzyslowach; poniewaz jednak nieporozumienie nie jest mozliwe, zostaly one opuszczone. (Dodane przez Autora).
1 Tekst ten zostal napisany w 1986 roku jako dodatek do przekladu francuskiego Wspótczesnych metod myslenia. Autor zezwolil na dolaczenie go do wydania polskiego (przypis tlumacza).
* Podane sa tu tylko tytuly dziel wymienionych w tekscie i we wskazówkach dotyczacych literatury.