chmielecki w ontologia 2005!!!!

background image

Andrzej Chmielecki


WYKŁADY Z ONTOLOGII



Spis treści:
I.

Część narzędziowa

II.

Ontologia jako filozofia pierwsza

III.

Podstawowe pojęcia ontologii

IV.

Ontologia integralna

V.

Monizm vs pluralizm

VI.

Arche


I. Część „narzędziowa”


Moja prezentacja ontologii będzie polegała nie tyle na referowaniu gotowych

wyników – pojęć, twierdzeń – lecz na prezentacji i rozważaniu problemów; będzie to więc
niejako ujęcie od kuchni, a nie od jadalni, gdzie podaje się gotowe dania. Chodzi o to, aby
Państwo nauczyli się filozoficznie myśleć, tj. filozofować [konceptualizować, stawiać
pytania, argumentować], a nie jedynie przyswoili sobie pamięciowo gotowe wyniki
myślenia innych.

Jest jeszcze drugi powód wagi sposobu dochodzenia do tez, specyficzny dla

filozofii (bo problemowo można wykładać każdą dyscyplinę). Jest to mianowicie ważne
dlatego, ze tezy filozoficzne z racji swej dużej ogólności nie poddają się empirycznej
weryfikacji – filozofia nie jest nauką empiryczną. Nie można ich zatem w ten sposób
uzasadnić W takiej sytuacji jedną z metod obrony danej tezy jest wskazanie drogi dojścia
do niej i prześledzenia czy ta droga jest prawomocna bądź adekwatna – jakie pojęcia,
założenia, sposoby argumentacji itp. się w niej stosuje.

Użyłem przed chwilą takich terminów jak weryfikacja i uzasadnienie, których sens

być może nie jest dla Państwa jasny. Zatem parę słów w tej kwestii.

ś

ywiony przez kogoś pogląd nazwiemy przekonaniem. Przekonanie jest myślowym

wyrazem stanowiska jakie zajmujemy w jakiejś sprawie. Oczywiście żywimy tylko takie
przekonania, o których sądzimy, że są prawdziwe (np. przekonanie o istnieniu Boga). Jest
to jednak jedynie subiektywne przekonanie, że są one prawdziwe. To zaś za mało, aby
stanowiły one wiedzę. Przez wiedzę będziemy rozumieć przekonanie uzasadnione (a
jeszcze ściślej – najlepiej uzasadnione spośród wchodzących w grę). Uzasadnianie –
wszelkie rzeczowe argumenty na rzecz słuszności jakiegoś stanowiska, aby nie było ono
gołosłowne – nie poszerza wiedzy, nie wnosi nowych informacji, jego zadaniem jest
zmiana wartości poznawczej przekonań w kierunku wiekszej ich pewności. Jeśli ten
warunek nie jest spełniony, mamy do czynienia z przypuszczeniami, opiniami,
domniemaniami, ale nie z wiedzą.

Jednym ze sposobów upewniania się co do prawdziwości jest właśnie weryfikacja

[od veritas – prawda], tj. jakaś efektywna procedura okazywania prawdziwości, polegająca

background image

najczęściej na konfrontacji teorii z doświadczeniem. Niestety, w filozofii w znakomitej
większości interesujących przypadków prawdziwość jakiegoś sądu nie daje się
zweryfikować; stąd waga sposobu dochodzenia do tych sądów.

Rozróżnijmy z kolei trzy znaczenia słowa „wiedzieć”:
1.

znajomość faktów [„co”],

2.

umiejętność [„jak”],

3.

rozumienie [„dlaczego”], wymagające pewnej teorii. [Samo rozumienie

może jeszcze cechować się różną głębokością. Przykład czynności zinterpretowanej jako
modlitwa].

Odpowiedź na pytanie typu „dlaczego” winna być przede wszystkim sensowna, to

jest stanowić rozwiązanie odpowiedniego problemu, wnosić rozumienie odpowiednich
zależności. Po drugie, musi liczyć się z rzeczywistością, tj. uwzględniać wszystkie znane
fakty i nie przeczyć znanym prawom.

Rozważmy tytułem przykładu zagadnienie przypływów/odpływów morza. Chcemy

dowiedzieć się, co jest ich przyczyną. Oto możliwa sensowna odpowiedź: wzrost /spadek
temperatury wody. Jak wiadomo, ciecze pod wpływem wzrostu temperatury rozszerzają
się; w konsekwencji tego, kiedy temperatura wody morskiej wzrasta (np. wskutek
operowania Słońca) poziom morza podnosi się i mamy przypływ. Niestety, odpowiedź ta
nie spełnia drugiego warunku, bo fakty mówią, że pora przypływów/odpływów wykazuje
regularność niezależną od pory dnia i roku, a w konsekwencji od temperatury. Podobnie
byłoby przy odpowiedzi, która wiązałaby przypływy/odpływy z kierunkiem wiatru. Jeśli
mianowicie wiatr wieje od morza, mielibyśmy przypływ, bo napędza on masy wody w
kierunku brzegu. Niestety, i to wyjaśnienie nie spełnia drugiego warunku, bo fakty
wskazują, że pory przypływów/odpływów nie zależą od kierunku wiatru. Oba warunki
spełnia natomiast wyjaśnienie, według którego przyczyna przypływów/odpływów jest
ruch okołodobowy Księżyca i zmieniające się w związku z tym wytwarzane przez niego
przyciąganie grawitacyjne.

[Dowiecie się Państwo kiedyś później, że te dwa momenty – sensowność i wymóg

realizmu - są konstytutywnymi składnikami racjonalności].

*

Według mnie w filozofii nie ma jakiejś czarodziejskiej różdżki, tj. metody, która by

przesądzała o filozoficznym charakterze dociekań. (Mówię „według mnie”, bo byli tacy
filozofowie – np. Bergson i Husserl - którzy twierdzili, że ona istnieje). Tym co przesądza
o owej filozoficzności jest cel jaki chcemy za jej pomocą osiągnąć, a metoda jest tylko
ś

rodkiem (drogą) do tego celu. Otóż twierdzę, że nadrzędnym celem każdej autentycznej i

ambitnej filozofii było zawsze - i wciąż pozostaje – całościowe i ostateczne (sięgające
ź

ródeł, tj. tego co samoistne i samodzielne) rozumienie rzeczywistości. Będzie jeszcze o

tym mowa kiedy przejdziemy do samej ontologii.

Aby rozumieć, musimy posiadać umiejętność zdobywania wiedzy rozumiejącej, a

zatem „wiedzieć jak”. Wymaga to dwu dopełniających się umiejętności: analizy oraz
myślenia całościowego [syntetyzującego, a więc w pewnym sensie przeciwstawnego
analizie, bo analiza to myślowy rozkład tego co złożone na czynniki prostsze, w granicy
elementarne]. Myślenie całościowe to nie myślenie o wszystkim, bo tego się nie da zrobić,
lecz myślenie kategoriami części i całości (względnej), umiejętność spójnego
uwzględniania coraz to szerszych kontekstów czy dziedzin. Trzeba w tym celu
dysponować pewnymi narzędziami warsztatowymi, zapoznaniu się z którymi poświęcimy

background image

nieco uwagi. Zmniejszy to wprawdzie trochę pulę czasu na prezentację samej
problematyki ontologicznej, ale wyznaję zasadę, że lepiej mniej, ale lepiej [tj.
rozumiejąco].

Dla tych Państwa, którzy wybrali studia filozoficzne z tego powodu, że filozofia to

nauka humanistyczna, a więc nie będzie matematyki, mam w związku z tym złą nowinę.
Matematyka będzie, choć w nieco innym wydaniu niż znacie ze szkoły średniej – nie
pojawią się żadne wzory, nie będziemy rachować ani rozwiązywać równań, chodzić
będzie wyłącznie o konceptualizację, o matematyczny sposób myślenia.

Filozofię krytykowano często za jej mglistość, niejasność pojęć, perswazyjny

charakter argumentacji itp. Aby takim zarzutom zaradzić, dziś kładzie się często nacisk na
stronę logiczną, tj. na analizy językowe, na badanie pojęć i formy logicznej sądów i
rozumowań (definicje, identyfikowanie kategorii syntaktycznych, sposobów rozumowania
etc.); robi to tzw. filozofia analityczna. Ale jest też inna recepta – stosować wszędzie gdzie
można myślenie typu matematycznego, jako że matematyka to najdoskonalszy przykład
nauki ścisłej.

Mniej więcej sto lat temu usiłowano wykazać [Frege, Russell], że matematykę daje

się zredukować do logiki - w tym sensie, że wszystkie pojęcia matematyczne [np. zbioru
czy liczby] można ostatecznie przełożyć na pojęcia logiczne, tj. odnoszące się do wyrażeń
językowych. Program takiego ujęcia matematyki nazywano logicyzmem. Wkrótce okazało
się, ze jest to niewykonalne, bo logika jest analityczna (nie w sensie podanym wyżej, lecz
w tym sensie, że wnioskowanie logiczne nie poszerza wiedzy, tj. nie wyprowadza poza
treść zawartą w przesłankach tego wnioskowania), a wiedza matematyczna syntetyczna.
Matematyki nie „robi się” przez same analizy znaczeniowe, robi się ją przez dokonywanie
konstrukcji i operacji, które powołują do życia nowe obiekty bądź sytuacje matematyczne,
a następnie bada się własności tych obiektów. Przykład: fakt matematyczny, iż suma
kątów trójkąta jest równa dwóm kątom prostym, nie może ani zostać dostrzeżony, ani tym
bardziej udowodniony w drodze analizy znaczenia takich pojęć, jak „trójkąt” i „kąt
prosty”; trzeba w tym celu dokonać odpowiednich konstrukcji. A zatem ujęcie logiczne i
matematyczne są odmienne.

Scharakteryzuję

kolejno

kilka

podstawowych

narzędzi

logicznych

i

matematycznych, które będą Państwu potrzebne dla zrozumienia „kuchni” moich
wykładów z ontologii.

Zacznę od kilku informacji na temat definicji i definiowania. Przez definicję można

rozumieć bądź wyrażenie określające lub precyzujące znaczenie jakiegoś terminu [tzw.
definicja nominalna], bądź w jednoznaczny sposób charakteryzujące przedmiot czy stan
rzeczy nazywany przez ten termin [definicja realna]. Bardziej uniwersalna jest definicja
nominalna, bo nie każde wyrażenie językowe posiada przedmiot (np. słówko „albo”).

Do definicji odwołujemy się w trzech podstawowych przypadkach: 1. kiedy jakiś

termin jest nieostry bądź wieloznaczny (np. „inteligencja”), 2. kiedy chcemy komuś kto
nie zna jakiegoś terminu, objaśnić co on znaczy, tj. zastąpić ten termin innymi, znanymi
(np. „paliatyw”, „dezyderat”), 3. kiedy chcemy coś zwięźle scharakteryzować, uchwycić
jego istotę (np. „życie”; w tym ostatnim przypadku definicja jest zarazem pojęciem
odpowiedniego przedmiotu).

background image

Podstawowym warunkiem poprawności definicji jest równość zakresów

definiendum i definiensa. Cóż to jest zakres nazwy? Nazwy posiadają zarówno określoną
treść, jak i określony zakres. Treść nazwy związana jest z jej znaczeniem, natomiast zakres
nazwy z tym, co przez nią oznaczane. Znaczeniem [treścią, intensją] nazwy jest zbiór tzw.
cech charakterystycznych, tj. takich cech, które posiadają wszystkie przedmioty do
których ta nazwa się odnosi, czyli które ona oznacza. Czasem tak rozumiane znaczenie
określa się mianem konotacji nazwy. Natomiast zakres określa się mianem denotacji bądź
ekstensji. Jest to zbiór przedmiotów oznaczanych przez dana nazwę (do których dana
nazwa się odnosi czy stosuje). Np. zakresem nazwy „drzewo” jest zbiór wszystkich drzew.

[Na marginesie: dowiedzą się Państwo kiedy indziej, że obok znaczenia można też

mówić o sensie znaków (bo nazwy to pewne znaki); konsekwentnie, obok stosunku
oznaczania należy wprowadzić jeszcze stosunek wyznaczania (tym co wyznaczane jest
właśnie sens znaku/nazwy)].

Dwie nazwy S i P mogą pozostawać do siebie w następujących stosunkach

zakresowych: pod/nadrzędność (każde S jest P, ale nie odwrotnie; przykład: „róża” i
„kwiat”), równoważność (każde S jest P i odwrotnie; przykład: „kobieta” i „córka”),
krzyżowanie się (niektóre S są P, niektóre P są S, ale dodatkowo: niektóre S nie są P i
niektóre P nie są S; przykład: „poeta” i „malarz”), wykluczanie się (żaden S nie jest P i
odwrotnie; przykład: „kot” i „pies”).

Otóż, aby definicja była formalnie poprawna, zakres definiendum musi być taki

sam, jak zakres definiensa (stosunek równoważności). Inaczej mówiąc, zbiór przedmiotów
których nazwę stanowi definiendum musi być taki sam, jak zbiór przedmiotów
scharakteryzowanych przez definiens. W przeciwnym razie definicja będzie bądź za
szeroka [np. definicja żołnierza „człowiek potrafiący posługiwać się bronią”], bądź za
wąska [„mężczyzna służący w siłach zbrojnych”]. Inny przykład nieadekwatnych
zakresowo definicji to definicja ptaka jako „zwierzę fruwające” [w zakres definiensa
wchodzą wówczas np. motyle, które nie są ptakami, a nie wchodzą pingwiny i strusie,
które nimi są]; nieadekwatna byłaby również definicja „skrzydlaty kręgowiec”, gdyż zwrot
ten oznacza m.in. nietoperze, które nie są ptakami, lecz ssakami.

Definicja normalna to taka definicja, w której człon definiujący [definiens] nie

zawiera słowa definiowanego [definiendum]; w przeciwnym razie mielibyśmy tzw. masło
maślane, czyli błąd idem per idem.

Ale nie wszystkie definicje są normalnymi. Po pierwsze, nie wszystko da się

określić za pomocą słów – np. znaczenie nazw tzw. jakości subiektywnych (typu
„czerwony” czy „słodki”). W takiej sytuacji stosuje się tzw. definicje ostensywne, które
polegają na wskazaniu wzorca posiadającego definiowaną własność. Po drugie, istnieją
terminy pierwotne, których nie można zdefiniować za pomocą innych terminów; w tej
sytuacji stosuje się tzw. definicje aksjomatyczne („w uwikłaniu”); przykład: definicja
dodawania

w

arytmetyce

jako

działania

przemiennego

(a+b=b+a),

łącznego

(a+{b+c}={a+b}+c) oraz posiadającego element neutralny a+0=a.

Logika dzieli wszystkie wyrażenia językowe na kilka tzw. kategorii syntaktycznych,

przy czym do tej samej kategorii należą te wyrażenia, które w dowolnym poprawnie
składniowo zbudowanym złożonym wyrażeniu można wymieniać jedne na drugie,
uzyskując w dalszym ciągu wyrażenie poprawnie zbudowane. Będzie tak np. w sytuacji,
kiedy w wyrażeniu „Warszawa jest stolicą”, zamiast słowa „stolica” użyjemy „miasto”;

background image

gdybyśmy natomiast zamiast „stolica” użyli „biegnie”, otrzymalibyśmy zwrot
niepoprawnie zbudowany. Tak więc „stolica” i „miasto” należą do tej samej kategorii
składniowej, a „stolica” i „biegnie” do różnych.

O jednej z takich kategorii już wyżej mówiliśmy, są to mianowicie nazwy czy –

szerzej – wyrażenia nazwowe. Są to wyrażenia, które mogą występować w roli podmiotu
zdania.

Drugą kategorią są właśnie zdania, przez które w logice rozumie się wypowiedzi,

które mogą być prawdziwe/fałszywe, tj. którym można przypisać tzw. wartość logiczną.
Zdania mogą być proste bądź złożone, przy czym logika klasyczna (ekstensjonalna)
zajmuje się wyłącznie zdaniami złożonymi współrzędnie. Zdania proste symbolizowane są
najczęściej przez litery p, q, r...

Trzecią kategorię stanowią predykaty, tj. wyrażenia, które po dodaniu do nazwy

tworzą zdanie (przykład: jeśli do nazwy „zając” dodamy „biegnie” uzyskamy zdanie;
zatem „biegnie” jest predykatem; ale będzie nim również np. wyrażenie „biegnie aż się mu
uszy trzęsą”, „jest zwierzęciem roślinożernym”, itp.). Inaczej mówiąc, predykat to
wyrażenie przypisujące przedmiotowi nazwy pewną własność. Oznacza się je dużymi
literami P, Q,...

Czwartą, z logicznego punktu widzenia bodaj najważniejszą, kategorię

syntaktyczną stanowią tzw. funktory czy też stałe logiczne, do których zalicza się
kwantyfikatory i spójniki logiczne. Kwantyfikatory to wyrażenia „ilościowe” typu
„pewien”, „niektóry”, „istnieje taki, że”, nazywane kwantyfikatorem małym,
szczegółowym bądź egzystencjalnym, a symbolizowanym np. przez znak „

”, oraz

„wszystkie” czy też „dla każdego” (kwantyfikator duży, bądź. generalny, często
symbolizowany przez „

”) , które pozwalają na dokładniejszą analizę zdań poprzez

wprowadzenie zmiennych, przebiegających bądź zbiór nazw, bądź zbiór predykatów. Dla
przykładu: zdanie „Warszawa jest stolicą Polski” można zinterpretować następująco
„Istnieje takie x (gdzie iksy przebiegają zbiór miast), że x jest stolicą Polski”. W zapisie
symbolicznym:

x P(x). Analogicznie, zdanie „Przepływ prądu przez przewodnik

wytwarza pole magnetyczne” można potraktować jako uszczegółowienie pewnej
ogólniejszej formuły zdaniowej zawierającej zmienne, o postaci

x [jeżeli P(x), to Q(x)].

Spójniki logiczne to wyrażenia, przy pomocy których ze zdań prostych można

tworzyć zdania złożone. Teoretycznie spójników takich jest dwadzieścia, ale w praktyce
używa się jedynie kilku, odpowiadających wyrażeniom występującym w jezyku
potocznym, gdyż wszystkie inne można zdefiniować przy ich pomocy. Są to spójniki
negacji („nie”, bądź „nieprawda, że”, symbolicznie „~”), alternatywy („lub”, symbolicznie

”), koniunkcji („i”, symbolicznie „

”), implikacji („jeżeli,...to, symbolicznie „

”) oraz

równoważności („wtedy i tylko wtedy, gdy”, symbolicznie „

” bądź „

”). Zresztą,

również w obrębie tych kilku wymienionych jedne z nich można definiować przez inne.
Dla przykładu, implikację można zdefiniować następująco: p

q = ~(p

~q).

Definicja spójników polega na tym, że rozstrzyga się w niej jaką wartość logiczną

ma zdanie złożone za pomocą danego spójnika, przy każdym z możliwych układów
wartości logicznych zdań prostych. Dla przykładu: koniunkcja (tj. zdanie złożone
zawierające spójnik koniunkcji) jest – na mocy definicji właśnie - prawdziwa wtedy i tylko
wtedy, gdy prawdziwe są oba jej zdania składowe, natomiast implikacja jest prawdziwa,
gdy nie jest tak, że p jest prawdziwe, a q fałszywe.

background image

Jeżeli jest tak, że p pociąga za sobą (implikuje) q, wówczas p nazywamy

warunkiem wystarczającym q. Jeśli natomiast jest tak, ze nie-p pociąga za sobą nie-q
(~p

~q) wówczas p nazywamy warunkiem koniecznym q. Pozwala to zdefiniować

pojęcie przyczyny. Przez przyczynę jakiegoś zdarzenia (nazywanego w tym kontekście
skutkiem) rozumieć mianowicie należy zdarzenie będące jego warunkiem wystarczającym;
skutek jest natomiast koniecznym następstwem przyczyny.

Analiza logiczna jakiegoś złożonego wyrażenia polega na tym, aby – w przypadku

gdy jest to zdanie proste – zidentyfikować w nim podmiot logiczny (=człon o którym
zdanie to coś stwierdza), predykat(y) oraz ewentualnie kwantyfikator, natomiast w
odniesieniu do zdań złożonych należy w tym celu zidentyfikować zdania proste, łączące je
spójniki oraz ewentualnie kwantyfikatory. W wyniku tego rodzaju analizy określona
zostaje forma logiczna danego wyrażenia. Spróbujcie Państwo dla przykładu dokonać tego
ze zdaniem – popularnym w Polsce za czasów Gomułki – „Czy się stoi, czy się leży, dwa
tysiące się należy”.

Wreszcie, kilka podstawowych informacji na temat związków logicznych między

zdaniami, i odmian wnioskowania (rozumowania). Zacznę od przykładu. Weźmy dwa
zdania: „Pada deszcz” (p) i „Jest mokro” (q). Czy to drugie wynika logicznie z
pierwszego? Nie. Związek między nimi nie ma charakteru logicznego, jest to związek
faktyczny – zależność przyczynowo-skutkowa – a nie logiczny. Natomiast to drugie
zdanie wynika logicznie z koniunkcji dwu zdań, mianowicie zdania złożonego p

q oraz

zdania prostego q. Uzyskujemy wówczas formułę [(p

q)

p]

q, tzw. modus ponens, w

której ta drugaa strzałka symbolizuje właśnie relację wynikania logicznego.

Strzałka występująca w formułach logicznych może oznaczać bądź spójnik

implikacji (wówczas zdanie stojące przed strzałką nazywa się poprzednikiem, a za strzałką
następnikiem implikacji), bądź kierunek wnioskowania, to jest procesu myślowego w
trakcie którego od zdań uznanych za prawdziwe (nazywanych przesłankami) dochodzimy
do uznania prawdziwości innego zdania (zwanego konkluzją bądź wnioskiem), bądź
wreszcie kierunek wynikania logicznego (wówczas poprzednik odpowiedniej implikacji
nazywa się racją, a następnik następstwem).

Mówiąc ogólnie, wynikanie logiczne to związek nie zależący od treści zdań, lecz

jedynie od ich formy logicznej; zachodzi ono wówczas, gdy rozumujemy według schematu
zdań zawsze prawdziwych – tzw. tautologii – tj. prawdziwych przy wszystkich
podstawieniach jakichś zdań za zmienne zdaniowe. Przykład: „Pada lub nie pada”
(schemat: p

~p, tzw. prawo wyłączonego środka)

1

.

Wnioskowanie nazywamy dedukcyjnym, gdy wniosek wynika logicznie z

przesłanek. [Inaczej ujmując: jest to dobieranie nieznanego następstwa do znanej racji].
Jeśli jest odwrotnie, tzn. przesłanka wynika logicznie z wniosku, wnioskowanie takie
nazywamy redukcyjnym [tutaj poszukujemy nieznanej racji dla znanego następstwa].
Wnioskowania dedukcyjne są pewne, tzn. zawsze od prawdy prowadzą do prawdy. Innymi

1 Zdania typu „Pada lub nie pada”, a ogólniej mówiąc zdania prawdziwe na mocy swej formy logicznej
nazywa się prawdami logicznymi. Obok prawd logicznych można jeszcze rozróżnić prawdy faktualne, tj.
zdania prawdziwe na mocy tego jakie są fakty (przykład: „W okresie międzywojennym Gdańsk był
wolnym miastem”), oraz prawdy analityczne, to jest zdania prawdziwe na mocy znaczenia nazw i/lub
predykatów w nich występujących (przykład: „Jeżeli Flip jest wyższy od Flapa, to Flap jest niższy od
Flipa”).

background image

słowy, jeśli prawdziwe są przesłanki, to prawdziwy jest również wniosek. Natomiast
rozumowanie redukcyjne nie jest pewne (przykład z telewizorem).

Czy zatem wnioskowanie dedukcyjne jest bardziej wartościowe? Niekoniecznie.

Daje ono pewność, ale za cenę jałowości – nie poszerza ono wiedzy, bo zdanie będące
wnioskiem występuje już pośród przesłanek; jest to więc coś w rodzaju przelewania z
jednego naczynia do drugiego, od czego płynu oczywiście nie przybywa.

Z wnioskowaniem redukcyjnym sprawa ma się natomiast odwrotnie – prawdziwość

wniosku nie jest wprawdzie pewna, ale za to dzięki niemu uzyskujemy przyrost wiedzy.
Cóż, coś za coś. A nauka z tego jest następująca: tam gdzie idzie o zdobywanie wiedzy,
należy w miarę możności stosować wnioskowania redukcyjne. Jego dodatkową zaletą jest
to, że automatycznie zapewnia ono wynikanie w drugą stronę, co np. wykorzystuje się
przy dowodzeniu twierdzeń matematycznych. W twórczej matematyce bowiem jest tak, że
najpierw formułuje się jakieś twierdzenie (etap odkrycia), a następnie poszukuje się
założeń, z którego ono logicznie wynika (etap uzasadniania, tj. dowodzenie). W naukach
empirycznych podobne postępowanie nazywa się hipotetyczno-dedukcyjnym modelem
wyjaśniania. Z przykładem takiego wyjaśnienia spotkaliśmy się na pierwszym wykładzie,
kiedy rozważaliśmy mechanizm przypływów i odpływów morskich. Polega ono na tym, że
poszukując wyjaśnienia jakiegoś faktu stawiamy taką hipotezę, aby wyjaśniany fakt
stanowił następstwo tej ogólnej hipotezy i formuły dotyczącej tzw. warunków
początkowych.

Są też jednak wnioskowania, w których wynikanie nie zachodzi w żadną stronę, a

mimo to mają one olbrzymią wartość heurystyczną (prowadzą do nowych prawd).
Przykładem takiego wnioskowania jest wnioskowanie przez analogię, kiedy z pewnego
cząstkowego podobieństwa między dwoma sytuacjami bądź przedmiotami, wnioskujemy
o jakimś dalej idącym podobieństwie, niż faktycznie stwierdzone. Jeśli dostrzeżemy jakąś
analogię pomiędzy dwoma dziedzinami, wówczas pojęcia i twierdzenia jednej z tych
dziedzin możemy przenosić i stosować – mutatis mutandis oczywiście – do drugiej (w tej
drugiej występują odpowiedniki pierwszej; o dziedzinach posiadających takie
odpowiedniki mówi się, że są homomorficzne). Przykład: niech przesłanką będzie
analogiczność wzorów na siłę z jaką oddziaływują na siebie masy (prawo powszechnego
ciążenia) i ładunki elektryczne. Wniosek: podobnie jak istnieją dwa rodzaje
elektryczności, które się nawzajem znoszą czy neutralizują (ładunki dodatnie i ujemne),
istnieją też dwa rodzaje mas które się nawzajem znoszą, mianowicie materia i antymateria.
Trzeba jednak pamiętać, ze nie mamy wówczas gwarancji, że to jest pewna droga;
wymaga to weryfikacji.

Jeśli jakaś analogia rzeczywiście występuje, wówczas można dokonać uogólnienia,

formułując teorię bardziej ogólną – na wyższym poziomie abstrakcji – w stosunku do
której wyjściowe teorie niższego rzędu są przypadkami szczgółowymi, czy też
zastosowaniem. Przykładem takiej sytuacji może być powstanie algebry Boole’a, która
m.in. jest matematyczną podstawą konstruowania architektury komputerów. Boole
dostrzegł analogię między prawami arytmetyki dotyczącymi dodawania, odejmowania i
mnożenia oraz prawami logiki dotyczącymi alternatywy, koniunkcji i negacji. Na tej
podstawie zbudował on pewien system formalny - nazwany na jego cześć algebrą Boole’a
właśnie – w którym występują pewne (niezinterpretowane) stałe, zmienne oraz działania
(operacje), spełniające pewne aksjomaty. Na podstawie tych aksjomatów można dowodzić
twierdzeń

prawdziwych

w

wielu

innych

dziedzinach,

takich

jak

rachunek

background image

prawdopodobieństwa, rachunek zbiorów, teoria relacji czy teoria sieci elektrycznych
(traktując wszystkie te dziedziny jako modele tej teorii formalnej).

[Uwaga. Rozróżnia się dwa pojęcia modelu. 1. przedmiotowa interpretacja jakiejś

teorii formalnej (powyższy przypadek) 2. uproszczone bądź wyidealizowane
przedstawienie jakiegoś złożonego zjawiska – np. matematyczny model huraganu].

Jest takie powiedzenie, że podczas gdy przedstawiciele nauk szczegółowych

poszukują analogii, to matematycy starają się znajdować analogie między analogiami. Od
pewnego czasu matematycy dysponują nawet piękną, ogólną teorią która pozwala to
czynić, mianowicie tzw. teorią kategorii. Niezadługo powiem o niej trochę więcej.
Przejdziemy teraz bowiem właśnie do pewnych okruchów myślenia matematycznego.

*

Podstawą całego gmachu matematyki jest teoria mnogości, tj. teoria zbiorów

dowolnego rodzaju – tak skończonych, jak i nieskończonych (o nieskończonej ilości
elementów). Cóż to jest zbiór? Spróbujmy to ująć tak: zbiór to wielość jakichś elementów
traktowana jako jedność. Niestety, nie można tego traktować jako definicji zbioru, chodzi
raczej o pewną intuicję – co to bowiem jest wielość? jedność? Zbiór zawierający tylko
jeden element – lub w ogóle nie posiadający elementów [tzw. zbiór pusty], również jest
zbiorem, choć nie ma tu żadnej wielości; co więcej, zbiór jednoelementowy nie jest
tożsamy z tym elementem – przynajmniej przy pewnym określeniu zbioru, bo rozróżnia
się dwa pojęcia zbioru, mianowicie zbiory rozumiane kolektywnie i zbiory rozumiane
dystrybutywnie. Zbiór kolektywny to całość złożona z części [elementy utożsamiamy tu
więc z częściami; przykład: organizm jako zbiór złożony z komórek, terytorium państwa
jako zbiór województw]. Zbiór dystrybutywny natomiast to zbiór elementów
posiadających jakąś wspólną własność [np. zbiór wojewodów].

Teoria zbiorów kolektywnych, twórcą której był polski filozof i logik Stanisław

Leśniewski, nazywa się mereologią; zaczyna ona odgrywać coraz ważniejszą rolę w
analizach ontologicznych, wypierając stopniowo z tego miejsca teorie mnogości.
Natomiast teorią zbiorów dystrybutywnie rozumianych jest teoria mnogości właśnie; jej z
kolei twórcą był matematyk niemiecki Georg Cantor. Bada ona ogólne własności
dowolnych zbiorów [niczego się o nich nie zakłada, tj. nie nakłada się żadnych warunków
na ich elementy].

Matematyka jest jednak nauką ścisłą i nie może bazować na niesprecyzowanych

intuicjach.

Aby

osiągnąć

pożądaną

ś

cisłość

mimo

niemożności

wyraźnego

zdefinmiowania fundamentalnych pojęć, stosuje się w matematyce metodę aksjomatyczną.

Pierwotnymi pojęciami teorii mnogości są pojęcia zbioru i relacji należenia do

zbioru, tj. bycia elementem zbioru. [Od relacji należenia do zbioru, która dotyczy jego
elementów, należy odróżniać relację zawierania się w zbiorze, która dotyczy podzbiorów
jakiegoś zbioru [podzbiór A zbioru X to zbiór tych elementów, które należą zarazem do
zbioru A i do zbioru X; np. podzbiorem zbioru liczb rzeczywistych jest zbiór liczb
naturalnych].Wszystkie inne pojęcia teorii mnogości są definiowane w oparciu o nie.

Teoria mnogości jest fundamentem całej matematyki – wszystkie teorie i dziedziny

matematyczne można wyrazić w języku i kategoriach teorii mnogości. Co się bowiem robi
w poszczególnych dziedzinach matematycznych? Po pierwsze, bada się pewne zbiory
elementów – np. figury geometryczne bądź funkcje; po drugie, przeprowadza się działania

background image

na elementach jakichś zbiorów (np. dodawanie liczb bądź wektorów, obliczanie pochodnej
funkcji); po trzecie zaś dokonuje się przekształceń jednych zbiorów w inne.

Na marginesie: nie dajcie się Państwo zwieść nazewnictwu: działanie,

przekształcanie – a dodatkowo np. zmienna – nie polega na procesach, na zmienianiu
czegokolwiek, lecz na przyporządkowaniu – np. dwom liczbom wyniku działania na nich.
Kiedy np. wyciągamy pierwiastek kwadratowy z 2, to liczba 2 nie podlega żadnej zmianie,
lecz zostaje jej przyporządkowana inna liczba będąca wynikiem pierwiastkowania.
Przekształcenie to właśnie nic innego jak przyporządkowanie według pewnej reguły. Taką
regułę nazywa się funkcją bądź operatorem. Natomiast przyporządkowanie nazywa się też
odwzorowaniem.

Najważniejsze z takich przekształceń [odwzorowań] są tzw. morfizmy, tj

odwzorowania zachowujące pewne działania bądź pewne relacje między elementami
zbiorów. [Na marginesie: relacje też można wyrazić za pomocą pojęcia zbioru; relacja to
mianowicie zbiór par [trójek] uporządkowanych].

Jest wiele rodzajów morfizmów; ja wspomnę tu o kilku. Homomorfizm to

odwzorowanie przyporządkowujące każdemu elementowi jednego zbioru dokładnie jeden
element drugiego, ale bez warunku żnowartościowości – może on, ale nie musi być
spełniony [może więc być tak, że różnym x-om przyporządkowany zostaje ten sam y;
przykład: przyporządkowanie wszystkim studentom UG liczby równej rokowi ich
urodzenia], a także bez wymogu, aby każdy y był przyporządkowany jakiemuś x-owi [y
przyporządkowany pewnemu x-owi nazywamy obrazem tego x-a przy danym
odwzorowaniu]. O takim odwzorowaniu mówimy, że przekształca ono zbiór X „w” zbiór
Y.

Odwzorowanie żnowartościowe zbioru X „w” zbiór Y nazywa się

monomorfizmem bądź injekcją; każda injekcja jest homomorfizmem, ale nie odwrotnie.

Jeśli każdy element zbioru Y jest obrazem jakiegoś elementu zbioru X,

odwzorowanie X

Y nazywamy surjekcją. Przykład: jeśli mamy szeroko otwarte oczy,

wówczas pobudzone zostają wszystkie fotoreceptory znajdujące się w siatkówce oka, przy
czym pobudzenie każdego z nich jest obrazem jakiegoś elementu pola widzenia. Zatem
odwzorowanie pola widzenia na siatkówce jest surjekcją.

Odwzorowanie będące zarazem injekcją i surjekcją nazywa się bijekcją; mówimy

wtedy, że zbiory X i Y są izomorficzne. Izomorfizm zatem to przekształcenie
różnowartościowe zbioru „na” inny [cały] zbiór. Przykład: odwzorowanie kwadratu na
okrąg. Ten przykład jest zarazem przykładem odwzorowania zwanego homeomorfizmem,
czyli przekształcenia ciągłego i odwracalnego [ciągły izomorfizm], bo w drugą stronę
mamy do czynienia z odwzorowaniem okręgu na kwadrat.

Jeśli odwzorowanie jest morfizmem, to z definicji istnieją jakieś jego niezmienniki,

tj. wielkości [własności, relacje, działania], które w toku odwzorowania zostają
zachowane. Np. przesunięcia i obroty figur bądź brył zachowują odległości pomiędzy
punktami tych figur/brył

2

. Proszę zauważyć, że nie wszystkie przekształcenia zachowują

odległości – np. rozciąganie i skręcanie, które są homeomorfizmami. [Pytanie: co jest
zachowywane w przypadku homeomorfizmów?]. Dyscypliną matematyczną badającą
niezmienniki homeomorfizmów jest topologia.

2 Odległość jest szczególnym przypadkiem bardziej ogólnej wielkości, którą w matematyce nazywa się
metryką. Zatem przesunięcia i obroty są izometriami, czyli przekształceniami zachowującymi metrykę.

background image

Wszystkie twierdzenia prawdziwe w jakiejś dziedzinie matematycznej są również

prawdziwe w dziedzinach z nią izomorficznych. Dlatego też zbiory izomorficzne, choć nie
są identyczne, w wielu przypadkach można ze sobą utożsamiać, tj. traktować je jakby były
takie same; one takie same de facto nie są jednak równoważne

3

.

Wprowadzę teraz ścisłe, matematyczne pojęcie równoważności.
Umówimy się, że relację R między elementami x i y [ np. relację „bycia większym

od”] będziemy zapisywać jako xRy.

Odróżnijmy wpierw następujące rodzaje relacji:
-

zwrotna [xRx, np. relacja bycia równym],

-

symetryczna [xRy=yRx, np. „bycie krewnym”; jeśli równość nie zachodzi,

mamy relację niesymetryczną. Relacje niesymetryczne [ściślej: antysymetryczne] mają
charakter porządkujący, bo za ich pomocą można w pewien sposób uporządkować
elementy zbioru],

-

przechodnia [xRy i yRz

xRz, np. „większy od”; jeśli ten warunek nie

zachodzi mówimy o relacji nieprzechodniej. Np. relacja bycia ojcem jest nieprzechodnia.
A bycia przyczyną? Zastanówcie się].

Czy relacja należenia do zbioru jest przechodnia? Odpowiedź: i tak i nie, w

zależności od tego czy chodzi o zbiory dystrybutywnie czy kolektywnie rozumiane, gdyż
w odniesieniu do jednych z nich relacja bycia elementem zbioru jest przechodnia, a w
odniesieniu do drugich nie jest. Pytanie: w których jest, a w których nie jest przechodnia?
Pytanie drugie: czy rzeczywistość jest zbiorem dystrybutywnym, czy zbiorem
kolektywnym elementów? I pytanie trzecie: czy takie jednostki taksonomiczne biologii,
jak rodzaje i gatunki, są zbiorami kolektywnymi, czy dystrybutywnymi swych elementów?
czy gatunek – będący zbiorem pewnych indywiduów – należy do rodzaju, czy zawiera się
w rodzaju?

Relację, która jest zarazem zwrotna, symetryczna i przechodnia, nazywamy

równoważnością. Przykład: relacja równoległości prostych na płaszczyźnie.

Równoważność dzieli zbiór elementów pomiędzy którymi zachodzi na pewne

rozłączne podzbiory, które nazywamy klasami abstrakcji tej relacji równoważności. Dwa
elementy należą do tej samej klasy abstrakcji, jeśli pozostają do siebie w danej relacji. O
abstrakcji mowa tu dlatego, że pomijamy tj. abstrahujemy od tego, co różni elementy
należące do tych klas, traktując je jako pod pewnym wyróżnionym względem
identyczne/równoważne. Klasami abstrakcji są na przykład zbiory ludzi będących
rówieśnikami. Kiedy mówimy o rówieśnikach interesuje nas właśnie ta ich cecha – tj.
posiadanie tyle samo lat – mimo że przecież posiadają oni też wiele innych cech; od tych
różnic właśnie abstrahujemy.

Zbiór, którego elementami są klasy abstrakcji – czyli zbiór klas abstrakcji pewnej

relacji równoważności – nazywamy zbiorem ilorazowym; jest to mnogościowy analogon
ilorazu w dziedzinie liczb, bo jest wynikiem „podzielenia” (dokonania podziału) zbioru za
pomocą pewnej relacji równoważności.

3 Na marginesie: proszę zauważyć podobieństwo tej okoliczności z tym co Państwu mówiłem na
pierwszym spotkaniu w kontekście odbicia w lustrze i obrazu na ekranie [nierozróżnialność, i w tym
sensie identyczność – a w każdym razie równoważność – pewnych sytuacji.

background image

Klasy abstrakcji mogą posłużyć do definiowania nowych pojęć. Weźmy dla

przykładu wspomnianą relację równoległości prostych. Co jest klasą abstrakcji tej
równoważności? Kierunek. Innymi słowy, kierunek to klasa abstrakcji relacji
równoległości. W ten sposób uzyskaliśmy ścisłe pojecie kierunku.

Drugi przykład: równoważnością jest relacja równoliczności zbiorów. Mówiąc

potocznie, dwa zbiory są równoliczne, jeśli mają tę samą ilość elementów – mówimy
wtedy, że są to zbiory tej samej mocy. Ale co to jest ilość? w matematyce wszystko musi
być ściśle zdefiniowane. Poprawna definicja jest następująca: dwa zbiory są równoliczne
jeśli jeden z nich daje się odwzorować na drugi. Pytanie: co jest klasą abstrakcji relacji
równoliczności w odniesieniu do zbiorów przeliczalnych? Liczba naturalna [=wspólna
własność wszystkich zbiorów równolicznych ze sobą]. Uzyskaliśmy w ten sposób ścisłą
definicję – a więc pojęcie – liczby naturalnej; liczba naturalna to klasa abstrakcji relacji
równoliczności wszystkich zbiorów przeliczalnych

4

.

I wreszcie przykład trzeci: relacja nierozróżnialności elementów. Co – jaka

wielkość - jest klasą abstrakcji tej relacji? Zdziwią się pewnie Państwo: informacja.
Postarajcie się to dobrze zrozumieć, bo informacja to jedna z fundamentalnych kategorii
współczesnej nauki; będziemy zresztą o niej jeszcze mówić również w kontekście
ontologii. Zróbcie to np. na przykładzie termostatu, który rozróżnia trzy stany: temperaturę
ustawioną przez użytkownika, powyżej niej i poniżej niej; natomiast nie rozróżnia on
różnych temperatur powyżej/poniżej ustawionej – traktuje je tak samo. Mamy tu zatem
trzy klasy abstrakcji – a zatem i trzy możliwe informacje. Wszystkie stany temperaturowe
w obrębie każdej klas abstrakcji są nierozróżnialne, czyli informacyjnie równoważne.

Operacją w pewnym sensie odwrotną do tworzenia klas abstrakcji – tj. do

uzyskiwania podzbiorów jakiegoś zbioru traktowanego jako dany – jest operacja
uogólniania [generalizacji] pojęć. Chodzi wówczas o potraktowanie czegoś jako
przypadku szczególnego – konkretyzacji – czegoś bardziej ogólnego [np. liczb naturalnych
jako przypadku szczególnego liczb kardynalnych]. Matematycznie polega to na
znajdowaniu zbioru, którego dany zbiór jest podzbiorem. W matematyce w takiej sytuacji
mówi się o operacji zanurzania zbioru w innym, obszerniejszym zbiorze

5

. Zanurzenie jest

injekcją, w wyniku której twór danej kategorii zostaje ujęty jako przypadek szczególny
tworu innej, ogólniejszej kategorii. Np. zbiór liczb rzeczywistych można zanurzyć w
zbiorze liczb zespolonych (liczby typu a + bi, gdzie i

2

= -1; liczby zespolone można też

zapisywać jako uporządkowane pary liczb rzeczywistych (a,b)). Zanurzeniem jest
odwzorowanie a

a+0i, w którym liczbie rzeczywistej a została przyporządkowana liczba

zespolona (a,0). Widać jak na dłoni, że liczba zespolona jest uogólnieniem liczby
rzeczywistej – każda liczba rzeczywista jest też liczbą zespoloną, ale nie odwrotnie.

4 Uogólnieniem pojęcia liczby naturalnej jest pojęcie liczby kardynalnej, dotyczące analogicznej sytuacji
w odniesieniu do wszelkich zbiorów, nie tylko przeliczalnych. Liczby naturalne zatem są szczególnym
przypadkiem liczb kardynalnych. Albo odwrotnie: liczba kardynalna jest uogólnieniem pojęcia liczby
naturalnej.
5 Zanurzeniem zbioru X w zbiór Y nazywamy przekształcenie f: X

Y określone wzorem f(x)=x.

background image

Operacja uogólniania pojęć polega zatem na znajdowaniu obszerniejszego zbioru,

w którym dany zbiór – reprezentujący jakieś pojęcie – można zanurzyć

6

.

*

Z operacją zanurzania związany jest sposób definiowania zwany definicją

klasyczną. Definicja klasyczna jest pewną odmianą definicji normalnej; ma ona postać
typu: A jest to B

C (chodzi o iloczyn mnogościowy zbiorów, przy czym C jest

podzbiorem B).

Załóżmy, że chcemy zdefiniować jakąś klasę obiektów: okulary, człowiek, etc.

Przepis jest następujący: Po pierwsze, znajdź zbiór, którego klasa definiowana jest
podzbiorem [czyli zanurz dany zbiór w innym, obszerniejszym]. Ale nie dowolny zbiór,
tylko taki, który jest mu najbliższy [tzw. rodzaj najbliższy – w przypadku okularów będzie
to instrument optyczny, w przypadku człowieka [potraktowanego jako gatunek
biologiczny] tzw. człekokształtne. Po drugie, określ różnicę między elementami obu
zbiorów, tj. cechę którą posiadają wszystkie elementy podzbioru, a której nie posiadają
elementy zbioru obszerniejszego [tzw. żnica gatunkowa]. Po trzecie, dodaj tę różnicę do
nazwy elementów większego zbioru. Tym co uzyskasz będzie właśnie definicja klasyczna.
Przykład: kwadrat jest to prostokąt równoboczny.

*

Widzieli Państwo, że relacja równoważności dokonuje podziału zbioru na sumę

rozłącznych podzbiorów. Jeśli jakiś wyjściowy zbiór potraktować jako zakres
odpowiedniej nazwy, to tego rodzaju podział nazywamy logicznym.

Scharakteryzuję teraz nieco inną metodę uzyskiwania podziału – a tym samym

uzyskiwania pojęć – nie za pomocą relacji równoważności [tj. nie na klasy abstrakcji], lecz
za pomocą pewnego ustalonego kryterium (bądź kryteriów, bo może ich być więcej)
podziału.

Aby dokonać podziału jakiegoś zbioru, musi on być określony – musimy wiedzieć,

co chcemy podzielić. Taki dzielony zbiór określamy mianem uniwersum. Po drugie,
musimy dysponować kryterium podziału, tj. np. cechą posiadanie której będzie stanowiło
podstawę do zaliczenia pewnych elementów uniwersum do pewnego podzbioru. Jeśli
cecha ta jest „ostra” [tj. nie ma wątpliwości czy odpowiedni obiekt ją posiada czy nie],
uzyskany podział nazywamy klasyfikacją [podział na klasy]; w przypadku cech nieostrych,
tj. stopniowalnych [np. zamożność, inteligencja] mówimy o typologii [podział na typy].
Przykład: zbiór liczb całkowitych, kryterium w postaci podzielności przez dwa. W efekcie
uzyskujemy podział liczb całkowitych na liczby parzyste i nieparzyste. Jest to najprostszy
rodzaj podziału, tzw. dychotomiczny. Przykład typologii: podział gatunków literackich na
epikę, lirykę i dramat. Jakiś konkretny utwór literacki – np. Pan Tadeusz – może zawierać
w sobie elementy wszystkich trzech typów, rzecz jednak w tym, który z nich jest dla niego
najbardziej charakterystyczny – „typowy” właśnie.

Podziały mogą być wielokrotne [„rozgałęzione”]; jest tak wówczas, gdy uzyskane

człony podziału poddajemy dalszym podziałom za pomocą dodatkowych kryteriów.
Przykład: najpierw dzielimy Polaków na wierzących i niewierzących, a następnie
wierzących dzielimy według wyznań, a niewierzących na ateistów i agnostyków.

6 Na studiach magisterskich (w ramach Ontologii II) zobaczą Państwo, że ontologia jest przypadkiem
szczególnym metafizyki, gdyż świat opisywany przez ontologię można zanurzyć w świecie opisywanym
przez metafizykę.

background image

W ten sposób można np. zdefiniować rodzaje i gatunki. Najpierw dzielimy zbiór

organizmów żywych na rośliny i zwierzęta, następnie zaś każdy z nich poddajemy
dalszym podziałom – niekoniecznie dwudzielnym – na rzędy, gromady i tak dalej, aż
dojdziemy do gatunku, który stanowi najniższą jednostkę podziału. Każdorazowo musimy
oczywiście zastosować inne kryterium podziału.

Wreszcie, podziały można ze sobą krzyżować: w pierwszym kroku dokonujemy np.

dwu niezależnych podziałów tego samego zbioru według różnych kryteriów [np. dzielimy
Polaków według kryterium zamożności i według kryterium wykształcenia]. W drugim
kroku te dwa podziały nakładamy na siebie. Przy podziałach dychotomicznych uzyskamy
w ten sposób cztery człony podziału

7

.

Warunkiem poprawności podziału jest aby był on rozłączny i wyczerpujący. Podział

jest rozłączny, jeśli każdy element uniwersum należy tylko do jednego podzbioru [członu
podziału]; czy podział zbioru zwierząt na roślinożerne i mięsożerne jest rozłączny?
Podział jest wyczerpujący, jeśli każdy element należy do jakiegoś podzbioru. Czy podział
liczb na dodatnie i ujemne jest wyczerpujący?

*

Poprawność nie jest oczywiście jedynym kryterium oceny podziału. Ponieważ

podziałów dokonuje się w jakimś celu, przeto liczy się to, na ile dokonany podział jest
użyteczny, czy dzięki niemu uzyskuje się jakiś wartościowy wgląd w strukturę
rzeczywistości. Można np. podzielić wszystkie rzeczy na podłużne, okrągłe i „inne” [tj.
całą resztę], można jednak wątpić, czy to się do czegoś przyda.

Każdy podział jest konwencjonalny, bo zależy od wybranych kryteriów podziału, a

wyboru tego można dokonać na wiele sposobów. Nie każda jednak konwencja jest równie
użyteczna. Dokonując podziałów możemy mieć na względzie bądź korzyści poznawcze
[teoretyczne] bądź praktyczne. Często np. wybór konceptualizacji dyktowany jest
względem prostoty. Problem jednak w tym, że to co jest proste z jakiegoś punktu
widzenia, nie musi być nim z innego.

Załóżmy np. że zastanawiamy się w jaki sposób – tj. za pomocą jakich wyrażeń

zwanych spójnikami logicznymi – można ze zdań prostych tworzyć zdania złożone
[współrzędnie]. Przyjmijmy, jak to się czyni w logice klasycznej, że zdanie proste może
przyjmować tylko jedną z dwu wartości, tj. że może być bądź prawdziwe, bądź fałszywe,
co będziemy symbolizować odpowiednio jedynką i zerem. W zdaniu złożonym każde dwa
sąsiednie zdania proste muszą być połączone jakimś spójnikiem [i, lub, jeżeli to...]. Przy
dwu wartościach logicznych daje to każdorazowo cztery możliwości: (1,1) – oba zdania
proste prawdziwe, (1,0) – pierwsze prawdziwe, drugie fałszywe, (0,1) i (0,0). Spójniki
logiczne definiuje się w ten sposób, że określa się dla każdego z nich dla jakich wartości
logicznych zdań prostych – tj. w zapisie symbolicznym rozkładów zer i jedynek – wartość
logiczna zdania złożonego uzyskanego dzięki tym spójnikom jest prawdziwa, a dla jakich
fałszywa. W ten sposób uzyskujemy pewną ilość czwórek uporządkowanych,
utworzonych z dwu elementów – jedynki i zera – np. czwórkę (1,0,0,0), co odpowiada
spójnikowi zwanemu koniunkcją [zdanie złożone będące koniunkcją dwu zdań prostych

7 Kolejny przepis na uzyskiwanie pojęć jest zatem następujący: ustal odpowiednie dla swych
zainteresowań uniwersum; dobierz odpowiednie kryterium bądź kryteria podziału; skrzyżuj uzyskane
podziały bądź dokonaj dalszych podziałów. Uzyskane w ten sposób podzbiory scharakteryzuj,
uwzględniając, co mają wspólnego wszystkie ich elementy. Charakterystyka ta będzie stanowić treść
pewnego pojęcia.

background image

jest prawdziwe tylko wówczas, gdy oba zdania proste są prawdziwe]. Takich różnych
kombinacji jest dokładnie szesnaście [matematycznie chodzi o sytuację, w której ze zbioru
dwuelementowego należy utworzyć ciągi czteroelementowe].

Wydawałoby się, że w tej sytuacji nie mamy żadnej możliwości manewru, że

konceptualizacja logiki może być tylko jedna. Tymczasem wcale tak nie jest, a to dzięki
temu, że poszczególne spójniki nie są niezależne od siebie, są ze sobą znaczeniowo
powiązane. Inaczej mówiąc, każdy z nich daje się zdefiniować za pomocą pewnych
innych. Np. implikację p

q można zdefiniować za pomocą koniunkcji i negacji: p

q =

¬

(p

∧¬

q), a spójnik odpowiadający wyrażeniu „ani..., ani...”, jako równoważny formule

¬

p

∧¬

q . Co więcej, okazuje się, że wszystkie spójniki można zdefiniować za pomocą

jednego z tych szesnastu, tyle że wówczas definicja jest bardzo skomplikowana, totalnie
nieprzejrzysta. To zatem, co jest proste pod pewnym względem [=tylko jeden spójnik], nie
jest takie pod innym względem [=zrozumiałość formuł, operowanie na nich].

W konsekwencji na wybór konceptualizacji rachunku zdań, tj. na to, za pomocą ilu

i jakich spójników ten rachunek wyrazić, zależy od względów pragmatycznych, takich jak
zrozumiałość, prostota, wygoda, wzgląd na częstość występowania odpowiednich wyrażeń
w języku potocznym, itp.

Podobie rzecz się ma w przypadku opowiedzenia się za stanowiskiem reistycznym

w ontologii, przyjmującym, że istnieją tylko rzeczy. Reizm cechuje swego rodzaju
minimalizm ontologiczny, będący wyrazem tzw. brzytwy Ockhama, która mówi, że nie
należy mnożyć bytów ponad potrzebę. Reistom chodziło o wyeliminowanie z języka tzw.
hipostaz, tj. domniemanych bytów będących odpowiednikiem nazw abstrakcyjnych.
Według reistów dopuszczalne jest mówienie tylko o indywiduach i ich zbiorach – i to
zbiorach rozumianych kolektywnie. Okupione to jednak zostaje komplikacją w ścisłym
wysławianiu się. Nie można np. powiedzieć wówczas, że istnieją relacje czy stany rzeczy
[takie np. jak miłość] - choć jest to naturalny sposób mówienia - a nie można, bo według
reizmu istnieją tylko rzeczy [według reisty należałoby w tej sytuacji powiedzieć, że
istnieją ludzie którzy się kochają]. Trudności w stosowaniu języka reistycznego stają się
nieznośne, kiedy mowa o takich obiektach abstrakcyjnych, jak twory matematyczne.

Wniosek ogólny jest taki oto: sposób konceptualizacji zależy od celu, jaki przy jej

pomocy chcemy osiągnąć, przy czym nie zawsze jest to cel czysto poznawczy. Co więcej,
nawet wówczas, gdy chodzi o cel poznawczy – np. o uzyskanie prawdziwego obrazu
rzeczywistości – sposób konceptualizacji może być odmienny w zależności od tego, jaką
koncepcję prawdy wyznaje osoba mająca dokonać tej konceptualizacji, czy np. jest
zwolennikiem

realizmu

teoriopoznawczego,

czy

instrumentalizmu.

Zwolennik

koherencyjnej koncepcji prawdy będzie np. dążył do tego, aby pojęcia stosowane w
odniesieniu do różnych dziedzin rzeczywistości – np. do opisu funkcjonowania mózgu z
jednej, i psychiki z drugiej strony – pozostawały ze sobą w jakimś związku
znaczeniowym. Natomiast zwolennik pragmatycznej koncepcji prawdy będzie starał się
tworzyć pojęcia o charakterze operacyjnym, aby tezy przy ich pomocy formułowane
poddawały się weryfikacji przez praktykę życiową. Przykładem takiej konceptualizacji
była teoria Ptolemeusza, a w szczególności koncepcja tzw. epicykli, tj. pewnych
skomplikowanych torów po jakich miałyby się poruszać ciała niebieskie. Inną taką teorią
jest mechanika kwantowa w interpretacji kopenhaskiej, która dobrze sobie radzi z
wyjaśnianiem wyników obserwacji i z przewidywaniem zachowania się obiektów

background image

kwantowych, która jednak przez wielu fizyków – na czele z Einsteinem – jest
kwestionowana z uwagi na swój indeterministyczny charakter [według znanego
powiedzenia Einsteina „Bóg nie gra w kości”], i traktowana jako prowizoryczna. Jeszcze
innym przykładem takiego operacjonistycznego podejścia może być teoria sztucznej
inteligencji, która zagadnienie czy komputery mogą myśleć proponuje rozstrzygać za
pomocą tzw. testu Turinga. Chodzi o „rozmowę” za pośrednictwem ekranu komputera, w
której udział bierze z jednej strony człowiek, z drugiej zaś – to jest niewiadome –
komputer bądź człowiek; jeśli pytający nie potrafi rozstrzygnąć, czy odpowiedzi
pojawiające się na ekranie komputera zostały udzielone przez komputer, czy przez innego
człowieka, traktuje się to jako kryterium tego, że komputer myśli.

*

Choć dziedzina matematyczna jest aczasowa, to nie przeszkadza temu, ze

matematyka może dostarczać modelu procesów, tj. układów zmieniających się w czasie;
wystarczy w tym celu jedną z niewyspecyfikowanych zmiennych zinterpretować jako
reprezentującą czas. Jeśli założyć, że czas to zbiór pewnych punktów zwanych chwilami, i
ż

e jest to zbiór ciągły i liniowo uporządkowany, można go potraktować jako równoważny

zbiorowi liczb rzeczywistych R [jako izomorficzny z nim] i stosować do niego
odpowiednie twierdzenia matematyczne dotyczące liczb rzeczywistych. [Jest tu pewne
„ale”. Rzecz w tym, że zbiór liczb rzeczywistych nie ma kresu dolnego, podczas gdy na
ogół przyjmuje się, że czas miał początek]. Przestrzeń z kolei bywa traktowana jako
izomorficzna z tzw. iloczynem kartezjańskim R

3

[RxRxR], tj. zbiorem wszystkich trójek

liczb rzeczywistych.

Proszę o tym pamiętać: zmienne matematyczne jedynie reprezentują czy

symbolizują coś innego; a czynią to wówczas, gdy miedzy daną dziedziną a dziedziną
reprezentowaną zachodzi pewien morfizm, tj. odpowiedniość. Na matematyce możemy
polegać w tej mierze, w jakiej ta odpowiedniość zachodzi. Jeśli zachodzi, to możemy
skorzystać z odpowiedniej wiedzy matematycznej i zamiast badać same obiekty jakiejś
dziedziny, zastosować tę wiedzę do nich.

Zobaczmy na kilku przykładach, jak to wygląda.
W fizyce tam gdzie występują jakieś niezmienniki pewnych procesów, mówi się o

tzw. prawach zachowania [masy, energii, pędu, etc.], które od strony matematycznej
okazują się być niezmiennikami pewnych przekształceń zwanych symetriami, co
udowodniono matematycznie (tzw. twierdzenie Noether, będące jednym z fundamentów
dzisiejszej fizyki teoretycznej). Zasada zachowania energii jest mianowicie wyrazem
izotropowości czasu, tj. nieznienniczości energii całkowitej względem przesunięć w
czasie; zasada zachowania pędu – niezmienniczości względem przesunięć w przestrzeni, a
momentu pędu – niezmienniczości względem obrotów. Uznaje się w związku z tym, że
zadaniem teorii fizycznych jest w pierwszym rzędzie wykrycie jakichś symetrii w danej
dziedzinie – np. w dziedzinie cząstek elementarnych.

Inny przykład zastosowania matematyki w naukach szczegółowych to tzw. zasady

wariacyjne [np. zasada najmniejszego działania], mówiące, że spośród różnych
mozliwości urzeczywistniana jest ta, dla której pewna zmieniająca się wielkość przyjmuje
wartość ekstremalną [największą bądź najmniejszą]. To zaś oznacza, że chodzi o ekstrema
tzw. funkcjonałów, czyli funkcji o wartościach liczbowych, w których zmiennymi są inne
funkcje; zagadnienia tego rodzaju bada dział matematyki zwany rachunkiem wariacyjnym.

background image

Przykładowe zagadnienie wariacyjne matematyki: która z wszystkich brył o tej samej
objętści posiada najmniejszą powierzchnię? Odpowiedź: kula.

Zasady wariacyjne należą do podstawowych prawidłowości występujących w

różnych dziedzinach rzeczywistości, o czym będę jeszcze mówił kiedy indziej. W optyce
przykładem takiej zasady jest zasada Fermata, która mówi, że światło porusza się wzdłuż
takiej drogi, na przebycie której potrzeba najkrótszego czasu. [Linie takie nazywa się
geodezyjnymi. W przestrzeni euklidesowej są to oczywiście linie proste; nie zawsze
jednak tak jest, zależy to od krzywizny przestrzeni]. Fundamentalne dla biologii prawo
doboru naturalnego również jest odmianą pewnej zasady wariacyjnej, podobnie jak zasady
racjonalności, które polegają na tym, że spośród teoretycznie możliwych aktów i działań
podejmowane są te, które maksymalizują pewne preferowane wartości [np.
maksymalizacja zysku przy danych nakładach, bądź minimalizacja kosztów przy danym
zysku].

W filozofii spotkają się państwo z zasadą wariacyjną np. u Platona i Leibniza,

według których świat rzeczywisty to świat najlepszy z możliwych.

Kiedy mowa o zastosowaniu matematyki do jakiejś dziedziny, najczęściej myśli się

o ujęciu ilościowym i obliczaniu – wyznaczaniu wartości funkcji, rozwiązywaniu równań,
itd. Zakłada to właśnie ujęcie teoriomnogościowe, to jest wyróżnienie zbiorów pewnych
indywiduów, które pozostają do siebie w jakichś relacjach. To jest jednak tylko
wierzchołek góry lodowej. Matematyka służy przede wszystkim do opisu rozmaitych
struktur, ich przekształceń i składania przekształceń, co choć jest związane z operacjami
na indywiduach, to jednak podporządkowane jest pewnym prawidłowościom dotyczącym
struktur, a nie indywiduów. W takich sytuacjach o indywiduach można zapomnieć. Ten
aspekt matematyki lepiej wyraża tzw. teoria kategorii, w której indywidua schodzą na
dalszy plan, a na czoło wysuwa się badanie struktur i ich morfizmów

8

. Bardzo często

przybiera to postać graficzną, w której morfizmy reprezentowane są przez strzałki
usytuowane między jakimiś obiektami, które z kolei symbolizuje się np. za pomocą
małych kółek; wówczas związki strukturalne między obiektami widać jak na dłoni.

Kategorię w sensie matematycznym stanowi klasa obiektów, posiadających pewną

strukturę, oraz odpowiadających im morfizmów, tj. odwzorowań zachowujących te
struktury (a więc niejako „tożsamość” tych obiektów), przy czym spełnione są pewne
warunki, gwarantujące istnienie odwzorowania odwrotnego i identycznościowego oraz
wykonalność operacji składania odwzorowań (obiekt będący efektem takich złożonych
przekształceń musi należeć do tej samej kategorii). Tym co nas interesuje w zbiorach nie
są wówczas ich elementy, lecz właśnie to, jakie przekształcenia zachowują ich strukturę.
Kiedy na przykład mówimy o odwzorowaniach ciągłych – bądź liniowych – obojętne jest
czy chodzi o zbiory liczb, wektorów, macierzy, tensorów etc. Ma to być dowolny zbiór dla
którego istnieje odwzorowanie danego typu. Kategorię w sensie matematycznym stanowią
np. wszystkie zbiory oraz funkcje (traktowane jako ich morfizmy); mówi się w związku z

8 W matematyce współczesnej występuje tendencja, aby jako podstawę wszystkich dziedzin
matematycznych traktować właśnie teorię kategorii, a nie teorię mnogości. Innymi słowy, coraz
powszechniejszy staje się w niej kategoryjny sposób myślenia. W ontologii rzecznikiem takiego
kategoryjnego sposobu myślenia był filozof niemiecki Nicolai Hartmann, który czynił to zresztą zanim
powstała matematyczna teoria kategorii. Pojęcie kategorii jest bowiem jednym z fundamentalnych pojęć
ontologii, wywodzącym się jeszcze od Arystotelesa. Niezadługo będzie o tym mowa bliżej.

background image

tym o kategorii zbiorów, oznaczając ją Ens. Teoria kategorii jest więc bardziej
abstrakcyjna i ogólna od teorii zbiorów, bo kategoria zbiorów jest po prostu jedną z wielu
kategorii. Możliwe są więc różne poziomy abstrakcji, ogólności i złożoności, tj. istnienie
struktur wyższego rzędu, dla których tworzywem wyjściowym jest jakaś dana struktura.

Widać to wyraźnie w ramach samej teorii kategorii. Skoro nie zakładamy niczego o

naturze obiektów (co jest ich elementami składowymi) – poza tym, aby podlegały pewnym
morfizmom – to nic nie stoi na przeszkodzie, aby jako obiekt potraktować dowolną
kategorię, jeśli tylko jest ona czymś na czym można dokonywać jakichś przekształceń, tj.
czemu można przyporządkować inną kategorię. W ten sposób wprowadza się pojęcie
funktora; jest to mianowicie odwzorowanie [morfizm] jednej kategorii w drugą [na
przykład przekształcenie kategorii przestrzeni topologicznych w kategorię przestrzeni
metrycznych

9

]. Wreszcie, jako obiekty można potraktować funktory; w ten sposób

definiuje się tzw. transformacje naturalne funktorów, tj. odwzorowania jakichś funktorów
w inne. (Na marginesie: jest to właśnie przypadek wspomnianej wcześniej analogii miedzy
analogiami).

Tak więc pewne przekształcenia mają charakter, by tak rzec, „horyzontalny”

(przekształcanie jednych obiektów w inne obiekty tej samej kategorii), a inne
„wertykalny” (przekształcanie jednej kategorii w inną), co prowadzi do powstania tworów
o wyższym poziomie złożoności. W ten sposób, mając w punkcie wyjścia jakiś zbiór
elementów oraz odnoszące się doń przekształcenia, można wygenerować całą dziedzinę
matematyki, całą rzeczywistość matematyczną, przy czym każdorazowo musimy jedynie
sprecyzować warunki jakie musi spełniać nowo wprowadzane przekształcenie [co ma ono
zachowywać]. Tym zatem, co generuje całą rzeczywistość matematyczną są z jednej
strony pewne wyjściowe obiekty (dowolne zbiory), a z drugiej strony rozmaite
przekształcenia (morfizmy).

Jeśli chodzi o to, jakaż to kategoria stanowi fundament wszystkich innych, to od

niedawna do roli tej pretenduje coś, co matematycy nazywają toposami. „Ale o tym sza”,
bo to za trudne pojęcie dla studentów pierwszego roku.

W ontologii znajdą Państwo podobną sytuację, przy czym wyjściowy obiekt

nazywany jest arche, co dosłownie znaczy „początek”, a co w ontologii rozumiemy jako
zasadę, a przekształcenia to physis, co z kolei na łaciński przełożono jako naturę [coś co
się staje, zmienia, przekształca, ale nie w dowolny sposób, lecz podlegając pewnemu
prawu [odpowiednik zmiany coś zachowującej, czyli morfizmu]. Do sprawy tej powrócę
w końcowych wykładach. Nietrudno jednak dostrzec analogię pomiędzy tym
abstrakcyjnym matematycznym schematem, a sekwencją kwarki

cząstki elementarne

atomy

związki chemiczne

ciała, wskazującą, że w przyrodzie również mamy do

czynienia z obiektami o różnym poziomie złożoności, powstającymi w wyniku
przekształceń (transformacji) obiektów niższego poziomu złożoności. Dla pełniejszej
analogii należałoby jeszcze rozstrzygnąć, czy przekształcenia te są morfizmami.

Spróbujmy jeszcze na zakończenie przełożyć ten kategorialny sposób myślenia na

język bardziej konkretny, tj. zastosować aparat teorii kategorii do jakichś realnych
sytuacji. Rozważmy najpierw przewidywanie wyniku wyborów przez badanie tzw. próbek

9 Odwzorowanie to polega na tym, że obiektom jednej kategorii zostają przyporządkowane obiekty
drugiej kategorii, a morfizmom pierwszej – morfizmy drugiej.

background image

reprezentatywnych. Próbka reprezentatywna musi mieć strukturę taką samą jak struktura
całego społeczeństwa (płeć, wiek, wykształcenie, miejsce zamieszkania itp.); innymi
słowy, struktura społeczeństwa musi być w każdej próbce zachowana. Oznacza to, że
wszystkie próbki reprezentatywne stanowią kategorię. A dlaczego można polegać na
badaniu próbek reprezentatywnych? Według mnie dlatego, że prawdziwa jest Marksowska
teza, że byt określa świadomość; ściślej, że byt społeczny określa społeczną świadomość.
(W jednostkowych przypadkach tak być nie musi, jest to teza o charakterze
socjologicznym, a nie psychologicznym; w tym sensie indywidua nie są tu istotne). Innymi
słowy, determinacja o której tu mowa stanowi odwzorowanie jednej kategorii w drugą (tj.
w dziedzinę świadomości). Mamy tu zatem do czynienia z przekształceniem jednej
kategorii w drugą.

{Wielu ludzi nie bierze udziału w głosowaniu, uważając, że ich indywidualny głos i

tak nie ma większego znaczenia. I w pewnym sensie mają rację, choć nie jest to myślenie
obywatelskie. To jest właśnie przypadek, kiedy nie liczą się indywidua, lecz struktury}.

Inny przykład: kiedy chce się zrozumieć funkcjonowanie mózgu jako całości,

można pominąć to co dzieje się w poszczególnych neuronach; tym co się liczy są jednostki
wyższego rzędu złożoności, tj. pewne struktury neuronalne – np. hipokamp, ciało
migdałowate, wzgórze itp. Inaczej mówiąc: liczy się relacja międy wejściami i wyjściami
tych ośrodków, czyli przekształcenie jakiemu podlegają docierające do nich sygnały, a nie
zachowanie komórek nerwowych z których są one zbudowane; wiadomo bowiem, że
podczas przetwarzania informacji pewne struktury informacyjne winny być zachowane.
Ośrodki te traktuje się wówczas jako tzw. czarne skrzynki, co z matematycznego punktu
widzenia oznacza, że interesują nas zbiory, a nie ich elementy.


II. Ontologia jako filozofia pierwsza


Z uwagi na problematykę i sposób konceptualizacji dyskurs filozoficzny

tradycyjnie dzieli się na działy i dyscypliny.

Zróżnicowanie na działy związane jest z naturalnym podziałem pytań i zagadnień

na te, które dotyczą tego czym/jaka jest rzeczywistość, tj. które dotyczą bycia
[czymś/jakimś, istnienia], i te, które dotyczą sposobu dochodzenia do pojęć i twierdzeń o
rzeczywistości, tj. poznawania bytu. Pierwszy z tych kręgów zagadnień filozofia podziela
z naukami szczegółowymi; tym co ją od nich różni jest wzgląd na całościowość.
Natomiast drugi z tych kręgów jest już swoisty dla filozofii.

W związku z tym rozróżnieniem wyróżnia się dwa zasadnicze działy dociekań

filozoficznych – teorię bytu [inne nazwy tych działów: ontologia, metafizyka] i teorię
poznania
[epistemologia, gnoseologia].

Ponieważ według niektórych koncepcji filozoficznych wartości bądź nie są bytami

[na tej zasadzie, że bytem jest to, co jest, natomiast wartości są związane z tym jak
powinno być], bądź nie są poznawane [w tym sensie, że sądy wartościujące i sądy o
wartościach nie mają charakteru poznawczego, tj. nie mogą być prawdziwe/fałszywe],
wyróżnia się też niekiedy trzeci dział dociekań filozoficznych, mianowicie teorię wartości
[aksjologia]. Przedmiotem jej są wartości jako takie, w odróżnieniu od wartości

background image

określonego rodzaju, jak np. etyczne czy estetyczne, którymi zajmują się, odpowiednio,
etyka i estetyka [nie są one działami, lecz dyscyplinami filozoficznymi].

Przez dyscyplinę filozoficzną rozumie się dyskurs poświęcony jakiejś

wyodrębnionej dziedzinie bądź jakiemuś wyodrębnionemu aspektowi rzeczywistości.
Dyscyplina zatem to filozofia „czegoś tam” – przyrody, historii, człowieka, języka,
kultury, umysłu, nauki, matematyki, muzyki, etc. Wyodrębnienie to jest z reguły dość
arbitralne, związane z jednej strony z potrzebą podziału pracy, specjalizacji, z drugiej zaś z
pewnymi przejściowymi modami czy ogólniejszymi zainteresowaniami intelektualnymi.
[Nie jest to też podział rozłączny – np. przedmioty filozofii języka i filozofii umysłu
częściowo się pokrywają]. Zbiór dyscyplin nie jest w związku z tym jednoznacznie
ustalony, podlega zmianom, w zależności od tego, jakiego rodzaju problematyka jest żywa
w danym czasie.

*

Z uwagi na 1.całościowy (systemowy) charakter filozofii, oraz na 2. istnienie

wyodrębnionych działów i dyscyplin takich jak ontologia, epistemologia i aksjologia,
pojawia się pytanie o ich związki wzajemne – czy mogą być one uprawiane niezależnie od
siebie, czy też któraś [a jeśli tak, to która] stanowi podstawę i założenie innych; innymi
słowy, która z nich jest filozofią pierwszą.

[Analogia: wszystkie nauki przyrodnicze zakładają fizykę, a dyscypliny

matematyczne - teorię mnogości].

Pojęcie filozofii pierwszej wprowadził Arystoteles, określając ją dwoiście: 1.jako

naukę badającą byt jako taki i jego atrybuty istotne, oraz 2.jako naukę o pierwszych
przyczynach
, przy czym rozróżniał on cztery rodzaje przyczyn: materialną, sprawczą,
formalną i celową

10

. [Dzisiejsze pojęcie przyczyny jest węższe, pokrywając się z A.

przyczyną sprawczą. Innym, właściwszym terminem w odniesieniu do pierwszych
przyczyn jest zasada]. Według pierwszego z tych określeń dyscyplina ta winna dostarczać
najogólniejszych pojęć i twierdzeń, dających się zastosować do wszystkich bytów. Wśród
najogólniejszych pojęć ontologicznych pojawia się w szczególności zróżnicowanie na
określenia kategorialne (klasy, tj. zbiory dystrybutywne jakichś elementów) i
ponadkategorialne

11

. Tak rozumiana dyscyplina nie jest jeszcze teorią rzeczywistości, lecz

jej abstrakcyjnym opisem, czy też abstrakcyjną konceptualizacją; można ją co najwyżej
uznać za teorię bytu jako takiego jedynie, a nie teorię rzeczywistości. Z drugiej strony, jej
„pierwszeństwo” jest pierwszeństwem logicznym, bo dostarcza ona najogólniejszych
kategorii myśleniu o rzeczywistości, a to co ogólne jest logicznie wcześniejsze od tego, co
bardziej szczegółowe.

Natomiast nie opisowy, lecz wyjaśniający charakter ma to drugie określenie. Z

uwagi na taki charakter nauka o pierwszych zasadach stanowi teorię rzeczywistości, bo
pierwsze przyczyny stanowią wyjaśnienie tego co dane w doświadczeniu. Wyjaśnianie

10 To co Arystoteles nazwał filozofią pierwszą zaczęto później nazywać metafizyką i tak to trwało do
czasów nowożytnych.
11 W średniowieczu pierwsze z nich zostały nazwane uniwersaliami, po polsku powszechnikami
(rodzaje, gatunki, własności, relacje), drugie natomiast transcendentaliami (byt, istota, istnienie, materia,
forma, własność, a więc określenia które można odnieść do wszystkiego), czyli określeniami
przekraczającymi wszelkie kategorie; a że przekraczać to po łacinie transcendere, stąd nazwa
transcendentalia.

background image

poprzez pierwsze przyczyny to tyle co sięganie do źródeł, radykalizm, fundamentalizm,
ostateczność [w sensie rzeczowym, a nie historycznym] proponowanych odpowiedzi.
Intencja, jaka przyświecała idei filozofii pierwszej dotyczyła zatem określenia i
wyodrębnienia

dociekań

fundamentalnych,

dostarczających

podstawy

bardziej

szczegółowym rozważaniom – zarówno podstaw konceptualnych, jak i merytorycznych.

Ta dwoistość określenia przedmiotu filozofii pierwszej jest znamienna, choć sam

Arystoteles zapewne nie uświadamiał sobie niejednorodności tych dwu projektów
badawczych. Dwoistość ta zaowocowała później w zróżnicowaniu teorii bytu na ontologię
i metafizykę. Do sprawy tej jeszcze niedługo wrócimy.

*

Problem związany z projektem filozofii pierwszej dotyczy drugiego z powyższych

określeń i jest następujący. Twierdzeń filozofii pierwszej, jako sądów bardzo ogólnych i
dotyczących pierwszych zasad, nie można uzasadnić; przeciwnie, to one właśnie stanowić
mają uzasadnienie wszystkiego innego. Tym samym jednak, nie można też wykazać, że są
one prawdziwe. Trafia w nie więc zarzut podnoszony przez sceptycyzm, że nie bardziej są
pewne, niż twierdzenia im przeciwstawne

12

.

[Analogia z dziedziny matematyki. Przez długi czas kwestionowano piąty postulat

geometrii Euklidesa (mówiący o prostych równoległych), starając się go wyprowadzić z
innych, tj. właśnie uzasadnić. Okazało się to niemożliwe – jest on niezależny od innych. Z
drugiej strony, w 19 wieku skonstruowano geometrie odrzucające ten postulat, w zamian
zastępując go dwoma wersjami jego zaprzeczenia (przez punkt nie leżący na danej prostej
a) nie przechodzi żadna prosta do niej równoległa, b) przechodzi ich wiele). Co więcej,
okazało się, że to właśnie jedna z takich geometrii (=Riemannowska) lepiej opisuje
strukturę Wszechświata. W zarzutach sceptyków było więc coś „na rzeczy”].

W obliczu nieuzasadnialności pierwszych zasad próbowano znaleźć dwojakie

antidotum. Po pierwsze, w postaci wymogu, aby pierwsze zasady były oczywiste, a więc
tym samym nie wymagające uzasadnienia. [Oczywistość to właściwość sądów, których
zaprzeczenie prowadzi do niedorzeczności]. Po drugie, przeciwstawiając postawie
dogmatycznej postawę krytyczną, troszczącą się nie tylko o uzasadnianie twierdzeń, ale i o
sposób dochodzenia do nich [problem właściwej metody – drogi, sposobu postępowania
badawczego].

Autorem takiego antidotum był Kartezjusz, próbujący pokonać sceptycyzm jego

własną bronią, mianowicie odrzucając wszystko to, w co można wątpić. Otóż nie we
wszystko można wątpić – niesposób na przykład wątpić, że się wątpi, bo przecież w
dalszym ciągu jest to wątpienie. Wątpienie jest postacią myślenia. A skoro myślę to jestem
[to jest ta oczywistość]. A czym jestem? Istotą myślącą, bo tylko tego nie można
zakwestionować. W ten sposób tym, co pierwsze, stał się podmiot i jego stany stwierdzane
bezpośrednio przez świadomość. Na tym pewnym gruncie Kartezjusz zaczął budować swą
filozofię w sposób dedukcyjny, który cechuje się tym, że jeśli przesłanki dedukcji są
prawdziwe, to prawdziwe są również jej wnioski.

Wykonaniu tego programu przez Kartezjusza można postawić wiele zarzutów,

niemniej odtąd zadomowił się w filozofii wymóg myślenia krytycznego, zobowiązanego

12 W Starożytności sceptykami nazywano tych myślicieli, którzy – w odróżnieniu od dogmatyków -
jedynie rozważali zagadnienia, ale nie zajmowali w stosunku do nich żadnego stanowiska, twierdząc, że
ż

adne stanowisko nie jest lepiej uzasadnione od przeciwstawnego.

background image

do wylegitymowania się z każdego swego kroku. Inaczej mówiąc, na porządku dziennym
filozofowania stanęła kwestia prawomocności. Przyjrzyjmy się tej sprawie nieco bliżej.

*

Poza

nieinteresującymi

z

filozoficznego

punktu

widzenia

przypadkami

prawdziwość jest kategorią nieoperacyjną, tzn. własność bycia prawdziwym poznaniem
nie jest definitywnie rozstrzygalna [te „nieinteresujące” przypadki to sądy będące bądź
prawdami logicznymi bądź prawdami analitycznymi bądź wypowiedziami o faktach
(zdania obserwacyjne, łatwe do zweryfikowania)]. W tej sytuacji obok prawdziwości
pojawia się operacyjna kwestia kryteriów prawdy oraz wzgląd na inną wartość poznawczą
pewność.

Tę ostatnią kategorię odnosić można bądź do sposobu poznawania (niezawodność),

bądź do jego wyników (niepowątpiewalność, np. oczywistość bądź. odpowiednio wysoki
stopień uzasadnienia przekonań). Po pierwsze zatem, pewność twierdzeń filozofii
pierwszej gwarantować mógłby jakiś niezawodny sposób poznawania, w toku którego
dochodziłoby się do pierwszych zasad. Ale czy taki sposób istnieje? Dedukcja na przykład
gwarantuje pewność wniosków tylko wówczas, jeśli pewne są przesłanki, których wartość
poznawcza ustalona być musi na innej niż dedukcyjna drodze. Zatem dedukcja nie może
być podstawowym sposobem poznawania. Inną kandydaturą w tym względzie jest według
niektórych filozofów – głównie fenomenologów – tzw. poznanie immanentne, tj.
poznawanie własnych świadomych przeżyć, do strumienia których należy również samo to
poznawanie. Ale poznanie immanentne, w którym podmiot ma do czynienia ze "źródłowo
prezentującą naocznością", co – jak się domniemuje – daje rękojmię prawdziwości
uzyskiwanych w ten sposób poznań, ograniczone jest do poznawania świadomych stanów
psychicznych, od których nie ma pewnego przejścia do poznania rzeczy. Co więcej, w ten
sposób można poznać jedynie zjawiska świadomości, tj. sposób przejawiania się czegoś
jakiemuś podmiotowi. A w filozofii nie chodzi o poznanie zjawisk, tj. faktów, bo nie jest
ona nauka empiryczną.

Z drugiej strony, pewne nie mogą też być – poza tautologiami logicznymi, które nie

nadają się jednak do roli pierwszych zasad – wyniki poznawcze [sądy, hipotezy,
twierdzenia]. Np. twierdzenia matematyczne są pewne, o ile prawdziwe są aksjomaty.
Mówiąc ogólnie, im twierdzenie bardziej ogólne i bardziej fundamentalne, tym mniej
pewne.

Dlatego też, ogólnie rzecz biorąc, chodzić może jedynie o pewność jako normę czy

też ideał – graniczny przypadek odpowiednio wysokiego stopnia uzasadnienia
uzyskanych wyników poznawczych – co prowadzi do kwestii operacyjnych
(rozstrzygalnych) kryteriów prawdy (oczywistości, koherencji, uzyteczności, zgodności z
doswiadczeniem itp.)

13

.

Otóż kłopot polega na tym, że w odniesieniu do fundamentalnych tez filozofii (tj.

do wspomnianych pierwszych zasad) żadne z kryteriów prawdy nie może być
zastosowane. Pozostaje wówczas wzgląd na prawomocność. Prawomocność stanowi
najsłabszą gwarancję tego, że czynność poznawania owocuje poznaniem, bo chodzi w niej

13 Problem prawomocności powstaje więc jedynie w odniesieniu do dyscyplin czysto teoretycznych, w
których nie można stosować takich kryteriów prawdy, jak zgodność z doświadczeniem czy praktyczna
użyteczność wyników. Pojawia się on na przykład w matematyce, gdzie toczą się spory co do
prawomocności niekonstruktywistycznych, bądź infinitystycznych środków dowodowych - takich jak
pewnik wyboru - a nie ma go w fizyce, która jest wrażliwa na werdykt doświadczenia.

background image

jedynie o warunki konieczne, ale nie wystarczające, poznania. (Uwaga – właśnie poznania,
a nie prawdziwości, bo twierdzenie jeśli jest prawdziwe, to jest takim niezależnie od tego,
w jaki sposób zostało uzyskane, prawomocność nie może więc być warunkiem koniecznym
prawdziwości).

Zagadnienie prawomocności to zagadnienie adekwatności czy też stosowności

zastosowanych środków dla zakładanego celu oraz przedmiotu poznania. Środkami takimi
nie są tezy danej dyscypliny poznawczej, lecz stosowane przez nią pojęcia, punkty
widzenia
, metody. W związku z powyższym sądzi się często, że filozofią pierwszą winna
być epistemologia, jeśli bowiem pozna się narzędzia stosowane w uzyskiwaniu wiedzy,
wówczas będzie można uniknąć błędów w ich stosowaniu. Zrodziło to program
ugruntowania wiedzy poprzez krytykę władz poznawczych (Kartezjusz, Kant, Husserl).

Według mnie to nieporozumienie. Po pierwsze, nieporozumieniem jest traktowanie

teorii poznania jako samodzielnej dyscypliny badawczej. Teoria poznania jako
wyodrębniony dział dociekań może być jedynie zastosowaniem ontologii do pewnego
podzakresu stosunków bytowych jakim sa stosunki poznawcze, a nie dyscypliną
względem ontologii niezależną. Poznawanie jest wszak sposobem bycia pewnego bytu i
jako takie stanowi uprawniony teren dociekań ontologicznych. Podobnie jest z aksjologią,
bo przy odpowiednio szerokim pojęciu bytu wartości są pewnego rodzaju bytami.

Co więcej, w swej pretensji do bycia filozofią pierwszą epistemologia nie jest

bynajmniej w lepszej pozycji od ontologii. Jeśli mianowicie potraktować epistemologię
jako filozofię pierwszą, to pojawia się wobec niej zarzut petitio principii, tj. zarzut
bezpodstawności (termin „petitio principii” znaczy „żądanie podstawy”), gdyż sama teoria
poznania też jest wszak uzyskiwana w toku jakiegoś poznawania, a więc podpada pod
zakres tego co problematyczne. Skąd np. przez analizę samej świadomości mamy się
dowiedzieć, co jest poznaniem, a co nim nie jest, co ma walor obiektywności a co nie,
wszak nie wszystkie zjawiska świadomości mają charakter poznawczy, zaś obiektywność
polega nie tyle na subiektywnej bezstronności, ile na adekwatności przedmiotowej
stosowanych pojęć i zasad wyjaśniania. Aby zaś wiedzieć co jest, a co nie jest adekwatne,
trzeba dysponować jakąś wizją rzeczywistości. Podobnie, aby odróżnić zjawisko - a w
ś

wiadomości dane są nam zjawiska - od rzeczywistości, również trzeba mieć pewną teorię

samej rzeczywistości. Epistemologii która chciałaby być neutralna, niezaangażowana
ontologicznie, tak samo więc grozi zarzut dogmatyzmu. Słowem, przyganiał kocioł
garnkowi...

Sytuacja wygląda więc na patową. Ale tylko wygląda, bo taką jednak nie jest. Po

pierwsze, zauważmy, że problem pierwszeństwa ontologii bądź epistemologii powstaje
tylko wówczas, gdy traktuje się je jako dwie odrębne dyscypliny. Jeśli natomiast teorii
bytu nie traktować zawężająco – przeciwstawiając jej zarówno teorię poznania, jak i
aksjologię – lecz jako integralną teorię wszystkiego, należy sądzić, że to teoria poznania

potrzebuje ontologicznych fundamentów, a nie odwrotnie14.

Z drugiej strony, kierowany pod adresem ontologii zarzut dogmatyzmu można w

pewien sposób zneutralizować. Argumentacja jest następująca. Skoro ontologia ma być
teorią wszystkiego, musi też być teorią poznania. A ponieważ sama ona jest postacią
poznania, podpada pod dziedzinę przez się badaną. Winna to być zatem taka teoria, do

14 W czasach współczesnych status taki przypisywał ontologii i realizował ten program w swych pracach
Nicolai Hartmann. Moje własne stanowisko czerpie inspiracje z wielu idei tego myśliciela.

background image

orzeczeń której sama będzie się stosowała. Innymi słowy, ontologia winna być
samozwrotna. Nie byłoby to na przykład możliwe, gdyby ontologia prowadziła do
naturalistycznej bądź pragmatycznej koncepcji poznania, przekreślających klasyczną
koncepcję prawdy, bądź gdyby prowadziła ona do wniosków sceptyckich.

Konkluzja tych rozważań jest zatem następująca: filozofią pierwszą może być tylko

jakaś teoria bytu, tj. metafizyka vel ontologia.

Bardzo często te dwa terminy traktuje się jako synonimiczne. Są też jednak

zwolennicy ich odróżniania (ja również do nich należę). Według mnie podział na
ontologię i metafizykę jest konsekwencją wspomnianej wcześniej dwoistości określenia
fiolozofii pierwszej przez Arystotelesa. Ontologia mianowicie to dyscyplina analityczna
„badająca byt jako byt i jego atrybuty istotne”, natomiast metafizyka to dociekanie
pierwszych przyczyn (zasad).

Zobaczmy pokrótce, jak to rozróżnienie wyglądało u kilku myślicieli.

Christian Wolff dzielił teorię bytu na metafizykę ogólną, którą nazwał ontologią, i

metafizykę szczegółową. Przedmiotem ontologii jest to wszystko co niesprzeczne (a tym
samym możliwe; to co możliwe określał mianem bytu), natomiast przedmiotem metafizyki
szczegółowej – którą Wolff dzielił na kosmologię, psychologię racjonalną i teologię – jest
dziedzina bytu realnego (aktualnego). Ontologia zatem to dociekania czysto rozumowe,
aprioryczne (niezależne od doświadczenia).

[Uwaga. Należy rozróżniać dwa sensy zwrotu „niezależny od doświadczenia”. Po

pierwsze, nie wywodzący się z doświadczenia, tj. nie wymagający znajomości żadnych
treści empirycznych. Po drugie, nie wymagający uzasadnienia przez doświadczenie.
Aprioryczność związana jest jedynie z tym drugim sensem.]

Dość podobnie wygląda sprawa u Alexiusa Meinonga, który jednak oprócz

przedmiotów możliwych dopuszczał również przedmioty sprzeczne – głównie dlatego, że
można o nich formułować jakieś prawdziwe twierdzenia (np. że kwadratowe koło nie
istnieje). Meinong w swym zróżnicowaniu ontologii i metafizyki bazował na tym, że istota
(=bycie czymś określonym) jest niezależna od istnienia. [Przykładem mogą być dzieje
pojęcia eteru w fizyce, w której określono istotę eteru, ale okazało się, że eter nie istnieje].
W związku z tym, że tak ontologia jak i metafizyka są to pewne teorie, wyniki pewnych
rozważań, należy przede wszystkim rozróżnić dwa podstawowe sensy „bycia czymś
określonym” – epistemiczne (predykację) i ontyczne (determinację), tj. bycie określonym
przez jakiś podmiot (używający w tym celu jakichś predykatów) bądź bycie określonym w
sposób niezależny od podmiotu. W konsekwencji, Meinong rozróżniał byty i przedmioty.
Bytem jest coś co istnieje i jest czymś określonym niezależnie od podmiotu, natomiast
przedmiotem jest odpowiednik dowolnego przeżycia prezentującego, np. przedstawienia,
sądu czy uczucia (są one prezentujące, bo do czegoś się odnoszą, i w tym sensie mają swój
przedmiot). Nie wszystkim przedmiotom odpowiada coś istniejącego – np. Pegazowi.
Byty i przedmioty różnią się zatem sposobem bycia – byty egzystują, przedmioty zaś
zachodzą (Bestand, czasem tłumaczony jako subsystencja, w odróżnieniu od egzystencji).
Przez ontologię Meinong rozumiał teorię przedmiotu, natomiast przez metafizykę teorię
bytu. Dociekania i tezy ontologii mają według niego charakter aprioryczny.

background image

Odwrotnie jest ze zróżnicowaniem ontologia/metafizyka u Nicolaia Hartmanna.

Według Hartmanna dociekania ontologiczne powinny być – na wyższym poziomie
ogólności – przedłużeniem i pogłębieniem badań empirycznych, a nie dociekaniami
apriorycznymi. Jest tak dlatego, że fundamenty bytu nie mogą być bezpośrednio dane,
muszą zostać wtórnie zrekonstruowane na podstawie tego co dostępne badaniu, tj. na
podstawie fenomenów. (Ontologia jest zatem raczej philosophia ultima, niż philosophia
prima
). Przez metafizykę natomiast Hartmann rozumiał niepoznawalne – i w tym sensie
irracjonalne – residuum zawarte w problemach filozoficznych, spekulatywne rozważania
dotyczące irracjonalnej domieszki w problemach filozoficznych, niezależnie od tego, czy
dotyczą one bytu, czy poznania, czy czegokolwiek innego

15

. Ontologię Hartmann dzielił

przy tym na badania kategorialne i modalne. Kategorie to najwyższe rodzaje w obrębie
„bycia czymś określonym”, natomiast ontologia modalna zajmuje się sposobami bycia,
takimi jak konieczność, możliwość i aktualność.

Ontologię od metafizyki odróżniał również polski filozof Roman Ingarden, według

którego ontologia to aprioryczna analiza zawartości idei, czyli przedmiotów ogólnych. [W
strukturze idei występują stałe i zmienne (możliwościowe) – np. w idei człowieka do
stałych należy cielesność, a zmienna jest płeć – natomiast przedmioty indywidualne nie
posiadają w swej budowie zmiennych, wszystko jest w nich „wypełnione”. Właśnie z
uwagi na owe zmienne idee są przedmiotami ogólnymi]. Ponieważ przy tym według
Ingardena każdy byt można rozpatrywać pod kątem materii, formy i sposobu istnienia -
ontologię dzielił on na egzystencjalną, formalną i materialną. Ontologia egzystencjalna
bada możliwe sposoby istnienia wyznaczone przez ogólną ideę istnienia. Ontologia
formalna analizuje ogólną ideę formy. Natomiast ontologia materialna zajmuje się analizą
jakościowego (i w tym sensie materialnego; materialny więc to tyle co treściowy)
uposażenia rozmaitych przedmiotów dopuszczanych przez ogólną ideę przedmiotu.
Według Ingardena ontologia jest nauką niezależną od twierdzeń o faktach, opartą na
poznaniu, które określał on jako ogląd eidetyczny (istotowy).

Podczas gdy ontologia jest badaniem tego co a priori możliwe, metafizyka jest

filozoficzną teorią tego, co faktycznie istnieje. W tym względzie więc ujęcie Ingardena
podobne jest do propozycji Wolffa.

Na zakończenie tego przeglądu zaprezentuję Państwu swój własny pogląd w

sprawie zróżnicowania teorii bytu na ontologię i metafizykę. Zacznę jednak od pewnych
uwag ogólniejszych dotyczących filozofii w ogóle.

Filozofia systemowa

15 „Filozofia powinna we wszystkich dziedzinach zaczynać od wiernego opisu fenomenów. Następnie
musi, odpowiednio do każdorazowego stanu badań, wydobyć problemy, stanowiące to, czego nie
rozumiemy w fenomenach. O ile te problemy zawierają nierozwiązalną resztę, są problemami
metafizycznymi. Metafizyczne są wszelkie problemy, które opierają się bezpośredniemu rozwiązaniu,
obojętnie w jakiej dziedzinie filozofii one występują. Taki charakter mają podstawowe i centralne pytania w
niemal wszystkich dziedzinach filozofii. Są to zagadnienia których nie można ostatecznie rozwiązać.
Właśnie rozpatrzenie irracjonalnej reszty zawartej w ich treści jest tym, o co chodzi w metafizyce”.

background image

Wychodzę z założenia, że nadrzędnym celem każdej autentycznej i ambitnej

filozofii było zawsze – i wciąż pozostaje – całościowe rozumienie rzeczywistości.

Dlaczego owo całościowe rozumienie jest celem, do którego człowiek dąży? Po

pierwsze, bo rozumienie jest sposobem bycia człowieka. Po drugie, bo chce zrozumieć
samego siebie – kim jest, na jakich zasadach funkcjonuje. Otóż każdy człowiek jest
mikrokosmosem, „światem w miniaturze”, tj. bytem jednoczącym w sobie wszystkie sfery
bytowe o odmiennej naturze: przyrodę nieorganiczną i ożywioną, zwierzęcość i
duchowość, byt i wartość, byt i poznanie bytu, podlega zatem wszystkim determinantom,
które występują w rzeczywistości. Wszystko to w człowieku stapia się w jedną całość.
Innymi słowy, rozumieć siebie człowiek może tylko wówczas, gdy rozumie świat, i
odwrotnie, co bynajmniej nie stanowi błędnego koła, lecz wymaga ujęcia całościowego
właśnie.

Jedną z realizacji idei całościowego rozumienia jest filozofia pojęta jako

ś

wiatopogląd, tj. ogólny pogląd na świat i miejsce, jakie w nim zajmuje człowiek.

Występuje ona w dwu odmianach – naturalistycznej (pozytywistycznej, scjentystycznej,
racjonalistycznej) i antynaturalistycznej (antypozytywistycznej, irracjonalistycznej), przy
czym w obrębie tej drugiej można jeszcze rozróżnić filozofię życia oraz egzystencjalizm.
Filozofia światopogladowa w wersji scjentystycznej jest niestety eklektyczna – jest to
zlepek niejednorodnych kawałków. Dotyczy to w szczególności związku pomiedzy tym,
co fizyczne i tym co duchowe, oraz pomiędzy tym co jest (co badają poszczególne nauki) i
tym, co być powinno (wartości). Natomiast filozofia światopoglądowa w wersji
egzystencjalnej nie jest wiedzą, lecz ekspresją.


Istnieje też jednak inny, niż cechujący filozofię światopoglądową, sposób

całościowego filozofowania, taki mianowicie, który dążąc do uzyskania całościowego
obrazu świata, zarazem stara się zarówno czynić zadość warunkowi spójności [co nie
udaje się filozofii światopoglądowej w wersji scjentystycznej], jak i chce być wiedzą, tj.
wynikiem aktywności poznawczej [czego możliwość neguje z kolei światopogląd
pojmowany jako ekspresja]. Tak pojętą filozofię można określić mianem systemowej.

Tym, co przyświeca tak rozumianym badaniom filozoficznym jest idea

rzeczywistości jako całości, idea rozumienia całościowego. Tak rozumianą filozofię od
nauk szczegółowych odróżnia więc przede wszystkim to, że jest ona teorią wszystkiego -
ale teorią organiczną, systemową, a nie po prostu "wszystkoizmem" (zbiorem uprawianych
niezależnie subdyscyplin). Po pierwsze zatem, filozofia ma być jedną spójną teorią, a nie
zlepkiem wielu, niewspółmiernych pojęciowo teorii. Im więcej różnorodnych zjawisk i
dziedzin filozofia jest zdolna w sposób jednolity i spójny objąć i zrozumieć, tym większa
jej wartość poznawcza.

Po drugie, systemowo rozumiana filozofia jest – a w każdym razie winna być –

względem nauk szczegółowych autonomiczna. Autonomia to nie niezależność, lecz
swoistość i samodzielność. Ponieważ filozofia nie jest ani dyscypliną doświadczalną, ani –
na poziomie teoretycznym – nie stara się konkurować z naukami szczgółowymi w
odniesieniu do ich własnych dziedzin, również ona musi bazować na faktach i teoriach
naukowych. śadna dyscyplina poznawcza, która nie liczyłaby się z osiągnięciami
współczesnej nauki, nie mogłaby być traktowana poważnie, nie zasługiwałaby na
zaufanie. Toteż filozofia uwzględnia osiągnięcia nauk szczegółowych, ale ustalenia ich
poddaje własnej problematyzacji i konceptualizacji; są one dla niej jedynie punktem

background image

wyjścia, a nie instancją zwierzchnią w kategoriach sensu i ważności. Filozofia nie zakłada
dogmatycznie prawdziwości naukowej wiedzy o świecie, przyjmuje ją hipotetycznie –
wiedza ta może w wyniku ontologicznej pracy badawczej zostać poddana reinterpretacji.
Inaczej mówiąc, poszczególne nauki szczegółowe nie stanowią dla filozofii wyroczni,
lecz, by tak rzec, bazę danych.

Po trzecie, dociekania filozoficzne cechuje dążenie do rozwiązań ostatecznych (w

sensie rzeczowym, nie historycznym), to jest takich, z którymi można się zgadzać bądź
nie, ale które – na gruncie danego systemu filozoficznego – już nie wymagają dalszego
zgłębiania, bo wyrażone są w kategoriach pierwotnych tego systemu [=fundamentalizm
docieranie do źródeł, „korzeni rzeczy”]. Innymi słowy, filozofię cechować musi
samowystarczalność – w tym sensie, że uzasadnienia jej tez winny dostarczać jej własne
zasoby konceptualne.

Taki całościowy projekt filozoficzny wymaga odpowiedniego języka i sposobu

konceptualizacji, mianowicie:

- zespołu odpowiednio ogólnych kategorii i zasad, stosujących się do wszystkich

dziedzin bytowych (sposób istnienia, natura, materia, forma, atrybut, kategorie modalne
[mozliwość, konieczność], zasada racji dostatecznej, etc.). Winny wśród nich znajdować
się kategorie mające charakter relacji przechodnich, gdyż tylko takie mogą zagwarantować
spójne poruszanie się po wszystkich dziedzinach przedmiotowych.

- konceptualizacji związków pomiędzy dziedzinami bytowymi o odmiennej

naturze. Przedmiotem zainteresowania filozofii nie jest żaden poszczególny byt
indywidualny, lecz całe dziedziny bytu i związki pomiędzy nimi, w szczególności zaś
zjawiska graniczne powstające na styku różnych dziedzin bytu czy różnych nauk
szczegółowych – fizyki i biologii, biologii i psychologii, psychologii i ekonomii, etc. –
których w związku z tym żadna nauka szczegółowa nie jest w stanie sama rozwiązać.
Dzięki teorii takich zjawisk filozofia pozwala na przykład powiązać to, co o mózgu mówi
fizjologia, z tym, co o umyśle mówi psychologia (problem psychofizyczny), dziedzinę
tego co immanentne [subiektywne] i tego co transcendentne [obiektywne] (problem
poznania), poczucie bycia wolnym z tezą determinizmu (problem wolnej woli), dziedzinę
tego co jest i co być powinno (etyka), konkrety i abstrakty (problem uniwersaliów), itp.

Jednolity repertuar pojęciowy zapewnia spójność wewnętrzną samej filozofii,

natomiast teoria zjawisk granicznych zapewnia spójność filozofii z naukami
szczegółowymi, które odnoszą się wszak do tej samej rzeczywistości co filozofia, tyle że
do jej ograniczonych dziedzin. Niezależnie od tego, konceptualna spójność pozwala w
wielości i różnorodności zjawisk dopatrzeć się jedności, a fundamentalne, uniwersalne
zasady pozwalają w tym co zmienne zobaczyć podleganie pewnym ogólnym prawom.

Taki sposób pojmowania zadań i charakteru filozofii można odnaleźć u większości

wybitnych filozofów przeszłości – np. u Platona, Arystotelesa, Tomasza, Kartezjusza,
Spinozy, Leibniza, Kanta, Fichtego, Hegla, Bergsona, Husserla, Schelera, Hartmanna,
Whiteheada – których wielkość na tym zresztą przede wszystkim polegała, że byli oni
twórcami pewnych systemów, którzy wszystkie zagadnienia ujmowali za pomocą
jednolitego zespołu fundamentalnych pojęć, a problemy rozwiązywali odwołując się do
pewnych naczelnych czy fundamentalnych zasad.

A jak wyglądają sprawy dziś? Najkrócej mówiąc, niewesoło. Filozofia systemowo

rozumiana i uprawiana, jest dzisiaj w stanie uwiądu, i to z trzech różnych powodów. Po
pierwsze, trudno dziś być kompetentnym znawcą wszystkich istotnych dla dociekań

background image

filozoficznych nauk szczegółowych – matematyki, fizyki, astronomii, biologii,
neurofizjologii, językoznawstwa, informatyki, etc. Po drugie, wewnątrz samej filozofii –
vide postmodernizm – wpływowe są argumenty wskazujące, że czas systemów
filozoficznych bezpowrotnie minął, i że dobrze, iż tak się stało, bowiem całościowość
idzie w parze z totalitaryzmem, a totalitaryzm wyklucza się z demokracją. Po trzecie, winę
za wspomniany uwiąd ponosi instytucjonalizacja – a w praktyce wręcz biurokratyzacja –
badań. Dzisiaj filozofowie są najczęściej etatowymi pracownikami instytucji
akademickich, których działalność poddana jest planowaniu i kontroli, a pracownicy
rozliczani są z efektów swej pracy, których podstawowym miernikiem są publikacje. Nie
sprzyja to szerzej i głębiej zakrojonym przedsięwzięciom o charakterze systemowym,
które z istoty swej wymagają wielu lat przemyśleń, a przy tym nie gwarantują sukcesu i
nie owocują częstymi publikacjami.

Zadaniem filozofii systemowej byłoby dziś przezwyciężenie daleko posuniętej

specjalizacji i podziału pracy poznawczej, w związku z czym winna być ona, by tak rzec,
myśleniem bez granic. To co naturalne w nauce – niezależnie od siebie uprawiane
specjalizacje – w filozofii nie może być zaakceptowane, gdyż do jej samookreślenia
należy to, że nie jest ona nauką szczegółową, że przedmiotem jej jest Całość.

Owo przezwyciężenie podziału pracy nie dotyczy zresztą tylko potrzeby jakiejś

integracji wyników nauk szczegółowych; dotyczy również samej filozofii, która
rozparcelowana została – szczególnie w czasach współczesnych – na mnogość
subdyscyplin i specjalności, uprawianych niezależnie jedna od drugiej.

*

Podobnie jak w obrębie filozofii światopoglądowej, również w ramach filozofii

systemowo uprawianej można wyróźnić dwie jej odmiany, czy dwa typy.

Powstanie nowożytnej nauki i towarzyszącej jej samowiedzy metodologicznej

pozwoliło w ramach tradycyjnej teorii bytu rozróżnić – retrospektywnie – dwa typy
dyskursu, uprzednio nie rozróżniane, choć cały czas obecne. Nazywam te dyskursy

odpowiednio ontologicznym i metafizycznym, choć o terminologię nie będę się spierał16.

Również dziś, w obliczu istnienia rozwiniętych nauk szczegółowych, w grę

wchodzą według mnie dwie zasadnicze możliwości poznawczego [zorientowanego na
dyskursywne dążenie do prawdy, tj. na uzyskanie wiedzy] filozofowania na temat bytu. Po
pierwsze, możliwość nauki, która nie byłaby nauką szczegółową (=ontologiczna teoria
tego wszystkiego, co obiektywnie istniejące, tj. niezależne od podmiotu [„kosmosu
zewnętrznego”]). Po drugie, możliwość wiedzy [episteme, w odróżnieniu od doxa], która
nie byłaby wiedzą naukową [=meta-fizyczna teoria tego co transsubiektywne, tj. „kosmosu
wewnętrznego”].

Oto wstępna komparatywna charakterystyka tych dwu typów dyskursu:
1. Zasadniczym wyróżnikiem naukowego – oraz jednorodnego z nim,

ontologicznego – opisu świata jest nieobecność kategorii podmiotu, w konsekwencji czego
ś

wiat traktowany tu jest nie jako pojmowany z perspektywy jakiegoś podmiotu (czy

podmiotu w ogóle), lecz jako świat „niczyj”, nie umieszczony w żadnym układzie
odniesienia, niejako widziany „znikąd”. Nauka pojmowana jest jako neutralne medium

16 Można by np. zamiennie mówić o dyskursie naturalistycznym i antynaturalistycznym, albo o
transcendentnym i transcendentalnym, albo wreszcie o dogmatycznym i krytycznym.

background image

ujawniania, czy też odkrywania obiektywnej rzeczywistości. Odpowiednio, ontologia to
fundamentalna i całościowa teoria świata obiektywnego (tego co istnieje niezależnie od
wszelkiego podmiotu). Stanowi ona najogólniejszą teorię tej samej rzeczywistości, jaką
badają nauki szczegółowe, jest więc tym samym współwymierna z nauką, uprawiana w
podobnym jak ona, obiektywistycznym nastawieniu, różniąc się od niej tylko sposobem
problematyzacji, poziomem ogólności i nieempirycznym charakterem swych pojęć i
twierdzeń.

Dyskurs metafizyczny natomiast wypływa nie z namysłu nad tajemnicami kosmosu

czy świata przedmiotowego w ogóle, lecz z namysłu podmiotu nad samym sobą i swoim
miejscem w świecie. Jego źródłem jest uczucie metafizyczne czy też metafizyczny stan
duszy
, polegający na pewnym rozdarciu: jednoczesnym doświadczaniu przynależności do
obiektywnie istniejącego kosmosu i nie mieszczenia się w nim [nie identyfikowania się z

nim, odczuciu jego niewspółmierności czy wręcz obcości]17.

Próbą jego usunięcia są właśnie różne formy myślenia metafizycznego18. Odbywa

się to poprzez pewnego rodzaju „oswojenie” bytu za pomocą kategorii sensu, choć nie
zawsze w tym kontekście pojawia się słowo „sens”. (Pascal mówił na przykład o racjach
serca
).

2. W ramach dyskursu ontologicznego dociekania prowadzi się niejako z zewnątrz

bytu, jest on teorią Całości ujętej z transcendentnego względem niej punktu widzenia.
Metafizyka natomiast zakłada transcendentalny punkt widzenia. Dyskurs metafizyczny
jest myśleniem niejako z wnętrza bytu, ma strukturę typu część-całość, tj. strukturę
samowiedzy – jest takim typem narracji, którego przedmiot obejmuje zawsze (choć jedynie
implicite) filozofujący podmiot, tak że niezależnie od literalnego przedmiotu dyskursu
trzeba powiedzieć: de te fabula narratur (Horacy).

W parze z tą odmiennością punktów widzenia idzie odmienność postaw podmiotu.

Z jednej strony jest to neutralna postawa obserwatora, z drugiej zaś angażująca postawa
uczestnika. Jeśli [jak to ma miejsce w nauce i ontologii] zajmujemy postawę
niezaangażowanego obserwatora, o rzeczywistości myślimy czysto opisowymi
kategoriami rzeczy i jej pochodnychprzedmiot rozważań jawi się nam jako rzecz,
własność rzeczy, stan rzeczy, relacja pomiędzy rzeczami, itp. Jeśli natomiast patrzymy z
perspektywy zaangażowanego uczestnika [a to jest właśnie perspektywa metafizyki],
wówczas o rzeczywistości myślimy kategoriami wartości – ocen, powinności, dóbr,
sensów.

17 Oto typowy wyraz tego stanu ducha: „Kiedy zważam krótkość mego życia, wchłoniętego w wieczność
będącą przed nim i po nim, kiedy zważam małą przestrzeń, którą zajmuję, a nawet którą widzę, utopioną
w nieskończonym ogromie przestrzeni, których nie znam i które mnie nie znają, przerażam się i dziwię, iż
znajduję się raczej tu niż tam, nie ma bowiem racji, czemu raczej tu niż gdzie indziej, czemu raczej teraz
niż wtedy... Wiekuista cisza tych nieskończonych przestrzeni przeraża mnie”. To oczywiście Pascal. Ale
Pascal nie tragizuje, on jedynie wyraża dramatyzm ludzkiej egzystencji. [Sytuacja jest tragiczna, kiedy nie
ma z niej dobrego wyjscia. Tymczasem Pascal dostrzega wyjście: "Przestrzenią wszechświat ogarnia mnie
i pochłania jak punkt; myślą ja go ogarniam. Nie w przestrzeni powinienem szukać swej godności, ale w
porządku własnej myśli"].
18 Różne, bowiem owo zaburzenie równowagi wewnętrznej, cechujące metafizyczny stan duszy, może
znajdować remedium w różnych formach ekspresji: w mitologii, gdzie pożądaną współmierność uzyskuje
się w drodze antropomorfizacji przyrody i w praktykach magicznych; w religii (poprzez
antropomorfizację Absolutu); w sztuce, która nie dając rozwiązań, w rozmaity sposób wyraża ten stan
ducha czy tę nieprzystawalność człowieka i kosmosu; w filozofii wreszcie [metafizyka tout court].

background image

Pierwszy typ dociekań prowadzony jest w postawie obiektywistycznej, traktującej

podmiotowość jedynie jako narzędzie ujawniania tego, co istnieje – i jest jakie jest –
niezależnie od podmiotu, drugi natomiast w postawie obiektywizującej, explicite
uwzględniającej ekspresje podmiotowości. Dyskurs metafizyczny nie jest bezstronnym
odzwierciedlaniem tego co obiektywne, lecz czynnym samookreśleniem się poprzez
ekspresje; metafizyka nie jest rezultatem contemplatio, lecz autopoiesis (samostwarzanie,
w sensie samookreślenia się).

W metafizyce nie chodzi jednak o czystą ekspresję, lecz o poznanie. Poznaniem

metafizycznym jest taki sposób myślenia o rzeczywistości, w ramach którego dochodzi do
wyraźnego uwzględnienia i próby wintegrowania w rzeczywistość subiektywności jako

takiej, tj podmiotu transcendentalnego, a nie psychologicznego19.

W ontologii pojęcie podmiotu się nie pojawia, jest natomiast centralnym

problemem metafizyki

20

.

Powyższą sytuację można też wyrazić następująco. Zarówno fundamentalne dla

ontologii pojęcie substratu, jak i pojęcie podmiotu, etymologicznie wywodzą się od
jednego greckiego słowa hypokeimenon, które znaczy „coś co leży (znajduje się) pod
czymś innym”, co więc stanowi podstawę. Konceptualizację ontologiczną bądź
metafizyczną uzyskuje się zatem w zależności od tego, jak zinterpretuje się ten ostatni
termin.

3. Metodologicznie pierwszy typ dyskursu można określić jako dziedzinę Logosu,

gdyż dyskurs rządzony jest tu przez związki znaczeniowe pomiędzy przedstawieniami
poznawczymi, a tym samym przez zasady logiki. Metafizyczny typ dyskursu można
natomiast określić jako dziedzinę Ratio, czyli dziedzinę związków sensu, bo pytania

metafizyczne to pytania o sens; rządzony on jest przez zasady racjonalności21 .







III. Podstawowe pojęcia ontologii


Pojęcie bytu

19 Inaczej jest w religii i sztuce, w których znajduje wyraz niepodmiot jako taki, lecz konkretne
indywiduum – osobowość, podmiot psychologiczny.
20 Myśliciele przywoływani jako przykład epistemologicznego zwrotu w filozofii - Kartezjusz, Kant,
Fichte, Husserl - to nie epistemologowie, lecz metafizycy. To że wychodzą oni od podmiotu, nie znaczy, że
mówią o poznaniu; mówią o sposobie bycia pewnego bytu, mianowicie osoby ludzkiej.
21 Według mojego rozumienia tych terminów, kategoria znaczenia jest wtórna [pochodna] względem
kategorii sensu, co z jednej strony pociąga za sobą to, że logika jest wtórna względem racjonalności, z
drugiej zaś to, że ontologia jest instrumentem metafizyki.

background image

Najogólniejszym

pojęciem

ontologii

jest

byt.

Jest

on

filozoficznym

odpowiednikiem należącego do języka potocznego słowa „coś”. W języku potocznym nie
troszczymy się o definicje, precyzję, jednoznaczność itp., wystarczają intuicje bądź
znajomość kontekstów użycia danego słowa. Natomiast z chwilą gdy jakiś termin staje się
częścią języka filozofii, winien zostać uściślony, w miarę możliwości zdefiniowany.
Wymaga to eksplikacji (uwyraźnienia, rozjaśnienia, sprecyzowania) implicite zakładanego

znaczenia22. Spróbujmy dokonać takiej eksplikacji.

Zacznijmy od tego, że byt to termin abstrakcyjny wywodzący się od bynajmniej nie

abstrakcyjnego czasownika "być"

23

. Wszystkie znaczenia czasownika być należą do jednej

z dwu grup – czasowników przechodnich, tj. wymagających dopełnienia (np. "dawać")
bądź nieprzechodnich (np. "kwestować”). Nie jest to podział rozłączny – istnieją takie
czasowniki, które są zarazem przechodnie i nieprzechodnie (np. "śpiewać"). Do tej
ostatniej grupy należy właśnie nasze "być". W sensie przechodnim znaczy ono "być czymś
bądź jakimś" (np. "3 jest liczbą", "3 jest liczbą pierwszą"). Ogół tego rodzaju znaczeń
tworzy sens predykatywny czasownika "być". Natomiast nieprzechodnie znaczenie tego
czasownika służy do stwierdzania istnienia (np. "Myślę, więc jestem", „Jam jest, który
jest”), można więc powiedzieć że ma ono sens egzystencjalny.

W związku z powyższym możemy powiedzieć, że przez byt rozumiemy coś, co

zarówno jest czymś określonym, jak i jakoś (w pewien sposób) istnieje.

Oderwane istnienie, które nie byłoby istnieniem czegoś, nie jest oczywiście

możliwe. Z drugiej strony, jeśli coś jest czymś określonym, to tym samym jakoś (w
pewien sposób) istnieje. Pod jednym wszakże warunkiem. Jakoż, określoności o których tu
mowa mogą być zarówno obiektywnie posiadanymi determinacjami, jak i określeniami

przypisanymi czemuś za pomocą języka (predykacjami)24. Jeśli w obręb „określenia”
włączyć predykacje – co wydaje się sensowne, bo przecież ontologia jest zbiorem
wypowiedzi predykatywnych – wówczas byty wyznaczone przez predykacje można
określić mianem przedmiotów, gdyż są one czymś określonym przez i dla jakiegoś
podmiotu (użytkownika języka). Zbiór przedmiotów zawiera się zatem w zbiorze bytów –
każdy przedmiot jest bytem, choć nie każdy byt jest przedmiotem. Te byty, które nie są
przedmiotami można określić jako pozaprzedmiotowe.

Przedstawione pojęcie bytu dopuszcza więc również byty będące jedynie

przedmiotowymi korelatami pojęć i opisów, a więc czymś przez te pojęcia (opisy)
wyznaczonym (na przykład obiekty matematyczne, kwarki, rozmaite Pegazy, Rusałki czy
fikcyjne postacie literackie zaludniające dramaty Szekspira). Otóż warunkiem istnienia
przedmiotu jest wewnętrzna niesprzeczność odpowiedniego pojęcia czy opisu (określenia
językowego). Nie wszystkim zatem określeniom językowym odpowiadają jakieś

22 Uwaga. Eksplikacji nie należy mylić z eksplanacją, tj. procedurą wyjaśniania. Pierwsza dotyczy
znaczenia terminów, natomiast druga dotyczy poszukiwania odpowiedzi na jakieś zagadnienie poznawcze.
23 Na marginesie: mamy tu do czynienia ze sposobem tworzenia pojęć, polegającym na rekategoryzacji, tj
na tworzeniu kategorii pochodnych względem jakiejś kategorii wyjściowej. Wychodząc np. od nie
budzącego wątpliwości, ostensywnie definiowalnego predykatu „zielony”, możemy utworzyć termin
abstrakcyjny „zieleń”; tym samym przechodzimy od kategorii własności do kategorii rzeczy; inne
przykłady: dobry-dobro, sprawiedliwy-sprawiedliwość, możliwy-możliwość, wartościowy-wartość, itp.
24 Jedne z drugimi można utożsamiać tylko pod warunkiem, że nasze wypowiedzi o rzeczywistości są
prawdziwe.

background image

przedmioty – na przykład kwadratowe koło czy zbiór wszystkich zbiorów25 (to ostatnie
przy dystrybutywnym rozumieniu zbioru; przy rozumieniu kolektywnym takim zbiorem
wszystkich zbiorów jest rzeczywistość).

*

W dziejach ontologii często występowały jednostronne, okrojone pojęcia bytu

rozumianego bądź jako coś określonego, bądź jako coś istniejącego. Toczono nawet spory,

które z nich jest właściwsze26. Według mnie jest to spór bezsensowny, analogiczny do
tego, która strona – lewa czy prawa – jest wcześniejsza. Różnica między tymi dwoma
ujęciami jest pozorna, bo są one równoważne [choć nie równoznaczne], jedna implikuje
drugą. Mamy tu do czynienia z równoważnością w sensie logicznym (=implikacją w obie
strony): 1.Jeżeli x istnieje, to x jest czymś, 2. Jeżeli x jest czymś, to x istnieje; w skrócie: x
istnieje

x jest czymś.

Dodatkowe argumenty historyczne przeciwko takim jednostronnym ujęciom.
1. Grecy, którym zawdzięczamy pojęcie bytu, nie mieli odpowiednika czasownika

istnieć czy terminu istnienie (egzystencja). Termin ten do języka filozoficznego
wprowadzono dopiero w 4 wieku n.e. kiedy przetłumaczono greckie słowo hyparkein
[pochodnego od

νπο

– ex i

αρχη

] jako existentia (dotyczyło to Boga jako zasady, z

którego wyłaniają się (sistere) kolejne byty. Sami Grecy natomiast aspekt egzystencjalny
bytu uzyskiwali dzięki nieprzechodniemu sensowi czasownika einai – być. Byt = to on [on
– „będące(y)” – imiesłów od czasownika einai]; wraz z dodatkiem słówka to
[odpowiednik the w języku angielskim] uzyskujemy więc coś określonego i istniejącego
zarazem. (O tym zatem, czy w danym sformułowaniu chodziło o bycie czymś czy o
istnienie, rozstrzygała składnia językowa).

2. Jednostronne pojęcie bytu prowadzi do antynomii. Antynomia to sytuacja, w

której zmuszeni jesteśmy uznać zdania wzajemnie się ze sobą wykluczające – na przykład

sprzeczne (tj. jakieś zdanie i jego negację)27. Jest to zawsze sygnał, że gdzieś w naszym
myśleniu tkwi błąd. Antynomia może być np. konsekwencją błędnej konceptualizacji.

25Jeśli przez n oznaczymy liczbę wszystkich zbiorów, to zbiór wszystkich zbiorów powiększy tę liczbę
przynajmniej o jeden zbiór, i wszystkich zbiorów będzie n+1 - a prawdę powiedziawszy o wiele więcej,
gdyż pojawią się automatycznie nowe podzbiory, będące również zbiorami. Zatem słowo "wszystkie" nie
odnosi się do wszystkich zbiorów, jest więc wewnętrznie sprzeczne. W konsekwencji niemożliwy jest
obiekt będący zbiorem wszystkich zbiorów. Sądzę, że okoliczność ta uszła uwadze matematyków.
Ponieważ zaś pojęcie to prowadzi do antynomii, w związku z tym czuli się oni zmuszeni wprowadzić
aksjomatykę wykluczającą taki obiekt z dziedziny teorii mnogości. Akt ten jako argument w dyskursie
matematycznym jest mniej więcej tyle samo wart, co uderzenie pięścią w stół dla przekonania kogoś o swej
racji.
26 Zachariasz: „Tradycyjnie próbowano rzeczywistość wyjaśnić poprzez „określoność”, utożsamianą z
bytem jako tym co jest czymś; ja podejmuję próbę jej ujęcia poprzez „jest” [bycie] czy też raczej
bezokolicznik być, istnieć (eimi) i właściwy w tym przypadku rzeczownik „istnienie”. Dotychczasową
ontologię zastępuję więc przez einanologię [teorię istnienia – od einai]. „Istnienie” wydaje się pojęciem
bardziej podstawowym, ogólniejszym niż określoność”.
27 Na marginesie – antynomię należy odróżniać od paradoksu. Paradoks to wniosek trudny do
zaakceptowania, nieoczekiwany, niezgodny z naszymi intuicjami. Czasem trzeba powiedzieć „trudno” i
pogodzić się z paradoksem, uznając, że to intuicja nas zawodzi. Taki jest np. przypadek równoliczności
zbioru punktów odcinka i zbioru punktów kwadratu o boku równym temu odcinkowi. Inny przykład to
teza, że część jest mniejsza od całości, która wydaje się oczywista, a która jest nieprawdziwa w
odniesieniu do zbiorów nieskończonych. Jeszcze inny przykład to tzw. paradoks bliźniąt znany ze

background image

Rozważymy dla przykładu taką właśnie sytuację. Chodzi o znaną – a zarazem jedną

z najbardziej enigmatycznych i najbardziej dyskutowanych w filozofii – tezę Parmenidesa,
która w tradycyjnym przekładzie brzmi następująco: „Byt jest [=istnieje], niebytu nie ma
[=nie istnieje]”. Przyjmijmy najpierw, że przez byt Parmenides rozumiał coś istniejącego.
Cóż to w takim razie jest niebyt? Wydaje się oczywiste, że coś nieistniejącego. Ale
wówczas teza Parmenidesa byłaby prawdą analityczną, tj. zdaniem prawdziwym na mocy
swego znaczenia [typu „Wszyscy kawalerowie są nieżonaci”], bo oczywiście czegoś
nieistniejącego nie ma. Takie zaś prawdy niczego nie mówią o świecie, nie mają żadnej
wartości poznawczej. A zatem należy przypuszczać, że Parmenidesowi chodziło o coś
innego.

Spróbujmy zatem drugiej możliwości: byt to coś określonego (coś będące

czymś/jakimś). W ten sposób otrzymujemy jednak właśnie antynomię. Oto ona: niebyt
musi czymś być, bo w przeciwnym razie czego istnieniu zaprzeczamy, mówiąc że nie
istnieje? Zatem niebyt zarazem jest [czymś], jak i nie jest [nie istnieje].

Łatwo widać, na czym polega błąd prowadzący do tej antynomii, mianowicie na

tzw. ekwiwokacji, gdyż ten sam termin – mianowicie słówko jest – użyto tu w dwu
znaczeniach, predykatywnym i egzystencjalnym. Antynomii unikniemy, jeśli nie
będziemy ze sobą mieszać tych dwu znaczeń. Wymaga to jednak modyfikacji
prowadzącego do niej określenia bytu. Byt to nie po prostu coś istniejącego, lecz coś co
zarazem jest czymś oraz istnieje. Proszę zauważyć, że mamy wówczas do czynienia ze
zdaniem złożonym będącym koniunkcją dwu zdań prostych: 1. Byt jest czymś (p), 2. Byt
istnieje (q); w języku formalnym: p

q.

Co w tej nowej sytuacji będzie znaczył „niebyt”? Zależy to od tego, czy przez niebyt

rozumieć negację bytu, czy jego przeciwieństwo

28

.

Zbadajmy te dwie odmienne sytuacje.

1. Negacją koniunkcji dwu zdań jest alternatywa negacji każdego z nich: ~(p

q) =

~p

~q. Innymi słowy niebyt albo nie jest czymś, albo nie istnieje. Może więc być tak, że

jest on czymś, a mimo to nie istnieje, żadnej sprzeczności tu nie ma. Przykładem tak
rozumianego niebytu jest np. Pegaz, eter, flogiston. Sedno tego co przy takim rozumieniu
niebytu (jako negacji bytu) ma do powiedzenia Parmenides jest więc takie, że nie
wszystkim niesprzecznym określeniom językowym coś odpowiada w bycie; fikcjom
mianowicie nic nie odpowiada. Rzecz w tym jednak, że nie zawsze wiadomo, co jest, a co
nie jest fikcją.

2. Przeciwieństwem koniunkcji dwu zdań jest koniunkcja ich negacji: ~(p

q)=

~p

~q (zaprzeczamy oba człony zdania). Zatem niebyt ani nie jest czymś, ani nie istnieje.

Innymi słowy, niebyt rozumiany jako przeciwieństwo bytu to Nic, czy też Nicość. Tutaj
mamy wewnętrzną sprzeczność, gdyż określenie nicości jest wewnętrznie sprzeczne („coś,
co jest niczym, czyli co nie jest czymś”). A ponieważ przedmioty wewnętrznie sprzeczne
nie istnieją, są wykluczone, zatem Nicość oczywiście nie istnieje. A zatem „byt jest,
niebytu nie ma” i wszystko jest w porządku.

szczególnej teorii wzgledności; tutaj winę ponosi nasze przekonanie, że relacja równoczesności jest
niezmiennikiem przekształceń czasu, że więc czas wszędzie płynie tak samo we wszystkich układach
odniesienia, że ma charakter absolutny.
28 Przykłady ilustrujące, że negacja i przeciwieństwo to nie to samo. 1. biały – nie-biały [np. żółty] –
czarny; 2. każdy – nie każdy [„niektóre nie”] – żaden.

background image

W powyższych rozważaniach zakładaliśmy milcząco, że wiemy co to znaczy

istnieć, a rozstrzygaliśmy jedynie czy coś istnieje, czy nie. Otóż można również – a
według mnie nawet należy – zróżnicować samą kategorię istnienia, wprowadzając pojęcie
różnych sposobów istnienia (niezadługo będę o tym mówił szerzej). Nie musimy wówczas
przyjmować pierwszej z wykładni tezy Parmenidesa i twierdzić np., że Pegaz nie jest
bytem, gdyż nie istnieje. Nie istnieje w realnej czasoprzestrzeni, ale istnieje wszak – jako
przedmiot odpowiedniego wyobrażenia – w pewnym świecie wyobrażonym. Nie ma
powodu, aby tego rodzaju tworom odmawiać miana bytu, rzecz w tym tylko, aby
towarzyszyło temu określenie ich sposobu istnienia. W przeciwnym razie trzeba by
odmówić miana bytu takim tworom jak obiekty matematyczne, które też przecież nie
istnieją w żadnej czasoprzestrzeni.

*

W ramach bycia w sensie predykatywnym należy odróżnić dwa przypadki – bycie

czymś, tj. posiadanie pewnej tożsamości, co polega na należeniu do jakiegoś rodzaju (np.
bycie kamieniem, cytryną, umysłem, figurą geometryczną) resp. do jakiejś kategorii bytu
(np. bycie rzeczą, relacją, zdarzeniem – o tym za chwilę) i bycie jakimś, tj. posiadanie
określonej własności (odpowiednio: bycie ciężkim, kwaśnym, inteligentnym, płaskim). W
pierwszym przypadku odnośna kwalifikacja dotyczy całego bytu, w drugim stanowi jedną
z wielu jego własności.

Wśród własności posiadanych przez jakiś byt można wyróżnić takie, które są

istotne dla jego bycia czymś, tj. takie dzięki którym jest on tym, czym jest (na przykład
posiadanie miąższu w przypadku owocu) – własności takie nazywa się atrybutami – oraz

nieistotne, nazywane akcydensami (na przykład masa bądź temperatura owocu)29. Zespół
atrybutów określa istotę oraz naturę danego bytu, tj. przesądza o jego przynależności do
bytów określonego rodzaju [zbioru w sensie dystrybutywnym] bądź do określonej
dziedziny bytów o jednakowym sposobie powstawania i funkcjonowania [zbiór w sensie
kolektywnym].

[Byty mające różną istotę mogą mieć taką samą naturę. Lwy należą na przykład do

innego rodzaju niż węże, a mają taką samą naturę – i jedne i drugie są zwierzętami (i to w
dodatku mięsożernymi), a tym samym funkcjonują według podobnych zasad. I odwrotnie,
byty mające różną naturę, mogą mieć taką samą istotę (na przykład serce naturalne i
sztuczne). Zauważmy, że niezależnie od tego, czy określenia posiadane przez byt mają
charakter obiektywnych własności, czy też są wyznaczone przez predykaty, nie ma to
wpływu na istotę tego bytu. Zależy natomiast od tego natura tego bytu. Hamlet z istoty
swej jest człowiekiem, natomiast jego natura jest inna niż człowieka realnie istniejącego.
Realna osoba posiada na przykład ciało zbudowane z atomów i istnieje w realnej
przestrzeni, natomiast postać fikcyjna ukonstytuowana jest z wyobrażeń].

*

Bycie czymś polega nie tylko na posiadaniu własności (uposażenia jakościowego),

przesądzającego o naturze/istocie, lecz i na posiadaniu tożsamości formalnej. Pod tym
drugim względem bycie czymś polega na należeniu do określonej kategorii ontologicznej,
tj. – przykładowo – na byciu rzeczą, jakością (cechą nierelacyjną), relacją (cechą

29 Dokonujemy tu zatem podziału uniwersum własności za pomocą kryterium istotności.

background image

relacyjną), stanem rzeczy, procesem bądź zdarzeniem30. Wszystko co istnieje podpada
pod którąś z takich formalnych kategorii, choć ontolodzy różnią się co do tego, ile i jakie
kategorie bytu należy wyróżnić.

Mówiąc ogólnie, kategorie to najwyższe rodzaje bytu. Każdy byt ma swoją istotę,

zatem należy do pewnego rodzaju (zbioru dystrybutywnego). Ale rodzaje mogą być
bardziej lub mniej ogólne – np. człowiek jest zarówno istotą rozumną, ssakiem,
naczelnym, kręgowcem itp., a są to wszystko określenia rodzajowe. O istocie danego bytu
stanowi jego przynależność do rodzaju najbliższego. Na dole tej hierarchii ogólności
znajdują się indywidua (byty w pełni określone). Natomiast wszystkie byty rodzajowe są
bytami niedookreślonymi (w ich strukturze występują zmienne); używa się też w
odniesieniu do nich nazwy uniwersalia. Rodzaj najniższy nazywa się z reguły gatunkiem,

a najwyższy stanowi właśnie określoną kategorię bytu31.

Podział bytów według kategorii jest podziałem zbioru wszystkich bytów na pewne

ich podzbiory czy też klasy. Ale te klasy nie są bytami pozaprzedmiotowymi, podobnie jak
klasa liczb pierwszych nie jest liczbą pierwszą. Znaczy to, że kategorie i rodzaje bytu same
nie są bytami pozaprzedmiotowymi, lecz są jedynie przedmiotami.

[Pytanie: czy rodzaje i gatunki są zbiorami? A jeśli tak, czy są to zbiory

kolektywne, czy dystrybutywne?]

Teoria bytu winna rozstrzygnąć, ile jest i jak się mają do siebie poszczególne

kategorie, a w szczególności która z nich jest pierwotna. Tutaj odpowiedzi bywają różne.
Najczęściej twierdzi się, że pierwotną jest kategoria rzeczy. Pierwszym filozofem który to
wyraźnie twierdził był Arystoteles. Według niego wyróżniony status ontyczny rzeczy
polega na tym, że mogą być one jedynie podmiotem określeń, natomiast same nie mogą

być określeniem czegoś innego32. Natomiast każda następna kategoria w wyżej
przykładowo wymienionym szeregu kategorii zakłada – według Arystotelesa - poprzednią,
może się pojawić tylko na jej fundamencie: jakości są zawsze jakościami pewnej rzeczy,
relacje występują między rzeczami bądź jakościami, stan rzeczy zakłada istnienie relacji,
proces jest zmianą pewnego stanu rzeczy, a zdarzenie jest wyodrębnioną fazą procesu.
Innymi słowy, byty należące do kolejnych kategorii w tym szeregu są mniej samodzielne
od bytów należących do kategorii wcześniejszych; najbardziej samodzielną jest kategoria

30 Mężczyzna na przykład jest rzeczą, a barwa jego skóry jakością; małżeństwo jest stanem rzeczy, a
bycie małżonkiem - relacją; współżycie małżeńskie to proces, a zajście w ciążę - zdarzenie.
31 Husserl: „Schodząc w dół docieramy do najniższych różnic gatunkowych albo, jak również mówimy, do
eidetycznych odmian najbardziej szczegółowych; wznosząc się w górę poprzez istoty gatunkowe i
rodzajowe – do najwyższego rodzaju. Eidetyczne odmiany najbardziej szczegółowe są istotami, które
wprawdzie koniecznie maja nad sobą „ogólniejsze” istoty jako swe rodzaje, ale pod sobą już nie mają
uszczegółowień, w odniesieniu do których one same byłyby gatunkami (najbliższymi gatunkami albo
pośrednimi, wyższymi rodzajami). Tak samo ten rodzaj jest najwyższy, który ponad sobą już nie ma
ż

adnego więcej rodzaju”(Idee).

32 Mała uwaga w odniesieniu do Arystotelesa. Często nie wiadomo, czy chodzi mu o kategorie logiczne
(rodzaje określeń językowych) – a zatem o związki logiczne między kategoriami – czy o kategorie bytu.
Powiada on np., że tyle jest rodzajów bytów, ile sposobów orzekania (kategorii). Sądzę, odwrócił on tu kota
ogonem, że należy to ująć odwrotnie: tyle jest sposobów orzekania, ile rodzajów bytów. W przeciwnym
razie damy prymat predykacji nad determinacją. Natomiast formuła A mogłaby być następująco
zmodyfikowana: tyle jest rodzajów przedmiotów, ile sposobów orzekania.

background image

rzeczy. Rzeczy stanowią zatem według Arystotelesa fundament wszystkich innych
kategorii bytowych.

Z uwagi na ten wyróżniony status, kategoria rzeczy posiada u Arystotelesa

dodatkową nazwę, mianowicie ousia, co na język polski tłumaczy się z reguły – niezbyt
według mnie trafnie – jako substancja. Dlaczego nietrafnie? Rzecz w tym, że jest tu pewna
dwuznaczność, związana z dwoma znaczeniami czasownika być, a tym samym bycia.
Arystotelesowska substancja to coś, co ma podstawę swego bycia czymś w samym sobie, a
więc jest bytem kategorialnie samodzielnym. Otóż samodzielność nie musi iść w parze z

samoistnością33, a współcześnie z pojęciem substancji wiąże się raczej moment
samoistności.

Są też jednak inne ujęcia związku między kategoriami bytu. Przykładowo, według

Wittgensteina podstawową z tych kategorii jest stan rzeczy (świat jest zbiorem faktów, a
nie rzeczy, przy czym fakt to zachodzenie pewnego stanu rzeczy). Według Whiteheada
ś

wiat jest zbiorem procesów, a nie rzeczy. Według Leszka Nowaka pierwotna jest

kategoria własności (atrybutywizm). U Wittgensteina nie stoi za tym żadna głębsza teoria,
chodzi raczej o właściwą semantykę, tj. sposób mówienia (o związki logiczne między
kategoriami), w przeciwieństwie do Whiteheada i Nowaka, u których mamy do czynienia
z ważnymi propozycjami ontologicznymi – pierwszy jest autorem tzw. filozofii procesu, a
drugi jest w trakcie budowania tzw. metafizyki unitarnej [dotychczas ukazały się dwa z
zapowiedzianych czterech tomów; pierwszy z nich znajduje się w spisie lektur].

*

Przyjrzyjmy się jeszcze nieco bliżej wyrażeniu „coś określonego”. Na pozór wydaje

się ono banalne i jasne. To jednak tylko pozór.

1. Należy uwzględnić możliwość, że coś jest wprawdzie określone, ale zarazem

niedookreślone. Jest to np. przypadek trójkąta matematycznego, który jest czymś
określonym, ale zarazem najczęściej nic nie wiadomo o długości jego boków i o wielkości
jego kątów. W terminologii Ingardena: trójkąt zawiera w swej budowie
niewyspecyfikowane zmienne.

Uznawszy powyższą możliwość, musimy po nowemu spojrzeć na „coś

określonego” jako na bądź coś niedookreślonego, bądź coś w pełni określonego.
„Określone” może zatem znaczyć bądź „niedookreślone” (nie w pełni określone) bądź „w

pełni określone”34. Taki byt w pełni określony odpowiada temu, co mamy na myśli
mówiąc o konkretach czy o bytach indywidualnych (o indywiduach). To właśnie miał na
myśli Arystoteles mówiąc o substancji. Substancjami (w jego rozumieniu) są samodzielne
byty indywidualne.

33 Samodzielność charakteryzuje aspekt bycia czymś, samoistność natomiast – aspekt egzystencjalny bytu.
Dziś z pojęciem substancji wiąże się z reguły sens egzystencjalny, a nie kategorialny, tj. moment
samoistności, a nie samodzielności. Będzie o tym mowa, kiedy przejdziemy do zagadnienia arche.
34

Na czym ta pełnia polega, zależy od rodzaju bądź od natury danego bytu.

background image

Posiadanie w budowie wspomnianych zmiennych należy odróżniać od podatności

na zmiany. Zmiana nie jest bowiem z reguły dookreśleniem, lecz modyfikacją
(„przeokreśleniem”) czegoś już efektywnie istniejącego, pewnego określenia (np. zmiana
stanu cywilnego). Pod takimi zmiennymi mogą natomiast ukrywać się potencje
(dyspozycje, możności), które mogą być urzeczywistniane przez odpowiednie indywidua
w toku ich rozwoju. Tego rodzaju zmienną w odniesieniu do człowieka jest na przykład
rozumność – nowo narodzone dziecko nie ma jeszcze żadnych efektywnych cech, których
modyfikacją będzie rozumność; niemniej, rozumność ta jest pewną tkwiącą w nim
potencją, która aktualizuje się przy spełnieniu pewnych warunków. Można to ująć w ten
sposób, że każdy człowiek jest wprawdzie w każdej chwili swego życia bytem w pełni
określonym, ale w toku swego rozwoju zmienia swą tożsamość, stopniowo stając się
osobą. Innymi słowy, bycie pewnych bytów polega na stawaniu się, co może polegać bądź
na stawaniu się czymś/jakimś, bądź na zaistnieniu.

2. Analizując tezę Parmenidesa stwierdziłem, że negacją „czegoś określonego”

jest „coś nieokreślonego”. Ale coś nieokreślonego to nie to samo co nic. Nie musimy
zatem za Parmenidesem nazywać takie coś niebytem. Postawmy pytanie tak: czy coś
nieokreślonego może istnieć? Gdyby odpowiedź na powyższe pytanie była pozytywna,
wprowadziłoby to trochę zamieszania, bo okazałoby się, że nie tylko byty („coś
określonego”) istnieją. Byłoby to coś trzeciego, co należałoby zakwalifikować jako będące
„poza bytem i niebytem”, czy też „między bytem i niebytem” (wskazywałoby to, na
marginesie, że należy odrzucić prawo wyłączonego środka). Taki właśnie status
Anaksymander przypisywał apeironowi (bezkresowi), tj. czemuś co według niego stanowi
zasadę (arche) wszystkiego (nota bene to on właśnie był autorem pojęcia arche), a Platon i
Arystoteles materii, którą obaj charakteryzowali jako coś nieokreślonego, przy czym
Arystoteles odnosił to do tzw. materii pierwszej, bo materia dowolnego bytu nie jest czymś
nieokreślonym, lecz czymś niedookreślonym. Materia nie jest bytem, lecz zasadą (u
Arystotelesa jedną z kilku) wszelkiego bytu.

3. W wyrażeniu coś określonego, czy też w idei bycia czymś określonym, zawarty

jest zarówno moment pozytywności, jak i negatywności. Moment pozytywności polega na
byciu czymś/jakimś, natomiast negatywności polega na tym, że „określenie” (de-
terminacja) to zarazem o-graniczenie, a zatem od-graniczenie, tj. różność, nie bycie czym
innym (u Spinozy znajduje to wyraz w tezie „omnis determinatio est negatio”).
„Określenie” – które należy tu oczywiście rozumieć jako determinację, a nie predykację,
bo chodzi o ontologię, a nie semantykę – jest więc zarazem „ograniczeniem”, a więc też
odróżnieniem, odgraniczeniem. Bytem jest więc wszystko co odróżnia się [odgranicza] od
czegoś innego – albo dzięki różnicy bycia czymś, albo dzięki różnicy sposobu istnienia.

Tego podwójnego, pozytywno-negatywnego uwikłania, z reguły się w pojęciu

bytu nie dostrzega, widząc w bycie jedynie pozytywność. Jest to cena jaką się płaci za
abstrakcyjne, analityczne pojęcie bytu (bytu jako takiego), to jest pojęcie czegoś
rozpatrywanego w izolacji o całej reszty. Tymczasem, jeśli „de-terminacja” to
odgraniczenie (od czegoś), to mamy tu do czynienia z implicite założoną granicą
(boundary, pojęcie dość mocno ostatnio rozpracowywane w filozofii anglosaskiej), co
zakłada istnienie czegoś zewnętrznego względem danego bytu; innymi słowy, widoczna

background image

jest kontekstowość tego ujęcia35. Abstrakcyjne pojęcie bytu rozważanego w izolacji [bytu
jako bytu] zapomina o tym kontekście, skupiając się na inherentnej czy immanentnej
analizie, tj. na pozytywnym byciu czymś/jakimś, posiadaniu własności. Jest to ujęcie
wyrosłe na traktowaniu rzeczywistości jako zbioru dystrybutywnego bytów, bowiem
warunkiem wystarczającym należenia do tak rozumianego zbioru jest posiadanie pewnej
własności, a więc określenie pozytywne, immanentne. Tymczasem rzeczywistość jest
zbiorem kolektywnym.

Idea substratu

Skoro mamy i coś określonego i coś nieokreślonego, to jest możliwe, że samo owo

coś jest czym innym od drugich członów tych wyrażeń, co dopiero wtórnie podlega
kwalifikacji. Powstaje zatem pytanie, czy zwrot „coś określonego” jest nierozdzielny czy
rozdzielny. Czy mówiąc „coś określonego” mamy na myśli jakieś „coś” a dodatkowo
„określenia” tego „cosia”?. Mamy tu przecież dwa słowa, które w języku mogą
funkcjonować niezależnie od siebie. Innymi słowy, powstaje pytanie, czy okoliczność ta
jest wyłącznie natury gramatycznej, tj. polega na tym, że wypowiedź wymaga
zidentyfikowania podmiotu, czy też chodzi o kwestię natury ontycznej, niezależną od
predykacji? Tutaj zdania są podzielone. Russell na przykład uważał, że jest to problem
natury językowej, natomiast większość filozofów dostrzega tu pewne zróżnicowanie o
charakterze ontycznym.

Pytanie jest wówczas następujące: czy jeśli z „czegoś określonego” usuniemy jakieś

(w granicy – wszelkie) określoności, to coś jeszcze pozostanie? A jeśli tak, to jak
zakwalifikować tę pozostałą resztę?

Arystoteles próbował dwojako rozwiązać tę kwestię. Po pierwsze, rozróżniając w

każdej substancji (tj. w każdym bycie indywidualnym należącym do kategorii rzeczy)
formę i materię. Formą jest ogół określeń istotnych (atrybutów) danej rzeczy (tzw. forma
pojęciowa – eidos), natomiast materią (hyle) – cała reszta, czyli to, co pozostanie po
myślowym usunięciu tych atrybutów. Usuńcie z cytryny jej owalny kształt, smak, itp.; to
co pozostanie (sam miąższ) będzie właśnie materią (tej rzeczy). Materia więc to tyle co
tworzywo jakiejś konkretnej rzeczy. Nie jest to więc materia w sensie fizyki. Materią
dzieła muzycznego są na przykład dźwięki.

Powyższa konceptualizacja jest jednak dość naciągana, bo te manipulacje na

kategorii rzeczy są jedynie operacjami myślowymi (pomijaniem cech istotnych, a więc
abstrahowaniem), a nie realnymi zmianami. Z drugiej strony, występujące w niej pojęcie
formy to zbiór (dystrybutywny) własności, które wchodzą w skład pojęcia danej rzeczy.
Zarzut jaki można tu postawić jest następujący: forma pojęciowa to pewien zbiór jakości;
a przecież to co zwykle się przez formę rozumie, jest czymś przeciwstawnym jakościom

(treściom)36.

35 Tego uwikłania kontekstowego nie posiada też pojęcie bytu jako czegos istniejącego, podczas gdy
istnienie należałoby zróznicować na zaistnienie i współistnienie. Do sprawy tej jeszcze wrócimy.
36 U Arystotelesa występuje też jednak drugie pojęcie formy (tym razem nazywanej morfe), rozumianej
jako struktura pewnej zwartej całości, czyli zbioru w sensie kolektywnym. W arystotelesowskim pojęciu
formy obecne są obie te intuicje, nie rozróżnia on ich wyraźnie (bo nie rozróżnia zbiorów dystrybutywnych
i kolektywnych), wskutek czego może twierdzić, że forma to zarazem istota rzeczy (ogół atrybutów, to co

background image

Ale u Arystotelesa znajdujemy też w tym względzie inną konceptualizację,

mianowicie rozróżnienie substancji i substratu, czyli podłoża (chodzi o greckie słowo
hypokeimenon – to co leży pod czym innym i jako podłoże gromadzi na sobie wszystkie
określenia). Substratem jest to w rzeczy, co zostaje zachowane w toku dowolnych zmian,
jakim ta rzecz podlega czy może podlegać (a więc pewien niezmiennik). Tutaj mowa już o
realnych zmianach, a nie o operacjach czysto myślowych dokonywanych na kategorii
rzeczy.

Aby uwzględnić wszelkie możliwe zmiany i wszystkie rzeczy, Arystoteles

wprowadził graniczne pojęcie pierwotnego substratu jako tego, co stanowi niezmienne
podłoże wszystkich rzeczy. Jest to właśnie coś nieokreślonego, co zostaje zachowane w
toku zmian. Ten pierwotny substrat znaczy to samo, co „materia pierwsza”. Tyle, że
według Arystotelesa materia pierwsza nie jest samoistna, bo zawsze istnieje w połączeniu
z formą, jest już jakoś ukształtowana. Samą materię pierwszą Arystoteles określa jako
jedynie potencję (dinamis), która zaczyna istnieć aktualnie dopiero po połączeniu z formą
(hylemorfizm). Jest to koncepcja trudna do utrzymania, zarówno z uwagi na moment
niesamoistności materii, jak i z powodu zmistyfikowanego i wieloznacznego pojęcia
formy, która u Arystotelesa oznacza i ukształtowanie (morfe), i istotę (eidos), i
przeciwstawiony możności akt (energeia). Dodatkowo, Arystoteles przeczy sam sobie, bo
uznaje możliwość istnienia czystej formy, a to w postaci tzw. Pierwszego Poruszyciela.

Jest też jednak inna możliwość spojrzenia na substrat rozumiany jako „coś

nieokreślonego”, sugerowana przez to, co stwierdziłem wcześniej, mianowicie przez
dwoisty, pozytywno-negatywny wymiar bycia. „Nieokreśloność” nie musi oznaczać braku
pozytywnych kwalifikacji. Może ona też znaczyć bezkres, coś nieograniczonego.
Zauważmy, że o ograniczeniu można sensownie mówić tylko przy założeniu istnienia
jakiejś granicy. Otóż jeśli coś jest czymś jedynym (jedynie istniejącym), to tym samym nie
ma niczego, co mogłoby go ograniczać. A więc jest czymś nieograniczonym, a więc
nieokreślonym. Sądzę, że taki właśnie sens miał u Anaksymandra apeiron („peiras” to
granica, kres).

Z drugiej strony, „nieokreśloność” może znaczyć niezróżnicowanie. To zaś, co

niezróżnicowane może iść w parze z posiadaniem jakiegoś jednego określenia (np.
rozciągłość, bądź zdolność działania). Coś może więc być zarazem określone i
nieokreślone, bo za każdym razem mamy co innego na myśli.

W sumie uzyskujemy następującą ideę pierwotnego substratu: jest to coś, co było

„na początku” i co zostaje zachowane w toku wszelkich późniejszych zmian; nie musi to
natomiast być czymś nieokreślonym w sensie braku pozytywnych własności czy choćby
potencji.

Bycie czymś określonym wymaga wcześniejszego istnienia substratu/podmiotu

tych określeń. Pierwotny substrat zatem to coś bezwzględnie samoistnego, istnienie w
postaci elementarnej, swego rodzaju minimum egzystencjalne. Nie jest to wszelako czyste
istnienie, lecz istnienie czegoś nieokreślonego.

Fundamentalną kategorią ontologii nie jest zatem kategoria bytu, lecz substratu. To

substrat jest tym, co pierwsze – zarówno w porządku bycia czymś, jak i w porządku
istnienia. Istnienie własności polega na byciu własnością czegoś już uprzednio
istniejącego.

wchodzi w skład pojecia, własności gatunkowe), jak i pierwiastek czynny w bycie (akt, to co kształtujące,
dzięki czemu rzecz jest tym czym jest).

background image


Chciałbym w tym miejscu odnieść się do stanowiska w podobnej sprawie,

prezentowanego przez Nicolaia Hartmanna, według którego istnienie czegoś jest zarazem
określeniem czegoś innego, i vice versa. (Cytuję za pracą W. Galewicza o Hartmannie):
„[według Hartmanna] Istnienie nie jest przywilejem substancji. Albowiem właściwości w
substancjalnym podłożu istnieją dokładnie w tym samym sensie, w jakim istnieją
substancje... Teza o jednoznaczności istnienia substancjalnego i akcydentalnego pozwala
Hartmannowi twierdzić, że każde określenie czegoś jest zarazem istnieniem czegoś
innego. Z drugiej strony, twierdzenie to daje się też według niego w pewnych granicach
odwrócić. Wszak także istnienie substancji z reguły nie jest istnieniem izolowanym, lecz
istnieniem w pewnym kompleksie bytowym, w odpowiedniej całości. Tak np. istnienie
liścia na drzewie jest określeniem drzewa, istnienie drzewa w lesie określeniem lasu,
istnienie lasu na ziemi określeniem ziemi itd. W ten sposób tworzy się łańcuch bytów,
które pozostają ze sobą w takim stosunku, iż istnienie jednego stanowi jednocześnie
określenie następnego. Sytuacja zmienia się dopiero wówczas, gdy dochodzimy do
ostatniego ogniwa w tym łańcuchu – do świata jako bezwzględnej całości tego, co istnieje.
Istnienie świata nie jest już określeniem czegoś innego, gdyż po prostu nie ma żadnej
obszerniejszej całości, która byłaby inna, gdyby on nie istniał. Poza tym jednym
granicznym wypadkiem obowiązuje jednak prawo, iż „[według Hartmanna] Istnienie nie
jest przywilejem substancji. Albowiem właściwości w substancjalnym podłożu istnieją
dokładnie w tym samym sensie, w jakim istnieją substancje... Teza o jednoznaczności
istnienia substancjalnego i akcydentalnego pozwala Hartmannowi twierdzić, że każde
określenie czegoś jest zarazem istnieniem czegoś innego. Z drugiej strony, twierdzenie to
daje się też według niego w pewnych granicach odwrócić. Wszak także istnienie
substancji z reguły nie jest istnieniem izolowanym, lecz istnieniem w pewnym kompleksie
bytowym, w odpowiedniej całości. Tak np. istnienie liścia na drzewie jest określeniem
drzewa, istnienie drzewa w lesie określeniem lasu, istnienie lasu na ziemi określeniem
ziemi itd. W ten sposób tworzy się łańcuch bytów, które pozostają ze sobą w takim
stosunku, iż istnienie jednego stanowi jednocześnie określenie następnego. Sytuacja
zmienia się dopiero wówczas, gdy dochodzimy do ostatniego ogniwa w tym łańcuchu – do
ś

wiata jako bezwzględnej całości tego, co istnieje. Istnienie świata nie jest już określeniem

czegoś innego, gdyż po prostu nie ma żadnej obszerniejszej całości, która byłaby inna,
gdyby on nie istniał. Poza tym jednym granicznym wypadkiem obowiązuje jednak prawo,
iż „określenie czegoś jest zarazem istnieniem czegoś innego, a istnienie czegoś zarazem
określeniem czegoś innego””.

Stanowisko to mogłoby sugerować, że własności rzeczy są równie samoistne jak

rzeczy, gdyż jedne bez drugich nie mogą istnieć. Tak jednak nie jest. Ściślej mówiąc, jeśli
chodzi o własność danej rzeczy i samą tę rzecz - zgoda. My jednak mówimy tutaj nie o
konkretnych bytach, lecz o kategoriach bytów. Otóż zanim zaistnieje czy pojawi się jakaś
własność, musi już istnieć jakaś rzecz stanowiąca podłoże czy też substrat, na którym ta
własność się pojawi; w wyniku tego rzecz ta może stać się inną rzeczą. I dopiero ta inna
rzecz będzie równie samoistna jak rozważana własność. Natomiast istnienie własności
polega na byciu własnością czegoś już uprzednio istniejącego; ergo, to coś uprzednio
istniejącego – substrat własności – jest bardziej samoistny.

Jeśli natomiast chodzi o drugą tezę Hartmanna, iż „określenie czegoś jest zarazem

istnieniem czegoś innego, a istnienie czegoś zarazem określeniem czegoś innego”, to

background image

dodać trzeba drugi graniczny przypadek, w którym to nie zachodzi, mianowicie przypadek
pierwotnego substratu – jego istnienie nie może być określeniem czego innego, bo niczego
innego, bardziej pierwotnego od niego, po prostu nie ma.

Istnienie substratu jakiegoś bytu – fundamentu jego bycia czymś (jakimś) – jest

zatem wcześniejsze zarówno od istnienia atrybutów tego bytu, jak i od istnienia samego
tego bytu. Substrat danego bytu istnieje tedy w mocniejszy sposób, niż własności tegoż
bytu, należy do bardziej pierwotnej kategorii. Wprawdzie substrat też jest pewnego
rodzaju bytem, a więc czymś posiadającym własności, nie oznacza to jednak, że kategoria
substratu jest redukowalna do zespołu własności – mamy tu do czynienia z iteracją, nie z
redukcją. Aby iteracja ta nie groziła regresem do nieskończoności, trzeba przyjąć, że
istnieje pierwotny substrat.

Pierwotny substrat zatem to coś bezwzględnie samoistnego, istnienie w postaci

elementarnej. Nie jest to wszelako czyste istnienie, lecz istnienie czegoś nieokreślonego.
Coś co nie posiada żadnych własności, nie musi być niczym, może być czymś
nieokre
ślonym. Pozytywnie można o nim powiedzieć nie tylko to, że istnieje, lecz i to, że

jest podmiotem określeń37.

Analiza pojęcia bytu prowadzi zatem ostatecznie do wniosku, że fundamentalną

kategorią ontologii jest kategoria substratu, to jest podmiotu własności. To substrat jest

tym co pierwsze38.

Pojęcie istnienia

Przypomnę, że o istnieniu mówimy w tych wszystkich kontekstach, w których

używamy nieprzechodniego sensu słowa „być” resp. „jest”.

Tu od razu pojawia się problem. Jakoż, cokolwiek zechcemy powiedzieć o

istnieniu jakiegś bytu, jakkolwiek je scharakteryzować, musimy użyć jakiegoś predykatu;
dotyczyć to będzie jego bycia czymś/jakimś, a więc bycia w sensie predykatywnym, a nie
egzystencjalnym.. Będzie to więc szło „na konto” bycia w sensie predykatywnym Stąd
wniosek, że o samym istnieniu nic rzeczowo powiedzieć nie można. Z punktu widzenia
zasobów leksykalnych języka odpowiada temu fakt, że termin „istnienie” resp. „istnieć”
jest terminem pierwotnym, niedefiniowalnym za pomocą definicji normalnej – nie ma po
prostu innego terminu egzystencjalnego, który byłby od „istnienia” ogólniejszy a zarazem
miał zbliżony sens. Zresztą, gdyby taki termin istniał, sytuacja powtórzyłaby się w
odniesieniu do niego.

Stąd wniosek, że termin "istnienie" jest pojęciem niedefiniowalnym przy pomocy

innych pojęć, a samo istnienie czymś elementarnym, niezróżnicowanym wewnętrznie,
prostym. A jeśli tak, to coż więcej można powiedzieć? Albo coś istnieje, albo nie, koniec,
kropka.

37 Bycie podmiotem własności nie jest własnością, lecz formą własności. Nie wszystko więc, co da się
wyróżnić w bycie, jest własnością.
38 Jak pisze Heidegger "Słowo subiectum trzeba nam oczywiście rozumieć jako przekład greckiego
hypokeimenon. Nazywa się tak to, co leży-pierwsze (das Vor-liegande) i co jako podłoże gromadzi na sobie
wszystko" (Martin Heidegger, Budować, mieszkać, myśleć, Czytelnik, Warszawa 1977, s. 141).

background image

Wygląda więc na to, że nie mamy narzędzi analitycznych aby mówić o istnieniu,

poza gołym stwierdzeniem że coś istnieje bądź nie istnieje. A przecież wydaje się, że takie
byty jak kamień, bank, myśl, czy liczba nie tylko różnią się tym, czym bądź jakie są, ale
również tym, jak są. Zachodzi więc przynajmniej potrzeba jakiegoś porównawczego
zróżnicowania bytów pod kątem ich sposobu istnienia, skoro o samym istnieniu nie można
niczego powiedzieć.

Czy pojęcie różnych „sposobów istnienia” jest prawomocne?

Przeciwko podejściu dopuszczającemu wiele sposobów istnienia bywa wysuwany

argument podważający jego sensowność czy prawomocność. Twierdzi się mianowicie, że
wszystko co istnieje, istnieje w takim samym sensie (w ten sam „sposób”). Nazwijmy
rzeczników tego ostatniego stanowiska monistami (egzystencjalnymi).

Oto dwie przykładowe wypowiedzi monistów: ”Jeśli przedmioty abstrakcyjne

istnieją, istnieją w takim samym dokładnie sensie, w jakim istnieją wszelkie inne byty, a
więc i przedmioty konkretne: jedne i drugie po prostu są. To, że jedne z nich dają się np.
spostrzec, a drugie nie, nie świadczy bynajmniej o tym, że jedne z nich istnieją w jakiś
inny sposób niż drugie, tylko o tym, że są to przedmioty o różnych własnościach: jedne są
czasowo-przestrzenne, a drugie nie itp. Nie zgadzam się, co za tym idzie, z tezą [...],
jakoby zbudowanie ontologii wymagało wprowadzenia pojęcia „różnych sposobów
bycia”. Wymaga ono co najwyżej wprowadzenia różnych kategorii ontologicznych.
Różnice między przedmiotami należącymi do różnych kategorii ontologicznych (ale
istniejącymi w dokładnie ten sam sposób) wystarczają, w moim przekonaniu, do zdania
sprawy z tego, z czego by miały zdawać sprawę rzekome różnice w sposobie ich

istnienia”39.

Unisono wtóruje Przełęckiemu Z. Augustynek: ”W rozważanym tu kontekście

istnieje wyjątkowy zamęt pojęciowy, który utrudnia zrozumienie, o co [...] w istocie
chodzi. Główna przyczyna takiego stanu rzeczy leży w koncepcji, według której do
różnych typów przedmiotów odnoszą się różne „sposoby” istnienia. Jeśli np. zakłada się,
ż

e istnieją abstrakty, to rzekomo istnieją one w jakiś (całkiem) odmienny „sposób” niż

konkrety. W swej formie zdegenerowanej koncepcja ta stwierdza, że istnieje właściwie
wszystko – tylko różne typy przedmiotów na różne „sposoby”. Przy bliższej analizie łatwo
zauważyć, że chodzi tu o różne znaczenia terminu „istnieć” i – co najbardziej szokujące –
niewiele lub prawie nic nie mające ze sobą wspólnego; pozostaje zatem tajemnicą,
dlaczego używa się w takim razie tego samego terminu „istnieć”. Można wykazać, że
ź

ródłem tej koncepcji, charakterystycznej dla fenomenologii (ale nie tylko), jest

pomieszanie pojęcia istnienia z 1. różnymi cechami odmiennych rodzajów przedmiotów (o
które w danym przypadku chodzi), albo 2. z różnymi kryteriami istnienia, służącymi do
stwierdzania istnienia egzemplarzy tych rodzajów przedmiotów, albo wreszcie 3. z
różnymi metodami poznania tych rodzajów. Jeśli zapytać adherenta omawianej koncepcji
czym np. różni się istnienie konkretów od istnienia abstraktów, to odwoła się on zawsze do
[...] swoistych cech, kryteriów, metod poznania” (Trzy realizmy, op. cit, s.208).

39 M. Przełęcki, „O tym czego nie ma”, Studia Filozoficzne ,1979, nr 10; cytuję za: J. Jadacki, T. Bigaj,
A. Lissowska (red.): Co istnieje? Antologia tekstów ontologicznych z komentarzami, Wydawnictwo
PETIT, Warszawa 1996, s. 72.

background image

Chciałoby się powiedzieć: „przyganiał kocioł garnkowi”. Przecież jeśliby spytać

Augustynka, dlaczego twierdzi, że np. Pegaz nie istnieje, to argumentował by zapewne, że
nikt takiego obiektu nie widział, że nie istnieje on w czasoprzestrzeni, że do istoty resp.
natury Pegaza, implikowanej przez sens tej nazwy, należy to, że winien on być bytem
czasoprzestrzennym, cielesnym, istotą żywą, etc., podczas gdy nie jest, będąc jedynie
mitologiczną fikcją. Innymi słowy, odwoływał by się bądź do kryteriów bądź do

własności, a nie do sensu „istnienia”40.

Zauważmy, że aby odpowiedzialnie zaprzeczyć istnieniu np. Pegaza, musimy

wiedzieć o czym mowa; innymi słowy, musimy go sobie najpierw jakoś przedstawić (np.
wyobrazić). Nie wystarcza w tym celu znajomość znaczenia tego słowa, musimy na tej
podstawie uchwycić [ukonstytuować] pewien przedmiot. I to o tym przedmiocie
minimalista twierdzi, że nie istnieje. Są więc przedmioty nieistniejące. Augustynek
stwierdza to explicite: „Przez przedmiot „w ogóle” rozumiem coś, co posiada przynajmniej
jedną własność. Przedmioty zatem mogą być dowolne, czyli nawet takie, które nie
istnieją” [op. cit., s. 203].

Stwierdzając „przedmioty nieistniejące są”, używa się nieprzechodniego, a więc

egzystencjalnego, sensu słowa „być”. A ponieważ według minimalisty ma ono tylko jeden
sens, zatem według niego istnieją przedmioty nieistniejące. Ot i ambaras.

Koncesja do jakiej byłby ewentualnie zdolny monista egzystencjalny, mogłaby

polegać na czymś następującym. „Istnienie” rezerwujemy dla bytów pozaprzedmiotowych,
natomiast przedmiotom przypisujemy pewien sposób bycia nie będący istnieniem. Coś
takiego proponował na przykład wspomniany już przeze mnie w innym kontekście A.
Meinong, który rozróżniał byty i przedmioty, w odniesieniu do tych pierwszych mówiąc o
egzystencji, a do drugich o subsystencji. Według mnie to jednak tylko sztuczka słowna.
Nie chodzi o inwencję terminologiczną, lecz o zróżnicowanie sensów nieprzechodnich
czasownika być. A pod nie podpada zarówno egzystencja, jak i subsystencja. Mamy tu
więc dwa sposoby istnienia.

Podobnie rzecz się przedstawia u jednego z czołowych neokantystów – Heinricha

Rickerta (nota bene, gdańszczanina z urodzenia): „Znaczenie słowa „byt” osiągniemy
wtedy, gdy weźmiemy pod uwagę różne rodzaje tego, co istnieje. To co istnieje (das
Seiende) w najszerszym znaczeniu, trzeba ująć albo jako metafizyczne, i wówczas jako
problematyczne, albo jako nie metafizyczne. Ów niewątpliwy, niemetafizyczny byt (das
Sein) jest albo czymś co egzystuje, albo czymś co nie egzystuje [=inteligibilia]. To co
egzystuje jest albo zmysłowo-realne, albo niezmysłowo-idealne [obiekty matematyczne].
Zmysłowo-realnie egzystujące jest albo fizyczne albo psychiczne. Świat egzystujący, na
który składają się zmysłowo-realne i niezmysłowo-idealne przedmioty, nie stanowi jeszcze
całości świata, lecz tylko jego część, której dopełnieniem są nie-egzystujące twory tego
rodzaju, jak sensy zdań prawdziwych. Dopiero oba razem tworzą świat w całości”. Mamy
więc u niego rozróżnienie istnienia i egzystencji, które zresztą nie wyczerpuje sprawy, bo
w innym kontekście Rickert stwierdza, że wartości są wprawdzie czymś określonym, ale
nie istnieją, lecz mają ważność.

40 Używam trybu warunkowego, bo nie znam takiej wypowiedzi Augustynka. Natomiast explicite
stwierdza to W. Quine, jeden z najradykalniejszych monistów: ”Gdyby Pegaz istniał, znajdowałby się
gdzieś w przestrzeni i czasie – ale tylko dlatego, że słowo „Pegaz” posiada konotację czasoprzestrzenną, nie
dlatego, by konotacja ta przysługiwała istnieniu” (O tym, co istnieje, op. cit., s. 26).

background image

Być może monista zgodziłby się, że należy rozróżnić dwie klasy bytów: do

pierwszej należałyby te, które istnieją w sposób właściwy dla kategorii, do której z istoty
swej należą, do drugiej te, które tego warunku nie spełniają. Pierwsze można by wówczas
nazwać bytami rzeczywistymi, drugie fikcyjnymi. Rzeczywiste są np. kamienie przy
drodze, osobniki „z krwi i kości”, a także obiekty matematyczne, które choć tak jak i
Pegaz są wytworem operacji intelektualnych, to jednak na tym właśnie polega ich
„inteligibilna” natura, że nie muszą (bądź nie mogą) być niczym innym; Pegaz byłby
natomiast przedmiotem fikcyjnym, bo należąc do kategorii rzeczy, winien istnieć w
czasoprzestrzeni, a nie istnieje. Ale wówczas również mielibyśmy wszak dwa sposoby
istnienia. Po drugie, wynikałoby z tego, że dyskurs dotyczący istnienia wymaga – i to nie
w kontekście kryteriów, lecz samego sensu tego co istnieje – uwzględnienia własności (np.
czasoprzestrzenność), w orzekaniu o istnieniu czegoś musimy bowiem odwołać się do
istoty tego czegoś.

Można bowiem argumentować następująco:

1.

Jeśli coś jest czymś/jakieś, to istnieje (nie może być np. tak, że coś jest rzeczą,
jakością, relacją etc, ale nie istnieje).

2.

Istnienie jest zawsze istnieniem czegoś określonego (choć możemy tych określeń
nie znać lub mylić się w tym względzie). Jeśli przeto coś istnieje, to jest
czymś/jakieś.

3.

Zatem istnienie jest równoważne byciu czymś/jakimś i odwrotnie. A skoro tak, to
istnienie może być analizowane w kategoriach własności.

Konkluzję powyższą wykorzystamy w dalszych analizach dotyczących pojęcia

istnienia.

O istnieniu – paradygmatycznie

Fakt, że nie można istnienia zdefiniować w sposób normalny nie znaczy, że

musimy zrezygnować z jakichkolwiek prób dookreśleń w tym względzie, wiadomo wszak,
ż

e definicja normalna jest tylko jedną z wielu, mamy też do dyspozycji definicje

aksjomatyczne, ostensywne, itd.

Zauważmy, że z niemożliwością definicji normalnej mamy też do czynienia w

przypadku pewnych własności – nie można na przykład zdefiniować słowami takich
jakości jak barwy, smaki czy zapachy. Uciekamy się wówczas do definicji ostensywnej,
wskazując wzorzec posiadający definiowaną jakość. Możemy na przykład dać komuś do
posmakowania kostkę cukru, zapoznając go tym samym ze znaczeniem predykatu
"słodki".

Sądzę, że w odniesieniu do istnienia najczęściej spotykaną sytuacją jest właśnie

użycie ostensji. W odniesieniu do rozważanej przez nas kwestii istnienia definicja
ostensywna polegałaby na wyborze jakiegoś rodzaju bytu jako wzorcowego z uwagi na
istnienie, tj. bytu który posiada cechę traktowaną jako zarazem konieczną i wystarczającą
dla istnienia, i który w związku z tym może być traktowany jako swego rodzaju model czy
probierz istnienia. Wszystkie inne byty („niewzorcowe”) musiałyby być w swym istnieniu
zależne od wzorcowych. Nazwijmy taki sposób konceptualizacji paradygmatycznym.

background image

W dziejach filozofii wskazywano przynajmniej trzy takie wzorce. Jako

paradygmatyczną cechę tego, co istniejące, wskazywano mianowicie na

1. czasoprzestrzenność,
2. czasowość (ale zarazem nie-przestrzenność),
3. aczasowość resp. niezmienność.
W pierwszym przypadku paradygmatem tego co istnieje są ciała materialne

(rzeczy), w drugim umysł bądź świadomość (przykład bytu zmieniającego się w czasie, ale
nie posiadającego cech przestrzennych; argumentem na rzecz wyboru takiego wzorca jest
wzgląd na to, czego istnienia można być pewnym), w trzecim byty kwalifikowane zwykle
jako „idealne”. Odpowiednie stanowiska ontologiczne, traktujące taki paradygmatyczny
byt jako pierwotny w sensie egzystencjalnym, to realizm, idealizm subiektywny i idealizm
obiektywny
.

Należy przy tym zaznaczyć, że ów paradygmatyczny sposób istnienia traktowany

bywał bądź jako podstawowy (wersja słabsza), bądź jako jedyny (wersja mocniejsza); w
tym drugim przypadku można mówić o pierwotnym i pochodnych sposobach istnienia, czy
też o bytach samoistnych i niesamoistnych. W wersji słabszej jedynie byt
paradygmatyczny jest samoistny, wszystkie inne byty istnieją na jego fundamencie. Za
istniejące taki umiarkowany realista uznawałby wówczas to wszystko, czego natura z
konieczności zakłada już istnienie jakichś rzeczy materialnych, co więc istnieje tylko na
ich fundamencie. Mielibyśmy wówczas gradację coraz to słabszych sposobów istnienia,
poczynając od tego co bezwzględnie samoistne – a tym samym pierwotne – poprzez
kolejne jego mniej samoistne pochodne.

Arystotelesa można uważać za rzecznika realizmu w wersji słabszej (wszystkie

kategorie bytów są ufundowane na kategorii rzeczy), reizm Kotarbińskiego jest
przykładem wersji mocniejszej (tylko rzeczy istnieją). Kartezjusz był rzecznikiem
idealizmu subiektywnego w wersji słabszej (Ego cogito jako egzystencjalne prius),
Berkeley wersji mocniejszej (spirytualizm – istnieją tylko byty natury duchowej czy
umysłowej). Co do idealizmu obiektywnego, to sądzę, że rzecznikiem wersji słabszej był
Platon, a mocniejszej Parmenides.

Krótka dyskusja tych opcji.
1. Arystoteles nie był zbyt konsekwentny, dopuszczając np. istnienie

niesubstancjalnego Pierwszego Poruszyciela, będącego czystym aktem resp. formą (a więc
nie rzeczą). Kotarbiński z kolei sam wycofał się ze swego stanowiska pod wpływem
argumentów krytycznych, ograniczając to stanowisko do problematyki semantycznej.
Natomiast czysto rzeczowo biorąc, problem jaki się na gruncie tego stanowiska pojawia
jest następujący: skoro wszystko istnieje w czasie i przestrzeni, to jak istnieją same czas i
przestrzeń? Widać więc, że realny sposób istnienia nie może być jedynym. Z drugiej
strony, fizyka współczesna przyjmuje, że „na początku” nie było jeszcze ani czasu ani
przestrzeni, mimo że coś już musiało istnieć, bo koncepcja Big Bangu nie jest koncepcją
powstania Wszechświata z niczego. Zatem pierwotny substrat wszystkich rzeczy właśnie
nie jest czasoprzestrzenny.

2. Problem z Kartezjuszem jest taki, że jego cogito jest pierwsze co najwyżej w

ratio cognoscendi, ale nie w ratio essendi. Choć bowiem akt samowiedzy poprzedza Boga
w porządku uznawania w bycie, to res cogitans zostają przecież pojęte jako byty
stworzone przez Boga. Innymi słowy, Kartezjusz uwzględnił co najwyżej istotę
ś

wiadomości, pomijając całkowicie kwestię jej natury, a tym samym genezy, warunków

background image

zaistnienia.

[Stanowisko

Berkeleya

było

pewną

ekstrawagancją

o

zapleczu

swiatopoglądowym, którą trudno traktować poważnie. Trzeba mu natomiast przyznać, że
„podniósł poprzeczkę” jeśli chodzi o argumentację na rzecz istnienia świata zewnętrznego
względem umysłu.

3. Co do Platona, to tego rodzaju stanowisko egzystencjalne jest nie do utrzymania

choćby z tego względu, iż aby wyjaśnić istnienie świata zjawisk, równolegle z
pozaczasowymi ideami musiał założyć on istnienie niestwarzalnej materii oraz Demiurga;
w konsekwencji idee nie mogą być uważane za jedyny rodzaj bytu samoistnego. Dotyczy
to wszelkich wersji idealizmu obiektywnego – jeśli jedynym bytem pierwotnym jest byt
aczasowy, to nie jest możliwe, aby zaistniało cokolwiek innego.

O istnieniu – ejdetycznie

Poszukajmy zatem innej możliwości. Nazwę ją eidetyczną. W przeciwieństwie do

ujęcia paradygmatycznego, które ma charakter hierarchizujący, ten drugi typ podejścia do
problematyki istnienia ma charakter porównawczy.

Aby zrozumieć zasadniczą ideę tego podejścia wyobraźmy sobie następującą

sytuację. Oto siedzimy na ławce w parku i zastanawiamy się jaką wysokość mają widziane
przez nas drzewa. Nie mając w danej sytuacji możliwości ich zmierzenia, dysponujemy w
każdym razie możliwością porównania – możemy np. stwierdzić że ten oto dąb jest
wyższy od tamtego modrzewia. Coś nam to więc mówi o wysokości drzew, choć jedynie
w kategoriach względnych.

Podobnie jest z istnieniem. Nie dysponując możliwością bezwzględnej

charakterystyki istnienia jako takiego, możemy próbować scharakteryzować sposób
istnienia
jakiegoś bytu porównując go w tym względzie z innymi. Możemy np. zapytać,
czy i jak istnienie pewnego rodzaju bytów zależy od istnienia innych, albo co by się stało,
gdyby jakiś byt przestał istnieć – jakie miałoby to konsekwencje dla istnienia innych
bytów. Innymi słowy, chodzi o cechy, których posiadanie przez jakiś byt jest relewantne
dla istnienia jakichś innych bytów. Można w ten sposób wyodrębnić analitycznie
(ejdetycznie) pewne relacje typu egzystencjalnego pomiędzy rozmaitymi bytami.
Ponieważ trzeba w tym celu odwołać się do pewnych predykatów, w konsekwencji uzyska
się nie charakterystykę samego momentu istnienia, lecz bycia w sensie predykatywnym.
Niemniej, rzuca to nowe światło na takie kategorie czy kwestie egzystencjalne, jak
zaistnienie, stawanie się czy współistnienie, może więc być użyteczne dla filozoficznej
teorii rzeczywistości, która musi między innymi rozważać zagadnienie związków
pomiędzy różnymi bytami. śaden składnik rzeczywistości nie istnieje wszak w izolacji,
każdy jest wielorako związany z istnieniem i własnościami innych bytów, wintegrowany
w całość tego co istnieje.

Słowem, nieanalizowalne pojęcie istnienia można próbować zastąpić pojęciami

związanymi ze współistnieniem i zaistnieniem.

Podejście takie zastosował R. Ingarden, wyróżniając w drodze refleksji ejdetycznej

cztery tzw. momenty bytowe, a w ślad za tym cztery dychotomiczne opozycje:
samoistność-niesamoistność, samodzielność-niesamodzielność, niezależność-zależność,
pierwotność-pochodność. Mniejsza w tej chwili o to, co ukrywa się za tymi pojęciami, jak
je Ingarden rozumie. Technicznie, ujęcie to polega w każdym razie na dokonaniu kilku – u
Ingardena czterech – niezależnych, dychotomicznych podziałów wszystkich możliwych

background image

bytów, a następnie na skrzyżowaniu tych podziałów. Za pomocą pierwszego kryterium
uzyskujemy podział wszystkich bytów [=uniwersum] na samoistne i niesamoistne, za
pomocą drugiego podział na byty samodzielne i niesamodzielne, za pomocą trzeciego na
pierwotne i pochodne, za pomocą czwartego na niezależne i zależne. Krzyżując ze sobą te
cztery dychotomie uzyskuje się 16 członów podziału, z których połowa zostaje odrzucona
jako układy wewnętrznie sprzeczne (nic nie może np. być zarazem pierwotne i
niesamoistne), natomiast pozostałe określają (charakteryzują) możliwe sposoby istnienia.
W konsekwencji, inny sposób istnienia zostaje np. przypisany konkretom, inny abstraktom
czy przedmiotom ogólnym (powszechnikom), a jeszcze inny bytom indywidualnym
wprawdzie, ale będącym „fikcjami” (np. Pegazowi). Dla przykładu, byt zarazem
samoistny, samodzielny, pierwotny i niezależny od innych charakteryzuje wg Ingardena
absolutny sposób istnienia, a byty spełniające układy cech w skład których wchodzi
moment niesamodzielności, istnieją intencjonalnie.

Podstawowa słabość tego ujęcia jest według mnie taka, że nic nie przesądza o ilości

owych momentów bytowych. Dlaczego ma ich być cztery a nie więcej? A zauważmy, że
wprowadzenie piątego momentu bytowego powiększyłoby teoretycznie liczbę możliwości
do 32, i tak dalej w tempie wykładniczym. Z drugiej strony, kryteria podziału winny być
tak dobrane, aby w sposób nie budzący wątpliwości można było każdorazowo
rozstrzygnąć, czy jakiś byt dane kryterium spełnia czy nie – taki właśnie, tj. operacyjny,
jest sens wszelkich kryteriów. Otóż, z pewnością nie jest tak w odniesieniu do trzeciego z
wyżej wymienionych kryteriów, gdyż aby np. stwierdzić, że np. materia – bądź Bóg – jest
bytem pierwotnym, trzeba założyć jakąś metafizykę, ona zaś nigdy nie ma charakteru

operacyjnego41.

*

Z uwagi na wszystkie powyższe zastrzeżenia należałoby spróbować jeszcze inaczej

skonceptualizować problematykę istnienia. W tym charakterze przedstawię Państwu moje
własne ujęcie. Będzie ono nawiązywało do dwu poprzednich – paradygmatycznego i
eidetycznego - unikając ich słabych punktów. Chodzi o to, aby tak dobrać kryteria
podziału, aby spełnione były pewne warunki, które zaraz sformułuję.

Po pierwsze, winny to być kryteria operacyjne, czy też rozstrzygalne42.

41 W ostatnich latach inną porównawczą koncepcję egzystencjalną, w swym radykalizmie
przypominającą Nietzscheańskie „przewartościowanie wszystkich wartości”, zaproponował L. Nowak.
Mam na myśli projekt negatywistycznej metafizyki unitarnej zarysowany w pierwszym tomie książki Byt
i my
śl: ”Brak bytu to byt sui generis; rzeczywistość obejmuje zarówno pozytywy jak i negatywy [...].
Nicość nie jest pustką istnienia, lecz jego maksymalnym przetłoczeniem, jest więc istnieniem czystym,
nie przesłoniętym jawą faktów. Pojęcie istnienia jest więc porównawcze – świat tym bardziej istnieje, im
mniej jest pozytywny a bardziej negatywny. Nicość istnieje więc najbardziej. A w szczególności bardziej
niż tzw. świat aktualny” (L. Nowak: Byt i myśl, Wyd. Zysk i S-ka, Poznań 1998, t.1, ss. 131, 128). Z
oceną tej propozycji trzeba się jednak wstrzymać do czasu opublikowania kolejnych tomów, zgodnie z
maksymą „po owocach jego poznacie go”.
42 Przez analogię: klasyczna koncepcja prawdy - według której sąd jest prawdziwy, jeśli jest zgodny z
rzeczywistością - ma charakter nieoperacyjny, gdyż nie mamy możliwości porównania treści sądu z
obiektywną rzeczywistością. Stąd powstała potrzeba określenia operacyjnych, efektywnych kryteriów
prawdy. Kryterium nie ustala na czym polega prawdziwość, lecz w jaki sposób może ona być ustalona.
Stanowi więc ono jedynie wskaźnik, a nie istotę prawdziwości. Jako takie kryteria proponowano
zgodność z doświadczeniem, koherencję, oczywistość, itp. Kryteriów może więc być wiele i mogą być

background image

Po drugie, chodzi o to, aby uzyskany podział bytów wedle sposobu ich istnienia był

nietrywialny, płodny poznawczo, aby pozwalał wyjaśniać, a nie tylko czysto opisowo
klasyfikować. Nie każdy bowiem poprawny logicznie podział jest równie ważki
ontologicznie.

Po trzecie, własności wybrane jako kryteria istnienia winny być w oczywisty

sposób związane z istnieniem.

Po czwarte, chodzi o to, aby przynajmniej jeden z uzyskanych członów podziału

charakteryzował byty realne, bo ich istnienie trudno sensownie zakwestionować.

Po piąte, chodzi o to, aby byt traktować jako element rzeczywistości, to jest jako

coś współistniejącego z innymi bytami. Otóż rzeczywistość to nie tylko ogół tego co jest
czymś, to również ogół tego co staje się czymś - procesów, zmian. Ta dwoistość znajduje
swój wyraz w samym języku. Polskie słowa "rzeczywisty", "rzeczywistość", urobione od
kategorii rzeczy, akcentują ów statyczny moment bycia czymś, natomiast w innych
językach uwypuklany jest moment dynamiczny – rosyjskie diejstwitielnost, niemieckie
Wirklichkeit, angielskie actuality są pochodnymi od "działania". Podobnie w języku
greckim, w którym phragma oznacza zarówno rzecz, jak i działanie. Inaczej mówiąc,
chodzi o to, aby cecha mająca stanowić kryterium istnienia wyrażała ów dynamiczny,
procesualny charakter rzeczywistości.

Powstaje jeszcze pytanie, ile takich kryteriów winniśmy uwzględnić. Sądzę, że

przynajmniej dwa, gdyż przy jednym mielibyśmy do dyspozycji tylko własność
kryterialną i jej negację, co dałoby w efekcie jeden podział dychotomiczny, zbyt słabo
różnicujący. Członów podziału (a zatem i kryteriów) powinno być więcej, aby na przykład
móc egzystencjalnie rozróżnić pięć realnie istniejących drzew, wyobrażenie pięciu drzew i
liczbę 5. Z drugiej strony jednak, uwzględnienie więcej niż dwu kryteriów podziału
zmusiłoby nas do czegoś więcej niż przysłowiowe dzielenie włosa na czworo, gdyż przy
trzech kryteriach musielibyśmy uwzględnić już osiem możliwości – i tak dalej w tempie

wykładniczym, bowiem przy n kryteriach liczba członów podziału wynosi 2n.
Oszczędność jest więc tu jak najbardziej wskazana. Dlatego też przyjmiemy dokładnie
dwa kryteria, uzyskując w ten sposób cztery możliwe sposoby istnienia.

Sądzę, że zadość wszystkim powyższym wymaganiom czynią dwa następujące

kryteria podziału. Po pierwsze, zdolność działania, tj. wywoływania zmiany innych bytów.
Skoro bowiem coś wywołuje zmiany, to bez wątpienia istnieje, jest to więc oznaka czegoś

istniejącego43. Drugim kryterium istnienia może być możność bycia przedmiotem
oddziaływania, tj. bycia zmienionym przez inny byt
– aby coś mogło być zmienione, musi
wszak już istnieć; coś czego nie ma, nie może też być zmienione.

Wydaje się, że oba proponowane kryteria dobrze oddają intuicję realnego sposobu

istnienia. Czyż bowiem nie jest tak, że jako realny traktujemy byt, który nie jest fikcją
(wytworem umysłu) i który w związku z tym może działać (wywoływać zmiany
dowolnego rodzaju), którego więc cechuje zdolność bycia źródłem czy podmiotem
działania, posiadanie mocy sprawczej, i na który – po drugie – coś innego może

niezależne od siebie. Być może więc da się też określić kryteria istnienia. Siłą rzeczy musi to być coś, co
daje się scharakteryzować, a więc coś z zakresu bycia w sensie predykatywnym.
43Nie musi ich wywoływać, aby istnieć, nie jest to warunek konieczny, lecz wystarczający. Ściślej mówiąc,
nie należy tej zdolności traktować jako warunku wystarczającego, lecz jako wskaźnik bądź oznakę
istnienia. Przez warunek czegoś rozumie się wszak coś poprzedzającego. Tymczasem zdolność działania
czy wywoływania zmian nie poprzedza istnienia, lecz jest jego przejawem.

background image

oddziaływać, wywołując w nim wskutek tego pewne zmiany, który więc może być
przedmiotem oddziaływania? W każdym razie czymś takim jest na przykład kamień,
drzewo, chmura i temu podobne rzeczy.

Krzyżując oba powyższe kryteria i uwzględniając ich zaprzeczenia uzyskujemy

cztery człony podziału, mianowicie podział na to, co:

- może działać i być przedmiotem oddziaływania (będziemy je nazywać bytami

realnymi)

- może działać, lecz nie może być przedmiotem oddziaływania, tj. nie może być

zmienione z zewnątrz (byty nadrealne)

- nie może działać, ale może być przedmiotem oddziaływania, tj. może być

zmienione (byty irrealne)

-

ani nie może działać, ani być przedmiotem oddziaływania (byty idealne)44.

Jest to, jak widać, podział wyczerpujący i rozłączny, a więc formalnie poprawny.
Realne są (prawie) wszystkie obiekty i zjawiska fizykalne, biologiczne oraz

psychiczne (przy założeniu wszakże, że to, co psychiczne, jest odróżnione od tego, co
duchowe
; o powodach tego rozróżnienia będziemy jeszcze mówili). Jeśli idzie o twory
idealne (powtórzę: to, co ani nie może samo z siebie się zmienić bądź zmienić coś innego
– co więc jest pozbawione mocy sprawczej – ani też nie może być zmienione przez coś
innego), to należą do nich struktury logiczne, obiekty matematyczne, wartości etyczne
oraz prawa przyrody. Co się tyczy sfery tworów irrealnych – podatnych na zmiany, ale
pozbawionych mocy sprawczej – to należeć tu będzie na przykład takie zjawisko fizyczne,

jak cień rzucany przez jakiś oświetlony przedmiot45. Spośród wielkości fizykalnych
irrealne są również czas i przestrzeń. Tworami irrealnymi są też byty niefizykalne takie jak
znaczenia, fikcyjne postacie literackie, informacje.

A co jest bytem nadrealnym? Ci, którzy wierzą w Boga, mogą odpowiedzieć – On.

Zapewne, sens tego pojęcia jest taki, że jeśli Bóg istnieje, to jest bytem nadrealnym. Jest
on wszak pojmowany jako Stwórca, a więc jako ktoś kto może działać, być źródłem
zmian; z drugiej strony, nie może on być przez nic ani przez nikogo zmieniony. Nie
musimy jednak szukać tak daleko - bytem nadrealnym jest każdy z nas, pojmowany jednak
nie jako istota „z krwi i kości”, bo w tym sensie jesteśmy bytami realnymi, lecz jako istota
duchowa – osoba.

Nie-realnym sposobom istnienia brakuje, jak widzimy, bądź jednego, bądź obu

cech bytu realnego, są więc one siłą rzeczy egzystencjalnie słabszymi od realnego

sposobami istnienia, przy czym najsłabszym jest istnienie idealne46. To, że twory idealne

44 Zważywszy, że działanie jest równoważne zajściu pewnej zmiany, podział powyższy jest równoważny
podziałowi na to, co: może wywoływać zmiany i być zmieniane; może wywoływać zmiany, ale nie może
być zmienione; nie może wywoływać zmian, ale może być zmienione; ani nie może wywoływać zmian, ani
być zmienione.
45 Na pierwszy rzut oka cień wydaje się być czymś najzupełniej realnym. Jest tworem czasoprzestrzennym;
wydaje się też, że może wywoływać określone skutki: spadek temperatury, wzrost wilgotności, w
zacienionym miejscu inaczej rozwija się roślinność, i tak dalej. Czy to jednak aby cień jest sprawcą tego
wszystkiego? Oczywiście nie. Wszystkie te efekty są pochodną układu: źródło światła - przedmiot
oświetlony. Cień sam z siebie nie dodaje nic ponadto, sam jest tylko skutkiem, a nie przyczyną. Sam z
siebie ani nie może on działać, ani też zmieniać się.
46 Rozróżnijmy w związku z tym dwa sensy tego co "idealne". Po pierwsze, "idealny" może oznaczać
graniczny przypadek tego, co realne. W takim sensie mówimy na przykład o pewnej konkretnej

background image

nie spełniają żadnego z naszych dwu kryteriów nie znaczy więc bynajmniej, że w ogóle
one nie istnieją, znaczy to tylko, że ich sposób istnienia jest radykalnym przeciwieństwem
istnienia bytu realnego. Możemy wszak twierdzić (jest na to dowód w matematyce), że nie
istnieje największa liczba pierwsza, co nie miałoby większego sensu gdyby wszystkie
liczby jako byty idealne nie istniały. Zauważmy nadto, że uzyskane powyżej określenie
idealności nie implikuje ani nie zakłada "wieczności" czy "preegzystencji" tworów
idealnych. Implikuje ono tylko ich niezmienność, co bynajmniej nie wyklucza możliwości
ich powstania w czasie, to jest zaistnienia. Jakoż, to że jakiś twór zaistniał, nie oznacza
przecież, że uległ on zmianie – nie mógł ulec zmianie, skoro go przed tym momentem po
prostu nie było.

*

Na tym kończę sprawę konceptualizacji problemu istnienia. Chciałbym jednak

jeszcze na zakończenie wskazać Państwu pewien bezpośredni pożytek z uzyskanego
podziału.

Jeśli przyjmuje się, że pierwotną postacią bytu jest byt realny – tj. jeśli przyjmuje

się realny sposób istnienia za podstawowy – zajmuje się w ontologii stanowisko
realistyczne. Jeśli natomiast za taki pierwotny sposób bytowania przyjmuje się któryś z
pozostałych [tj. nie-realny], głosi się jakąś wersję stanowiska idealistycznego.

Ale nie każdy sposób istnienia może być uznany za podstawowy. Zauważmy, że

pierwotna postać bytu musi się charakteryzować zdolnością działania, tylko bowiem
wskutek działania możliwa jest jakakolwiek zmiana, a tym samym rozwój, tylko wówczas
może powstać coś nowego, bytującego w inny sposób. Z tego względu odpada np. uznanie
za byty pierwotne platońskich idei, co u samego Platona znajduje wyraz w tym, że musiał
on przyjąć dodatkowo niezależne od nich istnienie Demiurga i bezkształtnej materii.
Mówiąc ogólniej, odpada w tym względzie idealny i irrealny sposób bytowania.

Mamy zatem de facto do wyboru jedynie dwa możliwe pierwotne sposoby

bytowania: realny [=rzeczy i procesy] i nadrealny [=jakaś postać bytu duchowego – np.
Bóg bądź duch ludzki]. Zauważmy jednak, że duch ludzki może wprawdzie działać, ale
musi mieć na co działać; innymi słowy, osoba może co najwyżej tworzyć byty irrealne,
realne może tylko przetwarzać. W konsekwencji, byt nadrealny może być pierwotny
jedynie wówczas, gdy pojęty zostanie jako Stwórca [creatio ex nihilo].

A priori mamy zatem do wyboru jedynie dwa stanowiska: albo stanowisko

materialistyczne [jakaś postać bytu fizycznego jako byt pierwotny], albo kreacjonistyczno-
teistyczne. Sama analiza egzystencjalna nie pozwala rozstrzygnąć, które z nich jest
prawdziwe. Przesłanek do rozstrzygnięcia tego sporu – czy rację ma teista czy ateista –
dostarczyć może jedynie uwzględnienie drugiego wymiaru bycia, mianowicie bycia w
sensie predykatywnym, a w szczególności kwestii związanych z naturą tych dwu
kandydatów do miana bytu pierwotnego. Inaczej mówiąc, wymaga to pewnej teorii
dotyczącej tego, czym jest byt duchowy.

powierzchni, że jest idealnie gładka; o jakimś mechanizmie, że funkcjonuje idealnie; o jakimś człowieku, że
jest idealnym kandydatem na jakieś stanowisko; i tak dalej. "Idealny" w tym znaczeniu to tyle, co
posiadający jakąś stopniowalną cechę czy zespół cech w stopniu maksymalnym z możliwych, doskonały
pod jakimś względem, będący ideałem. Natomiast "idealny" w drugim ze wspomnianych wyżej sensów nie
oznacza granicznego przypadku, lecz radykalne przeciwieństwo tego co realne. Sama negacja "realności"
czegoś nie wystarcza - przedmioty idealne musi cechować jakieś bardziej sprecyzowane, radykalne
przeciwieństwo względem tego co realne, a pomiędzy nimi dwoma musi się znaleźć miejsce na inne jeszcze
modalności egzystencjalne.

background image

Moje własne rozważania w tym względzie doprowadziły mnie do wniosku, że byt

czysto duchowy – tj. nieufundowany w bycie fizycznym – w przeciwieństwie do ducha
ludzkiego, który posiada fundament w postaci mózgu – jest niemożliwy. Ergo, według
mnie racja w powyższym sporze znajduje się po stronie materializmu.

Te moje wnioski oparte są o pewną ontologię, którą określam mianem integralnej, a

która jest właśnie próbą takiej ontologii, która byłaby najogólniejszą teorią rzeczywistości.
Na kolejnym wykładzie zaprezentuję Państwu jej zręby. Od dotychczasowych rozważań
różnić się ona będzie tym, że zorientowana jest nie na opis rzeczywistości, lecz na
wyjaśnianie i rozumienie. Wymagać to będzie odmiennej konceptualizacji, nawiązującej
do wcześniej sformułowanego wniosku, że określenie (de-terminacja) jest zarazem o-
graniczeniem, a tym samym od-graniczeniem od czegoś innego. Innymi słowy, pojęcie
bytu ma charakter kontekstowy, zakłada istnienie innych bytów. W tej sytuacji istnienie
jakiegś bytu jest zarazem z konieczności jego współistnieniem z innymi bytami.


IV. Ontologia integralna

Integralne pojęcie bytu

W odniesieniu do prawie wszystkich bytów – poza bytem uznanym za pierwotny –

ich bycie czymś określonym jest byciem czymś określonym przez coś innego, a ich
istnienie wymaga spełnienia pewnych warunków, dzięki którym mogły one zaistnieć i
dzięki którym trwają (utrzymują się w byciu).

Zacznijmy od przykładu. Weźmy różę. Dzięki czemu jest ona czymś określonym,

tj. różą właśnie, posiadającą takie a nie inne łodyżkę, liście, kwiat, barwę? Dzięki temu, że
nasienie z którego się ona rozwinęła zawierało odpowiednie geny. Innymi słowy cechy
fenotypowe róży są określone, zdeterminowane przez jej genotyp zawarty w nasieniu, a
więc w czymś zewnętrznym względem samej róży. Z drugiej strony, na to aby ta róża w
ogóle zaistniała i utrzymywała się w istnieniu potrzebne są odpowiednie warunki glebowe
i klimatyczne (wilgoć, temperatura, nasłonecznienie, itp.). Te ostatnie nie mają żadnego
wpływu na istotowe, atrybutywne cechy róży – nie mogą na przykład sprawić aby z
nasienia róży wyrósł tulipan – mogą natomiast do pewnego stopnia modulować jej cechy
drugorzędne (akcydentalne) takie jak wysokość czy sprężystość, przede wszystkim zaś
dostarczają one budulca tworzącego tę różę i gwarantującego jej istnienie. Słowem,
określają one materię róży oraz są odpowiedzialne za jej zaistnienie i trwanie.

Nasuwa to pomysł nieco innego zdefiniowania bytu, określenia go przez czynniki

względem niego zewnętrzne. W odniesieniu do każdego bytu można mianowicie wyróżnić
jego czynniki determinacji, tj. takie czynniki od których zależy to, że ma on takie a nie
inne atrybuty (jest czymś określonym), oraz jego czynniki realizacji, od których z kolei
zależy to, że ten byt w ogóle powstał. Pierwsze określają wyczerpująco własności istotowe
poszczególnych bytów, drugie natomiast są odpowiedzialne zarówno za fakt powołania
ich do istnienia, jak i za ich nieistotowe przypadłości. Ogół takich czynników w sposób
jednoznaczny wyznacza dany byt.

background image

W konsekwencji możemy więc podać inne, równoważne poprzedniemu, ale o wiele

bardziej płodne poznawczo określenie bytu, sposób myślenia o nim:

byt

ogół jego czynników determinacji i realizacji.

Ś

ciśle rzecz biorąc, nie jest to definicja normalna bytu, lecz jedynie pewien

heurystyczny sposób jego pojmowania. Ma ono charakter nie czysto opisowy, lecz
wyjaśniający. Ujęcie takie ma wartość uniwersalną, daje się zastosować do bytów o
dowolnej istocie, naturze i formie kategorialnej. Ustalenie właściwych – i wszystkich –
czynników determinacji i realizacji jakiegoś bytu nie jest rzeczą łatwą, bowiem wymaga
uwzględnienia szerszej całości relewantnej dla danego bytu, pewnego usytuowania go w
rzeczywistości. Jeśli jednak da się je ustalić, wówczas ich znajomość pozwala wyjaśnić i
zrozumieć dlaczego coś istnieje i dlaczego jest takie a nie inne.

Każdy poznawany obiekt (stan rzeczy, zdarzenie, proces, itp.) można zatem

ujmować bądź w kategoriach opisowych, stwierdzających jaki ten obiekt jest (jakie ma
własności, ew. strukturę), bądź w kategoriach eksplanacyjnych (od czego zależy to, że jest
on taki a nie inny i że w ogóle istnieje). Wśród repertuaru kategorii eksplanacyjnych
należy przy tym dokonać rozróżnienia na czynniki realizacji (co jest potrzebne aby dany
obiekt powstał (zaistniał) oraz czynniki determinacji (od czego zależą atrybuty oraz sposób
zachowania tego obiektu).

Charakterystyka bytu za pomocą zewnętrznych czynników jego determinacji i

realizacji pozwala ująć każdy byt w sposób lokalny, przez jego najbliższe otoczenie, ale
nie w sposób globalny, tj. nie pozwala jeszcze na umiejscowienie tego bytu w całości tego
co istnieje. Cel ten uzyskamy, jeśli uda nam się określić pewne związki relacyjne o
charakterze przechodnim.

Związki ufundowania i umocowania

Zauważmy, że pewne czynniki realizacji danego bytu stają się następnie – choć z

reguły w zmienionej postaci – jego efektywną częścią (np. mąka jako czynnik realizacji
chleba), a inne nie (np. piec oraz energia cieplna). Podobnie w przypadku posągu (glina,
ręce rzeźbiarza). Czynniki pierwszego rodzaju określić można mianem fundamentu
bytowego
tego bytu, a relację istniejącą pomiędzy tym bytem i tymi czynnikami – relacją
ufundowania. Fundament bytowy stanowi materię (tworzywo) danego bytu.

Analogicznie, zewnętrzne czynniki determinacji jakiegoś bytu można określić

mianem jego umocowania bytowego i mówić odpowiednio o relacji umocowania. („B jest
umocowane w A” znaczy więc tyle co „A determinuje B”. Innymi słowy, umocowanie to
zewnętrzna determinanta. Podkreślam, że chodzi o determinanty zewnętrzne, bo pewne
cechy danego bytu zależą od jego własności wewnętrznych – na przykład od jego
struktury). Umocowaniem czegoś jest więc to, przez co owo coś jest określane, co jest
ź

ródłem jego istotowych własności, bycia czymś określonym (róża – gen, posąg – idea).

Umocowaniem zjawisk fizycznych są na przykład prawa przyrody, umocowaniem
twierdzenia matematycznego – pewien stan rzeczy (matematycznych) ujmowany przez
aksjomaty, a umocowaniem rozporządzeń i aktów prawnych niższego rzędu – akty prawne
wyższego rzędu, ostatecznie zaś konstytucja. Weźmy na przykład szkołę wyższą. Tym co
określa jej istotę jako instytucji pewnego rodzaju – że jest to na przykład akademia sztuk
pięknych albo szkoła biznesu – jest jej statut. Otóż statut taki nie może być dowolny, musi

background image

być zgodny z ustawą o szkolnictwie wyższym. Stanowi ona właśnie jego umocowanie, a
sama umocowana jest w konstytucji.

Zauważmy, że fundament bytowy jest bardziej samoistny niż to, co w nim

ufundowane, może bowiem istnieć w nieobecności tego co ufundowane, podczas gdy
sytuacja odwrotna nie zachodzi. Innymi słowy, relacja ufundowania jest niesymetryczna
(skierowana). Analogicznie, to co jest umocowaniem bytowym czegoś jest od tego czegoś
bardziej samodzielne – determinuje jego własności samo nie będąc przezeń
determinowane. Czynność na przykład – rozumiana jako zespół ruchów fizycznych –
umocowana jest w intencji jej wykonawcy, intencja – w pewnym celu, tj. wyobrażonym,
ale nie istniejącym jeszcze realnie stanie rzeczy, a cel z kolei – w pewnej wartości.
Czynność zatem jest w tym szeregu najmniej samodzielna, a wartość – najbardziej.

Fundament bytowy sam też jest bytem pewnego rodzaju, zatem posiada swój

własny fundament bytowy (np. osoba

ożywione ciało

materia). Podobnie rzecz się

ma z umocowaniem. Innymi słowy, relacje ufundowania i umocowania są przechodnie
jeśli A jest fundamentem (umocowaniem) B, a B fundamentem (umocowaniem) C, to A
jest też fundamentem (umocowaniem) C.

Jeśli między elementami zbioru istnieją relacje niesymetryczne i przechodnie, to

zbór ten daje się uporządkować (jego elementy można uszeregować w określonym
porządku). Stąd wniosek, że rozważane relacje generują pewne zbiory uporządkowane –
porządki ufundowania i umocowania. (Przykład pierwszego: chleb

mąka

zboże

gleba

pierwiastki chemiczne; przykład drugiego: czynność

intencja

cel

wartość). Porządków takich - czyli zbiorów bytów powiązanych relacjami ufundowania i
relacjami umocowania – jest wiele. Każdy byt należy do jakiegoś porządku ufundowania i
do jakiegoś porządku umocowania. Poznać jakiś byt to usytuować go w ramach obu tych
porządków. Usytuowanie to stanowi jak gdyby "adres" danego bytu w rzeczywistości,
przy czym usytuowanie w porządku ufundowania określa naturę danego bytu, a w
porządku umocowania – jego istotę.

Można to graficznie zilustrować w sposób następujący
(rysunek)


Istnieje twierdzenie matematyczne które mówi, że każdy zbiór uporządkowany

posiada element pierwszy bądź ostatni (np. najmniejszy bądź największy, jeśli relacją
porządkującą jest relacja "większy od"). Zatem również każdy z dwu omawianych przez
nas porządków posiada taki wyróżniony element, mianowicie ostateczne ufundowanie i
ostateczne umocowanie. Według ontologii integralnej, ostatecznym fundamentem bytów o
różnej naturze jest zawsze jakiś byt fizyczny, natomiast ostatecznym umocowaniem
dowolnego bytu jest zawsze jakiś byt idealny - w dziedzinie przyrodoznawstwa będą to
prawa przyrody, w dziedzinie humanistyki wartości, a w dziedzinie nauk formalnych
podstawowe związki istotowe wyrażone w postaci aksjomatów.

Byty mające takie same czynniki determinacji mają taką samą istotę, a tym samym

należą do tego samego rodzaju (np. pierwiastki chemiczne, gatunki biologiczne). Im
więcej takich wspólnych czynników, tym rodzaj bardziej szczegółowy, a indywidua do
niego należące bardziej do siebie podobne (np. lwy i tygrysy należące do rodzaju kotów); i
odwrotnie, im mniej wspólnych czynników determinacji, tym rodzaj bardziej ogólny, a

background image

indywidua doń należące bardziej zróżnicowane pomiędzy sobą (np. ryby i ssaki jako
kręgowce). Stanowi to podstawę rozmaitych klasyfikacji – na przykład. systematyki
(taksonomii) biologicznej, w ramach której uniwersum indywiduów dzieli się na gatunki,
rodzaje, rodziny, rzędy itd., przy czym każdy kolejny z wymienionych zbiorów
indywiduów charakteryzuje się coraz mniejszą ilością wspólnych czynników determinacji.

Tak więc z uwagi na istotę ogół bytów indywidualnych można podzielić na

poszczególne gatunki, rodzaje, itd. Określone w ten sposób zbiory indywiduów są
zbiorami w sensie dystrybutywnym – tj. zbiorami elementów posiadających wspólne
własności – a nie kolektywnym. Są to zbiory abstrakcyjne, nie stanowiące żadnej zwartej
całości, spójnej struktury. Tymczasem rzeczywistość, powiedzieliśmy, jest właśnie
całością, zbiorem kolektywnym, układem wzajemnie powiązanych elementów. Stąd
wniosek że czynników "zlepiających" poszczególne byty w jedną całość nie możemy
poszukiwać w istocie rzeczy. Jeśli więc nie w istocie, to zapewne w naturze rzeczy.

Słowo "natura" – odpowiednik greckiego physis – oznacza coś co się rodzi, staje,

zmienia, rozrasta, ale w uporządkowany, prawidłowy sposób, co podlega pewnemu prawu,
funkcjonuje według pewnych zasad. Gdyby więc udało się wykryć w rzeczywistości zbiór
takich prawidłowości czy zasad charakteryzujących powstawanie, funkcjonowanie i
przekształcanie się rzeczy, i gdyby były one ze sobą w jakiś sposób powiązane, nasz cel –
ujęcie rzeczywistości jako całości – zostałby osiągnięty.

Warstwowa budowa rzeczywistości

Kiedyś myślano tak. Skoro rzeczywistość jest całością znaczy to, że składa się ona

z jakichś powiązanych ze sobą części. Pojęcie złożoności zakłada ideę jakichś elementów
prostszych, a ostatecznie bezwzględnie prostych (elementarnych), z których powstało i
zbudowane jest wszystko co złożone. To co elementarne stanowiłoby tedy zasadę
rzeczywistości - zarazem początek wszystkiego, jak i niezniszczalny składnik, tworzywo z
którego wszystko jest zbudowane i które trwa przy wszelkich przekształceniach, stanowiąc
o jedności świata. Tworzywo takie nazywano najczęściej substancją, rozumiejąc przez to
właśnie coś pierwotnego i samoistnego zarazem.

Pojawia się więc w sposób naturalny pytanie, co jest zasadą wszelkiej

rzeczywistości i czy taka zasada jest jedna czy jest ich więcej. Ci którzy twierdzili, że
istnieje tylko jedna substancja, to moniści (od "monos" – pojedyńczy). Wskazywano na
przykład, że zasadą taką jest woda, powietrze, ogień, atomy, bezkres. Ale co mają
wspólnego kamień, uczucie, liczba, czy mogą one składać się z takich samych elementów?
Wydaje się to absurdalne. Uznano zatem, że trzeba przyjąć istnienie wielu substancji
(pluralizm). Szczególnym przypadkiem pluralizmu jest dualizm – stanowisko głoszące
istnienie dwóch substancji – na przykład materialnej i duchowej.

Stanowiska monistyczne i pluralistyczne napotykają na swej drodze odmienne

trudności teoretyczne. Dla monizmu jest to problem żnorodności bytów – istnieją wszak
obiekty zupełnie na pierwszy rzut oka nie mające ze sobą nic wspólnego (np. kamień,
uczucie, liczba), jak więc można sprowadzić je (zredukować) do jednej zasady? Dla
pluralizmu natomiast problemem takim jest kwestia początku: czy postulowane przezeń
odmienne substancje istnieją od zawsze, czy też w jakiś sposób jedne wyłoniły się z
drugich? a może zostały stworzone? Ale wtedy nie byłyby substancjami – czymś

background image

samoistnym. Najlepiej byłoby w związku z tym, gdyby w jakiś sposób udało się połączyć
monizm z pluralizmem – jedna substancja wyjściowa, ale podlegająca przekształceniom
tego rodzaju, że w ich wyniku powstają byty o odmiennej naturze. Rzecz zatem sprowadza
się do określenia od czego zależy natura poszczególnych bytów. W tym celu winniśmy
poszukać innej zasady – nie substancjalnej. Przypomnę, że zasada (arche) to coś
pierwotnego czy też pierwszego (źródłowego), ale niekoniecznie w sensie pierwszeństwa
w czasie, lecz w sensie podstawy.

Ta poszukiwana zasada to coś pierwotnego nie w sensie egzystencjalnym (tj. coś

samoistnego), lecz w sensie predykatywnym (coś samodzielnego, co w swym byciu czymś
nie zależy już od niczego innego); nie czynnik realizacji, lecz czynnik determinacji.
Musimy w tym celu – zamiast kategoriami substancji czy substratu – myśleć kategoriami
atrybutów (własności). Poszukiwaną zasadą (a ściślej zasadami, gdyż będzie ich kilka)
będzie mianowicie coś, czego przejawem czy odmianą są – i do czego dają się sprowadzić
– poszczególne czynniki determinacji, ich wspólna podstawa czy też wspólny
„mianownik”.

Poniżej przedstawię propozycję utrzymaną w takim właśnie duchu. Jej punktem

wyjścia jest spostrzeżenie, że istnieją wyraźnie wyodrębnione dziedziny rzeczywistości dla
poznania których potrzebne są odmienne metody i zespoły pojęć. Ludzi na przykład
opisujemy i wyjaśniamy ich cechy za pomocą innych pojęć niż te, których używamy w
odniesieniu do obiektów matematycznych, a zwierzęta wymagają innego aparatu
poznawczego niż ciała niebieskie. Poznać jakiś byt to m. in. określić od czego zależy, że
jest on taki a nie inny, słowem znaleźć odpowiednie czynniki determinacji. Skoro zatem
pewne rodzaje obiektów charakteryzujemy za pomocą odrębnych, właściwych im
kategorii poznawczych, to nasuwa się myśl, że ogół czynników determinacji można
podzielić na pewne klasy których elementy mają ze sobą coś wspólnego. Taki wspólny
mianownik określać będę mianem zasady determinacyjnej. Innymi słowy, poszczególne
czynniki determinacji zostają potraktowane jako przypadki szczególne takich zasad.
Zasady determinacyjne określają typ prawidłowości jakiemu poddane są odpowiednie
dziedziny bytu. Byty określane przez wspólną zasadę mają taką samą naturę, tworząc
odrębną dziedzinę czy warstwę rzeczywistości.

Twierdzę, że istnieją cztery zasady determinacyjne, mianowicie relacja (bądź układ

relacji, co można ogólnie określić mianem formy bądź struktury), informacja,
reprezentacja
i sens. Każda z nich wyznacza odrębną dziedzinę bytu, określając charakter
prawidłowości w niej panujących.

Zobaczmy, jak to się przedstawia w odniesieniu do pierwszej z tych zasad, która

wyznacza dziedzinę bytu fizycznego.

Jak wiadomo, wszystkie ciała zbudowane są ze związków chemicznych, one zaś z

atomów poszczególnych pierwiastków. Atomy z kolei zbudowane są z jąder i powłok
elektronowych, a jądra z protonów i neutronów (nukleony). Protony, neutrony i elektrony
nazywa się cząstkami elementarnymi, z tym że nukleony nie są tak naprawdę elementarne,
tj. niezłożone, gdyż według dzisiejszej wiedzy zbudowane są z kwarków. Przy dzisiejszym
stanie wiedzy właśnie kwarki uznaje się – obok elektronów – za najbardziej elementarne
cegiełki materii. Zatem tworzywem wszystkich ciał są ostatecznie kwarki i elektrony. Stąd
wniosek, że tym co stanowi o żnicy pomiędzy atomami jest ich forma, tj. struktura.
Struktura ta stanowi też zarazem czynnik odpowiedzialny za własności poszczególnych

background image

atomów47. To samo da się powiedzieć o kolejnych poziomach złożoności – cząsteczkach
chemicznych, substancjach, ciałach. Własności ich zdeterminowane są przez strukturę
tworzoną przez elementy z niższego poziomu złożoności. Powstawanie nowych bytów
złożonych może być zatem przedstawione jako proces iteracyjny – nowe powstaje ze
starego w drodze nowego ukształtowania, powiązania elementów już istniejących. A
dochodzi do tego wskutek istnienia rozmaitych oddziaływań fizycznych, które pospołu z
tymi elementami stanowią czynniki realizacji układów fizycznych wyższego rzędu.

Ostatecznym umocowaniem poszczególnych zjawisk, (zdarzeń, procesów,

związków itp.) fizycznych są prawa przyrody – niezmienne relacje między różnymi
wielkościami fizycznymi. Wielkości te mogą się zmieniać, ale odbywa się to w sposób
niedowolny, tak że zachowana zostaje pewna relacja, związek między nimi. Związki te

mogą mieć postać związków przyczynowo-skutkowych48 (np. prawo Ampere'a), związków
współzale
żności (np. prawo Culomba), bądź związków bilansowania się pewnych
wielkości (tzw. "prawa zachowania"). Zasady zachowania masy, energii, pędu, ładunku
elektrycznego itp. określają relacje istniejące pomiędzy dwoma stadiami czasowymi
jakiegoś procesu – przed pewnym zdarzeniem i po nim. Konkretne jednostkowe
okoliczności mogą ulegać zmianom (są to tzw. warunki początkowe), są więc one
nieistotne, stała jest natomiast pewna relacja. Innymi słowy prawo przyrody ma również
charakter formalny, polega bowiem na istnieniu określonej relacji pomiędzy jakimiś
wielkościami fizykalnymi.

W fizyce współczesnej przyjmuje się, że wszystkie zasady zachowania mają swe

ź

ródło w pewnych postaciach symetrii, symetria zaś to również pojęcie dotyczące formy.

O symetrii mówimy w sytuacji, w której jakiś obiekt nie zmienia się mimo dokonania na
nim jakichś operacji, tj. kiedy jest niezmiennikiem tych operacji. Operacjami takimi mogą
być na przykład przesunięcia i obroty. Otóż – mówiłem już o tym wcześniej – zasada
zachowania energii związana jest z izotropowością czasu, tj. z niezmienniczością relacji
między wielkościami fizycznymi względem przesunięcia w czasie (innymi słowy są one
symetryczne względem przesunięcia w czasie); zasada zachowania pędu – z
jednorodnością przestrzeni (niezmienniczością względem przesunięcia w przestrzeni), a
zasada zachowania momentu pędu – z izotropowością przestrzeni (niezmienniczościa
względem obrotów).

Generalną zasadą funkcjonowania świata fizycznego – nazywa ją się zasadą

najmniejszego działania – jest to, że układy fizyczne tworzą stabilne układy wówczas, gdy
cechuje je minimum energii swobodnej. Zgodnie z tą zasadą spośród różnych możliwości
urzeczywistniona zostaje ta, w której wielkość zwana działaniem jest najmniejsza.
Prowadzi to do urzeczywistniania procesów cechujących się minimalną utratą energii
swobodnej. Stany o minimum energii są stanami równowagowymi, stacjonarnymi.
Równowaga zaś to pojęcie strukturalne, dotyczące formy, gdyż jest to pewna relacja
pomiędzy elementami jakiejś całości.

47 W szczególności, różne własności mają ciała zbudowane z takich samych atomów, ale odmiennie
uporządkowanych. Widać to dobrze na przykładzie węgla (grafit, diament).
48 Związek przyczynowo-skutkowy to związek w którym przyczyna jest warunkiem wystarczającym
skutku, a skutek - warunkiem koniecznym przyczyny. Innymi słowy, nie może być tak, że pojawiła się
przyczyna, a nie pojawił się skutek. Natomiast ten sam skutek może być wynikiem różnych przyczyn,
dlatego też przyczyna nie jest koniecznym warunkiem pojawienia się skutku.

background image

Widzimy więc, że w istocie forma (układ relacji pomiędzy elementami składowymi

pewnej całości) jest zasadą determinacyjną warstwy bytów fizycznych – "wspólnym
mianownikiem" takich czynników determinacji jak struktura, symetria, równowaga czy

prawo przyrody49. Natomiast czynnikiem realizacji poszczególnych obiektów i zjawisk
fizycznych są prostsze od nich byty materialne oraz energia (w postaci oddziaływań –

jądrowych, grawitacyjnych, elektromagnetycznych, itp.)50. Rozmaite twory fizykalne
powstają i stanowią stabilne, trwałe układy dzięki takim oddziaływaniom właśnie.
Zarówno powstawanie nowych układów fizykalnych, jak i ich trwanie oraz zmienianie się
zależne są od bilansu istniejących oddziaływań. Tam gdzie wypadkowa oddziaływań jest
równa zeru mamy do czynienia z układami stacjonarnymi, natomiast jeśli istnieje jakaś
siła niezrównoważona przez inne, występują zdarzenia i procesy prowadzące do powstania
nowych zjawisk i stanów rzeczy.

*

Przejdźmy do krótkiej charakterystyki kolejnych zasad determinacyjnych. Przez

informację rozumiem wykrytążnicę stanów fizycznych. Różnica jest pewną relacją
(nawiązanie do zasady poprzedniej), mianowicie relacją nietożsamości. Novum polega
natomiast na tym, że ta różnica ma zostać wykryta przez jakiś układ. Układami takimi są
wszystkie organizmy żywe, w związku z czym informacja jest zasadą determinacyjną
dziedziny organicznej; innymi słowy, wszystkie procesy swoiście biologiczne –
dziedziczność, metabolizm, przystosowanie do środowiska itp. – są procesami
informacyjnymi.

Różnica o której mowa w definicji informacji, może być dwojakiego rodzaju, może

być mianowicie różnicą typu selekcji (który z rozróżnianych stanów aktualnie został
wykryty), bądź różnicą typu zestawu (różnica stanów współwystępujących). W pierwszym
wypadku mamy do czynienia z informacją jakościową, w drugim natomiast z informacją
strukturalną. Nietrudno przy tym zauważyć, że informacja strukturalna jest zbudowana z
informacji jakościowych, bowiem wykrycie różnicy stanów współwystępujących wymaga
uprzedniej identyfikacji samych tych stanów, co odpowiada uzyskaniu informacji
jakościowej. Można w związku z tym wprowadzić pojęcie rzędu informacji: informacja n-
tego rzędu jest strukturą informacyjną, której elementami są informacje rzędu n-1.

49To, że zasadą determinacyjną w warstwie bytów fizycznych jest forma pozwala wyjaśnić i zrozumieć
dlaczego w naukach fizycznych tak nieodzownym i owocnym narzędziem poznawczym jest matematyka.
Matematyka bada relacje pomiędzy obiektami niezależne od materii (natury) obiektów pomiędzy którymi te
relacje zachodzą, a więc relacje o charakterze czysto formalnym. W związku z abstrahowaniem od natury
obiektów struktury izomorficzne, tj. takie w których występują takie same relacje, są z matematycznego
(formalnego) punktu widzenia równoważne. Oznacza to, że twierdzenia odnoszące się do jakiejś dziedziny
są prawdziwe również w odniesieniu do wszystkich dziedzin z nią izomorficznych. Jeśli zatem struktura
(forma) jakiejś dziedziny świata fizykalnego jest izomorficzna ze strukturą jakiejś dziedziny
matematycznej, to twierdzenia matematyczne o tej ostatniej są ważne również w odniesieniu do tej
pierwszej.
50Na marginesie, byty materialne właśnie dlatego są bytami realnymi, a więc takimi które mogą działać i
być przedmiotem oddziaływania, że materia jest równoważna energii, przez co rozumiemy właśnie jej
zdolność działania, wykonywania pracy.

background image

To co określam mianem reprezentacji jest strukturą informacyjną rzędu drugiego,

tj. integralnie traktowanym zbiorem informacji elementarnych (pierwszego rzędu,
jakościowych). Odwzorowanie świata zewnętrznego w centralnym układzie nerwowym za
pomocą odpowiednich receptorów zmysłowych jest właśnie tak rozumianą reprezentacją.
Odwzorowanie to jest podstawą funkcjonowania zwierząt, bo dzięki niemu uzyskują one
informacje o świecie zewnętrznym i o stanach swego własnego organizmu. Dzieki temu,
reprezentacja jest zasadą determinacyjną dziedziny bytu psychicznego.

I wreszcie krok ostatni. Jeśli istnieje układ zdolny uchwycić istotę reprezentacji, tj.

fakt, że reprezentuje ona coś innego (układem takim jest to, co nazywa się umysłem),
wówczas dla takiego układu reprezentacja staje się znakiem czegoś. W ślad za tą
zdolnością idzie wówczas zdolność przejścia od reprezentacji do tego co reprezentowane,
czyli do przedmiotu znaku. Przedmiot znaku nie jest jednak tożsamy z tym elementem
ś

wiata zewnętrznego, który jest źródłem reprezentacji, jest on natomiast wyznaczony przez

informacje zawarte w reprezentacji, które nie tylko coś reprezentują, ale które zarazem to
coś w pewien sposób – zależny od aparatu poznawczego odpowiedniego układu
informacyjnego – prezentują. Jest on zatem, jako skonstruowany na bazie informacji,
obiektem wirtualnym. Tak rozumiany przedmiot znaku określam mianem jego sensu.

Mówiąc ogólniej, sens to domniemane przez jakiś podmiot umocowanie bytowe

czegoś co temu podmiotowi dane, a co traktowane przezeń jako niesamodzielne. Tak
określony sens stanowi zasadę determinacyjną dziedziny bytu duchowego.

Należy rozróżniać dwa generalne zastosowania terminu „sens”. Aby to stało się

jasne, musimy dokonać choćby pobieżnego wglądu w dziedzinę ludzkiej duchowości. Na
dziedzinę tę składają się dwa heterogeniczne pierwiastki – kognitywne i ekspresywne –
mianowicie przedmiotowe przedstawienia i czysto podmiotowe fenomeny wyrazowe.
Przedstawienia to treści spostrzeżeniowe, wyobrażenia, pojęcia oraz zbudowane na ich
podstawie sądy. Ich cechą charakterystyczną jest to, że spełniają funkcję reprezentowania
czegoś, odsyłania do czegoś; słowem – należą do dziedziny znaków

51

. Natomiast

fenomeny wyrazowe – akty, postawy, uczucia, dążenia, itp. – nie mają charakteru znaków,
do niczego nie odsyłają ani nic nie zastępują, są tym czym są.

Umówimy się, że tę część zasobów duchowych, która polega na operowaniu

przedstawieniami poznawczymi – ich łączeniu, przetwarzaniu, uogólnianiu, włączając w
to mechanizmy i zasoby pamięci – będziemy określać mianem umysłu, tę zaś, której
ż

ywiołem są fenomeny wyrazowe – duszą. Natomiast instancję, która pomiędzy umysłem

i duszą pośredniczy, która je kontroluje i zespala w jedną całość, proponuję nazwać
duchem. Duch zatem, to nic innego, jak podmiot, czy też Ja. Wreszcie, jedność tych trzech
instancji stanowi osobę.

Każdy ze wspomnianych wyżej pierwiastków posiada swój sens, tj. hipotetyczne

[domniemane przez ich podmiot] umocowanie bytowe w czymś bardziej od siebie

51 Przez znak rozumie się coś, co nie interesuje nas jako takie, lecz w swej funkcji

reprezentowania

czegoś innego, co więc odsyła do czegoś innego. Ponieważ owo odsyłanie odbywa się w jakimś umyśle, a
w każdym razie za pomocą umysłu, implikuje to, że znakami są pewne treści umysłowe – obiekty
fizyczne są jedynie mediami, środkami przekazu, nośnikiem funkcji znakowych. Rozróżnia się znaki nie
umowne – oznaki (odsyłające na mocy swego związku naturalnego z czymś innym; np. dym i ogień) i
ikony (odsyłające na mocy swego podobieństwa do czegoś (np. zdjęcie) – oraz umowne (symbole; są nimi
np. wszystkie nazwy).

background image

samodzielnym. Sensem przedstawienia poznawczego – czymś co musimy założyć, aby to
przedstawienie było przedstawieniem czegoś, tj. aby miało sens właśnie – jest przedmiot
bądź stan rzeczy wyznaczony przez treść tego przedstawienia, a sensem fenomenów
wyrazowych – uczuć, pragnień, itp. – w ostatniej instancji jakaś wartość, gdyż to wartości
nadają ostatecznie sens naszemu wyrazowemu byciu.

W konsekwencji istnienia owych czterech zasad determinacyjnych należy wyróżnić

pięć warstw bytowych (ostatnia z nich nie ma swej własnej zasady determinacyjnej,
podobnie jak pierwsza nie posiada fundamentu bytowego w czymś o innej naturze),
mianowicie warstwy bytu fizycznego (materii nieożywionej, zasada – relacja), bytu
biologicznego (materii ożywionej, zasada – informacja), bytu psychicznego (zasada –
reprezentacja), bytu duchowego (zasdada – sens) i warstwa bytów inteligibilnych.
Warstwy te są uszeregowane epigenetycznie – każda następna ("wyższa") jest ufundowana
w poprzedniej ("niższej"), wymaga więc jej uprzedniego istnienia jako swego fundamentu
bytowego, swego czynnika realizacji – byty ożywione powstać mogą jedynie na
fundamencie materii nieożywionej, psychikę posiadać mogą jedynie byty ożywione, i tak
dalej. Nie są one jednak usytuowane względem siebie jak poszczególne warstwy cegieł w
murze, nie "stykają" się ze sobą, lecz posiadają część wspólną. Byty należące do warstwy
fundującej (pewne z nich, nie wszystkie) stanowią mianowicie materię bytów należących
do warstwy w niej ufundowanej (wyższej), która ze swej strony wnosi coś nowego pod
postacią formy (organizacji, struktury). Można to graficznie przedstawić następująco

(rysunek)

Racją wyodrębnienia poszczególnych warstw bytowych jest tedy odmienność zasad

determinacyjnych którym podporządkowane są rozmaite byty. Wskutek odmienności
zasad determinacyjnych właściwych poszczególnym warstwom, każda warstwa jest
autonomiczna względem pozostałych. Twory każdej warstwy są zdeterminowane – czego
konsekwencją jest fakt występowania rozmaitych prawidłowości – ale każdej w odmienny,
właściwy dla niej sposób. Nie można więc tworów warstw wyższych i prawidłowości ich
funkcjonowania redukować do niższych (na przykład utożsamiać procesów umysłowych z
procesami fizjologicznymi w mózgu), ani odwrotnie (na przykład wyjaśniać zachowanie
zwierząt w swoistych dla warstwy duchowej kategoriach celowości). Metodologiczna
procedura redukcji jest uprawniona tylko tam, gdzie obowiązują te same zasady
determinacyjne, tj. wewnątrz poszczególnych warstw. Tylko wyjaśnienia w kategoriach
właściwych dla danej warstwy (odmiany jej zasady determinacyjnej) dają rzeczywiste
rozumienie, a nie jego pozór.

O jedności rzeczywistości – o tym, że nie ma w niej jakichś części nie związanych z

innymi, nie wintegrowanych w jakieś szersze całości – stanowi po pierwsze to, że każdy
byt należy do jakiegoś porządku ufundowania, w ramach którego twory warstwy niższej
stanowią materię tworów warstwy wyższej. (Uczucie czy liczba nie są wprawdzie
zbudowane z atomów, ale są ufundowane w warstwie bytów fizycznych, które są
niezbędne dla ich zaistnienia).

Po drugie, o jedności tej stanowi to, że każda następna zasada determinacyjna

powstaje w wyniku przekształcenia i wzbogacenia swej poprzedniczki. Jakoż, nie tylko
kolejne warstwy bytowe pozostają ze sobą w takiej genetycznej zależności, ma to miejsce

background image

również w odniesieniu do zasad determinacyjnych Mianowicie, zasada determinacyjna
każdej warstwy ufundowanej powstaje jako strukturalne wzbogacenie, przekształcenie
zasady warstwy fundującej. Zasada warstwy wyższej jest pewną strukturą, której
elementami budulcowymi – tworzywem, materią, substratem, nośnikiem – są twory
bytowe będące zasadami determinacyjnymi warstwy niższej. Zasady te są więc jak gdyby
złożeniem "materii", którą wnosi zasada warstwy niższej, i "formy", dodawanej przez
nową warstwę. Pojawienie się nowej zasady polega tedy na powstaniu struktury wyższego
rzędu w stosunku do struktur występujących uprzednio, czyli struktury, której elementami
są struktury warstwy niższej; jest to więc struktura struktur. W sekwencji zasad
determinacyjnych relacja informacja reprezentacja sens związki sensu każda
poprzednia jest warunkiem pojawienia się następnej, a najczęściej również jej tworzywem.
Tworzywem informacji są struktury materialne, tworzywem reprezentacji są informacje, a
tworzywem sensu – reprezentacje.

Tym samym widzimy, że można „pogodzić” monizm z pluralizmem. Można być

monistą, głosząc, że ostatecznym fundamentem bytowym wszystkiego co istnieje jest
materia jako jedyny rodzaj bytu samoistnego (jedyna substancja), a zarazem pluralistą –
stwierdzając

istnienie

wielu

wzajemnie

nieredukowalnych,

choć

genetycznie

powiązanych, zasad determinacyjnych. Nie jest to więc pluralizm substancji ani własności,
lecz pluralizm zasad.


Wszystkie byty składające się na rzeczywistość należą do którejś z wymienionych

warstw, podział rzeczywistości na pięć warstw jest więc wyczerpujący. (Nie ma w nim
miejsca na Boga, gdyż choć pojmowany jest on jako byt duchowy, to jest zarazem
traktowany jako byt samoistny, a nie ufundowany w niższych warstwach). Nieco bardziej
skomplikowana jest natomiast kwestia jego rozłączności. Jak widzieliśmy, byty warstwy
wyższej są ufundowane w bytach warstwy niższej, co oznacza, że pewną swą częścią
należą też do tej niższej warstwy, są w niej "zanurzone". Dla przykładu: człowiek
pojmowany jako osoba należy do warstwy bytów duchowych. Ale z racji posiadania ciała
należy też on do warstw niższych. Jeśli jednak uwzględnić, że o naturze dowolnego bytu
stanowi najwyższa z warstw do których różnymi swymi aspektami ten byt należy (jego
usytuowanie w porządku ufundowania), podział nasz okazuje się już rozłączny. Natomiast
w wielu przypadkach jest on podziałem nieostrym – raczej typologią niż klasyfikacją –
bowiem w świecie wiele jest sytuacji granicznych, przejściowych, co nie powinno dziwić
jeśli akceptuje się teorię ewolucji. Nie można na przykład przeprowadzić ścisłej granicy
pomiędzy organizmami zwierzęcymi już posiadającymi i jeszcze nie posiadającymi
właściwości psychicznych, gdyż powstawanie wymiaru psychicznego miało charakter
stopniowych zmian. Z drugiej strony, niektóre istoty w trakcie swego istnienia podlegają
jakościowym zmianom, zmieniając swą naturę. Człowiek na przykład zaczyna istnieć jako
zapłodniona komórka jajowa, jest więc w tej fazie swego życia bytem czysto
biologicznym – żywą komórką; rozwijając się, stopniowo osiąga stadium bytu
psychicznego, by wreszcie stać się istotą duchową – osobą. Nie ma jednak ostrej cezury
pomiędzy tymi stadiami, jest to bowiem proces o charakterze ciągłym.

*

Czy i w jaki sposób mogą na siebie oddziaływać czy wpływać twory należące do

żnych warstw? Przedstawiony dotychczas obraz stosunków pomiędzy kolejnymi
warstwami bytowymi prowadzi do wniosku, że każdy twór warstwy wyższej pewnym

background image

swym aspektem należy również do warstwy niższej, posiada z nią wspólną część, jest w
niej "zanurzony". Stąd bierze się możliwość wzajemnego oddziaływania tworów
należących do różnych warstw. Obowiązuje jednak w związku z tym następująca zasada:
twory warstwy niższej oddziaływać mogą tylko na fundament bytowy, substrat tworów
warstwy wyższej, i tylko poprzez to bezpośrednie oddziaływanie na substrat mogą
wywierać pośredni warunkujący wpływ na to, co stanowi o istocie tworów warstwy
wyższej, funkcjonujących w oparciu o własną zasadę determinacyjną. Innymi słowy,
oddziaływanie warstwy niższej na wyższą nie ma charakteru determinacji, lecz realizacji,
tj. uwarunkowania. Czynniki klimatyczne (temperatura, nasłonecznienie, wilgotność) nie
mogą na przykład determinować mechanizmu i sekwencji procesów regulacyjnych w
komórkach rośliny, mogą natomiast warunkować przebieg tych procesów i ich
efektywność. Podobnie, ani czynniki fizykalne (na przykład narkotyk), ani biologiczne (na
przykład zaburzenia metabolizmu) nie mogą działać wprost na umysł; mogą one natomiast
oddziaływać na fizjologiczne stany i procesy w układzie nerwowym będące fundamentem
bytowym stanów i procesów umysłowych i przez to pośrednio wpływać na treść i sposób
funkcjonowania psychiki.


V. Monizm vs pluralizm



Tradycyjnie stanowiska monizmu i pluralizmu związane były z odpowiedzią na

pytanie o arche (tj. o pierwotne tworzywo, zasadę substancjalną). Jak jednak wiadomo, u
presokratyków występowały dwa podstawowe, a przy tym logicznie niezależne od siebie
pojęcia ontologiczne – arche i physis, co sugeruje, że podobne zróżnicowanie może też
dotyczyć pytania o physis. Nie jest to przy tym tylko przygodna okoliczność historyczna,
gdyż do podobnego wniosku prowadzi analiza samego pojęcia bytu, mianowicie
zasadnicza dwoistość zawarta w tym pojęciu. Krótko mówiąc sądzę, że zastosowanie
dystynkcji monizm-pluralizm jest adekwatne w odniesieniu do obu tych pojęć – zarówno
do tego co samoistne (fundament bytowy wszystkiego), jak i do tego co samodzielne
(zasada determinacyjna).

Pojęcia arche i physis wprowadzono w toku rozważania dwu kwestii. Po pierwsze,

ponieważ świat jaki znamy z potocznej obserwacji jawi się jako zróżnicowany, powstaje
pytanie, czy tak było zawsze, czy też za obserwowaną wielością (zróżnicowaniem,
różnorodnością) bytów skrywa się coś, co na początku było Jedno, i z czego wszystko się
wywodzi, co zatem stanowi o zasadniczej jedności rzeczywistości? Po drugie, potoczna
obserwacja wskazuje, że wszędzie mamy do czynienia z procesami, zmianami
(powstawaniem, rozwojem i zanikiem), a również z oddziaływaniem, zależnością itp.
jednych bytów od drugich. Czy za tą zmiennością ukrywa się jakaś stałość? Czy w
podobnych warunkach zajdą podobne zdarzenia? Czy wszystko ma jakąś przyczynę,
podlega jakimś prawom?

Pytania te składają się na treść zagadnienia determinizmu.

Swoje rozważania w kwestii sporu pomiędzy monizmem i pluralizmem rozbiję w

związku z tym na dwa wątki, jeden dotyczący zagadnienia determinizmu (tutaj będę
optował na rzecz pluralizmu – istnieje wiele typów determinizmu), drugi natomiast będzie

background image

dotyczyć zasady substancjalnej (tu z kolei rację ma według mnie monizm – istnieje tylko
jedna zasada substancjalna).

Dziś będzie o physis, tj. o naturze rzeczy.
Słowo natura oznacza coś co się rodzi, staje, rozwija i funkcjonuje w pewien

prawidłowy sposób. Dotyczy więc ono dynamiki, wymiaru czasowego, procesów, zdarzeń.
Ideą nadrzędną, kierującą poszukiwaniem odpowiedzi jest tu – milcząco zrazu
przyjmowane, bo charakteryzujące nasz sposób myślenia – założenie, że nic nie dzieje się
bez powodu. Leibniz nazwał to później zasadą racji dostatecznej. „Dostateczny” to tyle co
wystarczający. A ponieważ warunek wystarczający czegoś określiliśmy wcześniej mianem
przyczyny, przeto ideę tę można wyrazić mówiąc, że każda zmiana (a tym samym każde
zdarzenie) ma swą przyczynę. Przyczyna zatem to nie po prostu zdarzenie stale czy
regularnie poprzedzające inne zdarzenie, bo na przykład dzień zawsze poprzedza noc, a
nie jest jej przyczyną; podobnie jest z hamowaniem, poprzedzającym z reguły moment
wypadku drogowego. Chodzi o pewien wewnętrzny związek pomiędzy zdarzeniami, z
których pierwsze ma mieć moc sprawczą. Jeśli się tego nie uwzględnia, popełnia się błąd
post hoc, ergo propter hoc (po czymś, a zatem z powodu tego czegoś).

Z drugiej strony, rozróżnienie warunku wystarczającego i warunku koniecznego –

które mogą, ale nie muszą się pokrywać (z logicznego punktu widzenia różnicę tę można
wyrazić następująco: kiedy się nie pokrywają mamy implikację, kiedy zaś się pokrywają –
równoważność) – wskazuje, że warunek wystarczający może, ale nie musi być przyczyną
czegoś innego. Innymi słowy, to samo zdarzenie może mieć różne przyczyny.

Formalnie rzecz biorąc, związek przyczynowo-skutkowy zatem to zależność typu

wiele-jeden, a nie zależność jedno-jednoznaczna. (Pytanie: czy może to być zależność
typu jeden – wiele, tj. czy ta sama przyczyna może powodować wiele skutków?).

Z prawem przyczynowo-skutkowym mamy do czynienia wówczas, gdy w tych

samych warunkach te same przyczyny powodują te same skutki.

Po tych ustaleniach i wyjaśnieniach wstępnych możemy już przejść do zagadnienia

determinizmu.


Zagadnienie determinizmu

W dotychczasowych rozważaniach determinacja występowała w dwojakich

kontekstach czy odmianach. Po pierwsze, w kontekście bycia czymś określonym. Po
drugie, w kontekście bycia czymś określonym przez coś innego. Zagadnienie determinizmu
dotyczy tego drugiego kontekstu, z tym że stawiane i rozwiązywane jest w kategoriach
globalnych, tj. w odniesieniu do całych dziedzin bytów i związków czy zależności
pomiędzy nimi.

Zagadnienie determinizmu to pytanie o to, czy zależności pomiędzy bytami mają

charakter stałych prawidłowości, a w szczególności czy podpadają pod jakieś prawa.

Teza (stanowisko) determinizmu: polega na pozytywnej odpowiedzi na te pytania.

Ale to jeszcze za mało powiedziane, trzeba jeszcze tu dodać duży kwantyfikator, tj. że
wszystkie bez wyjątku byty i zdarzenia podpadają pod prawa.

Negacją stanowiska deterministycznego jest stanowisko indeterminizmu. Negacją, a

nie przeciwieństwem. Jeśli zatem tezę determinizmu formułuje się przy pomocy dużego
kwantyfikatora (wszystkie byty podpadają pod pewne prawa), to zaprzeczeniem nie jest
teza, iż żadne byty nie podpadają, (to jest, że prawa nie istnieją), lecz że nie wszystkie

background image

podpadają. [Jest wprawdzie do pomyślenia stanowisko będące przeciwieństwem
determinizmu, ale nikt takiej wersji nie głosił].


Należy rozróżnić dwa rodzaje determinacji czegoś przez coś innego. Po pierwsze,

„determinuje” może znaczyć „jednoznacznie wyznacza”; będzie to wówczas tzw.
determinacja ścisła. Przykład: genotyp determinuje cechy fenotypowe. Ontologicznie
odpowiada temu bycie czymś w pełni określonym. Po drugie, determinuje może znaczyć
„ogranicza”. Przykład: byt określa świadomość. Tutaj mamy przypadek bycia czymś
niedookreślonym – determinacja przesądza o pewnych stałych (w rozważanym kontekście
– o typowych czy reprezentatywnych poglądach), ale pozostają niezdeterminowane
zmienne. Nie jest to więc przypadek determinizmu jednoznacznego, lecz typu jeden –
wiele. Na marginesie: na tym niedookreśleniu żerują indeterminiści, traktując je jako casus
potwierdzający ich stanowisko. Według nich bowiem „niezdeterminowany” nie musi
znaczyć dowolny, arbitralny, przypadkowy, całkowicie nieokreślony. Może też znaczyć
„niedookreślony”.

Widać stąd, że spór zwolenników determinizmu z indeterministami dotyczy nie

tylko występowania bądź nie jakichś praw, lecz również charakteru owych praw. Tutaj
argumentem na rzecz indeterminizmu jest każde odstępstwo od determinizmu ścisłego.
Niektóre z praw mają na przykład charakter statystyczny, tj. dotyczą wielkości
uśrednionych, wypadkowych wielu zdarzeń elementarnych. Ci, którzy widzą szklankę w
połowie pełną mówią wówczas o determinizmie statystycznym; ci którzy widzą szklankę
w połowie pustą, mówią o indeterminizmie (bo zdarzenia elementarne nie podlegają temu
prawu). Nie jest to więc spór rzeczowy.

Według mnie sprawą rozstrzygającą jest istnienie bądź nieistnienie jakichś praw

czy zasad, a nie ich charakter, czy konkretna treść, które mogą być rozmaite.
Determinizmowi nie jedno na imię. Tymczasem o indeterminizmie mówią najczęściej ci,
którzy zakładają, że determinista musi wyznawać monizm determinacyjny, i to często o
charakterze mechanistycznym, którego dziś nikt nie wyznaje. Jest to więc walka z
urojonym przeciwnikiem (symbolizowanym przez tzw. demona Laplace’a – hipotetyczną
istotę, która dysponowałaby pełną informacją o wszystkich elementach wszechświata w
danej chwili, oraz znajomością wszystkich praw przyrody, i która na tj. podstawie
mogłaby przewidzieć całą przyszłość). Rozwiązaniem jest tu teza o pluralizmie
determinizmów. Będę jeszcze o tym mówił.


Trzeci aspekt omawianego sporu: o indeterminizmie mówi się wówczas, gdy nie

jest możliwe dokładne przewidywanie przyszłego biegu zdarzeń. Znajomość
odpowiednich praw umożliwia przewidywanie przyszłych zdarzeń nie tylko pod
warunkiem, że odpowiednie prawa są ścisłe , ale również pod warunkiem, że znane są tzw.
warunki początkowe resp. towarzyszące. Proszę w związku z tym zauważyć, że prawa
mają charakter ogólny, natomiast przewidywanie dotyczy ewolucji realnych,
jednostkowych sytuacji. Niemożliwość dokładnego przewidywania związana może więc
być albo – gdy odpowiednie prawo jest znane – z jego bardzo ogólnym bądź
statystycznym charakterem (np. prawo doboru naturalnego w biologii bądź prawa
ekonomii), albo z nieznajomością odpowiedniego prawa, albo wreszcie z nieznajomością
warunków początkowych. W tych dwu ostatnich wypadkach zdarzenia są wówczas
nieokreślone w sensie predykatywnym czy też epistemicznym, a nie ontycznym. Wówczas

background image

jednak de facto nie wypowiadamy się o rzeczywistości, lecz o naszej wiedzy – a raczej
niewiedzy – jej dotyczącej.

Kiedyś na przykład sądzono, że przeciwieństwem prawidłowości jest chaos.

Okazało się to nieprawdą, bo – po pierwsze – to co wydaje się ruchem chaotycznym, na
poziomie bardziej elementarnym podlega ścisłym prawom (np. przypadek tzw. ruchów
Browna). Nadto, mimo iż na poziomie mikro występuje bezładny ruch cząsteczek, to na
poziomie makroskopowym występują ścisłe prawidłowości typu statystycznego (np.
prawo gazów pV=RT). Po drugie, istnieje coś takiego jak chaos deterministyczny – to co
wydaje się chaosem (np. ruch turbulentny) daje się ściśle opisać i podpada pod prawa (np.
równania Lapunowa). Są to równania nieliniowe, gdzie drobna zmiana wartości jakiegoś
parametru prowadzi do dużych zmian w przebiegu zdarzeń, a w szczególności do tzw.
bifurkacji, kiedy ciągła zmiana jakiegoś parametru prowadzi do radykalnych jakościowych
zmian zachowania jakiegoś układu. (Analogia: kiedy schładzamy wodę, przez długi czas
nic szczególnego się nie dzieje; natomiast gdy temperatura zbliża się do zera, pojawiają się
zjawiska krytyczne – przejścia fazowe pierwszego rodzaju (zmiana z fazy ciekłej w stałą).


Zagadnienie determinizmu bywa też konceptualizowane w kategoriach modalnych,

tj. w kategoriach możliwości, konieczności i faktyczności. Podstawowe pytanie brzmi
wówczas: czy to co się dzieje, dzieje się tak jak się dzieje z koniecznością, czy nie. W
odniesieniu do przeszłości: czy bieg rzeczy musiał być taki jaki był, czy też mógł być inny,
a w odniesieniu do przyszłości: czy jest ona z góry przesądzona; pozytywna odpowiedź na
to ostatnie pytanie nosi nazwę fatalizmu. Wszędzie tam, gdzie mówi się o losie,
przeznaczeniu, predestynacji itp., dochodzi do głosu ta właśnie konceptualizacja modalna.
(Na marginesie, kiedyś bardzo popularna była piosenka Que sera, sera, czyli „co ma być,
to będzie”, będąca właśnie wyrazem tak rozumianego determinizmu).

W tym kontekście rozważa się z reguły problem wolnej woli, przy czym ci, którzy

są zwolennikami determinizmu z reguły sądzą, że wolna wola jest złudzeniem – wydaje
nam się tylko, że w swych decyzjach jesteśmy wolni, że to my jako świadome osoby,
jesteśmy ich autorami – bo wolna wola to według nich wyłom, wyjątek od zasady
determinizmu. I odwrotnie, jeśli wolną wolę potraktować jako stwierdzony fakt, to
istnienie wolnej woli bywa najczęściej traktowane jako argument na rzecz słuszności tezy
indeterminizmu. Według mnie (i nie tylko mnie) nie ma tu alternatywy: albo determinizm,
albo wolna wola, ale o tym szerzej kiedy indziej (zagadnienie to pojawi się w
rozważaniach dotyczących etyki oraz w filozofii umysłu). Ale pomyślcie choćby Państwo
o następującym anegdotycznym przypadku: spacery Kanta. Ponoć codziennie – i to
niezależnie od pogody – wychodził on na spacer o stale tej samej godzinie i odbywał
spacer tą samą trasą; była w tym taka regularność, że anegdota mówi iż mieszkańcy
Królewca mogli na tej podstawie regulować zegarki. Mamy więc do czynienia z pewną
regularnością czy tez prawidłowością, nadto zaś z możliwością ścisłego przewidywania. A
przecież było to wszystko wynikiem swobodnego postanowienia samego Kanta, a więc
jego aktu woli

52

. [Na marginesie – Kant jako jeden z pierwszych głosił – i to dobitnie –

tezę o autonomii woli].

52 Szczególnym przypadkiem determinacji jest autodeterminacja, to jest sytuacja, w której pewne
własności bądź zachowania jakiegoś układu zostają określone nie przez jakieś zewnętrzne wpływy, lecz
przez inne jego własności (np. funkcja przez strukturę). Przypadek wolnej woli to według mnie właśnie
przypadek autodeterminacji woli przez inne czynniki duchowe.

background image


Za przeciwieństwo konieczności uznaje się przypadek. Teza indeterminizmu

polegałaby wówczas na twierdzeniu, ze istnieją zdarzenia przypadkowe. Ale to co
uznajemy za przypadek jest najczęściej jedynie tzw. zbiegiem okoliczności (szczęśliwym
bądź nieszczęśliwym, zależnie od wymowy danego zdarzenia), które same przypadkowe
nie są. W ten sposób można na przykład wyjaśnić pojawienie się życia oraz istot
inteligentnych na Ziemi. Niektórzy dorabiają do tego zbyt mocną ideologię w postaci tzw.
zasady antropicznej, jak gdyby życie na Ziemi musiało powstać.

Ja sądzę – za Hartmannem – że zamiast o przypadkowości należy mówić o

możliwości i rozpatrywać związek konieczności i możliwości. Proszę zauważyć, że
możliwość nie jest przeciwieństwem konieczności, one się raczej dopełniają niż
wykluczają. Hartmann twierdził, że to co rzeczywiste (faktyczne) jest sferą całkowitego
pokrywania się konieczności i możliwości. Można to rozumieć następująco. Każdy byt ma
określone warunki swego zaistnienia (czynniki realizacji). Jeśli którykolwiek z tych
warunków nie jest spełniony, mamy do czynienia z możliwością jedynie. Jeśli spełnione
zostaną wszystkie, możliwość ta zostanie urzeczywistniona, i to z koniecznością.

Konceptualizacją modalną nie będę się szerzej zajmował, gdyż wymaga ona nieco

większych kompetencji, niż Państwo na pierwszym roku posiadają, między innymi
znajomości logiki modalnej oraz tzw. possybilizmu. Podejmiemy ją dopiero w ramach
Ontologii II. Chciałbym jednak kilka słów powiedzieć na temat uwikłanych tu kategorii
możliwości, faktyczności i konieczności. Otóż możliwość ma w filozofii dwa podstawowe
znaczenia. Po pierwsze, możliwość logiczna – możliwe jest to co pojęciowo niesprzeczne,
co da się bez sprzeczności pomyśleć. W tym sensie możliwe jest np. że to Słońce obraca
się wokół Ziemi, albo że jutro nie wzejdzie, choć fakty i znane prawa mówią co innego. Po
drugie, możliwe jest to, co niesprzeczne ze znanymi prawami, czego te prawa nie
zabraniają czy nie wykluczają (możliwość nomologiczna, od nomos – prawo).

Istnienie praw nie musi jednak z kolei oznaczać konieczności, w grę wchodzą

bowiem również zwyczajne faktyczne związki między zdarzeniami (nie musi tak być, tak
po prostu jest). Inaczej mówiąc, wypowiedzi o charakterze praw nie muszą być prawdami
koniecznymi, mogą być prawdami faktualnymi.

Współcześnie, zwłaszcza w filozofii analitycznej, aby wyrazić intuicje związane z

pojęciem konieczności, wprowadza się ideę tzw. możliwych światów; prawdy konieczne
definiuje się wówczas jako zdania prawdziwe we wszystkich możliwych światach.
Przyznam, że osobiście nie bardzo widzę różnicę między tak rozumianą koniecznością, a
możliwością logiczną. Skąd bowiem mamy wiedzieć, jak się rzeczy mają w innych
możliwych światach, różnych od naszego?

Ja osobiście traktuję prawo jako konieczne jeśli

1. jest ono konsekwencją bądź szczególnym przypadkiem jakiegoś innego, bardziej

fundamentalnego prawa. Dla przykładu: prawa odbicia i załamania światła (np.
prawo mówiące, że kąt padania jest równy kątowi odbicia), można wyprowadzić z
prawa Fermata, stwierdzającego, że światło rozchodzi się po torach których
przebycie wymaga najkrótszego czasu. To z kolei prawo można potraktować jako
przypadek szczególny jeszcze ogólniejszego prawa, które nazywa się zasadą
najmniejszego działania
; stwierdza ona, że spośród wielu możliwości
urzeczywistniana jest ta, dla której wielkość zwana działaniem (jej wymiarem jest

background image

energia x czas) przyjmuje wartość minimalną (ściślej – ekstremalną). Wreszcie,
zasada ta jest przypadkiem szczególnym tzw. zasad wariacyjnych, o których już
chyba wspominałem w części narzędziowej wykładu. Będę jeszcze o tym
zagadnieniu mówił, kiedy będziemy rozważać problematykę arche. Zobaczycie
Państwo wówczas, że pojęcie konieczności jest wprawdzie ściśle związane z
pojęciem możliwości – podobnie jak to ma miejsce w przypadku idei możliwych
ś

wiatów – tyle że możliwości pojętej jako możność, tj. potencja, a nie jako

możliwość logiczna.

2. jest ono wyrazem jakichś związków istotowych.


*

Tradycyjnie rozróżnia się dwie wersje determinizmu, przyczynowy (kauzalizm) i

celowościowy (finalizm, teleologia); różnią się one tym, że moc determinującą przypisuje
się bądź przeszłości („popychanie”), bądź względowi na przyszłość („przyciąganie”).

Najpierw o tym pierwszym. Na stanowisko determinizmu kauzalnego składają się

dwa twierdzenia. 1. Zasada przyczynowości: każde zdarzenie ma swą przyczynę (warunek
wystarczający). Ale to za mało dla determinizmu. Należy jeszcze dodać drugi wymóg: 2.
Tzw. warunek ceteris paribus: Jednakowe przyczyny w jednakowych warunkach zawsze
powodują jednakowe skutki.

W tej sytuacji inteterminizm może bądź twierdzić, ze nie każde zdarzenie ma

przyczynę, bądź że te same przyczyny mogą powodować różne skutki.

Ale prawa przyczynowo-skutkowe (a więc zależności niesymetryczne!) to nie

jedyny rodzaj prawidłowych, stałych zależności w świecie fizycznym. Obok nich
występują jeszcze prawa współzależności (np. prawo powszechnego ciążenia) oraz tzw.
prawa czy zasady zachowania (energii, pędu, ładunku itp.). Nie można więc determinizmu
sprowadzać do kauzalizmu.

Sytuacja w świecie fizycznym jest – jeśli chodzi o spór determinizmu i

indeterminizmu – dość zagmatwana. Wspomnę w tym kontekście o trzech sprawach. Po
pierwsze, rozpad pierwiastków promieniotwórczych. Z jednej strony nie znamy przyczyn
dla których te pierwiastki się rozpadają, ani też nie potrafimy przewidzieć, który atom
kiedy się rozpadnie. Z drugiej jednak strony każdy pierwiastek ma ściśle określony tzw.
czas połowicznego zaniku, tj. czas w którym rozpadowi ulegnie połowa danej ilości
jakiegoś pierwiastka. Jest więc tu zarazem i ścisła prawidłowość, i nieokreślenie. Czy
zatem jest to przypadek determinizmu, czy indeterminizmu? Zwolennik determinizmu
może np. argumentować, że po prostu na dziś nie znamy mechanizmu powodującego
rozpad, co nie znaczy że go nie ma.

Drugi i trzeci przypadek dotyczą podstawowych równań mechaniki kwantowej.

Najpierw tzw. zasada nieokreśloności (nieoznaczoności), mówiąca że pewne sprzężone ze
sobą wielkości fizyczne, takie jak położenie i pęd, oraz energia i czas, nie mogą być
jednocześnie dokładnie wyznaczone. Już sama nazwa jest paradoksalna, i może zadowolić
zarówno deterministę (bo wszak zasada, a wiec pewne prawo), jak i indeterministę (bo
wszak nieokreśloność). Wydaje się, że jest to sytuacja analogiczna do przysłowiowej
szklanki w połowie napełnionej, co można interpretować na dwa znane sposoby.

background image

I wreszcie, mamy podstawowe dla mechaniki kwantowej równanie falowe

Schrodingera, ściśle opisujące zachowanie się cząstek subatomowych w różnych
sytuacjach, opisywanych przez tzw. operator Hamiltona. Mniejsza o szczegóły, bo
przerasta to zapewne Państwa kompetencje. W każdym razie ogólnie przyjęta interpretacja
głosi, ze funkcja falowa opisująca zachowanie się takich cząstek pozwala określić jedynie
prawdopodobieństwo tego, że cząstka ta w określonym czasie będzie posiadać określone
parametry fizyczne takie jak położenie czy prędkość. A więc w grę wchodzi jednocześnie
wiele możliwości, różniących się prawdopodobieństwem zajścia. Znów zatem, z jednej
strony mamy pewną ścisłą zależność (równanie Schr), z drugiej zaś zasadniczą
niedookreśloność.

Jest wiele rozmaitych interpretacji mechaniki kwantowej, więc trudno rozstrzygnąć,

czy mamy tu do czynienia z determinizmem, czy z indeterminizmem (niedookreślonością).
Byli też i są tacy – na czele z Einsteinem – którzy twierdzili, że mechanika kwantowa jest
teorią nieostateczną, prowizoryczną, sprawdzającą się empirycznie na podobnej zasadzie,
jak kiedyś teoria epicykli Ptolemeusza, która była wszak zasadniczo fałszywa; że być
może istnieją jakieś ukryte parametry bądź bardziej fundamentalne prawa, których dziś nie
znamy.

*

Z kolei parę słów na temat determinizmu celowościowego i różnych jego

(dez)interpretacji. Stwierdza on, że zdarzenia w świecie są powiązane celowo, tj. z uwagi
na dążenie do pewnego z góry założonego celu; innymi słowy, są takie a nie inne, gdyż
stanowią środek wiodący do celu. Dlatego też powiedziałem wcześniej, że chodzi o
determinację aktualnych zdarzeń przez przyszłe stany rzeczy. Ale przecież przyszłości
jeszcze nie ma, a to czego nie ma nie może oczywiście niczego determinować? Czy więc
nie jest to jakaś „czarna magia”? Nie jest, pod warunkiem że determinizm celowościowy
dotyczy świadomych, celowych działań, wówczas bowiem tym co determinuje nie jest
przyszłość jako taka, lecz wyobrażenie bądź myśl o przyszłości. Można go zatem
zaakceptować jedynie w odniesieniu do dziedziny zachowań ludzkich (tj. do kultury).

Ale zdarza(ło) się często, że stanowisko to głosi się w odniesieniu do całej

rzeczywistości, pojmując ja np. jako z góry zaprogramowaną w zmierzaniu do
określonego celu. Celowość rozumie się wówczas bardzo szeroko, np. tak, że sama
przyroda cechuje się celowością, że więc poszczególne byty w swej naturze mają założone
to, czym się staną, a wiec ich rozwój jest urzeczywistnianiem tkwiącej w nich potencji
(Arystoteles nazywał to entelechią).

Kiedyś był to bardzo popularny sposób myślenia o przyrodzie. Dziś teoria ewolucji

pozwala się obejść bez teleologii. Ujmuje ona stawanie się rzeczywistości organicznej jako
wynik gry dwu zasadniczych czynników: przypadkowych – z biologicznego punktu
widzenia, bo mających swe przyczyny fizyczne – mutacji, i nieprzypadkowego
mechanizmu doboru naturalnego (naturalnej selekcji), w wyniku której w drodze
dziedziczenia utrwalone zostają te zmiany mutacyjne, które zwiększają szansę przeżycia
organizmu w jego środowisku.

Mechanizm determinacji polega tutaj zatem na obowiązywaniu pewnej odmiany

zasad wariacyjnych: jest oto dana pula zmutowanych osobników o pewnych potencjach
behawioralnych i zasada ta sprawia, że z zasobu tego wyselekcjonowany zostaje
przypadek maksymalizujący szanse przeżycia. Można to ująć w ten sposób, że mutacje
generują pewną rzeczywistość wirtualną (stany przejściowe, nietrwałe, o charakterze

background image

fluktuacji) spośród których pewne przypadki dzięki doborowi naturalnemu zostają
utrwalone, stając się trwałym elementem świata realnego.


W kategoriach ontologii integralnej wszystkie te mechanizmy można opisać jako

procesy o charakterze informacyjnym. Znaczy to, że procesy biologiczne podlegają pod
inny typ determinizmu niż procesy fizyczne. Opis zjawisk biologicznych w kategoriach
związków przyczynowo-skutkowych jest i powierzchowny, i nieadekwatny, jest to właśnie
opis zjawiska tylko, a nie istoty odpowiedniego mechanizmu biologicznego. Dziedzina
rzeczywistości biologicznej wymaga swoistych kategorii poznawczych, odmiennych niż
dziedzina zjawisk czysto fizykalnych. Kategorie fizykalne można wprawdzie stosować do
bytów ożywionych, gdyż organizmy żywe są ufundowane w materii nieożywionej, ale za
pomocą tego rodzaju kategorii nie uchwycimy swoistości tego co biologiczne – odnoszą
się one jedynie do czynników realizacji procesów biologicznych, nie są natomiast w stanie
uchwycić ich czynników determinacji. Dziedziczenie, homeostaza, rozwój, ewolucja,
sprzężenie zwrotne, sterowanie - wszystkie te zjawiska i mechanizmy tak nieodzowne dla
powstania i funkcjonowania warstwy organizmów żywych są procesami o charakterze
informacyjnym. O losach organizmów przesądzają nie ślepo, zawsze i wszędzie działające
siły fizykalne czy związki przyczyny i skutku, lecz informacyjnie sterowane związki
struktury i funkcji.

Rozpatrzmy dla przykładu zagadnienie tzw. informacji genetycznej. Powiada się z

reguły, choć nie jest to trafne ujęcie (dlaczego – o tym za chwilę), że informacja
genetyczna zapisana jest w strukturze kwasów nukleinowych (DNA i RNA),
występujących w jądrach komórek; strukturę tę stanowi kolekcja czterech rodzajów
nukleotydów. Ujmijmy to po naszemu. Zbiór stanów rozróżnianych przez pewien detektor,
składa się tu z czterech nukleotydów (symbolizowanych – od pierwszych liter nazw tych
związków chemicznych – przez C,A,G,T, bądź w przypadku RNA – przez C,A,G,U),
które mogą być rozróżniane (wykrywane) przez polimerazę – enzym katalizujący pewne
reakcje chemiczne. Sama informacja pojawia się na scenie kiedy podwójna helisa jaką
stanowi cząsteczka DNA rozdziela się na dwa pojedyńcze łańcuchy i polimeraza wykrywa
który z czterech nukleotydów występuje w danym miejscu łańcucha DNA (wykrywana jest
więc różnica typu selekcji – jeden z czterech rozróżnialnych stanów), a następnie dołącza
do niego nukleotyd względem niego komplementarny, taki sam z jakim tworzył on parę w

DNA przed podziałem, odtwarzając w ten sposób strukturę wyjściowej helisy53.

Proces dziedziczenia ma więc charakter informacyjny, gdyż odtwarzanie struktury

wyjściowego DNA jest sterowane przez uzyskaną informację o kolejnych elementach
składających się na tę strukturę. Nie znaczy to jednak, że informacja jest zapisana w
strukturze DNA, procesy informacyjne występują dopiero w toku procesu dziedziczenia –
kopiowania macierzystego DNA przy udziale polimerazy – przez komórki potomne. Nie
można więc tego ujmować w ten sposób, że struktura DNA stanowi zakodowaną
informację; jest ona po prostu kopią innego DNA, tyle że kopią powstałą w wyniku
pewnego procesu informacyjnego. Informacja o czymś nie może być identyczna z tym
czymś.

53 Jest to proces replikacji za pomocą którego materiał genetyczny jest dziedziczony przy podziale
komórek.

background image

Dla uchwycenia zasadniczej odrębności czysto fizycznych związków przyczynowo-

skutkowych z jednej, i biologicznych, informacyjnie sterowanych związków
funkcjonalnych z drugiej strony, rozpatrzmy jeszcze przypadek, w którym na nasz
organizm oddziałuje otoczenie o niskiej temperaturze. Obraz czysto fizyczny jest prosty –
w wyniku spadku temperatury w otoczeniu następuje spadek temperatury w warstwie
powierzchniowej ciała, stykającej się z otoczeniem; nadto, może ono np. ulec
zesztywnieniu bądź odmrożeniu. A jak będzie przebiegał odpowiedni proces biologiczny?
Wówczas organizm nasz na obniżenie temperatury zareaguje jak termostat, tj. w trybie
ujemnego sprzężenia zwrotnego. Obniżenie temperatury powierzchniowych partii ciała
spowoduje najpierw, że obniży się nieco temperatura krwi płynącej w naczyniach
krwionośnych przebiegających w tych partiach ciała. Pewna część tej lekko schłodzonej
krwi powracając do serca przepływa przez ośrodek w podwzgórzu regulujący temperaturę
krwi. Kiedy ośrodek ten wykryje, że temperatura docierającej doń krwi jest niższa niż
standardowe 36,5 stopnia (różnica typu selekcji, zatem informacja jakościowa), stanowi to
dla niego informację – sygnał, że trzeba uruchomić odpowiedni program
przeciwdziałający, polegający na przykład na spowodowaniu drżenia mięśni, które przez
swój wzmożony ruch wytwarzają dodatkowe ciepło wewnętrzne.

Tak więc pozory mylą! Trzęsiemy się nie dlatego, że jest zimno, lecz po to aby się

ogrzać; nie jest to skutek, lecz reakcja organizmu na uzyskanie pewnej informacji.
Wyjściowe ochłodzenie ciała nie jest więc przyczyną (tj. warunkiem wystarczającym)
drżenia mięśni, nie ono wprawia je w ruch – a ich drżenie nie jest jego skutkiem;
ochłodzenie to, po jego wykryciu przez ośrodek termoregulacji, staje się informacją, że
organizmowi trzeba dostarczyć dodatkowej porcji ciepła. Jeśliby ośrodek regulacji
temperatury z jakichś powodów nie mógł spełniać swej funkcji, wówczas do żadnego
drżenia mięśni by nie doszło, mimo dowolnie dużego spadku temperatury zewnętrznej. Z
drugiej strony, fizjologiczne drżenie mięśni można wywołać również wówczas, gdy ciało
będzie rozgrzane – wystarczy sztucznie obniżyć temperaturę samego ośrodka
termoregulacji w podwzgórzu. Innymi słowy, obniżenie temperatury zewnętrznej jest
jednym z możliwych czynników realizacji zjawiska drżenia mięśni, a nie jego przyczyną,
zaś drżenie mięśni nie jest skutkiem obniżenia się temperatury zewnętrznej, lecz
informacyjnie sterowaną reakcją homeostatu na zaburzenie stanu równowagi przez pewien
bodziec. Ani obniżenie temperatury nie jest warunkiem wystarczającym drżenia mięśni,
ani ich drżenie nie jest koniecznym wynikiem spadku temperatury.


Stwierdziłem wcześniej, że kategorię celu można odnosić jedynie do ludzi – tylko

zachowania ludzkie mogą być celowe, bo celowość wymaga wyobrażenia sobie – bądź
pomyślenia – czegoś jeszcze nieistniejącego, oraz woli, aby to coś zostało
urzeczywistnione. Ale sama celowość to jeszcze nie determinizm (podobnie jak dla
kauzalizmu nie wystarcza sama zasada przyczynowości), muszą jeszcze występować tu
określone prawidłowości. Tymi prawidłowościami są zasady racjonalności, będące
pewnymi związkami sensu. Ponieważ zaś sens jest zasadą determinacyjną dziedziny bytów
duchowych, przeto zachowania istot duchowych podporządkowane są zasadom
racjonalności właśnie. Stawiamy sobie np. tylko takie cele, które uznajemy za sensowne i
osiągalne. Znaczy to, że zasady racjonalności mają charakter pewnych ograniczeń –
spośród wielu możliwych działań wybieramy te, które spełniają pewne warunki,

background image

mianowicie minimalizują bądź maksymalizują pewne wartości. To zaś znaczy, że mamy tu
do czynienia z pewną odmianą zasad wariacyjnych.

*


Spójrzmy teraz na zagadnienie determinizmu ogólnie, niejako „z lotu ptaka”.

Widzimy wówczas nie dwa, lecz cztery typy determinizmu, przy czym kolejne z nich
powstają w wyniku powstania układów podporządkowanych nowej zasadzie
determinacyjnej, będącej efektem przekształcenia i wzbogacenia poprzedniej. W każdej
warstwie dominuje jeden, właściwy dla niej typ determinizmu, z tym, że różne typy
determinizmu mogą się na siebie nakładać. Nie ma bytów niezdeterminowanych
(nieokreślonych), mogą być natomiast byty niedookreślone przez jakiś typ determinizmu;
nie są one jednak niedookreślone w ogóle, lecz swe dookreślenie zawdzięczają czynnikom
determinacji innego typu

54

.

Począwszy od warstwy bytów organicznych pojawiają się procesy sterowane

informacyjnie, przy czym w kolejnych warstwach zasadą determinacyjną staje się pewna
struktura informacyjna wyższego rzędu.

Zasada determinacyjna to nie jest jakiś byt, który albo istnieje albo go nie ma, lecz

pewna prawidłowość, własność systemowa która może w mniejszym lub większym
stopniu wpływać na funkcjonowanie elementów systemu. Zasada determinacyjna to
uogólnienie pojęcia czynników determinacji, obejmuje więc ona całą paletę elementów.
Pozwala to zrozumieć mechanizm rozwoju rzeczywistości, a w szczególności stopniowe
„wyłanianie się” nowych jej warstw. Stadia przejściowe mogą np. polegać na tym, że
stopniowo pojawia się coraz więcej czynników determinacji będących konkretyzacją
odpowiedniej zasady – na przykład w przypadku powstania warstwy bytów psychicznych
najpierw pojawia się pamięć typu ROM, (bez możliwości pamięci osobniczej, a tym
samym bez zdolności kojarzenia, nabywania odruchów, uczenia się, etc), a następnie
pamięć osobnicza; stopniowo może zwiększać się ilość i rodzaj receptorów wrażliwych na
różne aspekty bodźców środowiskowych (pierwocina oka – plamka światłoczuła – była
początkowo zdolna tylko do informowania o natężeniu światła, następnie doszła
możliwość rozróżniania kierunku światła, zdolność rozróżniania jasne-ciemne, ruch-
spoczynek, etc.).

Proces przejścia od stanów/procesów/zdarzeń fizycznych, poprzez fizjologiczne, do

psychicznych (a w dalszej kolejności duchowych) nie polega na oddziaływaniu jednych na
drugie, lecz na przekształcaniu jednych w drugie przez odpowiednie ośrodki funkcjonalne
mózgu. Mamy tu więc do czynienia ze składaniem przekształceń, co prowadzi do
powstawania struktur relacyjnych wyższego rzędu ze struktur rzędu niższego: informacji
ze zbioru stanów fizycznych, reprezentacji ze zbiorów informacji, asocjacji z
reprezentacji, znaków z asocjacji, znaczeń z relacji międzyznakowych, sensów ze
związków znaczeniowych. Na tym według mnie polega istota operacji dokonujących się w
mózgu. Realne procesy neurofizjologiczne w nim występujące są tylko sposobem

54 Np. stwierdzono empirycznie, że inteligencja jest tylko (bądź „aż”, jak kto woli) w 70 procentach
zdeterminowana genetycznie, pozostałe 30 procent jest efektem innych czynników, takich jak
wychowanie, wpływy środowiska czy wykształcenie. Ale to też jest przecież przypadek determinacji – te
30 % nie biorą się przecież z powietrza.

background image

urzeczywistniania tych operacji, natomiast subiektywne przeżycia – towarzyszące
pewnym z tych procesów – są jedynie pozbawionymi mocy sprawczej epifenomenami.
Stanowisko moje nazywam w związku z tym transformacjonizmem.

Transformacje o których wyżej mowa znamionują przejście do nowej warstwy

rzeczywistości, która nie zastępuje warstwy niższej, lecz zostaje nad nią nadbudowana; są
to więc transformacje międzywarstwowe [nie chodzi o przekształcenie dosłownie
rozumiane, lecz o przyporządkowanie]. Matematycznie rzecz ujmując, mamy tu zatem do
czynienia z dwojakiego rodzaju przekształceniami kategorii. Po pierwsze, z
„horyzontalnymi” przekształceniami obiektów należących do jednej kategorii, tj.
dziedziny bytu o tej samej naturze. Po drugie, z „wertykalnymi” przekształceniami
jednych kategorii w inne, czyli z funktorami.



Graficznie można to przedstawić następująco:

x

x

x

x procesy duchowe [operacje na znakach]

↑↓

x

x

x

x

x procesy psychiczne [operacje na reprezentacjach]

↑↓

↑↓

x

x

x

x

x

x procesy informacyjne [operacje na sygnałach]

↑↓

↑↓

↑↓

x

x

x

x

x

x

x procesy fizykalne

---------------------------

>

strzałka czasu


gdzie „

” symbolizuje przekształcenia [zdarzenia] w obrębie jednej warstwy

[kategorie przekształceń], „

” oraz „

” wspomniane transformacje międzywarstwowe

[funktory], zaś „x” pewnego rodzaju zbiory [odpowiednio – stanów fizycznych, sygnałów,
informacji odpowiedniego rzędu. W innej terminologii, „

” symbolizuje determinację,

” ma charakter uwarunkowania, zaś „

” oznacza tzw. „downward causation”, co polega

głównie na determinowaniu struktury niższego poziomu przez zadanie (funkcję), która ma
być przez tę strukturę realizowana.

Choć wymienione w tym schemacie procesy różnią się esencjalnie, to „realnie”

mamy do czynienia z jednym tylko procesem, mianowicie fizykalnym, pozostałe to
procesy „wirtualne” przebiegające w pewnych abstrakcyjnych przestrzeniach stanów
informacyjnych , a nie w przestrzeni fizycznej. (Przez analogię: procesy rozgrywające się
w komputerze można opisywać w kategoriach algebry Boole’a, języka maszynowego bądź
języka wyższego poziomu, mimo że realnie mają w nim miejsce jedynie przepływy
prądów).

Droga od procesów fizycznych do psychicznych (a następnie duchowych) polega

tedy na powstawaniu struktur wyższego rzędu ze struktur rzędu niższego: informacji ze
zbioru stanów fizycznych, reprezentacji ze zbioru informacji, asocjacji z reprezentacji,
znaków z asocjacji, znaczeń ze znaków, sensów ze związków znaczeniowych. Jest to
proces w toku którego wyjściowy stan fizyczny poddany zostaje procedurze swoistej
abstrakcji, w której konkret poziomu niższego zostaje niejako zdegradowany do roli
nośnika czy substratu struktur relacyjnych. Zostaje zdegradowany, ale bynajmniej nie

background image

znika. Pozostaje cały czas w grze, ale w roli czynnika realizacji, przestaje natomiast pełnić
rolę czynnika determinacji.


Novum, jakie w stosunku do tradycyjnego ujęcia problematyki determinizmu wnosi

ontologia integralna, można zatem ująć w trzech punktach.

Po pierwsze, istnieją cztery, a nie dwa typy determinizmu, przy czym zarówno

determinizm kauzalny, jak i celowościowy, zostają potraktowane jako przypadki
szczególne bardziej ogólnych typów (zamiast związków przyczynowo-skutkowych –
wszelkiego rodzaju stałe relacje, a zamiast związków cel-środek - związki sensu).

Po drugie, poszczególne typy determinizmu są ze sobą w sposób systematyczny

powiązane, a to dzięki zależnościom, w jakich pozostają zasady determinacyjne:
informacja jest pewnego rodzaju relacją, mianowicie relacją nietożsamości; reprezentacja
jest informacją drugiego rzędu; sens jest strukturą informacyjną jeszcze wyższego rzędu,
której elementami składowymi są reprezentacje.

Po trzecie, mimo tego powiązania, każdy typ prawidłowości cechuje się autonomią,

jest więc nieredukowalny do innych. Nieredukowalność tę uzyskuje się dzięki
rozróżnieniu porządków umocowania i ufundowania. Dzięki porządkowi ufundowania
uzyskujemy stanowisko monistyczne, dziękli natomiast nieredukowalnym porządkom
umocowania uzyskujemy stanowisko pluralistyczne.

*

Na zakończenie tego wątka rozważań scharakteryzuję jeszcze krótko inne,

alternatywne ujęcia i przedstawię krótką ich krytykę.

Dominującym dziś w obrębie sporu monizmu z pluralizmem stanowiskiem

ontologicznym jest fizykalizm. Jest to uwspółcześniona wersja tradycyjnego materializmu
– a więc stanowiska monistycznego – różniąca się od niego przede wszystkim tym, że
uznając, iż jedyną substancją jest jakaś substancja fizyczna, nie dopowiada się – pod
wpływem współczesnej fizyki, która szeroko posługuje się koncepcją pola i
promieniowania- iż substancją tą jest materia.

Fizykalizm zajął miejsce dominującego w czasach nowożytnych kartezjańskiego

dualizmu dwóch substancji – cielesnej (res extensa) i duchowej (res cogitans), który
zresztą pod postacią przekonania że człowiek ma niesmiertelną duszę – nieśmiertelną, a
więc mogącą istnieć bez ciała, a więc będącą bytem substancjalnym – i dziś ma wielu
zwolenników, choć raczej nie w filozofii. Dualizm substancji odrzucono zarówno dlatego,
ze jest to stanowisko odwołujące się do czynników nadprzyrodzonych, co jest niezgodne
ze stanowiskiem nauki, jak i dlatego, ze koncepcja substancji duchowej niczego nie
wyjaśnia, po prostu przypisuje duchowi wszystkie własności, które u niego empirycznie
stwierdzamy. (To tak, jakby wyjaśniać fenomen snu przez istnienie vis dormativa, a
istnienie życia przez vis vitalis). Uznana dziś metodologicznie zasada wyjaśniania jest
taka, aby to co nowe wyprowadzać z tego co już istnieje, a nie brać z powietrza jakieś
ekstra byty. Trzecim powodem było to, że stanowisko dualistyczne nie potrafiło wyjaśnić,
jak te dwie tak różne substancje mogą na siebie oddziaływać czy wpływać. Dodatkowo, o
niemożliwości takiego oddziaływania świadczy to, że byłoby ono sprzeczne z zasadą
zachowania energii, która w świecie fizycznym uniwersalnie obowiązuje. Skoro bowiem
substancja duchowa miałaby wprawić w ruch jakiś układ fizyczny (np. mózg bądź całe
ciało), znaczyłoby to, że uzyskały one dodatkową energię kinetyczną, która w sensie
fizycznym brałaby się „znikąd”.

background image

Po zdyskredytowaniu kartezjańskiego dualizmu na placu boju pozostał tedy

fizykalistyczny monizm – jedyną substancją jest jakaś postać bytu fizycznego (choć co do
tego, co jest tą postacią nie ma zgody zarówno w filozofii, jak i w samej fizyce). Ponieważ
jednak fizykalizm radykalny - rozumiany jako pogląd, według którego wszystkie prawa i
własności dają się ostatecznie sprowadzić do praw i własności fizycznych – w sposób
rażący nie nadaje się do zrozumienia takich zasad funkcjonowania umysłu, jak
racjonalność i logika, czy do wyjaśnienia zróznicowania jest/powinien, proponuje się z
reguły pewne mniej radykalne, nieredukcyjne wersje fizykalizmu, głoszące tzw. dualizm
własno
ści, a uzasadniające go przez odwołanie, bądź do zjawiska emergencji, bądź do
relacji superweniencji własności mentalnych na własnościach fizycznych

55

.

Superweniencja i emergencja to specialite de la maison filozofii analitycznej –

dzisiejszej, świeckiej odmiany scholastyki, w której zamiast dogmatu o istnieniu Boga-
Stwórcy przyjmuje się dogmat fizykalizmu, tj. tezę, iż pierwotną postacią bytu jest byt
fizyczny. Ja również coś takiego głoszę. Cały szkopuł polega jednak na tym, że w filozofii
analitycznej nie dostrzega się zasadniczej dwoistości tego co „pierwotne”, związanej z
dwoma aspektami bytu (esencjalnym i egzystencjalnym), a w konsekwencji nie rozróżnia
się związków determinacji i związków realizacji - mimo iż używa się w niej terminu
„realizacja”, to utożsamia się ją z determinacją.

Po kolei jednak.
Po angielsku supervene to mniej więcej tyle, co follow (następować po, iść w ślad

za czymś). W tym sensie o skutku można np. powiedzieć, że jest superwenientny
względem swej przyczyny, czy że superweniuje na przyczynie. Ale de facto w pojęciu
superweniencji nie chodzi o „horyzontalne” związki kauzalne, bo one pozostają w obrębie
jednej płaszczyzny bytowej, lecz o związki wertykalne, międzywarstwowe, między tym co
niższe i wyższe, bardziej i mniej fundamentalne, mniej i bardziej złożone. W przeciwnym
razie relacja superweniencji byłaby wszechobecna, a jako taka niewiele by wnosiła
nowego – przy szerokim rozumieniu tego terminu przyspieszenie ciała superweniuje na
jego prędkości, a objętość kuli na jej powierzchni i vice versa.

W języku filozofii analitycznej relacja superweniencji to pewna odmiana

niesymetrycznej (nieredukowalnej, choc sama definicja superweniencji dopuszcza – jak
Państwo zobaczą – redukowalność) i przechodniej zależności czegoś od czegoś innego
(faktów, zdarzeń, własności jednego rodzaju od faktów, zdarzeń, własności jakiegoś
innego, bardziej fundamentalnego rodzaju (subwenientnych). Mówiąc ogólnie,
charakterystyki superwenientne pojawiają się jako następstwo czy też konsekwencja
występowania jakichś charakterystyk bazowych. Superweniują na przykład relacje na
swych członach (argumentach) (idea Leibniza). Są one obiektywne, ale wtórne bytowo
względem swych członów – zachodzą o tyle, o ile istnieją ich odpowiednio uposażone

55 Nieredukcyjny fizykalizm, zakładający, jako się rzekło, dualizm własności, charakteryzują dwie zasady
- zasada odrębności (własności umysłowe są odrębne względem własności fizycznych) i zasada zależności
(własności umysłowe są własnościami przedmiotów fizycznych). Zasada zależności czyni z
nieredukcyjnego fizykalizmu fizykalizm, zaś zasada odrębności czyni z niego stanowisko nieredukcyjne.
Nieredukcyjny fizykalizm odróżnia się tym samym zarówno od teorii identyczności twierdzącej, że
własności umysłowe są identyczne z własnościami fizycznymi (co jest negacją zasady odrębności), jak i od
dualizmu kartezjańskiego, twierdzącego, że własności umysłowe są własnościami umysłowych substancji
(co jest jednym ze sposobów zanegowania zasady zależności).

background image

argumenty. Z drugiej strony, są one nieredukowalne do swych członów, są czymś
zasadniczo nowym, odmiennym.

O superweniencji mówi się zatem wszędzie tam, gdzie rozróżnia się poziomy

złożoności, warstwy niższe i wyższe.

Ideę superweniencji sformułowano w celu obrony nieredukcyjnej wersji

fizykalizmu, który w swych wyjaśnieniach nie eliminuje (ani nie identyfikuje z bazowymi
własnościami fizycznymi) własności wyższych rzędów, takich jak (makro)własności
mentalne, etyczne lub estetyczne, a jednocześnie zachowuje ich zależność od stanów i
własności (mikro)fizycznych. Przez superweniencję rozumie się pewnego rodzaju relację
zachodzącą między dwoma rodzajami (systemami) własności przysługujących jakimś
przedmiotom czy układom; jedne z nich określić można jako własności wyższego rzędu
(superwenientne), drugie jako własności niższego rzędu (subwenientne). Istotę relacji
superweniencji stanowi idea zmiany zależnej: dany przedmiot nie może zmienić się pod
względem własności superwenientnych, nie zmieniając się zarazem pod względem
własności subwenientnych. W równoważnym sformułowaniu: przedmioty identyczne pod
względem własności wyższego rzędu muszą być identyczne pod względem własności
rzędu niższego (ale nie odwrotnie). Ale to sformułowanie dotyczy również własności
redukowalnych.

Relacja superweniencji definiowana jest jak widać w kategoriach modalnych

(konieczność, możliwość). Własności typu B (np. psychiczne) superweniują na
własnościach typu A (np. biologicznych bądź fizycznych) jeśli nie może być tak, że dwa
układy są identyczne pod względem A (np. pod względem fizycznym), a różnią się pod
względem B (pod względem psychicznym). Innymi słowy, twierdzi się, że dwie sytuacje
identyczne na przykład pod względem fizycznym, są również z konieczności identyczne
pod względem psychicznym

56

.

W różnych sformułowaniach określa się własności superwenientne jako:

zdeterminowane przez bazowe, zależne od bazowych, posiadane na mocy tego, że
posiadają bazowe, ugruntowane (ufundowane) w bazowych, realizowane przez bazowe,
pociągane przez bazowe, jednostronnie współzmienne z bazowymi.

Wyróżnia się wiele możliwych odmian supperweniencji. Może ona być lokalna

bądź globalna, w zależności od tego, czy odnosi się ją do jakichś indywiduów, czy do
całych światów (np. kształt jakiegoś ciała superweniuje na jego własnościach fizycznych;
ale wartości nie – np. wierna kopia Mona Lizy nigdy nie będzie tym samym dziełem co
oryginał; wartości są superwenientne globalnie). Z drugiej strony, rozróżnia się
superweniencję logiczną od nomologicznej, w zależności od tego czy mowa jest o
możliwości/niemożliwości logicznej czy o możliwości dopuszczanej przez prawa natury, a
także słabą (wewnątrzświatową) od mocnej (międzyświatowej).

Twierdzi się, że relacja superweniencji zachodzi dla własności etycznych i

estetycznych (względem naturalnych), dla makrowłasności (względem własności
mikropoziomu), własności holistycznych (względem własności posiadanych przez części),
wreszcie dla własności mentalnych (względem fizycznych).

Zarzuty pod adresem koncepcji superweniencji.
Po pierwsze, definicja superweniencji jest tak ogólna, że podpadają pod nią

stanowiska

skądinąd

przeciwstawne

zarówno

redukcjonistyczne,

jaki

56 Powyższe sformułowanie dopuszcza wieloraką realizację stanów psychicznych. Oznacza to, że dwa
układy mające takie same stany psychiczne nie muszą mieć takich samych stanów fizycznych.

background image

nieredukcjonistyczne, zarówno monistyczne, jak i pluralistyczne. Nawet sami zwolennicy
superwencjonizmu twierdzą na przykład, że teoria superweniencji nie stanowi rozwiązania
problemu psychofizycznego, gdyż może być zaakceptowana przez zwolennikow różnych
rozwiązań

57

.

Po drugie, nie pozwala ona wyjaśnić, jak własności superwenientne mogą zwrotnie

wpływać na swe własności bazowe (subwenientne), co jest faktem (pomyślcie np. Państwo
o wpływie stanów umysłowych na fizyczne). Inaczej mówiąc, przypisuje ona własnościom
superwenientnym status pozbawionych mocy sprawczej i determinującej epifenomenów.

Po trzecie wreszcie, mankamentem teorii superweniencji jest to, że jest to pojęcie

czysto techniczne, opisowe, nie dające nic nowego, a samo wymagające wyjaśnienia.
Koncepcja superwencji nie wyjaśnia w szczególności, dlaczego ta relacja zachodzi,
stwierdza ją jako fakt, bądź przyjmują jako zasadę heurystyczną. Twierdzi się na przykład,
ż

e własności mentalne muszą być realizowane fizycznie (a więc nie mogą być

zrealizowanew inny sposób). Ale dlaczego tak ma być, jakie jest tego uzasadnienie?
Gdyby było to oparte na jakiejś teorii umysłu, można by to traktować poważnie. Ale nie
jest. Mówiąc ogólnie, nie wiadomo dlaczego pewne własności superweniują na innych,
jest to albo stwierdzenie faktu, albo postulat. W sumie więc wychodzi na to, że
konceptualizacja relacji ontologicznych za pomocą pojęcia superweniencji to

zastępowanie niewiadomej przez tajemnicę58. Jest to po prostu zwykłe ekstensywne
dodanie jeszcze jednego pojęcia, a nie teoria ontologiczna. I nie dziwota, bo jedną z norm
metodologicznych analitycznego sposobu filozofowania jest unikanie w stopniu
maksymalnie możliwym tzw. zobowiązań ontologicznych. Inaczej mówiąc, jest to być
może ontologia w sensie teorii bytu jako takiego (opisowo-klasyfikacyjna), ale nie w
sensie nauki o pierwszych przyczynach (wyjaśniająca, pozwalająca rozumieć).

*

Uznanie odrębności [nieidentyczności] własności mentalnych i fizycznych według

niektórych autorów sugeruje, że własności umysłowe są własnościami emergentnymi
obiektów fizycznych. „Emergentny” to tyle co nowy, nieoczekiwany, nie wyznaczony
jednoznacznie bądź całkowicie przez coś już znanego (=niedookreślony).

Zdaniem

emergentystów pewne własności niefizyczne „wyłaniają się” [emerge] ze złożonych
układów materialnych, tj. z leżących u ich podstaw substratów fizycznych w sposób,
którego nie można przewidzieć lub/i wyjaśnić z perspektywy nauk badających owe

substraty, który więc jest niewyjaśnialny przez nauki fizykalne59.

Cóż, sytuacja z koncepcją emergencji przedstawia się niewiele lepiej, jak w

przypadku superweniencji. Po pierwsze, własności emergentne to w dużej mierze to samo,
co własności superwenientne (każda własność emergentna jest też superwenientna). I
jedne, i drugie zakładają warstwową strukturę rzeczywistości, są zależne od pewnej bazy,

57 Kim: „Teoria superweniencji umysłu i ciała nie daje nam teorii relacji, w jakiej umysł pozostaje do ciała.
[...] jest ona niesprzeczna z wieloma klasycznymi stanowiskami na temat umysłu i ciała; faktycznie jest to
twierdzenie podzielane przez wiele wzajemnie wykluczających się teorii umysłu i ciała”(21)
58 Tak to ujmują np. autorzy hasła na temat superweniencji w Stanford Encyclopedia of Philosophy,
skądinąd sami będący przedstawicielami filozofii analitycznej: „Appeals to unexplainable supervenience
seem to be mystery mongering”.
59 Dla odróżnienia swego stanowiska od epifenomenalizmu emergentyzm twierdzi, że własności umysłowe
mają własne moce przyczynowe, nie dające się wyjaśnić za pomocą mocy przyczynowych ich fizycznych
substratów.

background image

mają charakter następczy. Różnica polega na tym, że w przypadku emergentystów
akcentuje się nowość, nieredukowalność, skokowe zmiany, nieprzewidywalność (czasem
również niewyjaśnialność ex post) własności emergentnych, wiążąc je najczęściej z
wyższym poziomem złożoności (na tej zasadzie, że całość jest czymś więcej niż sumą
części – teza holizmu). Woda na przykład posiada własności których nie posiadają jej
składniki wodór i tlen. Na podobnej zasadzie wyjaśnia się pojawienie się życia i
ś

wiadomości (mózg jako całość złożona z komórek nerwowych posiada własności,

których nie mają neurony).

Cóż, nie mówię „nie”; są to jednak wszystko ogólniki, przez które przeziera

teoretyczna bezradność. Nie wystarcza powiedzieć, że własności są zależne od stopnia
złożoności – wedle zasady, że całość jest czymś więcej niż sumą części. Powstaje bowiem
natychmiast pytanie o powody zaistnienia tej większej złożoności. Dlaczego na przykład
mózg jest tak złożony? Twierdzenie że stany umysłowe to stany emergentne mózgu
uważam zresztą za fałszywe. Całkowicie izolowany od bodźców zewnętrznych mózg
nigdy nie wyłoni z siebie stanów umysłowych. Co najwyżej można mówić, że są one
emergentne względem szerszego układu mózg – środowisko. Podobnie, teza, iż stany
umysłowe są superwenientne względem fizycznych stanów mózgu, jeśli nie uwzględnić
interakcji osobnika ze światem zewnętrznym, odbierania przezeń bodźców czy
komunikatów, i reagowania na nie, jest mistyfikacją, pozorem, efektem pozostawania na
poziomie czysto zjawiskowym, bez próby wniknięcia w istotę sprawy. Owszem, nie ma
ż

adnej zmiany umysłowej bez odpowiedniej zmiany fizycznej w mózgu, ale ta zmiana w

mózgu ma determinanty leżące poza samym mózgiem. Nie jest to więc jednostronna
zależność „w górę”, lecz przypadek tzw. downward causation, którego istnienia dowodzi
choćby to, że możemy na życzenie kiwnąć palcem.

Mówiąc ogólnie, nie do utrzymania jest wszelki dualizm własności, gdyż – po

pierwsze – powstaje pytanie, jak ta sama substancja może mieć tak róznorodne,
nieredukowalne własności, jak własności fizyczne i psychiczne (zwolennicy tego dualizmu
odpowiadają, że te drugie to własności wyższego rzędu, tj. własności własności, co też
niewiele wyjaśnia). Po drugie, powstaje pytanie co jest źródłem istnienia owych
nieredukowalnych własności, skąd one się biorą, skoro istnieje tylko jedna substancja.

Według mnie trudności tej unika teza o pluralizmie powiązanych ze sobą zasad

determinacyjnych i o ewolucyjnych przekształceniach układów rządzonych przez
poszczególne zasady. Emergencja własności przestaje być wówczas czymś tajemniczym –
nie są one wówczas „własnościami własności”, lecz własnościami pewnych nowych
układów, podporządkowanych nowej zasadzie determinacyjnej.

Rozważmy to na przykładzie związku psychiki i neurofizjologii. Funkcja faktycznie

spełniana przez jakiś ośrodek mózgu zależy od aktualnie istniejącej w nim struktury. Ale
powstaje pytanie: dlaczego struktura ta jest taka a nie inna? Struktury organizmów żywych
są zdeterminowane przez geny, a modyfikacja istniejącej struktury powstaje bądź wskutek
mutacji, bądź wskutek interakcji ze środowiskiem. Mutacje są z biologicznego punktu
widzenia przypadkowe, choc mają fizyczne przyczyny. Ale nie chodzi o jednorazowe
zdarzenie w postaci mutacji. Interesuje nas przypadek zmiany utrwalonej, bo tylko takie
stają się elementem rzeczywistości. To zaś zależy od drugiego czynnika sprawczego
ewolucji, mianowicie od doboru naturalnego. O utrwaleniu się modyfikacji strukturalnej
decyduje to, czy jest ona lepsza w sensie adaptacyjnym od struktury wyjściowej – czy
zmutowany osobnik radzi sobie lepiej w swoim środowisku. To zaś zależy w dużej mierze

background image

od poznawczej wartości informacji uzyskiwanej o stanie środowiska oraz od
mechanizmów jej przetwarzania i wykorzystywania. Zatem tym, co sprawia, że pewna
modyfikacja strukturalna zostaje utrwalona w następnych pokoleniach, są usprawnione
dzięki niej funkcje informacyjno-poznawcze. Czyż więc nie jest tak, że istniejąca
(utrwalona, bo tylko takie nas interesują) struktura jest zdeterminowana przez (tj.
wyselekcjonowana z uwagi na) spełniane przez siebie funkcje informacyjno-poznawcze?

60

Procesy psychiczne (=uzyskiwanie i wykorzystywanie informacji o środowisku)

dlatego są zatem superwenientne względem procesów fizykalnych w mózgu, że
architektura

mózgu

umożliwiająca

realizację

procesów

psychicznych

została

wyselekcjonowana z uwagi na to właśnie, że te procesy realizuje.

Aby uznać powyższe wyjaśnienie za trafne, wymaga to odpowiedniej koncepcji

tego co psychiczne, wiążącej w istotny sposób stany psychiczne ze stanami mózgu.
Koncepcję taką proponuje właśnie ontologia integralna, poprzez zdefiniowanie
reprezentacji psychicznych jako informacji wyższego rzędu, a informacji jako
zarejestrowanej różnicy stanów fizycznych.

Pojawienie się dziedziny stanów i procesów psychicznych może być tedy pojęte

jako urzeczywistnienie związanej z procesami informacyjnymi potencji, polegającej – z
jednej strony – na możliwości przejścia od informacji jakościowej do informacji wyższego
rzędu, z drugiej zaś na możliwości wyzyskania informacji – pojętej jako miara struktury
czy formy wewnętrznej – jako informacji o czymś zewnętrznym, tj. jako reprezentacji
czegoś. Słowem, informacji w sensie kognitywnym. Uzyskuje się to dzięki istnieniu
odpowiednich przekształceń o charakterze morfizmów, jakim poddane zostają bodźce
ś

rodowiskowe docierające do organów zmysłowych.


Jestem gotów zgodzić się, że „wszystko co istnieje, superweniuje na obiektach

fizycznych”. Co więcej, myśl ta – acz w innej terminologii, mianowicie w postaci tezy, że
każdy byt należy do jakiegoś porządku ufundowania, a pierwszym elementem każdego
takiego porządku jest jakiś byt fizykalny – jest jedną z zasadniczych idei mojej ontologii.
Jednak o naturze jakiegoś bytu nie rozstrzyga to, że ma on fizykalnych „przodków”, bo
wtedy wszystko byłoby fizyczne, lecz jego miejsce w porządku ufundowania, które
zarazem jest miejscem przecięcia z drugim porządkiem, ortogonalnym że tak powiem, do
pierwszego. Bowiem w mojej ontologii jest też druga myśl, że mianowicie każdy byt
należy też do jakiegoś porządku umocowania. I dopiero miejsce w ramach tych dwu
porządków określa w pełni każdy poszczególny byt, który ma wszak dwa aspekty – jest
czymś określonym (posiada pewne determinanty) i jakoś istnieje (ma jakieś warunki
zaistnienia). Wyjaśnienia w kategoriach samych czynników realizacji to wyjaśnienia
pozorne, dające jedynie pozór rozumienia. Dla uzyskania rzeczywistego rozumienia
należy uwzględnić czynniki determinacji tj. związki umocowania.


Mówiąc nieco metaforycznie: przechodzenie w wyniku transformacji do wyższych

postaci bytu jest w związku z tym wspinaniem się po schodach, a nie po drabinie. Wymiar
wertykalny kolejnych schodków oznacza przesunięcie się w górę w ramach porzadku

60 Choć zatem może to brzmieć jak czarna magia, twierdzę, że czynniki determinacyjne poziomu
wyższego zaczynają odgrywać rolę w kształtowaniu rzeczywistości zanim ten poziom się na dobre pojawił.
Rzecz w tym, że determinacja nie polega na działaniu, lecz na związkach istotowych.

background image

ufundowania (przekształcenie jednej kategorii w drugą). Natomiast ich wymiar
horyzontalny znamionuje wkroczenie do nowego porządku umocowania (przekształcenia
w obrębie tej samej kategorii). W konsekwencji zwolennik superweniencji znajduje się
wprawdzie na tej samej wysokości co zwolennik transformacjonizmu, ale jednak w innym
miejscu. Słowem, nie są to ujęcia równoważne.

Choć nie ma zatem żadnej zmiany na poziomie psychicznym bez jakiejś zmiany na

poziomie fizycznym, to w kategoriach determinacji jest po części odwrotnie – to pewne
procesy fizyczne są niejako wymuszane przez istotowe związki psychiczne (nie ma zatem
odpowiedniej zmiany fizycznej bez jakiejś zmiany psychicznej).


Konkludując, ontologia integralna i ściśle z nią związany transformacjonizm nie

potrzebują żadnego wsparcia ze strony emergentyzmu/superwenientyzmu, bo ich własne
zasoby konceptualne są w tym względzie wystarczające.

Arche

Problemu arche, o którym chcę dzisiaj mówić, dotykaliśmy już kilkakrotnie. Po

pierwsze, pod postacią wniosku z dyskusji nad różnymi sposobami istnienia, iż byt
uznany za pierwotny może być bądź bytem realnym, bądź bytem nadrealnym, jako że aby
mogło w ogóle pojawić się coś innego niż on, musi się on cechować zdolnością działania,
mocą sprawczą. Taką moc sprawczą posiadają jedynie byty realne i nadrealne, co zawęża
krąg możliwych kandydatur do bycia arche. Po drugie, na poprzednim wykładzie
wspomniałem Państwu, że w filozofii współczesnej w odniesieniu do kwestii zasady
substancjalnej poważnie rozważa się tylko kandydatury fizykalne, bowiem alternatywa w
postaci duchowej zasady substancjalnej – tj. ujęcie ducha jako samoistnego – nie
wytrzymuje krytyki. Po trzecie, pod postacią mojej własnej tezy ontologicznej, iż
ostatecznym fundamentem bytowym wszystkiego co istnieje jest jakaś postać bytu
fizycznego; a taki ostateczny fundament bytowy to nic innego jak inna nazwa dla arche.

W pojęciu arche=zasady zawarty jest zatem zarówno moment pierwotności w sensie

czegoś najwcześniejszego („początek”), jak i moment fundamentalności („podstawa”).
Arche ma być zarówno czymś co było na początku, jaki czymś co wciąż trwa, jest obecne
zostaje zachowane we wszystkich przekształceniach. Inaczej mówiąc, arche jest zarówno
substancją (coś bezwzględnie samoistnego), jak i substratem (coś co zostaje zachowane
w toku zmian).

„Początek” należy zatem rozumieć zarówno w sensie tego co pierwsze w

porządku czasowym, jak i w sensie podstawy, fundamentu wszystkiego co istnieje
aktualnie. A ponieważ fundament bytu aktualnego również sam musi aktualnie istnieć,
przeto zagadnienie arche nie odnosi się wyłącznie do zamierzchłej przeszłości, lecz
dotyczy świata aktualnie istniejącego. Inaczej mówiąc, na zagadnienie arche składają się
dwa pytania – o genezę rzeczywistości i o jej strukturę, ma więc ono zarówno wymiar
diachroniczny (genealogia, porządek następstwa czasowego), jak i synchroniczny
(struktura, porządek współistnienia).

*

Rozpatrzmy najpierw sprawę początku, a więc w aspekcie diachronicznym. Musimy

w tym względzie odwołać się do fizyki, bo ten początek miał charakter czysto fizyczny.

background image

Ale zanim to uczynię, kilka uwag wstępnych dotyczących fizyki tego co „elementarne”, i
w tym sensie „pierwsze”. Tego rodzaju fizyka nie może być z oczywistych względów
nauką doświadczalną, musi mieć charakter czysto teoretyczny, spekulatywny. Oznacza

to, że jej podstawowym narzędziem nie jest eksperyment, lecz matematyka61.

Mówiłem Państwu wcześniej, że matematykę można pojmować jako teorię

możliwych struktur i przekształceń zachowujących pewne struktury. W obrębie tak
pojmowanej matematyki można wygenerować wszystkie obiekty matematyczne
wychodząc od pojęcia zbioru dowolnych elementów i poddając go pewnym
przekształceniom (odwzorowaniom, morfizmom). Te odwzorowania ustanawiają nowe
obiekty. Zbiór o określonej strukturze wraz z zachowującym tę strukturę morfizmem
stanowią kategorię. Następnie można dokonywać odwzorowania jednych kategorii w
drugie.

Podobnie jest w fizyce, gdzie również mamy do czynienia z rozmaitymi

strukturami, które podlegają rozmaitym przekształceniom. Dla wyjaśnienia struktury
aktualnie istniejącego świata i prawidłowości nim rządzących trzeba zatem założyć
istnienie pewnych wyjściowych obiektów i ich przekształceń. Te wyjściowe obiekty to
tzw. cząstki elementarne. Za przekształcenia z kolei w fizyce odpowiedzialne są
oddziaływania, które posiadają pewne niezmienniki (odpowiednik morfizmu, tj.
przekształcenia coś zachowującego), co w fizyce wyraża się mówiąc o różnych
postaciach symetrii. Zadaniem fizyki jest przede wszystkim zidentyfikowanie tych
symetrii, a ściślej mówiąc tzw. grup symetrii, tj. kategorii obiektów, których struktura nie
ulega zmianie podczas pewnych przekształceń i składania tych przekształceń.

W fizyce współczesnej przyjmuje się, że istniejąca dziś materia składa się cząstek

materialnych zwanych tradycyjnie elementarnymi; są to tzw. fermiony, tj. cząstki o spinie
połówkowym, choć w istocie jedynie tzw. leptony (np. elektron) są niezłożone, a
pozostałe (tzw. bariony, do których m.in. należą protony i neutrony) są cząstkami
złożonymi z tzw. kwarków, których rozróżnia się sześć rodzajów. Należy jeszcze dodać,
ż

e w obrębie dziś istniejących warunków poszczególne kwarki nigdy nie występują w

postaci izolowanej, lecz związanej, tworząc odpowiednie pary i tryplety.

De facto więc według fizyki cała materia składa się dziś z kwarków i leptonów.
Jeśli z kolei chodzi o oddziaływania (inaczej zwane siłami), to rozróżnia się ich

cztery rodzaje, dwa dalekiego zasięgu (grawitacyjne i elektromagnetyczne) oraz dwa
krótkiego zasięgu, zwane silnymi i słabymi oddziaływaniami jądrowymi, przy czym
przyjmuje się, że każde oddziaływanie przenoszone jest przez pewne cząstki elementarne
o spinie całkowitym, nazywane bozonami. I tak, oddziaływania grawitacyjne wiążą
cząstki posiadające masę, a przenoszone są przez bozony zwane grawitonami (ich
istnienia nie udało się dotąd eksperymentalnie potwierdzić, gdyż w grę wchodzą energie
poniżej progu wykrywalności przez istniejące detektory – grawitacja jest siłą
kilkadziesiąt rzędów słabszą od innych); oddziaływania elektromagnetyczne występują

61

Ma to swoje dobre i złe strony, gdyż przynajmniej dwa założenia implicite zawarte w stosowanych w

fizyce teoriach matematycznych wydają się nieadekwatne w odniesieniu do świata realnego. Po pierwsze,
matematyka oparta jest na pojęciu zbioru dystrybutywnie rozumianego, podczas gdy w świecie realnym
mamy przede wszystkim do czynienia ze zbiorami w sensie kolektywnym. Po drugie, matematyka
dotyczy zbiorów będących kontinuami, podczas gdy rzeczywistość materialna jest nieciągła, a co do
ciągłości czasu i przestrzeni też można mieć poważne wątpliwości. Wskazana jest więc pewna ostrożność
w stosowaniu teorii matematycznych do rzeczywistości fizykalnej.

background image

między cząstkami posiadającymi ładunek elektryczny, a przenoszone są przez fotony;
zarówno grawitony jak i fotony są cząstkami nie posiadającymi masy (choć
posiadającymi energię), co wyjaśnia duży zasięg tych oddziaływań. Słabe oddziaływania
jądrowe przenoszone są przez trzy rodzaje bozonów (dwa tzw. W, posiadające ładunek
elektryczny, i jeden Z, elektrycznie obojętny), natomiast silne oddziaływania jądrowe
przenoszone są przez gluony.

Zatem rzeczywistość fizyczna na jej najbardziej elementarnym poziomie składa się

ostatecznie z kwarków i leptonów (odpowiedzialnych za strukturę materii) oraz bozonów
(odpowiedzialnych za cztery rodzaje oddziaływań).

Tak się sprawy mają jeśli chodzi o dziś istniejący świat fizyczny. Ale nie zawsze tak

było. Fizycy sądzą w szczególności, że kiedyś - „na początku” - wszystkie oddziaływania
stanowiły jedność, z której się dopiero stopniowo wyodrębniły czy też oddzieliły (po
angielsku proces ten nazywa się decoupling). Podobnie, zróżnicowanie dziś istniejącej
materii wywodzi się z pewnych obiektów elementarnych jednego rodzaju. Trwają w
związku z tym poszukiwania jednej teorii, która łączyłaby w jedno wszystkie
oddziaływania i wszystkie cząstki elementarne. Najpierw udało się tego dokonać w
odniesieniu do oddziaływań elektromagnetycznych i słabych, potraktowanych łącznie
jako oddziaływania elektrosłabe. Aktualnie trwają prace nad połączeniem oddziaływań
elektrosłabych z silnymi (teorię tego rodzaju nazywa się w skrócie GUT, od Grand
Unified Theory) oraz – zamierzenie bardziej ambitne, choć o niebo trudniejsze –
wszystkich czterech oddziaływań (tutaj mówi się o Teorii Wszystkiego – Theory Of
Everything, w skrócie TOE).

Warunkiem takiej jedności wszystkich oddziaływań są krańcowo wysokie energie i

temperatury, których nie spotykamy w świecie dzisiejszym (z wyjątkiem być może
czarnych dziur, ale o tym co się dzieje w ich wnętrzu nie możemy mieć, z definicji,
ż

adnej informacji), ale które jak się przypuszcza występowały w początkowej fazie

istnienia Wszechświata. Fizyka bowiem zakłada, że miał on początek (Uwaga: nie był to
początek w czasie, lecz raczej początek czasu). Przyjrzyjmy się zatem z kolei temu
zagadnieniu.

Teoretycznie zaczęło się od „największej pomyłki” Alberta Einsteina (jego własne

określenie). Stworzona przez niego ogólna teoria względności, opisująca strukturę
wszechświata z punktu widzenia grawitacji (opis geometrii wszechświata w funkcji
rozkładu mas, wyrażany przez tzw. tensor krzywizny) zawierała podstawowe równanie,
którego rozwiązania były niestacjonarne, w tym sensie, że promień wszechświata był
zmienny – bądź rósł, bądź malał. Odpowiadałby temu odpowiednio wszechświat
rozszerzający się bądź kurczący. Ponieważ Einstein był przekonany, że wszechświat jest
stacjonarny, przeto aby uzyskać stacjonarne rozwiązania dodał do swego równania
pewien człon zwany stałą kosmologiczną, opisującą gęstość energii próżni, czyli
przestrzeni pozbawionej materii, ale zawierającej energię promienistą. Stała ta miała być
odpowiedzialna za siły odpychania, równoważące siły przyciągania grawitacyjnego, co
miałoby zapewnić stałość rozmiarów wszechświata.

Inaczej podszedł do sprawy rosyjski fizyk Aleksander Friedmann, który uznał, że

stała kosmologiczna nie jest potrzebna (innymi słowy, przyjął, że jest równa zeru). To
czy wszechświat jest stacjonarny, kurczy się czy rozszerza, zależy według Friedmanna od

background image

gęstości materii. Przy pewnej jej wartości granicznej wszechświat jest stacjonarny; jeśli
jest ona większa, wszechświat się kurczy; jeśli jest mniejsza, wszechświat się rozszerza.

Otóż poczynione pod koniec lat 20-tych XX wieku przez Hubble’a obserwacje (tzw.

przesunięcie widma galaktyk ku czerwieni, co oznacza, że galaktyki oddalają się od
siebie; nazywa się to czasem „ucieczką galaktyk”) wskazały, że wszechświat się
rozszerza
, i to w tempie, które można obliczyć (prawo Hubble’a). (Właśnie kiedy
Einstein się o tym dowiedział, uznał wprowadzenie stałej kosmologicznej za swą
największą pomyłkę teoretyczną).

Jeśli ekstrapolować to tempo wstecz, z równania Einsteina uzyskuje się wniosek, że

mniej więcej 13,7 mld lat temu istniał stan o nieskończenie wielkiej gęstości materii (tzw.

osobliwość)62. Taki stan jest wysoce niestabilny, w związku z czym musiał on podlegać
gwałtownym zmianom. Wydarzenie to określa się mianem Big Bangu. Na marginesie:
polskie tłumaczenie „Wielki Wybuch” jest nieadekwatne, bo nie chodzi o wybuch, lecz o
gwałtowną ekspansję, którą z kolei należy interpretować nie jako rozprzestrzenianie się
pewnej pierwotnej substancji – zapewne o charakterze energii promienistej – w
przestrzeni, lecz jako rozszerzanie się samej przestrzeni. Do tego zagadnienia jeszcze
wrócę.

Ponieważ żadna wielkość fizyczna nie może przyjmować wartości nieskończonej,

sugeruje to, że teoria grawitacji Einsteina załamuje się (przestaje być adekwatnym
opisem grawitacji) w pobliżu tego punktu początkowego. Uściślając, chodzi o czas zwany
czasem Plancka – jest to czas potrzebny fotonowi aby przebyć odległość Plancka. Czas
Plancka jest rzędu 10

-44

sec, a odległość Plancka rzędu 10

-35

m.

W celu opisania początkowej fazy istnienia wszechświata potrzebna jest zatem inna

teoria, która łączyłaby teorię grawitacji (opisującą dobrze wszechświat w megaskali) z
fizyką skali mikro, to jest z mechaniką kwantową (kwantowa grawitacja). Trwają
wytężone prace fizyków, aby taką teorię uzyskać. Byłby to wspomniany „paluch” (toe),
czyli „teoria wszystkiego” (wszystkich oddziaływań).

Zobaczmy w jakim kierunku idą te poszukiwania, co mówi fizyka o tym pierwszym

okresie, jak on jest charakteryzowany, jakie procesy w nim występowały – oczywiście w
trybie hipotetycznych spekulacji, bo chodzi o warunki niemożliwe do uzyskania w
warunkach ziemskich czy nawet kosmicznych, a więc trudno tu o weryfikację.

Otóż przyjmuje się, że w tym pierwotnym okresie, charakteryzującym się krańcowo

wysoką

gęstością

energii,

wszystkie

oddziaływania

fizyczne

(silne,

słabe,

elektromagnetyczne i grawitacyjne) stanowiły jedność, a więc coś jakościowo
niezróżnicowanego, choć od strony ilościowej istniejącego w postaci nieciągłej,
skwantowanej, mianowicie w postaci tzw. strun, czyli pewnych wibrujących obiektów
jednowymiarowych pozbawionych klasycznie pojmowanej masy, ale posiadających
energię; energia strun zależy od częstości tych wibracji – im wyższa częstość, tym
większa energia struny. Struny są zasadniczo jednakowe, a różnią się jedynie tym, że w
odmienny sposób wibrują (charakteryzują je więc różne częstości i amplitudy); różnym
parametrom

tych

wibracji

miałyby

odpowiadać

różne

właściwości

cząstek

elementarnych, takie jak masa i ładunek elektryczny

63

.

62

Tę wielkość 13,7 mld lat potwierdzają też inne dane, przede wszystkim odkrycie tzw. promieniowania

reliktowego, będącego konsekwencją Big Bangu, a przewidzianego przez Gamowa.

63

Jest tu analogia do właściwości dźwięków – każdy złożony dźwięk może być uzyskany przez

superpozycję pewnych drgań elementarnych o odpowiedniej częstości i amplitudzie.

background image

Struny to obiekty o rozmiarach rzędu 10

-33

cm. Inaczej mówiąc, teoria strun opisuje

fizykę w skali Plancka i w fazie tuż po BB, czyli w czasie niewiele większym od czasu

Plancka64. W zależności od wersji proponowanych „teorii wszystkiego”, struny są bądź
otwarte (tj. mają wolne końce), bądź zamknięte (pętle).

Teoria strun początkowo dotyczyła jedynie bozonów, czyli kwantów oddziaływań;

dotyczyła więc świata w którym występują tylko oddziaływania (czyli pewne postacie
energii), a nie ma jeszcze materii. Wkrótce jednak wykryto pewną postać symetrii która
obejmuje zarówno bozony, jak i fermiony. Została ona nazwana supersymetrią, w
związku z czym takie zmodyfikowane ujęcie strun nazwano superstrunami. Należy to
rozumieć w ten sposób, że cząstki elementarne są superstrunami, a nie że są zbudowane z
superstrun.


W miarę rozszerzania się tego, co było wówczas wszechświatem (czyli wszystkim

co istnieje), gęstość energii promienistej szybko malała, malała też temperatura.
Doprowadziło to do oddzielenia się (decoupling) kolejno oddziaływań grawitacyjnych
(co odpowiada pojawieniu się cząstek obdarzonych masą), następnie silnych (jądrowych),
a wreszcie do rozdzielenia oddziaływań słabych i elektromagnetycznych.

Według pewnych teorii fermiony, czyli cząstki obdarzone masą, pojawić się miały

dzięki tzw. cząstkom Higgsa (bozony o niezerowej masie; według teorii nadają one masę
kwantom energii poprzez proces tzw. łamania symetrii); mogłyby one powstać w wyniku
kondensacji tachionów, czyli procesu w którym energia pola tachionowego przyjmuje
wartość minimalną.

Według obliczeń teoretycznych cząstki materialne (fermiony) zaczęły się formować

10

-6

sec po Big Bangu; najpierw były to kwarki (6 rodzajów) i leptony, a następnie z

kwarków powstawały wszystkie inne cząstki, w tym nukleony. A zatem materia pojawiła
się „dopiero” jedną milionową sekundy po Big Bangu.

Mniej więcej 300 tys. lat po Big Bangu, kiedy temperatura się już znacznie obniżyła,

zaczęły powstawać połączenia nukleonów z elektronami, czyli atomy (głównie wodoru i
helu). Wraz z ich powstaniem, tj. ze związaniem większości cząstek mających ładunek
elektryczny w neutralne elektrycznie atomy, zaczęła się dominacja materii nad
promieniowaniem, dla którego materia stała się „przezroczysta” (fotony nie oddziaływają
z atomami)

65

. Inną konsekwencją tego stanu rzeczy jest to, że energia promienista w

postaci fotonów występuje w dwu wersjach: związanej (bounded), w której fotony pełnią
rolę bozonów oddziaływań pomiędzy cząstkami posiadającymi ładunek elektryczny, oraz
swobodnej (unbounded), rozprzestrzeniającej się w postaci fal elektromagnetycznych.

*

64

W niektórych teoriach fazę tę opisuje się jako nadświetlną, gdyż struny przybierają wówczas postać

tzw. tachionów, czyli bozonów poruszających się z prędkością większą od prędkości światła. Aby
pozostawało to w zgodzie z wynikami szczególnej teorii względności, według których żadna cząstka
obdarzona masą nie może poruszać się z prędkością światła, ani tym bardziej jej przekroczyć, należy
przyjąć, że tachiony mają masę urojoną, tj. taką, że kwadrat masy daje wielkość ujemną. Jest to zatem
dość egzotyczna wielkość, toteż istnieją spory między fizykami, czy można tego rodzaju obiekty włączać
serio do rozważań.

65 Z tego właśnie okresu pochodzi wspomniane wcześniej promieniowanie reliktowe, wypełniające dziś
jednorodnie cały Kosmos.

background image

Proszą zauważyć, że powyższe ujęcie Big Bangu nie zakłada koncepcji absolutnego

początku, mówi po prostu o naszym wszechświecie, co nie wyklucza się z tym, że
wydarzenie to nie było bezwzględnym początkiem wszystkiego. Powstaje bowiem
pytanie, skąd ta krańcowo gęsta energia się wzięła, bo energia niezwiązana nie może
preegzystować w postaci niezmienionej, trwać, do jej natury należy ekspansja.

Aby odpowiedzieć na to pytanie można np. przyjąć istnienie jakiejś poprzedniej

wersji wszechświata – tym razem „kurczącego się”, co w efekcie doprowadziło do Big
Bangu. Taki kurczący się wszechświat musiał z kolei być poprzedzony fazą rozszerzania
się.

Należałoby zatem założyć istnienie dwu zasadniczych sił, odpowiedzialnych

odpowiednio za rozszerzanie się (ekspansję) i kurczenie (impansję) wszechświata.
Należałoby też jak sądzę przyjąć, że gęstość materii wzrastająca wskutek impansji nie
może się zwiększać nieograniczenie – istnieje tu granica, przekroczenie której
zapoczątkowuje ekspansję, co jest właśnie Big Bangiem. Kurczenie się wszechświata nie
będzie prowadzić do nieskończonej gęstości materii, jeśli przyjmie się, że zapobiega temu
zmienność (fluktuacja) stałej kosmologicznej, która mogłaby być funkcją gęstości
energii. Innymi słowy, model oscylującego wszechświata wymaga niezerowego,
fluktuującego (zmiennego) członu kosmologicznego, będącego stosunkiem sił ekspansji
do sił kontrakcji (impansji). Gdy siły ekspansji przeważają, mamy rozszerzanie, gdy jest
odwrotnie – kurczenie się. (Model stacjonarny odpowiadałby więc sytuacji, w której stała
kosmologiczna jest równa jedności).

Mielibyśmy zatem następującą definicję Big Bangu: jest to gwałtowna, globalna

zmiana fazy Wszechświata z impansywnej na ekspansywną66. Ponieważ przy tym
nierealistyczne wydaje się założenie, że cała energia poprzedniej wersji wszechświata
miała postać impansywną, stąd wniosek, że część tego poprzedniego wszechświata nie
brała udziału w Big Bangu, w konsekwencji czego znajduje się poza „horyzontem

zdarzeń”, czyli nie należy do „naszego” Wszechświata67. Zatem nasz Wszechświat to
najprawdopodobniej nie wszystko co istnieje.

Według mnie, należy przyjąć, że takich kolejnych wszechświatów było

nieskończenie wiele – co dość trudno sobie wyobrazić, ale to już wina naszej wyobraźni,
która urobiona jest na paradygmacie bytów skończonych – gdyby bowiem ich ilość była
skończona, to powstałby natychmiast taki sam problem bezwzględnego początku, jaki
powstaje w odniesieniu do naszego wszechświata, tyle że przesunięty wstecz w czasie.

Stoimy zatem przed dość niemiłą dla naszego myślenia alternatywą: albo nasz

wszechświat jest jednym z nieskończenie wielu następujących po sobie, albo musimy
przyjąć powstanie wszechświata z niczego. Osobiście skłaniam się ku tej pierwszej
wersji.

66 Dobrym poglądowym modelem takiej sytuacji może być wprawiona w ruch drgający sprężyna, w
której kolejno następują fazy ekspansji i kontrakcji.
67 Jeśli przyjąć wiek Wszechświata jako równy 13,7 mld lat (wartość liczbowa jest zresztą nieistotna),
oznacza to, że tylko obiekty znajdujące się wewnątrz sfery o średnicy równej 13,7 mld lat świetlnych
mogą wywierać jakiś wpływ na inne również znajdujące się wewnątrz tej sfery. Ponieważ, z drugiej
strony, wszelka informacja wymaga jakiegoś nośnika fizycznego, a sygnały fizyczne mogą rozchodzić się
z prędkością nie przekraczającą prędkości światła, zatem można też stwierdzić, że nie możemy uzyskać
ż

adnej informacji o tym, co było wcześniej (jeśli w ogóle coś było). Tę granicę nazywa się w związku z

tym „horyzontem zdarzeń”.

background image

*

Wniosek ontologiczny, jaki z powyższych rozważań można wyprowadzić, jest

następujący: pierwotną postacią bytu w obrębie każdego Wszechświata jest nie materia,
lecz energia

68

. Skoro bowiem poprzednikiem fermionów, z których zbudowana jest cała

materia, były bezmasowe bozony, oznacza to, że każdy fermion to pewna koncentracja
czy kondensacja energii pola bozonowego (pola sił, czyli energii). A ponieważ
powszechnie obowiązuje zasada zachowania energii, zatem to energia jest arche
zarówno substancją (tym, co samoistne), jak i substratem (czymś co zostaje zachowane w
toku przemian).

Energia jest substancją, a nie atrybutem jakiejś substancji. Tak jak fale

elektromagnetyczne nie potrzebują żadnego medium dla swego rozchodzenia się, tak i
energia nie jest energią czegoś, lecz energią po prostu, energią samą. Podstawowym
atrybutem tej substancji jest zdolność działania, generowania zmian, dynamizm.

[„Energeia” = en + ergon (=praca), „dynamis“ = moc, od „dynasthai“ =móc, być w

stanie (coś zrobić, dokonać jakiejś zmiany)].

Tezę iż zasadą wszelkiego bytu jest energia należy jednak uściślić. Według mnie

należy mianowicie rozróżniać dwie najogólniejsze postacie energii, odpowiedzialne za
siły ekspansji i za siły kontrakcji. Nazywam te postacie odpowiednio energią
ekspansywną i energią impansywną, lub też – alternatywnie – swobodną (unbounded) i
związaną (bounded). Pierwotną postacią energii – a więc substancją – była według mnie
energia ekspansywna, a to dlatego, że aby doszło do dalszych przekształceń takiej
pierwotnej energii, musi ona podlegać czemuś w rodzaju rozpraszania, aby uzyskać
zmniejszenie gęstości energii. To zaś może zapewnić tylko posiadanie przez energię
cechy ekspansywności.

Proszę zauważyć, że jeśli przyjąć, że pierwotnym tworzywem wszechświata (jego

„materią pierwszą”) jest energia ekspansywna, Arystotelesowski problem tzw.
pierwszego poruszyciela znika.


Należy zatem przyjąć zróżnicowanie energii na dwie postacie – ekspansywną i

impansywną, swobodną i związaną. Wraz z rozprzestrzenianiem się, wyjściowa gęstość
energii maleje, pojawiają się więc stopniowo warunki do przemiany energii
ekspansywnej w impansywną. Materia byłaby pewną postacią tej energii związanej.


Zgodnie ze słynnym wzorem E=mc

2

energia i masa są sobie równoważne. A

ponieważ masa to ilość materii, zatem równoważne są energia i materia. Nie należy tego
pojmować w ten sposób, że w każdej porcji materii „tkwi” określona ilość energii (różnej
zarówno od energii potencjalnej, jak i kinetycznej), która miałaby być czymś innym niż
materia. Należałoby raczej powiedzieć, że materia jest pewną szczególną postacią
istnienia energii, a nawet mocniej, że nie jest ona niczym innym niż taką szczególną
postacią energii – podobnie jak lód jest pewną odmianą, modalnością bycia wody. Tą
szczególną postacią energii byłaby właśnie energia impansywna, cechująca się tendencją

68 Istnieje naturalna skłonność, aby to co pierwotne pojmować jako pewnego rodzaju korpuskułę, będącą
granicą przy podziale złożonych ciał na jakieś bardziej elementarne części. To że skłonni jesteśmy myśleć
kategoriami korpuskularnymi związane jest z tym, że korpuskuły są czymś co znane z doświadczenia, a
więc łatwiej tu o intuicje i o przynajmniej pozory rozumienia. Natomiast energii nie znamy nigdy
bezpośrednio, lecz poprzez jej skutki.

background image

do skupiania się, kondensacji, koncentracji. Można by ją ewentualnie nazwać
„zamrożoną”, gdyż w tej postaci może ona istnieć tylko poniżej pewnej temperatury,
nadto zaś w tejże postaci może być ona przechwywana („konserwowana”), podobnie jak
zamrożona żywność

69

.

Materia zatem to pewien stan skupienia energii impansywnej o odpowiednio

wysokiej gęstości, jej kondensat czy koncentrat, to zamrożona energia. Odnosi się to do

wszystkich materialnych cząstek elementarnych70. Ta koncentracja energii jest
odpowiedzialna za twardość czy też nieprzenikliwość jakie wiążemy z materią.
Przykładem takiej skoncentrowanej energii jest pole magnetyczne o bardzo wysokim
natężeniu, które np. utrzymuje poduszkowiec nad ziemią i stawia opór jego sile ciężkości.

Można domniemywać, że cząstki o różnej masie odpowiadają energiom o różnej

gęstości. Należy jednak jak sądzę, zarazem przyjąć, że powyżej pewnej wartości
granicznej tej gęstości – odpowiadającej cząstce elementarnej o największej masie –
następuje przemiana energii impansywnej w ekspansywną, co można określić mianem
dematerializacji. Sądzę na marginesie, że – przy założeniu modelu oscylującego
wszechświata – tak właśnie było w przypadku Big Bangu, kiedy to w końcowej fazie
kontrakcji poprzedniej wersji wszechświata doszło do takiej koncentracji energii, że jej
gęstość przekroczyła ową wartość graniczną i nastąpiła faza ekspansji, to jest zamiana
energii impansywnej w ekspansywną.

Materia zatem to jedynie zjawisko energii, sposób przejawiania się skoncentrowanej

energii, tj. energii impansywnej o odpowiednio wysokiej gęstości, a autentyczną postacią
arche jest energia (ekspansywna). To, że najczęściej materię traktujemy jako osnowę
ś

wiata, jest związane z tym, że naszym podstawowym źródłem informacji o świecie

zewnętrznym są zmysły – o stosunkowo małej zdolności rozdzielczej, dostosowanej do
skali makro do jakiej należymy. To jest podstawa naszych intuicji dotyczących atrybutów
materii takich jak opór stawiany działaniu, nieprzenikliwość zwartość, ciągłość. Przy
większej zdolności rozdzielczej okazałoby się niechybnie, że to co nam wydaje się jako
zwarte i ciągłe, bynajmniej takie nie jest. Przykład: postrzeganie chmury z ziemi i w
trakcie lotu samolotem przez chmurę. Inny przykład: rozmiar atomu jest rzędu 10

-8

, a

jądra atomowego 10

-12

. Znaczy to, że jądro jest dziesięć tysięcy razy mniejsze od atomu,

czyli że między jego powłoką elektronową a jądrem jest pustka.

69 Filozofem, który głosił dość podobne poglądy był Karl Popper, choć trudno z nim się zgodzić w całej
rozciągłości. Oto cytat z jednej z jego prac: ”Materia nie jest substancją, gdyż nie jest zachowywana,
może być niszczona i tworzona. Nawet najbardziej trwałe cząstki, nukleony, mogą być niszczone przez
zderzenia z antycząstkami. Materia okazuje się być wysoce upakowaną energią, przekształcalną w inne
postacie energii, posiada więc ona charakter procesu. Można więc powiedzieć, że wyniki współczesnej
fizyki sugerują, iż powinniśmy porzucić ideę substancji – czegoś zachowującego tożsamość w toku
zmian, będącego substratem własności. Świat nie jest zbiorem rzeczy, lecz zdarzeń bądź procesów...
Cząstki elementarne nie są kawałkami materii, lecz porcjami energii” (Self and Its Brain, s. 7). Po
pierwsze, wypowiedź Poppera nie dotyczy arche – początku, lecz jest stanowiskiem w sprawie natury
materii aktualnie istniejącej, ujmującym ją jako pewną postać energii. Z drugiej strony, Popper wyciąga
błędny wniosek: nie musimy porzucić idei substancji, musimy jedynie upatrywać jej nie w materii, lecz w
energii – to ona jest tym co zachowuje tożsamość w toku zmian i jest substratem własności.
70 W odpowiednich warunkach materia (czyli energia impansywna, związana) może przekształcić się w
wolną, ekspansywną energię i odwrotnie, choć ten drugi proces jest w warunkach ziemskich trudny do
zaobserwowania, gdyż wymaga bardzo wysokiej gęstości energii (mocy).

background image

Tak więc energia jest prototypem i podstawą wszelkiej realności71.

Tradycyjnie

realność

wiązano

bądź

z

przestrzennością,

bądź

z

czasoprzestrzennością. Zobaczmy zatem, jak się ma kwestia czasu i przestrzeni do naszej
energetycznej arche.


Natura czasu i przestrzeni

Jeśli uznać, iż poszukiwaną zasadą jest energia, to powstać może pytanie, do jakiej

kategorii bytów ją zaliczyć, a tym samym – jaką kategorię bytu należy w konsekwencji
tego uznać za pierwotną. Jeślibyśmy mieli poprzestać na liście arystotelesowskiej,
należałoby odpowiedzieć: działanie. Nie musimy jednak ograniczać się do tego, co
powiedział Arystoteles. Inna możliwość w tym względzie to kategoria procesu. Proces
jest zmianą czegoś, a zarazem stawaniem się czegoś innego.

Mamy więc pewną rodzinę wzajemnie powiązanych pojęć: energia, działanie,

zmiana, proces, stawanie się. Wszystkie one mają wymiar czasowy. Powstaje w związku
z tym pytanie, jaki jest status ontyczny czasu, jego natura, jego związek z wyżej
wymienionymi pojęciami.

Według mnie pojęciem – i zjawiskiem – pierwotnym jest zmiana, a czas jest

względem niej pochodny, zarówno w sensie epistemologicznym (nie można poznać czasu
jako takiego, staje się on nam dostępny jedynie poprzez obserwację zmian), jak i
ontologicznym. Przywykliśmy wprawdzie do myślenia o zmianach jako o czymś co
zachodzi w czasie, ale jest to złudzenie czy też przesąd. Czas nie jest zmienną niezależną,
istnieje jedynie w sensie bycia czymś określonym (wyznaczonym, zdeterminowanym w
sposób ścisły) przez coś innego, mianowicie przez procesy. Czas jest rezultatem
porównywania przebiegu procesów, a nie czymś co dokonywanie porównywania
umożliwia. O czasie mówimy dlatego, że chcemy mieć miarę porównawczą procesów i
zmian.

W sytuacjach pomiarowych czas jest dedukowany przez porównywanie

procesów/ruchów, przy przyjęciu jakiegoś procesu/ruchu bazowego (standardowego)

zwanego zegarem72. Procesy mają swą stałą naturę, cechują się regularnością czy też
jednostajnością, co jest podstawą dla pojmowania czasu jako „płynącego” w sposób
jednostajny.

Pogląd, że czas jest czymś, co upływa, jest podobnym przesądem jak przekonanie,

ż

e jest on czymś pierwotnym w stosunku do zmian i procesów. Czas ma charakter czysto

formalny, jest abstrakcyjną miarą procesów, relacją, której człony (pewne stałe rytmy
zmian) są nieistotne; forma zaś nie istnieje bez materii. Czas jest w takim samym sensie
„zmienną”, w jakim zmiennymi są rozmaite „iksy” i „igreki” w równaniach
matematycznych. A przecież obiekty matematyczne nie zmieniają się.

71 Przypomnę, że według mojej definicji realności, realnym jest coś co działa i co samo podlega
oddziaływaniu. Moja propozycja dotycząca sposobów istnienia jest więc zgodna z powyższymi
rozważaniami.

72

Z tego punktu widzenia można powiedzieć, że czasem jest to, co mierzy zegar. Mierzenie czasu ma

jednak charakter operacyjny, pragmatyczny, z czego nie należy pochopnie wyciągać wniosków
ontologicznych. Podobnie, ujęcie ruchu jako zmiany położenia (a więc lokalizacji przestrzennej) w czasie
to nie definicja ruchu ani nie jego wyjaśnienie, lecz jedynie jego operacyjny, użyteczny opis.

background image

Powie ktoś na to: jak to, przecież teoria względności mówi, że upływ czasu zależy

od układu odniesienia, że w układach poruszających się płynie on wolniej, niż w
spoczywających, a więc że tempo jego upływu jest funkcją prędkości. Na to odpowiem:
to nie czas wolniej upływa, lecz procesy w obrębie tego układu przebiegają wolniej w
porównaniu z takimi samymi procesami w obrębie układu spoczynkowego.

Wszystko to nie znaczy, że czas jest wytworem umysłu ludzkiego. Jak

powiedziałem, jest on czymś określonym, umysł wnosi jedynie umowną jednostkę

wzorcową oraz wybór układu odniesienia dla mierzenia czasu73.

*

Rozważając wcześniej pojęcie substratu stwierdziłem, że jest on czymś „pomiędzy”

bytem i niebytem. Inaczej mówiąc, ani nie jest czymś określonym, ani nie jest niczym;
mówiąc pozytywnie, jest czymś nieokreślonym. Energia jako arche – początek nie była
czymś nieokreślonym w sensie niezróżnicowania, bo była zróżnicowana na struny
wibrujące z różnymi częstościami. Natomiast była ona czymś nieokreślonym w dwu
pozostałych sensach tego terminu, mianowicie 1. czymś nieograniczonym, 2. czymś nie
okre
ślonym przez coś innego. Argument na to jest prosty – niczego innego wszak jeszcze
nie było, była więc ona wówczas „wszystkim”. Nota bene, właśnie z uwagi na ową
nieograniczoność (czyli brak granicy) energię ekspansywną nazywam zamiennie z
angielska unbounded. Wypełnia ona całą przestrzeń, a właściwie to nie wypełnia jej, lecz
ustanawia. Przestrzeń nie jest czymś co by istniało niezależnie od obiektów
fizycznych, czymś w rodzaju pustego pojemnika. Przyjrzyjmy się tej sprawie bliżej.

Podobnie jak rzeczownik „byt” jest pochodny względem czasownika „być”, tak i

przestrzeń jest pochodna względem procesu rozprzestrzeniania się energii ekspansywnej;
pierwotna jest tu zatem kategoria procesu. Przestrzeń ma tedy charakter dynamiczny, a w
każdym razie jest czymś zmiennym – nie jest, lecz staje się

74

. Taki właśnie jest sens

słowa „bang” w wyrażeniu Big Bang – jest to zarazem ekspansja energii i rozszerzanie
się przestrzeni, nieodłączne od siebie jak orzełek i reszka.

Na pojęcie przestrzeni składają się trzy momenty. Po pierwsze, jej wielkość czy też

rozmiar (w szczególności, czy jest skończona czy nieskończona). Po drugie, jej geometria
czy też metryka (stosunki wewnętrzne, przede wszystkim odległości). Po trzecie, jej
wymiar. Z tego co powiedziałem wyżej wynika, że według mnie „rozmiar” przestrzeni
jest po prostu tożsamy z rozmiarem aktualnie istniejącego wszechświata, co oznacza, że
jest on wyznaczony przez czas rozprzestrzeniania się energii ekspansywnej.

Co zaś można powiedzieć o geometrii (metryce) przestrzeni, to jest o odległościach?
W fazie, w której istnieją już obiekty materialne, przestrzeń może być według mnie

scharakteryzowana następująco. Każdemu obiektowi można przyporządkować zbiór
torów, po których poruszałoby się światło wysłane w kierunku wszystkich innych
obiektów. Tory takie nie muszą być liniami prostymi, bo bieg światła zależy od gęstości

73 Oznacza to, na marginesie, że umysł jest też odpowiedzialny za zróżnicowanie osi czasu na
teraźniejszość, przeszłość i przyszłość. Jest to jednak zagadnienie metafizyczne, a nie ontologiczne, nie
będziemy się nim więc dziś zajmować, powrócimy do tej sprawy w ramach Ontologii II.
74 Użycie określenia „dynamiczny” jest trochę mylące, bo mogłoby sugerować, że przestrzeń jest bytem
realnym, podczas gdy tak nie jest – jest ona bytem irrealnym. Byty irrealne mają to do siebie, że są
całkowicie określone przez coś innego.

background image

pola grawitacyjnego i może być przez nie zakrzywiany. Są to w każdym razie najkrótsze
połączenia pomiędzy poszczególnymi obiektami, tzw. geodetyki

75

. Nazwijmy taką wiązkę

wszystkich rozbieżnych geodetyk zaczepionych w danym obiekcie perspektywą.
Wówczas przestrzeń można określić jako klasę (a raczej superpozycję, bo chodzi o zbiór
kolektywny) wszystkich możliwych perspektyw. Zatem przestrzeń nie jest zbiorem
bezwymiarowych punktów, lecz jednowymiarowych linii, to jest pewnych rozciągłości

76

.

Nie muszą to być przy tym, jako się rzekło, linie proste.

Odległości w przestrzeni można mierzyć najkrótszym czasem jaki potrzebowałoby

ś

wiatło, aby daną odległość przebyć. Nadaje się ono do tej roli znakomicie, ponieważ

jego prędkość jest niezmiennikiem wszystkich przekształceń, nie zależy od żadnego
układu odniesienia. Inaczej mówiąc, ponieważ prędkość światła jest stała i nie zależy od
układu odniesienia, nie jest to prędkość względem czegokolwiek; nie trzeba więc
zakładać żadnych układów względem których ono się porusza.

Proszę zauważyć, że te odległości są rozmaite, co oznacza, że czasy potrzebne na

ich przebycie są również różne. Oznacza to, że przy większych odległościach, zanim
ś

wiatło dotrze do celu, położenie obiektów może się „w międzyczasie” zmienić, w

związku z czym zmienią się też odpowiednie perspektywy. Czy zatem pojęcie przestrzeni
jest w ten sposób jednoznacznie wyznaczone? Wszak wynikałoby stąd, że nie jest ona
czymś określonym niezależnie od czasu, tj. w dowolnym momencie czasu.

Rozwiązanie tej trudności może być następujące. Zamiast traktować czas i

przestrzeń jako wielkości odrębne, należy je połączyć w globalną wielkość zwaną
czasoprzestrzenią. Nie jest to po prostu dodanie czwartego wymiaru – czasowego – do
trzech wymiarów przestrzennych. Czasoprzestrzeń nie jest zbiorem punktów, lecz
zbiorem zdarzeń, a czas i przestrzeń to tylko jej abstrakcyjne „przekroje”, powstające
wówczas, gdy jedna ze współrzędnych zostaje ustalona. Tak pojętą czterowymiarową
czasoprzestrzeń nazywa się przestrzenią Minkowskiego, bo to matematyk niemiecki
Hermann Minkowski zaproponował matematyczny formalizm służący do opisania
struktury czasoprzestrzeni, wprowadzonej do fizyki w ramach szczególnej teorii
względności Einsteina.

Czas i przestrzeń związane są zatem z ekspansją energii i posiadają właściwości

metryczne z uwagi na stałość tej ekspansji. Energia ekspansywna jako pozbawiona masy
rozprzestrzenia się z maksymalną prędkością, to jest z prędkością równą prędkości
ś

wiatła

77

. Prędkość ta jest niezmiennicza, nie jest więc związana z żadnymi parametrami

czasoprzestrzennymi (wszędzie i zawsze jest taka sama). Jest natomiast odwrotnie – to
czas i przestrzeń (dystanse) są zależne od niej, przez nią określone

78

.

75

Krzywizna przestrzeni może być mierzona tempem zmiany odległości, w jakiej geodetyka pozostaje do

stycznej do niej; matematycznie opisuje to tzw. tensor krzywizny.

76

Na marginesie. Uzyskaliśmy wynik analogiczny do przypadku strun, które również są tworami

jednowymiarowymi.

77

Ponieważ w pierwszej fazie Big Bangu światła jeszcze nie ma, to ściśle rzecz biorąc należałoby

powiedzieć odwrotnie, że prędkość rozchodzenia się światła jest równa prędkości rozprzestrzeniania się
energii ekspansywnej, równej c.

78

Prędkość jest wprawdzie tradycyjnie określana jako stosunek drogi do czasu, ale nie musi to być

definicja prędkości, to tylko ujęcie operacyjne na potrzeby mierzenia, i to dotyczące tych obiektów, które
mogą posiadać żną prędkość. Tymczasem prędkość światła jest niezmienna.

background image

Energia ekspansywna ma dwa podstawowe atrybuty: moc (zdolność działania) oraz

rozprzestrzenianie się; miarą pierwszego jest częstotliwość

ν

drgań (wibracji), drugiego

zaś prędkość światła c. Wielkościami bazowymi związanymi z energią ekspansywną są
zatem stała prędkość c jej ekspansji oraz częstotliwość

ν

wibracji (drgań) kwantów tej

energii (=strun?), która również pozostaje stała w toku rozprzestrzeniania się. Iloraz
prędkości i częstotliwości daje długość fali (

λ

=cT=c/

ν

), a długość fali to pewien dystans

(odległość). Natomiast odwrotność częstotliwości daje okres drgań, czyli jednostkę czasu.

To zatem prędkość rozprzestrzeniania się energii ekspansywnej jest czynnikiem

wiążącym ze sobą parametry czasowe i przestrzenne. Inaczej mówiąc, jako kategorię
pierwotną należy przyjąć szybkość ekspansji energii (ekspansywnej), a parametryzację
przestrzenno-czasową należy traktować jako pochodną.

Mówiąc ogólnie, stosunki przestrzenne są związane z energią impansywną

(„zamrożoną”, zmaterializowaną), stosunki czasowe zaś z energią ekspansywną. Tak
więc za zróżnicowanie czasoprzestrzeni na czas i przestrzeń odpowiedzialne jest
zróżnicowanie energii na ekspansywną i impansywną.



Natura Wszechświata


A co można powiedzieć o physis, tj. o prawach rządzących ewolucją Wszechświata?

Skoro jego arche jest energia, to physis winna dotyczyć procesów energetycznych, tj.
tego, jak energia może się przekształcać, zmieniać, jakim zasadom czy prawidłowościom
podlegają te procesy.

Sądzę, że są dwie takie ogólne zasady. Po pierwsze, najogólniejszym prawem

jakiemu podlegają wszelkie procesy jest zasada najmniejszego działania, co jest
bezpośrednio związane z energią, która wszak jest bądź samym działaniem (energia
kinetyczna), bądź zdolnością działania (energia potencjalna). Zasada ta stwierdza, że
wszelki proces zmian energetycznych przebiega w taki sposób, aby związane z nim
działanie było najmniejsze. Przez „działanie” rozumie się w fizyce całkę z funkcji
Lagrange’a (lagranżianu), będącej różnicą energii kinetycznej i potencjalnej jakiegoś

układu fizycznego79. Wymiarem działania jest [energia x czas]. Energia zastąpiła w tym
względzie siłę i masę, występujące w Newtonowskich równaniach ruchu. Wskazuje to na
fundamentalność pojęcia energii. Siły i masy są pochodne, wtórne względem energii.
Wiele praw bardziej szczegółowych – Newtonowskie prawa ruchu mechanicznego,
Maxwellowskie prawa elekromagnetyzmu, równanie Schrodingera itp. – to odmiany tej
właśnie zasady.

79 Przykład: piłka podrzucona łukiem do góry cały czas zachowuje energię całkowitą, która jest równa
sumie energii kinetycznej (zależnej od prędkości) i potencjalnej (zależnej od wysokości). Innymi słowy,
w każdym punkcie swego lotu suma jej energii kinetycznej (malejącej wraz ze wzrostem wysokości) i
potencjalnej (rosnącej) jest stała. Natomiast różnica energii kinetycznej i potencjalnej w każdym punkcie
jej toru jest inna. Jeśli zsumować (w granicy: scałkować) wszystkie te różnice, otrzyma się wielkość
zwaną właśnie działaniem. Okazuje się przy tym, że tak określone działanie przybiera wartość minimalną
w porównaniu z innymi możliwymi torami, które piłka przebyłaby w takim samym czasie. Innymi słowy,
przy określonym czasie lotu piłka obierze zawsze trajektorię, dla której działanie jest najmniejsze.

background image

Działanie to wielkość stanowiąca miarę zmiany. Wszystkie układy fizyczne

ewoluują zatem tak, aby zmiany były jak najmniejsze.

W oparciu o zasadę najmniejszego działania Emmy Noether udowodniła w 1915

roku twierdzenie, że każdej postaci symetrii odpowiada zachowanie (konserwacja)
określonej wielkości fizycznej, w konsekwencji czego otrzymuje się drugi podstawowy
rodzaj prawidłowości, mianowicie zasady zachowania

80

. Twierdzenie Noether jest dziś

jednym z podstawowych narzędzi całej fizyki teoretycznej, wskazując, że dla uzyskania
praw zachowania należy poszukiwać pewnych symetrii. Miedzy innymi, tzw.
standardową teorię cząstek elementarnych sformułowano w oparciu o odkrycie tzw.
grupy symetrii SU(3), a teorię superstrun – w oparciu o tzw. supersymetrię.

Mamy więc dwa fundamentalne rodzaje praw charakteryzujących naturę świata

fizycznego, mianowicie zasady najmniejszego działania (bo jest ich kilka) i zasady
zachowania.

Ponieważ energia całkowita każdego izolowanego układu jest stała, a zasada

najmniejszego działania mówi, że różnica energii kinetycznej i potencjalnej jest przy
wszelkich procesach minimalna, stąd wniosek, że każdy taki układ będzie dążył do stanu
o minimalnej energii potencjalnej. Stan taki jest stanem równowagi.

Mamy więc trzecie ogólne prawo: wszystkie układy fizyczne nie poddane

oddziaływaniom zewnętrznym dążą do stanu równowagi.


Fundamentem wszystkich tych praw jest zasada najmniejszego działania. Mówiąc

ogólnie, zasada najmniejszego działania jest fundamentem czy też archetypem
wszystkich uniwersalnych praw przyrody.

Zasada najmniejszego działania z kolei jest szczególnym przypadkiem zasad

wariacyjnych, których odmiany można znaleźć nie tylko w przyrodzie, ale również w
ś

wiecie ludzkim, tj. w kulturze.

Zasady te rzucają pewne światło na związek tego, co rzeczywiste, z tym, co możliwe,

gdyż dostarczają ogólnego kryterium, od którego zależy to, co z tego co możliwe, zostaje
urzeczywistnione. Kryterium tym jest maksymalizowanie bądź minimalizowanie pewnej
wielko
ści (jedną z nich jest właśnie działanie). Przez „to co możliwe” należy tu przy tym
rozumieć nie możliwość logiczną, lecz możność, tj. możliwość realną, związaną z
aktualnie istniejącymi warunkami.

Rzeczywistość to dziedzina tego, co aktualnie istniejące, a więc dziedzina bytu

podlegająca zmianom – tj. dziedziny bytu realnego, irrealnego i nadrealnego razem
wzięte – wraz z tym, co idealne (m.in. prawa natury). Z uwagi na to, że zasadą
rzeczywistości jest energia, a więc zdolność działania, rzeczywistość podlega rozwojowi,
ewoluuje. Kierunek tej ewolucji wyznaczony jest z jednej strony przez to, co już istnieje,
a z drugiej przez ogólne prawa o charakterze zasad wariacyjnych, do których – jak
wspominałem na wcześniejszych wykładach – należą między innymi zasada doboru
naturalnego
, normująca funkcjonowanie i ewolucję świata organicznego, oraz zasady
racjonalno
ści, normujące bieg spraw w świecie ludzkim.

80

Przez symetrię rozumie tu się niezmienniczość funkcji Lagrange’a opisującej dany układ fizyczny,

względem transformacji zmiennych w tej funkcji występujących. W szczególności, zasada zachowania
energii jest konsekwencją niezmienniczości lagranżianu względem przesunięć w czasie.


Wyszukiwarka

Podobne podstrony:
chmielecki w semiotykia 2005
Joanna Chmielewska 2005 Przeciwko babom
Chmiel, Sobczuk Rodowodowa i użytkowa analiza reproduktorów czystej krwi arabskiej kryjących w pols
chmielecki sylabus ontologia
Walproiniany 2005
1 Podstawy diagnostyki w chorobach nerek 2005

więcej podobnych podstron