P
AUL
D
AVIES
P
LAN
S
TWÓRCY
N
AUKOWE
PODSTAWY
RACJONALNEJ
WIZJI
ŚWIATA
( P
RZEKŁAD
M
AREK
K
ROŚNIAK
)
SCAN-
DAL
Rozdział pierwszy
ROZUM A PRZEKONANIA
Ludzie żywią najróżniejszego rodzaju przekonania i na różnych podstawach je opierają,
począwszy od logicznego dowodu do ślepej wiary. Jedne przekonania mają swe źródło w
osobistym doświadczeniu, inne nabywane są w procesie kształcenia, a jeszcze inne wpajane
poprzez indoktrynacje. Nie ulega wątpliwości, że istnieją przekonania o charakterze wrodzonym,
ukształtowane w wyniku ewolucji. Niektóre z przekonań uważamy za możliwe do uzasadnienia,
inne zaś żywimy, gdyż „tak czujemy”.
Jest oczywiste, że wiele naszych przekonań jest fałszywych, już to dlatego, iż są
sprzeczne wewnętrznie, już to dlatego, że nie zgadzają się z innymi przekonaniami czy też
faktami. Pierwszą systematyczną próbę znalezienia uniwersalnej podstawy przekonań podjęto
dwa i pół tysiąca lat temu w starożytnej Grecji. Greccy filozofowie dążyli do sformalizowania
ludzkiego myślenia za pomocą niepodważalnych reguł wnioskowania dedukcyjnego. Sądzili oni,
że poprzez odwołanie się do powszechnie przyjętych procedur racjonalności pozbędą się
niejasności, nieporozumień i sporów, towarzyszących rozwiązywaniu wszelkich ludzkich spraw.
Ich ostatecznym celem było ustalenie zbioru założeń, zwanych aksjomatami, które, akceptowane
przez każdego racjonalnego człowieka, umożliwiłyby rozwiązanie wszelkich kwestii spornych.
Trzeba przyznać, że celu tego nigdy nie osiągnięto, pomijając kwestię, czy to było w
ogóle możliwe. We współczesnym świecie zróżnicowanie przekonań jest większe niż
kiedykolwiek, występuje wiele przekonań ekscentrycznych, niekiedy wręcz niebezpiecznych, a
odwoływanie się do argumentów racjonalnych uważane jest częstokroć przez zwykłych ludzi za
bezużyteczną sofistykę. Jedynie w nauce, zwłaszcza w matematyce (a także, oczywiście, w samej
filozofii), urzeczywistniane są ideały greckich filozofów. Natomiast przy rozważaniu
zasadniczych kwestii egzystencjalnych, takich jak pochodzenie i sens Wszechświata, miejsce
człowieka w świecie czy też naturalny porządek wszechrzeczy, istnieje silna pokusa popad-niecia
w irracjonalizm, od której nie są wolni nawet naukowcy. Jednakże od dawna podejmowano
poważne próby zmierzenia się z tymi problemami poprzez racjonalną, obiektywną analizę. Ale
jak daleko zajdziemy drogą rozumu? Czy naprawdę możemy mieć nadzieję, że ostateczne
zagadki bytu zostaną rozwiązane poprzez racjonalne rozumowanie naukowe, czy też zawsze w
pewnym momencie natkniemy się na nieprzeniknioną tajemnicę? I czym w ogóle jest sama
racjonalność?
Cud nauki
Piękno, majestat i wyrafinowanie fizycznego świata wysławiano od wieków we
wszystkich kulturach. Ale dopiero w nowożytnej, opartej na nauce, kulturze podjęto
systematyczną próbę badania tego świata i miejsca, jakie w nim zajmujemy. Sukcesy metody
naukowej w dziedzinie wyjaśniania tajemnic przyrody okazały się tak oszałamiające, że
niejednokrotnie przesłaniają to, co jest największym cudem związanym z nauką: fakt, że nauka
jest w ogóle możliwa. Sami uczeni przyjmują zazwyczaj za pewnik, że żyjemy w racjonalnym,
uporządkowanym świecie poddanym precyzyjnym prawom, które mogą być poznane ludzkim
rozumem. Jednakże, dlaczego tak właśnie jest, pozostaje zadziwiającą zagadką. Jak to się dzieje,
że człowiek posiada zdolność odkrywania i rozumienia zasad, na których opiera się
Wszechświat?
Ostatnio problemem tym zajmuje się coraz więcej uczonych i filozofów. Czy nasze
sukcesy w poznawaniu świata za pomocą matematyki i nauk przyrodniczych są wyłącznie
szczęśliwym zbiegiem okoliczności, czy też organizmy biologiczne wyłonione z kosmicznego
porządku z konieczności posiadają zdolność odzwierciedlania tego porządku w swoich procesach
poznawczych? Czy spektakularne postępy nauki są jedynie incydentalnym faktem historycznym,
czy też świadczą o zachodzeniu głębokich, istotnych współzależności pomiędzy ludzkim
umysłem a fundamentalnym porządkiem przyrody, która go ukształtowała?
Czterysta lat temu nauki przyrodnicze weszły w konflikt z religią, ponieważ wydawały się
zagrażać uprzywilejowanej pozycji Człowieka w świecie stworzonym przez Boga. Ten myślowy
przewrót, zapoczątkowany przez Kopernika i dokończony przez Darwina, doprowadził do
marginalizacji, czy też wręcz trywializacji, Człowieka. Ludzie przestali być celem stworzenia,
przypisano im przypadkową i pozornie bezsensowną rolę w bezosobowym kosmicznym
dramacie; byli kimś w rodzaju nie przewidzianych w scenariuszu statystów, którzy zabłąkali się
na olbrzymim planie filmowym.
Ta egzystencjalistyczna koncepcja, głosząca, że życie człowieka ma tylko taki sens, jaki
on sam mu nada, stała się przewodnim motywem nauki. To właśnie z tego powodu zwykli ludzie
widzą w nauce zagrożenie i deprecjację swej godności, uważając, że wyobcowuje ich ona ze
świata.
Wizja nauki, jaką przedstawię w następnych rozdziałach, jest całkowicie odmienna.
Wynika z niej, że człowiek nie jest przypadkowym wytworem ślepych sił, jako że istnienie
organizmów obdarzonych świadomością jest fundamentalną właściwością Wszechświata.
Jesteśmy głęboko i, jak wierzę, celowo zapisani w prawach przyrody. Nie uważam również, by
nauka w jakikolwiek sposób prowadziła do alienacji. Jest ona szlachetnym i ubogacającym
człowieka poszukiwaniem sensu świata w obiektywny, metodyczny sposób. Nie zaprzecza ona,
że świat może mieć sens zewnętrzny wobec swego istnienia. Wręcz przeciwnie - jak
podkreślałem, fakt, że nauka jest w ogóle możliwa i odznacza się taką skutecznością, wskazuje
na pewne głębokie, istotne cechy zorganizowania kosmosu. Wszelkie próby poznania natury
rzeczywistości i miejsca człowieka we Wszechświecie muszą być oparte na solidnych
podstawach naukowych. Naturalnie, nauka nie jest jedyną dziedziną aktywności umysłowej
człowieka, nawet w tej naszej, tak zwanej naukowej epoce bujnie rozkwita religia; jednakże, jak
zauważył kiedyś Einstein, religia bez nauki jest ułomna.
Poszukiwania naukowe są podróżą w nieznane. Każdy etap przynosi nowe,
nieoczekiwane odkrycia i niezwykłe, niekiedy trudne do zrozumienia, koncepcje, stanowiące
wyzwanie dla ludzkiego umysłu. Niemniej wszędzie odnajdujemy znajome motywy
racjonalności i porządku. Przekonamy się, że ten kosmiczny porządek wyznaczany jest przez
ścisłe prawa matematyczne, które są ze sobą wzajemnie powiązane, tworząc misterną,
harmonijną całość. Prawa te odznaczają się prostotą i elegancją, niejednokrotnie narzucają się
one uczonym wyłącznie na mocy swego wewnętrznego piękna. Jednakże te właśnie proste prawa
pozwalają na samoorganizowanie się materii i energii w ogromną różnorodność złożonych
struktur, w tym również w takie, które, obdarzone świadomością, zdolne są do refleksji
poznawczej nad tym samym kosmicznym porządkiem, który je zrodził.
Jednym z najbardziej ambitnych celów tego typu refleksji jest lożliwość sformułowania
„Teorii Wszystkiego” - dostarczającej upełnego opisu świata w postaci zamkniętego systemu
prawd agicznych. Dążenie do stworzenia teorii uniwersalnej stało się dla izyków czymś na kształt
poszukiwania świętego graala. Sama idea akiej teorii jest bez wątpienia bardzo pociągająca. W
końcu, jeżeli Vszechświat stanowi przejaw racjonalnego porządku, to powinniśmy być w stanie
wywieść jego naturę na mocy „czystego rozumu”, iez potrzeby odwoływania się do obserwacji
czy też eksperymentów. Większość uczonych odrzuca tego typu podejście, głosząc, że
dobywanie wiedzy na drodze empirycznej jest jedyną metodą, na .tórej można polegać. Jednak,
jak zobaczymy, wymóg racjonalności i poddania prawom logiki co najmniej nakłada pewne
ograniczenia na typ świata dostępnego naszemu poznaniu. Z drugiej strony, same struktury logiki
zawierają immanentne, paradoksalne ograniczenia, wskutek których nigdy nie uda nam się pojąć
pełni istnienia rozumując wyłącznie poprzez dedukcję.
W dziejach nauki występowało wiele modeli mających obrazować podstawowy,
racjonalny porządek rzeczywistości: świat jako przejaw idealnych form geometrycznych, jako
żywy organizm, jako ogromny mechanizm zegarowy, czy też, ostatnio, gigantyczny komputer. W
każdym z tych wyobrażeń uchwycony został jakiś zasadniczy aspekt rzeczywistości, lecz każde z
nich samo w sobie jest dalece niepełne. Omówimy niektóre najnowsze wersje tego typu metafor i
konstrukcje matematyczne, jakie używane są do ich wyrażenia. To doprowadzi nas do pytania,
czym jest matematyka i dlaczego jest ona tak skutecznym narzędziem opisu praw rządzących
światem, a także skąd się biorą same te prawa. Rozważane kwestie będą na ogół łatwe do
przedstawienia, lecz niektóre mają bardziej techniczny, abstrakcyjny charakter. Zapraszam Cię,
Czytelniku, abyś wraz ze nną wyruszył w tę naukową wyprawę w nieznane w poszukiwaniu
ostatecznej podstawy rzeczywistości. Chociaż droga od czasu do czasu jest wyboista, a cel
pozostaje spowity mgłą tajemnicy, mam nadzieję, że podróż ta sprawi Ci wiele radości.
Ludzkie myślenie a zdrowy rozsądek
Często mówi się, że tym, co odróżnia człowieka od innych zwierząt, jest nasza zdolność
myślenia. Zwierzęta wydają się w mniejszym lub większym stopniu posiadać właściwość
uświadamiania sobie otaczającego je świata i reagowania na niego, lecz u człowieka mamy do
czynienia z czymś więcej niż tylko ze świadomością. Posiadamy bowiem zdolność pojmowania
świata i miejsca, jakie w nim zajmujemy. Jesteśmy w stanie przewidywać wydarzenia i
wykorzystywać naturalne procesy do swoich własnych celów, a chociaż sami stanowimy część
świata, to odróżniamy siebie od otaczającej nas rzeczywistości.
W kulturach pierwotnych poznanie świata przez ludzi ograniczało się do zjawisk życia
codziennego, takich jak zmiany pór roku czy też strzelanie z procy lub łuku. Miało ono charakter
ściśle pragmatyczny, bez żadnej podbudowy teoretycznej, nie licząc sfery magii. Obecnie, w
wieku nauki, nasza wiedza uległa znacznemu rozszerzeniu, tak że trzeba ją było podzielić na
odrębne dziedziny: astronomię, fizykę, chemię, geologię, psychologię i tak dalej. Ten gwałtowny
postęp dokonał się prawie wyłącznie dzięki zastosowaniu „metody naukowej”, opartej na
eksperymentach, obserwacjach, dedukcji oraz stawianiu i falsyfikacji hipotez. Nie będziemy tutaj
wchodzić w szczegóły, istotne jest, że nauka wyznacza rygorystyczne standardy procedur
badawczych i dyskutowania ich wyników, które zdecydowanie przedkładają racjonalną
argumentację ponad ślepą wiarę.
Pojęcie racjonalnej argumentacji jest samo w sobie bardzo intrygujące. Poszukujemy
„racjonalnych” argumentów, uznając za najbardziej satysfakcjonujące te, które odwołują się do
„zdrowego rozsądku”. Jednakże procesy myślowe człowieka nie pochodzą bezpośrednio od
Boga, lecz biorą swój początek ze struktury ludzkiego mózgu i zadań, do jakich ukształtował się
on w procesie ewolucji. Z kolei działanie mózgu opiera się na prawach fizyki i zależy od
otaczającego nas świata. To, co określamy mianem zdrowego rozsądku, jest wytworem
schematów myślowych głęboko zakorzenionych w ludzkim umyśle, prawdopodobnie dlatego, że
okazały się skuteczne w praktyce życia codziennego, w sytuacjach takich jak unikanie
spadających przedmiotów lub ucieczka przed drapieżnikami. Niektóre aspekty działania umysłu
determinowane są przez budowę ludzkiego mózgu, inne zaś stanowią „genetyczne
oprogramowanie” odziedziczone po naszych dalekich przodkach.
Wielki filozof Immanuel Kant twierdził, iż nie wszystkie kategorie myślowe, jakimi się
posługujemy, mają swe źródło w zmysłowym doświadczeniu świata. Uważał on, że niektóre
pojęcia mają charakter a priori, przez co rozumiał, iż jakkolwiek nie są prawdami koniecznymi w
ścisłym logicznym sensie, to jednak,zadne myślenie nie byłoby bez nich możliwe: stanowią one
„niezbędny warunek myślenia”. Jako przykład Kant podawał nasze intuicyjne pojmowanie
trójwymiarowości przestrzeni za pośrednictwem aksjomatów geometrii euklidesowej, zakładając,
że ta wiedza jest człowiekowi wrodzona. Niestety, później okazało się, iż geometria euklidesowa
jest faktycznie fałszywa! Obecnie uczeni i filozofowie zgodni są co do tego, że nawet najbardziej
podstawowe aspekty ludzkiego myślenia mają swe ostateczne źródło w obserwacjach świata
fizycznego. Być może pojęcia, które zakorzeniły się w naszym umyśle do tego stopnia, że nie
wyobrażamy sobie, aby można się było bez nich obejść - takie jak „zdrowy
rozsądek”,racjonalność - zostały genetycznie zaprogramowane głęboko w ludzkim mózgu.
Interesujące mogłoby być rozważenie, czy jakieś hipotetyczne istoty inteligentne, których
ewolucja przebiegałaby w odmiennych warunkach, podzielałyby nasze kategorie zdrowego
rozsądku czy eż w ogóle schematy ludzkiego myślenia. Gdyby, jak w wizji niektórych autorów
fantastyki naukowej, istniało życie na powierzchni gwiazdy neutronowej, można by postawić
pytanie, jak takie stoty widziałyby świat i w jakich kategoriach go przedstawiały. Zupełnie
możliwe, że ich pojęcie racjonalności różniłoby się od naszego tak dalece, iż żadne z
argumentów, które my uważamy za racjonalne, nie byłyby dla nich przekonujące.
Czy oznacza to, że do ludzkiego myślenia należy podchodzić , podejrzliwością? Czy
jesteśmy krańcowo szowinistyczni lub zaściankowi, gdy zakładamy, iż kategorie myślowe
gatunku Homo sapiens możemy z powodzeniem stosować do rozwiązywania podstawowych
kwestii egzystencjalnych? Niekoniecznie. Nasz umysł działa w określony sposób właśnie
dlatego, że jego procesy odzwierciedlają do pewnego stopnia naturę świata, w którym żyjemy.
Naprawdę zaskakujące jest to, że ludzkie myślenie okazuje się tak skuteczne w poznawaniu tych
obszarów rzeczywistości, które nie są dane bezpośrednio naszym zmysłom. Nie ma nic dziwnego
w tym iż człowiek był w stanie sformułować prawa rządzące spadaniem ciał, gdyż jego mózg w
swym rozwoju musiał zajmować się sposobami uniknięcia spadających przedmiotów. Ale czy w
jakikolwiek sposób uprawnione jest oczekiwanie, że nasze sposoby rozumowania okażą się
skuteczne na przykład w fizyce jądrowej czy też astrofizyce? Fakt, iż w samej rzeczy okazują się
skuteczne i prowadzą do „nadspodziewanie” dobrych wyników, jest jedną z wielkich zagadek
Wszechświata, którymi będę się zajmował w tej książce.
Jednakże w tym miejscu pojawia się następny problem. Jeżeli w ludzkim myśleniu
odzwierciedla się w jakiś sposób struktura rzeczywistości, czy można twierdzić, że świat stanowi
przejaw rozumu? Będziemy posługiwać się słowem „racjonalny” w sensie „zgodny z rozumem”,
a więc moje pytanie można sformułować, czy, lub w jakim stopniu, świat jest racjonalny. Nauka
zasadza się na założeniu, że świat jest racjonalny we wszystkich swoich aspektach, jakie mogą
być obserwowane przez człowieka. Nie można jednak wykluczyć, iż istnieją jakieś obszary
rzeczywistości wykraczające poza zasięg ludzkiego poznania. Nie znaczy to, że musiałyby one
być irracjonalne w absolutnym sensie. Istoty zamieszkujące gwiazdy neutronowe (lub też
superkomputery) mogłyby być w stanie poznawać rzeczy, których my, wskutek specyficznej
budowy naszego mózgu, poznać nie możemy. Musimy zatem brać pod uwagę możliwość, że
istnieją rzeczy, których nie jesteśmy w stanie wyjaśnić, a nawet takie, których wyjaśnić nie da się
w ogóle.
W tej książce przyjmuję optymistyczny pogląd, że w ogólnym przypadku możemy
polegać na ludzkim rozumie jako narzędziu poznania. Pozostaje faktem, iż u ludzi występują
przekonania, zwłaszcza typu religijnego, które można by określić mianem irracjonalnych. Ich
irracjonalność nie oznacza, iż muszą być one fałszywe. Być może istnieją sposoby poznania (na
przykład typu mistycznego lub poprzez objawienie), które pomijają lub wykraczają poza drogę
poznania rozumowego. Jako uczony, staram się posługiwać rozumem, jak dalece jest to tylko
możliwe. Badając granice rozumu i racjonalności niejednokrotnie natkniemy się na rzeczy
tajemnicze i niezrozumiałe; z dużym prawdopodobieństwem możemy oczekiwać, że w pewnym
momencie rozum przestanie wystarczać i będzie musiał ustąpić miejsca irracjonalnej wierze lub
też szczeremu przyznaniu się do niewiedzy.
Jeżeli świat jest, przynajmniej w znacznym stopniu, racjonalny, jaka jest podstawa jego
racjonalności? Nie może nią być umysł człowieka, ponieważ odzwierciedla tylko to, co już
istnieje. Czy poszukując uzasadnienia powinniśmy odwoływać się do koncepcji racjonalnego
Stwórcy? A może racjonalność „rodzi samą siebie” na mocy własnej „logiczności”? Inną
możliwością jest, że świat „w wielkiej skali” jest irracjonalny, lecz my zamieszkujemy w oazie
względnej racjonalności, ponieważ jest to jedyne „miejsce”, w którym mogą bytować istoty
obdarzone świadomością i zdolnością myślenia. Aby spróbować odpowiedzieć na pytania tego
typu, przyjrzyjmy się bliżej różnym typom rozumowania.
Myślenie o myśleniu
Istnieją dwa użyteczne typy rozumowania i ważne jest, aby potrafić je należycie
rozróżnić. Pierwszy z nich nosi nazwę „dedukcji” i polega na zastosowaniu ścisłych praw logiki.
Zgodnie z logiką klasyczną pewne zdania, takie jak „Pies jest psem” albo „Każda rzecz albo jest
albo nie jest psem”, są zawsze prawdziwe, podczas gdy inne, jak „Pies nie jest psem”, są z
konieczności fałszywe. Przy rozumowaniu dedukcyjnym wychodzimy od zbioru założeń,
zwanych „przesłankami”. Są to zdania, które dla potrzeb danego rozumowania uznajemy za
bezdyskusyjnie prawdziwe. Jest oczywiste, że przesłanki nie mogą być ze sobą sprzeczne.
Powszechnie uważa się, że wnioski logicznego rozumowania dedukcyjnego nie zawierają
nic ponad to, co było zawarte w przesłankach wyjściowych, tak więc za pomocą argumentu tego
typu nie udowodnimy nigdy niczego naprawdę nowego. Rozważmy przykład rozumowania
dedukcyjnego, zwany „sylogizmem”:
1. Wszyscy kawalerowie są mężczyznami.
2. Aleksander jest kawalerem.
3. A zatem, Aleksander jest mężczyzną.
Zdanie 3 mówi nam tylko to, co było wyrażone w zdaniach l i 2 tak więc, zgodnie z tym
poglądem, rozumowanie dedukcyjne stanowi jedynie sposób przekształcania faktów lub pojęć
tak, aby nadać im bardziej dogodną lub interesującą formę.
Jednak gdy zastosujemy rozumowanie dedukcyjne do bardziej ikomplikowanych pojęć,
możemy otrzymać wyniki nieoczekiwane zaskakujące, nawet jeżeli są one jedynie inną postacią
przesłanek wyjściowych. Dobrym przykładem może być tu geometria, opierająca się na zbiorze
założeń, zwanych aksjomatami, z których wyprowadza się inne twierdzenia składające się na
całość teorii. W III wieku przed naszą erą grecki matematyk Euklides podał pięć aksjomatów,
które stały się podstawą geometrii klasycznej, wśród nich takie: „Istnieje tylko jedna prosta
przechodząca przez dwa dane punkty”. Z tych aksjomatów, posługując się dedukcją, można
otrzymać wszystkie twierdzenia geometryczne, których uczymy się w szkole. Jednym z nich jest
twierdzenie Pitagorasa, którego, jakkolwiek nie niesie ono w sobie więcej informacji niż
aksjomaty Euklidesa, z których zostało wyprowadzone, nie możemy bynajmniej uznać za
intuicyjnie oczywiste.
Nie ulega wątpliwości, że wartość rozumowania dedukcyjnego jest taka, jak wartość
przesłanek, na których się ono opiera.
W dziewiętnastym wieku niektórzy matematycy postanowili zbadać konsekwencje
opuszczenia piątego aksjomatu Euklidesa, głoszącego, że przez dany punkt możemy
przeprowadzić dokładnie jedną prostą równoległą do danej prostej. W ten sposób powstała
„geometria nieeuklidesowa”, która znalazła niezwykle duże zastosowanie w nauce; została
wykorzystana między innymi przez Alberta Einsteina w jego ogólnej teorii względności (teorii
grawitacji). Jak wspomnieliśmy, geometria euklidesowa nie jest słuszna w odniesieniu do świata
realnego, w którym, najogólniej mówiąc, przestrzeń jest zakrzywiona wskutek istnienia
grawitacji. Niemniej w szkole nadal uczy się geometrii euklidesowej, ponieważ w normalnych
warunkach jest ona bardzo dobrym przybliżeniem. Jednakże wypływa stąd morał, że nie byłoby
rozsądne uważanie jakichkolwiek aksjomatów za tak oczywiście słuszne, iż nie mogłoby być
inaczej.
Powszechnie przyjmuje się, że dedukcja logiczna stanowi najpewniejszy typ
rozumowania, jakkolwiek trzeba tu wspomnieć, że niekiedy podawane jest w wątpliwość nawet
samo posługiwanie się logiką klasyczną. W tak zwanej logice kwantowej rezygnuje się z zasady,
że coś nie może jednocześnie być i nie być czymś, motywując to tym, iż w mechanice kwantowej
pojecie „bycia” jest bardziej złożone niż w życiu codziennym: kwantowe układy fizyczne mogą
stanowić superpozycję przeciwstawnych stanów.
Inny powszechnie stosowany typ rozumowania nazywa się „indukcyjnym”. Tak jak w
przypadku dedukcji, w indukcji wychodzi się od danego zbioru faktów lub założeń i dochodzi do
określonych wniosków, lecz dokonuje się tego poprzez uogólnienie, a nie tworzenie ciągu
wynikających z siebie zdań. Przekonanie, że słońce jutro wzejdzie, jest przykładem rozumowania
indukcyjnego w oparciu o będący częścią naszego doświadczenia fakt, iż słońce dotychczas
regularnie codziennie wschodziło. Kiedy upuszczę ciężki przedmiot, oczekuję, że będzie on
spadał, na podstawie moich poprzednich doświadczeń z siłą ciążenia. Stosując rozumowanie
indukcyjne, uczeni formułują hipotezy w oparciu o ograniczoną liczbę obserwacji lub
eksperymentów. Do tego typu hipotez należą na przykład prawa fizyki. Prawo mówiące, że siły
elektrostatyczne są odwrotnie proporcjonalne do kwadratu odległości, było wielokrotnie
sprawdzane na różne sposoby i zawsze się potwierdzało. Nazywamy je prawem przyrody, gdyż,
poprzez indukcję, przyjmujemy, że tak będzie zawsze. Jednakże fakt, iż nikt do tej pory nie
zaobserwował naruszenia tego prawa, nie oznacza, że jest ono z konieczności prawdziwe, tak jak
przy założeniu słuszności aksjomatów geometrii euklidesowej musi być prawdziwe twierdzenie
Pitagorasa. Niezależnie od tego, ile będzie poszczególnych przypadków potwierdzających to
prawo, nie możemy być nigdy absolutnie pewni, że zachodzi ono bez żadnych wyjątków.
Indukcja upoważnia nas tylko do wyciągnięcia wniosku, iż jest bardzo prawdopodobne, że przy
każdej następnej próbie prawo to się potwierdzi.
Filozof David Hume przestrzegał przed rozumowaniem indukcyjnym. To, że słońce dotąd
regularnie wschodziło lub prawo proporcjonalności siły elektrostatycznej do odwrotności
kwadratu odległości zawsze się potwierdzało, nie gwarantuje, iż będzie się to powtarzało nadal w
przyszłości. Przekonanie, że tak właśnie będzie, opiera się na założeniu, iż „procesy w przyrodzie
przebiegają zawsze w ten sam, ustalony, sposób”. Ale jakie mamy podstawy, by przyjmować
takie założenie? Nawet jeżeli faktycznie zawsze dotąd obserwowano, że jakiś stan rzeczy B (np.
świt) następuje po stanie rzeczy A (np. zmierzchu), czyż można stąd wnosić, że oznacza to, iż B
jest konieczną konsekwencją A? W jakim sensie moglibyśmy twierdzić, że B musi następować
po A? Z pewnością jesteśmy sobie w stanie wyobrazić świat, w którym zachodzi A, lecz nie
zachodzi B: między A i B nie ma koniecznego logicznego związku. Czy można mówić o
konieczności w jakimś innym sensie, czymś w rodzaju konieczności naturalnej? Hume i jego
zwolennicy stanowczo temu zaprzeczają.
Wygląda na to, że zmuszeni jesteśmy przyznać, iż wnioski, do których dochodzi się na
drodze indukcji, nigdy nie są absolutnie pewne, tak jak wnioskowanie poprzez dedukcję, mimo
że kategoria „zdrowego rozsądku” oparta jest na indukcji. To, że rozumowanie indukcyjne jest na
ogół skuteczne, jest (niezwykłą) własnością świata, którą można by określić mianem
„spolegliwości przyrody”. Wszyscy kierujemy się w życiu przekonaniami o świecie (takimi jak
to, że nieuchronnie wzejdzie słońce), do których doszliśmy w sposób indukcyjny, uważając je za
całkowicie racjonalne, mimo iż u ich podstaw nie leży logika formalna, lecz przygodna własność
świata. Jak się przekonamy, nie ma żadnego logicznego uzasadnienia, aby rzeczy nie miały się
przedstawiać inaczej. Moglibyśmy równie dobrze mieć do czynienia ze światem chaotycznym, w
którym nie byłyby możliwe żadne uogólnienia typu indukcyjnego.
We współczesnej filozofii dużą rolę odegrały prace Karla Poppera, który utrzymywał, że
w praktyce w nauce bardzo rzadko używa się rozumowania indukcyjnego w opisany sposób. Po
dokonaniu nowego odkrycia naukowcy spoglądają wstecz starając się sformułować hipotezy
zgodne z tym odkryciem, a następnie wyprowadzają wnioski z tych hipotez, które z kolei mogą
być sprawdzone na drodze eksperymentalnej. Jeśli któreś z tych przewidywań okaże się
fałszywe, teorię należy zmodyfikować lub odrzucić. Tak więc główny nacisk zostaje położony na
falsyfikację, a nie weryfikację teorii. Dobra teoria to taka, która jest w znacznym stopniu podatna
na falsyfikację, a zatem może być sprawdzona na różne konkretne szczegółowe sposoby. Jeśli
testy te wypadną pozytywnie, nasze zaufanie do teorii wzrasta. Teoria zbyt niejasna lub ogólna,
albo też prowadząca jedynie do przewidywań, których sprawdzić nie jesteśmy w stanie, jest
niewiele warta.
W praktyce zatem ludzka aktywność intelektualna nie polega wyłącznie na rozumowaniu
dedukcyjnym i indukcyjnym. U źródeł wielkich odkryć naukowych leżą zazwyczaj genialne
intuicje i swobodna gra wyobraźni. W takich przypadkach kluczowy fakt czy też hipoteza
pojawia się w umyśle badacza w gotowej postaci i dopiero potem znajduje on jego uzasadnienie
w postaci logicznego łańcucha rozumowania. Inspiracja tego typu jest procesem bardzo
tajemniczym, który rodzi wiele pytań. Czy idee posiadają jakiś rodzaj niezależnego istnienia i są
tylko „odkrywane” w pewnym momencie przez ludzki umysł? A może natchnienie to nic innego
jak normalne rozumowanie, lecz dokonujące się gdzieś na poziomie podświadomości, a
uświadamiamy sobie dopiero jego gotowy wynik? Jeśli tak, to w jaki sposób wykształciła się u
człowieka umiejętność tego typu? Jaką biologiczną przewagę zapewnia gatunkowi ludzkiemu
kreatywność matematyczna i artystyczna?
Racjonalność świata
Teza o racjonalności świata związana jest z faktem, że jest on uporządkowany. Na ogół
zdarzenia nie następują bezładnie, lecz są ze sobą powiązane. Słońce wschodzi planowo,
ponieważ Ziemia obraca się w regularny sposób; spadek ciężkiego przedmiotu poprzedzony jest
jego upuszczeniem z wysokości, i tak dalej. Właśnie to wzajemne powiązanie zdarzeń prowadzi
do pojęcia przyczyny i skutku. Okno zostaje wybite, ponieważ uderzył w nie kamień. Dąb rośnie,
ponieważ została zasadzona do ziemi żołądź. Przyzwyczajeni do niezmiennego następstwa
zdarzeń powiązanych ze sobą przyczynowo, skłonni jesteśmy uważać za przyczynę same
przedmioty materialne: to kamień wybija okno. Jednak oznaczałoby to przypisywanie
przedmiotom aktywnej roli, która im się nie należy. W rzeczywistości możemy jedynie
stwierdzić, że istnieje pewna korelacja między, na przykład, kamieniami lecącymi w stronę okna
a zbitą szybą, a zatem zdarzenia tworzące taki ciąg nie są niezależne. Gdybyśmy sporządzili
zapis wszystkich zdarzeń w jakimś obszarze przestrzeni w określonym czasie, zauważylibyśmy,
że można je ze sobą połączyć w krzyżujące się struktury, „ciągi przyczynowo-skutkowe”. To w
występowaniu tego typu struktur przejawia się racjonalny porządek świata; bez nich mielibyśmy
do czynienia jedynie z chaosem.
Z przyczynowością ściśle wiąże się pojęcie determinizmu. W jego współczesnej postaci
polega ono na założeniu, że wszelkie zdarzenia są w pełni zdeterminowane przez inne,
wcześniejsze zdarzenia. Determinizm implikuje, że stan świata w danym momencie pozwala na
wyznaczenie stanu świata w każdej późniejszej chwili. A ponieważ ten późniejszy stan wyznacza
z kolei następne stany, można wyciągnąć wniosek, że wszystko, co kiedykolwiek wydarzy się we
Wszechświecie w przyszłości, jest całkowicie określone przez jego stan obecny. Gdy, w
siedemnastym wieku, Isaac Newton sformułował prawa swojej mechaniki, zawarł w nich
automatycznie determinizm. Na przykład, jeżeli uznamy Układ Słoneczny za układ izolowany,
znajomość położenia i prędkości planet w określonej chwili pozwala na jednoznaczne
wyznaczenie (za pomocą praw Newtona) ich pozycji i prędkości w każdej następnej chwili.
Ponadto, ponieważ prawa Newtona nie wyróżniają kierunku czasu, zachodzi również możliwość
odwrotna: znajomość stanu obecnego wystarcza na jednoznaczne ustalenie stanu w dowolnym
momencie w przeszłości. W ten sposób jesteśmy na przykład w stanie przewidywać zaćmienia
Słońca i Księżyca, które nastąpią w przyszłości, jak również obliczyć momenty ich wystąpienia
w przeszłości.
Jeżeli świat ma charakter ściśle deterministyczny, wszystkie zdarzenia tworzą zespół
powiązanych ze sobą ciągów przyczynowo-skutkowych. Przeszłość i przyszłość zawarte są w
teraźniejszości, w tym sensie, że pełna informacja potrzebna do odtworzenia przeszłych i
przyszłych stanów świata kryje się w jego stanie obecnym, podobnie pełna informacja o
twierdzeniu Pitagorasa kryje się w aksjomatach geometrii euklidesowej. Cały kosmos staje się
czymś na kształt gigantycznego mechanizmu czy też zegara, posłusznie podążającego drogą
zmian zaplanowaną od samego początku czasu. Ilya Prigogine wyraził to w sposób bardziej
poetyczny: Bóg zostaje sprowadzony do roli bibliotekarza odwracającego kolejne stronice
napisanej już księgi historii kosmicznej.
Przeciwieństwem determinizmu jest indeterminizm, czyli przypadkowość. Mówimy, że
jakieś zdarzenie było „czysto przypadkowe”, gdy nie było ono w żaden zauważalny sposób
zdeterminowane przez coś innego. Typowym przykładem są tu rzuty kostką do gry lub monetą.
Jednakże, czy mamy w tym przypadku do czynienia z rzeczywistym indeterminizmetn czy też
czynniki i siły determinujące wynik rzutu są przed nami ukryte, tak że zachowanie monety lub
kostki po prostu wydaje się nam przypadkowe?
Jeszcze w ubiegłym stuleciu większość uczonych odpowiedziałaby na to pytanie
twierdząco. Zakładano, że na najbardziej podstawowym poziomie świat jest ściśle
deterministyczny, a to, że niektóre wydarzenia wydają się nam przypadkowe, jest wyłącznie
wynikiem tego, że nie posiadamy pełnej informacji o danym układzie. Gdybyśmy znali ruchy
poszczególnych atomów - rozumowano - bylibyśmy w stanie przewidzieć nawet rezultat rzutu
monetą. Jego praktyczna nieprzewidywalność bierze się z ograniczoności naszej wiedzy o
świecie. Zachowanie przypadkowe miałoby być cechą układów wysoce niestabilnych, a zatem
zdanych na łaskę nieznacznych fluktuacji sił ze swego otoczenia.
Pogląd ten został powszechnie odrzucony w drugiej połowie lat dwudziestych naszego
stulecia wraz z odkryciem mechaniki kwantowej, dostarczającej opisu zjawisk zachodzących w
skali atomu, w której mamy do czynienia z indeterminizmem na poziomie fundamentalnym.
Jeden z przejawów tego indeterminizmu znany jest jako zasada nieoznaczoności Heisenberga,
nazwana na cześć niemieckiego fizyka, Wernera Heisenberga, jednego z odkrywców mechaniki
kwantowej. Najogólniej mówiąc, stwierdza ona, że wszystkie mierzalne wielkości podlegają
nieprzewidywalnym fluktuacjom, a zatem niemożliwy jest ich pomiar z absolutną dokładnością.
Ta fundamentalna niedokładność da się ująć w sposób ilościowy, jeżeli pogrupujemy
obserwowalne własności cząstki w pary: i tak na przykład parę taką tworzą położenie i pęd, jak
również energia i czas. Zasada nieoznaczoności stwierdza, że jakiekolwiek próby zwiększenia
dokładności pomiaru jednej z wielkości z takiej pary zmniejszają dokładność, z jaką jesteśmy w
stanie znać wartość drugiej. A zatem dokładniejszy pomiar położenia cząstki elementarnej, na
przykład elektronu, prowadzi do zwiększenia nieokreśloności jego pędu, i odwrotnie. Ponieważ
przewidywanie przyszłych stanów jakiegoś układu wymaga znajomości dokładnych położeń i
pędów jego cząstek składowych, zasada nieoznaczoności Heisenberga położyła ostateczny kres
koncepcji, że przyszłość wyznaczona jest dokładnie przez teraźniejszość. Oczywiście, zakłada się
przy tym, że nieoznaczoność kwantowa jest rzeczywistą immanentną cechą przyrody, a nie
wynikiem działania ukrytych czynników deterministycznych. Wiele kluczowych eksperymentów,
jakie przeprowadzono dla sprawdzenia tej tezy w ostatnich latach, potwierdziło, że
nieoznaczoność należy do istoty układów kwantowych. Wszechświat na swym najbardziej
fundamentalnym poziomie ma charakter indeterministyczny.
Czy miałoby to oznaczać, że Wszechświat jest jednak irracjonalny? W żadnym wypadku.
Zachodzi zasadnicza różnica między rolą, jaką odgrywa prawdopodobieństwo w mechanice
kwantowej, a niczym nie ograniczonym chaosem pozbawionego praw świata. Chociaż, ogólnie
rzecz biorąc, przyszłe stany układu kwantowego nie mogą być znane z pewnością, względne
prawdopodobieństwa różnych możliwych stanów są wyznaczone w sposób ścisły. Zatem
możemy podać, jaka jest szansa, że atom będzie się znajdował w stanie wzbudzonym lub nie,
nawet jeżeli niemożliwe jest przewidzenie wyniku w konkretnym przypadku. Te statystyczne
prawidłowości powodują, że na poziomie makroskopowym, gdzie efektów kwantowych w
normalnych warunkach nie obserwuje się, przyroda wydaje się podlegać prawom
deterministycznym.
Zadaniem fizyka jest poszukiwanie regularności w przyrodzie i ujmowanie ich w proste
koncepcje matematyczne. Pytanie, dlaczego w ogóle występują regularności i dlaczego dają się
one prosto wyrażać za pomocą matematyki, wykracza poza zakres fizyki i należy do metafizyki.
Metafizyka: komu jest ona potrzebna?
Termin „metafizyka” w filozofii greckiej oznaczał pierwotnie „to, co następuje po
fizyce”. Wiązało się to z faktem, iż pisma Arystotelesa dotyczące metafizyki znajdowały się, nie
opatrzone tytułem, po jego traktacie o fizyce. Jednak wkrótce terminem tym zaczęto oznaczać
wszelką tematykę wykraczającą poza fizykę (dzisiaj powiedzielibyśmy: poza nauki
przyrodnicze), a mimo to mającą znaczenie dla badań naukowych. Tak więc metafizyka oznacza
tematykę dotyczącą fizyki (czy też ogólnie nauki) w odróżnieniu od tematyki samej nauki.
Tradycyjne kwestie metafizyczne obejmują pochodzenie, naturę i sens Wszechświata, problem
relacji świata przedstawień, dostępnego naszym zmysłom, do ukrytego porządku świata
„prawdziwego”, związek pomiędzy umysłem a materią, oraz problem wolnej woli. Kwestie te są
w oczywisty sposób istotne dla nauki, lecz podobnie jak w przypadku pytań o sens życia nie
można na nie udzielić odpowiedzi odwołując się wyłącznie do badań empirycznych.
U progu dziewiętnastego wieku cały gmach metafizyki uległ zachwianiu po krytycznych
analizach Davida Hume'a i Immanuela Kanta. Filozofowie ci podali w wątpliwość nie tylko
konkretne systemy metafizyczne jako takie, lecz zakwestionowali zarazem samą sensowność
metafizyki. Hume dowodził, że sens można przypisać jedynie ideom, które biorą swój początek
bezpośrednio z obserwacji świata lub z systemów dedukcyjnych, jak matematyka. Pojęć takich
jak „rzeczywistość”, „umysł”, czy też „substancja”, które miałyby wykraczać poza obiekty
dostępne naszym zmysłom, Hume nie akceptował jako pozbawionych sensu obserwacyjnego.
Odrzucał również wszelkie pytania o celowość i sens Wszechświata, czy też miejsce w nim
człowieka, ponieważ uważał, że żadnej z tych kwestii nie da się sensownie powiązać z rzeczami,
które faktycznie jesteśmy w stanie obserwować. Ten kierunek filozoficzny znany jest jako
„empirycyzm”, ponieważ uznaje się w nim fakty empiryczne za podstawę poznania.
Kant akceptował tezę empirystów, że wszelka wiedza wychodzi od naszego
doświadczenia świata, lecz, jak już wspomniałem, uważał jednocześnie, iż ludzie posiadają
pewną wiedzę wrodzoną, która jest niezbędnym warunkiem możliwości jakiegokolwiek
myślenia. Zatem w procesie myślenia zbiegają się dwie składowe: dane zmysłowe i wiedza a
priori. Kant zastosował swą teorię do zbadania granic tego, co ludzie z samej istoty swoich
zdolności obserwowania i rozumowania mogą mieć nadzieję poznać w ogóle. Jego krytyka
metafizyki polegała na tym, że nasze myślenie może odnosić się jedynie do obszaru
doświadczenia, do świata zjawiskowego, który faktycznie obserwujemy. Nie mamy żadnych
podstaw, by zakładać, że mogłoby się ono odnosić do hipotetycznej dziedziny wykraczającej
poza rzeczywistość zjawisk. Innymi słowy, nasze myślenie odnosi się do rzeczy-jak-je-widzimy,
natomiast nie jest w stanie powiedzieć nam niczego o rzeczach-samych-w-sobie. Jakakolwiek
próba spekulowania o „rzeczywistości” leżącej poza obiektami jezpośredniego doświadczenia
skazana jest na niepowodzenie.
Jakkolwiek po tych atakach snucie teorii metafizycznych stało się liemodne, część
filozofów i przyrodników nadal zajmowała się rozważaniami, co naprawdę kryje się pod
powierzchnią zjawisk świata fenomenalnego. W ostatnim czasie wiele odkryć w dziedzinie fizyki
teoretycznej, kosmologii i teorii komputerów doprowadziło io zwiększenia zainteresowania
niektórymi kwestiami tradycyjnie należącymi do metafizyki. Badania nad „sztuczną inteligencją”
ożywiły dyskusję nad problemem wolnej woli i relacji umysł-ciało. Odkrycie Wielkiego
Wybuchu zrodziło pytanie o sposób, w jaki fizyczny Wszechświat w ogóle zaistniał. Mechanika
kwantowa wydobyła na jaw skomplikowany charakter związków obserwatora z tym, co podlega
obserwacji. Teoria chaosu ujawniła, że relacje pomiędzy trwałością a zmianą bynajmniej nie są
proste.
Ponadto wśród fizyków pojawiła się koncepcja Teorii Wszystkiego - połączenia
wszystkich praw fizyki w ramach jednego, opartego na matematyce, systemu pojęciowego.
Skupiono także uwagę na istocie samych praw fizyki. Dlaczego przyroda wybrała jeden
konkretny zbiór praw zamiast innego? Dlaczego dają się one wyrazić w kategoriach matematyki?
Czy prawa, jakie faktycznie obserwujemy, są w jakiś sposób wyróżnione? Czy mogliby istnieć
rozumni obserwatorzy we Wszechświecie opisywanym przez jakiś inny zestaw praw?
Termin „metafizyka” zaczął oznaczać „teorie o teoriach” fizycznych. Nagle stały się
modne rozważania o „klasach praw” zamiast rzeczywistych praw rządzących naszym
Wszechświatem. Poświęcano uwagę hipotetycznym wszechświatom o własnościach zupełnie
odmiennych od naszego, starając się stwierdzić, czy nasz Wszechświat jest w jakikolwiek sposób
wyróżniony. Pewni teoretycy rozpatrywali możliwość istnienia „praw dotyczących praw”, które
pozwalałyby „wybrać” prawa naszego Wszechświata spośród szerszej ich klasy. Niektórzy
skłonni byli nawet przyjąć, że owe inne wszechświaty, rządzące się odmiennymi prawami,
realnie istnieją.
W samej rzeczy, w tym sensie fizycy uprawiali metafizykę od dawna. Praca fizyka
teoretycznego polega miedzy innymi na badaniu pewnych wyidealizowanych modeli
matematycznych, które miałyby odawać jedynie pewne wąskie aspekty rzeczywistości, i to
często jedynie w sposób symboliczny. Modele te odgrywają rolę „wszechświatów-zabawek”,
które bada się dla nich samych, niekiedy jako ćwiczenie umysłu, lecz częściej, by rzucić nieco
światła na świat rzeczywisty poprzez znalezienie pewnych cech, które byłyby wspólne różnym
modelom. Nazwy tych wszechświatów-zabawek często pochodzą od nazwisk ich twórców.
Mamy zatem model Thirringa, model Sugawary, model Tauba-NUT, maksymalnie rozciągły
wszechświat Kruskala, i tak dalej. Teoretycy zajmują się nimi ze względu na to. że w
przeciwieństwie do modeli bardziej realistycznych zazwyczaj dają się one ściśle wyrazić
matematycznie. Moja własna praca około dziesięciu lat temu była w znacznej części poświęcona
badaniu efektów kwantowych w modelach Wszechświata o jednym zamiast trzech wymiarów.
Miało to na celu uczynienie rozważanych problemów łatwiejszymi. Założeniem było, że niektóre
z istotnych własności modelu jednowymiarowego powinny się zachować również w modelach
trójwymiarowych. Nikt nie wysuwał tezy, iż Wszechświat miałby być naprawdę
jednowymiarowy. Wraz z moimi współpracownikami badałem owe hipotetyczne światy, by
zdobyć wiedzę o własnościach pewnego typu praw fizycznych, własnościach, które mogłyby się
również odnosić do praw rządzących rzeczywistym Wszechświatem.
Czas i wieczność: fundamentalny paradoks istnienia
„Myślę, więc jestem”. Tymi sławnymi słowami siedemnastowieczny filozof Rene
Descartes wyraził to, co uważał za podstawową wypowiedź o rzeczywistości, z którą każdy
myślący człowiek może się zgodzić. Najbardziej pierwotnym doświadczeniem jest
doświadczenie naszego własnego istnienia. Jednakże nawet w tej bezdyskusyjnej tezie zawarte
jest jądro paradoksu, który uparcie przewija się w dziejach ludzkiej myśli. Bycie jest pewnym
stanem, zaś myślenie procesem. Kiedy myślę, stan mojego umysłu zmienia się z upływem czasu.
Niemniej jednak „ja”, będące podmiotem tego stanu, pozostaje to samo. Jest to prawdopodobnie
najstarszy z problemów metafizycznych omawianych w tej książce, i to on właśnie ujawnił się
ponownie z pełną mocą we współczesnej metodologii nauki. Jakkolwiek doświadczenie
własnego „ja” jest naszym doświadczeniem pierwotnym, doświadczamy również świata
zewnętrznego i przenosimy na niego tę samą paradoksalną opozycję procesu i bycia; tego, co
wydarza się w czasie, i tego, co pozaczasowe. Z jednej strony, świat ciągle istnieje; z drugiej
strony, nieustannie się zmienia. Stałych punktów odniesienia doszukujemy się nie tylko w swej
podmiotowej niezmienności, lecz zarazem w trwałości rzeczy i własności należących do
otaczającego nas świata. Tworzymy pojęcia takie jak „człowiek”, „drzewo”, „góra”, „słońce”.
Nawet jeżeli zdajemy sobie sprawę, że obiekty nie są wieczne, charakteryzują się one pewną
trwałością, która umożliwia traktowanie ich jako odrębnych bytów. Jednakże na tło tego niby-
trwałego bycia nakłada się ustawiczna zmiana. Wszystko jest procesem. Teraźniejszość ginie w
mroku przeszłości, a przyszłość „nastaje”: mamy tu fenomen stającego-się-bytu. „Istnieniem”
nazywamy właśnie to paradoksalne zespolenie bycia i stawania się.
Człowiek, być może z powodów psychologicznych, lękając się swej własnej
śmiertelności, niestrudzenie poszukuje trwałych aspektów rzeczywistości. Ludzie rodzą się i
umierają, drzewa rosną i usychają, nawet góry podlegają stopniowej erozji, a obecnie wiemy, że
nawet słońce nie będzie świeciło wiecznie. Czy istnieje cokolwiek autentycznie stałego, na czym
można by polegać? Był czas, że za niezmienne uznawane były niebiosa, a słońce i gwiazdy miały
trwać z wieczności w wieczność. Lecz teraz wiemy, że obiekty astronomiczne nie istniały od
zawsze, ani nie będą trwać w nieskończoność. Astronomowie odkryli, że w rzeczywistości cały
Wszechświat podlega ewolucji.
Czy istnieje zatem coś absolutnie stałego? W poszukiwaniu odpowiedzi na to pytanie
nasza myśl nieuniknienie zwraca się od świata tego, co fizyczne i materialne, w dziedzinę
mistyki i abstrakcji. Pojęcia takie jak „logika”, „liczba”, „dusza” czy też „Bóg” pretendowały
wielokrotnie w dziejach do roli podstawy wizji rzeczywistości, którą można by uznać za trwałą.
Ale w każdym przypadku pojawia się ten nieznośny paradoks istnienia: w jaki sposób
zakotwiczyć zmienny świat percepcji w niezmiennym świecie abstrakcyjnych pojęć?
Już u zarania systematycznej filozofii, w starożytnej Grecji, z dychotomią tą zmierzył się
Platon, dla którego prawdziwą rzeczywistość stanowił transcendentny świat niezmiennych,
abstrakcyjnych Idei czyli doskonałych Form, dziedzina relacji matematycznych i wzorcowych
struktur geometrycznych. Miała to być dziedzina czystego bytu, niedostępna zmysłom. Zmienny
świat naszego bezpośredniego doświadczenia - świat stawania się - był dla niego czymś ulotnym,
efemerycznym, iluzorycznym. Świat obiektów materialnych miał być zaledwie bladym odbiciem
czy też naśladownictwem świata idealnych Form. Platon ilustrował zależność między tymi
dwoma światami za pomocą metafory. Wyobraźmy sobie, że jesteśmy uwięzieni w jaskini
plecami do światła. Obiekty przesuwające się przed wejściem jaskini rzucają cień na jej ścianę.
Cienie te byłyby niedoskonałym odwzorowaniem prawdziwych form. Platon przyrównywał świat
naszych doznań zmysłowych właśnie do świata cieni na ścianie jaskini. Jedynie niezmienny świat
Idei „rozświetlony był słońcem rozumu”.
Platon wykoncypował dwa bóstwa, które miałyby rządzić tymi światami. U szczytu
świata idealnych Form było Dobro, wieczny i niezmienny byt, istniejący poza przestrzenią i
czasem. Zamknięty w półrzeczywistym, zmiennym świecie obiektów i sił materialnych był
natomiast tak zwany Demiurg, którego zadaniem było wprowadzanie w istniejącą materię
porządku, posługując się Formami jako czymś w rodzaju matrycy czy też planu. Jednak, będąc
dalekim od doskonałości, tak ukształtowany świat nieustannie rozpada się i wymaga stałych
wysiłków twórczych Demiurga. W ten sposób powstaje zmienność świata naszych wrażeń
zmysłowych. Platon był świadom fundamentalnej opozycji między byciem a stawaniem się,
między pozaczasowymi, wiecznymi Formami a zmiennym światem ludzkiego doświadczenia,
lecz nie uczynił żadnego poważnego wysiłku, aby je pogodzić. Zadowolił się jedynie nadaniem
temu drugiemu statusu częściowo iluzorycznego, uznając, że wyłącznie to, co pozaczasowe i
wieczne, ma prawdziwą wartość.
Uczeń Platona, Arystoteles, odrzucał koncepcję bytujących poza czasem form,
konstruując w ich miejsce obraz świata jako żywego organizmu, który tak jak embrion
ukierunkowany jest w swym rozwoju ku ostatecznemu celowi. Według niego, kosmos jest
przeniknięty celowością i popychany ku swemu przeznaczeniu przez przyczyny celowe. Każdy
obiekt przyrody ożywionej wyposażony jest w duszę, która kieruje jego celową działalnością,
lecz Arystoteles uważał te dusze za immanentne składowe samych organizmów, a nie byty
transcendentne w sensie platońskim. W tej animistycznej wizji Wszechświata nacisk położony
został na proces dokonujący się poprzez celowo zorientowane zmiany. Zatem moglibyśmy
przyjąć, że, w przeciwieństwie do Platona, Arystoteles daje pierwszeństwo stawaniu się nad
byciem. Niemniej jednak jego świat nadal stanowił paradoksalne połączenie tych dwóch
przeciwieństw. Cele, ku którym zmierzała ewolucja bytów, były niezmienne; to samo dotyczyło
dusz. Ponadto wszechświat Arystotelesa, jakkolwiek oparty na ciągłym rozwoju, nie miał
początku w czasie, zawierając obiekty - ciała niebieskie - które były „odwieczne, niezniszczalne i
wiekuiste”, poruszające się w nieskończoność po ustalonych, doskonałych orbitach kołowych.
Tymczasem na Bliskim Wschodzie powstała judaistyczna wizja świata, oparta na
przymierzu Jahwe z narodem wybranym Izraela. Tutaj nacisk położono na objawianie się Boga w
dziejach, tak jak zostało ono przedstawione w relacjach historycznych Starego Testamentu,
znajdując swój najpełniejszy wyraz w Księdze Rodzaju, poprzez zawarty w niej opis stworzenia
świata przez Boga w pewnym określonym momencie w przeszłości. Mimo to Żydzi głosili, że
ich Bóg jest niezmienny i transcendentny. I w tym przypadku nie uczyniono żadnej poważnej
próby, by rozwikłać nieunikniony paradoks, iż niezmienny Bóg zmienia swe celowe działania w
zależności od okoliczności historycznych.
Na usystematyzowaną wizję świata podejmującą w istotny sposób kwestię paradoksów
związanych z czasem trzeba było czekać aż do piątego wieku przed naszą erą, kiedy to pojawiły
się prace św. Augustyna z Hippony. Augustyn uznawał czas za składnik świata fizycznego -
część stworzenia, więc zdecydowanie umieścił Stwórcę poza strumieniem czasu. Idea poza
czasowego Bóstwa nie dawała się jednak łatwo pogodzić z doktryną chrześcijańską. Szczególne
trudności wiązały się w tym przypadku ze zbawczą misją Chrystusa: Cóż miałoby to oznaczać, że
pozaczasowy Bóg dokonuje wcielenia i umiera na krzyżu w konkretnym czasie historycznym?
Jak można pogodzić Bożą niepodatność na wpływy z cierpieniem, jakie stało się udziałem
Chrystusa? Dyskusja ta została podjęta ponownie w trzynastym wieku, kiedy to w nowo
powstałych uniwersytetach w Europie pojawiły się przekłady prac Arystotelesa, oddziałując
głęboko na ówczesną myśl filozoficzną. Młody dominikanin z Paryża, Tomasz z Akwinu,
postawił sobie za cel pogodzenie religii chrześcijańskiej z greckimi wzorcami racjonalnego
filozofowania. Sformułował on ideę trancendentnego Boga bytującego na podobieństwo
platońskich idei poza przestrzenią i czasem. Opisał następnie Boga za pośrednictwem szeregu
dobrze określonych przymiotów - jako byt doskonały, prosty, pozaczasowy, wszechmocny i
wszechwiedzący, próbując udowodnić ich konieczny i niesprzeczny charakter na drodze
logicznej, podobnie jak w przypadku twierdzeń geometrii. Chociaż jego prace wywarły wielki
wpływ, Akwinata i jego zwolennicy mieli ogromne trudności w określeniu związków tego
abstrakcyjnego, niezmiennego Boga z zależnym od czasu światem fizycznym oraz Bogiem
będącym obiektem czci i wiary chrześcijańskiej. Ten i inne jeszcze problemy doprowadziły do
potępienia prac Tomasza przez biskupa Paryża, jakkolwiek został on później oczyszczony z
zarzutów i w końcu kanonizowany.
Nelson Pike w swojej książce God and Timelessness [Pozaczasowy Bóg] po
wyczerpującym przestudiowaniu tego zagadnienia dochodzi do wniosku: „Powziąłem teraz
podejrzenie, iż doktryna o pozaczasowości Boga została wprowadzona do teologii
chrześcijańskiej, ponieważ filozofia platońska była w owym czasie modna, a doktryna ta
wydawała się bardzo korzystna z punktu widzenia elegancji systemu. Gdy raz została
wprowadzona, zaczęła później żyć swym własnym życiem”. Filozof John O'Donnell wyciągnął
ten sam wniosek; jego książka Trinity and Temporality [Trójca a czas] podejmuje sprawę
konfliktu pomiędzy platońska pozaczasowością a judeochrześcijańską historycznością: „Skłonny
jestem przypuszczać, że w miarę jak rozwijały się kontakty chrześcijaństwa z myślą helleńską
(...), usiłowało ono stworzyć syntezę, która miała wewnętrzne pęknięcie dokładnie w tym
miejscu. (...) Ewangelia w połączeniu z pewnymi hellenistycznymi tezami o naturze Boga
prowadziła w ślepe zaułki, z których Kościół musiał się potem wywikływać”. Do sprawy tych
„ślepych zaułków” powrócimy w rozdziale 7.
Średniowieczna Europa była świadkiem powstania nowożytnej nauki i związanego z nią
całkiem nowego sposobu spojrzenia na świat. Uczeni, tacy jak Roger Bacon i, później, Galileo
Galilei, podkreślali wagę zdobywania wiedzy poprzez dokładne, ilościowe eksperymenty i
obserwacje. Dokonywali oni rozdziału między Człowiekiem i przyrodą, pojmując eksperyment
na kształt dialogu z przyrodą, w którym ujawnia ona swe sekrety. Racjonalny porządek przyrody,
sam w sobie pochodzący od Boga, przejawiał się, ich zdaniem, w postaci ścisłych praw. Tak oto
echo niezmiennego, pozaczasowego Boga Platona i Akwinaty wkracza do nauki w postaci
wiecznych praw - koncepcji, która osiągnęła najdoskonalszą formę w monumentalnym dziele
Izaaka Newtona w siedemnastym wieku. W fizyce newtonowskiej czyni się wyraźne
rozróżnienie między stanami świata, które zmieniają się z chwili na chwilę, rządzącymi nimi
prawami, które pozostają niezmienne. Jednak znowu natykamy się tu na trudność pogodzenia
bycia i stawania , gdyż nie potrafimy wyjaśnić upływu czasu w świecie opartym pozaczasowych
prawach. Stanowi to zagadnienie tak zwanej „strzałki czasu”, które miało odtąd trapić fizykę i
jest przedmiotem dyskusji i intensywnych badań do dnia dzisiejszego. Żadna próba opisania
świata, czy to na gruncie naukowym czy logicznym, nie może być uznana za udaną, dopóki nie
wyjaśni paradoksalnego związku zmienności i trwania, bycia i stawania się, w żadnej tematyce
opozycja ta nie znajduje bardziej jaskrawego wyrazu niż w zagadnieniu początku Wszechświata.
Rozdział drugi
CZY WSZECHŚWIAT MOŻE STWORZYĆ SAM SIEBIE?
Zadaniem nauki jest ustalenie, w jaki sposób zaistnial Wszechświat.
John Wheeler
Zazwyczaj uważamy, że przyczyny poprzedzają powodowane przez siebie skutki. Jest
zatem naturalne, iż próbujemy wyjaśnić Wszechświat poprzez odwołanie się do sytuacji we
wcześniejszych stadiach jego rozwoju. Jednakże, nawet gdyby się nam udało uzasadnić obecny
stan Wszechświata poprzez stan, w jakim się on znajdował, powiedzmy, miliard lat temu, czy
osiągnęlibyśmy przez to cokolwiek poza przesunięciem tajemnicy o miliard lat wstecz? Przecież
z pewnością próbowalibyśmy wtedy uzasadnić stan Wszechświata przed miliardem lat poprzez
jego stan w jeszcze wcześniejszej epoce, i tak dalej. Czy ten ciąg przyczyn i skutków ma jakiś
kres? Przekonanie, że „to wszystko nie mogło powstać samo z siebie”, jest głęboko zakorzenione
w kulturze zachodniej. Ponadto powszechnie zakłada się, iż to „coś” wykracza poza dziedzinę
badań naukowych i ma w tym czy innym sensie charakter nadnaturalny. W tym toku
rozumowania powiada się, że naukowcy potrafią niewątpliwie bardzo przemyślnie uzasadnić
wiele rzeczy; być może uda im się kiedyś wyjaśnić cały świat fizyczny, lecz w swoim łańcuchu
uzasadniania muszą dojść do punktu, poza który nauka nie może się posunąć. Ten punkt to
stworzenie Wszechświata jako całości, ostateczny początek świata fizycznego.
Jest to tak zwany argument kosmologiczny, który, w tej czy innej formie, był często
przytaczany przy udowadnianiu istnienia Boga. W przeciągu wieków był on stale udoskonalany i
dyskutowany przez teologów i filozofów, niejednokrotnie w bardzo wyrafinowany sposób.
Zagadnienie początku Wszechświata jest chyba jedynym obszarem, gdzie uczony o poglądach
ateistycznych nie czuje się zbyt pewnie. Wnioski z argumentu kosmologicznego były, moim
zdaniem, trudne do zakwestionowania aż do ostatnich lat, kiedy to podjęto poważną próbę
wyjaśnienia początków Wszechświata w ramach fizyki. Od razu zaznaczę, że to konkretne
rozwiązanie nie musi wcale być słuszne. Niemniej jednak sądzę, iż nie w tym rzecz. Chodzi o
to,czy do powstania Wszechświata konieczny był jakiś nadnaturalny t stwórczy czy też nie. Jeżeli
jesteśmy w stanie stworzyć sensowną naukową wyjaśniającą powstanie fizycznego
Wszechświata, to przynajmniej wiemy, że naukowe rozwiązanie tej kwestii jest może,
niezależnie od słuszności tej konkretnej teorii.
Czy w dziejach świata miało miejsce stworzenie?
We wszelkich dyskusjach dotyczących początku Wszechświata przyjmowane jest
założenie, że Wszechświat faktycznie miał początek. Tymczasem koncepcja czasu przyjmowana
w większości starożytnych kultur głosiła, iż świat nie miał początku, lecz podlega powtarzającym
się bez końca cyklom. Ciekawe jest prześledzenie, jak zrodziły się idee tego typu. Plemiona
prymitywne żyły w ścisłej styczności z przyrodą, gdyż ich przetrwanie zależało od rytmu pór
roku i innych okresowych zjawisk przyrody. Na przestrzeni wielu pokoleń warunki życia
praktycznie pozostawały niezmienne, zatem objęcie nieodwracalnej zmiany czy też postępu
dziejów było im zupełnie obce. Pytania o początek i koniec świata nie mieściły się w ich
koncepcji rzeczywistości; zajmowali się za to mitami wyrażającymi powtarzalność zjawisk
przyrody i potrzebę zjednywania związanych z nimi bóstw, aby zapewnić sobie pomyślność i
obfite plony. [Powstanie wielkich cywilizacji starożytnych w Chinach i na bliskim Wschodzie nie
wpłynęło w znaczący sposób na zmianę tych poglądów. Stanley Jaki, należący do zgromadzenia
benedyktynów uczony węgierskiego pochodzenia, posiadający stopień doktora [zarówno z fizyki,
jak i z teologii, który przeprowadził szczegółowe badania dawnych cyklicznych koncepcji świata,
zwrócił uwagę na fakt, że system dynastyczny w Chinach odzwierciedlał brak zainteresowania
postępem historii: „Rachuba czasu w Chinach rozpoczynała się od nowa z nastaniem każdej
kolejnej dynastii, co świadczy o tym, że Chińczycy pojmowali czas na sposób cykliczny, a nie
linearny. Faktycznie, wszelkie wydarzenia z dziedziny polityki cultury układały się w ich
mniemaniu w swego rodzaju cykle, Idące odbiciem ścierania się dwóch podstawowych sił
Wszechświata, Yin i Yang. (...) Sukcesy występowały na przemian z porażkami, a po każdym
wzroście następował upadek”.
System hinduski składał się z niezmiernie długich cykli, powiązanych w jeszcze większe
cykle. Licząca cztery jugi mahajuga miała trwać 4,32 miliona lat; tysiąc mahajug tworzyło kalpę,
dwie kalpy stanowiły dzień Brahmy; jeden cykl życia Brahmy składał się ze stu lat bramińskich,
co odpowiadało mniej więcej 311 bilionom lat! Jak przyrównuje hinduski system cykli
czasowych do wiecznego kieratu, z którego nie można się wyzwolić, jego hipnotyczny wpływ
przyczynił się znacznie do tego, co określa on jako charakterystyczne dla hinduskiej kultury
przygnębienie i brak nadziei. Podobna cykliczność i związany z nią fatalizm występowała
również w kosmologiach Babilończyków, Egipcjan i Majów. Jaki przytacza historię Itza, dobrze
uzbrojonego plemienia Majów, które w 1698 roku bez walki poddało się niewielkiemu
kontyngentowi wojsk hiszpańskich, poinformowawszy osiemdziesiąt lat wcześniej dwóch
hiszpańskich misjonarzy, że data ta oznacza dla nich początek ery klęski.
Filozofia grecka również podtrzymywała koncepcję odwiecznych cykli, lecz w
przeciwieństwie do fatalistycznej beznadziei nieszczęsnych Majów, Grecy uważali, że ich kultura
stanowi ukoronowanie cyklu - szczyt postępu. Cykliczne pojmowanie czasu u Greków zostało
przejęte przez Arabów, którzy stali się depozytariuszami kultury greckiej, zanim przekazali ją
później, w średniowieczu, chrześcijaństwu. Wiele z poglądów na świat występujących obecnie w
kulturze europejskiej wzięło swój początek z owej potężnej konfrontacji, która wtedy nastąpiła,
pomiędzy filozofią grecką a tradycją judeochrześcijańską. Nie ulega wątpliwości, że dla doktryn
judaizmu i chrześcijaństwa kluczowy jest fakt, iż świat został stworzony przez Boga w
określonym konkretnym momencie w przeszłości i wszystko, co nastąpiło później, układa się w
jednokierunkowy, postępujący ciąg. Religie te nadają historii sens właśnie poprzez wyznaczenie
ciągu istotnych momentów dziejowych - grzechu pierworodnego, przymierza, wcielenia i
zmartwychwstania, oraz powtórnego przyjścia - co stoi w wyraźnej sprzeczności z grecką
koncepcją wiecznych powrotów. Starając się propagować liniową, a nie cykliczną, wizję czasu,
pierwsi Ojcowie Kościoła, pomimo uznania, jakie żywili dla myśli greckiej jako takiej,
stanowczo odrzucali koncepcję cyklicznego Wszechświata występującą u pogańskich filozofów
greckich. I tak u Tomasza z Akwinu znajdujemy zarówno pochwały dla siły argumentów
Arystotelesa na rzecz odwiecznego istnienia świata, jak i wezwania, aby wierzyć, że
Wszechświat miał swój początek, gdyż tak podaje Biblia. Kluczowym elementem
juedeochrześcijańskiej doktryny o stworzeniu jest to, że Stwórca jest całkowicie odrębny i
niezależny od świata stworzonego; to znaczy, istnienie Boga nie zapewnia automatycznie
istnienia świata, jak to ma miejsce w niektórych wierzeniach pogańskich, gdzie świat fizyczny
stanowi emanację Boga jako konieczne dopełnienie jego bytu. Przeciwnie, świat zostaje
powołany do istnienia w określonym momencie czasu w wyniku mającego nadnaturalny
charakter stworzenia jako celowa decyzja istniejącego wcześniej Boga.
Jakkolwiek ta koncepcja stworzenia nie wydaje się skomplikowana, była ona w ciągu
wieków przedmiotem zażartych sporów doktrynalnych, po części dlatego, że starożytne teksty, w
których się ona pojawia, są niebyt konkretne. Przykładem może tu być biblijny opis stworzenia
świata w Księdze Rodzaju, w znacznej mierze oparty na wcześniejszych bliskowschodnich
mitach o stworzeniu, który zawiera wiele pięknych sformułowań poetyckich, lecz niewiele
konkretów. Nie jesteśmy na jego podstawie w stanie rozstrzygnąć, czy Bóg jedynie stwarza
porządek w ramach pierwotnego chaosu, stwarza materię i światło w istniejącej pustce, czy też
akt stworzenia ma charakter jeszcze bardziej fundamentalny. Takie niewygodne pytania można
mnożyć dalej. Czym zajmował się Bóg, zanim stworzył świat? Dlaczego stworzył go w tym, a
nie innym, momencie? Jeżeli Bóg mógł istnieć odwiecznie bez świata, co skłoniło go do podjęcia
decyzji o jego stworzeniu?
Pismo św. pozostawia w tych kwestiach wiele miejsca na interpretację. I takie
interpretacje istotnie powstały. Chrześcijańska doktryna o stworzeniu świata ukształtowała się
faktycznie w znacznej części długo po powstaniu Księgi Rodzaju, pod wpływem zarówno myśli
greckiej, jak i judaistycznej. Z naukowego punktu widzenia szczególnie istotne są dwie kwestie:
pierwsza to relacja Boga i czasu, druga to relacja Boga i materii.
Wszystkie wielkie religie Zachodu uważają Boga za byt wieczny, lecz słowo „wieczny”
można rozumieć na dwa różne sposoby. Z jednej strony, może ono wyrażać fakt, że Bóg istnieje
od nieskończenie dawna i będzie istniał w nieskończoność w przyszłości; z drugiej strony może
oznaczać, że Bóg bytuje całkowicie poza czasem. Jak wspomniałem w rozdziale 1, św. Augustyn
skłaniał się ku temu drugiemu poglądowi, gdy twierdził, że Bóg stworzył świat „wraz z czasem, a
nie w czasie”. Przez uczynienie czasu częścią fizycznego świata, zamiast sceną, na której
dokonuje się akt stworzenia tego świata, i usunięcie Boga całkowicie poza jego obręb, Augustyn
zręcznie uniknął problemu, co działo się z Bogiem, zanim stworzył świat.
Jednak miało to swoją cenę. Siła argumentu „to wszystko nie mogło powstać samo z
siebie” jest oczywista dla każdego. W siedemnastym wieku modny był pogląd, że Wszechświat
jest gigantycznym mechanizmem, który został wprawiony w ruch przez Boga. Także obecnie
wielu ludzi skłania się ku pojmowaniu Boga jako Pierwszego Poruszyciela czy też Pierwszej
Przyczyny w kosmicznym ciągu przyczyn i skutków. Ale w jakim sensie Bóg bytujący poza
czasem mógłby być przyczyną czegokolwiek? Trudność ta powoduje, że zwolennicy koncepcji
pozaczasowego Boga akcentują w większym stopniu jego rolę w zachowywaniu świata
stworzonego w każdym momencie jego istnienia. Nie rozróżnia się w tym przypadku stworzenia
od podtrzymywania w istnieniu: z punktu widzenia pozaczasowego Boga są one tym samym
aktem.
Podobnie stosunek Boga i materii prowadził także do trudności doktrynalnych. Niektóre z
mitów o stworzeniu, na przykład babilońskie, opisują kosmos jako stworzony z pierwotnego
chaosu (słowo „kosmos” oznaczało „porządek” lub „piękno”; to drugie znaczenie przetrwało do
naszych czasów w słowie „kosmetyczny”). Według tego poglądu istnienie materii wyprzedza
nadnaturalny akt stwórczy, który wprowadza w nią ład. Podobna koncepcja pojawiła się w
starożytnej Grecji: demiurg Platona musiał stwarzać świat z już istniejącej materii. Stanowisko to
było podzielane także przez chrześcijańskich gnostyków, którzy uważali materię za siedlisko
zepsucia, a zatem za dzieło szatana, a nie Boga.
W samej rzeczy, posługiwanie się ciągle tym samym słowem „Bóg” w relacjonowaniu
tych sporów może być mylące, zważywszy na wielką różnorodność koncepcji teologicznych,
jakie występowały w dziejach. Wiara w bóstwo, które powołuje Wszechświat do istnienia, a
potem „siada i przypatruje się”, określana jest mianem „deizmu”. W tym przypadku naturę Boga
pojmuje się na kształt wielkiego zegarmistrza, kosmicznego mechanika, który obmyśla i
konstruuje olbrzymi, skomplikowany mechanizm, a następnie wprawia go w ruch.
Przeciwieństwem deizmu jest „teizm”, wiara w Boga jako stworzyciela świata, uczestniczącego
jednak ciągle w jego istnieniu, a w szczególności w życiu ludzi, z którymi utrzymuje stałą relację
osobową, prowadząc ich do zbawienia. Zarówno w deizmie, jak i w teizmie występuje wyraźne
rozgraniczenie Boga i świata, Stwórcy i rzeczy stworzonych. Boga uważa się za całkowicie
odrębnego i transcendentnego wobec świata fizycznego, jakkolwiek odpowiedzialnego za to, co
się w nim dzieje. W systemie znanym pod nazwą „panteizmu” takie rozróżnienie nie występuje;
Bóg zostaje utożsamiony z samym światem: wszystko jest częścią Boga, a Bóg jest we
wszystkim. Istnieje również „panenteizm”, podobny do panteizmu pod tym względem, że świat
jest częścią Boga, lecz nie całym Bogiem. Jedną z metafor jest w tym przypadku pojmowanie
świata jako ciała Boga.
Na koniec trzeba wspomnieć o pewnych uczonych, wysuwających koncepcję bóstwa,
które rozwija się wraz ze Wszechświatem, stając się ostatecznie tak potężne, że przypomina
platońskiego demiurga. Można sobie, na przykład, wyobrazić inteligentną istotę czy też nawet
maszynę, która w swym rozwoju staje się coraz doskonalsza i opanowuje coraz większe obszary
kosmosu, aż jej władza nad materią i energią staje się tak znaczna, że można tę inteligencję
utożsamić z samym światem. Być może taką wszechmocną inteligencję rozwiną w przyszłości
nasi potomkowie albo też jest ona obecnie udziałem jakichś pozaziemskich cywilizacji. Możliwe
jest pomyślenie ewolucyjnego procesu, w którym zlewają się z sobą dwie lub więcej odrębne
inteligencje. Takie idee były wysuwane przez astronoma Freda Hoyle'a, fizyka Franka Tiplera i
popularyzatora nauki Isaaca Asimova. „Bóg” w tych koncepcjach ewidentnie nie obejmuje
całego Wszechświata i, jakkolwiek obdarzony jest znaczną potęgą, nie jest wszechmocny, a
zatem nie może być uważany za stwórcę Wszechświata jako całości, a jedynie za
odpowiedzialnego za narzucenie porządku pewnej jego części. (Oczywiście, jeśli nie wprowadzi
się jakiejś niezwykłej możliwości oddziaływania wstecz w czasie, która pozwalałaby owej
superinteligencji na stworzenie świata u jego początku w ramach jakiejś spójnej pętli przyczyn i
skutków. Tego typu elementy pojawiają się u fizyka Johna Wheelera. Możliwość taka była
rozważana także przez Freda Hoyle'a, lecz nie w kontekście uniwersalnego aktu stworzenia
świata).
Stworzenie z niczego
W pogańskich mitach o stworzeniu przyjmuje się istnienie zarówno materii, jak i bóstwa,
a więc są one zasadniczo dualistyczne. W przeciwieństwie do nich Kościół pierwszych
chrześcijan opowiedział się za doktryną „stworzenia z nicości”, zakładającą istnienie tylko Boga.
Przyjmuje się w niej, że Bóg stworzył cały świat z niczego. Powołanie do istnienia wszystkich
rzeczy widzialnych i niewidzialnych zostaje zatem przypisane wolnemu aktowi stwórczemu
Boga. Istotnym elementem tej doktryny jest Boża wszechmoc: moc stwórcza Boga nie podlega
żadnym ograniczeniom, tak jak w przypadku platońskiego demiurga. W istocie, nie tylko Bóg nie
jest ograniczony uprzednim istnieniem materii, lecz także żadnymi istniejącymi prawami fizyki,
ponieważ częścią Jego aktu stwórczego jest właśnie wprowadzenie harmonii i porządku do
świata poprzez ustanowienie tych praw. Gnostycki pogląd, że materia jest siedliskiem zła, zostaje
odrzucony jako niemożliwy do pogodzenia z Wcieleniem Chrystusa. Z drugiej strony, materia
nie jest czymś boskim, jak w koncepcjach panteistycznych, gdzie Bóg jest immanentny w
świecie. Fizyczny Wszechświat - dzieło stwórcze Boga - uważany jest za istniejący odrębnie od
swego Stwórcy.
Znaczenie tego rozróżnienia pomiędzy Stwórcą a jego stworzeniem polega na tym, że
świat stworzony jest zależny w swym istnieniu całkowicie od Stwórcy. Gdyby świat fizyczny
sam w sobie był boskiej natury lub też stanowił jakąś bezpośrednią emanację Stwórcy,
udzielałoby mu się konieczne istnienie Boga. Jednakże, ponieważ został stworzony z niczego, a
sam akt stwórczy był realizacją wolnej woli Boga, istnienie świata nie ma charakteru
koniecznego. Św. Augustyn pisze: „...uczyniłeś coś z niczego. Uczyniłeś niebo nad niebiosami i
ziemię, lecz nie z siebie. Gdybyś je uczynił z siebie, byłyby one równe jednororodzonemu
Synowi Twemu, a więc i Tobie”
2
. Najbardziej oczywistą różnicą pomiędzy Stwórcą a
stworzeniem jest to, że Stwórca jest wieczny, a świat stworzony miał początek.
Wczesnochrześcijański teolog Ireneusz pisał: „Jednakże rzeczy stworzone różne są od Tego,
który je stworzył, i tego, co byłoby uczynione z Tego, który je uczynił. Albowiem On sam nie
jest bytem stworzonym, nie ma początku ani końca i posiada pełnię bytu. On sam istnieje z
konieczności, lecz każda z rzeczy, które uczynił, miała swój początek”.
Odnośnie interpretacji stworzenia, nawet obecnie utrzymują się różnice doktrynalne
pomiędzy głównymi odłamami Kościoła, i jeszcze większe różnice pomiędzy wielkimi religiami
świata. Z jednej strony mamy poglądy chrześcijańskich i islamskich fundamentalistów, oparte na
dosłownym rozumieniu tradycyjnych tekstów religijnych; z drugiej koncepcje radykalnych
myślicieli chrześcijańskich pojmujących stworzenie na sposób całkowicie abstrakcyjny. Niemniej
jednak wszyscy są zgodni, że świat fizyczny sam w sobie jest, w tym czy innym sensie,
niezupełny. Nie jest w stanie sam siebie uzasadnić. Jego istnienie w ostatecznej instancji wymaga
czegoś zewnętrznego wobec niego i może być pojęte wyłącznie jako zależne od jakiejś formy
boskiej interwencji.
Początek czasu
Wracając do poglądów naukowych na początek Wszechświata, można zapytać, na jakiej
podstawie możemy sądzić, że taki początek faktycznie miał miejsce. Z pewnością możliwe jest
wyobrażenie sobie wszechświata o nieskończonym czasie trwania i przez większość ery
nowożytnego rozwoju nauki, dzięki pracom Kopernika, Galileusza i Newtona, naukowcy
faktycznie uważali, że Wszechświat istniał wiecznie. Jednakże przekonanie to związane jest z
pewnymi trudnościami. Newtonowi nie dawały spokoju konsekwencje odkrytego przez niego
powszechnego prawa ciążenia, zgodnie z którym każde ciało materialne przyciąga wszelkie inne
ciała. Zastanawiało go, co sprawia, iż cała materia we Wszechświecie spadając na siebie nie
tworzy jednego wielkiego skupiska. W jaki sposób gwiazdy utrzymują się w przestrzeni bez
żadnego oparcia, nie poddając się działaniu wzajemnego przyciągania grawitacyjnego?
Rozwiązanie Newtona było genialnie proste. Materia Wszechświata skupiłaby się w jego środku
ciężkości, gdyby taki środek faktycznie istniał. Jeśli jednak rozmiary Wszechświata są
nieskończone i gwiazdy są w nim rozmieszczone z jednakową gęstością średnią, to nie ma
wyróżnionego punktu, ku któremu miałyby one spadać. Każda gwiazda przyciągana jest
jednakowo we wszystkich kierunkach, a zatem siły grawitacji wzajemnie się znoszą.
Rozwiązanie to trudno uznać za w pełni zadowalające z powodu jego matematycznej
niejednoznaczności: wszystkie wchodzące tu w grę siły są nieskończenie wielkie. Zatem pytanie,
dlaczego Wszechświat nie kolapsuje, powracało wielokrotnie aż do obecnego stulecia. Było ono
kłopotliwe nawet dla Einsteina. Swoją własną teorię grawitacji (ogólną teorię względności)
prawie bezpośrednio po jej sformułowaniu w 1915 roku „poprawił”, usiłując ją pogodzić z
modelem stabilnego Wszechświata. Poprawka ta polegała na wprowadzeniu dodatkowego członu
w równaniach pola grawitacyjnego reprezentującego siłę odpychającą - coś w rodzaju anty-
grawitacji. Gdyby udało się tak dobrać wielkość tej siły, aby odpowiadała ona oddziaływaniu
grawitacyjnemu wszystkich obiektów Wszechświata, siły przyciągania i odpychania wzajemnie
równoważyłyby się, co prowadziłoby do Wszechświata statycznego. Niestety, otrzymana w ten
sposób równowaga okazała się niestabilna i pod wpływem najmniejszego zaburzenia któraś z sił
uzyskałaby przewagę: Wszechświat albo rozproszyłby się w nieskończoność, albo uległ
kolapsowi.
Problem uniknięcia kolapsu nie był jedyną trudnością, na jaką napotykała koncepcja
istniejącego odwiecznie Wszechświata. Inną był tak zwany paradoks Olbersa, dotyczący wyglądu
nocnego nieba. Polegał on na tym, że jeżeli Wszechświat jest nieskończony, zarówno w
przestrzeni, jak i w czasie, to Ziemia powinna być skąpana w świetle pochodzącym od
nieskończonej liczby gwiazd. Prosty rachunek wykazuje, iż w takim razie niebo w nocy nie
mogłoby być ciemne. Paradoks ten można usunąć poprzez przyjęcie skończonego wieku
Wszechświata, ponieważ wtedy widzimy tylko te gwiazdy, których światło zdążyło dotrzeć do
Ziemi od momentu jego powstania.
Obecnie jest dla nas oczywiste, że i tak żadna gwiazda nie świeci wiecznie, gdyż po
jakimś czasie wyczerpie się jej paliwo. Jest to przykład ogólniejszej zasady: wieczne istnienie
Wszechświata jest nie do pogodzenia z zachodzeniem w nim procesów nieodwracalnych. Jeśli
jakieś układy fizyczne wchodzące w skład Wszechświata podlegają nieodwracalnym zmianom w
skończonym czasie, to zdążyłyby one zajść już dawno temu, a zatem nie byłoby możliwe,
abyśmy mogli procesy tego typu (na przykład świecenie gwiazd) obserwować obecnie.
Tymczasem procesy nieodwracalne występują we Wszechświecie dość powszechnie, co sprawia,
iż pod pewnymi względami można go porównać do nakręconego zegara. Taki zegar po jakimś
czasie musi stanąć, podobnie Wszechświat nie mógł „chodzić” od zawsze, bez potrzeby
„nakręcania”.
Naukowcy zaczęli uświadamiać sobie ten problem w połowie dziewiętnastego stulecia.
Do tej pory fizycy zajmowali się prawami, które są odwracalne w czasie i nie wyróżniają ani
przeszłości, ani przyszłości. Jednakże gdy podjęli badania procesów termodynamicznych,
sytuacja zupełnie się zmieniła. Centralne znaczenie w termodynamice ma jej druga zasada,
zabraniająca, aby ciepło mogło samo z siebie przepływać od ciał zimnych do ciepłych, tak jak
przepływa od ciał ciepłych do zimnych. Prawo to ma charakter nieodwracalny: wskazując jeden
kierunek zmian, narzuca we Wszechświecie strzałkę czasu. Uczeni szybko doszli do wniosku, że
Wszechświat zmierza nieuchronnie do stanu równowagi termodynamicznej. To dążenie do
wyrównania wszelkich różnic temperatury we Wszechświecie i osiągnięcia stanu stabilnego
określono mianem „śmierci cieplnej” Wszechświata. Odpowiada to maksymalnemu
nieuporządkowaniu molekuł, czyli maksimum entropii. Z faktu, że Wszechświat dotąd nie
„umarł”, to znaczy nie osiągnął stanu maksymalnej entropii, wynika, iż nie mógł on istnieć
odwiecznie.
W latach dwudziestych astronomowie stwierdzili, że tradycyjny obraz statycznego
Wszechświata i tak nie jest prawdziwy. Odkryto, że w rzeczywistości Wszechświat się rozszerza,
a galaktyki oddalają się od siebie. Odkrycie to legło u podstaw słynnej hipotezy Wielkiego
Wybuchu, według której Wszechświat zaistniał w określonym momencie przeszłości, około
piętnastu miliardów lat temu, w wyniku potężnej eksplozji. Obserwowana obecnie ekspansja
stanowiłaby pozostałość owego pierwotnego wybuchu. Teorię Wielkiego Wybuchu obwoływano
niejednokrotnie potwierdzeniem biblijnego opisu stworzenia świata w Księdze Rodzaju.
Wspomniał o tym nawet w 1951 roku papież Pius XII w przemówieniu do Papieskiej Akademii
Nauk. Tymczasem analogie tej teorii z biblijną wersją są bardzo powierzchowne i wymagają
traktowania opisu biblijnego w sposób czysto symboliczny. Co najwyżej można stwierdzić, że w
obu przypadkach świat miał początek i było to wydarzenie jednorazowe, a nie stopniowy proces.
Teoria Wielkiego Wybuchu w naturalny sposób eliminuje paradoksy wiecznego
Wszechświata. Ponieważ w tym przypadku wiek Wszechświata jest skończony, występowanie w
nim procesów nieodwracalnych nie powoduje żadnych trudności. Wszechświat w ewidentny
sposób został „nakręcony” na samym początku i obecnie ciągle jeszcze ewoluuje siłą owego
początkowego impulsu. Niebo w nocy jest ciemne, gdyż sięgamy wzrokiem w kosmos jedynie na
skończoną odległość (około piętnastu miliardów lat świetlnych), to znaczy maksymalną
odległość, jaką światło mogło przebyć w drodze do Ziemi od początku Wszechświata. Nie
pojawia się także problem Wszechświata kolapsującego pod wpływem własnej grawitacji. Skoro
galaktyki oddalają się wzajemnie, nie grozi im spadnięcie na siebie, przynajmniej jeszcze przez
jakiś czas.
Jednakże teoria ta, rozwiązując jedne problemy, staje z miejsca wobec innych, z których
jednym z ważniejszych jest, co właściwie spowodowało Wielki Wybuch. W tym miejscu
natykamy się na istotną subtelność co do rozumienia samej natury Wielkiego Wybuchu. Z
niektórych popularnych opracowań można odnieść wrażenie, jak gdyby była to eksplozja bryły
hipergęstej materii znajdującej się w określonym miejscu w istniejącej pustej przestrzeni. Jest to
duże nieporozumienie. Teoria Wielkiego Wybuchu opiera się na ogólnej teorii względności
Einsteina, której jednym z podstawowych wniosków jest, że materia jest nierozerwalnie związana
z przestrzenią i czasem. Związek ten ma niezwykłe istotne następstwa dla zagadnienia początku
Wszechświata. Jeżeli wyobrazimy sobie „kosmiczny film puszczony do tyłu”, to ujrzymy
galaktyki zbliżające się ku sobie, a następnie zlewające w jedną wielką masę. Potem materia
galaktyczna ulega coraz większemu ściśnięciu aż do osiągnięcia stanu o ogromnej gęstości. Gdy
tak coraz bardziej zbliżamy się do momentu zerowego eksplozji, możemy sobie zadawać pytanie,
czy istnieje jakaś graniczna wartość tej gęstości.
Łatwo się przekonać, że nie może być takiej granicy. Wyobraźmy sobie bowiem, iż jest
taka maksymalna wartość gęstości. Pociągałoby to za sobą konieczność istnienia jakiejś siły
odpychającej, zdolnej zrównoważyć ogromną siłę przyciągania grawitacyjnego, w przeciwnym
przypadku grawitacja wzięłaby górę i materia ulegałaby dalszej kompresji. Ponadto ta
przeciwdziałająca siła musiałaby być naprawdę ogromna, jako że siła grawitacji wzrasta
nieograniczenie w miarę postępującej kompresji. Co mogłoby być taką siłą? Może coś w rodzaju
wewnętrznego ciśnienia czy też sprężystości - kto wie, jakie siły występują w materii w tak
ekstremalnych warunkach? Jednakże, mimo iż nie wiemy nic konkretnego o tych siłach, muszą
one podlegać pewnym ogólnym zasadom fizyki. Na przykład, w miarę wzrostu sprężystości
materii rośnie również prędkość rozchodzenia dźwięku wewnątrz niej. Wydaje się oczywiste, że
gdyby sprężystość materii w pierwotnym Wszechświecie stała się wystarczająco wysoka,
prędkość dźwięku przekroczyłaby prędkość światła, co stoi w sprzeczności z teorią względności,
która głosi, że żadne fizyczne oddziaływanie nie może się przenosić z prędkością większą niż
światło. Zatem sprężystość materii nie może rosnąć w nieskończoność i na pewnym etapie
ściskania materii siły grawitacji stałyby się większe niż siły sprężystości, co oznacza, że
sprężystość byłaby niewystarczająca do powstrzymania procesu dalszej kompresji.
Wniosek ten, który wyciągnęliśmy w odniesieniu do sił działających w pierwotnym
Wszechświecie, oznacza, że w warunkach krańcowo wielkiej gęstości, jakie panowały podczas
Wielkiego Wybuchu, nie istniała żadna siła zdolna przeciwstawić się kolapsowi grawitacyjnemu,
a zatem kolaps ten postępowałby w nieskończoność. Jeśli rozkład materii we Wszechświecie jest
jednorodny, to w momencie początkowym musiała być ona nieskończenie ściśnięta; innymi
słowy, cały Wszechświat był ściśnięty do jednego punktu. W punkcie tym zarówno siła
grawitacji, jak i gęstość materii były nieskończone. Taki punkt nazywany jest w fizyce
teoretycznej „osobliwością”.
Jakkolwiek istnienie osobliwości początkowej Wszechświata wynika już z całkiem
elemementarnych rozważań, ścisły dowód wymaga zastosowania wyrafinowanych metod
matematycznych. Został on przeprowadzony przez angielskich fizyków-teoretyków Rogera
Penrose'a i Stephena Hawkinga. W szeregu silnych twierdzeń dowiedli oni, że osobliwości typu
Wielkiego Wybuchu nie da się wyeliminować, jeśli w ekstremalnych warunkach wczesnego
Wszechświata grawitacja nadal pozostaje siłą przyciągającą. Najistotniejszym aspektem ich
pracy jest to, że osobliwość jest nieunikniona nawet w przypadku niejednorodnego rozkładu
materii. Stanowi ona immanentną własność Wszechświata opisywanego przez równania teorii
grawitacji Einsteina, lub, jeśli już o to chodzi, każdej podobnej teorii.
Idea osobliwości początkowej Wszechświata spotkała się ze znacznym sprzeciwem wśród
fizyków i kosmologów, gdy pojawiła się po raz pierwszy. Jeden z powodów tego sprzeciwu
dotyczy wspomnianego faktu, że w ogólnej teorii względności czas, przestrzeń i materia stanowią
nierozerwalną całość. Związek ten ma istotne konsekwencje dla ewolucji rozszerzającego się
Wszechświata. Naiwnie rzecz biorąc, można by sobie wyobrażać galaktyki jako rozbiegające się
w różnych kierunkach w pustej przestrzeni. Jednakże bardziej odpowiada rzeczywistości wizja,
że to sama przestrzeń pęcznieje czy też się rozciąga; to znaczy, galaktyki oddalają się od siebie w
wyniku tego, że przestrzeń pomiędzy nimi się rozszerza. (Czytelników, którym nie przychodzi
łatwo wyobrażenie sobie, jak przestrzeń może się rozszerzać, odsyłam do mojej książki The Edge
of Infinity [Na skraju nieskończoności], gdzie kwestię tę omówiłem bardziej szczegółowo). I
odwrotnie, w przeszłości przestrzeń była skurczona. Jeżeli rozważymy moment, w którym
przestrzeń była nieskończenie ściśnięta, to musiała być też nieskończenie skurczona. Lecz
przestrzeń, która skurczy się nieskończenie, musi dosłownie zniknąć, jak balon, który kurczy się i
ostatecznie znika. A zasadnicza jedność materii, przestrzeni i czasu oznacza, że czas w tym
wypadku znika także. Nie ma czasu bez przestrzeni. W ten sposób osobliwość rozkładu materii
jest zarazem osobliwością czasoprzestrzeni. Wszystkie prawa znanej nam fizyki sformułowane są
w kategoriach przestrzeni i czasu, a zatem nie można ich stosować poza punktem, w którym czas
i przestrzeń przestają istnieć. Tak więc prawa fizyki z konieczności przestają w osobliwości
obowiązywać.
Obraz początku Wszechświata, do jakiego dochodzimy w ten sposób, godny jest uwagi.
W pewnym skończonym momencie przeszłości Wszechświat zawierający przestrzeń, czas i
materię znika w czasoprzestrzennej osobliwości. Tak więc początek Wszechświata oznacza
pojawienie się nie tylko materii, ale również przestrzeni i czasu.
Trudno przecenić znaczenie tego wniosku. Ludzie często pytają: Gdzie nastąpił Wielki
Wybuch? Tymczasem nie mamy tu do czynienia ze zdarzeniem, które zaszło w jakimś punkcie
przestrzeni, lecz ze zdarzeniem, w którego wyniku zaistniała sama przestrzeń. To samo dotyczy
pytania: Co było przed Wielkim Wybuchem? Jedyną możliwą odpowiedzią jest, iż nie było
żadnego „przedtem”, gdyż czas również powstał w momencie Wielkiego Wybuchu. Jak
wspominałem, św. Augustyn już w starożytności głosił, że świat zrodził się wraz z czasem, a nie
w czasie, co odpowiada dokładnie poglądowi współczesnej nauki.
Jednakże nie wszyscy naukowcy skłonni byli się z tym pogodzić. Akceptując fakt
ekspansji Wszechświata, niektórzy kosmologowie usiłowali skonstruować teorie, w których czas
i przestrzeń nie zaczynałyby się w osobliwości.
Cykliczny Wszechświat raz jeszcze
Pomimo zakorzenionej w myśli Zachodu idei stworzonego Wszechświata i liniowego
czasu koncepcja wiecznego powrotu pozostaje stale atrakcyjna. Nawet w obecnych czasach, już
po szerokim uznaniu Wielkiego Wybuchu, pojawiały się próby powrotu do pojęcia cyklicznego
Wszechświata. Jak wspominałem, gdy Einstein formułował ogólną teorię względności,
naukowcy byli przekonani, że Wszechświat jest statyczny, co skłoniło go do wprowadzenia do
swoich równań dodatkowego członu odpowiedzialnego za zrównoważenie oddziaływania
grawitacyjnego. Jednakże mniej więcej w tym samym czasie nieznany rosyjski fizyk-meteorolog
nazwiskiem Aleksander Friedmann zajął się badaniem równań Einsteina i ich znaczenia dla
kosmologii. Udało mu się uzyskać kilka interesujących rozwiązań, z których wszystkie
opisywały Wszechświat bądź to rozszerzający się, bądź to kurczący się. Jeden z układów
rozwiązań odpowiada Wszechświatowi, który zaczyna się Wielkim Wybuchem, podczas
ewolucji jego prędkość rozszerzania stopniowo maleje, a następnie zaczyna z powrotem się
kurczyć. Faza kontrakcji jest dokładnym odwróceniem fazy ekspansji, a zatem kurczenie staje się
coraz szybsze i wreszcie Wszechświat znika w „Wielkim Zgnieceniu” olbrzymiej implozji
będącej odwrotnością Wielkiego Wybuchu. Ten cykl naprzemiennej ekspansji i kontrakcji może
się następnie powtarzać ad infinitum. W 1922 roku Friedmann wysłał opis swego modelu
okresowego Wszechświata Einsteinowi, na którym nie wywarł on większego wrażenia. Dopiero
w parę lat później, gdy Edwin Hubble i inni astronomowie potwierdzili obserwacyjnie, że
Wszechświat naprawdę się rozszerza, prace Friedmanna zyskały należne uznanie.
Rozwiązania Friedmanna nie wymuszają, aby Wszechświat oscylował, na przemian
kurcząc się i rozszerzając. Dopuszczają one również Wszechświat zaczynający się Wielkim
Wybuchem, który rozszerza się bez końca. Która z tych możliwości ostatecznie zostanie
zrealizowana, zależy od tego, ile jest materii we Wszechświecie. Zasadniczo, przy obecności
wystarczającej ilości materii, jej grawitaga powstrzyma ostatecznie ucieczkę galaktyk i
Wszechświat zacznie kolapsować z powrotem. Tak więc kosmiczny kolaps, którego obawiał się
Newton, faktycznie miałby miejsce, jakkolwiek dopiero po upływie wielu miliardów lat. Z
przeprowadzonych pomiarów wynika, że gwiazdy stanowią zaledwie około 1% masy materii
potrzebnej do zapoczątkowania kolapsu Wszechświata. Jednakże istnieją silne dane
obserwacyjne przemawiające za tym, iż we Wszechświecie zawarta jest duża ilość niewidocznej,
tzw. „ciemnej” materii, która byłaby w stanie wyrównać brakującą masę. Naukowcy nie są
wszakże zgodni, co miałoby stanowić te „ciemną materię”.
Jeżeli Wszechświat zawiera wystarczająco wiele materii, aby przejść w fazę kurczenia,
musimy rozważyć możliwość, że jest on Wszechświatem pulsującym. Wiele
popularnonaukowych książek z dziedziny kosmologii omawia taki pulsujący model
Wszechświata, podkreślając, iż jest on zgodny z wizją świata zawartą w hinduizmie i innych
religiach Wschodu uznających koncepcję cyklicznego świata. Czyżby oscylacyjne rozwiązanie
równań Einsteina otrzymane przez Friedmanna stanowiło naukowy odpowiednik starożytnej idei
wiecznego powrotu, a trwający wiele miliardów lat okres od Wielkiego Wybuchu do Wielkiego
Zgniecenia odpowiadał Wielkiemu Rokowi Cyklu Życia Brahmy?
Jakkolwiek analogie te mogą być bardzo pociągające, znikają one przy bliższej analizie.
Po pierwsze, nie mamy tu do czynienia z oscylacjami w matematycznym sensie. Punkty, w
których miałoby następować przejście od Wielkiego Zgniecenia do Wielkiego Wybuchu, są w
istocie osobliwościami, co oznacza, że opisujące ten proces równania przestają w nich
obowiązywać. Aby Wszechświat przeszedł od fazy kurczenia do fazy rozszerzania się nie
napotykając osobliwości, coś musiałoby przeciwstawić się przyciąganiu grawitacyjnemu i
wyrzucić materię ponownie. Krótko mówiąc, takie odbicie byłoby możliwe, gdyby proces
ewolucji zdominowany został przez ogromną siłę odpychającą, nazwijmy ją lewitacyjną, taką,
jaką wprowadził Einstein do swoich równań, lecz o wiele rzędów wielkości większą.
Nawet gdyby okazało się to możliwe, cykliczny charakter modelu dotyczyłby jedynie
zachowania się Wszechświata w wielkiej skali, a nie procesów fizycznych w nim zachodzących.
Nadal obowiązywałoby drugie prawo termodynamiki, wymagające, żeby procesy te powodowały
wzrost entropii, a zatem całkowita entropia Wszechświata wzrastała z cyklu na cykl. Prowadzi to
do dość ciekawego efektu, odkrytego przez Richarda Tolmana w latach trzydziestych. Tolman
stwierdził, że w miarę wzrostu entropii Wszechświata kolejne cykle stają się większe i dłuższe .
W rezultacie okazuje się zatem, że Wszechświat nie jest w ogóle cykliczny w ścisłym sensie. Co
dziwne jednak, pomimo stałego wzrostu entropii, Wszechświat nigdy nie osiągnie stanu
równowagi termodynamicznej - nie istnieje stan o maksymalnej entropii. Po prostu będzie
pulsował bez końca, wytwarzając przez cały czas coraz to więcej entropii.
W latach sześćdziesiątych astronom Thomas Gold sądził, że udało mu się znaleźć
rzeczywiście cykliczny model Wszechświata. Gold wiedział, iż istniejący wiecznie statyczny
Wszechświat nie jest możliwy do utrzymania, ponieważ osiągnąłby on stan równowagi
termodynamicznej w skończonym czasie. Uderzył go fakt, że ekspansja Wszechświata oddala go
od stanu równowagi termodynamicznej poprzez stałe ochładzanie zawartej w nim materii (jest to
znane zjawisko ochładzania substancji przy jej rozprężaniu). Goldowi wydawało się, iż wzrost
entropii Wszechświata można by powiązać z faktem, że się on rozszerza. Jednakże teza ta
prowadzi do paradoksalnego wniosku: gdyby Wszechświat zaczął się kurczyć, wszystkie procesy
zaczęłyby przebiegać w odwrotnym kierunku - entropia spadałaby, a drugie prawo
termodynamiki zostałoby odwrócone. Tak więc, w pewnym sensie, czas zacząłby płynąć do tyłu.
Gold zwrócił uwagę, że odwrócenie to objęłoby wszystkie układy fizyczne, w tym również mózg
i pamięć człowieka, a zatem psychologiczna strzałka czasu również uległaby odwróceniu:
„pamiętalibyśmy” przyszłość, a nie przeszłość. Dla wszelkich istot obdarzonych świadomością,
żyjących w takiej fazie widzianej przez nas jako kurczenie, uległyby odwróceniu także pojęcia
przeszłości i przyszłości, a zatem uważałyby, że to one właśnie znajdują się w fazie rozszerzania,
a z ich punktu widzenia my znajdowalibyśmy się w kurczącym się Wszechświecie (rysunek 3).
Skoro w wyniku tego odwrócenia Wszechświat stałby się doskonale symetryczny względem
czasu, jego stan końcowy, Wielkie Zgniecenie, byłby tym samym co stan początkowy, Wielki
Wybuch. Po utożsamieniu tych zdarzeń czas zamknąłby się w pętlę i Wszechświat można by
uznać za rzeczywiście cykliczny.
Symetryczny względem czasu model Wszechświata rozważany był także przez Johna
Wheelera, który wysunął hipotezę, iż owo odrócenie biegu czasu mogłoby nie następować w
sposób gwałtowny, lecz stopniowo, podobnie jak przejście przypływu w odpływ. Strzałka czasu
nie odwracałaby się nagle w momencie maksymalnej ekspansji, lecz podlegałaby wpierw
wahaniom, stając się coraz bardziej nieokreślona, zanim nastąpiłoby jej faktyczne odwrócenie.
Wheeler spekulował, że w takim przypadku niektóre na pozór nieodwracalne procesy, takie jak
rozpad promieniotwórczy jąder, mogłyby przebiegać wolniej, co poprzedzałoby ich odwrócenie,
sugerując, że porównanie obecnego tempa rozpadu promieniotwórczego z wartościami z odległej
przeszłości pozwoliłoby wykryć oznaki takiego spowolnienia.
Innym zjawiskiem wykazującym wyraźną strzałkę czasu jest emisja promieniowania
elektromagnetycznego. Na przykład, sygnał radiowy zawsze zostaje odebrany po jego wysłaniu,
a nigdy przedtem. Dzieje się tak dlatego, że gdy nadajnik generuje fale radiowe, fale te
rozbiegają się z nadajnika na wszystkie strony i znikają w głębinach Wszechświata. Nigdy nie
zaobserwowano modulowanych fal radiowych dochodzących z obrzeży Wszechświata, które
zbiegałyby się na antenie radiowej. (W terminologii technicznej fale rozbiegające się określa się
jako „retardowane”, a fale zbiegające jako „adwansowane”). Gdyby jednak faktycznie strzałka
czasu uległa odwróceniu w kurczącym się Wszechświecie, kierunek ruchu fal radiowych również
by się odwrócił - zamiast fal retardowanych mielibyśmy wyłącznie fale adwansowane. W
koncepcji Wheelera oznaczałoby to, iż bezpośrednio po Wielkim Wybuchu występowałyby
wyłącznie fale retardowane, lecz w miarę przybliżania się momentu maksymalnej ekspansji
powinno pojawiać się coraz więcej fal adwansowanych. W maksimum - liczba fal
adwansowanych i retardowanych byłaby równa, natomiast po przejściu do fazy kontrakcji
zaczęłyby dominować z kolei fale adwansowane. Jeśli koncepcja ta miałaby być słuszna,
powinniśmy obserwować już w chwili obecnej pewną niewielką liczbę fal adwansowanych.
Byłyby to w samej rzeczy fale radiowe dochodzące „z przyszłości”.
Jakkolwiek idea ta mogłaby wydawać się całkiem fantastyczna, została w latach
siedemdziesiątych poddana testowaniu eksperymentalnemu przez astronoma Bruce'a Partridge'a.
Eksperyment ten oparty był na tym, że fale radiowe skierowane ku ekranowi pochłaniającemu
będą w 100% falami retardowanymi. Jeśli jednak pozwoli się im rozchodzić swobodnie w
przestrzeni, część z nich może osiągnąć „punkt zwrotny”. Zatem powinny one posiadać pewną
domieszkę fal adwansowanych. Jeśli tak jest, fale adwansowane oddadzą z powrotem do anteny
pewną znikomą część energii wyemitowanej w postaci fal retardowanych. W rezultacie
powinniśmy zaobserwować niewielką różnicę w odpływie energii z anteny w zależności od tego,
czy jest ona otoczona ekranem pochłaniającym, czy też fale rozchodzą się swobodnie w
przestrzeni. Pomimo korzystania z bardzo czułej aparatury pomiarowej Partridge'owi nie udało
się jednak znaleźć żadnych śladów fal adwansowanych.
Jakkolwiek atrakcyjna może być koncepcja Wszechświata symetrycznego względem
czasu, bardzo trudno znaleźć przemawiające za nią rozsądne argumenty. Statystycznie rzecz
biorąc, przeważająca większość dopuszczalnych stanów początkowych Wszechświata nie
prowadzi do takiego modelu; „punkt zwrotny” otrzymamy tylko w przypadku bardzo
szczególnego doboru warunków początkowych. Można to przyrównać do bomby eksplodującej
we wnętrzu stalowego pojemnika: można sobie wyobrazić, że wszystkie odłamki odbiją się
zgodnie od ścian pojemnika i wracając na poprzednie miejsce, złożą się ponownie w bombę. O
tego typu sytuacji nie da się powiedzieć, że jest całkowicie wykluczona, jednak oczywiste jest, że
wymaga ona wprost nieprawdopodobnego zbiegu okoliczności.
Niemniej jednak idea Wszechświata symetrycznego w czasie okazała się na tyle
pociągająca, że podjął ją ostatnio nawet Stephen Hawking w ramach swojego programu
kosmologii kwantowej, który omówię pokrótce w dalszej części książki. Jednakże po jej bardziej
szczegółowych badaniach Hawking przyznał, iż było to z jego strony błędem.
Ciągła kreacja materii
Thomas Gold opowiadał, jak pewnego wieczoru pod koniec lat czterdziestych wracał
wraz z Hermannem Bondim z kina po obejrzeniu filmu Dead of Night [Najgłębsza noc], którego
tematem były sny zawierające się wewnątrz innych snów, tworząc w ten sposób nieskończony
ciąg. W drodze do domu nagle przyszło im do głowy, że film ten mógłby być alegorią
Wszechświata. Niewykluczone, że Wszechświat nie miał początku i żadnego Wielkiego
Wybuchu nigdy nie było. Być może istnieje jakiś mechanizm nieustannego odradzania się
Wszechświata, tak że jest on w stanie istnieć wiecznie.
W ciągu następnych miesięcy Bondi i Gold przyoblekli swój pomysł w kształt konkretnej
hipotezy naukowej. Jej zasadniczym założeniem było to, iż Wszechświat nie miał jednorazowego
początku w rodzaju Wielkiego Wybuchu, w którym powstała cała zawarta w nim materia, lecz w
miarę rozszerzania się Wszechświata rodzą się w nim nowe cząstki, wskutek czego średnia
gęstość materii nie ulega zmianie. Każda z galaktyk przechodziłaby swój cykl ewolucyjny,
„umierając” po wypaleniu się gwiazd wchodzących w jej skład, lecz z nowo stworzonej materii
powstawałyby następne galaktyki. W danym momencie można by obserwować galaktyki w
różnym wieku, z tym że najstarsze z nich byłyby rozmieszczone z najmniejszą gęstością, gdyż
Wszechświat zdążył się już znacznie rozszerzyć od czasu ich powstania. Bondi i Gold
utrzymywali, że Wszechświat rozszerza się z niezmienną szybkością, a tempo kreacji materii jest
takie, iż zapewnia zachowanie jego gęstości średniej. Jest to tak, jak w przypadku rzeki, która
wygląda stale tak samo, mimo iż woda, którą widzimy, jest za każdym razem inna. Rzeka nie jest
tworem statycznym, lecz stacjonarnym. Dlatego hipoteza Bondiego i Golda stała się znana jako
model „stanu stacjonarnego” Wszechświata.
W modelu stanu stacjonarnego Wszechświat nie ma ani początku, ani końca i wygląda
średnio stale tak samo, pomimo iż nieustannie się rozszerza. Model ten unika problemu śmierci
cieplnej, gdyż kreacja nowej materii stanowi jednocześnie zastrzyk ujemnej entropii; powracając
do analogii z zegarkiem - w tym przypadku zegarek jest nakręcany przez cały czas. Bondi i Gold
nie podali żadnego konkretnego sposobu, w jaki miałaby być stwarzana materia; problem ten
został natomiast podjęty przez współpracującego z nimi Freda Hoyle'a. Hoyle wprowadził
pojęcie „pola kreacyjnego”, które posiadałoby zdolność wytwarzania nowych cząstek materii.
Ponieważ materia jest pewną formą energii, można by sądzić, że mechanizm podany przez
Hoyle'a stanowi naruszenie prawa zachowania energii, ale niekoniecznie musi tak być. Pole
kreacyjne niosłoby ze sobą energię ujemną i przy starannym doborze parametrów można uzyskać
sytuację, że dodatnia energia wytworzonej materii odpowiadałaby dokładnie wzrostowi ujemnej
energii pola kreacyjnego. Po przeprowadzeniu dokładnych matematycznych wyliczeń Hoyle
odkrył, że jego model kosmologiczny zawierający pole kreacyjne sam z siebie dąży do
osiągnięcia stanu stacjonarnego przewidzianego przez teorię Bondiego i Golda, a następnie w
tym stanie pozostaje.
Prace Hoyle'a dostarczyły podbudowy teoretycznej niezbędnej do tego, aby teoria stanu
stacjonarnego była traktowana poważnie; przez ponad dziesięć lat była ona uznawana za
równorzędną teorię konkurującą z teorią Wielkiego Wybuchu. Wielu naukowców, w tym sami
twórcy teorii stanu stacjonarnego, uważało, że poprzez pozbycie się Wielkiego Wybuchu raz na
zawsze usunięta została potrzeba doszukiwania się jakichś nadnaturalnych przyczyn
Wszechświata. Świat, który nie ma początku, nie potrzebuje ani stworzenia, ani Stwórcy, a
wskutek tego, iż się sam „nakręca” za pośrednictwem pola kreacyjnego czysto fizycznej natury,
nie wymaga żadnych boskich interwencji, by utrzymać go w istnieniu.
W istocie konkluzja ta jest całkowicie nieuprawniona. Fakt, że Wszechświat nie miał
początku w czasie, w żadnej mierze nie uzasadnia, dlaczego on istnieje, i to w tej właśnie postaci.
Nie wyjaśnia również, skąd miałyby pochodzić pola (takie jak pole kreacji) i prawa fizyki, dzięki
którym możliwe było zaistnienie stanu stacjonarnego. Jak na ironię, niektórzy teologowie byli
wręcz zachwyceni teorią stanu stacjonarnego, uważając, że dostarczyła ona modus operandi dla
Boga w jego dziele stworzenia. Ostatecznie, istniejący wiecznie Wszechświat, któremu nie
zagraża śmierć cieplna, jest koncepcją bardzo atrakcyjną dla teologa. Na przełomie wieków
angielski matematyk i filozof Alfred North Whitehead sformułował tak zwaną teologię procesu.
Zwolennicy tego kierunku odrzucali zakorzenioną w tradycji chrześcijańskiej koncepcję
stworzenia z nicości na rzecz Wszechświata, który nie miał w ogóle początku. Działanie Boga
jako Stwórcy ma w tym przypadku charakter nieustającego procesu, stwórczej interwencji w bieg
przyrody. Do tematu kosmologii kreacyjnej powrócę jeszcze w rozdziale 7.
Ostatecznie, teoria stanu stacjonarnego popadła w niełaskę nie z racji filozoficznych, lecz
dlatego, że sfalsyfikowały ją dane obserwacyjne. Z teorii tej wynikała bardzo konkretna
prognoza, że Wszechświat powinien wyglądać średnio tak samo we wszystkich epokach, a
pojawienie się olbrzymich radioteleskopów umożliwiło przetestowanie tego przewidywania. Gdy
astronomowie obserwują bardzo odległe obiekty, widzą je nie takimi, jakimi są one teraz, lecz
jakimi były w odległej przeszłości, kiedy to wyemitowane z nich światło lub fale radiowe
rozpoczęły swą długą podróż ku Ziemi. Obecnie astronomowie są w stanie badać obiekty odległe
o miliardy lat świetlnych, więc widzimy je takimi, jakimi były one wiele miliardów lat temu.
Zatem odpowiednio głęboki przegląd Wszechświata może dostarczyć jego „migawkowych” ujęć
do celów porównawczych. W połowie lat sześćdziesiątych stało się jasne, że kilka miliardów lat
temu Wszechświat wyglądał zupełnie odmiennie niż obecnie, w szczególności pod względem
gęstości rozmieszczenia galaktyk różnych typów.
Ostatnim gwoździem do trumny teorii stanu stacjonarnego było odkrycie w 1965 roku, że
cały Wszechświat przeniknięty jest promieniowaniem cieplnym odpowiadającym temperaturze
około trzech stopni powyżej zera absolutnego. Promieniowanie to uważane jest za bezpośrednią
pozostałość Wielkiego Wybuchu, coś w rodzaju gasnącej poświaty od pierwotnej kuli ognistej, z
której narodził się Wszechświat. Byłoby niezwykle trudno wytłumaczyć pochodzenie takiego
wszechobecnego promieniowania w inny sposób niż poprzez to, że Wszechświat był kiedyś
niezwykle gęsty i gorący. Taki stan nie występuje w teorii stanu stacjonarnego. Oczywiście, fakt,
że Wszechświat nie znajduje się w stanie stacjonarnym, nie oznacza, iż ciągła kreaqa materii jest
czymś niemożliwym, jednakże motywy, jakie skłoniły Hoyle'a do wprowadzenia pojęcia pola
kreacji, zostały w znacznej mierze podważone, skoro okazało się, że Wszechświat jednak
podlega ewolucji. Obecnie prawie wszyscy kosmologowie są zgodni, że żyjemy we
Wszechświecie, który miał początek w postaci Wielkiego Wybuchu i który zmierza do
nieznanego końca.
Gdy zaakceptuje się idee, że przestrzeń, czas i materia miały swój początek w
osobliwości, stanowiącej absolutną granicę fizycznego Wszechświata w przeszłości, pojawia się
szereg zagadek. Po pierwsze, mamy znany problem, co spowodowało Wielki Wybuch. Jednakże
pytanie to musi być teraz widziane w nowym świetle, ponieważ nie jest możliwe powiązanie
Wielkiego Wybuchu z czymś, co wydarzyło się przed nim, jak zwykle w przypadku, gdy
mówimy o powiązaniach przyczynowo-skutkowych. Czy oznacza to, że Wielki Wybuch miałby
być zdarzeniem, które nie miało przyczyny? Jeżeli prawa fizyki przestają obowiązywać w
osobliwości, nie mogą one służyć jako podstawa wyjaśniania w tym przypadku. Zatem, jeżeli
chcemy jednak doszukiwać się przyczyny Wielkiego Wybuchu, musi mieć ona charakter
pozafizyczny.
Czy Bóg był przyczyną Wielkiego Wybuchu?
Wielu ludzi wyobraża sobie Boga jako kogoś w rodzaju pirotechnika, który po zapaleniu
kosmicznego lontu, rozsiada się wygodnie, by oglądać fajerwerki Wielkiego Wybuchu. Niestety,
ten prosty obraz, tak bardzo do niektórych przemawiający, jest zupełnie pozbawiony sensu. Jak
widzieliśmy, nadprzyrodzony akt stworzenia nie może być działaniem przyczynowym w czasie,
gdyż to właśnie zaistnienie samego czasu jest tym, co chcielibyśmy wyjaśnić. Jeżeli Bóg ma
stanowić uzasadnienie świata fizycznego, nie może to być uzasadnienie w kategoriach przyczyny
i skutku, do jakich jesteśmy przyzwyczajeni.
Ten powracający nieustannie problem czasu został ostatnio podjęty przez angielskiego
fizyka Russella Stannarda, który przyrównał Boga do autora książki. Książka po jej napisaniu
istnieje jako skończona całość, chociaż my, ludzie, czytamy kolejno jej stronice od początku do
końca. „Tak jak pisarz nie ogranicza się do napisania tylko pierwszego rozdziału powieści,
pozwalając, aby reszta została dopisana przez kogoś innego, tak moc stwórcza Boga nie
wyczerpuje się w Wielkim Wybuchu ani nawet nie jest jakoś szczególnie na to zdarzenie
ukierunkowana. Przeciwnie, należy przyjmować, iż mocą tą przeniknięta jest cała przestrzeń i
cały czas: stwarzanie staje się tym samym, co utrzymywanie w istnieniu.”
Niezależnie od problematyki początku czasu, odwoływanie się do Boga w celu
wyjaśnienia Wielkiego Wybuchu związane jest z niektórymi innymi trudnościami. Aby je
zilustrować, posłużę się wyimaginowaną rozmową między teistą (czy też należałoby właściwie
powiedzieć deistą) - zwolennikiem tezy, że świat został stworzony przez Boga, a ateistą, który
„nie widzi potrzeby takiej hipotezy”.
Ateista: W dawnych czasach bóstwa służyły do objaśnienia najróżniejszych zjawisk
świata fizycznego, takich jak wiatr, deszcz i ruchy planet. W miarę postępu nauki powoływanie
się na takie nadprzyrodzone czynniki dla wyjaśnienia zjawisk przyrody uznano za zbędne.
Dlaczego zatem upierasz się, że Bóg miałby być przyczyną Wielkiego Wybuchu?
Teistą: To twoja nauka nie jest w stanie wyjaśnić wszystkiego. Świat jest pełen tajemnic.
Na przykład, nawet najwięksi optymiści wśród biologów przyznają, że powstanie życia pozostaje
ciągle wielką zagadką.
Ateista: Zgadzam się, że nauka nie wyjaśniła dotąd wszystkiego, ale nie wynika stąd
bynajmniej, iż nie potrafi tego uczynić. Wy, teiści, zawsze ulegaliście pokusie, by wskazywać na
jakieś zjawisko, którego nauka nie mogła w danym momencie wyjaśnić, twierdząc, że dla jego
uzasadnienia niezbędny jest Bóg. Następnie, po nowych odkryciach nauki, Bóg okazywał się do
tego uzasadnienia niepotrzebny. Powinniście się już nauczyć, że koncepcja Boga jako
„wypełniacza luk” nie da się dłużej utrzymać. W miarę upływu czasu coraz mniejsza jest liczba
luk naszej wiedzy, w których mógłby się on ostać. Mnie osobiście nie sprawia trudności
przypuszczenie, że nauka będzie w stanie wyjaśnić wszystkie zjawiska przyrody, w tym
powstanie życia. Przyznaję, że początek Wszechświata to trudny orzech do zgryzienia. Jeśli
jednak, jak na to wygląda, zaszliśmy już tak daleko, iż jedynym nie wyjaśnionym elementem
pozostaje sam Wielki Wybuch, byłoby czymś dalece nieprzystojnym wprowadzanie tu pojęcia
Istoty Nadprzyrodzonej tylko dlatego, że została ona wyeliminowana ze wszystkich innych
zjawisk i miałaby to być jej „ostatnia szansa”.
Teistą: Nie widzę, dlaczego by tak miało być. Nawet jeżeli odrzuca się ideę, że Bóg
działa bezpośrednio w świecie fizycznym po jego stworzeniu, problem ostatecznego początku
tego świata należy do zupełnie innej kategorii niż problem wyjaśnienia zjawisk przyrody w
istniejącym już świecie.
Ateista: Lecz jeżeli nie posiada się innych powodów, dla których mielibyśmy wierzyć w
istnienie Boga, stwierdzenie po prostu, że „Bóg stworzył świat”, ma charakter całkowicie adhoc;
nie wyjaśnia ono niczego. W istocie, taka wypowiedź jest zasadniczo pozbawiona jakiejkolwiek
głębszej treści, gdyż sprowadza się do definiowania Boga jako czynnika sprawczego dla świata.
Ten wybieg nie posuwa naprzód naszego poznania nawet w najmniejszym stopniu. Po prostu
jedna zagadka (powstanie Wszechświata) zostaje wyjaśniona za pomocą innej zagadki (Bóg).
Jako naukowiec mam prawo zastosować tu brzytwę Ockhama i odrzucić hipotezę Boga jako
niepotrzebne komplikowanie sprawy. W przeciwnym przypadku zmuszony byłbym postawić
pytanie: kto stworzył Boga?
Teista: Bóg nie potrzebuje innego stwórcy. Jest on bytem koniecznym i po prostu musi
istnieć. Nie ma tu innej możliwości.
Ateista: Ale można równie dobrze utrzymywać, że Wszechświat nie wymaga stwórcy.
Jakimikolwiek argumentami będziemy uzasadniali, iż istnienie Boga jest konieczne, mogą być
one z równą słusznością zastosowane do Wszechświata; w ten sposób co najmniej uprościmy
nasze rozważania.
Teista: Z pewnością jednak naukowcy powszechnie stosują mój tryb rozumowania.
Dlaczego ciała spadają? Ponieważ poddane są działaniu siły ciężkości. Dlaczego działa na nie
siła ciężkości? Ponieważ znajdują się w polu grawitacyjnym. Skąd się bierze pole grawitacyjne?
Ponieważ przestrzeń jest zakrzywiona. I tak dalej. Jeden opis zastępuje się innym, głębszym
opisem, wyłącznie w celu wyjaśnienia tego, od czego zaczęliśmy, mianowicie zjawiska spadania
ciał. Dlaczego zatem oponujesz, gdy odwołuję się do Boga jako głębszego i bardziej
zadowalającego uzasadnienia Wszechświata?
Ateista: Ależ to jest coś zupełnie innego! Teoria naukowa powinna wnosić coś więcej do
faktów, które ma wyjaśniać. Dobre teorie upraszczają obraz świata poprzez ukazanie powiązań
pomiędzy zjawiskami, które poprzednio uważane były za odmienne. Na przykład, teoria
grawitacji Newtona pokazała związek zachodzący pomiędzy pływami morskimi a ruchem
Księżyca. Ponadto dla dobrych teorii można podać testy obserwacyjne, takie jak przewidzenie
nowych, nie znanych dotąd, zjawisk. Pozwalają one również na szczegółową analizę przebiegu
interesujących nas zjawisk fizycznych w kategoriach danej teorii. W przypadku grawitacji
umożliwiają to równania opisujące związek natężenia pola grawitacyjnego ze strukturą jego
źródeł. W teorii tej znajdujemy dokładny mechanizm przebiegu zjawisk grawitacyjnych.
Natomiast koncepcja Boga przywoływana jedynie dla wyjaśnienia Wielkiego Wybuchu nie
spełnia żadnego z tych trzech kryteriów. Nie upraszczając w niczym naszej wizji świata, pojęcie
Stwórcy stanowi dodatkowy element, sam domagający się uzasadnienia. Po drugie, nie ma żadnej
możliwości eksperymentalnej weryfikacji tej hipotezy: Bóg w tym przypadku przejawił się tylko
w jednym jedynym zjawisku - Wielkim Wybuchu - które miało miejsce dawno temu. I w końcu,
gołe stwierdzenie „Bóg stworzył świat” nie stanowi w istocie żadnego wyjaśnienia, dopóki nie
towarzyszy jemu dokładny opis, w jaki sposób to nastąpiło. Chciałoby się wiedzieć, na przykład,
jakie własności możemy przypisać takiemu Bogu i jak konkretnie stwarzał on Wszechświat,
dlaczego Wszechświat ma właśnie taką postać, i tak dalej. Krótko mówiąc, dopóki nikt nie
potrafi ani podać innych przejawów istnienia takiego Boga, ani dokładnego opisu, w jaki sposób
stworzył on świat, który nawet taki ateista jak ja uznałby za głębszy, prostszy i bardziej
zadowalający, nie widzę żadnych powodów, które uzasadniałyby wiarę w taką istotę.
Teista: Mimo to twoje stanowisko również trudno uznać za w pełni zadowalające, gdyż,
jak sam przyznajesz, uzasadnienie Wielkiego Wybuchu wykracza poza ramy nauki. Zmuszony
jesteś przyjmować istnienie Wszechświata jako fakt pozbawiony jakiegokolwiek głębszego
uzasadnienia.
Ateista: Wolę już przyjmować jako fakt istnienie świata niż istnienie Boga. W końcu,
abyśmy mogli o nim dyskutować, świat musi istnieć!
Wieloma z kwestii, jakie wystąpiły w tym dialogu, zajmę się w następnych rozdziałach.
Istota sporu sprowadza się do tego, czy to, że Wszechświat powstał w wyniku wybuchu, jak
wszystko na to wskazuje, musimy przyjąć jako niezależny, nie dający się uzasadnić, fakt na
zasadzie „tak-to-już-jest”, czy też możemy poszukiwać jakiegoś bardziej zadowalającego
uzasadnienia. Do niedawna wydawało się, że każde takie uzasadnienie musiałoby odwoływać się
do czynników nadprzyrodzonych, wykraczających poza prawa fizyki, lecz najnowsze postępy
naszej wiedzy o bardzo wczesnym Wszechświecie dokonały przełomu w tej całej dyskusji,
ukazując tę odwieczną zagadkę w zupełnie nowym świetle.
Stworzenie bez stworzenia
Od upadku teorii stanu stacjonarnego wydawało się, iż w kwestii początków
Wszechświata uczeni nie mają wielkiego wyboru. Można było albo wierzyć, że Wszechświat
istniał zawsze, stawiając czoła wszystkim związanym z tym paradoksom fizycznym, albo
zakładać, że czas i przestrzeń zaczęły się gwałtownie, lecz nie można tego wyjaśnić w sposób
naukowy. Przeoczono trzecią możliwość: że Wszechświat nie istniał zawsze, a jednak nie zaczął
się jednorazowo w osobliwości.
Przed przejściem do szczegółów pozwolę sobie zrobić ogólną uwagę, że istota całego
problemu z początkiem Wszechświata leży w tym, iż Wielki Wybuch miałby być zdarzeniem nie
mającym przyczyny na płaszczyźnie fizycznej. Na ogół uważa się, że stoi to w sprzeczności z
prawami fizyki. Istnieje tu jednak pewna furtka. Jest nią mechanika kwantowa. Jak wyjaśniałem
w rozdziale l, za obszar stosowania mechaniki kwantowej przyjmuje się zazwyczaj atomy,
cząsteczki i cząstki elementarne. Dla obiektów makroskopowych efekty kwantowe są w
normalnych warunkach zaniedbywalnie małe. Proszę sobie przypomnieć, że istotę fizyki
kwantowej stanowi zasada nieoznaczoności Heisenberga, stwierdzająca, iż wartości wszystkich
wielkości mierzalnych (takich jak położenie, pęd, energia) podlegają nieprzewidywalnym
fluktuacjom. Na skutek owej nieprzewidywalności mikroświat ma charakter indeterministyczny;
aby posłużyć się obrazową metaforą Einsteina: Pan Bóg gra z Wszechświatem w kości. Dlatego
na poziomie kwantowym zdarzenia nie są wyznaczone w sposób bezwzględny przez
poprzedzające je przyczyny. Jakkolwiek prawdopodobieństwo jakiegoś zdarzenia (np. rozpadu
promieniotwórczego jądra atomu) można ustalić na podstawie teorii, rzeczywisty wynik danego
procesu kwantowego jest nie tylko nieznany, ale i z zasady niepoznawalny.
Wskutek rozmycia więzi między przyczyną a skutkiem mechanika kwantowa pozwala w
przemyślny sposób obejść problem zaistnienia Wszechświata. Gdyby udało się wykazać, że
Wszechświat wyłonił się z nicości w wyniku fluktuacji kwantowej, to żadne prawa fizyki nie
byłyby pogwałcone. Innymi słowy, z punktu widzenia mechaniki kwantowej spontaniczne
powstanie Wszechświata nie jest niczym szczególnym, jako że na poziomie mikroświata obiekty
fizyczne powstają same z siebie bez wyróżnionej przyczyny przez cały czas. Fizyk kwantowy nie
ma większej potrzeby odwoływania się do sił nadprzyrodzonych w przypadku powstania świata
niż w przypadku uzasadniania, dlaczego rozpad danego jądra promieniotwórczego nastąpił
właśnie w określonym momencie.
Wszystko to zależy naturalnie od prawomocności stosowania mechaniki kwantowej do
Wszechświata jako całości. Nie jest to wcale takie oczywiste. Nie mówiąc już o tym, że
stosowanie teorii opisującej świat cząstek elementarnych do całego kosmosu wymaga
niewiarygodnej ekstrapolacji, pojawiają się w tym przypadku głębokie pytania natury zasadniczej
co do treści, jaką należałoby przypisać niektórym obiektom matematycznym występującym w
teorii. Jednak zdaniem wielu znakomitych fizyków teoria kwantów może być z powodzeniem
stosowana w tej sytuacji - i w ten sposób narodziła się nowa dyscyplina, kosmologia kwantowa.
Uzasadnieniem dla kosmologii kwantowej jest fakt, że o ile Wielki Wybuch traktować
poważnie, musiał istnieć moment, kiedy promień całego Wszechświata był rzędu rozmiarów
subatomowych, a zatem procesy kwantowe musiały w nim odgrywać dominującą rolę. W
szczególności na strukturę i ewolucję bardzo wczesnego Wszechświata musiały mieć głęboki
wpływ fluktuacje związane z zasadą nieoznaczoności Heisenberga. Kiedy ta epoka miała
miejsce, wynika z prostego obliczenia. Efekty kwantowe były znaczące, gdy gęstość materii
sięgała zawrotnej wartości 10
94
g cm
3
; było to wtedy, gdy Wszechświat miał mniej niż 10
43
sekundy i zaledwie 10
33
cm średnicy. Wartości te nazywa się odpowiednio gęstością, czasem i
promieniem Plancka, na cześć Maxa Plancka, pioniera teorii kwantów.
Zdolność fluktuacji kwantowych do „rozmywania” rzeczywistości fizycznej w skali
mikroświata prowadzi do fascynującego wniosku dotyczącego natury czasoprzestrzeni. W
laboratorium fizycy mogą obserwować fluktuacje kwantowe nie mniejsze niż 10
18
cm w skali
czasu około 10
28
sekundy. Fluktuacje te, którym podlegają takie parametry jak położenia i pędy
cząstek, rozgrywają się na tle w miarę ustabilizowanej czasoprzestrzeni. Jednakże w skali jeszcze
mniejszej, rzędu wielkości Plancka, fluktuacjom podlega również sama czasoprzestrzeń.
Aby zrozumieć, w jaki sposób się to odbywa, trzeba wpierw przyjrzeć się bliskiemu
sprzężeniu przestrzeni i czasu. Teoria względności wymaga, byśmy traktowali trzy wymiary
przestrzenne i jeden wymiar czasowy jako atrybuty jednolitej czterowymiarowej
czasoprzestrzeni. Pomimo tej unifikacji przestrzeń pozostaje pod względem fizycznym czymś
odrębnym od czasu. W życiu codziennym odróżnienie ich nie przedstawia dla nas żadnych
trudności. Różnica ta ulega jednak zatarciu w przypadku fluktuacji kwantowych. W skali Plancka
rozróżnienie na czas i przestrzeń zaciera się. Teoria kwantowa opisuje dokładnie, w jaki sposób
się to odbywa, i pozwala na wyliczenie względnych wartości prawdopodobieństwa
poszczególnych wariantów struktur czasoprzestrzennych.
Może się więc w pewnych warunkach zdarzyć, że w wyniku tych efektów kwantowych
najbardziej prawdopodobna okaże się struktura składająca się z czterech wymiarów
przestrzennych. James Hartle i Stephen Hawking przedstawili rozumowanie, z którego wynikało,
iż takie właśnie warunki miały miejsce w bardzo wczesnym Wszechświecie. Oznacza to, że jeżeli
wyobrazimy sobie, iż posuwamy się w czasie wstecz ku Wielkiemu Wybuchowi, to gdy
osiągniemy moment odległy o około jeden czas Plancka od tego, co uważaliśmy za osobliwość
początkową, dzieje się coś dziwnego: czas zaczyna „przeobrażać się” w przestrzeń. Zatem
zamiast z początkiem czasoprzestrzeni mamy teraz do czynienia z czterowymiarową przestrzenią
i możemy postawić pytanie o kształt tej przestrzeni, tj. jej geometrię. W rzeczywistości teoria
dopuszcza tu nieskończenie wiele możliwych geometrii. Odpowiedź na pytanie, która z nich
odnosi się do rzeczywistego świata, zależy od rozwiązania problemu doboru właściwych
warunków początkowych, czemu poświęcę nieco uwagi w dalszej części książki. Hartle i
Hawking dokonują tu konkretnego wyboru, który uważają za naturalny ze względu na elegancję
matematyczną.
W zrozumieniu ich idei pomocne może być przedstawienie ich w postaci schematycznego
rysunku. Jednakże powinieniem tu przestrzec czytelnika, aby nie nadawał tym rysunkom
znaczenia nazbyt dosłownego. Zacznijmy od przedstawienia czasoprzestrzeni jako
dwuwymiarowego diagramu, na którym oś czasu skierowana jest pionowo, a oś przestrzeni
poziomo. Przyszłość znajduje się u góry diagramu, przeszłość u dołu. Ponieważ niemożliwe jest
właściwe odzwierciedlenie czterech wymiarów na płaskiej stronicy książki, pozostawiłem tylko
jeden wymiar przestrzenny, co jednak wystarcza dla zilustrowania wszystkich zasadniczych
rozważań. Przekrój poziomy przez diagram odpowiada całej przestrzeni w jednym momencie
czasu, a linia pionowa przedstawia historię pewnego punktu przestrzeni w czasie. Korzystne
może być wyobrażenie sobie, że rysunek ten znajduje się na luźnej kartce papieru, z którą
możemy przeprowadzać pewne czynności. (Być może nawet czytelnik zechce je naprawdę
wykonać).
Gdyby przestrzeń i czas były nieskończone, to ściśle rzecz biorąc, dla właściwego
przedstawienia czasoprzestrzeni potrzebna by była nieskończona płaszczyzna papieru. Jeśli
jednak czas nie rozciąga się nieskończenie w przeszłość, diagram musi być od dołu ograniczony;
można sobie wyobrazić, że odcięliśmy w pewnym miejscu jego dolną część, tworząc poziomy
brzeg. Czas może być także ograniczony w przyszłości, co odpowiada zrobieniu takiego samego
brzegu w górnej części. W ten sposób otrzymaliśmy nieskończony pasek papieru reprezentujący
całą nieskończoną przestrzeń w kolejnych momentach czasu od początku (brzeg dolny) do końca
(brzeg górny) świata.
W tym miejscu można rozważyć możliwość, że przestrzeń nie jest jednak nieskończona.
Einstein jako pierwszy wskazał na możliwość, że przestrzeń jest skończona, choć
nieograniczona. Do idei tej należy podchodzić poważnie i stanowi ona możliwą do obserwacyjnej
weryfikacji hipotezę kosmologiczną. Taką możliwość możemy łatwo przedstawić na naszym
diagramie poprzez zwinięcie arkusza papieru tak, aby utworzył on walec. Przestrzeń w każdym
momencie czasu jest wtedy reprezentowana przez okrąg o skończonym obwodzie
(Dwuwymiarowym odpowiednikiem jest w tym przypadku powierzchnia sfery; w trzech
wymiarach jest to tak zwana hipersfera, którą trudno sobie naocznie przedstawić, ale która pod
względem matematycznym jest obiektem dobrze określonym i zrozumiałym).
Następnym krokiem jest uwzględnienie ekspansji Wszechświata poprzez pozwolenie, aby
rozmiar Wszechświata zmieniał się w czasie. Ponieważ zajmujemy się tutaj przede wszystkim
początkiem Wszechświata, pominę część górną diagramu i pokażę jedynie część dolną. Cylinder
przybiera teraz kształt stożka. Kolejne przekroje, będące coraz większymi okręgami,
przedstawiają rozszerzającą się przestrzeń. Hipoteza, że Wszechświat zaczął się stanem
osobliwym o nieskończonej gęstości, odpowiada temu, iż stożek zbiega się u dołu w jeden punkt.
Pojedynczy wierzchołek stożka przedstawia gwałtowne powstanie zarówno czasu, jak i
przestrzeni w Wielkim Wybuchu.
Podstawową tezą kosmologii kwantowej jest, że zasada nieoznaczoności Heisenberga
powoduje „stępienie” ostrego wierzchołka stożka i zastąpienie go zakończeniem obłym. Jego
konkretny kształt zależy od przyjmowanego modelu teoretycznego; w modelu Hartle'a i
Hawkinga możemy sobie mniej więcej wyobrażać, że wierzchołek uległ zaokrągleniu, gdzie
wierzchołek stożka został zastąpiony półkulą. Promień tej półkuli równy jest długości Plancka
(10
33
cm), co jest wartością niezmiernie małą podług ludzkich standardów, jednakże
nieskończenie wielką w porównaniu z osobliwością punktową. Ponad początkową półkulą stożek
rozwiera się jak poprzednio, co odpowiada standardowej niekwantowej ewolucji rozszerzającego
się Wszechświata. W tej górnej części czas biegnie pionowo jak zwykle i jest pod względem
fizycznym czymś całkowicie odrębnym od przestrzeni, która rozpościera się poziomo wokół
obwodu stożka. Natomiast poniżej przejścia w sferę sytuacja całkowicie się zmienia. Wymiar
czasowy zaczyna odkształcać się w kierunku wymiaru przestrzennego (tzn. poziomo). W ten
sposób u dołu, w pobliżu podstawy półkuli mamy dwuwymiarową, w przybliżeniu poziomą,
zakrzywioną powierzchnię, której oba wymiary są przestrzenne, w miejsce jednego
przestrzennego i jednego czasowego. Proszę zauważyć, że przejście wymiaru przestrzennego w
czasowy ma charakter stopniowy; nie należy sobie wyobrażać, że następuje ono gwałtownie przy
przejściu ze stożka na półkulę. Ujmując to w inny sposób, można powiedzieć, że czas wyłania się
stopniowo z przestrzeni, w miarę jak powierzchnia półkuli przechodzi w powierzchnię stożka.
Należy również zwrócić uwagę, że w tym przypadku czas jest nadal ograniczony od dołu - nie
rozciąga się wstecz do nieskończoności - a jednak nie istnieje w istocie jego „pierwszy moment”,
nie ma tu gwałtownego początku w osobliwości. Zatem osobliwość została faktycznie usunięta.
Można być skłonnym uważać najniższy punkt półkuli - jej „biegun południowy” - za
„początek” Wszechświata, lecz, jak podkreśla Hawking, jest to pogląd błędny. Podstawową
własnością charakteryzującą powierzchnię sferyczną jest to, że wszystkie jej punkty są
równoważne, to znaczy żaden punkt nie jest w żaden sposób wyróżniony. Najniższy punkt
półkuli wydaje nam się wyróżniony, ponieważ tak ustawiliśmy stożkowatą powierzchnię. Gdy
odchylimy stożek, inny punkt stanie się punktem najniższym. Hawking zauważa, iż mamy tu do
czynienia z sytuacją analogiczną do sposobu, w jaki geometrycznie przedstawiamy powierzchnie
kuli ziemskiej. Południki zbiegają się na Biegunie Północnym i Południowym, lecz powierzchnia
Ziemi w tych miejscach niczym się nie wyróżnia. Jako punkt zbiegania się południków można by
równie dobrze wybrać Mekkę lub Hongkong. (W rzeczy samej wybór biegunów wiąże się z
położeniem osi rotacji Ziemi, ale nie ma to znaczenia z punktu widzenia tej dyskusji). Nikt nie
twierdzi wszakże, iż powierzchnia Ziemi zaczyna się gwałtownie na biegunach. Są to wprawdzie
punkty osobliwe systemu współrzędnych opartego na południkach i równoleżnikach, ale nie są
one wyróżnione realnie pod względem geometrycznym.
Aby to lepiej wyjaśnić, wyobraźmy sobie, że w „biegunie południowym” półkuli
zrobiliśmy małą dziurkę, następnie rozciągamy obszar wokół dziurki (zakładamy, że jest on
elastyczny), aby utworzyć walec, który rozcinamy i rozkładamy na płasko. Konkluzja jest taka, iż
to, co poprzednio braliśmy za początek czasu w osobliwości (dolny brzeg), jest w rzeczywistości
jedynie punktem osobliwym systemu współrzędnych nieskończenie rozciągniętym. Dokładnie to
samo zachodzi dla map powierzchni Ziemi w rzucie Mercatora. Biegun Południowy, który
naprawdę jest normalnym punktem na powierzchni kuli ziemskiej, staje się poziomym brzegiem,
jak gdyby powierzchnia Ziemi tam się kończyła. Jednak brzeg ten jest tworem sztucznym,
wynikającym z przyjętego sposobu odwzorowania powierzchni sferycznej na płaszczyźnie.
Możemy równie dobrze przerysować mapę Ziemi w innym układzie współrzędnych, w którym
południki będą się zbiegały w innym punkcie, a Biegun Południowy będzie punktem jak
wszystkie inne, tak jak w rzeczywistości.
W rezultacie tych wszystkich rozważań dochodzimy do wniosku, za Hartle'em i
Hawkingiem, że Wszechświat nie miał początku. W żadnym przypadku nie oznacza to jednak, iż
Wszechświat miałby istnieć od zawsze. Czas jest skończony w przeszłości, lecz nie ma punktu
początkowego. W ten sposób paradoksalna opozycja nieskończonego i skończonego czasu, która
przez stulecia nie dawała spokoju filozofom, znajduje eleganckie rozstrzygnięcie. Hartle'emu i
Hawkingowi udało się w przemyślny sposób przepłynąć między Scyllą a Charybdą tego,
zdawałoby się nierozwiązywalnego, dylematu. Jak ujął to Hawking: „Warunkiem brzegowym dla
Wszechświata jest brak brzegów”.
Implikacje modelu Hartle'a-Hawkinga dla teologii są daleko idące. Sam Hawking wyraził
się w tej kwestii: „Dopóki zakładamy, że Wszechświat miał początek, możemy przypuszczać, że
istnieje jego Stwórca. Natomiast jeśli Wszechświat jest w pełni samowystarczalny, nie ma
żadnych granic ani brzegów, to nie ma również początku ani końca: po prostu jest. Gdzież tu
zatem miejsce dla Stwórcy?”
Argumentacja jest zatem taka, że skoro Wszechświat nie zaczął się
w określonym, osobliwym momencie w przeszłości, nie ma potrzeby odwoływać się do
nadprzyrodzonego aktu stworzenia, aby powołać go do istnienia. Angielski fizyk Chris Isham,
który sam jest specjalistą w dziedzinie kosmologii kwantowej, zajął się zbadaniem implikacji
teorii Hartle'a-Hawkinga dla teologii. Pisze on: „Nie ulega wątpliwości, że, od strony
psychologicznej, istnienie takiego osobliwego punktu początkowego wpływa na zrodzenie idei
Stwórcy, który miałby wprawić wszystko w ruch”. Uważa jednak, że nowe koncepcje
kosmologiczne usuwają potrzebę przywoływania Boga-jako-zapełniacza-luk jako przyczyny
Wielkiego Wybuchu: „Wygląda na to, że te nowe teorie doskonale sobie radzą z tą właśnie luką”.
Jakkolwiek u Hawkinga Wszechświat nie miał początku w czasie, prawdą jest w tej teorii
zarazem, że nie istniał on zawsze. Czy byłoby zatem prawidłowe stwierdzenie, iż Wszechświat
„sam się stworzył”? Ja ująłbym to raczej w ten sposób, że Wszechświat składający się z
czasoprzestrzeni i materii jest wewnętrznie spójny i samowystarczalny. Do swego istnienia nie
potrzebuje niczego zewnętrznego wobec siebie, w szczególności żadnego „pierwszego
poruszyciela”. Czy ma to oznaczać, że istnienie Wszechświata może być „uzasadnione” w
sposób naukowy bez wprowadzania pojęcia Boga? Czy Wszechświat może być uznany za układ
zamknięty, obejmujący również rację swego własnego istnienia? Odpowiedź zależy od tego,
jakie znaczenie nadajemy słowu „uzasadniać”. Jeśli prawa fizyki potraktujemy jako dane,
Wszechświat jest w stanie, że tak powiem, zająć się sam sobą, w tym także swym własnym
stworzeniem. Ale skąd się wzięły prawa fizyki? Czy stajemy z kolei przed koniecznością
poszukiwania uzasadnienia dla nich? Problemem tym zajmę się w następnym rozdziale.
Czy te najnowsze odkrycia naukowe są sprzeczne z chrześcijańską doktryną o stworzeniu
ex nihilo. Jak już wielokrotnie podkreślałem, powołanie świata do istnienia z niczego przez Boga
nie może być uważane za akt dokonywany w czasie, ponieważ obejmuje on również stworzenie
samego czasu. We współczesnej doktrynie chrześcijańskiej przez stworzenie ex nihilo rozumie
się stałe podtrzymywanie Wszechświata w istnieniu. Obecnie w naukowej kosmologii także nie
rozważa się „zaistnienia” czasoprzestrzeni, lecz przyjmuje, że czasoprzestrzeń (lub Wszechświat)
po prostu jest.
„W tej koncepcji nie występuje żadne specjalnie wyróżnione zdarzenie początkowe”,
twierdzi filozof Wim Drees. „A zatem każdy moment świata znajduje się w tej samej relacji do
Stwórcy. Albo musimy przyjmować jako fakt, że wszystkie momenty po prostu »zawsze były i
są«, albo uważać je wszystkie w jednakowym stopniu za wynik stwórczej działalności Boga.
Niewątpliwą zaletą kosmologii kwantowej jest to, że ten aspekt pojęcia stworzenia ex nihilo,
który wydawał się najbardziej oderwany od myślenia naukowego, mianowicie »podtrzymywanie
w istnieniu«, znajduje w tej teorii swe naturalne miejsce”. Jednakże wizerunek Boga wyłaniający
się z tej teorii jest dość odległy od chrześcijańskiego Boga naszego stulecia. Drees znajduje tu
bliskie podobieństwo do panteistycznej wizji Boga, jaką przyjmował żyjący w siedemnastym
wieku filozof Baruch Spinoza, w której świat fizyczny obdarzony zostaje atrybutami boskimi,
takimi jak istnienie „wieczne” i „konieczne”.
Można oczywiście pytać dalej: dlaczego istnieje Wszechświat? Czy (pozaczasowe)
istnienie czasoprzestrzeni może być uważane za (nie zachodzącą w czasie) formę „stworzenia”?
W tym sensie mówienie o stworzeniu „z niczego” nie odnosiłoby się do rozgrywającego się w
czasie procesu przejścia od nicości do bytu, lecz stanowiłoby sposób unaocznienia, że bardziej
prawdopodobne jest nieistnienie czegoś niż istnienie. Większość naukowców (bynajmniej nie
wszyscy, patrz strona 135-136) skłonna byłaby się zgodzić, że istnienie matematycznego modelu
Wszechświata nie jest tym samym, co faktyczne istnienie tegoż Wszechświata. Koncepcja musi
zostać dopiero urzeczywistniona. Zatem mamy to, co Drees nazywa „ontologiczną
przypadłością”. Teoria Hartle'a-Hawkinga jest w miarę zgodna z tym bardziej abstrakcyjnym
rozumieniem „stworzenia”, gdyż jest teorią kwantową. Istotą mechaniki kwantowej, jak już
mówiłem, jest brak pewności: przewidywanie w teorii kwantów jest przewidywaniem
prawdopodobieństwa zajścia jakiegoś stanu rzeczy. Formalizm matematyczny Hartle'a-Hawkin-
ga dostarcza zatem prawdopodobieństwa tego, że określony Wszechświat z określonym
rozkładem materii istnieje w danej chwili. Przewidując niezerową wartość prawdopodobieństwa
dla danego Wszechświata, twierdzimy tym samym, że ma on szansę się urzeczywistnić. W ten
sposób stworzeniu ex nihilo nadana zostaje konkretna interpretacja jako „realizacji możliwości”.
Wszechświaty-matki i Wszechświaty-dzieci
Przed zakończeniem rozważania problemu początku Wszechświata wspomnę o jednej z
ostatnich teorii kosmologicznych, w której problem ten rozwiązywany jest w radykalnie
odmienny sposób. W mojej książce God and the New Physics [Bóg i nowa fizyka] rzuciłem
myśl, że to, co uważamy za Wszechświat, mogło powstać jako wytwór większej całości, a
następnie się od niej oddzielić i stać się niezależnym bytem. Przestrzeń reprezentowana jest tutaj
jako dwuwymiarowa płaszczyzna. Zgodnie z ogólną teorią względności wyobraźmy sobie, iż
płaszczyzna ta jest zakrzywiona. W szczególności możemy sobie wyobrazić, że w pewnym
miejscu tej płaszczyzny utworzy się wybrzuszenie, które następnie rośnie, przekształcając się w
wystającą strukturę połączoną z główną płaszczyzną jedynie wąskim przesmykiem. Może być
tak, że przesmyk ten staje się coraz węższy i węższy, aż wreszcie przerywa się zupełnie. W ten
sposób z początkowej wypukłości powstaje całkowicie oderwany „bąbel”. Płaszczyzna „matka”
zrodziła „dziecko”.
Zdumiewające, że są podstawy, by przypuszczać, iż coś takiego ma miejsce w
rzeczywistym Wszechświecie. Chaotyczne fluktuacje przewidywane przez mechanikę kwantową
powodują, że w skali mikroświata czasoprzestrzeń obfituje w przeróżne wybrzuszenia, kanaliki i
pomosty, nieustannie pojawiające się i znikające. Radziecki fizyk Andriej Linde wysunął ideę, że
w ten właśnie sposób zapoczątkowany został nasz Wszechświat jako niewielki bąbel
czasoprzestrzeni, który potem uległ ogromnemu rozdęciu w procesie kosmicznej inflacji, co
doprowadziło do Wielkiego Wybuchu. Podobne modele rozwijane były także przez innych
badaczy. Wszechświat-matka, który zrodził nasz Wszechświat, niezależnie podlega
niewiarygodnie szybkiej inflacji, przez cały czas produkując co sił Wszechświaty niemowlęce.
Jeśli ten opis jest prawidłowy, oznaczałoby to, że „nasz” Wszechświat jest tylko jednym z
nieskończonego zbiorowiska Wszechświatów, jakkolwiek obecnie całkowicie od nich odrębnym.
Zbiorowisko to jako całość nie ma ani początku, ani końca. W każdym razie posługiwanie się
słowami „początek” i „koniec” nie ma większego sensu, gdyż nie istnieje żaden
wszechobowiązujący czas, w którym rozgrywałby się proces narodzin nowych Wszechświatów,
chociaż każdy z tych „bąbli” posiada swój czas wewnętrzny.
Interesujące jest pytanie, czy nasz Wszechświat także może być Wszechświatem-matką i
rodzić nowe Wszechświaty. A może jakiemuś naukowcowi-szaleńcowi udałoby się stworzyć
swój własny Wszechświat w laboratorium. Zagadnienie to zostało rozpatrzone przez Alana
Gutha, autora koncepcji kosmicznej inflacji. Okazuje się, iż jeżeli udałoby się skoncentrować
olbrzymią ilość energii, faktycznie mogłaby się utworzyć czasoprzestrzenna protuberancja. Na
pierwszy rzut oka może to rodzić obawy, że grozi nam nowy Wielki Wybuch, ale w istocie
zdarzenie takie wyglądałoby z naszego miejsca w czasoprzestrzeni jako powstanie czarnej
dziury. Jakkolwiek przestrzeń wewnątrz takiej protuberancji mogłaby podlegać wybuchowej
inflacji, my widzielibyśmy jedynie kurczącą się czarną dziurę. W końcu dziura wyparowałaby
doszczętnie i tym samym nasz Wszechświat odseparowałby się od nowo powstałego
Wszechświata-dziecka.
Mimo iż teoria ta niezwykle przemawia do wyobraźni, ciągle należy ona do sfery czystej
spekulacji. Powrócę do niej na krótko w rozdziale 8. Teoria wszechświatów niemowlęcych,
podobnie jak teoria Hartle'a-Hawkinga, zmyślnie omija problemy związane z początkiem
Wszechświata przez odwołanie się do procesów kwantowych. Warto wyciągnąć stąd wniosek, że
mechanika kwantowa otwiera drogę do wszechświatów o skończonym okresie trwania, których
istnienie nie wymaga jednak wprowadzenia jakiejś określonej przyczyny sprawczej. Nie jest
potrzebny żaden akt stworzenia.
Wszystkie koncepge fizyczne omówione w tym rozdziale opierały się na założeniu, że
Wszechświat jako całość podlega pewnym określonym prawom fizyki. Prawa te, na których
opiera się świat fizyczny, wplecione są w obręb matematyki, a ta z kolei opiera się na solidnych
podstawach logiki. To przejście od zjawisk fizycznych, poprzez prawa fizyki, do matematyki, a
ostatecznie logiki, otwiera kuszącą perspektywę, że świat można pojąć stosując wyłącznie
logiczne rozumowanie. Czyż nie mogłoby być tak, że znaczna część, jeśli wręcz nie całość,
fizycznego Wszechświata istnieje dlatego, iż jest logicznie konieczna? Niektórzy naukowcy
faktycznie twierdzili, że tak właśnie jest, że istnieje jeden jedyny logicznie spójny zestaw praw i
jeden jedyny logicznie spójny Wszechświat. Aby odnieść się do tego daleko idącego twierdzenia,
musimy zadać sobie pytanie o istotę praw fizyki.
Rozdział trzeci
CZYM SĄ PRAWA PRZYRODY?
W rozdziale 2 pokazałem, że, przy danych prawach fizyki, Wszechświat jest w stanie
stworzyć sam siebie, czy też, wyrażając się bardziej poprawnie, możliwości, że Wszechświat
istnieje bez zewnętrznej wobec niego pierwszej przyczyny, nie należy już uważać za sprzeczną z
prawami fizyki. Wniosek ten opiera się w szczególności na zastosowaniu reguł mechaniki
kwantowej do kosmologii. Gdy dane są prawa, istnienie świata nie jest już samo w sobie niczym
cudownym. A zatem wygląda to, jak gdyby prawa fizyki stanowiły „podstawę bytową” świata. Z
pewnością, i tak właśnie uważa większość naukowców, można je uznać za opokę rzeczywistości,
za wieczne prawdy, na których opiera się ład kosmiczny.
Pojęcie prawa przyrody tak przyjęło się w nauce, że do niedawna niewielu naukowców
zastanawiało się nad istotą i pochodzeniem tych praw, zadowalając się po prostu przyjęciem ich
jako „danych”. Obecnie, kiedy fizycy i kosmologowie dokonali znaczących postępów na drodze
ku znalezieniu tego, co można by uznać za „podstawowe” prawa Wszechświata, wiele ze starych
pytań pojawiło się na nowo. Dlaczego prawa przyrody mają właśnie taką postać? Czy mogłyby
one być inne? Skąd się wzięły te prawa? Czy istnieją one niezależnie od świata fizycznego?
Pochodzenie praw
Pojęcie prawa przyrody nie zostało wynalezione przez żadnego filozofa czy uczonego.
Jakkolwiek przybrało ono konkretną postać dopiero w erze nowożytnej nauki, jego początki
sięgają w przeszłość, do zarania dziejów, i są ściśle związane z religią. Już nasi dalecy
przodkowie musieli dysponować szczątkowym pojęciem przyczyny i skutku. Na przykład, celem
wykonywania narzędzi zawsze było lepsze wykorzystywanie otaczającego ich świata. Uderżenie
orzecha kamieniem powoduje jego rozłupanie, a umiejętnie rzucona włócznia podąża tam, gdzie
się ją wycelowało. Niemniej, chociaż ci pierwotni ludzie uświadamiali sobie pewne regularności
zachodzące wokół, olbrzymia większość zjawisk przyrody pozostawała dla nich tajemnicza i
nieprzewidywalna; w celu ich wyjaśnienia wymyślono szereg bóstw: boga deszczu, boga słońca,
bóstwa drzew, rzek, i tak dalej. W ten sposób świat przyrody rządzony był przez mnóstwo
niewidzialnych potężnych istot.
Zawsze niebezpiecznie jest sądzić dawne kultury podług współczesnych kategorii, ze
wszystkimi naszymi ukrytymi założeniami i uprzedzeniami. W dobie nauki doszukiwanie się
mechanistycznych uzasadnień obserwowanych zjawisk jest dla nas zupełnie naturalne: napięta
cięciwa łuku wprawia w ruch strzałę, siła grawitacji powoduje, że kamień spada na ziemię. Dana
przyczyna, która zazwyczaj przybiera postać określonej siły, powoduje późniejszy skutek. Lecz
ludzie w dawnych kulturach generalnie nie podchodzili do świata w ten sposób. W niektórych
kulturach postrzegano przyrodę jako pole starcia rywalizujących ze sobą sił. Bóstwa czy duchy,
każde obdarzone odrębnym charakterem, walczyły ze sobą lub zawierały pokój. Inne kultury,
zwłaszcza kultury Wschodu, widziały świat fizyczny jako holistyczny splot niezależnych
czynników.
W prawie wszystkich dawnych teoriach kosmologicznych świat przyrównywany był do
żywego organizmu. Przedmiotom fizycznym przypisywano działanie celowe, takie jakie
obserwowano u zwierząt. Ślady tego myślenia przetrwały do dzisiaj w języku, gdy mówi się, że
woda „dąży” do osiągnięcia najniższego poziomu czy też igła kompasu „pokazuje” kierunek
północny. Koncepcja, że układ fizyczny podąża, jest wewnętrznie ukierunkowany lub pociągany
ku jakiemuś celowi, znana jest jako „teleologia”. Grecki filozof Arystoteles, o którego
animistycznej wizji Wszechświata wspominałem w rozdziale l, rozróżniał cztery rodzaje
przyczyn: przyczynę materialną, przyczynę formalną, przyczynę sprawczą i przyczynę celową.
Podział ten często wyjaśnia się na przykładzie domu. Co jest przyczyną powstania domu? Po
pierwsze, mamy przyczynę materialną, którą w tym przypadku utożsamiamy z cegłami i innymi
materiałami użytymi do jego budowy. Następnie mamy przyczynę formalną, to znaczy formę,
czyli kształt, jaki zostaje nadany tym materiałom. Trzecią jest przyczyna sprawcza, za której
pośrednictwem materiał przybiera tę formę (w tym przypadku jest to budowniczy). I w końcu jest
przyczyna celowa, cel, ku któremu podąża dana rzecz. W przypadku domu za cel taki można by
uznać sporządzony wcześniej plan, którym kieruje się budowniczy podczas budowy.
Nawet dysponując tak rozbudowanym systemem przyczyn Arystoteles nie doszedł do
sformułowania pojęcia tego, co dzisiaj nazywamy prawem przyrody. Zajmował się ruchem ciał
materialnych, ale to, co nazywa się u niego prawami ruchu, stanowi w istocie jedynie jakościowy
opis odwołujący się do przyczyn celowych. I tak, na przykład, kamień spada, ponieważ
„naturalnym miejscem” dla ciał ciężkich jest powierzchnia Ziemi, a gazy wznoszą się do góry,
ponieważ ich naturalne miejsce znajduje się w dziedzinie eterycznej ponad sferą niebios, i tak
dalej.
Wiele z tych dawnych koncepcji opierało się na założeniu, że własności ciał fizycznych
są ich wewnętrznymi cechami, nieodłącznie z nimi związanymi. Wielka różnorodność form i
substancji występujących w przyrodzie stanowiła zatem odzwierciedlenie nieskończonej liczby
takich wewnętrznych własności. Ten sposób patrzenia na świat został zakwestionowany w
wielkich religiach monoteistycznych. W judaizmie Bóg pojmowany był jako Dawca Praw. Bóg,
odrębny i niezależny od rzeczy stworzonych, nakłada prawa na świat fizyczny z zewnątrz.
Przyroda podległa jest określonym prawom na mocy decyzji Boga. Można wprawdzie nadal
doszukiwać się przyczyn zjawisk, lecz związek pomiędzy przyczyną a skutkiem regulowany jest
przez prawa. John Barrow, który badał historyczne kształtowanie się pojęcia prawa przyrody,
przeciwstawia panteon bogów występujący w religii starożytnej Grecji jedynemu Bogu-władcy w
judaizmie: „Kiedy przyjrzymy się bliżej religii starożytnych Greków z jej dość rozbudowanym
systemem bogów, widzimy, że nie występuje w niej pojęcie wszechmocnego kosmicznego
Prawodawcy. Bieg wydarzeń w świecie ustalany jest na drodze negocjacji, wzajemnych oszustw
czy dyskusji między bogami, a nie poprzez zrządzenie nadprzyrodzonej istoty. Stworzenie ma w
tym przypadku charakter decyzji kolektywnej, a nie dekretu władcy”
1
.
Pogląd, że prawa nie są immanentną cechą przyrody, lecz zostały nadane z zewnątrz,
został ostatecznie przyjęty zarówno przez chrześcijaństwo, jak i przez islam, choć odbyło się to
nie bez oporów. Barrow przytacza poglądy św. Tomasza z Akwinu, który „uważał wprowadzone
przez Arystotelesa tendencje wrodzone za własności świata przyrody, którymi Bóg posługuje się
przy realizacji swoich celów, nie naruszając wszakże ich zasadniczej istoty. Zgodnie z tym
poglądem, Bóg jest wobec przyrody raczej partnerem niż niepodzielnym władcą”.
Arystotelesowskie koncepcje tego typu zostały jednak potępione przez biskupa Paryża w 1277
roku i w późniejszej doktrynie chrześcijańskiej ustąpiły miejsca pojęciu Boga jako Prawodawcy,
które tak dobrze wyraził Kempthorn w swym napisanym w 1796 roku hymnie:
Chwała Panu! Gdy przemówił,
Stworzył swym rozkazem świat.
Dał mu prawa niewzruszone,
By podążał w słuszny ślad.
Fascynujące jest prześledzenie, jaką rolę odegrały wpływy różnych kultur i religii w
kształtowaniu się nowożytnego pojęcia prawa przyrody. Średniowieczna Europa, z
chrześcijańską doktryną prawa boskiego przejawiającego się w przyrodzie i szeroko
rozpowszechnioną ideą prawa świeckiego, stanowiła podatny grunt, na którym mogła powstać
naukowa koncepcja praw przyrody. Możemy się przekonać, że astronomowie, jak Tycho Brahe i
Johannes Kepler, którzy sformułowali prawa ruchu planet, sądzili, iż badając regularności
występujące w przyrodzie odkrywają racjonalną strukturę będącą elementem Bożego planu.
Stanowisko to zostało podtrzymane przez francuskiego uczonego-filozofa Renę Descartesa, i
przyjęte przez Izaaka Newtona, którego prawa dotyczące ruchu ciał i powszechnego ciążenia
zapoczątkowały współczesną erę nauki.
Sam Newton wierzył mocno w kosmicznego Konstruktora działającego poprzez
niezmienne prawa matematyki. Dla Newtona i jego współczesnych Wszechświat stanowił wielki,
wspaniały mechanizm będący dziełem Boga. Nie było jednak jedności poglądów co do
charakteru działania Boga jako Kosmicznego Matematyka i Inżyniera. Czy jedynie skonstruował
On mechanizm, nakręcił, a następnie pozostawił własnemu losowi, czy też bierze aktywny udział
w jego codziennym funkcjonowaniu? Newton uważał, że Wszechświat ratowany jest od rozpadu
pod wpływem sił grawitacji jedynie za przyczyną nieustannego cudu Boga. Boska ingerencja
tego typu jest klasycznym przykładem „Boga od wypełniania luk”.
Argumentacja taka kryje liczne niebezpieczeństwa i podatna jest na możliwość, że
przyszły rozwój nauki pozwoli zadowalająco wyjaśnić daną lukę w naszej wiedzy o świecie bez
potrzeby odwoływania się do Boga. I faktycznie stabilność grawitacyjna Wszechświata jest dla
nas obecnie zupełnie zrozumiała. Zresztą jeszcze za życia Newtona koncepcja nieustannego cudu
była przedmiotem drwin jego kontynentalnych oponentów. Leibniz naigrawał się:
Pan Newton i jego zwolennicy żywią wyjątkowo niedorzeczne mniemanie o dziele
Bożym. Według nich Bóg musi od czasu do czasu nakręcać mechanizm swego zegara, aby nie
stanął, gdyż nie okazał się wystarczająco przezorny przy stworzeniu, aby obdarzyć go ruchem
wiecznym. (...) Według mnie, świat wykazuje zawsze tę samą energię i siły żywotne.
Dla Kartezjusza i Leibniza Bóg był praźródłem i gwarancją wszechobejmującej
racjonalności, którą przeniknięty jest kosmos. To ta właśnie racjonalność otwiera drzwi do
poznania przyrody mocą człowieczego rozumu, który sam też jest dany od Boga. W
renesansowej Europie uzasadnieniem tego, co obecnie nazywamy metodą naukową, była wiara w
racjonalnego Boga, stworzony przez którego ład możemy w przyrodzie odkryć na drodze badań
naukowych. I, pomimo Newtona, w skład tych przekonań wchodziło przeświadczenie, że
pochodzące od Boga prawa są niezmienne. „Kultura naukowa, powstała w zachodniej Europie -
pisze Barrow - której jesteśmy spadkobiercami, przeniknięta była ideą absolutnej niezmienności
praw przyrody, co miało stanowić gwarancję sensowności uprawiania nauki i osiągnięcia
wartościowych wyników”.
Współcześnie naukowcy zadowalają się stwierdzeniem, że w przyrodzie obserwujemy
pewne regularności, które zwykliśmy nazywać prawami, nie zadając sobie zazwyczaj pytania o
pochodzenie tych praw. Jednakże warto rozważyć, czy rozwój nauki, jaki miał miejsce w
średniowiecznej i renesansowej Europie, byłby w ogóle możliwy, gdyby nie zachodnia,
chrześcijańska, teologia. Weźmy na przykład Chiny, mające w owym czasie wysoko rozwiniętą
kulturę i cywilizację, która dała im szereg technicznych wynalazków, nie znanych jeszcze w
Europie. Japońskiemu uczonemu Kowa Seki, żyjącemu w czasach Newtona, przypisuje się
niezależne wynalezienie rachunku różniczkowego i metody obliczania liczby
TC
, lecz nie
zdecydował się on na ogłoszenie swych odkryć. Joseph Needham w swoim studium myśli
dawnych Chin pisze: „Brakowało przekonania, że kodeks praw przyrody kiedykolwiek odsłoni
się przed człowiekiem i będzie mógł być przez niego odczytany, ponieważ nie wyobrażano sobie,
by jakaś istota boska, nawet bardziej racjonalna od nas, mogła kiedyś uczynić taki kodeks,
możliwy do odczytania przez człowieka”. Barrow utrzymuje, że przy braku „pojęcia istoty
boskiej sankcjonującej swymi działaniami bieg spraw świata, która ustanowiwszy niezmienne
»prawa« przyrody stanowiłaby gwarancję poznania naukowego” nauka chińska skazana była na
status „płonnej ciekawości” świata.
Jakkolwiek jest nieco prawdy w twierdzeniu, że różnice w rozwoju nauki pomiędzy
Wschodem a Zachodem mogą być przypisane odmiennym teologiom, decydujące były również
inne czynniki. Znaczna część zachodniej nauki zasadzała się na metodzie redukcji, w której
własności złożonego systemu poznawane są przez badanie zachowania się jego części
składowych. By dać tu prosty przykład: przypuszczalnie żaden pojedynczy człowiek na świecie
nie zna się na wszystkich systemach technicznych pasażerskiego samolotu Boeing 747, lecz nie
ulega wątpliwości, że każdy z nich z osobna jest dobrze poznany przez wielu ludzi. Możemy
jednak twierdzić, iż samolot ten jako całość jest poznawalny, ponieważ sądzimy, że stanowi on
jedynie sumę swoich części składowych.
Zdolność ludzkiego umysłu do rozbijania złożonych systemów występujących w
przyrodzie na prostsze części okazała się kluczowym czynnikiem postępu nauki. Termin
„analiza”, częstokroć używany zamiennie ze słowem „nauka”, jest wyrazem przekonania, że, aby
poznać jakąś całość, możemy ją rozłożyć na części i badać je osobno. Niektórzy utrzymują, że
nawet układy tak złożone jak ludzkie ciało można poznać poprzez badanie zachowania
poszczególnych genów czy też praw rządzących cząsteczkami, z których zbudowane są jego
komórki. Gdybyśmy nie byli w stanie zrozumieć ograniczonych części Wszechświata bez
zrozumienia go jako całości, uprawianie nauki byłoby zajęciem beznadziejnym. Jednakże ta
„analizowalność” układów fizycznych nie jest własnością tak uniwersalną, jak dotąd sądzono.
Ostatnio naukowcy znajdują coraz więcej przykładów systemów, które mogą być poznane tylko
jako całość lub wcale. Od strony matematycznej systemy takie opisywane są za pomocą równań
znanych jako „nieliniowe”. (Więcej szczegółów na ten temat można znaleźć w moich książkach
The Cosmic Blueprint i The Matter Myth). Być może było jedynie historycznym przypadkiem, że
prekursorzy nauki zajmowali się liniowymi układami fizycznymi, które dopuszczają badanie na
sposób analityczny, uprawniając w pełni metodę redukcjonistyczną.
Rozgłos, jaki zyskała sobie w ostatnich latach „nauka holistyczna”, wyzwolił falę książek,
z których należałoby przede wszystkim wymienić Tao fizyki Fritjofa Capry, akcentujących
podobieństwa pomiędzy starożytną filozofią Wschodu, z jej naciskiem na holistyczny
wszechzwiązek rzeczy w świecie, a współczesną fizyką układów nieliniowych. Czy możemy
zatem wyciągnąć wniosek, że filozofia i teologia Wschodu wykazały jednak swą wyższość nad
swymi zachodnimi odpowiednikami? Z pewnością nie. Dostrzegamy obecnie wyraźnie, że postęp
nauki wymaga stosowania zarówno metod redukcjonistycznych, jak i holistycznych. Nie jest tak,
że jedne z nich są słuszne, a drugie nie, jak niektórzy chcieliby to widzieć, lecz stanowią one dwa
komplementarne sposoby poznawania rzeczywistości. Zastanawiające jest raczej to, iż
redukcjonizm jest w ogóle możliwy. Dlaczego świat jest tak urządzony, że jesteśmy w stanie
poznać cokolwiek nie poznając wszystkiego? Tym zagadnieniem zajmę się w rozdziale 6.
Kosmiczny szyfr
Wraz z narodzinami nauki i nastaniem Ery Rozumu pojawiła się idea ukrytego porządku
przyrody, który ma postać matematyczną i może być poznany na drodze wyrafinowanych badań
naukowych. Podczas gdy w przypadku prymitywnych rozumowań przyczynowo-skutkowych
odkrywamy związki, które przedstawiają się bezpośrednio naszym zmysłom, prawa przyrody, do
których dochodzi się w nauce, mają zupełnie odmienny, głębszy charakter. Przykładowo, każdy
może zobaczyć, że jabłka spadają, lecz potwierdzenie słuszności sformułowanego przez Newtona
prawa proporcjonalności przyciągania grawitacyjnego ciał do odwrotności kwadratu ich
odległości wymaga przeprowadzenia specjalnych systematycznych pomiarów oraz, co
istotniejsze, abstrakcyjnej podbudowy teoretycznej, wyrażonej za pośrednictwem matematyki,
jako kontekstu tych pomiarów. Surowe dane odbierane przez nasze zmysły nie tłumaczą się
bezpośrednio same przez się. Aby je ze sobą powiązać w zrozumiałą całość, potrzebny jest etap
pośredni, który nazywamy teorią.
Fakt, że taka teoria ma wyrafinowaną, matematyczną postać, można obrazowo wyrazić,
mówiąc, iż prawa przyrody są zaszyfrowane. Zadaniem naukowca jest poprzez „złamanie” tego
kosmicznego szyfru odkryć tajemnice, jakie kryje w sobie Wszechświat. Heinz Pagels w swej
książce The Cosmic Code (Kosmiczny szyfr) ujmuje to tak:
Jakkolwiek idea, że Wszechświat posiada porządek podległy prawom, które nie są
bezpośrednio dostępne naszym zmysłom, jest bardzo stara, dopiero w ciągu ostatnich trzech
stuleci odkryliśmy metodę pozwalającą na dotarcie do tego ukrytego porządku - eksperyment
naukowy. Metoda ta jest tak skuteczna, że praktycznie wszystko, co uczeni wiedzą o przyrodzie,
zdobyte zostało za jej pośrednictwem. Odkrywają oni, że świat jest w istocie rzeczy zbudowany
według niewidocznych bezpośrednio, uniwersalnych zasad; nazwałbym to kosmicznym szyfrem
szyfrem, którym posłużył się Demiurg stwarzając świat
7
.
Jak wspominałem w rozdziale l, Platon wykoncypował dobrego budowniczego,
Demiurga, budującego świat przy pomocy zasad matematycznych w oparciu o symetryczne
formy geometryczne. Ta abstrakcyjna dziedzina Form Platońskich powiązana była z naszym
codziennym światem doznań zmysłowych poprzez wzniosłą sferę, którą Platon nazywał Światem
Ducha. Filozof Walter Mayerstein przyrównuje platoński Świat Ducha do współczesnego pojęcia
teorii matematycznej, która również wiąże nasze doznania zmysłowe z zasadami, na których
opiera się Wszechświat, dostarczając nam tego, co nazywamy zrozumieniem
8
. W czasach nam
współczesnych także Einstein utrzymywał, że zdarzenia obserwowane przez nas bezpośrednio w
świecie nie są na ogół zrozumiałe same przez się, lecz muszą być powiązane poprzez głębszą
teorię. W liście do M. Solovine'a, datowanym 7 maja 1952 roku, Einstein pisał o „zawsze
problematycznym związku pomiędzy światem idei a tym, czego bezpośrednio doświadczamy”.
Einstein podkreśla, że „nie ma logicznego przejścia” pomiędzy pojęciami teoretycznymi a
terminami obserwacyjnymi. Ich wzajemną odpowiedniość ustala się „na drodze pozalogicznej
(intuicyjnej)”
9
.
Posługując się metaforą z dziedziny teleinformatyki, moglibyśmy powiedzieć, że prawa
przyrody stanowią sposób zakodowania pewnej, przeznaczonej dla nas wiadomości,
przekazywanej nam poprzez kanał, który nazywamy teorią naukową. Dla Platona i wielu jego
następców nadawcą tej wiadomości jest Demiurg, kosmiczny Budowniczy. Jak przekonamy się
w następnych rozdziałach, wszelką informację o świecie można w zasadzie przedstawić w
postaci binarnej (ciągów jedynek i zer), która jest formą najbardziej dogodną dla przetwarzania
komputerowego. „Wszechświat - twierdzi Mayerstein - można symulować jako gigantyczny ciąg
zer i jedynek; zadaniem nauki jest zatem nic innego, jak rozkodowanie i uporządkowanie tego
»przesłania« pod kątem uczynienia go sensownym i zrozumiałym dla nas”. Co można
powiedzieć o naturze tego „przesłania”? „Jest całkiem oczywiste, iż jeśli zakładamy, że mamy do
czynienia z zakodowaną wiadomością, musimy przyjąć, że w sposobie ułożenia zer i jedynek w
tym ciągu występują pewne regularności czy też struktury; całkowicie przypadkowy, chaotyczny
ciąg z natury rzeczy byłby niemożliwy do rozkodowania”. Tak więc fakt, że mamy do czynienia
z kosmosem, a nie z chaosem, sprowadza się do istnienia struktur w owym zerojedynkowym
ciągu. W rozdziale 6 zajmę się bliżej charakterem tych struktur.
Obecny status praw przyrody
Wielu ludzi, także naukowców, skłonnych byłoby przyjąć, że kosmiczny kod zawiera
istotnie wiadomość przesyłaną nam przez jakiegoś Nadawcę. Twierdzą oni, iż skoro istnieje kod,
musi istnieć także Nadawca, który się nim posłużył, i że na podstawie treści tej wiadomości
możemy dowiedzieć się czegoś o nim samym. Inni, jak Pagels, nie są bynajmniej przekonani o
istnieniu Nadawcy: „Jedną z najdziwniejszych własności kosmicznego kodu jest to, że, jak
wszystko na to wskazuje, Demiurg nie podpisał się pod swoim przesłaniem - mamy do czynienia
z wiadomością od obcej istoty bez żadnych jej śladów”. Zatem prawa przyrody byłyby
wiadomością bez Nadawcy. Pagelsa to bynajmniej nie peszy. „To, czy Bóg jest samym
przesłaniem czy jego autorem, czy też napisało się ono samo, jest kwestią bez znaczenia dla
naszego życia. Możemy bez szwanku porzucić ideę Demiurga, ponieważ nie ma żadnych
naukowych dowodów, iż świat został stworzony przez jakiegoś Stwórcę, żadnych śladów wolnej
woli lub działania celowego, które wykraczałoby poza znane nam prawa przyrody”.
Jak długo prawa przyrody brały swój początek z Boga, ich istnienie nie było czymś w
większym stopniu nadzwyczajnym niż istnienie materii, również stworzonej przez Boga. Lecz
gdy nadprzyrodzone umocowanie praw zostanie zniesione, ich istnienie staje się wielką zagadką.
Skąd się one biorą? Kto był „nadawcą przesłania”? Kto opracował kod? Czy prawa po prostu są
same z siebie, żeby się tak wyrazić, czy też powinniśmy odrzucić samo pojęcie praw przyrody
jako nikomu niepotrzebną pozostałość po wierzeniach religijnych?
Aby spróbować jakoś rozwikłać te głębokie problemy, przyjrzyjmy się najpierw, co
naukowcy faktycznie uważają za prawo. Każdy zgodzi się, że w przyrodzie możemy wyróżnić
uderzające regularności. Na przykład, orbity planet są prostymi figurami geometrycznymi, a ich
ruch wykazuje wyraźną, opisaną matematycznie okresowość. Ze strukturami i okresami mamy do
czynienia także w obrębie atomu i jego części składowych. Nawet obiekty spotykane w życiu
codziennym, takie jak mosty i maszyny, zazwyczaj zachowują się w regularny, możliwy do
przewidzenia, sposób. Wychodząc z takich doświadczeń, naukowcy na mocy rozumowania
indukcyjnego nadają tym regularnościom charakter prawa. Jak wyjaśniałem w rozdziale l,
rozumowanie indukcyjne nie jest absolutnie pewne. To, że przez całe nasze życie widzieliśmy, iż
Słońce codziennie wschodzi, nie stanowi żadnej gwarancji, że wzejdzie ono także jutro.
Przekonanie, że tak właśnie będzie, to znaczy, że w przyrodzie są regularności, których możemy
być pewni, jest aktem wiary, lecz takim, bez którego postęp w nauce nie byłby możliwy.
Ważne jest, aby zrozumieć, że regularności występujące w przyrodzie są rzeczywiste.
Czasem można spotkać się z tezą, iż prawa przyrody, które stanowią próbę uchwycenia i
usystematyzowania tych regularności, są narzucone światu przez nasz, starający się go pojąć,
umysł. Prawdą jest, że człowiek ma tendencję do wyławiania regularności, a nawet
wprowadzania ich tam, gdzie faktycznie nie istnieją. Nasi przodkowie widzieli na gwiezdnym
niebie sylwetki zwierząt oraz bogów i w ten sposób pojawiły się gwiazdozbiory. I chyba każdy z
nas kiedyś dopatrywał się zarysów twarzy w chmurach, skałach czy też płomieniach. Niemniej
jednak uważam, iż pogląd, że prawa przyrody miałyby stanowić takie właśnie projekcje
ludzkiego umysłu, jest absurdalny. Występowanie regularności w przyrodzie jest obiektywnym
faktem matematycznym. Z drugiej strony, zdania, nazywane prawami, które możemy znaleźć w
podręcznikach, s ą bez wątpienia dziełem ludzkiego umysłu, lecz takim, które ma za zadanie
odzwierciedlać, choćby w niedoskonały sposób, faktycznie istniejące własności przyrody. Bez
założenia, że regularności te są czymś realnym, nauka byłaby tylko czczym rozwiązywaniem
szarad.
Innym powodem, dla którego nie uważam, że prawa przyrody są wytworem ludzkim, jest
to, iż pomagają nam one dowiedzieć się czegoś nowego o świecie; niekiedy są to rzeczy całkiem
nieoczekiwane. Cechą mocnego prawa jest to, że wykracza ono poza wierny opis zjawiska, w
związku z którym zostało sformułowane, i dostarcza również uzasadnienia innych zjawisk. Na
przykład prawo ciążenia Newtona wyjaśnia dokładnie ruchy planet, ale opisuje jednocześnie
pływy oceanów, kształt Ziemi, poruszanie się statków kosmicznych i wiele innych zjawisk.
Teoria elektromagnetyzmu Maxwella nie ograniczała się do opisu elektryczności i magnetyzmu,
lecz potrafiła także wyjaśnić naturę fal świetlnych i przewidzieć istnienie fal radiowych. Zatem
prawa przyrody o naprawdę podstawowym charakterze ukazują głębokie związki zachodzące
pomiędzy procesami fizycznymi różnego typu. Dzieje nauki pokazują, że gdy tylko zostanie
przyjęte nowe prawo, poszukuje się wszystkich możliwych jego konsekwencji, testując je w
innych kontekstach, co często prowadzi do odkrycia nowych, nieoczekiwanych, istotnych
zjawisk. To skłania mnie do poglądu, że uprawiając naukę, odkrywamy rzeczywiste regularności
i związki, że odczytujemy te regularności, a nie wpisujemy ich do przyrody.
Nawet jeżeli nie wiemy, czym są prawa przyrody, ani skąd się one wzięły, jesteśmy w
stanie wymienić ich własności. Co ciekawe, prawa zostały obdarzone wieloma atrybutami
poprzednio formalnie przypisywanymi Bogu, od którego miałyby one pochodzić.
Przede wszystkim, prawa mają charakter uniwersalny. Prawo, które jest słuszne jedynie
czasem, czy też w tym, a nie w innym, miejscu, to nie jest żadne prawo. Zakłada się, że prawa
przyrody obowiązują bez wyjątku w całym Wszechświecie i na wszystkich etapach jego historii,
nie dopuszczając żadnych wyjątków. W tym sensie prawa są także doskonałe.
Po drugie, prawa są absolutne. Nie zależą od niczego poza sobą. W szczególności nie
zależą od tego, kto dokonuje obserwacji świata, czy też od jego stanu. To prawa wpływają na
stan Wszechświata, a nie odwrotnie. W istocie, zasadniczym elementem naukowej wizji świata
jest rozdzielenie praw rządzących jakimś układem od stanu tego układu. Gdy naukowiec mówi o
„stanie” układu, ma na myśli faktyczny fizyczny stan, w jakim układ ten znajduje się w danym
momencie. W celu opisania tego stanu trzeba podać wartości wszystkich parametrów fizycznych
charakteryzujących układ. Stan gazu, na przykład, można określić podając jego temperaturę,
ciśnienie, skład chemiczny itd., jeśli interesują nas wyłącznie jego własności globalne. Zupełna
specyfikacja stanu gazu wymagałaby podania szczegółowych pozycji i pędów wszystkich
cząsteczek wchodzących w jego skład. Stan ten nie jest czymś na zawsze ustalonym, danym od
Boga; na ogół zmienia się z czasem. W przeciwieństwie do niego, prawa, pozwalające powiązać
z sobą stan gazu w kolejnych momentach, pozostają niezmienne w czasie.
W ten sposób doszliśmy do trzeciej i najważniejszej własności praw przyrody: są one
wieczne. Ponadczasowy, wieczny charakter tych praw znajduje swój wyraz w strukturach
matematycznych używanych do opisu świata fizycznego. W mechanice klasycznej, na przykład,
prawa dynamiki opisane są za pomocą tworu matematycznego zwanego „hamiltonianem”, który
rozpatrywany jest w przestrzeni zwanej „przestrzenią fazową”. Dokładne definicje tych
konstrukcji matematycznych nie są tu dla naszych rozważań istotne. Ważne jest to, iż zarówno
hamiltonian, jak i przestrzeń fazowa są niezmienne. Z drugiej strony, stan układu reprezentowany
jest przez punkt w przestrzeni fazowej i punkt ten porusza się, co odpowiada zmianom, jakim
podlega układ w trakcie swojej ewolucji. Zasadniczym faktem jest, że sam hamiltonian i
przestrzeń fazowa nie zależą w żaden sposób od ruchu tego punktu.
Po czwarte, prawa są wszechwładne. Rozumiem przez to, że nic nie jest w stanie ujść
spod ich władzy: są wszechmocne. Można również w pewnym sensie powiedzieć, iż są
wszechwiedzące, ponieważ, jeżeli już trzymamy się metafory, że prawa „rządzą” układami
fizycznymi, układy te nie muszą „powiadamiać” praw o stanie, w jakim się znajdują, aby prawa
„wydały odpowiednie instrukcje”, właściwe dla tego właśnie stanu.
W stosunku do tego, co powiedzieliśmy do tej pory o prawach przyrody, na ogół wszyscy
są zgodni. Różnice pojawiają się jednak, gdy przychodzi do rozważania statusu tych praw. Czy
odkrywamy jedynie realnie istniejące prawa, czy też są one genialnym wytworem uczonych
umysłów? Czy prawo powszechnego ciążenia Newtona jest obiektywną rzeczywistością, którą
przypadkowo odkrył właśnie Newton, czy też zostało ono wynalezione przez Newtona w celu
opisania obserwowanych w świecie regularności? Ujmując to w odmienny sposób, czy Newton
odkrył coś obiektywnego w świecie, czy też po prostu wymyślił model matematyczny pewnego
aspektu świata, który okazał się niezwykle użyteczny do jego opisu.
Język, jakim posługują się naukowcy w odniesieniu do praw Newtona, zdradza silną
preferencję dla pierwszej z wymienionych możliwości. Fizycy mówią, że planety „są posłuszne”
prawom Newtona, jak gdyby planeta sama z siebie miała naturę buntowniczą i zaczęłaby sobie
hulać, gdyby nie była „podległa” tym prawom. W ten sposób powstaje wrażenie, że prawa czają
się „gdzieś tam”, gotowe ingerować w ruch planet, gdziekolwiek i kiedykolwiek miałby on
miejsce. Ulegając temu sposobowi opisu, łatwo przypisać prawom istnienie niezależne. Jeśli nada
im się taki status, mówi się, że prawa są transcendentne, ponieważ wykraczają poza sferę zjawisk
fizycznych, lecz czy jest to faktycznie uzasadnione?
W jaki sposób prawa mogłyby uzyskać odrębny, trancendentny byt? Przecież jeżeli
przejawiają się one jedynie za pośrednictwem układów fizycznych poprzez sposób, w jaki się te
układy zachowują, nie możemy nigdy wyjść „poza” sferę zjawisk, do praw jako takich. Prawa
kryją się wewnątrz zjawisk fizycznych, a my obserwujemy zjawiska, a nie prawa. Jeżeli jedynym
sposobem dotarcia do praw jest śledzenie ich przejawów w sferze zjawisk fizycznych, jakież
mamy prawo przypisywać im byt niezależny?
Z pomocą może nam tu przyjść analogia ze stosunkiem sprzętu i oprogramowania w
technice komputerowej. Prawa fizyki odpowiadają oprogramowaniu, a świat fizyczny
konkretnemu sprzętowi. (Prawdą jest, że słowo „konkretny” jest tu nieco naciągnięte, gdyż pod
mianem świata fizycznego rozumiemy obiekty tak niedookreślone jak pola kwantowe, a nawet
sama czasoprzestrzeń). Podstawowe pytanie może być zatem sformułowane w ten sposób: czy
mamy do czynienia z niezależnie istniejącym „kosmicznym oprogramowaniem” - czymś w
rodzaju programu komputerowego - dla Wszechświata, które obejmowałoby wszystkie niezbędne
prawa? Czy to „oprogramowanie” może istnieć bez „sprzętu”?
Wyraziłem już swoje przekonanie, że prawa przyrody są czymś rzeczywistym, są
obiektywnymi prawdami o Wszechświecie, i że odkrywamy je, a nie wymyślamy. Lecz
wszystkie znane fundamentalne prawa okazują się mieć formę matematyczną. Dlaczego tak
właśnie jest, to ważny i trudny problem, który wymaga przyjrzenia się temu, czym jest
matematyka. Zajmę się tym w następnych rozdziałach.
Co to znaczy, że coś „istnieje”?
Jeżeli świat fizyczny opiera się na prawach fizyki, to te prawa w jakimś sensie muszą
istnieć niezależnie. Jaką formę istnienia można przypisać bytowi tak abstrakcyjnemu i mglistemu
jak prawo przyrody?
Zacznijmy od czegoś bardziej uchwytnego, powiedzmy, od kamienia. Wiemy, że kamień
istnieje, ponieważ (zgodnie ze słynnym sformułowaniem Samuela Johnsona) możemy go kopnąć.
Możemy go również zobaczyć i powąchać: kamień oddziałuje bezpośrednio na nasze zmysły.
Jednak istnienie kamienia polega na czymś więcej niż na dotknięciu, obejrzeniu i powąchaniu.
Można przyjąć, że istnienie kamienia nie zależy od naszych zmysłów. Istnieje on realnie i będzie
istniał nadal, nawet jeżeli nie będziemy go mogli dotknąć, zobaczyć czy powąchać. Jest to
oczywiście hipoteza, jednakże hipoteza w pełni racjonalna. Jedno jest pewne, przy powtórnym
oglądzie nasze dane zmysłowe będą zbliżone do poprzednich. Korelacja pomiędzy danymi
otrzymywanymi przy kolejnych okazjach pozwala nam rozpoznawać, że jest to kamień i że za
każdym razem mamy do czynienia z tym samym kamieniem. Zatem prościej jest przyjąć taki
model rzeczywistości, w którym kamień obdarzony jest istnieniem niezależnym od naszych
zmysłów, niż zakładać, iż znika on za każdym razem, gdy odwracamy wzrok, i posłusznie
pojawia się znów w tym samym miejscu, gdy spoglądamy nań ponownie.
W przypadku kamienia wszystko to wydaje się bezsporne. Jednak nie wszystkie obiekty,
o których twierdzimy, że istnieją, są równie konkretne jak kamień. Co na przykład z atomami? Są
one zbyt małe, aby można je było zobaczyć, dotknąć czy też w jakikolwiek inny sposób
percypować bezpośrednio. Nasza wiedza dotycząca atomów uzyskiwana jest na drodze
pośredniej, za pomocą przyrządów pomiarowych, których dane muszą być dopiero poddane
obróbce i interpretacji. Mechanika kwantowa pogarsza jeszcze bardziej sytuację. Okazuje się, że
nie jest na przykład możliwe przypisanie atomowi jednocześnie określonego położenia i
prędkości. Atomy i subatomowe cząstki elementarne tworzą jak gdyby na wpół istniejący świat
cieni.
Mamy też dość abstrakcyjne byty, takie jak pola. Pole grawitacyjne wytwarzane przez
dane ciało bez wątpienia istnieje, jednak nie można go kopnąć, nie mówiąc już o zobaczeniu czy
powąchaniu. Czymś jeszcze bardziej nieuchwytnym są pola kwantowe, niewidzialne rozedrgane
struktury przestrzenne, niosące w sobie energię.
Mało konkretne istnienie nie jest jednak wyłącznie domeną fizyki. Takich pojęć jak
obywatelstwo czy bankructwo, z którymi mamy do czynienia na co dzień, też nie można dotknąć
ani zobaczyć, niemniej są one realne. Kolejnym przykładem jest informacja. Fakt, iż informacji
jako takiej nie da się percypować bezpośrednio, w niczym nie umniejsza rzeczywistego
znaczenia w naszym życiu „technologii informacyjnych”, pozwalających na przechowywanie i
przetwarzanie informacji. To samo dotyczy pojęcia oprogramowania i inżynierii
oprogramowania w informatyce. Oczywiście, jesteśmy w stanie zobaczyć i dotknąć elementów
służących do przechowywania informacji, takich jak dysk komputerowy czy kostka pamięci, lecz
nie możemy z nich bezpośrednio percypować informacji jako takiej.
Następnie mamy całą sferę zjawisk subiektywnych, jak sny. Obiekty występujące w
marzeniach sennych niezaprzeczalnie istnieją (przynajmniej dla tego, kto je śni), lecz w sposób
daleko mniej konkretny niż kamienie. Podobnie ma się sprawa z myślami, emocjami,
wspomnieniami i odczuciami: nie da się ich odrzucić jako nieistniejących, chociaż charakter ich
istnienia jest zupełnie odmienny niż istnienie elementów „obiektywnego” świata. Tak jak
programy komputerowe, umysł lub dusza mogą wymagać dla swego przejawiania się jakiegoś
konkretnego podłoża - w tym przypadku mózgu - lecz to nie czyni ich samych bardziej
konkretnymi.
Istnieje także kategoria rzeczy, które określa się ogólnym mianem kultury, na przykład
muzyka lub literatura. Istnienia symfonii Beethovena czy powieści Dickensa nie da się
sprowadzić po prostu do istnienia papieru, na którym zostały one napisane. Także religii i
polityki nie można utożsamić z ludźmi, którzy je uprawiają.
Wszystkie te rzeczy „istnieją” w niezbyt konkretnym, niemniej istotnym, sensie.
I w końcu mamy dziedzinę matematyki i logiki, o zasadniczym znaczeniu dla nauki. Jaki
jest charakter ich istnienia? Kiedy mówimy, że istnieje jakieś twierdzenie, na przykład dotyczące
liczb pierwszych, nie chodzi nam o to, iż twierdzenie to można kopnąć tak jak kamień. Jednak
obiekty matematyczne obdarzone są jakimś, jakkolwiek abstrakcyjnym, rodzajem istnienia.
Stajemy przed pytaniem, czy prawa fizyki są bytami transcendentnymi. Wielu fizyków
uważa, że tak. Mówią o „odkrywaniu” praw fizyki, jak gdyby istniały one już poprzednio przez
cały czas. Oczywiście, na ogół zakłada się, że to, co dzisiaj nazywamy prawami fizyki, stanowi
jedynie próbę przybliżenia do pewnego zupełnego zbioru „prawdziwych” praw, wierząc jednak,
iż w miarę postępu nauki przybliżenie to staje się coraz lepsze i pewnego dnia będziemy znali
„właściwe” prawa. Kiedy to nastąpi, fizyka teoretyczna osiągnie swój cel. Właśnie nadzieja, że
takie ukoronowanie fizyki czeka nas już niedługo, skłoniła Stephena Hawkinga do nadania
swemu wykładowi inauguracyjnemu przy obejmowaniu Katedry Lukasjańskiej w Cambridge
tytułu „Czy widać już koniec fizyki teoretycznej?”
Jednak nie wszystkim fizykom równie odpowiada idea transcendentnych praw. James
Hartle, zauważając, iż „naukowcy w naukach przyrodniczych, podobnie jak matematycy,
postępują tak, jak gdyby prawdy w dziedzinach, którymi się zajmują, miały byt niezależny (...),
jak gdyby mieli do czynienia z jedynym zbiorem praw, którymi rządzi się Wszechświat, przy
czym prawa te są w istocie od niego niezależne”, dowodzi, że dzieje nauki obfitują w przykłady
„niepodważalnych prawd uniwersalnych”, które okazywały się później możliwymi do obalenia
przypadkami szczególnymi. To, że Ziemia stanowi centrum Wszechświata, było nie-
kwestiowaną prawdą przez stulecia, dopóki ludzie nie stwierdzili, iż się im to tylko tak wydaje
wskutek położenia, jakie zajmują na jej powierzchni. To, że linie i kąty w trójwymiarowej
przestrzeni spełniają aksjomaty geometrii euklidesowej, również przyjmowano jako prawdę
fundamentalną i niepodważalną, a później okazało się, iż jest tak wyłącznie dlatego, że żyjemy w
obszarze czasoprzestrzeni, w którym grawitacja jest stosunkowo słaba, tak że krzywizna
przestrzeni była dotąd niezauważalna. Jak wiele jeszcze własności świata, zastanawia się Hartle,
jest podobnie wynikiem szczególnej perspektywy, z jakiej go oglądamy, a nie głębokiej,
trancendentalnej prawdy? Samo rozróżnienie „świata” od „praw” również może do nich należeć.
Zgodnie z tym poglądem, nauka nie zmierza ku odkryciu jednego, ostatecznego zbioru
praw. Naszych teorii i zawartych w nich praw nie sposób oddzielić, twierdzi Hartle, od
okoliczności, w jakich one powstały. Okoliczności te obejmują naszą kulturę, ewolucję naszego
gatunku i konkretną wiedzę, jaką posiadamy o świecie. Obca cywilizacja, inaczej ukształtowana
na drodze ewolucji, z inną kulturą i nauką, być może doszłaby do odmiennych praw. Hartle
wskazuje na fakt, że do jednego zbioru danych można dopasować szereg odmiennych praw i
nigdy nie możemy być pewni, że prawa, które wybraliśmy, są tymi właściwymi.
Na początku
Istotne jest, by zdawać sobie sprawę, że same prawa nie dostarczają pełnego opisu świata.
W istocie, naszym celem przy formułowaniu praw jest powiązanie ze sobą różnych zjawisk
fizycznych. Jedno z prostych praw na przykład głosi, że piłka wyrzucona ku górze porusza się po
torze parabolicznym. Parabole mogą być jednak różne; jedne są wysokie i krótkie, inne niskie i
długie. Po jakiej parabli będzie poruszała się dana piłka, zależy od prędkości i kąta, pod jakim
została ona wyrzucona. Paramery te określa się mianem „warunków początkowych”. Prawo o
ruchu po paraboli plus warunki początkowe pozwalają na jednoznaczne wyznaczenie toru ruchu
piłki.
Prawa zatem są wypowiedziami o klasach zjawisk, natomiast warunki początkowe
dotyczą konkretnych układów fizycznych. Prowadzenie badań naukowych przez fizyka-
eksperymentatora polega często na doborze, lub wynajdywaniu, pewnych warunków
początkowych. Na przykład, Galileusz w swym słynnym doświadczeniu ze spadaniem ciał
upuszczał jednocześnie przedmioty o różnych masach, aby dowieść, że wszystkie one uderzą w
ziemię w tej samej chwili. W przeciwieństwie do warunków początkowych prawa nie mogą być
dobierane przez badacza; są one „dane od Boga”. Powoduje to, że prawa uzyskują o wiele
wyższą rangę i uważane są za fundamentalne, wieczne i absolutne, podczas gdy warunki
początkowe traktuje się jako przypadkowe szczegóły, dające się dowolnie kształtować.
W świecie rzeczywistym jednak, poza zasięgiem możliwości eksperymentatora,
warunków początkowych dostarcza sama przyroda. Spadające na ziemię ziarno gradu nie zostało
upuszczone przez Galileusza w zamierzony sposób, lecz jest wytworem procesów fizycznych
zachodzących w górnych warstwach atmosfery. Podobnie, gdy do Układu Słonecznego wleci z
zewnątrz kometa poruszająca się po określonym torze, jej orbita zależy od procesów fizycznych,
jakie zaszły w miejscu, gdzie powstała. Innymi słowy, warunki początkowe odnoszące się do
jakiegoś interesującego nas układu kształtowane są przez otoczenie, w jakim się ten układ
znajduje. Można sobie z kolei zadać pytanie o warunki początkowe tego szerszego układu.
Dlaczego ziarno gradu uformowało się w danym miejscu atmosfery? Dlaczego chmury utworzyły
się tam, a nie gdzie indziej? Ten ciąg pytań nie ma końca.
Łatwo się przekonać, że sieć takich przyczynowych powiązań rośnie bardzo szybko i
wkrótce obejmuje cały Wszechświat. I co wtedy? Pytanie o kosmiczne warunki początkowe
prowadzi nas z powrotem do Wielkiego Wybuchu i problemu pochodzenia Wszechświata. Tutaj
mamy do czynienia z diametralnie odmienną sytuacją. Podczas gdy dla poszczególnych układów
fizycznych warunki początkowe były czymś przypadkowym, co można było uzasadnić przez
odwołanie się do szerszego kontekstu we wcześniejszej chwili, w przypadku warunków
początkowych Wszechświata nie mamy szerszego kontekstu ani wcześniejszej chwili.
Kosmiczne warunki początkowe są czymś „danym”, podobnie jak prawa fizyki.
Wielu naukowców uważa, że problem warunków początkowych leży całkowicie poza
zakresem nauki i, podobnie jak prawa, trzeba je po prostu przyjąć jako pierwotny fakt. Ci o
bardziej religijnym nastawieniu umysłu dla ich uzasadnienia odwołują się do Boga, natomiast
ateiści uważają je za przypadkowe lub arbitralne. Zadaniem naukowca jest poszukiwanie
uzasadnień nie polegających na żadnym szczególnym doborze warunków początkowych. Jeśli
jakiś element świata może być uzasadniony jedynie przez założenie, iż Wszechświat zaczął się w
określony sposób, to nie stanowi to faktycznie żadnego uzasadnienia. Po prostu stwierdza się
jedynie, że świat jest, jaki jest, ponieważ kiedyś był, jaki był. Rodzi to tendencję do
konstruowania teorii Wszechświata, które nie zależą w zasadniczy sposób od doboru warunków
początkowych.
Pomysłu, jak tego można dokonać, dostarcza termodynamika. Jeżeli dostanę szklankę
gorącej wody, wiem, że jutro będzie ona zimna. Natomiast, jeśli dostanę szklankę zimnej wody,
nie jestem w stanie stwierdzić, czy była ona gorąca wczoraj lub przedwczoraj, jak bardzo gorąca,
i czy w ogóle kiedykolwiek była gorąca. Można powiedzieć, że szczegóły termicznej historii tej
wody, w tym jej stan początkowy, zostały zatarte przez procesy termodynamiczne, które
doprowadziły ją do równowagi termodynamicznej z otoczeniem. Kosmologowie twierdzą, że
analogiczne procesy doprowadziły do zatarcia śladów warunków początkowych Wszechświata, a
zatem jest niemożliwe wywnioskowanie, nawet w najogólniejszy sposób, jaki był Wszechświat
na początku, jedynie na podstawie znajomości jego stanu dzisiejszego.
Pozwolę sobie przytoczyć przykład. Wszechświat rozszerza się obecnie z tą samą
prędkością we wszystkich kierunkach. Czy oznacza to, że Wielki Wybuch był izotropowy?
Niekoniecznie. Mogło być tak, że ekspansja na początku miała charakter chaotyczny, odbywając
się z różnymi prędkościami w różnych kierunkach, i dopiero później uległa uporządkowaniu w
wyniku różnych procesów fizycznych. Na przykład ruch w kierunkach, w których ekspansja była
najszybsza, mógł być spowalniany przez siły tarcia. Albo też, zgodnie z modnym obecnie
modelem Wszechświata inflacyjnego, omówionym pokrótce w rozdziale 2, we wczesnym
Wszechświecie wystąpiła faza gwałtownej ekspansji, podczas której wszelkie istniejące
początkowo nieregularności zostały wyeliminowane. W wyniku tego powstał Wszechświat
przestrzennie jednorodny i ekspandujący izotropowo.
Hipoteza, że obserwowany obecnie stan Wszechświata jest w znacznym stopniu
niezależny od warunków początkowych Wielkiego Wybuchu, jest chętnie przyjmowana przez
wielu naukowców. Niewątpliwie po części jako wyraz sprzeciwu wobec religijnych koncepcji
zakładających stworzenie nadprzyrodzone, ale także dlatego, że usuwa ona potrzebę zajmowania
się stanem Wszechświata w fazie początkowej, gdy panowały w nim ekstremalne warunki. Z
drugiej strony, jest oczywiste, iż warunków początkowych nie można całkowicie pominąć.
Możemy sobie wyobrazić Wszechświat na tym samym etapie ewolucji, co nasz, lecz zupełnie
odmienny, a następnie na podstawie praw fizyki prześledzić jego ewolucję wstecz w czasie aż po
początek Wielkiego Wybuchu. Znaleźlibyśmy wówczas jakiś stan początkowy, który byłby
odpowiedzialny za odmienny przebieg ewolucji tamtego Wszechświata.
Jakiekolwiek były warunki początkowe powstania naszego Wszechświata, możemy
zawsze zapytać: dlaczego właśnie takie? Biorąc pod uwagę, że liczba możliwości była
nieskończona, dlaczego zaczął się właśnie w ten sposób? Czy te konkretne warunki początkowe
były w jakiś sposób wyróżnione? Pojawia się pokusa, by zakładać, że warunki początkowe nie
miały charakteru arbitralnego, lecz były wynikiem działania jakiejś głębszej zasady. W końcu,
powszechnie przyjmuje się, iż prawa fizyki nie są arbitralne, lecz mogą być z sobą powiązane
matematycznie w zgrabną całość. Czy nie mogłoby istnieć również jakieś dające się zgrabnie
wyrazić matematycznie „prawo warunków początkowych”?
Takie przypuszczenie było wysuwane przez wielu teoretyków. Przykładem może być
Roger Penrose, który dowodził, że przy przypadkowym wyborze warunków początkowych jest
wielce prawdopodobne, iż powstałby Wszechświat wysoce nieregularny, wypełniony
straszliwymi czarnymi dziurami, a nie względnie jednorodnie rozłożoną materią. Wszechświat
tak jednorodny jak nasz wymaga niewiarygodnie dokładnego doboru warunków swego
powstania, tak, aby ekspansja w obrębie wszystkich jego obszarów była ze sobą dokładnie
uzgodniona. Posługując się metaforą Stwórcy dysponującego nieskończonym „inwentarzem”
możliwych warunków początkowych, Penrose twierdzi, że Stwórca musiałby bardzo dokładnie
przeglądać swój spis, zanim znalazłby zestaw dający Wszechświat taki jak nasz. Gdyby wyboru
dokonywał na ślepo, na pewno by mu się to nie udało. „Nie mając bynajmniej zamiaru ujmować
Stwórcy zdolności w tym względzie - zauważa Penrose - z całym przekonaniem twierdzę, że
jednym z obowiązków nauki jest poszukiwanie praw fizycznych, które pozwoliłyby na
uzasadnienie, lub przynajmniej dostarczały sensownego opisu, skąd wzięło się to fenomenalne
dopasowanie, z którym tak często mamy do czynienia w przyrodzie (...). Potrzebujemy prawa
fizyki, które wyjaśniałoby szczególny charakter stanu początkowego”. Istotą prawa
zaproponowanego przez Penrose'a jest nałożenie na pierwotny stan Wszechświata wymogu
jednorodności od samego początku, bez potrzeby odwoływania się do inflacji czy też jakiegoś
innego procesu ujednolicającego. Nie będziemy się tutaj zagłębiać w jego szczegóły
matematyczne.
Inną propozycję dyskutowali Hartle i Hawking w kontekście swojej teorii kwantowo-
kosmologicznej. Jak wspominałem w rozdziale 2, w teorii tej nie występuje wyraźnie
wyróżniony „pierwszy moment”, zaistnienie świata nie ma charakteru pojedynczego zdarzenia.
Zatem problem warunków początkowych zostaje usunięty przez wyeliminowanie samego
momentu początkowego. Jednakże, aby to było możliwe, na kwantowy stan Wszechświata muszą
być nałożone poważne ograniczenia, obowiązujące nie tylko na początku, lecz przez cały czas.
Hartle i Hawking podali dokładną postać matematyczną tych ograniczeń, które w ten sposób w
istocie odgrywają rolę „prawa warunków początkowych”.
Należy zdawać sobie sprawę, że prawa warunków początkowych nie można
zweryfikować ani wyprowadzić z istniejących praw fizyki. Wartość takiego prawa, podobnie jak
wszystkich hipotez naukowych, polega na jego zdolności przewidywania konsekwencji
obserwacyjnych. Wprawdzie częstokroć pewne hipotezy cieszą się powodzeniem u teoretyków
ze względu na swoją elegancję matematyczną i „naturalność”, lecz takie argumenty trudno uznać
za zadowalające uzasadnienie. Hipoteza Hartle'a-Hawkinga, na przykład, doskonale pasuje do
formalizmu kwantowej teorii grawitacji, w jej kontekście wydaje się bardzo prawdopodobna i
naturalna, lecz gdyby rozwój naszej nauki przebiegał innymi drogami, prawo Hartle'a-Hawkinga
być może wyglądałoby na wysoce arbitralne i wydumane.
Tak się nieszczęśliwie składa, że prześledzenie obserwacyjnych konsekwencji teorii
Hartle'a-Hawkinga nie jest łatwe. Jej twórcy utrzymują, że przewiduje ona fazę inflacyjną w
ewolucji Wszechświata, co niewątpliwie odpowiada najnowszym trendom w kosmologii, a
ponadto może kiedyś będzie mogła coś powiedzieć o wielkoskalowej strukturze Wszechświata,
na przykład uzasadnić sposób grupowania się galaktyk. Jednakże nie wygląda na to, żeby
kiedykolwiek udało się jednoznacznie wybrać takie prawo na drodze obserwacyjnej. Hartle
dowodzi wręcz że takie jedno prawo nie istnieje. W każdym razie, nawet gdybyśmy mieli prawo
wyznaczające stan kwantowy Wszechświata jako całości, nie można by na jego podstawie
powiedzieć niczego o elementach jego szczegółowej struktury, na przykład stwierdzić istnienie
konkretnej planety, nie mówiąc już o istnieniu konkretnej osoby. Z samego kwantowego
charakteru teorii wynika (na skutek zasady nieoznaczoności Heisenberga), że takie szczegóły
pozostałyby nieokreślone.
Być może jest tak, że odróżnienie praw od warunków początkowych, które leżało u
podłoża wszystkich dotychczasowych prób badania układów dynamicznych, jest w większym
stopniu historycznym wytworem sposobu, w jaki następował rozwój nauki, aniżeli
fundamentalną własnością przyrody. W podręcznikach czytamy, że typowy eksperyment polega
na tym, że eksperymentator buduje dany układ fizyczny, nadając mu określony stan, a następnie
obserwuje, co się dzieje, tzn. jak ten stan zmienia się w czasie. Powodzenie metody naukowej
opiera się na powtarzalności wyników eksperymentu. Gdy eksperyment zostanie powtórzony,
prawa fizyki pozostają te same, natomiast warunki początkowe dobiera eksperymentator. W ten
sposób kstałtuje się wyraźny, operacyjny podział na prawa i warunki początkowe. Jednakże w
kosmologii sytuacja wygląda inaczej. Wszechświat jest tylko jeden, zatem nie ma mowy o
zastosowaniu pojęcia powtarzalnego eksperymentu. Ponadto nie jesteśmy w stanie zmienić
warunków początkowych, tak samo jak nie możemy zmienić praw fizyki. Zatem ostry podział na
prawa fizyki i warunki początkowe ulega zatarciu. „Czyż nie byłoby możliwe - snuje
przypuszczenia Hartle - że na wyższym poziomie działają bardziej ogólne zasady wyznaczające
zarówno warunki początkowe, jak i dynamikę?”.
Moim zdaniem, hipotezy o prawie warunków początkowych silnie potwierdzają platońską
koncepcję, że prawa są bytem rzeczywistym, trancendentalnym względem świata fizycznego.
Czasem spotyka się twierdzenie, że prawa fizyki zaistniały wraz z Wszechświatem. Gdyby tak
było, prawa te nie mogłyby wyjaśnić początku Wszechświata, ponieważ działałyby dopiero po
jego powstaniu. Widać to szczególnie wyraźnie w przypadku prawa warunków początkowych,
ponieważ prawo to z założenia ma uzasadniać, dlaczego Wszechświat zaistniał właśnie w takiej
konkretnej postaci. W koncepcji Hartle'a-Hawkinga nie występuje moment narodzin
Wszechświata, w którym miałoby się stosować ich prawo, niemniej ma ono stanowić
uzasadnienie faktycznej postaci świata. Jeżeli prawa nie mają charakteru transcendentnego,
zmuszeni jesteśmy przyjąć po prostu jako fakt, że Wszechświat jest taki, jaki jest, a pewne jego
własności wyrażane są jako wbudowane weń prawa. Natomiast, gdy prawa są trancendentne,
mamy podstawy poszukiwania uzasadnienia, dlaczego Wszechświat jest właśnie taki.
Teza o transcendentalnym charakterze praw fizyki jest współczesnym odpowiednikiem
platońskiej dziedziny form doskonałych, których kopiami miałyby być ulotne obiekty-cienie ze
świata naszych doznań zmysłowych. W praktyce prawa fizyki formułowane są w postaci
zależności matematycznych, a zatem w naszym poszukiwaniu niewzruszonych podstaw
rzeczywistości musimy się teraz zająć istotą matematyki i odwiecznym problemem, czy obiekty
matematyczne istnieją jako samodzielne byty w sensie platońskim.
Rozdział czwarty
MATEMATYKA A ŚWIAT REALNY
Nic nie uwidacznia w większym stopniu przepaści, jaka istnieje miedzy dwiema sferami -
humanistyką a naukami ścisłymi - niż matematyka. Dla niematematyków matematyka jest
obcym, przeraźliwie skomplikowanym światem abstrakcji, pełnym dziwacznych symboli i
technicznych procedur, niemożliwym do opanowania jeżykiem czarnej magii. Dla naukowca
matematyka stanowi gwarancję precyzji i obiektywności; okazuje się także być językiem samej
przyrody. Nikt, kto nie ma do czynienia z matematyką, nie może w pełni pojąć istoty
wewnętrznego porządku wpisanego głęboko w naturę świata fizycznego.
Właśnie z powodu tej niezastąpionej roli, jaką matematyka pełni w nauce, wielu
naukowców, zwłaszcza fizyków, upatruje w niej podstawową rzeczywistość przyrody. Jeden z
moich współpracowników powiedział mi kiedyś, że jego zdaniem świat to nic innego jak różne
obiekty matematyczne. Dla zwykłego człowieka, który postrzega rzeczywistość jako składającą
się z obiektów fizycznych, a matematykę jako ezoteryczne igraszki umysłu, brzmi to bez
wątpienia zdumiewająco. Jednakowoż pogląd, że matematyka jest kluczem do tajemnic kosmosu,
jest równie stary jak ona sama.
Magia liczb
Większości ludzi starożytna Grecja kojarzy się w pierwszym rzędzie z geometrią. W
naszych czasach uczniowie w szkole uczą się twierdzenia Pitagorasa i innych elementów
geometrii euklidesowej jako wprawki w matematycznym i logicznym myśleniu. Niemniej dla
filozofów greckich ich geometria była czymś więcej niż tylko ćwiczeniem umysłu. Pojęcia liczby
i formy fascynowały ich tak bardzo, że oparli na nich całą teorię Wszechświata. Jak to ujął
Pitagoras: „Liczba jest miarą wszechrzeczy”.
Sam Pitagoras żył w szóstym stuleciu przed naszą erą i był założycielem szkoły filozofów
zwanych potem pitagorejczykami. Byli oni przekonani, że porządek kosmosu zasadza się na
stosunkach liczb, i przypisywali pewnym liczbom i kształtom znaczenie mistyczne. Szczególną
estymą darzyli na przykład tak zwane „doskonałe” liczby, jak 6 i 28, które są sumą swoich
podzielników (na przykład 6=1+2+3). Największym poważaniem cieszyła się liczba 10, zwana
boskim tetraktusem, jako suma pierwszych czterech liczb całkowitych. Poprzez układanie
punktów w różne konfiguracje Grecy tworzyli liczby trójkątne (jak 3, 6 i 10), kwadratowe (4, 9,
16, ...) i tak dalej. Kwadratową liczbę 4 uczyniono symbolem sprawiedliwości i wzajemności,
czego dalekie echo pobrzmiewa do dziś w angielskich wyrażeniach a square deal [sprawiedliwy
układ] i being all square [w zgodzie ze wszystkimi]. Trójkątne przedstawienie liczby 10 uważane
było za święty symbol, na który przysięgano przy obrzędach inicjacyjnych.
Wiara pitagorejczyków w potęgę numerologii została jeszcze bardziej podbudowana po
odkryciu roli liczby w muzyce przez Pitagorasa, który stwierdził, że długości strun
wytwarzających harmonicznie powiązane tony pozostają ze sobą w prostych stosunkach
liczbowych. Na przykład, oktawa odpowiada stosunkowi 2:1. Samo słowo „racjonalny” bierze
swój początek z wielkiego heurystycznego znaczenia, jakie pitagorejczycy przypisywali
stosunkom („racjom”) liczb całkowitych, takim jak 3/4 i 2/3. Zresztą matematycy do dziś
nazywają takie ułamkowe liczby racjonalnymi (wymiernymi). Dlatego duży szok stanowiło dla
Greków odkrycie, że pierwiastka z liczby 2 nie można przedstawić w postaci stosunku liczb
całkowitych. Co to znaczy? Wyobraźmy sobie kwadrat o boku jednego metra. Zgodnie z
twierdzeniem podanym właśnie przez Pitagorasa długość przekątnej wyrażona w metrach równa
się pierwiastkowi kwadratowemu z dwóch. Wynosi to w przybliżeniu 7/5 metra; lepszym
przybliżeniem będzie 707/500 metra, lecz w rzeczywistości niema ułamka, który wyrażałby ten
stosunek dokładnie, niezależnie od tego, jak wielki wzięlibyśmy licznik i mianownik. Liczby
tego rodzaju noszą nazwę „niewymiernych” (irrational).
Pitagorejczycy stosowali swoją numerologię również w astronomii. Wymyślili oni system
dziewięciu koncentrycznych sfer unoszących znane ciała niebieskie podczas ich obrotu wokół
Ziemi oraz mityczną „Przeciwziemię”, aby otrzymać tetraktyczną liczbę 10. Powiązanie
pomiędzy harmonią w muzyce a harmonią sfer niebieskich wyrażane było jako przypuszczenie,
że ich obrotowi towarzyszy muzyka - muzyka sfer niebieskich. Idee pitagorejskie zostały przejęte
przez Platona, który w dialogu Timaios rozwijał dalej model kosmosu oparty na elementach
muzycznych i numerycznych. Zastosował on również numerologię do czterech żywiołów - ziemi,
powietrza, ognia i wody - oraz badał kosmiczne znaczenie regularnych form geometrycznych.
Pitagorejskie i platońskie modele świata uderzają nas dzisiaj swym prymitywnym i
ekscentrycznym charakterem, jakkolwiek od czasu do czasu otrzymuję pocztą prace, których
autorzy próbują uzasadniać własności jąder atomowych lub cząstek elementarnych w oparciu o
numerologię starożytnych Greków, a więc ewidentnie jej mistyka nadal w jakimś stopniu do
niektórych przemawia. Zasadnicza wartość tych numerologicznych i geometrycznych koncepcji
nie polega jednak na ich prawdopodobności, lecz na tym, że traktują one fizyczną rzeczywistość
jako przejaw ukrytej harmonii matematycznej. Ta podstawowa idea przetrwała aż do początków
ery naukowej. Kepler, na przykład, wyobrażał sobie Boga jako geometrę i w swych badaniach
Układu Słonecznego kierował się w znacznym stopniu tym, co uważał za mistyczne znaczenie
występujących w nim wartości liczbowych. A współczesna fizyka matematyczna, jakkolwiek
odżegnuje się od podtekstów mistycznych, nadal w gruncie rzeczy podziela przekonanie
starożytnych Greków, że we Wszechświecie mamy do czynienia z racjonalnym ładem,
możliwym do wyrażenia za pomocą zależności matematycznych.
Koncepcje numerologiczne występowały również w wielu innych kulturach i ich
pozostałości odnaleźć możemy zarówno w nauce, jak i sztuce. Na starożytnym Bliskim
Wschodzie liczba l - Jedność - utożsamiana była często z Bogiem jako Pierwszą Przyczyną.
Asyryjczycy i Babilończycy przypisywali ubóstwione liczby ciałom niebieskim: Wenus, na
przykład, utożsamiana była z liczbą 15, a Księżyc z liczbą 30. Hebrajczycy nadawali szczególne
znaczenie liczbie 40, która wielokrotnie pojawia się w Biblii. Szatan wiązany jest z liczbą 666,
której złowróżbne znaczenie zachowało się nawet do dziś dnia, jeśli faktycznie, jak podała pewna
gazeta, Ronald Reagan zmienił adres swego domu w Kalifornii, aby jej uniknąć. W istocie rzeczy
numerologia w Biblii ujawnia się wielokrotnie, zarówno w samej treści, jak i jej układzie.
Niektóre z późniejszych sekt kabalistycznych, takich jak gnostycy czy też kabaliści, zajmowały
się konstruowaniem wymyślnych, ezoterycznych systemów numerologicznych na bazie Biblii.
Tego rodzaju teorie nie były obce także samemu Kościołowi. W szczególności św. Augustyn
nawoływał do studiów numerologicznych nad Biblią w ramach kształcenia chrześcijańskiego i
praktyki te utrzymały się aż do późnego średniowiecza. Również obecnie w wielu kulturach
przypisuje się nadprzyrodzoną moc pewnym liczbom lub figurom geometrycznym, a szczególne
sposoby obliczania stanowią istotny składnik rytuałów magicznych w wielu częściach świata.
Nawet w naszym tak bardzo sceptycznym społeczeństwie Zachodu wielu ludzi utrzymuje, że są
liczby przynoszące szczęście lub nieszczęście, jak 7 lub 13.
Te magiczne odniesienia zaciemniają fakt, że arytmetyka i geometria zrodziły się pod
naciskiem potrzeb czysto praktycznych. Konstruowaniu formalnych twierdzeń geometrycznych
w starożytnej Grecji towarzyszyło wynalezienie linijki i kompasu oraz rozwój technik
geodezyjnych, które stosowano w budownictwie i architekturze. Te proste techniki dały początek
olbrzymiemu systemowi myślowemu. Potęga liczb i geometrii tak bardzo przemawiała do
wyobraźni, że stały się one podstawą nowej wizji świata, w której Bogowi przypisano rolę
Wielkiego Geometry, co zostało tak dobrze oddane w znanej rycinie Williama Blake'a The
Ancient of Days [U zarania dni] przedstawiającej Boga schylającego się z niebios, by zmierzyć
świat za pomocą cyrkla.
Z historii wynika, że każda epoka wykorzystuje swe najbardziej imponujące zdobycze
techniki jako metaforę kosmosu, czy nawet Boga. I tak w siedemnastym wieku nie rozważano już
Wszechświata w kategoriach muzycznej lub geometrycznej harmonii, nad którą czuwa
kosmiczny Geometra, lecz w zupełnie nowy sposób. Naczelnym zadaniem techniki stało się w
tym czasie zapewnienie dokładnych przyrządów nawigacyjnych, szczególnie dla celów
kolonizacji Ameryki. Określanie szerokości geograficznej nie sprawiało żeglarzom żadnego
problemu, ponieważ można ją było wyznaczyć na podstawie, na przykład, wysokości Gwiazdy
Polarnej nad horyzontem. Inaczej przedstawiała się sprawa z długością geograficzną, gdyż
wskutek obrotu Ziemi sfera niebieska obraca się. W tej sytuacji pomiar położenia związany jest z
pomiarem czasu. Przy żeglowaniu ze wschodu na zachód, dla przepłynięcia Atlantyku, niezbędne
było posiadanie dokładnych zegarów. A zatem, pod naciskiem kupców i polityków, wiele
wysiłku poświęcano na konstruowanie precyzyjnych czasomierzy dla celów żeglarskich.
Poszukiwanie metod dokładnego pomiaru czasu w praktyce znalazło swój wyraz
teoretyczny w pracach Galileusza i Newtona.
Galileusz wykorzystał czas jako parametr przy formułowaniu swego prawa spadania ciał.
Przypisuje się mu także odkrycie, że okres wahadła nie zależy od amplitudy jego wahań, co
podobno miało miejsce w kościele, gdzie zmierzył okres wahającej się lampy za pomocą
własnego pulsu. Newton, świadom zasadniczej roli, jaką czas pełni w fizyce, stwierdził w swych
Principiach, że „absolutny, prawdziwy, matematyczny czas, sam z siebie, na mocy swej własnej
natury, płynie równomiernie bez odniesienia do czegokolwiek zewnętrznego”. Zatem czas, tak
jak odległość, został uznany za własność świata fizycznego, którą można mierzyć, w zasadzie z
dowolną dokładnością.
Dalsze rozważanie roli upływu czasu w fizyce doprowadziło Newtona do rozwinięcia
matematycznej teorii „fluksji”, znanej dzisiaj jako rachunek różniczkowy. Podstawowym
elementem tego formalizmu jest pojęcie ciągłej zmiany. Newton uczynił je podstawą swojej
mechaniki, w której zawarł prawa ruchu ciał materialnych. Najbardziej spektakularnym
skutecznym zastosowaniem mechaniki Newtona był ruch planet w układzie słonecznym. W ten
sposób muzyka sfer została zastąpiona modelem Wszechświata jako mechanizmu zegara. Model
ten został w największym stopniu rozwinięty w drugiej połowie osiemnastego wieku w pracach
Pierre'a Laplace'a, który potraktował każdy atom we Wszechświecie jako element kosmicznego
mechanizmu zegarowego o niewiarygodnej precyzji. Bóg-Geometra stał się Bogiem-
Zegarmistrzem.
Mechanizacja matematyki
W bieżącym stuleciu również mieliśmy do czynienia z rewolucją techniczną, która już
zdążyła ukształtować całą naszą wizję świata. Chodzi mi o powstanie komputera, co wywołało
głębokie zmiany w sposobie pojmowania świata zarówno w przypadku naukowców, jak i
nienaukowców. Podobnie jak w poprzednich wiekach i obecnie pojawiają się propozycje, aby te
najnowsze zdobycze techniki posłużyły jako model działania kosmosu. I tak niektórzy naukowcy
wysuwali tezę, abyśmy pojmowali przyrodę jako proces obliczeniowy. Muzyka sfer niebieskich i
Wszechświat jako mechanizm zegarowy zostały zastąpione metaforą „kosmicznego komputera”,
w której cały Wszechświat uważany jest za gigantyczny proces przetwarzania informacji. W
ramach tego poglądu prawa przyrody można utożsamić z programem tego komputera, a rozwój
wydarzeń w świecie stanowiłby rezultat jego działania. Warunki początkowe panujące u narodzin
Wszechświata odgrywałyby tu rolę danych wejściowych.
Historycy uznają obecnie, że współczesna koncepcja komputera miała swój początek w
pionierskich pracach ekscentrycznego angielskiego wynalazcy, Charlesa Babbage'a. Babbage
urodził się w 1791 roku pod Londynem jako syn bogatego bankiera, którego rodzina pochodziła
z miejscowości Totnes w hrabstwie Devonshire. Już w dzieciństwie mały Babbage wykazywał
duże zainteresowanie urządzeniami mechanicznymi. Nauczył się samodzielnie matematyki z
książek, jakie wpadły mu w ręce, i w 1810 roku, gdy rozpoczął studia w Cambridge, miał już
wyrobione własne podejście do tego przedmiotu i zamierzał rzucić wyzwanie ortodoksyjnemu
systemowi jego nauczania w Wielkiej Brytanii. Wraz ze swym długoletnim przyjacielem Johnem
Herschelem, synem znanego astronoma Williama Herschela (który w 1781 roku odkrył planetę
Uran), Babbage założył Analytical Society. Członkowie tego towarzystwa, pozostając pod
wielkim wrażeniem potęgi francuskiej nauki i techniki, uważali, że wprowadzenie w Cambridge
nauczania matematyki na sposób praktykowany we Francji będzie pierwszym krokiem w
rewolucji techniczno-przemysłowej w Wielkiej Brytanii. Towarzystwo popadło w konflikt z
działaczami politycznymi w Cambridge, którzy uważali Babbage'a i jego kolegów za
niebezpiecznych radykałów.
Po opuszczeniu Cambridge Babbage ożenił się i zamieszkał w Londynie, utrzymując się z
własnego majątku. Nadal był pełen podziwu dla osiągnięć Francji w matematyce i naukach
przyrodniczych, do czego przyczyniła się także jego osobista znajomość z rodziną Bonaparte;
miał też wiele kontaktów z naukowcami z kontynentu. W tym czasie zaczęły go interesować
eksperymenty z maszynami liczącymi; udało mu się otrzymać od rządu fundusze na budowę
urządzenia, któremu nadał nazwę Maszyny Różnicowej (Difference Engine), był to rodzaj
arytmometru. Miała ona służyć do wyliczania tablic matematycznych, astronomicznych i
nawigacyjnych przy mniejszym nakładzie pracy i bez popełnianych przez człowieka błędów.
Babbage skonstruował pomniejszony, działający model Maszyny Różnicowej, lecz rząd angielski
wstrzymał finansowanie w 1833 roku i pełny projekt nie został zrealizowany. Był to bodajże
jeden z pierwszych przykładów niedostrzegania przez rząd celowości długoterminowego
wspierania działalności badawczej. (Muszę w tym miejscu przyznać, że, przynajmniej w Wielkiej
Brytanii, od lat trzydziestych ubiegłego wieku niewiele się zmieniło). Ostatecznie Maszyna
Różnicowa oparta na pomyśle Babbage'a została zbudowana w Szwecji, skąd następnie zakupił
ją rząd angielski.
Niezrażony tym niepowodzeniem Babbage wymyślił o wiele potężniejsze urządzenie
obliczeniowe, uniwersalny komputer, nazwany przez niego Maszyną Analityczną, która jest
obecnie uznawana za protoplastę współczesnych komputerów pod względem struktury i zasady
działania. Babbage poświęcił znaczną część swego majątku na konstruowanie kolejnych wersji
tej Maszyny, lecz żadnej nie udało mu się zrealizować do końca.
Babbage był porywczym, kłótliwym, wzbudzającym liczne kontrowersje człowiekiem i
wielu mu współczesnych uważało go za wariata. Niemniej jednak przypisuje mu się wynalezienie
między innymi szybkościomierza, oftalmoskopu, przedniego zderzaka dla lokomotyw,
podwieszonego podajnika pieniędzy dla sklepów i systemu kodowania światła w latarniach
morskich. Jego zainteresowania obejmowały politykę, ekonomię, filozofię i astronomię.
Rozważania nad istotą procesów obliczeniowych doprowadziły Babbage'a do idei, że
Wszechświat może być także uważany za rodzaj komputera, przy czym prawa przyrody
odgrywałyby rolę programu, co, jak zobaczymy, było wyjątkowo dalekosiężną wizją.
Mimo jego ekscentryczności, talenty Babbage'a zostały uznane poprzez powierzenie mu
katedry matematyki w Cambridge, którą niegdyś piastował Newton. W charakterze
historycznego przyczynku warto wspomnieć, że dwaj synowie Babbage'a wyemigrowali do
Adelaide w południowej Australii, zabierając ze sobą egzemplarze jego maszyn. Natomiast w
Muzeum Nauki w Londynie zrekonstruowano naturalnej wielkości Maszynę Różnicową według
oryginalnego projektu Babbage'a, aby dowieść, że jest ona w stanie wykonywać obliczenia
zgodnie ze swym przeznaczeniem. A w 1991 roku dwusetna rocznica urodzin Babbage'a (która
nota bene przypadała jednocześnie z rocznicą urodzin Faradaya i rocznicą śmierci Mozarta)
została uczczona przez rząd Jej Królewskiej Mości wydaniem okolicznościowych znaczków
pocztowych.
Po śmierci Babbage'a w 1871 roku jego prace uległy zapomnieniu i dopiero w latach
trzydziestych naszego wieku, dzięki wyobraźni innego niezwykłego Anglika, Alana Turinga,
dokonał się na tym polu dalszy postęp. Turingowi i amerykańskiemu matematykowi Johnowi
von Neumannowi przypisuje się stworzenie teoretycznych podstaw działania współczesnego
komputera. Zasadnicze znaczenie w ich pracach miało pojęcie „uniwersalnego komputera”,
automatu zdolnego do wykonania każdej obliczalnej funkcji matematycznej. Aby wyjaśnić
znaczenie pojęcia uniwersalnej obliczalności, należy cofnąć się do roku 1900 do słynnego
referatu matematyka Davida Hilberta, w którym przedstawił on to, co uważał za dwadzieścia trzy
najistotniejsze problemy matematyczne do rozwiązania. Jednym z nich było pytanie, czy
możliwe jest znalezienie ogólnej procedury dowodzenia twierdzeń matematycznych.
Hilbert był świadom, że dziewiętnasty wiek przyniósł szereg niepokojących odkryć
matematycznych, a niektóre z nich wydawały się zagrażać niesprzeczności samej matematyki.
Były to problemy związane z pojęciem nieskończoności i rozmaite logiczne paradoksy oparte na
samoreferencji, które później krótko omówię. W odpowiedzi na te wątpliwości Hilbert wezwał
matematyków do znalezienia systematycznej procedury pozwalającej w skończonej liczbie
kroków stwierdzić, czy dane twierdzenie matematyczne jest prawdziwe czy fałszywe. Nikt w
owym czasie nie wydawał się wątpić, że taka procedura istnieje, jakkolwiek praktyczne jej
podanie mogło nastręczać trudności. Niemniej jednak można sobie było wyobrazić, że jakiś
pojedynczy człowiek lub grupa ludzi jest w stanie zweryfikować każdą matematyczną hipotezę
poprzez ślepe wykonywanie ustalonego ciągu operacji aż do skutku. W istocie, można by się
obyć nawet bez ludzi, gdyż taką procedurę dałoby się zautomatyzować i cały ciąg operacji
realizowany byłby przez maszynę, która po jego zakończeniu drukowałaby otrzymany wynik -
„prawda” lub „fałsz”.
Widziana w ten sposób matematyka staje się dyscypliną całkowicie formalną, czymś w
rodzaju gry polegającej na manipulowaniu symbolami według wcześniej ustalonych reguł i
znajdowaniu związków tautologicznych. Nie potrzebuje ona żadnych odniesień do świata
fizycznego. Prześledźmy to na przykładzie. Gdy wykonujemy działanie matematyczne, takie jak
(5 x 8) 6 = 34, postępując według prostych reguł otrzymujemy wynik 34. Aby otrzymać
prawidłowy wynik, nie musimy rozumieć samych reguł, ani wiedzieć, skąd się one wzięły. W
istocie, nie musimy nawet wiedzieć, co symbole, którymi się posługujemy, takie jak 5 czy x
s
naprawdę znaczą. Jeśli tylko rozróżniamy poszczególne symbole i trzymamy się reguł,
otrzymamy prawidłowy wynik. Fakt, że obliczenie możemy przeprowadzić na kieszonkowym
kalkulatorze, świadczy o tym, iż procedura ta da się wykonać całkowicie na ślepo.
Kiedy dzieci zaczynają naukę arytmetyki, potrzebują odnosić poznawane symbole do
konkretnych obiektów otaczającego ich świata, więc początkowo liczą na palcach lub liczydłach.
W późniejszych latach jednak dzieci na ogół potrafią już przeprowadzać operacje matematyczne
w sposób całkowicie abstrakcyjny, do tego stopnia, że używają x i y zamiast konkretnych liczb.
Ci, którzy podejmują naukę na wyższym poziomie, poznają inne rodzaje liczb (np. zespolone) i
działań matematycznych (np. mnożenie macierzy), które w żaden oczywisty sposób nie wiążą się
z tym, co znamy z rzeczywistego świata. Mimo to studenci bez trudu uczą się manipulowania
abstrakcyjnymi symbolami oznaczającymi te niezwyczajne obiekty i działania, nie zastanawiając
się nawet nad tym, co one naprawdę, jeśli w ogóle, znaczą. W ten sposób matematyka w coraz
większym stopniu staje się czysto formalnym manipulowaniem symbolami. Może się wręcz
wydawać, że matematyka to nic innego, jak manipulowanie symbolami. Taki pogląd zwany jest
„formalizmem”.
Mimo jej pozornej możliwości formalistycznej interpretacji matematyki został zadany w
1931 roku poważny cios. Tego roku austriacki logik i matematyk Kurt Godeł dowiódł
zdumiewającego twierdzenia, że w matematyce istnieją zdania, których prawdziwości lub
fałszywości nie da się udowodnić poprzez żadną systematyczną procedurę. Było to zaiste
twierdzenie nie do przejścia, ponieważ wykazywało nieodwołalnie, że czegoś w matematyce
naprawdę nie da się zrobić, nawet w zasadzie. Fakt, że w matematyce istnieją zdania
nierozstrzygalne, stanowił wielki szok, gdyż wydawał się podważać całe logiczne podstawy tej
dyscypliny.
Twierdzenie Godła wpisuje się w całą konstelację paradoksów związanych z pojęciem
samoreferencji. Jako proste wprowadzenie w tę zawikłaną tematykę rozważmy niepokojące
zdanie: „To zdanie jest kłamstwem”. Jeżeli wypowiedź ta jest prawdziwa, to jest ona fałszywa; a
jeżeli jest fałszywa, to jest prawdziwa. Takich paradoksalnych wypowiedzi odnoszących się do
samych siebie można z łatwością przytoczyć wiele; są one niezwykle intrygujące i zastanawiały
ludzi od stuleci. Na przykład w średniowieczu formułowano tę antynomię w następujący sposób:
Sokrates: „To, co Platon zaraz powie, jest kłamstwem”.
Platon: „Sokrates właśnie powiedział prawdę”.
Wielki matematyk i filozof Bertrand Russel wykazał, że istnienie tego typu paradoksów
uderza w samą istotę logiki i podważa wszelkie uczciwe próby oparcia matematyki w sposób
ścisły na podstawach logicznych. Godeł poszedł jeszcze dalej i w niezwykle genialny sposób
zastosował samozwrotność w oniesieniu do całej matematyki, rozważając związki między
opisem matematyki a samą matematyką. Jest to łatwo powiedzieć, lecz w rzeczywistości
rozumowanie Godła było długie i bardzo zawiłe. Aby wyrobić sobie jednak pojęcie, na czym ono
polegało, wyobraźmy sobie, że wypisujemy zdania matematyczne opatrując je kolejnymi
liczbami naturalnymi: l, 2, 3, ... Tworzeniu ciągu zdań stanowiącego twierdzenie matematyczne
odpowiadałoby w takim przypadku połączenie przypisanych im liczb. W ten sposób operacjom
logicznym przeprowadzanym na zdaniach matematyki odpowiadają działania samej matematyki.
Stanowi to istotę samozwrotności, na której opiera się dowód twierdzenia Godła. Poprzez
utożsamienie opisu z tym, co jest opisywane, tj. ustanowienie odpowiedniości zdań opisujących
matematykę ze zdaniami samej matematyki, Godeł odkrył antynomialną pętlę typu
russelowskiego, która w nieunikniony sposób prowadziła do istnienia zdań nierozstrzygalnych.
John Barrow zauważył ironicznie, że jeśli przez religię rozumieć będziemy system myślowy
wymagający wiary w niedowodliwe prawdy, to matematyka jest jedyną religią, która jest w
stanie dowieść, iż jest religią!
Aby wyjaśnić kluczową ideę, na której zasadza się twierdzenie Godła, posłużę się krótką
historyjką. W pewnym dalekim kraju grupa matematyków, która nie słyszała nigdy o Godłu,
doszła do wniosku, że możliwa jest jednak systematyczna procedura pozwalająca na nieomylne
stwierdzenie prawdziwości lub fałszywości każdego sensownego zdania matematycznego, i
zabrała się do wykazania tego. Procedura ta mogła być wykonywana przez człowieka, grupę
łudzi, maszynę, czy też jakąkolwiek kombinację tych elementów. Nikt nie wiedział, na co
zdecydowali się matematycy, gdyż ich system umieszczony był wewnątrz olbrzymiego budynku
uniwersytetu przypominającego świątynię, do którego wejście osobom postronnym było
wzbronione. W każdym razie system nazywał się Tom. By wypróbować możliwości Toma,
wprowadzano do niego kolejno najróżniejsze skomplikowane zdania logiczne i matematyczne i
po krótkiej chwili otrzymywano odpowiedź: prawda, prawda, fałsz, prawda, fałsz, ... W krótkim
czasie sława Toma rozeszła się po całym kraju. Do laboratorium zjeżdżało coraz więcej ludzi,
którzy na wszelkie sposoby starali się wynaleźć problem na tyle trudny, aby zapędzić Toma w
kozi róg. Nikomu się to nie udawało. Twórcy Toma nabrali takiego przekonania o jego
nieomylności, że namówili króla, aby ufundował nagrodę dla tego, komu udałoby się pokonać
Toma w jego niewiarygodnych zdolnościach analitycznych. Pewnego dnia na uniwersytecie
zjawił się jakiś przybysz z innego kraju z dużą kopertą i poprosił, aby pozwolono mu zmierzyć
się z Tomem o przyobiecaną nagrodę. Wewnątrz koperty była kartka papieru z wypisanym na
niej zdaniem dla Toma. Zdanie to, które oznaczymy tutaj literą Z (od „zdanie”) brzmiało po
prostu: „Tom nie może uznać tego zdania za prawdziwe”.
Zdanie Z zostało jak zwykle przekazane Tomowi. Nie upłynęło kilka sekund, jak Tom
zaczął się zachowywać dziwnie. Po pół minuty z budynku wybiegł ktoś z obsługi i oznajmił, że
Toma trzeba było wyłączyć z przyczyn technicznych. Cóż takiego się stało? Załóżmy, że Tom
miałby roztrzygnąć, iż Z jest prawdziwe. Oznaczałoby to, że zdanie „Tom nie może uznać tego
zdania za prawdziwe” zostałoby sfalsyfikowane, ponieważ Tom to właśnie zrobił. Lecz skoro Z
zostało sfalsyfikowane, nie może być prawdą. Zatem jeśli Tom orzeknie „prawda” o zdaniu Z,
wniosek ten będzie fałszywy, co przeczy jego głoszonej nieomylności. Toteż Tom nie może
uznać tego zdania za prawdziwe. W ten sposób doszliśmy do wniosku, że Z jest jednak
prawdziwe. Jednak dochodząc do tego wniosku wykazaliśmy, że Tom nie może dojść do tego
samego wniosku. Oznacza to, że wiemy, że coś jest prawdziwe, lecz Tom nie może tego uznać za
prawdziwe. W tym tkwi istota dowodu Godła, że zawsze będą istniały pewne zdania, których
prawdziwości nie można udowodnić. Ów podróżny, wiedząc o tym, z łatwością skonstruował
takie zdanie i zgarnął nagrodę.
Należy jednak pamiętać, że odkrycie Godła dotyczyło ograniczeń związanych z
aksjomatyczną metodą dowodzenia twierdzeń, a nie samych zdań, których miałoby się dowodzić.
Zdanie, którego prawdziwości nie da się dowieść w danym systemie aksjomatów, zawsze może
być samo uznane za aksjomat i dołączone do systemu. W tak powiększonym systemie będą z
kolei istnieć inne zdania niedowodliwe i tak dalej.
Twierdzenie Godła stanowiło druzgocący cios dla programu formalistów, niemniej idea
czysto mechanicznego rozstrzygania prawdziwości zdań matematycznych nie została całkowicie
zarzucona. Może niedowodliwe zdania są tylko rzadkimi wynaturzeniami, które dałyby się
oddzielić od reszty logiki i matematyki? Gdyby udało się znaleźć jakąś metodę odróżnienia zdań
niedowodliwych od dowodliwych, w przypadku tych ostatnich stwierdzanie ich prawdziwości
lub fałszywości nadal byłoby zawsze możliwe. Jednakże, czy możliwe jest podanie
systematycznej procedury pozwalającej na nieomylne rozpoznawanie i odrzucanie zdań
niedowodliwych? Zadanie to zostało podjęte w połowie lat trzydziestych przez Alonzo Churcha,
współpracownika von Neumanna z Princeton, który rychło stwierdził, że nawet ten skromniej
wyznaczony cel jest nieosiągalny, przynajmniej w skończonej liczbie kroków. Innymi słowy,
możemy formułować zdania matematyczne, które są potencjalnie prawdziwe lub fałszywe, i
możemy wdrożyć systematyczną procedurę rozstrzygającą o ich prawdziwości, lecz nie jesteśmy
w stanie poznać wyników tej procedury, gdyż nigdy się ona nie skończy.
Nieobliczalność
Problem ten został również podjęty, zupełnie niezależnie i z całkowicie innej strony,
przez Alana Turinga, gdy był jeszcze studentem w Cambridge. Matematycy często mówią o
„mechanicznej” procedurze rozwiązywania problemów matematycznych, „za naciśnięciem
guzika”. Turinga fascynowało, czy można by naprawdę zbudować maszynę, która by to robiła.
Taka maszyna byłaby w stanie rozstrzygać o prawdziwości zdań matematycznych w sposób
całkowicie automatyczny, bez udziału człowieka, poprzez niewolnicze trzymanie się
deterministycznego ciągu instrukcji. Lecz jak zbudować takie urządzenie? Na jakiej zasadzie
miałoby ono działać? Turing wyobraził je sobie na kształt maszyny do pisania, wypisującej
symbole na kartce, lecz ponadto będącej w stanie odczytywać napisane znaki i w razie potrzeby
je wymazywać. Ostatecznie doszedł do koncepcji nieskończenie długiej taśmy, podzielonej na
kwadratowe pola, przy czym w każdym polu znajduje się jeden znak. Maszyna miałaby
przesuwać taśmę o jedno pole, czytać zawartość pola i w zależności od tego, co przeczytała,
pozostawać w tym samym stanie albo przechodzić w nowy stan. W każdym wypadku jej reakcja
byłaby czysto automatyczna, wyznaczona przez jej konstrukcję. Maszyna bądź zostawiałaby
przeczytany symbol bez zmian, bądź wymazywałaby go i wpisywała inny, a następnie
przesuwałaby taśmę o jedno pole i cały proces powtarzałby się od nowa.
W istocie maszyna Turinga jest tylko urządzeniem pozwalającym na przekształcanie
jednego ciągu symboli w inny ciąg na podstawie ustalonych wcześniej zasad. W razie potrzeby
zasady te można by przedstawić w postaci tabelki, z której dałoby się odczytać, jak zachowa się
maszyna w kolejnym kroku. Tak więc w gruncie rzeczy nie trzeba budować prawdziwej maszyny
z metalu i papierowej taśmy, aby przekonać się, jak ona działa. Łatwo, na przykład, wypisać
tabelkę odpowiadającą maszynie realizującej dodawanie liczb. Jednakże Turing stawiał sobie
bardziej ambitne cele. Czyż jego maszyna nie mogłaby urzeczywistnić zamierzonego przez Hil-
berta programu mechanizacji matematyki?
Jak już wspominałem, rozwiązywanie zadań matematycznych na drodze stosowania
czysto mechanicznej procedury znane jest doskonale już uczniom w szkole. Typowym
przykładem może być przekształcanie ułamka na postać dziesiętną czy też wyciąganie
pierwiastka kwadratowego z jakiejś liczby. Każdy skończony ciąg czynności prowadzący do
rozwiązania jakiegoś problemu, mającego na przykład postać liczby, niekoniecznie całkowitej,
może być w oczywisty sposób zrealizowany poprzez maszynę Turinga. Ale co z procedurami o
nieskończonej liczbie kroków? Na przykład, rozwinięcie dziesiętne liczby n stanowi
nieskończony, na pozór zupełnie przypadkowy ciąg cyfr. Niemniej jednak n można wyliczyć z
dowolną liczbą miejsc po przecinku na podstawie prostej, skończonej procedury. Turing nazywał
daną liczbę „obliczalną”, jeżeli przy stosowaniu się do skończonego zestawu instrukcji można
wyliczyć tę liczbę z dowolnie wielką dokładnością, nawet jeżeli sama liczba jest nieskończenie
długa.
Turing wyobraził sobie, że sporządzona została lista wszystkich liczb obliczalnych. Lista
ta oczywiście miałaby nieskończenie wiele pozycji i na pierwszy rzut oka mogłoby się wydawać,
że każda możliwa do pomyślenia liczba powinna być w niej zawarta. A jednak tak nie jest.
Turing pokazał, że zakładając istnienie takiej listy można udowodnić istnienie liczb, które z całą
pewnością nie są w niej zawarte. Ponieważ lista ta zawierała wszystkie liczby obliczalne, te nowe
liczby trzeba określić mianem nieobliczalnych. Co to znaczy, że jakaś liczba jest nieobliczalna? Z
definicji jest to liczba, która nie może być otrzymana w wyniku skończonej mechanicznej
procedury, nawet po wykonaniu nieskończonej liczby kroków. Turing pokazał również, w jaki
sposób lista liczb obliczalnych może posłużyć do generowania liczb nieobliczalnych.
Oto schemat jego rozumowania. Wyobraźmy sobie, że zamiast liczb mamy nazwiska.
Sporządzamy listę sześcioliterowych nazwisk; powiedzmy, Sayers, Atkins, Piąuet, Mather,
Belamy, Panoff. Potem przeprowadzamy następującą prostą procedurę. Bierzemy pierwszą literę
pierwszego nazwiska i zastępujemy ją następną literą alfabetu. W tym przypadku będzie to „T”.
To samo robimy z drugą literą drugiego nazwiska, trzecią literą trzeciego, i tak dalej. Ostatecznie
otrzymujemy w ten sposób nazwisko „Turing”. Możemy być absolutnie pewni, że nazwisko to
nie występowało w naszej liście, gdyż z konieczności różni się od każdego zawartego w niej
nazwiska o jedną literę. Nawet nie widząc wyjściowej listy, wiemy, że Turinga na niej nie było.
W przypadku listy liczb obliczalnych Turing posłużył się analogicznym sposobem, polegającym
na zmianie w każdej liczbie jednej cyfry na miejscu odpowiadającym pozycji tej liczby na liście,
aby wykazać istnienie liczb nieobliczalnych. Naturalnie, lista Turinga zawierała nieskończenie
wiele nieskończenie długich liczb, lecz istota przeprowadzonego rozumowania była taka sama.
Już z samego istnienia liczb nieobliczalnych wynika, że muszą istnieć także
nierozstrzygalne twierdzenia matematyczne. Wyobraźmy sobie nieskończoną listę liczb
obliczalnych. Każda z nich może być wygenerowana przez jakąś maszynę Turinga. Jedna
maszyna obliczałaby pierwiastek kwadratowy, inna logarytmy, i tak dalej. Jak się przekonaliśmy,
nawet mając do dyspozycji nieskończenie wiele takich maszyn, nie jesteśmy w stanie otrzymać w
ten sposób wszystkich liczb, jako że istnieją także liczby nieobliczalne, które nie mogą być
wygenerowane w wyniku mechanicznej procedury. Turing zauważył, że w zasadzie nie potrzeba
nieskończenie wielu maszyn do wygenerowania takiej listy; wystarczy jedna. Pokazał, iż można
zbudować uniwersalną maszynę Turinga, mogącą symulować działanie wszystkich innych
maszyn. Możliwość istnienia takiej uniwersalnej maszyny jest dość oczywista. Każdą maszynę
można określić przez podanie systematycznej procedury prowadzącej do jej zbudowania, czy to
będą maszyny pralnicze, maszyny do szycia, maszyny liczące czy też maszyny Turinga.
Podstawowe znaczenie ma tu fakt, że maszyna Turinga sama jest maszyną wykonującą określoną
procedurę. Zatem uniwersalnej maszynie Turinga można polecić, aby wpierw odczytywała
specyfikację danej maszyny, następnie rekonstruowała zasady jej działania, i ostatecznie
wykonywała jej funkcję. Zatem oczywiste jest, że można skonstruować uniwersalną maszynę do
wykonywania wszelkich operacji matematycznych. Nie trzeba mieć oddzielnie maszyny
dodającej do dodawania, maszyny mnożącej do mnożenia, i tak dalej. Jedna maszyna może robić
wszystko. Myśl ta była już zawarta w projekcie Maszyny Analitycznej Babbage'a, lecz trzeba
było dopiero upływu prawie stu lat, geniuszu Alana Turinga i potrzeb zrodzonych podczas
drugiej wojny światowej, aby koncepcja współczesnego komputera ostatecznie doczekała się
realizacji.
Może się wydawać zdumiewające, że maszyna, której działanie sprowadza się wyłącznie
do odczytywania i zapisywania symboli oraz przesuwania i zatrzymywania taśmy, jest w stanie
realizować wszelkie możliwe procedury matematyczne, niezależnie od tego, jak bardzo są
abstrakcyjne i skomplikowane. Niemniej jednak przekonanie to, zwane hipotezą Churcha-
Turinga, podzielane jest przez większość matematyków. Wynika z niego, że niezależnie od tego,
o jaki problem matematyczny chodzi, jeśli nie może on być rozwiązany przez maszynę Turinga,
to nie może być rozwiązany w ogóle. Ważną implikacją hipotezy Churcha-Turinga jest to, że
szczegóły konstrukcyjne konkretnego komputera są zupełnie nieistotne. Jeśli tylko logiczne
zasady jego działania są te same, co w przypadku uniwersalnej maszyny Turinga, wyniki będą
zawsze takie same. Innymi słowy, komputery są w stanie wzajemnie symulować swoje działanie.
Prawdziwe komputery, którymi się dzisiaj posługujemy, wyposażone są w ekrany, drukarki,
plotery, stacje dysków i inne wymyślne urządzenia, jednakże logiczna zasada ich działania nadal
odpowiada idei uniwersalnej maszyny Turinga.
W połowie lat trzydziestych, gdy Turing prowadził swoje badania, wszystkie te ważne
praktyczne zastosowania jego idei były jeszcze sprawą przyszłości. Jemu samemu chodziło
przede wszystkim o program Hilberta mechanizacji matematyki, z którym zagadnienie liczb
obliczalnych i nieobliczalnych ma bezpośredni związek. Rozważmy (nieskończoną) listę liczb
obliczalnych, z których każda generowana jest przez jakąś maszynę Turinga. Wyobraźmy sobie
uniwersalną maszynę Turinga, której powierzono zadanie sporządzenia tej samej listy poprzez
kolejne symulowanie działania każdej z tych maszyn. Pierwszym krokiem takiej maszyny byłoby
odczytanie szczegółów konstrukcyjnych danej maszyny. Rodzi się wtedy od razu pytanie: czy
uniwersalna maszyna Turinga jest w stanie rozstrzygnąć na podstawie tych szczegółów, jeszcze
przed przeprowadzeniem samych obliczeń, czy dana liczba zostanie faktycznie obliczona, czy też
obliczenia zawieszą się w jakimś miejscu? Przez zawieszenie rozumiemy tu, że obliczenia
zapętliły się i maszyna nie drukuje żadnego wyniku. Jest to tak zwany „problem zatrzymania” -
czy można z góry przewidzieć, na podstawie znajomości szczegółów procedury obliczeniowej,
czy maszyna obliczy po kolei wszystkie cyfry danej liczby i zatrzyma się, czy też wpadłszy w
pętlę, nie zatrzyma się nigdy.
Turing wykazał, że na problem zatrzymania odpowiedź jest zdecydowanie negatywna.
Posłużył się przy tym sprytnym rozumowaniem. Przypuśćmy, powiedział, że maszyna
uniwersalna jest w stanie rozwiązać problem zatrzymania. Co zatem stanie się, gdy maszyna ta
spróbuje symulować samą siebie? W ten sposób znów wróciliśmy do problemu samoreferencji.
Jak można tego oczekiwać, rezultatem jest zawieszenie się obliczeń. Usiłując symulować samą
siebie, maszyna wpada w stan permanentnej pętli. Tak więc Turing doszedł do niezwykłego
wniosku, będącego wariantem twierdzenia Godła o zdaniach nierozstrzygalnych: oto maszyna,
która ma sprawdzić, czy dana procedura obliczeniowa nie zawiesi się, sama się zawiesza! W tym
przypadku nierozstrzygalność dotyczy samych zdań nieroztrzygalnych: nie ma systematycznego
sposobu pozwalającego rozstrzygnąć, czy dane zdanie jest rozstrzygalne czy nierozstrzygalne.
Stanowiło to oczywiste zaprzeczenie możliwości zamierzonej przez Hilberta mechanizacji
matematyki: twierdzenie, którego prawdziwości ani fałszywości nie sposób udowodnić poprzez
systematyczną, ogólną procedurę. Głębokie znaczenie wniosku Turinga zostało obrazowo
przedstawione przez Douglasa Hofstadtera: „Matematyka przeniknięta jest na wskroś
nierozstrzygalnymi zdaniami, jak kawałek mięsa na stek przerośnięty jest włóknami chrząstki,
których nie da się wyciąć bez zniszczenia całego steku”.
Dlaczego możliwa jest arytmetyka?
Wnioski Turinga zazwyczaj przytacza się w odniesieniu do matematyki i logiki. Niemniej
jednak mówią nam one też coś o naturze rzeczywistego świata. W końcu, idea maszyny Turinga
oparta jest na naszym intuicyjnym pojmowaniu, czym w ogóle jest maszyna, a rzeczywiste
maszyny działają tylko dlatego, że umożliwiają im to prawa fizyki. Ostatnio fizyk teoretyczny z
Oxfordu David Deutsch ogłosił tezę, że obliczalność jest właściwie własnością empiryczną, to
znaczy zależy w istocie od tego, jaki jest świat, a nie jest wynikiem jakiejś koniecznej prawdy
logicznej. „Uzasadnienia, dlaczego możliwe jest - pisze Deutsch - zbudowanie, na przykład,
kalkulatorów elektronicznych czy też w ogóle wykonywanie obliczeń w pamięci, nie znajdziemy
w obrębie samej matematyki i logiki. Jest to możliwe tylko dlatego, że prawa fizyki są akurat
takie, iż dopuszczają istnienie fizycznej realizacji działań arytmetycznych, takich jak dodawanie,
odejmowanie i mnożenie. Gdyby tak nie było, te tak znane nam rachunki byłyby funkcjami
nieobliczalnymi”.
Teza Deutscha jest zaiste frapująca. Operacje arytmetyczne, takie jak liczenie, wydają się
nam tak wpisane w naturę rzeczy, że nie możemy wyobrazić sobie świata, w którym nie byłyby
one możliwe. Dlaczego tak jest? Sądzę, że odpowiedzi należy doszukiwać się w historii i naturze
matematyki. Arytmetyka dotyczyła początkowo czysto praktycznych aspektów życia
codziennego, takich jak pilnowanie, by nie zginęły owce ze stada, czy też elementarne rachunki.
Jednakże na bazie tych podstawowowych działań dodawania, odejmowania i mnożenia nastąpił
tak gwałtowny rozwój idei matematycznych i stały się one tak wyrafinowane, że ludzie stracili z
oczu ich skromny praktyczny rodowód. Innymi słowy, matematyka zaczęła żyć swoim własnym
życiem. Już w czasach Platona niektórzy filozofowie utrzymywali, że matematyce przysługuje
niezależne istnienie. A my tak bardzo przywykliśmy do wykonywania prostych działań
arytmetycznych, że z łatwością przychodzi nam wierzyć, iż muszą być one wykonywalne. Lecz
w rzeczywistości ich wykonywalność zależy w zasadniczy sposób od natury świata fizycznego.
Przykładowo, czy liczenie miałoby dla nas jakikolwiek sens, gdyby nie istniały oddzielne
przedmioty, jak monety lub owce?
Matematyk R.W. Hamming nie uznaje bynajmniej wykonywalności arytmetyki za rzecz
oczywistą, uznając to za fakt dziwny i niewyjaśniony. „Próbowałem bez powodzenia - pisze -
przekazać niektórym z moich przyjaciół moje zdumienie, że liczenie przy użyciu abstrakcyjnego
pojęcia liczby jest w ogóle możliwe i tak użyteczne. Czyż nie jest czymś niezwykłym, że sześć
owiec plus siedem owiec daje trzynaście owiec, i sześć kamieni plus siedem kamieni daje
trzynaście kamieni? Czyż to nie cud, że Wszechświat jest tak urządzony, iż tak proste pojęcia
abstrakcyjne jak liczba są możliwe?”.
Fakt, że własności obliczeniowe arytmetyki znajdują swe odbicie w realnym świecie, ma
głębokie implikacje. Oznacza, że w pewnym sensie świat fizyczny jest komputerem, tak jak
sądził Babbage. Albo, co bardziej istotne, iż komputery są w stanie nie tylko symulować
wzajemnie swoje działanie, lecz także symulować świat fizyczny. Oczywiście, jesteśmy
przyzwyczajeni do tego, że komputerów używa się do symulowania układów fizycznych; stąd w
istocie bierze się ich ogromna użyteczność. Jednak ta możliwość oparta jest na głębokiej i
subtelnej własności świata. Mamy ewidentnie do czynienia z zasadniczą zgodnością pomiędzy
prawami fizyki z jednej strony a obliczalnością funkcji matematycznych opisujących te właśnie
prawa z drugiej strony. Nie jest to bynajmniej truizm. Natura praw fizyki pozwala na to, by
pewne operacje matematyczne, takie jak dodawanie i mnożenie, były obliczalne. Stwierdzamy,
że wśród tych obliczalnych operacji były takie, które opisują (przynajmniej w przybliżeniu)
prawa fizyki.
Czy występowanie tego kręgu wzajemnych zależności jest czystym zbiegiem
okoliczności, czy też ta spójność jest czymś koniecznym? Czy świadczy to o jakichś głębszych
związkach pomiędzy matematyką a rzeczywistością? Wyobraźmy sobie świat, w którym prawa
fizyki są całkowicie odmienne, do tego stopnia, że nie istnieją odrębne przedmioty. Niektóre z
operacji matematycznych, które są obliczalne w naszym świecie, nie byłyby obliczalne w
tamtym, i na odwrót. W tym drugim świecie mogą istnieć odpowiedniki maszyny Turinga, ale
ich struktura i działanie byłyby na tyle odmienne, że nie potrafiłyby na przykład wykonywać
podstawowych operacji arytmetycznych, choć być może mogłyby w tamtym świecie wykonywać
operacje, których komputery w naszym świecie nie są w stanie wykonać (na przykład
rozwiązywałyby Wielkie Twierdzenie Fermata).
Pojawia się teraz szereg interesujących dodatkowych pytań: czy prawa fizyki w tym
hipotetycznym alternatywnym świecie dawałyby się wyrazić w kategoriach obliczalnych operacji
tego świata, czy też taka wewnętrzna spójność przysługuje tylko pewnej ograniczonej liczbie
światów? A może wyłącznie naszemu światu? Czy na pewno wszystkie aspekty naszego świata
dają się wyrazić poprzez operacje obliczalne? Czy możliwe są w ogóle procesy fizyczne, których
nie można symulować za pomocą maszyny Turinga? Tymi intrygującymi pytaniami dotyczącymi
związku pomiędzy matematyką a światem realnym zajmę się następnym rozdziale.
Matrioszki i sztuczne życie
Fakt, że uniwersalne komputery są w stanie się wzajemnie symulować, ma istotne
konsekwencje. W praktyce oznacza bowiem, że, przy odpowiednim zaprogramowaniu i
zapewnieniu wystarczającej ilości pamięci, zwykły IBM PC może doskonale naśladować na
przykład potężnego Craya pod względem wyników (a nie szybkości) obliczeń. Wszystko, co
potrafi zrobić Cray, potrafi i komputer osobisty. W istocie uniwersalny komputer nie musi
dorównywać stopniem skomplikowania nawet pecetowi; wystarczy, że składa się z szachownicy
i kompletu pionków. Taki prosty system został po raz pierwszy rozpatrzony przez Stanisława
Ulama i Johna von Neumanna w latach pięćdziesiątych jako przykład tak zwanej „teorii gier”.
Ulam i von Neumann pracowali w Los Alamos National Laboratory, gdzie prowadzono
badania nad bombą atomową w ramach projektu Manhattan. Ulam uwielbiał grać w różne gry na
komputerach, co było w tych czasach jeszcze wielką nowością. Jedna z takich gier polegała na
tym, że pewne układy elementów zmieniane są według ustalonych reguł. Wyobraźmy sobie na
przykład szachownicę z pionkami tworzącymi na niej pewien układ. Można wtedy rozważać
różne reguły, według których ten układ może być zmieniany. Przykładowo: z każdym polem
szachownicy sąsiaduje osiem innych pól (łącznie z polami po przekątnej). Stan danego pola (to
znaczy to, czy stoi na nim pionek, czy nie) pozostawiamy bez zmian, jeżeli na sąsiednich polach
stoją dokładnie dwa pionki. Jeśli pole, na którym stoi pionek, sąsiaduje z trzema zajętymi polami,
to pionek pozostawiamy; we wszystkich innych przypadkach pole opróżnia się. Po wybraniu
pewnego początkowego ułożenia pionków reguła ta zostaje zastosowana do każdego pola
szachownicy, w wyniku czego otrzymujemy nieco odmienny układ pionków. Znowu stosujemy
tę samą regułę i ułożenie pionków znowu się zmienia. Procedurę tę powtarza się wielokrotnie i
obserwuje ewolucję struktury pionków na szachownicy.
Johna Conwaya, który w 1970 roku wynalazł podane powyżej reguły, z miejsca uderzyło
bogactwo i różnorodność struktur, do jakich one prowadziły. Struktury pojawiały się i ginęły,
ewoluowały, poruszały się po szachownicy, dzieliły i zlewały. Pod wrażeniem podobieństwa
zachowania się tych układów do żywych organizmów Conway nazwał swą grę „ŻYCIE”.
Wkrótce stała się ona ulubioną rozrywką fanów komputerowych z całego świata. Do śledzenia
ewolucji struktur nie potrzebna im była wcale szachownica; o wiele łatwiej było zaprogramować
komputer tak, aby wyświetlał je bezpośrednio na ekranie, przy czym pojedynczy piksel
(świecący punkt na ekranie) odpowiadał pionkowi. Niezwykle przystępny opis tej gry można
znaleźć w książce The Recursive Universe Williama Pounstone'a, zawierającej również tekst
programu dla wszystkich, którzy chcieliby zagrać w ŻYCIE na swoim własnym komputerze.
Tych, którzy mają komputer Amstrad PCW 8256, na jakim piszę właśnie tę książkę, będą
zapewne zainteresowani tym, że program do gry w ŻYCIE został fabrycznie wprowadzony do
tego typu komputerów i można go uruchomić za pomocą paru prostych poleceń.
Można potraktować przestrzeń, w której ewoluują układy punktów, jako model
Wszechświata, przy czym reguły Conwaya odpowiadałyby prawom fizyki, a upływ czasu
następuje skokowo. Wszystko, co wydarza się w tym świecie, ma charakter ściśle
deterministyczny: każdy kolejny układ jest całkowicie wyznaczony przez układ go
poprzedzający. Układ wyjściowy determinuje zatem wszystkie przyszłe układy, ad infinitum. Pod
tym względem świat ŻYCIA odpowiada newtonowskiej wizji Wszechświata jako mechanizmu
zegarowego. Faktycznie, mechanistyczny charakter gier tego typu zyskał im miano „automatów
komórkowych”, przy czym przez komórki rozumie się tutaj odpowiednio pola lub punkty na
ekranie.
Wśród nieskończonej różnorodności form występujących w ŻYCIU są takie, które
poruszając się zachowują swoją postać. Należą do nich tak zwane „szybowce”, złożone z pięciu
punktów, i większe obiekty, zwane „statkami kosmicznymi”. W wyniku zderzeń tych form
powstają najróżniejsze struktury i formy odpadowe, w zależności od sytuacji. Szybowce mogą
być wytwarzane przez „działo”, wyrzucające je kolejno jako strumień w regularnych odstępach
czasu. Co ciekawe, działo może powstać w wyniku zderzenia trzynastu szybowców, tak więc
szybowce rodzą szybowce. Innymi często spotykanymi formami są „bloki”, stacjonarne kwadraty
złożone z czterech punktów, niszczące obiekty, które się z nimi zderzają. Dalej mamy bardziej
destrukcyjne „pożeracze”, które rozbijają i pochłaniają przechodzące w pobliżu obiekty, a
następnie odbudowują ewentualne ubytki, jakie spowodowało w nich takie spotkanie. Conway i
jego współpracownicy odkryli, że w ŻYCIU występują niewiarygodnie bogate i złożone
struktury, co niekiedy było sprawą przypadku, a niekiedy wymagało sporych umiejętności i dużej
dozy intuicji. Niektóre z bardzo interesujących układów wymagają niezwykle dokładnego
zgrania olbrzymiej liczby złożonych obiektów i pojawiają się dopiero po wielu tysiącach kroków.
Śledzenie tych bardziej zaawansowanych struktur ŻYCIA wymaga już komputerów o bardzo
dużej mocy obliczeniowej.
Świat ŻYCIA stanowi oczywiście jedynie blade odbicie rzeczywistości, a podobieństwo
jego mieszkańców do istot żywych jest dość powierzchowne. Niemniej jednak struktura logiczna
ŻYCIA kryje w sobie zdolność generowania struktur o dowolnym stopniu złożoności, w zasadzie
nawet tak złożonych jak organizmy biologiczne. W istocie zainteresowanie von Neumanna
automatami komórkowymi wzięło swój początek z jego dążenia do rozwikłania tajemnicy życia.
Fascynowało go, czy można w ogóle zbudować maszynę, która byłaby zdolna do
samoreprodukcji, a jeśli tak, to jaka powinna być jej struktura i zasada działania. Gdyby taka
maszyna była możliwa, to bylibyśmy w stanie pojąć zasady, dzięki którym organizmy żywe
mogą się samoreprodukować.
Rozumowanie von Neumanna opierało się na pojęciu „uniwersalnego konstruktora”,
analogicznego do pojęcia uniwersalnego komputera. Miałaby to być maszyna, którą można by
zaprogramować tak, by produkowała każdą zadaną rzecz, podobnie jak maszynę Turinga można
zaprogramować tak, by wykonywała dowolną obliczalną operację matematyczną. Von Neumann
rozważał, co będzie, gdy zaprogramuje się uniwersalnego konstruktora tak, aby produkował
samego siebie. Oczywiście, aby można było mówić o pełnej samoreprodukcji, maszyna powinna
nie tylko wykonywać kopię samej siebie, ale i kopię programu prowadzącego do wykonania
takiej kopii; w przeciwnym przypadku maszyna pochodna byłaby „bezpłodna”. Pojawia się tu
wyraźne niebezpieczeństwo postępowania w nieskończoność, lecz von Neumann wpadł na
sprytny sposób obejścia tego problemu: uniwersalny konstruktor powinien być wyposażony w
specjalny mechanizm regulujący. Gdy konstruktor wyprodukuje już kopię samego siebie
(zawierającą oczywiście także kopię mechanizmu regulującego), mechanizm ten wyłącza
program i pozwala go traktować jako jeszcze jedną część urządzenia. Maszyna von Neumanna
wykonuje zatem także kopię programu i umieszcza go w nowej maszynie, która w ten sposób nie
różni się już niczym od maszyny macierzystej i może uruchomić swój własny program
reprodukcji.
Początkowo von Neumann zamierzał zbudować prawdziwą maszynę o takich
własnościach, „z drucików i śrubek”, lecz Ulam przekonał go, że lepiej będzie zbadać
teoretycznie zachowanie automatów komórkowych pod względem występowania struktur
samoreprodukujących. W ten sposób maszyna von Neumanna miałaby być jedynie układem
punktów świetlnych na ekranie czy też pionków na szachownicy, lecz nic to nie szkodzi, gdyż
ważna jest jedynie logiczna i systemowa struktura takiej maszyny, a nie konkretny sposób jej
realizacji. Po żmudnych badaniach von Neumannowi i jego współpracownikom udało się
wykazać, że zdolność samoreprodukowania się faktycznie pojawia się w układach powyżej
pewnego stopnia złożoności; wymaga to jednak rozważania automatów komórkowych o regułach
o wiele bardziej skomplikowanych niż w przypadku ŻYCIA. Zamiast przypisywania każdej
komórce zaledwie jednego z dwóch stanów - pusta lub pełna - automat von Neumanna
dopuszczał co najmniej dwadzieścia jeden możliwości. Rzeczywiste zbudowanie automatu
samoreprodukującego było zadaniem beznadziejnym - uniwersalny konstruktor wraz z
mechanizmem regulującym i pamięcią musiałby zajmować co najmniej dwieście tysięcy
komórek - lecz ważne było to, że oto w zasadzie czysto mechaniczny system zdolny jest do
samoreprodukcji. W jakiś czas po tych matematycznych badaniach von Neumanna nastąpił
rozkwit biologii molekularnej: odkrycie struktury DNA w kształcie podwójnej helisy, odczytanie
kodu genetycznego i wyjaśnienie podstawowych zasad reprodukcji organizmów na poziomie
molekularnym. Wkrótce stało się jasne, że przyroda stosuje się właśnie do logicznych zasad
odkrytych przez von Neumanna. Biolodzy istotnie znaleźli wewnątrz komórek organicznych
rzeczywiste molekuły będące odpowiednikami elementów maszyny von Neumanna.
Conwayowi udało się również pokazać, że w grze ŻYCIE również mogą wystąpić
struktury samoreprodukujące się. Względnie prosty schemat produkowania szybowców przez
szybowce nie podpada jednak pod tę kategorię, gdyż nie zachodzi w nim powielanie
uniwersalnego programu samoreprodukcji. Potrzeba czegoś o wiele bardziej skomplikowanego.
Conway rozważył najpierw zagadnienie pokrewne: czy w świecie ŻYCIA możliwe jest
zbudowanie maszyny Turinga (tj. uniwersalnego komputera)? Działanie każdego komputera
uniwersalnego opiera się na logicznych operacjach koniunkcji („I”), alternatywy („LUB”) i
negacji („NIE”). W zwykłym elektronicznym komputerze operacje te są realizowane poprzez
proste układy przełącznikowe, zwane bramkami logicznymi. Na przykład bramka „I” ma dwa
przewody wejściowe i jeden przewód wyjściowy. Jeżeli w obu przewodach wejściowych pojawi
się impuls elektryczny, to generowany jest impuls w przewodzie wyjściowym. Gdy brak sygnału
na wejściu lub jest on podany tylko w jednym przewodzie, na wyjściu nie otrzymujemy żadnego
impulsu. Komputer składa się z olbrzymiej liczby połączonych ze sobą elementów tego typu.
Obliczenia wykonywane są poprzez przedstawienie liczb w postaci dwójkowej, jako ciągi
jedynek i zer. Fizycznie jedynka odpowiada impulsowi prądu, a zero brakowi impulsu. Nie jest
jednak wcale konieczne, aby obliczenia realizowane były poprzez układy obwodów
elektrycznych. Każde urządzenie pozwalające na wykonanie tych samych operacji logicznych
będzie również odpowiednie do tego celu. Mogą to być równie dobrze kółka zębate (jak w
Maszynie Analitycznej Charlesa Babbage'a), wiązki światła laserowego czy też świetlne punkty
na ekranie komputera.
Po wielu eksperymentach i rozważaniach teoretycznych Conway był w stanie wykazać,
że odpowiednie układy logiczne mogą być rzeczywiście zbudowane w świecie ŻYCIA.
Zasadnicza idea polegała na wykorzystaniu ciągów szybowców do reprezentowania liczb w
postaci dwójkowej. Na przykład, liczba 1011010010 może być przedstawiona poprzez
zastąpienie każdej z jedynek szybowcem i pozostawienie miejsc wolnych zamiast zer. Bramki
logiczne można wtedy zrealizować jako strumienie szybowców krzyżujące się w określony
sposób. Tak zatem bramka „I” będzie generowała szybowiec tylko wtedy, gdy dojdą do niej
równocześnie szybowce z obu strumieni wejściowych (co odpowiada operacji l + l -» 1). Aby to
wykonać i zapewnić wystarczającą ilość pamięci dla przechowania informacji, Conwayowi
potrzeba było tylko czterech rodzajów występujących w ŻYCIU struktur: szybowców, dział,
pożeraczy i bloków.
Potrzeba było dużej dozy sprytnych chwytów, aby odpowiednio rozmieścić wszystkie
elementy i zgrać ich ewolucję. Tak czy owak okazało się, że wszystkie niezbędne elementy
logiczne można w ten sposób utworzyć, i świetlne kropki w świecie ŻYCIA całkiem dobrze,
choć może nieco zbyt wolno, są w stanie spełniać rolę uniwersalnego komputera. Rezultat ten ma
fascynujące implikacje. Występują tu dwa poziomy. Po pierwsze, mamy komputer z
odpowiednim programem realizujący na swym ekranie grę w ŻYCIE, po drugie struktury
ŻYCIA same z kolei funkcjonują na wyższym poziomie jako komputer. Teoretycznie hierarchia
ta może obejmować dowolnie wiele poziomów: komputer ŻYCIA można zaprogramować tak, by
sam grał w ŻYCIE produkując kolejny poziom struktur... Niedawno uczestniczyłem w
konferencji poświęconej badaniom układów złożonych, na której dwaj informatycy z
Massachusetts Institute of Technology, Tom Toffoli i Norman Margolus, zademonstrowali
działanie logicznej bramki „I” w postaci struktury na ekranie komputera. Pokazowi przyglądał się
również Charles Bennett z IBM, ekspert w dziedzinie matematycznych podstaw informatyki i
teorii układów złożonych. Zwróciłem Bennettowi uwagę, że właśnie widzimy elektroniczny
komputer symulujący komórkowy automat symulujący komputer. Bennett odpowiedział, że ta
hierarchia poziomów obliczeniowych przywodzi mu na myśl rosyjskie lalki-matrioszki.
Fakt, że za pomocą struktur ŻYCIA możemy zrealizować koncepcję uniwersalnego
komputera, oznacza, iż wszystkie wnioski z analiz Turinga mogą być przetransponowane w świat
ŻYCIA. Na przykład będziemy tu również mieli do czynienia z operacjami nieobliczalnymi.
Pamiętajmy, że nie ma systematycznego sposobu na sprawdzenie z góry, czy dany problem jest
możliwy do rozstrzygnięcia przez maszynę Turinga; końcowego stanu maszyny Turinga nie da
się poznać wcześniej. A zatem nie jesteśmy również w stanie poznać, co stanie się z
odpowiadającymi jej strukturami ŻYCIA, pomimo iż struktury te powstają w sposób ściśle
deterministyczny. Sądzę, że jest wniosek niezwykle doniosły, mający daleko idące konsekwencje
dla całej rzeczywistości. Okazuje się bowiem, że w świecie ŻYCIA zawarty jest element
przypadkowości czy też niepewności (nie bardzo śmiem nazwać to „wolną wolą”), zupełnie jak
w świecie rzeczywistym, i wynika on z ograniczeń narzucanych przez samą logikę, o ile tylko
rozpatrywane układy osiągną wystarczający stopień złożoności, by możliwa była samoreferencja.
Samoreferencja i samoreprodukowanie się stanowią pojęcia ściśle ze sobą związane;
skoro wiec udało się udowodnić istnienie uniwersalnych komputerów na bazie struktur ŻYCIA,
otworzyła się przed Conwayem możliwość wykazania istnienia również uniwersalnych
konstruktorów, a zatem w pełni samoreprodukujących się struktur ŻYCIA. I w tym przypadku
nie chodziło o znalezienie konkretnej struktury tego typu, gdyż byłaby ona naprawdę ogromna.
Niemniej Conway rozumował, że w nieskończonym świecie ŻYCIA z punktami
rozmieszczonymi w sposób przypadkowy struktury samore-produkujące się musiałyby gdzieś
powstać na mocy czystego przypadku. Jakkolwiek prawdopodobieństwo samoistnego utworzenia
tak złożonych i ściśle dobranych struktur jest astronomicznie małe, w naprawdę nieskończonym
świecie wszystko, co w ogóle może się zdarzyć, na pewno się wydarzy. Można nawet sobie
wyobrazić coś na kształt ewolucji typu darwinowskiego, prowadzącej do wyłonienia struktur
samoreprodukujących się o jeszcze wyższym stopniu komplikacji.
Niektórzy entuzjaści ŻYCIA utrzymują, że takie samoreprodukujące się struktury byłyby
naprawdę żywe, ponieważ posiadałyby wszystkie atrybuty, jakie przysługują organizmom
żywym w naszym Wszechświecie. Jeśli życie zdefiniujemy jako energię zorganizowaną w
struktury o odpowiednio wysokim stopniu złożoności, będą oni mieli rację. Faktem jest, że
istnieje obecnie nawet odrębna dyscyplina naukowa, „studia nad sztucznym życiem”, zajmująca
się generowanymi komputerowo strukturami obdarzonymi zdolnością samoorganizacji i
przystosowywania się. Stawia ona sobie za cel odróżnienie istoty tego, co to znaczy „być
żywym”, od przypadkowych elementów rzeczywistych istot żyjących. Na jednej z ostatnich
konferencji na temat sztucznego życia informatyk Chris Langdon wyjaśniał: „Jesteśmy
przekonani, że uda nam się urzeczywistnić na komputerach światy wystarczająco złożone, by
możliwe były w nich procesy, które w odniesieniu do danego świata należałoby uznać za formy
życia. Ale w takim przypadku mielibyśmy do czynienia z życiem na zupełnie odmiennym
podłożu. (...) Rodzi się zatrważająca możliwość, że to właśnie my stworzymy następną generację
istot żywych we Wszechświecie”
6
. Poundstone zgadza się z tym poglądem: „Jeżeli za kryterium
życia uznamy nietrywialne samoreprodukowanie się, to samoreplikujące się struktury ŻYCIA
należałoby uważać za istoty żywe. Nie znaczyłoby to bynajmniej, że symulują one zachowanie
istot żywych, jak w przypadku obrazu telewizyjnego, lecz że są naprawdę żywe, gdyż obdarzone
są zdolnością kodowania i przetwarzania informacji genetycznej. Przy takim rozumieniu życia
nawet najprostsze samoreprodukujące się struktury ŻYCIA są istotami żywymi, i to w większym
stopniu niż wirusy”
7
.
John Conway posuwa się jeszcze dalej, utrzymując, że bardziej zaawansowane struktury
ŻYCIA mogłyby być obdarzone świadomością: „Jest prawdopodobne, o ile tylko, początkowo
chaotyczna, populacja ŻYCIA będzie wystarczająco duża, że po odpowiednio długim czasie
powstaną samoreplikujące się istoty inteligentne, które osiądą w jakimś miejscu kosmosu”
8
. Idee
tego typu wzbudzają jednak naturalny opór. W końcu świat ŻYCIA to tylko komputerowa
symulacja. Przecież nie jest on światem prawdziwym. Struktury poruszające się po ekranie
zaledwie imitują istoty żywe. Ich zachowanie nie ma charakteru spontanicznego; to tylko
realizacja komputerowego programu do gry w ŻYCIE. Jednakowoż, odpowiadają na to
entuzjaści ŻYCIA, zachowanie się struktur świata fizycznego również jest „zaprogramowane” w
postaci praw fizyki i zadanych warunków początkowych. Chaotyczny rozkład punktów, z
którego może się zrodzić samoreprodukująca się struktura ŻYCIA, odpowiada bezpośrednio
równie chaotycznej pierwotnej zupie molekularnej, z której miały powstać pierwsze organizmy
żywe na Ziemi.
A więc, w jaki sposób możliwe jest odróżnienie świata rzeczywistego od jego imitacji?
Będzie to tematem następnego rozdziału.
Rozdział piąty
ŚWIAT RZECZYWISTY I ŚWIATY WIRTUALNE
Sny fascynują każdego z nas. Ludzie, którzy tak jak ja mają sny bardzo barwne, często
doświadczają sytuacji, że są „uwięzieni” we śnie, który wydaje się im rzeczywistością. Ogromne
uczucie ulgi, jakie towarzyszy potem przebudzeniu, jest naprawdę niekłamane. Jednak po
wielekroć zastanawiałem się, dlaczego, zważywszy, że sen jest jednak również pewną
rzeczywistością, czynimy tak ostre rozróżnienie między tym, czego doświadczamy śpiąc i po
przebudzeniu. Czy możemy być absolutnie pewni, że „świat snu” jest zaledwie ułudą, a „świat
jawy” czymś realnym? A może jest właśnie na odwrót, albo też obydwa są równie realne, albo
żaden z nich? Jakie kryteria realności należałoby zastosować, aby tę kwestię rozstrzygnąć?
Zazwyczaj w takim przypadku słyszymy odpowiedź, że sny stanowią doświadczenie
jednostkowe, podczas gdy doświadczenie świata, który jawi się nam po przebudzeniu, jest spójne
z doświadczeniem innych ludzi. Ale niewiele nam to pomoże. We śnie wiele razy spotykałem
różne osoby, które zapewniały mnie, że są jak najbardziej rzeczywiste i że doświadczają tego
samego co ja. Na jawie muszę wierzyć innym ludziom na słowo, że świat, jaki oni widzą, jest
podobny do mojego, ponieważ nie jestem w stanie uczestniczyć bezpośrednio w ich
doświadczeniu. W jaki zatem sposób mam poznać, że twierdzenia te są prawdziwe, a nie
wygłaszane przez postać ze snu, albo też odpowiednio skomplikowany, lecz pozbawiony
świadomości automat? Nie na wiele zda się tu wskazywanie faktu, że sny są na ogół niespójne,
fragmentaryczne i absurdalne. Tak zwany świat realny często też nam się taki wydaje po wypiciu
kilku kieliszków wina lub też po przebudzeniu z narkozy.
Symulowanie rzeczywistości
Powyższe uwagi dotyczące snów miały przygotować czytelnika do rozważań nad
rzeczywistością symulowaną za pomocą komputerów. W poprzednim rozdziale dowodziłem, że
komputer jest w stanie symulować procesy fizyczne zachodzące w świecie rzeczywistym,
potencjalnie nawet tak złożone, z jakimi mamy do czynienia w biologii. Z drugiej strony,
widzieliśmy, że w gruncie rzeczy komputer jest niczym innym jak procedurą przekształcania
jednego ciągu symboli na inny według pewnych zadanych reguł. Zazwyczaj symbolami tymi są
liczby, a konkretnie ciągi jedynek i zer, które stanowią formę liczb najbardziej nadającą się do
przetwarzania przez maszyny. Każda jedynka lub zero odpowiada jednemu bitowi informacji, tak
wiec komputer jest urządzeniem, które pobiera ciąg bitów na wejściu i generuje inny ciąg bitów
na wyjściu. W jaki sposób ten pozornie trywialny zespół abstrakcyjnych operacji miałby być w
stanie uchwycić istotę fizycznego świata?
Porównajmy działanie komputera z jakimś układem fizycznym występującym w
przyrodzie, na przykład planetą krążącą wokół Słońca. Stan tego układu w dowolnej chwili może
być określony przez podanie położenia i prędkości planety. To są dane wejściowe. Odpowiednie
liczby mogą być podane w postaci dwójkowej, jako ciąg jedynek i zer. W jakiś czas później
planeta będzie miała inne położenie i prędkość, które mogą być wyrażone jako odpowiedni ciąg
bitów. To są dane wyjściowe. Planecie udało się przekształcić jeden ciąg bitów w inny i dlatego
w pewnym sensie możemy ją uważać za komputer. „Program”, który posłużył do tej konwersji,
stanowią właściwe prawa fizyki (w tym przypadku prawa dynamiki i powszechnego ciążenia
Newtona).
Naukowcy w coraz większym stopniu zdają sobie sprawę z podobieństw, jakie zachodzą
pomiędzy procesami fizycznymi a komputerami, i często uznają za korzystne myślenie o świecie
w kategoriach komputerowych. „Prawa nauki pełnią obecnie rolę algorytmów - twierdzi Stephen
Wolfram z Institute for Advanced Study w Princeton. - Układy fizyczne uważa się za systemy
obliczeniowe, przetwarzające informację tak, jak czynią to komputery”. Weźmy na przykład gaz.
Stan gazu można określić przez podanie położenia i prędkości wszystkich jego cząsteczek w
określonej chwili (z określoną dokładnością). Stanowiłoby to ogromnie długi ciąg bitów. Stan
gazu w jakiejś późniejszej chwili będzie wyznaczony przez inny równie długi ciąg bitów. A
zatem w wyniku dynamicznej ewolucji gazu nastąpiło przekształcenie danych wejściowych w
wyjściowe.
Związek pomiędzy procesami w przyrodzie a operacjami obliczeniowymi jest jeszcze
bardziej umocniony przez teorię kwantów, która ujawnia, że wiele wielkości fizycznych, dotąd
uważanych za ciągłe, ma naprawdę charakter dyskretny. Tak więc atomy odznaczają się
oddzielnymi poziomami energii. Gdy atom zmienia swoją energię, następuje przejście pomiędzy
poziomami. Jeśli każdemu poziomowi przypiszemy jakąś liczbę, takie przejście można traktować
jako przekształcenie jednej liczby w drugą.
W ten sposób dotarliśmy do samej istoty przydatności komputerów we współczesnej
nauce. Ponieważ komputery potrafią symulować się wzajemnie, elektroniczny komputer jest w
stanie symulować każdy układ, który sam zachowuje się jak komputer. Stanowi to podstawę
komputerowego modelowania świata realnego. Planety, naczynia z gazem i różne inne rzeczy
zachowują się jak komputery, a zatem można je modelować. Lecz czy zachowanie każdego
fizycznego układu da się symulować w ten sposób? Wolfram uważa, że tak: „Oczekuje się, że
komputery są równie potężne pod względem swej mocy obliczeniowej, co jakikolwiek fizycznie
możliwy do zrealizowania układ, a zatem są one w stanie symulować dowolny układ fizyczny”.
Jeśli jest to prawdą, wynika stąd, że za pomocą odpowiednio złożonego systemu obliczeniowego
dałoby się w zasadzie symulować zachowanie całego fizycznego Wszechświata.
W poprzednim rozdziale wyjaśniałem, w jaki sposób automaty komórkowe, takie jak gra
ŻYCIE, są w stanie generować miniaturowe światy, w których również możliwe są obliczenia.
Nasuwa się nieodparty wniosek, iż świat ŻYCIA posiada wszystkie cechy świata rzeczywistego.
„Automaty komórkowe, które potrafią działać jako uniwersalny komputer, są w stanie imitować
działanie każdego możliwego komputera” - wyjaśnia Wolfram. I dalej: „skoro każdy proces
fizyczny może być przedstawiony jako proces obliczeniowy, mogą one również imitować
zachowanie każdego możliwego układu fizycznego”. Czyż więc miniaturowy świat automatu
komórkowego, taki jak świat ŻYCIA, można, przynajmniej w zasadzie, uczynić tak
„rzeczywistym”, że mógłby stanowić wierną replikę świata rzeczywistego? Wygląda na to, że
tak. Ale to rodzi następne kłopotliwe pytanie. Jeśli wszystkie układy fizyczne można traktować
jako komputery, natomiast komputery są w stanie doskonale imitować wszelkie układy fizyczne,
to czymże w końcu różni się świat rzeczywisty od symulacji?
Nasuwa się odpowiedź, że symulacje są zaledwie niedokładnymi przybliżeniami świata
rzeczywistego. Kiedy na przykład dokonuje się obliczenia orbity planety, dokładność danych
wejściowych jest ograniczona przez błędy obserwacji. Ponadto realistyczne programy
komputerowe w znacznym stopniu upraszczają opisywaną sytuację przez pominięcie zakłóceń
pochodzących od mniejszych ciał kosmicznych i tym podobnych. Niemniej jednak można sobie z
pewnością wyobrazić, że programy zostają coraz bardziej ulepszane, a dane zbierane są z coraz
większą dokładnością, aż symulacja staje się praktycznie nieodróżnialna od rzeczywistości.
Ale czy symulacja nie musi się załamać na pewnym poziomie dokładności? Przez długi
czas uważano, że na pytanie to należy odpowiedzieć twierdząco, wskutek tego, co uważano za
fundamentalną różnicę pomiędzy realnym światem fizycznym a jego cyfrową symulacją. Różnica
ta wiąże się z kwestią odwracalności w czasie. Jak wyjaśniałem już w rozdziale l, prawa fizyki są
odwracalne w tym sensie, że pozostają niezmienione, gdy zamienimy miejscami przyszłość i
przeszłość, tj. nie mają wbudowanego wyróżnionego kierunku upływu czasu. Otóż wszystkie
maszyny cyfrowe podczas swego działania wydzielają energię. Ta stracona energia wydziela się
wewnątrz urządzenia w postaci ciepła i trzeba ją odprowadzać. Gromadzenie się ciepła nakłada
istotne praktyczne ograniczenia na możliwości obliczeniowe komputerów, toteż wiele wysiłków
badawczych poświęca się problemowi jego minimalizacji. Problem ten dotyczy już
elementarnych obwodów logicznych komputera. Za każdym razem, gdy następuje przełączenie,
wydziela się dodatkowa ilość ciepła. Znamy to dobrze z życia codziennego. Trzask, który
słyszymy przy zapalaniu światła w pokoju, oznacza, że część energii, jaką zużyliśmy na
uruchomienie przełącznika, rozeszła się w postaci fal dźwiękowych; pozostała część przekształca
się na ciepło wewnątrz przełącznika. Ten wydatek energii jest celowo założony przy
projektowaniu przełącznika, aby oba stany, w jakich może się on znajdować - włączony i
wyłączony - odznaczały się stabilnością. Gdyby przełączanie stanów nie wiązało się z
wydatkowaniem energii, groziłoby to tym, że przełącznik będzie przechodził samoczynnie ze
stanu do stanu.
Rozproszenie energii przy przełączaniu jest procesem nieodwracalnym. Ciepło rozchodzi
się w otoczeniu i jest bezpowrotnie stracone. Nie jest możliwe skupienie w jakiś sposób
rozproszonej energii cieplnej i wykorzystanie jej do jakichkolwiek użytecznych celów bez dalszej
utraty równie wielkiej ilości energii w tym procesie. Jest to przykład działania drugiego prawa
termodynamiki, które zabrania takiego „darmowego” spożytkowywania rozproszonej energii
cieplnej. Niektórzy informatycy zwrócili jednak uwagę na to, że drugie prawo termodynamiki
jest prawem statystycznym obowiązującym w układach o wielu stopniach swobody. W istocie
same pojęcia ciepła i entropii związane są z chaotycznym ruchem cząsteczek, toteż mają sens
jedynie dla dużej liczby cząsteczek. Gdyby komputery udało się zminiaturyzować do tego
stopnia, że elementarne obwody logiczne składałyby się z kilku cząsteczek, czyż nie dałoby się
całkowicie wyeliminować wydzielania ciepła?
Jednakże wydawało się, że istnieją pewne przeszkody natury ogólnej nie pozwalające na
zrealizowanie tej idei. Weźmy na przykład pod uwagę opisaną w poprzednim rozdziale bramkę
„I”. Na wejściu mamy dwa kanały (przewody), na wyjściu tylko jeden. Cały cel operacji
koniunkcji sprowadza się do zamiany dwóch sygnałów na wejściu w jeden sygnał na wyjściu. Od
razu widać, że nie może to być proces odwracamy, gdyż nie ma możliwości odróżnienia, czy
brak impulsu na wyjściu spowodowany był brakiem impulsu w jednym przewodzie na wejściu, w
drugim czy też w obydwu. To zasadnicze ograniczenie stanowi odzwierciedlenie oczywistego
faktu, że w zwykłych działaniach arytmetycznych możemy podać odpowiedzi znając pytanie,
lecz nie na odwrót: w ogólnym przypadku nie jest możliwe wywnioskowanie pytań ze znanych
odpowiedzi. Jeżeli ktoś nam powie, że wynikiem pewnego sumowania jest liczba 4, składnikami
tej sumy mogły być 2 + 2, 3 + l lub 4 + 0. Mogłoby się zatem wydawać, że żaden komputer nie
może być puszczony do tyłu z przyczyn czysto logicznych.
W rozumowaniu tym jest jednak pewna luka, którą niedawno odkryli Rolf Landauer i
Charles Bennett z IBM. Przyjrzeli się oni bliżej nieodwracalności jako rzekomo nieodłącznej
własności procesu obliczeniowego i stwierdzili, że bierze się ona z odrzucania informacji.
Obliczając sumę 1+2 + 2, można najpierw dodać 2 i 2 otrzymując 4, a następnie dodać 4 do l, aby
otrzymać wynik końcowy 5. W tym ciągu operacji ma miejsce etap pośredni,z którego pozostaje
tylko liczba 4: występujące początkowo 2 + 2 zostały odrzucone jako niepotrzebne do
pozostałych obliczeń. Ale informacja nie musi być wcale odrzucana; możemy ją zachować.
Oczywiście potrzebna jest wtedy większa pojemność pamięci, aby pomieścić tę dodatkową
informację, jednak pozwoli to nam „odwracać” każdy proces obliczeniowy na dowolnym etapie i
przechodzić od odpowiedzi do pytań.
Jednak czy możliwe jest zbudowanie odpowiednich obwodów przełączających,
realizujących tę odwracalną logikę? Ed Fredkin z MIT odkrył, że tak. Przełącznik Fredkina miał
dwa kanały wejściowe i dwa kanały wyjściowe oraz dodatkowy „kanał kontrolny”. Dokonuje on
operacji logicznych w normalny sposób, ale zachowując pełną informację wejściową na wyjściu.
Proces obliczeniowy może być przeprowadzony w odwracalny sposób nawet na maszynie z
dyssypacją, tj. takiej, w której nieuchronnie część energii ulega rozproszeniu. (Przy jakiejkolwiek
praktycznej realizacji odwracalnego procesu obliczeniowego nie da się wyeliminować
bezpowrotnego rozpraszania ciepła). Niemniej na poziomie teoretycznym można rozważać
wyidealizowany układ, w którym zarówno procesy fizyczne, jak i obliczeniowe, przebiegałyby w
sposób odwracalny. Fredkin podał przykład wyimaginowanego zespołu sprężystych kulek
odbijających się w ściśle kontrolowany sposób od nieruchomych przegródek. Układ taki zdolny
byłby do wykonywania odwracalnych operacji logicznych. Ostatnio przedstawiono również inne
koncepcje komputerów odwracalnych.
Interesujące zagadnienie pojawia się przy rozważeniu statusu automatów komórkowych
jako komputerów. Komputery generowane przez grę ŻYCIE nie są odwracalne, gdyż reguły gry,
które doprowadziły do ich powstania, nie są odwracalne (następstwa pojawiających się struktur
me można odwrócić). Jednakże Norman Margolus skonstruował automat komórkowy innego
typu, który jest w stanie modelować odwracalny układ Fredkina z kulkami i przegródkami. Na
poziomie tego automatu jest to rzeczywiście odwracalny komputer, zarówno pod względem
obliczeniowym, jak i „fizycznym” (jakkolwiek nadal mamy do czynienia z nieodwracalną
dyssypacją energii na poziomie elektronicznego komputera, na którym zrealizowany został ten
automat komórkowy).
Fakt, że proces obliczeniowy może być przeprowadzony w sposób odwracalny, eliminuje
zasadniczą różnicę pomiędzy symulacją komputerową a rzeczywistym procesem fizycznym,
który jest przedmiotem tej symulacji. W istocie można odwrócić to porównanie i zapytać, w
jakim stopniu rzeczywiste procesy fizyczne są procesami obliczeniowymi. Jeżeli proces
obliczeniowy nie wymaga nieodwracalnych przełączników, czy zwykły ruch ciał fizycznych
może być uznany za część składową takiego procesu? Kilka lat temu udowodniono, że pewne
układy nieodwracalne, na przykład maszyny Turinga i automaty komórkowe oparte na regułach
nieodwracalnych, jak ŻYCIE, można zaprogramować, aby wykonywały każdy zadany cyfrowy
proces obliczeniowy, poprzez odpowiedni dobór ich stanu początkowego. Własność ta zwana jest
„uniwersalnością obliczeniową”. W przypadku ŻYCIA oznacza to, że można dobrać taką
strukturę wyjściową, która będzie umieszczała punkt w danym położeniu, jeżeli, na przykład,
pewna liczba jest liczbą pierwszą. Inna struktura będzie to czynić, jeżeli pewne równanie posiada
rozwiązanie, i tak dalej. W ten sposób ŻYCIE może być użyte do badania nierozwiązanych
problemów matematycznych, takich jak Wielkie Twierdzenie Fermata.
Zupełnie niedawno wykazano, że pewne odwracalne układy deterministyczne, takie jak
komputer Fredkina z kulkami i przegródkami, posiadają również własność uniwersalności
obliczeniowej, oraz że przysługuje ona nawet niektórym układom niedeterministycznym. Wydaje
się zatem, że uniwersalność obliczeniowa jest dosyć często spotykaną własnością układów
fizycznych. Jeśli jakiś układ posiada już tę własność, to na mocy definicji mogą w nim zachodzić
procesy o dowolnym dużym stopniu złożoności, jakie tylko mogą być symulowane za pomocą
maszyn cyfrowych. Można pokazać, że nawet układ tak prosty, jak układ trzech ciał
poruszających się w swym polu grawitacyjnym (np. dwie planety okrążające gwiazdę),
obdarzony jest uniwersalnością obliczeniową, a zatem odpowiednio dobierając położenia i
prędkości tych planet w pewnej chwili, można sprawić, że układ ten będzie obliczać na przykład
kolejne miejsca dziesiętne liczby n, trylionową liczbę pierwszą, czy też wynik kolizji miliarda
szybowców w świecie ŻYCIA. Być może ten pozornie trywialny układ trzech elementów byłby
w stanie symulować nawet zachowanie całego Wszechświata, jeśli, jak utrzymują niektórzy
entuzjaści, Wszechświat da się modelować za pomocą maszyny cyfrowej.
Zwykliśmy myśleć o komputerach jako o bardzo szczególnych układach, które wymagają
dużego wkładu myśli technicznej przy ich konstruowaniu. Nie da się zaprzeczyć, że
elektroniczne maszyny cyfrowe są skomplikowane, ale jest to związane z ich wszechstronnością.
Znaczna część niezbędnego programowania jest już zapewniona przez samą konstrukcję
komputera i nie trzeba go za każdym razem powtarzać przez odpowiedni dobór warunków
początkowych. Mimo to zdolność wykonywania obliczeń jest czymś, co, jak się wydaje,
przysługuje wielu układom fizycznym, w tym niektórym nawet bardzo prostym. Rodzi to
pytanie, czy jest możliwe przeprowadzanie obliczeń za pomocą układów pojedynczych atomów
czy wręcz cząstek elementarnych. Kwestią tą zajmował się fizyk Richard Feynman, który
wykazał, że zgodnie z prawami mechaniki kwantowej istnieje realna możliwość działania
odwracalnego komputera na poziomie cząstek elementarnych. Czy zatem możemy uważać, że
niezliczone procesy kwantowe zachodzące w przyrodzie przez cały czas - wewnątrz nas samych,
we wnętrzu gwiazd, w gazie międzygwiezdnym, w odległych galaktykach - stanowią część
jakiegoś gigantycznego kosmicznego procesu obliczeniowego? Gdyby tak było, procesy fizyczne
i obliczeniowe byłyby tym samym, i mielibyśmy prawo wyciągnąć zdumiewający wniosek, że
Wszechświat symuluje sam siebie.
Czy Wszechświat jest komputerem?
Osobą, która z naciskiem odpowiada twierdząco na to pytanie, jest Ed Fredkin. Uznając
świat fizyczny za gigantyczny automat komórkowy, uważa on, że badania nad automatami
komórkowymi wykazują, iż jest możliwe symulowanie realistycznych procesów fizycznych, w
tym nawet tak wyrafinowanych jak relatywistyczne. Przekonanie to podziela też współpracownik
Fredkina Tom Toffoli, który kiedyś w żartach wyraził się, że Wszechświat jest wprawdzie
komputerem, wszakże problem polega na tym, iż ktoś inny się nim posługuje. A my, no cóż,
jesteśmy zaledwie pchłami w tej wielkiej kosmicznej maszynie! „Pozostaje nam tylko - twierdzi
Toffoli - »załapać się« na ten olbrzymi proces obliczeniowy, próbując stwierdzić, czy jakieś jego
elementy nie podążają mniej więcej w kierunku, który by nam odpowiadał”.
Fredkinowi i Toffolemu nie brakuje wspólników w tych zdumiewających, można by
nawet rzec dziwacznych, poglądach. Fizyk Frank Tipler również opowiada się silnie za ideą
utożsamienia Wszechświata ze swoją własną symulacją. Co więcej, symulacja ta wcale nie musi
być przeprowadzana na prawdziwym komputerze, utrzymuje Tipler. Ostatecznie program
komputerowy to tylko przekształcenie (czy też odwzorowanie) jednego zbioru abstrakcyjnych
symboli w inny zgodnie z pewną regułą podającą zależność między wejściem a wyjściem.
Fizyczny komputer stanowi konkretną reprezentacje tego odwzorowania, podobnie jak rzymska
liczba III jest reprezentacją abstrakcyjnej liczby 3. Samo istnienie takiego odwzorowania - nawet
o charakterze abstrakcyjnym, w obszarze czystej matematyki - jest dla Tiplera wystarczające.
Należy zaznaczyć, że nasze współczesne teorie fizyczne nie przypominają na ogół
algorytmów komputerowych, gdyż wielkości w nich występujące zmieniają się w sposób ciągły.
W szczególności za ciągłe uznawane są przestrzeń i czas. „Możliwość, aby istniała wierna
symulacja, aby komputer robił to samo, co przyroda - wyjaśnia Richard Feynman - wymaga, by
wszystko, co zachodzi w skończonym obszarze przestrzeni i czasu, dało się dokładnie
przeanalizować za pomocą skończonej liczby operacji logicznych. Obecne teorie fizyczne nie
spełniają tego warunku. Przestrzeń traktowana jest w nich jako nieskończenie podzielna”
5
. Z
drugiej strony, ciągłość zarówno przestrzeni, jak i czasu, stanowią tylko postulaty dotyczące
świata. Nie można ich dowieść, bo nigdy nie będziemy pewni, czy w jakiejś jeszcze mniejszej
skali, daleko poniżej możliwości obserwacyjnych, przestrzeń i czas nie mają jednak charakteru
dyskretnego. Co to miałoby znaczyć? Po pierwsze, znaczyłoby, że czas upływa nie jednostajnie,
lecz małymi skokami. Sytuacja przypominałaby film wyświetlany w kinie, który posuwa się do
przodu zawsze o jedną klatkę. Film wydaje się nam czymś ciągłym, ponieważ nasze zmysły nie
rejestrują krótkich odstępów czasu pomiędzy klatkami. Podobnie w fizyce, aktualna technika
eksperymentalna pozwala na pomiar przedziałów czasu do 10
28
sekundy; przy tych wartościach
nie obserwuje się żadnych skoków. Jednakże niezależnie od tego, jak krótkie czasy będziemy w
stanie mierzyć, zawsze trzeba liczyć się z możliwością, że te małe przeskoki czasu są jeszcze
krótsze. To samo odnosi się do postulatu ciągłości przestrzeni, a zatem ta przeszkoda w
dokładnym symulowaniu rzeczywistości być może nie jest tak poważna.
Nadal jednak skłonni bylibyśmy uważać, że mapa jest czymś innym od terenu, który
przedstawia. Nawet gdyby mógł istnieć kosmiczny komputer tak niewiarygodnie potężny, że
byłby w stanie dokładnie symulować zachowanie każdego atomu we Wszechświecie, to przecież
komputer ten nie zawierałby w sobie Ziemi krążącej wokół Słońca, podobnie jak Biblia nie
zawiera Adama i Ewy. Symulacja komputerowa jest zazwyczaj traktowana jako reprezentacja,
czyli obraz rzeczywistości. Jak mógłby ktoś twierdzić, że procesy zachodzące we wnętrzu
komputera mogłyby stworzyć rzeczywisty świat?
Tipler replikuje, że zarzut ten może być słuszny jedynie z punktu widzenia zewnętrznego
wobec komputera. Gdyby istniał komputer na tyle potężny, że mógłby symulować świadomość, a
w konsekwencji i całą społeczność istot rozumnych, to z punktu widzenia tych istot wewnątrz
komputera świat symulacji byłby światem rzeczywistym:
„Zasadniczym pytaniem jest: czy symulowani ludzie są realni? Z ich własnego punktu
widzenia, z pewnością tak. Z założenia, jakiekolwiek działanie czy procedurę, które rzeczywiści
ludzie byliby w stanie przeprowadzić, aby dowieść, że naprawdę istnieją - związane z tym, że
myślą, oddziaływają z otoczeniem - zdolni są wykonać także ludzie symulowani, i faktycznie
wykonują. Nie ma wprost żadnego sposobu, by symulowani ludzie byli w stanie stwierdzić, że
»tak naprawdę« to są we wnętrzu komputera, że nie są istotami realnymi, lecz tylko
symulowanymi. Prawdziwa rzeczywistość, fizycznie istniejący komputer, jest dla nich stamtąd,
gdzie się znajdują, z wnętrza komputerowego programu, całkowicie niedostępna. (...) Nie ma
żadnej metody pozwalającej symulowanym ludziom na odróżnienie, że są zaledwie symulacją,
ciągami cyfr krążących po obwodach komputera, że nie są realni”.
Oczywiście cały wywód Tiplera opiera się na założeniu, że komputery są w stanie
symulować świadomość. Czy można to uznać za założenie rozsądne? Wyobraźmy sobie
komputer symulujący człowieka. Jeśli mamy do czynienia z symulacją doskonałą, obserwator
zewnętrzny nie wtajemniczony w sytuację nie byłby w stanie na podstawie rozmowy odróżnić,
czy ma do czynienia z symulacją komputerową czy też z rzeczywistą osobą należącą do naszego
świata. Obserwator taki mógłby zadawać symulowanej istocie różne pytania, otrzymując w pełni
sensowne, jak u człowieka, odpowiedzi; w wyniku czego byłby skłonny uznać, że ma do
czynienia z ludzką inteligencją. W istocie sam Alan Turing podjął to zagadnienie w swym
słynnym artykule zatytułowanym Czy maszyny myślą?, w którym przytoczył nawet przykładowe
pytania dla takiego testu. Jakkolwiek większość ludzi uważa przypuszczenie, że maszyny mogą
być obdarzone świadomością, za dziwaczne, jeśli nie wręcz absurdalne, szereg wybitnych
naukowców i filozofów wyznających tak zwaną silną zasadę sztucznej inteligenci przyjmowało
na tej podstawie, że w przypadku takiej symulacji komputerowej mielibyśmy do czynienia z
rzeczywistą świadomością.
Tym, którzy oswoili się z myślą, iż komputer o odpowiedniej mocy obliczeniowej może
być obdarzony świadomością, nie sprawi już większych trudności zaakceptowanie tezy, że
komputer może w zasadzie stworzyć całą społeczność istot inteligentnych. Członkowie tej
społeczności myśleliby i odczuwali, żyli i umierali, w obrębie swego symulowanego świata,
zupełnie nie zdając sobie sprawy z faktu, że zdani są na łaskę nieznanego operatora, który może
przecież w każdej chwili wyłączyć komputer! Taki byłby właśnie status inteligentnych istot
Conwaya bytujących w świecie ŻYCIA.
W wyniku całej tej dyskusji nasuwa się nieodparcie pytanie: skąd wiemy, że my sami
jesteśmy „realni”, a nie stanowimy zaledwie symulacji w ramach jakiegoś gigantycznego
komputera? „Jest oczywiste, że nie możemy mieć takiej pewności” - odpowiada Tipler. Lecz czy
ma to w ogóle jakieś znaczenie? Tipler jest zdania, że nie jest ważne, czy taki komputer
naprawdę istnieje, skoro i tak inteligentne istoty w jego wnętrzu nie mają żadnej możliwości, by
się o tym przekonać. Wystarczy przyjąć, że istnieje odpowiedni abstrakcyjny program (nawet
jeśli ma on tylko postać abstrakcyjnej tabelki), pozwalający zrealizować symulację świata. Z tego
samego powodu nie jest istotne, czy fizyczny świat naprawdę istnieje: „Taki fizycznie realny
świat byłby równoważny rzeczy-samej-w-sobie u Kanta. Jako empirycy zmuszeni jesteśmy
odrzucić taki z zasady niepoznawalny byt: istnienie świata sprowadza się do istnienia
abstrakcyjnego programu”
7
.
Niedogodnością tego stanowiska (niezależnie od tego, że zakrawa ono na reductio ad
absurdum) jest to, iż liczba możliwych abstrakcyjnych programów jest nieskończona. Dlaczego
zatem przedmiotem naszego doświadczenia jest ten właśnie Wszechświat? Tipler sądzi, że
wszystkie możliwe Wszechświaty, które dopuszczają istnienie świadomości, są przez kogoś
doświadczane. Nasz nie jest jedyny. Naturalnie, z definicji postrzegamy właśnie ten. Niemniej
istnieją inne Wszechświaty, z których wiele jest podobnych do naszego, mające swych własnych
mieszkańców, dla których ich Wszechświat jest pod każdym względem równie realny jak nasz
dla nas. (Jest to jedna z wersji kwantowomechanicznej hipotezy „wielu światów”, przyjmowanej
przez wielu wybitnych fizyków, którą opisywałem szczegółowo w mojej książce Other Worlds
[Inne światy]. Powrócę jeszcze do tego tematu w rozdziale 8). Programy realizujące światy, w
których nie ma istot inteligentnych, nie są przez nikogo poznawane, i być może z tego powodu
mogą być w pewnym sensie uważane za mniej realne. Zbiór programów zdolnych generować
światy poznawane stanowi zaledwie niewielki podzbiór zbioru wszystkich możliwych
programów. Nasz może tu uchodzić za typowy.
Nieosiągalne
Jeżeli Wszechświat stanowi „wyjście” jakiegoś procesu obliczeniowego, to z definicji
musi być obliczalny. Wyrażając się dokładniej, musi istnieć program albo algorytm, pozwalający
na otrzymanie właściwego opisu świata w skończonej liczbie kroków. Gdybyśmy znali ten
algorytm, dysponowalibyśmy pełną teorią Wszechświata, zawierającą również wartości
numeryczne wszystkich mierzalnych wielkości fizycznych. Co możemy powiedzieć o tych
liczbach? Jeżeli mają być one wynikiem obliczenia, muszą to być liczby obliczalne. Powszechnie
przyjmowano, że wartości wszystkich mierzalnych wielkości w teorii fizycznej są liczbami
policzalnymi, lecz ostatnio przypuszczenie to zostało zakwestionowane przez fizyków Roberta
Gerocha i Jamesa Hartle'a. Pokazują oni, że istnieją teorie fizyczne dopuszczające wielkości
mierzalne będące liczbami niepoliczalnymi. Wprawdzie są to teorie związane z bardzo
technicznymi aspektami czasoprzestrzeni, ale chodzi o samą zasadę.
Przypuśćmy, że z naszej wspaniałej teorii wynika, że jakaś wielkość, na przykład
stosunek mas dwóch cząstek elementarnych, wyraża się niepoliczalną liczbą x. Czy taka teoria
może być zweryfikowana? Sprawdzenie jakiegoś przewidywania wymaga porównania wartości
teoretycznej z wartością otrzymaną na podstawie eksperymentów. Oczywiście, jest to możliwe
tylko z określoną dokładnością. Załóżmy, że błąd oczekiwany wartości eksperymentalnej wynosi
10 procent. Zatem trzeba, abyśmy znali wartość x z dokładnością 10 procent. Jednak, jakkolwiek
wartość x istnieje, nie mamy żadnego skończonego algorytmu, żadnej systematycznej procedury
pozwalającej ją wyznaczyć. Z drugiej strony, potrzebujemy znać wartość x jedynie z
dokładnością 10 procent i niewątpliwie można znaleźć algorytm dający w wyniku ciąg coraz
lepszych przybliżeń x, których błąd będzie w końcu mniejszy niż 10 procent. Cały problem w
tym, że skoro nie znamy x, nie jesteśmy w stanie określić, kiedy znajdziemy się w granicach
dopuszczalnego błędu.
Mimo tych trudności, niewykluczone, że dziesięcioprocentowe przybliżenie może być
wyznaczone metodami niealgorytmicznymi. Konstruując algorytm musimy z góry określić
skończony ciąg standardowych instrukcji, aby potem otrzymywać żądany wynik stosując je w
czysto mechaniczny sposób. W przypadku liczby obliczalnej, takiej jak n, możemy sobie
wyobrazić komputer pracowicie wyliczający ciąg coraz to lepszych przybliżeń i określający za
każdym razem, jaka jest dokładność otrzymanego przybliżenia. Jednakże, jak się przekonaliśmy,
ta ogólna strategia zawodzi w przypadku liczb niepoliczalnych. Teoretyk będzie musiał
traktować każdy poziom dokładności jako odrębny problem, który należy rozwiązywać w
specyficzny sposób. Nawet jeżeli za pomocą jakiejś przemyślnej metody uda mu się wyznaczyć x
z dokładnością 10 procent, nie jest wcale powiedziane, że ta sama metoda pozwoli mu osiągnąć
dokładność jednoprocentową, toteż teoretyk będzie musiał się chwytać jakichś nowych, zupełnie
odmiennych sposobów. Każde zwiększenie dokładności wartości otrzymanych eksperymentalnie
zmuszać będzie naszego biednego teoretyka do coraz większego wysiłku, aby wyznaczyć daną
wartość teoretycznie z równą dokładnością.
Geroch i Hartle wskazują na fakt, że na ogół najtrudniejszym zadaniem jest
skontruowanie właściwej teorii; jej późniejsze zastosowanie jest już zazwyczaj procedurą czysto
mechaniczną. Trzeba było geniuszu Newtona, by stworzyć prawa dynamiki i powszechnego
ciążenia, natomiast wystarczy odpowiednio zaprogramować komputer, aby stosując tę teorię „na
ślepo”, przewidział datę najbliższego zaćmienia Słońca. W przypadku teorii, w której występują
wartości nieobliczalne, stosowanie teorii może być równie trudne, jak jej wcześniejsze
stworzenie. W istocie te dwie czynności nie będą się od siebie wyraźnie różniły.
Bez wątpienia teoretyk życzyłby sobie, żeby nasze teorie fizyczne takie nie były.
Jednakowoż nie możemy być pewni, że tak zawsze będzie. Mogą istnieć silne przesłanki za
przyjęciem konkretnej teorii, która, jak się potem okaże, przewiduje jakieś wielkości
nieobliczalne. Geroch i Hartle sugerują, że to właśnie ma miejsce w przypadku kwantowego
opisu czasoprzestrzeni. Czy należałoby odrzucić teorię wyłącznie z tego powodu? Czy są jakieś
przesłanki, by zakładać, że Wszechświat musi być opisywany tylko teoriami dającymi się
zastosować w sposób algorytmiczny? Tego nie wiemy, ale jednej rzeczy możemy być pewni.
Jeśli odpowiedź na to pytanie jest negatywna, cała, pod innymi względami tak bliska, analogia
pomiędzy przyrodą a komputerem zupełnie się załamuje.
Mając na uwadze powiedzenie Einsteina, iż Pan Bóg jest wyrafinowany, lecz nie
perfidny, załóżmy, że rzeczywiście żyjemy w „obliczalnym” Wszechświecie. Cóż zatem
jesteśmy w stanie wywnioskować o naturze programu, który, jak chcieliby nas przekonać
Fredkin, Tipler i im podobni, jest podłożem naszej rzeczywistości?
Niepoznawalne
Zajmijmy się przez chwilę konkretnym przypadkiem programu używanego w maszynie
cyfrowej, służącego na przykład do mnożenia ciągu liczb. Założeniem całej koncepcji jest, że
napisanie programu powinno być w jakimś sensie prostsze niż wykonanie operacji, do których
jest on przeznaczony. Gdyby tak nie było, nikt nie zawracałby sobie głowy komputerem, lecz po
prostu przeprowadził rachunki bezpośrednio. Można to wyrazić w ten sposób, że użyteczny
program komputerowy jest w stanie generować więcej informacji (w tym przypadku,
przeprowadzić bardzo wiele mnożeń), niż sam zawiera. Jest to nic innego, jak nieco udziwniony
sposób powiedzenia, że w matematyce poszukujemy prostych reguł, które mogą być stosowane
wielokrotnie, nawet przy bardzo skomplikowanych obliczeniach. Jednakże nie wszystkie
operacje w matematyce da się wykonać za pośrednictwem programu znacznie mniej złożonego
niż sama ta operacja. W istocie, z faktu istnienia liczb nieobliczalnych wynika, że dla pewnych
operacji nie istnieje żaden program. Zatem niektóre procesy matematyczne cechuje taka
złożoność wewnętrzna, że nie mogą być one ujęte w ramy zwięzłego programu.
W przyrodzie również mamy do czynienia z procesami o ogromnej złożoności, a zatem
rodzi się pytanie, czy można je zawrzeć w ramach zwięzłego opisu. Ujmując rzecz inaczej, czy
„program Wszechświata” jest znacząco prostszy niż sam Wszechświat? Stanowi to bardzo
głębokie pytanie dotyczące natury rzeczywistości fizycznej. Jeśli program komputerowy lub
algorytm jest prostszy niż układ, którego dotyczy, mówimy, że układ ten jest „algorytmicznie
upraszczalny”. Zatem mamy znaleźć odpowiedź na pytanie, czy Wszechświat jest algorytmicznie
upraszczalny.
Zanim zajmiemy się tym pytaniem, nie od rzeczy będzie rozważenie pojęcia
algorytmicznej upraszczalności nieco bardziej szczegółowo. Dziedzina, zwana algorytmiczną
teorią informacji, została stworzona w latach sześćdziesiątych w Związku Radzieckim przez
Andrieja Kołmogorowa oraz w Stanach Zjednoczonych przez Gregory Chaitina z IBM. U jej
podstaw leżało bardzo proste pytanie: jaki najkrótszy komunikat pozwala wyrazić układ o
pewnym stopniu złożoności? Jest oczywiste, że prosty układ da się wyrazić krótko, lecz złożony
układ już nie (spróbujcie opisać strukturę rafy koralowej za pomocą tej samej liczby słów, co w
przypadku opisu kostki lodu). Chaitin i Kołmogorow zaproponowali definicję złożoności układu
jako długości najkrótszego możliwego jego opisu.
Przyjrzyjmy się, jak to działa w przypadku liczb. Istnieją liczby proste, takie jak 2 lub n, i
liczby złożone, jak ciąg jedynek i zer otrzymany poprzez rzuty monetą (orzeł = 0, reszka = 1).
Czy możemy podać typ opisu pozwalający na jednoznaczne wyrażanie tych liczb? Jedną z
możliwości jest wypisywanie ich w postaci dziesiętnej lub dwójkowej (n można tak wyrazić
tylko jako konkretne przybliżenie, gdyż jej rozwinięcie dziesiętne ma długość nieskończoną).
Jednakże jest oczywiste, że nie jest to najkrótszy sposób ich opisu. Na przykład liczbę rt możemy
wyrazić krócej, podając wzór pozwalający na obliczenie jej z zadaną dokładnością. Jeżeli
przyjmiemy, że rozważane liczby otrzymujemy na wyjściu komputera, to najkrótszym opisem
danej liczby będzie najkrótszy program pozwalający komputerowi obliczyć tę liczbę. W ten
sposób za proste liczby będziemy uważać te, które są generowane przez krótkie programy, a za
złożone te, które wymagają długiego programu.
Następnym etapem jest porównanie długości danej liczby z długością programu, który ją
oblicza. Czy jest on krótszy? Czy faktycznie udało nam się w ten sposób osiągnąć uproszczenie?
Aby wyrazić to w sposób bardziej ścisły, przypuśćmy, że na wyjściu komputera otrzymujemy
ciąg jedynek i zer, taki jak ten:
101101011100010100110101001... (gdzie kropki „...” oznaczają „i tak dalej, nawet w
nieskończoność”). Ciąg ten będzie zawierał pewną ilość informacji, mierzoną w „bitach”.
Następnie chcemy porównać tę zawartość informacyjną z ilością informacji, jaką zawiera sam
program. By podać tu prosty przykład, załóżmy, że na wyjściu komputera otrzymaliśmy:
101010101010101010101010101010
Ten ciąg moży być wygenerowany za pomocą prostego algorytmu „Wydrukuj piętnaście
razy 10”. O wiele dłuższy ciąg otrzymamy za pomocą programu „Wydrukuj milion razy 10”. Ten
drugi program nie jest wcale bardziej skomplikowany niż pierwszy, a wynikiem jego działania
jest o wiele dłuższy ciąg informacyjny. Wynika stąd, że gdy ciąg wynikowy zawiera
jakiekolwiek struktury, to mogą być one wyrażone za pomocą prostego algorytmu, który może
być o wiele krótszy (przyjmując za jednostki bity informacji) niż pierwotnie otrzymany ciąg.
Mówimy wtedy, że ciąg jest algorytmicznie upraszczamy. Natomiast jeżeli, na odwrót, dla
danego ciągu nie da się podać algorytmu istotnie krótszego niż on sam, jest on algorytmicznie
nieupraszczalny. W tym przypadku ciąg nie będzie zawierał żadnych regularności ani struktur;
będzie to po prostu chaotyczny ciąg jedynek i zer. W ten sposób stopień możliwego do
osiągnięcia uproszczenia algorytmicznego może być uznany za praktyczną miarę złożoności
ciągu wynikowego, przy czym niska upraszczalność oznaczałaby większą złożoność. Ciągi
regularne da się znacznie uprościć, podczas gdy nie można tego uczynić dla ciągów, w których
nie występują żadne struktury.
Pojęcie algorytmicznej upraszczalności pozwala na ścisłe zdefiniowanie przypadkowości:
ciągiem przypadkowym będzie ciąg, który nie może być algorytmicznie uproszczony. Może nie
być łatwo stwierdzić na drodze czysto wizualnej, czy dany ciąg jest upraszczalny, gdyż
występujące w nim struktury mogą być bardzo wyrafinowane i głęboko ukryte. Każdy, kto
kiedykolwiek zajmował się łamaniem szyfrów, wie, że to, co na pierwszy rzut oka wydaje się
bezładnym zbiorowiskiem liter, może w rzeczywistości zawierać strukturę komunikatu; trzeba
jedynie znać klucz do szyfru. Nieskończone rozwinięcie dziesiętne (i jego dwójkowy
odpowiednik) liczby n nie wykazuje żadnych regularności, nawet w skali tysięcy cyfr, i cyfry te
według wszystkich standardowych testów statystycznych ułożone są czysto losowo. Na
podstawie znajomości pierwszego tysiąca cyfr tego rozwinięcia nie mamy żadnej możliwości
przewidzieć tysiąc pierwszej cyfry. A mimo to
TI
jest algorytmicznie upraszczalna, bowiem
dysponujemy prostym algorytmem pozwalającym na wyliczanie kolejnych miejsc po przecinku
tej liczby.
Chaitin wykazuje, że takie pojęcie matematycznej złożoności może być sensownie
zastosowane także do układów fizycznych: złożonością układu fizycznego jest minimalna
długość algorytmu pozwalającego go opisać lub symulować jego działanie. Na pierwszy rzut oka
definicja ta wydaje się dość arbitralna, ponieważ nie zostało określone, jakiego będziemy używać
komputera. Okazuje się jednak, że nie ma to większego znaczenia w sytuacji, gdy wszytkie
komputery uniwersalne są w stanie się nawzajem symulować. Podobnie nieistotne jest, jakim
językiem programowania - LISP, BASIC, FORTRAN - się posłużymy, gdyż napisanie ciągu
instrukcji tłumaczącego jeden język na drugi jest sprawą prostą. Zazwyczaj wydłużenie
programu, spowodowane dołączeniem do niego instrukcji konwertujących go na inny język i
pozwalających go uruchomić na innym komputerze, w porównaniu z jego pierwotną długością
jest niewielkie, a więc nie jest ważne, jakiego komputera faktycznie używamy. Jest to wniosek
bardzo istotny. Fakt, że definicja złożoności nie zależy od konkretnego komputera, świadczy o
tym, iż udało się w niej uchwycić jakąś realną cechę, niezależną od tego, w jaki sposób się ją
opisuje.
Więcej trudności przysparza pytanie, czy konkretny wybrany algorytm jest rzeczywiście
najkrótszym z możliwych. Jeśli uda się znaleźć jeszcze krótszy, odpowiedź jest oczywiście
negatywna. Natomiast w ogólnym przypadku okazuje się niemożliwe udzielenie definitywnej
odpowiedzi pozytywnej. Powody tego stanu rzeczy sięgają twierdzenia Godła o
nierozstrzygalności. Jak pamiętamy, punktem wyjściowym tego twierdzenia była matematyczna
wersja „antynomii kłamcy”, czyli paradoksalnych wypowiedzi samoreferencjalnych („To zdanie
jest fałszywe”). Chaitin zastosował tę ideę do programów komputerowych. Rozważmy
przypadek, w którym komputer otrzymuje polecenie wykonania następującej operagi: „Szukaj
ciągu cyfr, który może być wygenerowany tylko przez program dłuższy niż ten”. Jeśli operacja ta
się powiedzie, szukany ciąg cyfr zostanie wygenerowany właśnie przez dany program, a więc na
pewno nie może „być tylko generowany przez program dłuższy niż ten”. Jedyną możliwą
konkluzją jest, że poszukiwania zakończą się niepowodzeniem, nawet jeśli będą trwały
nieskończenie długo. Co z tego wynika dla naszych rozważań? Program poszukujący miał
znaleźć ciąg cyfr, który mógł być wygenerowany tylko przez program co najmniej równie długi,
jak on sam, co oznacza, że wszystkie krótsze programy były z góry wykluczone. Jednak w
sytuacji, gdy poszukiwania zakończyły się niepowodzeniem, nie możemy wykluczyć krótszego
programu. Po prostu w ogólnym przypadku nie jesteśmy w stanie stwierdzić, czy dany ciąg cyfr
może być wynikiem działania programu krótszego niż ten, którym akurat dysponujemy.
Twierdzenie Chaitina ma interesujące konsekwencje w dziedzinie liczb losowych, tzn.
przypadkowych ciągów cyfr. Jak już wyjaśniałem, za ciąg losowy uważamy ciąg, który nie może
być algorytmicznie uproszczony. Jednak właśnie się przekonaliśmy, że nie da się stwierdzić, czy
istnieje krótszy program generujący dany ciąg. Nigdy nie można uzyskać pewności, że nie
istnieją jeszcze jakieś inne sprytne możliwości skrócenia opisu, a więc nie jest w ogólnym
przypadku możliwe udowodnienie, że dany ciąg jest losowy, jakkolwiek można wykazać, że tak
nie jest, poprzez faktyczne znalezienie sposobu uproszczenia. Wynik ten jest tym bardziej
zadziwiający, iż można dowieść, że prawie wszystkie możliwe ciągi cyfr mają charakter losowy.
A my nie jesteśmy w stanie o żadnym konkretnym ciągu tego definitywnie orzec!
Fascynującym może być przypuszczenie, że wobec tej definicji niektóre z występujących
w przyrodzie pozornie przypadkowych zjawisk mogą nie mieć charakteru losowego. Kto wie na
przykład, czy nie dotyczy to indeterminizmu, z jakim mamy do czynienia w mechanice
kwantowej. W końcu z twierdzenia Chaitina wynika, że nigdy nie jesteśmy w stanie wykazać, iż
ciąg wartości otrzymanych w wyniku kolejnych pomiarów kwantowomechanicznych jest
naprawdę losowy. Niewątpliwie wygląda on na losowy, ale to samo dotyczy rozwinięcia liczby
TC
. Dopóki nie mamy „klucza do kodu”, czyli algorytmu wyrażającego ukryty porządek,
uprawnione jest założenie, że mamy do czynienia z czymś naprawdę przypadkowym. Czyż nie
może być tak, że istnieje jakiś wyrafinowany „kosmiczny kod”, algorytm generujący wartości
wielkości kwantowych w przyrodzie, a obserwowany indeterminizm kwantowy jest tylko
złudzeniem? Może kod ten kryje w sobie „przesłanie”, które mogłoby nam wyjawić najgłębsze
tajemnice Wszechświata? Pomysł ten został już podchwycony przez niektórych teologów, którzy
zauważyli, że indeterminizm kwantowy pozwala Bogu działać w świecie, „rzucając kwantową
kostką” na poziomie atomów, bez naruszania klasycznych (tzn. niekwantowych) praw fizyki. W
ten sposób istniałby podatny grunt do urzeczywistniania boskich celów w świecie bez sprawiania
zbyt dużego kłopotu fizykom. W rozdziale 9 zajmę się pewną konkretną hipotezą tego typu.
Uzbrojony w swoją algorytmiczną definicję Chaitin był w stanie wykazać, że
przypadkowością przeniknięta jest cała matematyka, w tym także arytmetyka. W tym celu
posłużył się wynalezionym przez siebie monstrualnych rozmiarów równaniem, zawierającym
siedemnaście tysięcy zmiennych (ten typ równania określany jest w matematyce jako równanie
diofantyńskie). W równaniu tym występuje parametr K, przybierający kolejne wartości całkowite
l, 2, 3, i tak dalej. Chaitin postawił pytanie, czy przy danej wartości parametru K to olbrzymie
równanie ma skończoną czy nieskończoną liczbę rozwiązań. Można sobie wyobrazić, że
pracowicie rozwiązujemy je dla kolejnych wartości K, zapisując za każdym razem odpowiedź:
„skończona”, „skończona”, „nieskończona”, „skończona”, „nieskończona”, „nieskończona”...
Czy w tym ciągu odpowiedzi będzie występowała jakaś regularność? Chaitin udowodnił, że nie.
Jeżeli przypiszemy przypadkowi skończonej liczby rozwiązań cyfrę O, a nieskończonej l, to
powstały w ten sposób ciąg 001011... nie da się algorytmicznie uprościć; będzie zatem ciągiem
losowym.
Wniosek ten ma daleko idące konsekwencje. Oznacza bowiem, że nie ma ogólnego
sposobu stwierdzenia dla wybranej wartości K bez bezpośrednich przeliczeń, czy to konkretne
równanie diofantyńskie posiada skończoną czy nieskończoną liczbę rozwiązań. Innymi słowy, w
przypadku tym nie istnieje systematyczna procedura pozwalająca z góry przewidzieć odpowiedzi
na doskonale pod względem matematycznym postawiony problem: odpowiedzi mają charakter
losowy. Niewielkim pocieszeniem może być fakt, że równanie diofantyńskie z siedemnastoma
tysiącami zmiennych to w gruncie rzeczy dość osobliwy twór matematyczny. Skoro raz
przypadkowość dostała się do matematyki, została ona nią do głębi skażona. Rozpowszechniona
wizja matematyki jako zbioru precyzyjnych twierdzeń, spojonego doskonale określonymi
związkami logicznymi, okazuje się nie odpowiadać prawdzie. W matematyce mamy do czynienia
z przypadkowością, a tym samym niepewnością, w równym stopniu, co w fizyce. Według
Chaitina, Bóg gra w kości nie tylko w mechanice kwantowej, ale nawet w przypadku arytmetyki
liczb całkowitych. Uważa on zatem, że matematykę należy traktować na równi z naukami
przyrodniczymi, w których poznanie rzeczywistości odbywa się na drodze połączenia
rozumowania logicznego i odkryć eksperymentalnych. Oczyma wyobraźni można już widzieć
uniwersyteckie katedry matematyki eksperymentalnej.
Dość zabawne zastosowanie koncepcji algorytmicznej informacji związane jest z pewną
liczbą nieobliczalną, zwaną omega, którą Chaitin definiuje jako prawdopodobieństwo, że
program komputerowy zatrzyma się po wprowadzeniu na wejście czysto losowego ciągu
binarnego. Prawdopodobieństwo czegokolwiek jest wyrażane liczbą rzeczywistą z przedziału
między 0 a 1; przy czym 0 odpowiada zdarzeniu niemożliwemu, a l zdarzeniu koniecznemu. Jest
oczywiste, że liczba omega będzie bliska jedności, ponieważ przytłaczającą większość
możliwych ciągów na wejściu komputer potraktuje jako losowe i natychmiast zatrzyma się,
generując odpowiedni komunikat o błędzie. Można wszakże udowodnić, że omega jest
algorytmicznie nieupraszczalna i jej rozwinięcia, zarówno w postaci dwójkowej, jak i dziesiętnej,
mają już po pierwszych kilku cyfrach charakter czysto losowy. Ponieważ omega jest
zdefiniowana poprzez odniesienia do problemu zatrzymania się, ciągi cyfr w jej rozwinięciu
kodują poszczególne rozwiązania tego pro blemu. Tak zatem pierwszych n cyfr dwójkowego
rozwinięcia tej liczby zawiera odpowiedź na pytanie, które z n-bitowych programów zatrzymają
się, a które będą wykonywane w nieskończoność.
Charles Bennett zauważył, że wiele słynnych nierozwiązanych problemów
matematycznych, takich jak Wielkie Twierdzenie Fermata, może być sformułowane jako
problem zatrzymania się, gdyż zawierają stwierdzenia, iż coś nie istnieje (w tym przypadku zbiór
liczb spełniających równanie Fermata). Wystarczy zaprogramować komputer, aby poszukiwał
kontrprzykładu. Gdy uda mu się go znaleźć, zatrzyma się; w przeciwnym przypadku będzie
międlił swe poszukiwania w nieskończoność. Ponadto, większość interesujących problemów da
się wyrazić w postaci programów zawierających nie więcej niż kilka tysięcy bitów, a zatem
znając już pierwszych kilka tysięcy cyfr rozwinięcia binarnego liczby omega, dysponowalibyśmy
rozwiązaniem wszystkich słynnych problemów matematycznych tego typu, jak również
wszelkich innych problemów o porównywalnej złożoności, które mogą być sformułowane w
przyszłości! ,,W ten sposób ogromna ilość informacji zostaje zgromadzona w bardzo niewielkiej
przestrzeni pisze Bennett — albowiem kilka tysięcy cyfr, które bez trudu można wypisać na
kartce papieru, zawiera odpowiedzi na więcej problemów matematycznych, niż dałoby się
zapisać w całym Wszechświecie”
8
.
Niestety, omegi jako liczby nieobliczalnej z założenia nigdy nie da się efektywnie
wyznaczyć, niezależnie od tego, jak długo byśmy to próbowali zrobić. Zatem, poza mistycznym
objawieniem, nie ma sposobu, byśmy mogli ją kiedykolwiek poznać. A gdyby nawet została nam
ona przekazana w sposób nadprzyrodzony, i tak byśmy jej nie rozpoznali, gdyż jako liczba
losowa nie wyróżniałaby się niczym szczególnym. Mielibyśmy przed sobą tylko pozbawiony
wszelkich regularności ciąg jedynek i zer. Można by ją co najwyżej zapisać w jakimś
podręczniku.
Informacja zawarta w liczbie omega jest czymś rzeczywistym, a jednak na zawsze
ukrytym przed nami poprzez prawa logiki i paradoksy samoreferencji. Niepoznawalna Omega
stanowi być może współczesny odpowiednik „magicznych liczb” u starożytnych Greków. Bennet
okazuje się prawdziwie poetycki w opisywaniu jej mistycznego znaczenia:
Na przestrzeni dziejów filozofowie i mistycy poszukiwali klucza do uniwersalnej
mądrości skończonej formuły lub tekstu, który poznany i właściwie zrozumiany, pozwoliłby
uzyskać odpowiedź na każde pytanie. Do roli tej pretendowały Biblia, Koran, mityczne tajemne
księgi Hermesa Trismegistosa i średniowieczna żydowska Kabała. Źródła uniwersalnej mądrości
są zazwyczaj chronione przed ich nieuprawnionym użyciem przez to, że trudno do nich dotrzeć,
ciężko je zrozumieć, gdy się je znajdzie, a ponadto są niebezpieczne w użyciu, gdyż często
udzielają odpowiedzi na inne, głębsze pytania, niż człowiek im zadaje. Na podobieństwo Boga,
księgi ezoteryczne są proste, lecz niemożliwe do opisania, wszechwiedzące i przemieniające
wewnętrznie każdego, kto je pozna. (...) Omega jest pod wieloma względami liczbą
kabalistyczną. Ludzkim rozumem możemy poznać, że ona istnieje, lecz nie ją samą. Poznając ją
bliżej, musielibyśmy przyjąć wyrażający ją nieobliczalny ciąg cyfr na zasadzie wiary, jak słowa
świętych ksiąg
9
.
Kosmiczny program
Algorytmiczna teoria informacji dostarcza nam ścisłej definicji złożoności w oparciu o
pojęcie obliczalności. Gdy kontynuujemy nasz wątek Wszechświata jako komputera czy też,
ściślej mówiąc,procesu obliczeniowego, rodzi się pytanie, czy Wszechświat w swej ogromnej
złożoności jest algorytmicznie upraszczalny. Czy istnieje zwięzły program zdolny do
„wygenerowania” Wszechświata ze wszystkimi jego misternymi szczegółami?
Mimo swej złożoności Wszechświat wyraźnie nie jest strukturą przypadkową, lecz
obserwujemy w nim regularności. Słońce wschodzi codziennie bez wyjątku, światło porusza się
zawsze z tą samą prędkością, zbiór mionów rozpada się zawsze z czasem połowicznego rozpadu
dwóch milionowych sekundy, i tak dalej. Regularności te systematyzujemy w postaci, którą
nazywamy prawami przyrody. Jak już podkreślałem, prawa fizyki mają charakter analogiczny do
programów komputerowych. Dla danego stanu początkowego układu (wejście) możemy za
pomocą praw obliczyć jego stan późniejszy (wyjście).
Prawa wraz z warunkami początkowymi zawierają w ogólnym przypadku znacznie mniej
informacji niż potencjalne stany wyjściowe. Oczywiście, nawet jeżeli prawo fizyki zapisane na
kartce wygląda prosto, zwykle wyrażane jest ono za pomocą abstrakcyjnej matematyki, która
sama w sobie zawiera dość skomplikowaną strukturę. Niemniej jednak, informacje potrzebne do
zrozumienia sensu symboli matematycznych można zawrzeć w kilku podręcznikach, podczas gdy
liczba faktów opisywanych przy ich pomocy jest nieograniczona. Klasycznym przykładem jest tu
przewidywanie zaćmień. Znajomość pozycji i ruchu Ziemi, Słońca i Księżyca w określonym
czasie pozwala na obliczenie dat przyszłych (i przeszłych) zaćmień Słońca i Księżyca. W ten
sposób jeden zbiór danych wejściowych generuje wiele zbiorów danych wyjściowych.
Posługując się żargonem informatycznym możemy powiedzieć, że zbiór wszystkich danych
dotyczących zaćmień został algorytmicznie uproszczony do postaci praw wraz z odpowiednimi
warunkami początkowymi. Zatem regularności obserwowane we Wszechświecie są przykładem
jego algorytmicznej upraszczalności. Pod złożonością przyrody kryje się prostota fizyki.
Co interesujące, Ray Solomonoff, jeden z twórców algorytmicznej teorii informacji,
zajmował się właśnie zagadnieniami tego rodzaju. Chciał on znaleźć sposób określenia
względnej prawdopodobności konkurujących hipotez naukowych. Jeśli dany zbiór faktów
dotyczących świata może być uzasadniony poprzez więcej niż jedną teorię, w jaki sposób
możemy rozstrzygnąć, która z nich jest bardziej prawdopodobna? Czy możemy przypisać
konkurencyjnym teoriom jakieś „wartości”, które można by ze sobą porównywać?
Najprościej jest posłużyć się brzytwą Ockhama i wybrać teorię o najmniejszej liczbie
niezależnych założeń. Z kolei, jeżeli traktujemy teorię jako program komputerowy, a fakty
przyrodnicze jako wynik działania tego programu, to brzytwa Ockhama każe nam wybrać
najprostszy program zdolny wygenerować dany wynik. Znaczy to, że powinniśmy wybierać
teorię, czy też program, pozwalające na możliwie największe algorytmiczne uproszczenie
faktów.
Z tego punktu widzenia całą naukę można uważać za poszukiwanie sposobów
algorytmicznego uproszczenia danych obserwacyjnych. Ostatecznie jej celem jest wytworzenie
zwięzłego opisu świata w oparciu o pewne zasady unifikujące, które nazywamy prawami.
„Gdyby nie algorytmiczne upraszczanie danych - pisze Barrow - cała nauka stałaby się czymś w
rodzaju bezmyślnego kolekcjonowania znaczków - ślepym gromadzeniem wszystkich możliwych
faktów. Nauka zasadza się na przekonaniu, że Wszechświat jest algorytmicznie upraszczalny, a
współczesne poszukiwania Teorii Wszystkiego stanowią najwyższy wyraz tej wiary, wiary, że
Wszechświat w swej różnorodności opiera się na kilku prostych, skończonych zasadach, które
mogą być poznane przez człowieka”
10
.
Czy możemy więc wyciągnąć wniosek, że cała złożoność Wszechświata możliwa jest do
ujęcia w postaci bardzo krótkiego „kosmicznego programu”, podobnie jak świat
skomplikowanych struktur ŻYCIA sprowadza się do paru prostych reguł, powtarzanych
wielokrotnie? Jakkolwiek w przyrodzie mamy do czynienia z wieloma spektakularnymi
przypadkami uproszczenia algorytmicznego, nie każdy układ da się w ten sposób uprościć.
Istnieje klasa procesów, zwanych „chaotycznymi”, których znaczenie doceniono dopiero
niedawno. Procesy te nie wykazują żadnych regularności, przebiegając najwyraźniej w sposób
czysto losowy, toteż nie dają się algorytmicznie uprościć. Do tej pory sądzono, że chaos
występuje tylko wyjątkowo, lecz obecnie naukowcy w coraz większym stopniu uznają, iż bardzo
wiele układów, z jakimi mamy do czynienia w przyrodzie, ma charakter chaotyczny lub łatwo
taki przybiera w określonych warunkach. Najbardziej znanymi przykładami są tu przepływy
turbulentne, kapiące krany, migotanie przedsionków serca i ruch wahadła ze wspomaganiem.
Mimo iż chaos występuje tak powszechnie, nie ulega wątpliwości, że Wszechświat jako
całość nie jest bynajmniej przypadkowy. Znajdujemy w nim wiele regularności, które następnie
kodyfikujemy w prawa, pozwalające realnie przewidywać przyszły rozwój zjawisk. Jednakże
Wszechświat iiie jest też całkiem prosty. Charakteryzuje się on subtelną złożonością, będącą
czymś pośrednim pomiędzy prostotą z jednej strony a zupełną chaotycznością z drugiej. Można
to wyrazić, mówiąc, że Wszechświat odznacza się „złożonością strukturalną”, co omówiłem
wyczerpująco w mojej książce The Cosmic Blueprint [Projekt kosmosu]. Wielokrotnie
próbowano uchwycić tę ulotną własność w sposób matematyczny. Jedną z takich prób podjął
Charles Bennet, wprowadzając pojęcie „głębokości logicznej”. Skupił on uwagę nie tyle na
stopniu złożoności układu czy też ilości informacji niezbędnej do jego wyspecyfikowania, a
bardziej na jej jakości czy też „wartości”. Bennet wyjaśnia to następująco:
„Typowy ciąg rzutów monetą zawiera dużą ilość informacji, lecz niczego nie
komunikuje; w efemerydach podających położenia Księżyca i planet na każdy dzień w ciągu stu
lat nie ma więcej informacji niż w równaniach ruchu i warunkach początkowych, które posłużyły
do ich obliczenia, lecz oszczędzają one użytkownikowi trudu ponownego wyliczania tych
pozycji. Wartość informacji dla odbiorcy wydaje się zatem polegać (...) na tym, co można by
określić jako włożoną w nią redundancje - rzeczy przewidywalne jedynie z trudnością, coś, do
czego odbiorca w zasadzie byłby w stanie dojść na własną rękę, lecz jedynie znacznym nakładem
czasu, pieniędzy i obliczeń. Innymi słowy, wartość informacji wyznaczona jest przez ilość pracy,
obliczeniowej lub innego rodzaju, wykonanej przez jej nadawcę, której odbiorca nie musi już
powtarzać”
11
.
Bennett zachęca nas, abyśmy myśleli o danym stanie świata jako zawierającym w sobie
ukrytą informację, przede wszystkim informację o tym, w jaki sposób stan ten został osiągnięty.
Możemy wtedy postawić pytanie, ile „pracy” musiał wykonać układ, tzn. ile musiał przetworzyć
informacji, aby dojść do tego stanu. To właśnie określa on mianem głębokości logicznej. Ilość
włożonej pracy można w sposób ścisły zdefiniować jako czas potrzebny na wyliczenie danego
komunikatu przez najkrótszy program będący w stanie go wygenerować. Podczas gdy pojęcie
algorytmicznej złożoności związane jest z długością najkrótszego programu pozwalającego
otrzymać dany wynik, pojęcie głębokości logicznej opiera się na ilości czasu, jakiej potrzebuje
ów minimalny program, aby wyprodukować tenże wynik.
Oczywiście nie można określić na podstawie samego wyglądu otrzymanego wyniku, w
jaki sposób został on wytworzony. Nawet bardzo szczegółowy, sensowny komunikat mógi
powstać na drodze czysto losowej. W dość wyświechtanym przykładzie mamy małpę, która
dysponując odpowiednią ilością czasu jest w stanie wystukać na maszynie dzieła Szekspira.
Niemniej zgodnie z duchem algorytmicznej teorii informacji (i brzytwą Ockńama) należy
przypisać ten wynik działaniu minimalnego programu, ponieważ wymaga to najmniejszej liczby
założeń ad hoc.
Postawmy się w położenie radioastronoma, który odebrał tajemniczy sygnał.
Poszczególne jego impulsy ułożone w ciąg odpowiadają pierwszemu milionowi miejsc binarnego
rozwinięcia liczby
TC
, Co mamy o tym sądzić? Wniosek, ze sygnał ten powstał przypadkowo,
wymaga założeń ad hoc odpowiadających milionowi bitów, podczas gdy alternatywne
wyjaśnienie, ze sygnał został wyemitowany przez jakiś układ zdolny wyliczyć liczbę n, jest o
wieie bardziej przekonujące. Podobny przypadek miał rzeczywiście mielce w latach
sześćdziesiątych, gdy Jocelyn Bell, doktorantka z Cambridge wykonująca z Anthonym
Hewishem obserwacje radioastronomiczne, odebrała regularny sygnał niewiadomego
pochodzenia. Jednakże Bell i Hewish szybko odrzucili hipotezę o sztucznym charakterze
zarejestrowanego sygnału, W odróżnieniu od binarnego rozwinięcia liczby
K
, szereg
powtarzających się z dużą regularnością impulsów ma niewielką głębokość logiczną - można
powiedzieć, że jest logicznie płytki. Taką regularność można wyjaśnić na różne sposoby bez
posługiwania się zbyt wieloma założeniami ad hoc. jako że okresowość jest cecha dość
rozpowszechniona w przyrodzie. W tym przypadku jako źródło sygnału rozpoznano wkrótce
rotującą gwiazdę neutronową, czyli pulsar.
Struktury regularne są logicznie płytkie, ponieważ mogą być łatwo generowane przez
proste, krótkie programy. Struktury przypadkowe są również logicznie płytkie gdyż ich program
minimalny jest z definicji nie krótszy niż sama struktura, a zatem sam program jest trywialny i
sprowadza się do polecenia „Drukuj taką strukturę”. Natomiast struktury o dużym stopniu
organizacji wewnętrznej są logicznie głębokie, gdyż wygenerowanie ich wymaga wykonania
szeregu skomplikowanych działań.
Jedną z oczywistych dziedzin zastosowania pojęcia głębokości logicznej są układy
biologiczne, będące najbardziej spektakularnymi przykładami wewnętrznej organizacji.
Organizmy żywe odznaczają się dużą głębokością logiczną, ponieważ nie mogły one powstać
inaczej niż w wyniku bardzo długiego i złożonego łańcucha procesów ewolucyjnych. Innym
przykładem głębokiego logicznie układu mogą być złożone struktury generowane przez automaty
komórkowe, takie jak ŻYCIE. Struktury te powstają w oparciu o bardzo proste reguły, tak więc z
algorytmicznego punktu widzenia ich złożoność jest niewielka. Istota złożoności struktur ŻYCIA
nie polega zatem na regułach, lecz na ich wielokrotnym zastosowaniu. Komputer musi włożyć
wiele pracy, powtarzając daną regułę wiele razy, zanim utworzy istotnie złożone struktury z
prostych struktur początkowych.
Świat obfituje w przykłady głębokich logicznie układów, w których widać ogrom „pracy”
włożonej w ich ukształtowanie. Murray Gellmann powiedział mi kiedyś, że układy głębokie
logicznie łatwo rozpoznajemy jako takie, gdyż są one tymi, które chcielibyśmy zachować.
Rzeczy płytkie pod względem logicznym dają się łatwo odtworzyć. Cenimy sobie obrazy, teorie
naukowe, dzieła muzyczne i literackie, rzadkie ptaki i diamenty, ponieważ niezwykle ciężko je
wytworzyć. Samochody, kryształy soli i metalowe puszki nie są dla nas tak drogocenne, gdyż są
znacznie płytsze logicznie.
Cóż zatem możemy ostatecznie powiedzieć o kosmicznym programie? Przez wieki uczeni
określali mało ściśle Wszechświat jako „uporządkowany”, nie czyniąc rozróżnienia pomiędzy
odmiennymi typami porządku: prostym i złożonym. Badania nad pojęciem obliczalności
pozwoliły nam rozpoznać, że świat jest uporządkowany zarówno w tym sensie, iż jest
algorytmicznie upraszczalny, jak i w tym, że jest głęboki logicznie. Ład kosmiczny nie polega
jedynie na prostej powtarzalności, lecz również na wewnętrznej złożoności, i to właśnie ta
złożoność sprawia, że Wszechświat ma charakter otwarty i dopuszcza istnienie obdarzonych
wolną wolą ludzi. Natomiast przez ostatnie trzy stulecia nauka zajmowała się właśnie
powtarzalnością: wyszukiwaniem regularności w przyrodzie. Dopiero ostatnio, wraz z
nadejściem ery szybkich maszyn cyfrowych, dostrzeżono ten bardziej fundamentalny aspekt
złożoności. Tak więc widzimy, że prawa fizyki odgrywają podwójną rolę. Nie tylko wyrażają
proste regularności leżące u podłoża wszystkich zjawisk fizycznych, lecz także odpowiadają za
wewnętrzną strukturę - głębię logiczną - świata. To, że prawa obowiązujące w naszym
Wszechświecie są w stanie wypełnić to ważne podwójne zadanie, stanowi fakt o iście
kosmicznym znaczeniu.
Rozdział szósty
TAJEMNICA MATEMATYKI
Astronom James Jeans powiedział kiedyś, że Bóg jest matematykiem. W tym zwięzłym
sformułowaniu wyraża się w metaforyczny sposób pogląd, który stał się obecnie dla omalże
wszystkich naukowców wyznaniem wiary. Przekonanie, że podstawowy porządek świata da się
ująć w postaci matematycznej, jest osią współczesnej nauki i mało kto podaje go w wątpliwość.
Pogląd ten przyjął się tak głęboko, że żadnej dyscypliny wiedzy nie uważa się za należycie
ugruntowaną, zanim riie uda się jej opisać w obiektywnym języku matematyki.
Jak widzieliśmy, przekonanie, że w świecie fizycznym przejawia się ład i harmonia
matematyczna, zrodziło się już w starożytnej Grecji. Jego rozkwit nastąpił w Europie okresu
Odrodzenia wraz z pracami Galileusza, Newtona, Kartezjusza i innych ówczesnych uczonych.
„Księga przyrody napisana jest językiem matematyki” - głosił Galileusz. Dlaczego tak jest, jest
jedną z wielkich zagadek Wszechświata. Fizyk Eugene Wigner pisał o „niepojętej skuteczności
matematyki w naukach przyrodniczych”, cytując C.S. Pierce'a, że „być może kryje się w tym
jakaś tajemnica, która czeka wciąż na swego odkrywcę”. W niedawno opublikowanej książce
2
poświęconej temu zagadnieniu, zawierającej eseje dziewiętnastu uczonych (w tym i autora tej
książki), nie udało się nie tylko zgłębić tej tajemnicy, lecz nawet osiągnąć jakiegokolwiek
konsensusu. Wyrażone w niej opinie są zupełnie rozbieżne: jedni utrzymują, że ludzie po prostu
wynaleźli matematykę w celu porządkowania doświadczanych faktów, inni są przekonani, iż pod
matematycznym obliczem przyrody kryje się głęboka, istotna treść.
Czy matematyka istnieje obiektywnie?
Zanim zajmiemy się zagadnieniem jej „niepojętej skuteczności”, ważne jest, by ustalić,
czym właściwie jest matematyka. Istnieją dwie, zasadniczo sprzeczne, szkoły myślenia w tej
kwestii. Pierwsza z nich utrzymuje, że matematyka jest tworem czysto ludzkim, druga, że istnieje
ona niezależnie od człowieka. Spotkaliśmy się już z jedną z wersji takiej „twórczej”, czyli
formalistycznej, interpretacji w rozdziale 4 przy okazji dyskusji programu Hilberta
mechanicznego dowodzenia twierdzeń matematycznych. Przed pracami Godła możliwy był
pogląd, że matematyka jest działalnością czysto formalną, będącą w istocie niczym więcej jak
olbrzymią kolekcją logicznych reguł pozwalających przekształcać jedne ciągi symboli w inne.
Uważano, że stanowi ona zamkniętą, samowystarczalną całość. Wszelkie związki ze światem
zewnętrznym uznawano za przypadkowe, nie mające żadnego znaczenia dla uprawiania samej
matematyki, które miało polegać na wynajdywaniu formalnych reguł i wszechstronnym badaniu
ich konsekwencji. Jak już wspominałem w jednym z poprzednich rozdziałów, twierdzenie Godła
o niezupełności matematyki położyło kres takiemu ściśle formalistycznemu stanowisku. Mimo to
część matematyków nadal uważa, że matematyka jest wyłącznie tworem ludzkiego umysłu i nie
ma innego znaczenia niż to, które przypisują jej matematycy.
Przeciwny kierunek myślenia znany jest pod nazwą platonizmu. Przypomnijmy sobie, że
Platon wyznawał dualistyczną wizję rzeczywistości, na jednym krańcu umieszczając świat
fizyczny, stworzony przez Demiurga, zmienny i przemijający, natomiast na drugim świat
wiecznych i niezmiennych Idei, będących czymś w rodzaju abstrakcyjnych wzorców dla
elementów świata fizycznego. Obiekty matematyczne zaliczał on do świata idealnego. Zdaniem
platoników prawdy matematyczne nie są przez nas tworzone, lecz odkrywane. Obiekty i
twierdzenia matematyki istnieją obiektywnie, transcendując fizyczną rzeczywistość będącą
przedmiotem naszej percepcji.
Aby uzmysłowić sobie w pełni sens tej dychotomii, przyjrzyjmy się jej na konkretnym
przykładzie. Rozważmy twierdzenie: „Dwadzieścia trzy jest najmniejszą liczbą pierwszą większą
od dwudziestu. Z logicznego punktu widzenia zdanie to może być albo prawdziwe, albo
fałszywe. W istocie jest ono prawdziwe. Pytaniem, jakie sobie stawiamy, jest, czy jest ono
prawdziwe w bezczasowym, absolutnym sensie. Czy było prawdziwe, zanim w ogóle
wynaleziono (czy też odkryto) liczby pierwsze? Platonicy odpowiadają na to twierdząco, gdyż
uważają, że liczby pierwsze istnieją abstrakcyjnie, niezależnie od tego, czy ludzie o nich wiedzą
czy nie. Formaliści natomiast odrzuciliby takie pytanie jako absurdalne.
Co sądzą na ten temat zawodowi matematycy? Powiada się niekiedy, że matematycy są
platonikami w godzinach pracy, a formalistami w czasie wolnym. Zajmując się bezpośrednio
matematyką trudno oprzeć się wrażeniu, że odkrywa się coś realnie istniejącego, tak jak w
naukach przyrodniczych. Obiekty matematyczne żyją własnym życiem, często wykazując
zupełnie nieoczekiwane własności. Z drugiej strony, koncepcja transcendentnej dziedziny, w
której miałyby bytować obiekty matematyczne, wielu matematykom wydaje się nazbyt
mistyczna, aby się do niej przyznawać, i jeśli się ich o to zapyta, zwykli twierdzić, że uprawianie
matematyki polega wyłącznie na żonglerce symbolami i formułami.
Niemniej jednak istnieli prominentni matematycy przyznający się otwarcie do
platonizmu. Należał do nich Kurt Godeł. Jak można było tego oczekiwać, Godeł oparł swą
filozofię matematyki na wynikach swych badań nad rozstrzygalnością twierdzeń, rozumując, że
zawsze będą istnieć twierdzenia matematyczne, które są prawdziwe, lecz nie mogą być
udowodnione na podstawie istniejących aksjomatów. Wyobrażał sobie zatem, iż owe prawdziwe
twierdzenia bytują „gdzieś tam” poza naszą Jaskinią”, w dziedzinie platońskich idei. Innym
znanym platonikiem jest matematyk z Oxfordu, Roger Penrose. „Prawda matematyczna
przekracza ramy czystego formalizmu” - pisze on. „Często odnosimy wrażenie, że pod pojęciami
matematycznymi kryje się jakaś głębsza rzeczywistość, wykraczająca daleko poza deliberacje
jakiegokolwiek konkretnego matematyka. Wygląda to, jak gdyby myśl człowieka kierowana była
ku jakiejś zewnętrznej wobec niej, odwiecznie istniejącej prawdzie - prawdzie, która stanowi
niezależną od nas rzeczywistość i ukazuje się nam jedynie w niewielkiej części”. Przytaczając
jako przykład liczby zespolone, Penrose uważa, że mają one „głęboką, pozaczasową realność”.
Innym przykładem, który skłonił Penrose'a do przyjęcia platonizmu, jest coś, co nazwano
„zbiorem Mandelbrota”, na cześć Benoita Mandelbrota, naukowca z firmy komputerowej IBM.
Zbiór ten, którego postać geometryczna zwie się „fraktalem”, związany jest blisko z teorią
chaosu i dostarcza kolejnego wspaniałego przykładu, że w wyniku prostej procedury
rekurencyjnej otrzymujemy obiekt o niewiarygodnym bogactwie formy i złożoności.
Generowany jest on poprzez wielokrotne stosowanie reguły (czy też odwzorowania) z -» z
2
+ c,
gdzie z jest zmienną zespoloną, a c jest pewną stałą o wartości zespolonej. Regułę tę należy
rozumieć następująco: weź pewną liczbę zespoloną z i zastąp ją przez z
2
+ c, następnie podstaw
ją za z i wykonaj tę samą operację, i tak dalej, i tak dalej. Otrzymywane kolejno liczby zespolone
można przedstawić na płaszczyźnie, na przykład na kartce papieru lub ekranie komputerowym,
przy czym każda liczba stanowi jeden punkt. Można stwierdzić, że dla jednych wartości c punkt
ten szybko wędruje poza ekran, podczas gdy dla innych wartości porusza się przez cały czas
wewnątrz pewnego ograniczonego obszaru. Z kolei dane c jako liczba zespolona również
odpowiada pewnemu punktowi na płaszczyźnie i właśnie zbiór wszystkich takich punktów c
stanowi zbiór Mandelbrota. Zbiór ten ma tak niezwykle skomplikowaną strukturę, że nie sposób
wprost opisać w słowach jego zadziwiającego piękna. Niejednokrotnie fragmenty tego zbioru
były wystawiane jako dzieła sztuki na wystawach. Charakterystyczną cechą zbioru Mandelbrota
jest to, że każda jego część może być powiększana bez końca i każdy kolejny poziom
rozdzielczości ujawnia nowe bogactwo jego struktury.
Penrose zauważa, że Mandelbrot przystępując do badania własności tego zbioru zupełnie
nie wyobrażał sobie z góry zawartej w nim wyrafinowanej struktury:
Struktura zbioru Mandelbrota nie może być przez nikogo z nas poznana w pełni swej
złożoności; nie może też jej zrealizować żaden komputer. Wydaje się, jak gdyby nie była ona
częścią naszego umysłu, lecz istniała niezależnie od nas. (...) Komputer wykorzystywany jest w
tym przypadku zasadniczo w ten sam sposób, jak fizyk-eksperymentator wykorzystuje swą
aparaturę doświadczalną do zgłębiania budowy świata fizycznego. Zbiór Mandelbrota nie został
wymyślony, lecz odkryty. Tak jak Mount Everest, zbiór Mandelbrota po prostu jest!
Martin Gardner, matematyk i znany popularyzator nauki, zgadza się z tą opinią: „Penrose
nie rozumie (ja również), jak ktoś mógłby przypuścić, że ta egzotyczna struktura jest mniej realna
od Mount Everestu; może być ona penetrowana przez badaczy na podobieństwo dżungli”.
„Czy matematykę tworzymy, czy odkrywamy?” - pyta Penrose. Czyżby matematycy byli
na tyle zafascynowani swoimi wynalazkami, iż mniemają, że istnieją one naprawdę? „Czy też
odkrywają oni prawdy, które istniały już wcześniej, prawdy, których istnienie w żadnym stopniu
nie zależy od tego, czy są one poznawane przez matematyków?” Opowiadając się wyraźnie za
tym drugim poglądem, Penrose wskazuje, że w przypadkach takich, jak zbiór Mandelbrota,
„struktura zawiera o wiele więcej, niż się do niej pierwotnie włożyło. Można powiedzieć, że w
tych przypadkach matematycy natykają się na »dzieło Boga«„. W samej rzeczy dostrzega on
analogię pomiędzy matematyką a natchnionymi dziełami sztuki: „Wśród artystów dość często
spotykane jest przekonanie, że w swych najwspanialszych dziełach odkrywają prawdy wieczne,
które istniały już wcześniej jakimś eterycznym rodzajem istnienia. (...) Nie mogę oprzeć się
poczuciu, że w przypadku matematyki argumenty za tym, by wierzyć w jakiś typ eterycznego,
wiecznego bytowania (...) są o wiele silniejsze”.
Łatwo wyrobić sobie wrażenie, że gdzieś tam istnieje rozległa kraina struktur
matematycznych, a matematycy niczym podróżnicy badają to przedziwne, choć inspirujące
terytorium, orientując się niekiedy według drogowskazów własnych doświadczeń lub kamieni
milowych wcześniejszych odkryć. Posuwając się do przodu, napotykają coraz to nowe formuły i
twierdzenia, które były już tam wcześniej. Matematyk Rudi Rucker uważa, że obiekty
matematyki bytują w swego rodzaju przestrzeni duchowej, którą nazywa „Krainą Myśli”, tak jak
obiekty fizyczne bytują w przestrzeni fizycznej. „Ten, kto uprawia matematykę - pisze on - jest
odkrywcą badającym Krainę Myśli, tak jak Armstrong, Livingstone czy Cousteau badali nowe,
nieznane obszary świata fizycznego”. Zdarza się, że różni badacze wędrują po tym samym
terytorium i potem niezależnie ogłaszają, co tam znaleźli. „Podobnie jak istnieje jeden dla
wszystkich Wszechświat, tak i istnieje jedna dla wszystkich Kraina Myśli” - uważa Rucker. John
Barrow również przytacza przypadki dokonywania niezależnych odkryć w matematyce jako
dowód „pewnego rodzaju jej obiektywności”, która niezależna jest od psychiki poszczególnych
badaczy.
Penrose stawia tezę, że sposób, w jaki matematycy dokonują odkryć i komunikują sobie
wzajemnie wyniki swoich badań, świadczy o faktycznym istnieniu dziedziny platońskich idei,
czyli Krainy Myśli:
Wyobrażam sobie, że postrzegając pojęcia matematyczne umysł sięga platońskiego
świata idealnego. (...) „Widzenie” prawd matematycznych przez człowieka polega na tym, że
jego świadomość wdziera się do owego świata idei i wchodzi z tymi prawdami w bezpośredni
kontakt. (...) Intersubiektywność dyskursu matematyków jest możliwa tylko dlatego, że każdy z
osobna ma bezpośredni dostęp do prawdy - ich świadomość percypuje prawdy matematyczne
bezpośrednio, w tym procesie „widzenia”. Ponieważ każdy z nich ma bezpośredni dostęp do
świata platońskiego, łatwiej się im porozumieć ze sobą, niż można by tego oczekiwać. Obrazy,
jakie tworzą się w ich umysłach podczas tych wypadów w dziedzinę idei, są prawdopodobnie w
poszczególnych przypadkach zupełnie odmienne, lecz mimo to matematycy rozumieją się
nawzajem, ponieważ każdy z nich ma do czynienia z tym samym platońskim światem bytów
wiecznych!
Niekiedy to „wdzieranie się” następuje w sposób nagły i gwałtowny; określa się je wtedy
mianem matematycznego olśnienia. Francuski matematyk Jacąues Hadamard, który badał to
zjawisko, przytacza przykład Carla Gaussa, który przez całe lata zmagał się z pewnym
problemem dotyczącym liczb całkowitych: „Jak gdyby w nagłym blasku błyskawicy, stanęło
przede mną rozwiązanie problemu. Nie jestem sam w stanie powiedzieć, co było nicią łączącą to,
co wiedziałem poprzednio, z tym, co pozwoliło mi znaleźć rozwiązanie”. Hadamard podaje
również znany przypadek Henri Poincarego, który podobnie przez długi czas bezowocnie
próbował rozwiązać problem dotyczący pewnych funkcji matematycznych. Pewnego dnia
wyruszając na wyprawę geologiczną wsiadał do autobusu. „Gdy tylko postawiłem nogę na
stopniu, zaświtała mi idea rozwiązania, przy czym nic w moich wcześniejszych myślach w żaden
sposób tego nie zapowiadało” - relacjonował później. Był tak pewny, że znalazł właściwe
rozwiązanie, iż nie myślał w tym momencie o tym więcej i prowadził dalej rozmowy ze
współtowarzyszami podróży. Po powrocie z wycieczki spokojnie, bez wysiłku, zapisał cały
dowód.
Penrose wspomina podobne zdarzenie, jakie przytrafiło mu się podczas pracy nad
czarnymi dziurami i osobliwościami czasoprzestrzeni. Rozmawiał właśnie z kimś na ruchliwej
londyńskiej ulicy i miał właśnie przejść przez jezdnię, gdy przyszła mu do głowy zasadnicza
idea, jakkolwiek na tak krótki moment, że kiedy podjął ponownie rozmowę po drugiej stronie
ulicy, zupełnie o niej zapomniał. W jakiś czas potem ogarnął go dziwny nastrój podniecenia i
starał sobie uzmysłowić, co wydarzyło się tego dnia. W końcu przypomniał sobie o owym
przebłysku natchnienia i od razu wiedział, że ma w ręku klucz do rozwiązania problemu, którym
zajmował się od dłuższego czasu. Dopiero później udało mu się przeprowadzić ścisły dowód, że
idea ta rzeczywiście była słuszna.
Wielu fizyków podziela tę platońską wizję matematyki. Na przykład, Heinrich Hertz,
uczony, który pierwszy w warunkach laboratoryjnych wytworzył i odebrał fale radiowe,
powiedział kiedyś: „Nie można uwolnić się od poczucia, że te formuły matematyczne istnieją
niezależnie od nas i są nawet mądrzejsze od tych, co je odkryli, gdyż otrzymujemy z nich więcej,
niż zostało w nie pierwotnie włożone”.
Zapytałem raz Richarda Feynmana, czyjego zdaniem matematyka, a tym samym i prawa
fizyki, istnieją obiektywnie, a on mi odpowiedział:
Problem istnienia jest zarazem bardzo interesujący i trudny. Jeśli nawet uprawia się
matematykę, wyciągając jedynie wnioski z przyjętych założeń, można odkryć ciekawą rzecz przy
dodawaniu sześcianów liczb całkowitych. Jeden do sześcianu jest jeden; dwa do sześcianu jest
dwa razy dwa razy dwa, co daje osiem; trzy do sześcianu jest trzy razy trzy razy trzy, co daje
dwadzieścia siedem. Jeśli dodamy do siebie te trzy sześciany, jeden plus osiem plus dwadzieścia
siedem - na tym poprzestańmy - otrzymamy trzydzieści sześć, to jest kwadrat innej liczby, sześć,
która jest sumą trzech tych samych liczb całkowitych: jeden plus dwa plus trzy. (...) Tego, co ci
powiedziałem, mogłeś wcześniej nie wiedzieć. Mógłbyś zatem zapytać: „Skąd to jest, co to jest,
gdzie to się znajduje, w jaki sposób to istnieje?” A przecież do tego doszedłeś. Kiedy odkrywa
się coś takiego, ma się wrażenie, że było to prawdą, jeszcze zanim się o tym dowiedzieliśmy. Tak
więc rodzi się myśl, że to musiało jakoś gdzieś istnieć, ale nie ma miejsca, gdzie mogłoby to
istnieć. To tylko takie wrażenie. (...) A w przypadku fizyki kłopot jest podwójny. Odkrywamy te
matematyczne zależności, lecz one odnoszą się do świata, więc problem, gdzie one istnieją, jest
jeszcze bardziej pogmatwany. (...) Są to pytania filozoficzne, na które nie umiem odpowiedzieć.
Kosmiczny komputer
W ostatnich latach na rozważania o naturze matematyki coraz większy wpływ wywierają
informatycy, którzy mają na tę dziedzinę swój własny pogląd. Nie powinno raczej nikogo dziwić,
że większość informatyków uważa komputer za zasadniczy element każdego systemu
myślowego, który miałby nadawać sens matematyce. W skrajnej postaci naczelną tezą tej
filozofii jest: „To, czego nie można obliczyć, nie ma żadnego sensu”. W szczególności, każdy
opis świata fizycznego musi być oparty jedynie o operacje matematyczne, które da się faktycznie
przeprowadzić, przynajmniej w zasadzie, za pomocą komputera. Wyklucza to oczywiście z
miejsca teorie, jakie opisywałem w rozdziale 5, w których wielkości fizyczne mogą przyjmować
wartości nieobliczalne. Nie są dopuszczalne także operacje matematyczne obejmujące
nieskończoną liczbę kroków. To z kolei wyklucza olbrzymie obszary matematyki, z których
część była już z powodzeniem stosowana do opisu układów fizycznych. Co jeszcze
poważniejsze, nawet wyniki matematyczne wymagające skończonej, lecz bardzo dużej liczby
kroków są podejrzane, gdy weźmie się pod uwagę, że moc obliczeniowa całego Wszechświata
jest ograniczona. Wyznawcą tego poglądu jest Rolf Landauer: „Nie tylko fizyka określa, co są w
stanie zrobić komputery, lecz to, co są w stanie zrobić komputery, wyznacza z kolei
fundamentalną naturę praw fizyki. W końcu prawa fizyki są algorytmami przetwarzania
informacji i nie miałyby sensu, gdyby nie dało się ich zrealizować w naszym Wszechświecie przy
użyciu jego praw i zasobów”.
Jeżeli sensowność matematyki zależy od dostępnych zasobów Wszechświata, ma to
bardzo daleko idące konsekwencje. Zgodnie ze standardowym modelem Wszechświata, od jego
momentu początkowego światło mogło przebyć jedynie skończony odcinek drogi, ponieważ wiek
Wszechświata jest skończony. Żaden fizyczny obiekt ani oddziaływanie, w szczególności żadna
informacja, nie mogą się przenosić z prędkością większą od prędkości światła. Wynika stąd, że
obszar Wszechświata, z którym jesteśmy przyczynowo powiązani, zawiera jedynie skończoną
liczbę cząstek. Zewnętrzna granica tego obszaru znana jest pod nazwą horyzontu czasowego. Jest
to najdalsza płaszczyzna w przestrzeni, do której światło wyemitowane w pobliżu nas krótko po
Wielkim Wybuchu było w stanie dotrzeć do chwili obecnej. Jeśli chodzi o obliczenia, w
oczywisty sposób jedynie te obszary Wszechświata, pomiędzy którymi możliwa jest wymiana
informacji, mogą być uznane za wchodzące w skład tego samego układu obliczeniowego; w tym
przypadku będzie to obszar zawarty wewnątrz naszego horyzontu. Wyobraźmy sobie, że każdą
cząstkę w tym obszarze dało się zaprząc do obliczeń, tworząc gigantyczny kosmiczny komputer.
Jednak nawet ta, przerażająca wręcz swym ogromem, maszyna miałaby wciąż skończoną moc
obliczeniową, ponieważ zawiera skończoną liczbę cząstek (w tym przypadku około 10
80
). Nie
mogłaby, na przykład, nawet obliczyć liczby n z nieskończoną dokładnością. Landauer twierdzi,
że skoro Wszechświat jako całość nie może czegoś obliczyć, należy o tym zapomnieć. Tak więc
nawet „zwykłe n” nie byłoby dobrze określoną wielkością. Oznaczałoby to, że nie można by już
uważać, że stosunek obwodu koła do jego średnicy wyraża się dokładnie konkretną liczbą nawet
w wyidealizowanym przypadku doskonałych linii geometrycznych, lecz jest nieoznaczony.
Jeszcze trudniejszy do przyjęcia jest fakt, że w sytuacji, gdy horyzont rozszerza się z
czasem, w miarę jak światło porusza się w głąb kosmosu, zasoby zawarte w obszarze leżącym
wewnątrz horyzontu były w przeszłości mniejsze. Wynika stąd, że matematyka jest zależna od
czasu - wniosek stojący w całkowitej sprzeczności z platońskimi poglądami, że prawdy
matematyki są pozaczasowe, transcendentne i wieczne. Na przykład, w sekundę po Wielkim
Wybuchu w objętości zawartej wewnątrz horyzontu mieściłaby się jedynie niewielka część
obecnej liczby cząstek elementarnych. W tak zwanym czasie Plancka (10
4a
s) wewnątrz
horyzontu mogła znajdować się tylko jedna cząstka. Zatem moc obliczeniowa Wszechświata w
czasie Plancka była zasadniczo zerowa. Wyciągając z tez Landauera logiczne wnioski, oznacza
to, że w tej epoce cała matematyka pozbawiona była wszelkiego sensu. Gdyby tak miało być, to
próby zastosowania fizyki matematycznej do opisu wczesnego Wszechświata, w szczególności
cały program kwantowej kosmologii i problem początku Wszechświata opisany w rozdziale 2
również straciłyby sens.
Dlaczego my?
Jedyną niezrozumiałą rzeczą we Wszechświecie jest to, że jest on zrozumiały.
Albert Einstein
Sukcesy współczesnej nauki często przysłaniają nam zdumiewający fakt, że nauka jest w
ogóle możliwa. Jakkolwiek większość ludzi przyjmuje to za rzecz oczywistą, jest to fakt zarówno
niezmiernie szczęśliwy, jak i niezmiernie tajemniczy, że jesteśmy w stanie zgłębiać tajniki
przyrody za pomocą metody naukowej. Jak już wyjaśniałem, istotą nauki jest odkrywanie
struktur i regularności w przyrodzie poprzez wynajdywanie sposobów algorytmicznego
upraszczania danych obserwacyjnych. W surowych danych obserwacyjnych rzadko da się
dostrzec bezpośrednio jakieś regularności. Przyroda ukrywa przed nami swój ład, głęboko go
kodując. Postęp w nauce dokonuje się poprzez łamanie tego kosmicznego kodu, wnikanie pod
powierzchnię surowych danych w poszukiwaniu ukrytego porządku. Przyrównywałem nieraz
badania podstawowe do rozwiązywania krzyżówki. Eksperymenty i obserwacje dostarczają nam
wskazówek do poszczególnych „haseł”, lecz są one wyrażone nie wprost i wymagają znacznych
umiejętności, aby je odpowiednio rozszyfrować. Wraz z odgadnięciem kolejnego „hasła” ukazuje
się nam następny fragment ogólnej struktury przyrody. Zarówno w przypadku krzyżówki, jak i
świata fizycznego, widzimy, że niezależne „hasła” łączą się w spójną całość, zazębiając się
wzajemnie, tak więc im więcej haseł odgadniemy, tym łatwiej znaleźć brakujące ogniwa.
Zadziwiające w tym wszystkim jest to, że ludziom rzeczywiście udaje się złamać ten kod,
że umysł człowieka jest wystarczająco wyposażony intelektualnie, by móc „odsłaniać tajemnice
przyrody” i pokusić się o rozwiązanie jej „tajemnej krzyżówki”. Łatwo wyobrazić sobie świat, w
którym regularności przyrody nie byłyby ukryte, lecz widoczne dla każdego na pierwszy rzut
oka. Możemy sobie także wyobrazić inny świat, w którym bądź to nie ma żadnych regularności,
bądź są one tak ukryte, tak wyrafinowane, że rozwiązanie kosmicznego kodu przekraczałoby
możliwości umysłu człowieka. My natomiast doświadczamy sytuacji, w której trudność
kosmicznego kodu jest, jak się wydaje, dokładnie dostosowana do możliwości intelektualnych
człowieka. Co prawda, rozszyfrowywanie zagadek przyrody sprawia nam wiele trudności, mimo
to odnosimy na tym polu wiele sukcesów. Uprawianie nauki jest na tyle wymagającym zadaniem,
że przyciąga najlepsze umysły, lecz nie na tyle ciężkim, by ich wysiłki poszły na marne, co
mogłoby zniechęcić do dalszego ich podejmowania.
Tajemnicą pozostaje to, że, jak się uważa, zdolności ludzkiego umysłu rozwinęły się na
drodze ewolucji biologicznej, która nie rna bezpośrednio żadnego związku z uprawianiem nauki.
Nasze mózgi ukształtowały się pod wpływem wymogów reagowania i dostosowania do
środowiska, takich jak konieczność polowania na zwierzynę, ucieczki przed drapieżnikami,
unikania spadających przedmiotów itp. Co to ma wspólnego z odkrywaniem praw
elektromagnetyzmu czy też poznawaniem struktury atomu? Intryguje to również Johna Barrowa:
„Dlaczegóż nasze procesy poznawcze dostosowały się do podejmowania takich
ekstrawaganckich celów, jak zrozumienie całego Wszechświata? - pyta on. - Dlaczego akurat
my? Żadna z wyrafinowanych koncepcji naukowych nie daje jakiejkolwiek przewagi, która
mogłaby wpłynąć na selekcję w procesie ewolucji. (...) Jakże szczęśliwym zbiegiem okoliczności
jest, że nasze umysły (przynajmniej niektóre) wykształciły się tak, by zgłębiać tajemnice
Przyrody”.
Tajemnica naszego niesamowitego powodzenia w rozwijaniu nauki pogłębi się jeszcze
bardziej, gdy uświadomimy sobie, jak bardzo ograniczone są możliwości uczenia się u
człowieka. Z jednej strony, ograniczona jest szybkość przyswajania nowych faktów i pojęć,
szczególnie tych o bardziej abstrakcyjnym charakterze. Normalnie trzeba co najmniej piętnaście
lat nauki, aby student opanował matematykę i inne dyscypliny nauki w stopniu wystarczającym,
by móc próbować wnieść własny wkład w badania podstawowe. Jednakże jest faktem ogólnie
znanym, że, dotyczy to zwłaszcza fizyki teoretycznej, największe sukcesy w nauce odnoszą
ludzie mający po dwadzieścia kilka, najwyżej trzydzieści kilka lat. Newton, na przykład, miał
zaledwie cztery lata, gdy odkrył prawo powszechnego ciążenia. Dirac jeszcze jako doktorant
sformułował swe relatywistyczne równanie falowe, które doprowadziło do odkrycia antymaterii.
Einstein miał dwadzieścia sześć lat, gdy opracował szczególną teorię względności, podstawy
mechaniki statystycznej i teoretyczne podstawy zjawiska fotoelektrycznego w ciągu zaledwie
kilku miesięcy wytężonej pracy twórczej. Jakkolwiek starsi naukowcy gotowi są temu przeczyć,
istnieją przekonywające dowody, że prawdziwie nowatorska twórczość naukowa ustaje około
czterdziestki. Już znaczny zasób wiedzy i jeszcze znaczne zdolności twórcze tworzą naukowca,
dając mu krótki, lecz efektywny „przedział sposobności”, kiedy to może dokonać znaczących
odkryć naukowych. Jednakże te ograniczenia intelektualne mają swe źródło w przyziemnych
aspektach ewolucji biologicznej i związane są z długością życia, budową mózgu i strukturą
społeczną u ludzi. Jakże dziwne zatem, że czynniki zestawione razem dopuszczają okres, w
którym możliwe jest twórcze uprawianie nauki.
I w tym przypadku możemy sobie wyobrażać świat, w którym wszystkim ludziom dana
jest wystarczająca ilość czasu na poznanie wszystkich faktów i koncepcji niezbędnych, by
uprawiać badania podstawowe, albo też świat, w którym nauczenie się wszystkich niezbędnych
rzeczy trwałoby tak długo, że nie stałoby na to życia u człowieka, a co najmniej okres twórczy
minąłby na długo przed ukończeniem tej edukacji. A żaden aspekt tego niesamowitego
„dostrojenia” człowieka do działalności poznawczej nie jest bardziej zadziwiający niż istnienie
matematyki, wytworu ludzkiego umysłu zdolnego zgłębiać tajniki Wszechświata.
Dlaczego prawa przyrody mają charakter matematyczny?
Niewielu ludzi zajmujących się nauką zastanawia się, dlaczego podstawowe prawa
przyrody mają postać matematyczną, uważając to za rzecz oczywistą. Jednak fakt, że
matematyka jest skuteczna w odniesieniu do świata fizycznego, i to tak zdumiewająco skuteczna,
wymaga uzasadnienia, gdyż nie wiadomo, dlaczego mielibyśmy prawo oczekiwać, że świat da
się dobrze opisać za pomocą matematyki. Jakkolwiek większość naukowców przyjmuje, że tak
musi być, dzieje nauki każą być tu ostrożnym. Wiele aspektów świata było długo uważanych za
oczywiste, a potem okazywało się, że są one wynikiem szczególnych warunków lub
okoliczności. Klasycznym przykładem może tu być newtonowska koncepcja absolutnego
uniwersalnego czasu. W życiu codziennym koncepcja ta w pełni się potwierdza, ale, jak się
okazuje, tylko dlatego, że poruszamy się o wiele wolniej niż światło. Może więc i matematyka
jest skuteczna tylko ze względu na jakieś szczególne okoliczności?
Jedna z postaw wobec tego problemu polega na przyjęciu, że owa „niepojęta skuteczność
matematyki”, by posłużyć się tu znanym sformułowaniem Wignera, jest uwarunkowana
kulturowo jako wynik sposobu, w jaki ludzie zdecydowali się poznawać świat. Już Kant
ostrzegał, że jeżeli patrzymy na świat przez różowe okulary, nic dziwnego, że widzimy go na
różowo. Mamy skłonność - twierdził - przenosić na świat naszą własną preferencję do
matematyki. Innymi słowy, to my narzucamy przyrodzie ład matematyczny, a nie przyroda nam.
Jest to dość poważny argument. Nie ulega wątpliwości, że naukowcy badając przyrodę chętnie
posługują się matematyką i skłonni są w większym stopniu podejmować te zagadnienia, które
można wyrazić w sposób matematyczny. Aspektom przyrody, których nie da się łatwo ująć w
ramy matematyki (np. dotyczących układów biologicznych i społecznych), zwykle przypisuje się
mniejszą wagę, określając jako fundamentalne jedynie aspekty spełniające kryteria
matematyzowalności. Zatem w przypadku pytania: „Dlaczego fundamentalne prawa przyrody
mają charakter matematyczny”, narzuca się trywialna odpowiedź: „Ponieważ za fundamentalne
uznajemy tylko te prawa, które są matematyczne”.
Sposób, w jaki postrzegamy świat, w oczywisty sposób determinowany jest częściowo
przez budowę naszego mózgu. W procesie ewolucji biologicznej, z nie znanych nam bliżej
powodów, mózg człowieka ukształtował się w ten sposób, że łatwo wyszukuje i skupia uwagę
właśnie na matematycznych aspektach przyrody. Jak już mówiłem w rozdziale l, można sobie
wyobrazić, że gdzieś w kosmosie żyją inteligentne istoty, u których ewolucja przebiegała
zupełnie odmiennie i ich mózgi nie są podobne do naszych. Istoty te mogłyby nie podzielać
naszych kategorii myślenia, w szczególności naszego upodobania do matematyki, stosując w
poznaniu świata kategorie zupełnie dla nas niezrozumiałe.
Czyż zatem skuteczność matematyki w naukach przyrodniczych jest jedynie
uwarunkowanym kulturowo wybrykiem, przypadkowym wytworem ewolucji biologicznej i
społecznej człowieka? Niektórzy uczeni i filozofowie utrzymują, że tak jest rzeczywiście, ale
przyznaję, że twierdzenie to, z wielu powodów, wydaje mi się nazbyt pochopne. Po pierwsze,
znaczna część matematyki, która wykazała tak spektakularną skuteczność w fizyce, powstała w
wyniku czysto abstrakcyjnych rozważań matematyków na długo przed zastosowaniem do opisu
rzeczywistego świata. Nie brali zupełnie pod uwagę możliwości ich zastosowania. Ten
„niezależny świat, stworzony mocą czystego rozumu”, jak określił go James Jeans, dopiero
później okazał się użyteczny w badaniach naukowych. Angielski matematyk G.H. Hardy napisał,
że matematykę uprawia się dla jej piękna, a nie zastosowań praktycznych, szczycąc się wręcz, iż
zupełnie nie wyobraża sobie, by jego prace znalazły kiedykolwiek jakieś zastosowanie. A jednak
odkrywamy, czasem w wiele lat później, że przyroda postępuje według reguł matematycznych,
które już dawno zostały sformułowane przez czystych matematyków. (Jak na ironię, dotyczy to
również znacznej części dorobku Hardy'ego). Jeans zwrócił uwagę, że matematyka jest tylko
jedną z wielu konstrukcji intelektualnych. Podejmowane były próby skontruowania modelu
świata jako, na przykład, żywego organizmu, czy też jako mechanizmu, które ostatecznie nie
powiodły się. Dlaczego metoda matematyczna miałaby być tak płodna, gdyby nie związana była
z jakąś realną własnością w przyrodzie?
Penrose, który również podejmuje to zagadnienie, zdecydowanie odrzuca tezę o
uwarunkowaniu kulturowym matematyki. Nawiązując do zdumiewającego sukcesu teorii takich
jak ogólna teoria względności, pisze on:
Trudno mi przypuścić, jak utrzymują niektórzy, że tak DOSKONAŁE teorie miałyby
powstać w wyniku czysto przypadkowej selekcji naturalnej spośród różnych koncepcji
intelektualnych, w której przetrwałyby tylko te najlepsze. Ich doskonałość jest zbyt duża, by
mogły być jedynie zbiorem przypadkowo dobranych idei. Musi zachodzić jakiś głęboko uk
r
yty
powód tak znacznej zgodności między matematyką a fizyką, tj. między platońskim światem
idealnym a światem fizycznym.
Penrose przyznaje się do przekonania, które, jak stwierdziłem, jest dość
rozpowszechnione wśród naukowców, że najnowsze dokonania w dziedzinie fizyki teoretycznej
stanowią faktycznie odkrycie nowych aspektów rzeczywistości, a nie tylko nadanie danym
eksperymentalnym postaci bardziej strawnej dla możliwości poznawczych człowieka.
Wysuwano także argument, że to nasz mózg przystosował się ewolucyjnie w ten sposób,
że odzwierciedla własności fizycznego świata, w tym także jego własności matematyczne, nic
zatem dziwnego, iż odkrywamy matematykę w przyrodzie. Ale jak już wspominałem, to właśnie
jest wielką zagadką, że w ludzkim mózgu rozwinęły się tak nadzwyczajne zdolności do
uprawiania matematyki, gdyż nie widać, by abstrakcyjna matematyka mogła mieć jakąkolwiek
wartość dla przetrwania gatunku. To samo można odnieść do uzdolnień muzycznych.
Wiedzę o świecie uzyskujemy na dwa odrębne sposoby. Pierwszym z nich jest
bezpośrednia percepcja, drugim zastosowanie logicznego myślenia i wyższych funkcji
intelektualnych. Rozważmy przypadek, że obserwujemy spadający kamień. Zjawisko fizyczne
zachodzące w zewnętrznym świecie odzwierciedla się w naszym umyśle, ponieważ mózg
konstruuje wewnętrzny model świata, w którym coś, co odpowiada fizycznemu przedmiotowi,
„kamieniowi”, porusza się w trójwymiarowej przestrzeni: widzimy spadający kamień. Z drugiej
strony, upadek kamienia można rozpatrywać w zupełnie odmienny, znacznie głębszy sposób. Na
podstawie praw Newtona, uzupełnionych odpowiednią matematyką, można utworzyć sobie
innego rodzaju model spadającego kamienia. Nie jest to model umysłowy, tak jak w przypadku
percepcji, niemniej jednak stanowi on konstrukcję umysłu, w której pojmuje się dany spadający
kamień jako konkretny przypadek pewnej szerszej kategorii procesów fizycznych. Model
matematyczny oparty na prawach fizyki nie jest czymś, co naprawdę widzimy, niemniej
dostarcza on, na swój abstrakcyjny sposób, pewnego typu wiedzy o świecie, i to wiedzy
wyższego rzędu.
Wszystko wskazuje na to, że ewolucja typu darwinowskiego przystosowała nas do
poznawania świata poprzez bezpośrednią percepcję. Zapewniało to bez wątpienia przewagę w
procesie doboru naturalnego, jednakże nie ma żadnych oczywistych związków pomiędzy
poznawaniem zmysłowym tego typu a poznaniem intelektualnym. Studenci często zmagają się z
pewnymi działami fizyki, jak mechanika kwantowa i teoria względności, ponieważ starają się je
zrozumieć poprzez wizualizację. Próbują „zobaczyć” zakrzywioną przestrzeń czy też ruch
elektronu w atomie oczyma duszy i zupełnie im się to nie udaje. Nie jest to bynajmniej ich wina -
nie sądzę, by jakikolwiek człowiek był w stanie przedstawić sobie wiernie te rzeczy w sposób
obrazowy. Nic też w tym dziwnego - efekty kwantowe i relatywistyczne nie uwidaczniają się
zasadniczo w życiu codziennym i ich uwzględnienie w tworzonym przez umysł modelu świata
nie dawałoby naszym mózgom żadnej wyraźnej przewagi ewolucyjnej. Pomimo to fizycy są w
stanie zgłębiać świat fizyki kwantowej i relatywistycznej za pomocą matematyki, odpowiednio
dobranych eksperymentów, abstrakcyjnego rozumowania i innych racjonalnych procedur.
Zagadką pozostaje, dlaczego dysponujemy takimi podwójnymi zdolnościami poznawania świata?
Nie ma żadnych przesłanek, by uznać tę drugą metodę za udoskonalenie pierwszej. Są to
zupełnie od siebie niezależne drogi poznania rzeczywistości. Jednakże, podczas gdy pierwsza w
widoczny sposób zaspokaja potrzeby biologiczne, druga z punktu widzenia biologii nie przynosi
żadnego zauważalnego pożytku.
Zagadka ta staje się jeszcze głębsza, gdy weźmiemy pod uwagę występowanie ludzi
genialnie uzdolnionych matematycznie lub muzycznie, których biegłość w tych dziedzinach
przewyższa o całe rzędy wielkości poziom średni dla całej populacji. Zdumiewająca intuicja
takich matematyków jak Gauss i Riemann uwidaczniała się nie tylko w ich niezwykłych
dokonaniach w dziedzinie matematyki (Gauss już w dzieciństwie uchodził za geniusza; miał
także fotograficzną pamięć), lecz także w tym, że wiele twierdzeń zapisywali bez dowodu,
pozostawiając następnym pokoleniom trud formalnego wykazania ich prawdziwości. W jaki
sposób ci matematycy byli w stanie otrzymać od razu w gotowej postaci wyniki, których
dowody, jak się później okazywało, wymagały przeprowadzenia długich i niezwykle złożonych
rozumowań, naprawdę nie wiemy.
Prawdopodobnie najsłynniejszym przykładem jest tu przypadek hinduskiego matematyka
S. Ramanujana. Ramanujan, urodzony pod koniec dziewiętnastego wieku w Indiach, pochodził z
bardzo biednej rodziny i otrzymał zaledwie elementarne wykształcenie. Matematyki nauczył się
praktycznie samodzielnie, przy czym, będąc izolowanym od głównego nurtu życia
akademickiego, podchodził do niej w sposób dość niekonwencjonalny. Ramanujan zapisał całą
masę twierdzeń bez dowodu, niektóre z nich o bardzo szczególnym charakterze, które nie
przyszłyby do głowy bardziej konwencjonalnie nastawionemu matematykowi. W końcu o
pracach Ramanujana dowiedział się Hardy i wprawiły go one w zdumienie. „Nigdy przedtem nie
widziałem nic podobnego - twierdził. - Wystarczyło na nie raz popatrzeć, by być pewnym, że
mogły one wyjść spod pióra tylko matematyka najwyższej klasy”. Hardy'emu udało się
przeprowadzić dowód niektórych z twierdzeń Ramanujana, lecz jedynie z największą trudnością,
stosując pełny zakres swoich własnych, wcale niemałych, umiejętności matematycznych.
Udowodnienie pozostałych przerastało już jego możliwości, jednakże czuł, że muszą być one
prawdziwe, gdyż „nikomu nie stałoby wyobraźni, by je wymyśleć”. Hardy'emu udało się
sprowadzić Ramanujana do Cambridge i zamierzał pracować z nim wspólnie. Niestety,
Ramanujan, który nie mógł przystosować się do innego środowiska kulturowego i miał poważne
problemy ze zdrowiem, zmarł przedwcześnie w wieku zaledwie trzydziestu trzech lat,
pozostawiając olbrzymi zasób matematycznych hipotez dla potomności.
Do dziś dnia nie wiadomo, w jaki sposób mógł on osiągnąć tak niezwykłe wyniki. Jeden z
matematyków wyraził się, że twierdzenia wprost „wypływały z jego głowy”, bez zauważalnego
wysiłku. Byłaby to rzecz godna uwagi u każdego matematyka, lecz w przypadku człowieka,
który nie studiował matematyki w konwencjonalny sposób, była doprawdy czymś
nadzwyczajnym. Narzuca się przypuszczenie, że Ramanujan obdarzony był szczególną
zdolnością bezpośredniego oglądu matematycznej Krainy Myśli, skąd mógł czerpać gotowe
twierdzenia, jakie tylko chciał.
Równie tajemnicze są przedziwne przypadki tak zwanych błyskawicznych rachmistrzów -
ludzi potrafiących wykonywać prawie natychmiastowo niewiarygodnie złożone rachunki w
pamięci, nie mając przy tym najmniejszego pojęcia, w jaki sposób otrzymują odpowiedź.
Shakuntala Devi, mieszkająca w indyjskim mieście Bangalore, objeżdża świat zadziwiając
publiczność na pokazach swymi umiejętnościami rachunkowymi. Podczas jednego z pokazów w
Teksasie obliczyła prawidłowo w pamięci pierwiastek dwudziestego trzeciego stopnia z
dwustucyfrowej liczby w ciągu zaledwie pięćdziesięciu sekund!
Jeszcze bardziej szczególne są być może przypadki „autystycznych mędrców”,
upośledzonych umysłowo ludzi, którzy niejednokrotnie nie umieją wykonać najbardziej
elementarnych działań arytmetycznych, a pomimo to wykazują niesamowitą umiejętność
prawidłowego rozwiązywania zadań matematycznych, które zwykłym ludziom wydają się
nieprawdopodobnie trudne. Na przykład w Stanach Zjednoczonych żyje dwóch opóźnionych
umysłowo braci, którzy szybciej niż komputer potrafią znajdować liczby pierwsze. W innym
przypadku, w programie pokazywanym w angielskiej telewizji upośledzony mężczyzna prawie
bez namysłu określał właściwie dzień tygodnia, gdy podawano mu jakąś datę, nawet spoza
naszego stulecia.
Jesteśmy oczywiście przyzwyczajeni do tego, że poszczególni ludzie są bardzo
zróżnicowani pod względem zdolności fizycznych i umysłowych. Jedni potrafią skoczyć wzwyż
powyżej dwóch metrów, podczas gdy innym sprawia trudność przeskoczenie jednego metra.
Jednakże wyobraźmy sobie, że oto ktoś nagle skacze na wysokość dwudziestu lub dwustu
metrów! A przecież skala wyczynów intelektualnych prezentowanych przez umysły uzdolnione
matematycznie jest znacznie większa niż zróżnicowanie uzdolnień fizycznych.
Naukowcy są wciąż dalecy od poznania, w jaki sposób zdolności intelektualne są
determinowane genetycznie. Być może tylko bardzo rzadko pojawia się u ludzi zestaw genów
powodujący nadzwyczajne zdolności matematyczne. A może nie zdarza się to tak rzadko, lecz
geny te nie zawsze zostają uaktywnione. Niemniej jednak w obu przypadkach odpowiednie geny
występują w puli genetycznej człowieka. Fakt, że genialni matematycy pojawiają się w każdym
pokoleniu, świadczy o tym, iż rozkład tej cechy w puli genetycznej jest dość stabilny. Jeżeli
cecha ta wykształciła się przypadkowo, a nie pod wpływem czynników otoczenia, to jest
prawdziwie zadziwiającym zbiegiem okoliczności, że matematyka da się bezpośrednio stosować
do świata fizycznego. Z drugiej strony, jeśli nawet zdolności matematyczne w jakiś, bliżej nie
znany, sposób sprzyjają przetrwaniu i rozwinęły się w wyniku doboru naturalnego, nadal stoimy
przed zagadką, dlaczego prawa przyrody mają charakter matematyczny. Przecież przetrwanie „w
dżungli” nie wymaga znajomości praw przyrody, lecz wyłącznie ich przejawów. Jak się
przekonaliśmy, same prawa są zakodowane w przyrodzie i nie mają wcale prostego odniesienia
do rzeczywistych zjawisk fizycznych, które im podlegają. Dla przetrwania istotna jest
prawidłowa ocena, jaki świat jest, a nie znajomość jego ukrytego fundamentalnego porządku. A
już na pewno nie jest ono uwarunkowane wiedzą o budowie jądra atomu, czarnych dziurach czy
też cząstkach elementarnych, które na Ziemi powstają tylko w wielkich akceleratorach.
Można by sądzić, że gdy uchylamy się przed rzuconym kamieniem lub szacujemy, jak
bardzo musimy się rozpędzić, by przeskoczyć strumień, czynimy użytek ze znajomości praw
mechaniki, ale tak nie jest. Korzystamy wtedy jedynie z doświadczenia zdobytego w
analogicznych sytuacjach. Nasz mózg reaguje na takie wyzwania automatycznie, nie dokonując
całkowania newtonowskich równań ruchu, jak fizyk analizujący tę samą sytuagę od strony
naukowej. Aby dokonywać oceny ruchu ciał w trójwymiarowej przestrzeni, nasz mózg musi się
odznaczać pewnymi szczególnymi własnościami. Uprawianie matematyki (na przykład rachunku
różniczkowego i całkowego, przydatnego przy naukowym opisie tego ruchu) również wymaga
posiadania przez mózg określonych własności. Nie widzę żadnych przesłanek, by zakładać, że te
dwa w zasadzie odmienne zestawy własności miałyby sobie odpowiadać lub że jeden z nich
miałby być (nawet czysto przypadkowym) wytworem drugiego.
W istocie, fakty przemawiają za tezą przeciwną. Zwierzęta, tak jak my, potrafią uchylać
się przed rzuconym kamieniem i skutecznie przeskakiwać przez przeszkody, lecz nie przejawiają
żadnych zdolności matematycznych. Ptaki, na przykład, w o wiele większym stopniu niż ludzie
wykorzystują bezpośrednio prawa mechaniki i ich mózgi są odpowiednio do tego ewolucyjnie
przystosowane. Jednakże, jak wykazały eksperymenty z jajami ptaków, nie potrafią one liczyć
więcej niż do trzech. Znajomość pewnych regularności w przyrodzie, takich jakie występują w
mechanice, jest dla przetrwania bardzo istotna, toteż została wbudowana w mózgi ludzi i zwierząt
już na bardzo pierwotnym poziomie. W przeciwieństwie do tego, matematyka stanowi wyższą
funkcję umysłu, najwyraźniej spotykaną tylko u człowieka (przynajmniej, gdy bierzemy pod
uwagę tylko życie na Ziemi). Jest ona wytworem najbardziej złożonego ze znanych układów w
przyrodzie, a jednak jej najbardziej spektakularne sukcesy dotyczą najbardziej elementarnych
procesów przyrody: oddziaływań cząstek w atomie. Jak to się dzieje, że najbardziej złożony
układ połączony łączy się w ten sposób bezpośrednio z procesami najprostszymi?
Można by twierdzić, że skoro mózg jest wytworem procesów fizycznych, nie ma nic
dziwnego w tym, że odzwierciedla istotę tych procesów, w tym także ich matematyczność.
Jednak w rzeczywistości nie zachodzi żaden bezpośredni związek pomiędzy prawami fizyki a
budową mózgu. Tym, co odróżnia mózg od kilograma zwykłej materii, jest jego wewnętrzna
złożoność, w szczególności niezwykle skomplikowany system połączeń między neuronami.
Struktury tej nie da się uzasadnić wyłącznie w kategoriach praw fizyki. Zależy ona od szeregu
innych czynników, w tym całego mnóstwa wydarzeń przypadkowych, jakie towarzyszyły
procesowi ewolucyjnemu. Prawa, które miały decydujący udział w kształtowaniu struktury
mózgu (takie jak prawa genetyki Mendla), nie mają bezpośredniego związku z prawami fizyki.
Jak możemy wiedzieć cokolwiek, nie wiedząc wszystkiego?
Pytanie to, postawione wiele lat temu przez matematyka Hermanna Bondiego, jest
obecnie jeszcze bardziej aktualne, wobec postępu, jaki dokonał się w teorii zjawisk kwantowych.
Mówi się często, że świat jest jednością, że przyroda połączona jest wewnętrznie w jedną wielką
całość. W pewnym sensie jest to prawda. Niemniej prawdą jest też, że jesteśmy w stanie zdobyć
nawet bardzo szczegółową wiedzę o poszczególnych jej elementach, nie wiedząc wszystkiego. W
istocie, nauka nie byłaby w ogóle możliwa, gdybyśmy nie mogli zdobywać wiedzy „po
kawałku”. Galileusz odkrywając prawo spadku swobodnego ciał nie musiał znać rozkładu
wszystkich mas we Wszechświecie; własności elektronów w atomie mogły być odkryte, zanim
poznano budowę jądra, i tak dalej. Nietrudno wyobrazić sobie świat, w którym zjawiska
związane z jednym miejscem, bądź też jedną skalą rozmiarów lub energii, są na tyle ściśle
związane z wszystkimi innymi, że nie można ich ująć osobno w postać prostych praw.
Odwołując się do analogii z krzyżówką: zamiast krzyżującej się siatki odzielnych słów,
mielibyśmy do odgadnięcia jedno niezwykle skomplikowane słowo. Poznanie Wszechświata
odbywałoby się na zasadzie „wszystko-albo-nic”.
Całą zagadkę pogłębia fakt, że tak naprawdę owa rozdzielność przyrody ma charakter
jedynie przybliżony. W rzeczywistości Wszechświat jest jedną całością. Pozycja Księżyca ma
wpływ na spadające na Ziemi jabłko, i na odwrót. Na ruch elektronów w atomie wpływają także
siły jądrowe. Jednakże w obydwu przypadkach efekty tych oddziaływań są na tyle małe, że
praktycznie prawie zawsze możemy je zaniedbać. Niemniej nie dotyczy to wszystkich układów.
Wspominałem już o istnieniu układów chaotycznych, które są niezmiernie wrażliwe na
najdrobniejsze zewnętrzne zaburzenia. Sprawia to, że układy chaotyczne zachowują się w sposób
nieprzewidywalny. Jednakże, pomimo iż żyjemy w świecie pełnym układów chaotycznych,
potrafimy wydzielić zeń znaczną liczbę układów fizycznych, których zachowanie da się
przewidzieć i opisywać za pomocą matematyki.
Można to przypisać po części dwóm ciekawym własnościom, zwanym „liniowością” i
„lokalnością”. Układ liniowy spełnia dość szczególne matematyczne warunki rozdzielności
mnożenia względem dodawania, związane z wykresami w postaci linii prostych - stąd nazwa
„liniowy”, których nie będę tu bliżej omawiał (przedstawiłem je bardziej szczegółowo w mojej
książce The Matter Myth [Mit materii]). Na przykład prawa elektromagnetyzmu, opisujące pola
magnetyczne i elektryczne, są w bardzo dużym stopniu dokładności liniowe. Układy liniowe nie
mają charakteru chaotycznego i nie są zbyt czułe na drobne zaburzenia zewnętrzne.
Żaden układ nie jest jednak dokładnie liniowy, zatem problem separowalności sprowadza
się do kwestii, dlaczego efekty nieliniowe są na ogół w praktyce tak małe. Zazwyczaj bierze się
to stąd, że wchodzące w grę odziaływania nieliniowe są same w sobie niezwykle słabe bądź mają
bardzo krótki zasięg, albo i to, i to. Nie wiemy na razie, dlaczego siła i zasięg poszczególnych
oddziaływań w przyrodzie są takie, jakie są: być może kiedyś uda się je wyliczyć z jakiejś
ogólnej teorii. Inną możliwością jest, że są to „stałe przyrody”, których nie sposób wyprowadzić
z samych praw. Istnieje jeszcze trzecia możliwość, że te „stałe” nie są wcale stałymi, których
wartości są raz na zawsze ustalone, „dane od Boga”, lecz uwarunkowane są przez faktyczny stan
Wszechświata; innymi słowy, wyznaczone są przez kosmiczne warunki początkowe.
Własność lokalności odnosi się do faktu, że, jak to ma miejsce w większości przypadków,
zachowanie się układu fizycznego wyznaczone jest całkowicie przez siły i oddziaływania
występujące w jego bezpośrednim otoczeniu. Tak więc przyśpieszenie spadającego swobodnie
jabłka w danym punkcie przestrzeni zależy od natężenia pola grawitacyjnego tylko w tym
punkcie. Ta sama reguła stosuje się do wielu innych oddziaływań i okoliczności. Istnieją wszakże
sytuacje, w których mamy do czynienia ze zjawiskami nielokalnymi. Weźmy na przykład dwie
cząstki elementarne, które oddziaływają ze sobą lokalnie, a następnie oddalają się od siebie. Z
zasad mechaniki kwantowej wynika, że nawet gdy cząstki te znajdą się na przeciwległych
krańcach Wszechświata, nadal muszą być uważane za niepodzielną całość; to znaczy, wynik
pomiaru przeprowadzonego na jednej z cząstek będzie częściowo zależał od stanu drugiej
cząstki. Einstein określał tę nielokalność jako „widmowe oddziaływanie na odległość”, nie
wierząc zupełnie w jej realny charakter. Tymczasem przeprowadzone ostatnio eksperymenty
potwierdziły ponad wszelką wątpliwość, że takie efekty nielokalne faktycznie występują.
Uogólniając, należy stwierdzić, że na poziomie subatomowym, opisywanym przez mechanikę
kwantową, zespół wielu cząstek musi być traktowany holistycznie, gdyż zachowanie jednej
cząstki jest nieodłącznie związane z zachowaniem pozostałych, niezależnie od tego, jak wielkie
będą ich wzajemne odległości.
Fakt ten ma istotne znaczenie dla Wszechświata jako całości. Gdybyśmy chcieli
arbitralnie określić stan kwantowy całego kosmosu, odpowiadałby on prawdopodobnie
gigantycznemu zespołowi wzajemnie oddziałujących wszystkich cząstek we Wszechświecie. W
rozdziale 2 wspominałem o najnowszych ideach Hartle'a i Hawkinga dotyczących kwantowego
opisu Wszechświata jako całości, czyli kosmologii kwantowej. Jednym z wielkich wyzwań
stojących przed kosmologami kwantowymi jest wyjaśnienie, w jaki sposób świat, który znamy z
naszego doświadczenia, wyłonił się z mglistego stanu początkowego. Przypomnijmy, że
mechanika kwantowa zawiera zasadę nieoznaczoności Heisenberga, która przewiduje rozmycie
wartości wszystkich wielkości obserwowalnych w nieprzewidywalny sposób. Zgodnie z tym nie
można przyjmować, że elektron wewnątrz atomu posiada w każdej chwili określoną pozycję w
przestrzeni. Nie powinno się wręcz wyobrażać sobie, że krąży on wokół jądra atomu po
konkretnej orbicie, lecz że jest on w bliżej nie określony sposób rozmyty wokół jądra.
Chociaż tak to wygląda w przypadku elektronów w atomie, dla obiektów
makroskopowych takiego rozmycia nie obserwujemy. Zatem planeta Mars ma w każdej chwili
dokładną pozyq'ę w przestrzeni i porusza się po dobrze określonej orbicie wokół Słońca. Pomimo
to Mars także podlega prawom mechaniki kwantowej. Można więc zapytać, jak to uczynił kiedyś
Enrico Fermi, dlaczego Mars nie jest rozmyty wokół Słońca, tak jak elektron wokół jądra atomu.
Innymi słowy, założywszy, że narodziny Wszechświata były procesem kwantowym, jak to się
stało, że powstał świat zasadniczo niekwantowy? Początkowo, gdy rozmiary Wszechświata były
jeszcze bardzo małe, dominowała w nim nieokreśloność kwantowa, lecz obecnie dla ciał
makroskopowych nie obserwujemy żadnych jej przejawów.
Większość naukowców czyni milczące założenie, że w przybliżeniu niekwantowy (czyli
„klasyczny”, by użyć przyjmowanego określenia) świat jest koniecznym rezultatem Wielkiego
Wybuchu, nawet zdominowanego początkowo przez efekty kwantowe. Niedawno jednak Hartle i
Gell-Mann zakwestionowali ten pogląd, dowodząc, że istnienie świata w przybliżeniu
klasycznego, w którym dobrze określone obiekty materialne znajdują się w określonych
miejscach przestrzeni i w którym obowiązuje dobrze określone pojęcie czasu, jest możliwe tylko
dla pewnych szczególnych warunków początkowych. Z ich obliczeń wynika, że dla większości
możliwych warunków początkowych taki klasyczny świat by nie powstał i podział świata na
odrębne obiekty, zajmujące konkretne położenie w dobrze określonej czasoprzestrzeni, nie byłby
możliwy. Zasada lokalności nie obowiązywałaby. Wydaje się prawdopodobne, że w takim
rozmytym świecie nie byłoby możliwe poznanie czegokolwiek bez poznania wszystkiego. W
istocie Hartle i Gell-Mann twierdzą, że sama koncepcja praw fizyki klasycznej, takich jak prawa
mechaniki Newtona, nie może być uznana za fundamentalną cechę rzeczywistości, lecz jest
pozostałością Wielkiego Wybuchu i konsekwencją szczególnego kwantowego stanu
początkowego Wszechświata.
Jeżeli jest także prawdą, jak wspominałem powyżej, że siła i zasięg oddziaływań w
przyrodzie również zależy od kwantowego stanu Wszechświata, to możemy dojść do istotnego
wniosku. Zarówno liniowość, jak i lokalność większości układów fizycznych nie wynika wcale z
jakichś praw fundamentalnych, lecz ze szczególnego stanu kwantowego u początków
Wszechświata. Racjonalność świata, fakt, że możemy poznawać go stopniowo, odkrywając
kolejne prawa, to znaczy, że nauka jest w ogóle możliwa, nie jest czymś koniecznym, absolutnie
obowiązującym, lecz należy ją przypisać szczególnym, może nawet bardzo szczególnym,
kosmicznym warunkom początkowym. „Niepojęta skuteczność” matematyki w odniesieniu do
świata rzeczywistego byłaby zatem skutkiem „niepojęcie skutecznych” warunków
początkowych.
Rozdział siódmy
DLACZEGO NASZ ŚWIAT JEST WŁAŚNIE TAKI?
Einstein nadmienił kiedyś, iż najbardziej go ciekawi, czy Bóg stwarzając świat miał jakąś
możliwość wyboru. Einstein nie był człowiekiem wierzącym w tradycyjnym sensie, niemniej
chętnie posługiwał się pojęciem Boga jako metaforą przydatną przy wyrażaniu najbardziej
zasadniczych kwestii egzystencjalnych. To konkretne pytanie dręczyło całe pokolenia uczonych,
filozofów i teologów. Czy świat z konieczności jest taki, jaki jest, czy też mógłby równie dobrze
być zupełnie inny? a jeśli mógłby być inny, w jaki sposób moglibyśmy uzasadnić, dlaczego
jednak jest właśnie taki?
Podejmując kwestię, czy Bóg mógł stworzyć świat tak, jak chciał, Einstein nawiązywał
do idei siedemnastowiecznego filozofa Benedykta Spinozy. Spinoza był panteistą i uważał
obiekty świata fizycznego za atrybuty Boga, a nie rzeczy przez niego stworzone. Utożsamiając
Boga z przyrodą, Spinoza odrzucał chrześcijańską koncepcję transcendentnego Boga, który
stworzył świat jako akt swej wolnej woli. Z drugiej strony, Spinoza nie był bynajmniej ateistą,
był przekonany, że potrafi udowodnić na gruncie logiki, że Bóg musi istnieć. Ponieważ uznał
tożsamość Boga ze światem fizycznym, oznaczało to, że potrafi udowodnić, iż nasz konkretny
świat również istnieje z konieczności. U Spinozy Bóg nie miał żadnej możliwości wyboru:
„Świat nie mógłby być powołany do istnienia przez Boga w jakikolwiek inny sposób ani w
jakiejkolwiek innej postaci niż ta, którą faktycznie otrzymał” - pisał on.
Ten trend myślowy - że rzeczywistość w tej postaci jest logicznie konieczna i nie
mogłaby być inna - jest obecnie dość powszechny wśród naukowców. Na ogół jednak wolą oni
nie wprowadzać do niej Boga. Gdyby mieli rację, oznaczałoby to, że świat jest układem
zupełnym i zamkniętym pod względem poznawczym, w którym wszystko da się uzasadnić i nie
ma miejsca na żadną tajemnicę, a także, iż w zasadzie nie potrzebujemy obserwować świata, aby
poznać, co i jak w obrębie niego istnieje, ponieważ wszystko, co istnieje, jest logicznie
konieczne, istotę Wszechświata można zgłębić mocą samego rozumu. „Jestem głęboko
przekonany - pisał Einstein, do którego przemawiała ta idea - że czystą myślą możemy dosięgnąć
rzeczywistości, tak jak marzyli o tym starożytni. (...) Za pomocą czystej matematyki jesteśmy w
stanie odkryć koncepcje oraz spajające je w jedną całość prawa, które stanowią klucz do
zrozumienia zjawisk przyrody”. Oczywiście, możemy nie okazać się wystarczająco inteligentni,
aby faktycznie otrzymać właściwe koncepcje i prawa wyłącznie na drodze dedukcji
matematycznej, ale nie w tym rzecz. Gdyby taka zamknięta pod względem poznawczym
struktura była w ogóle możliwa, zmieniłoby to zasadniczo nasze myślenie o Wszechświecie i
miejscu, jakie w nim zajmujemy. Jednakże, czy te aspiracje do zupełnego i jednolitego systemu
są w jakikolwiek sposób uzasadnione, czy też są jedynie próżną mrzonką?
Poznawalność Wszechświata
U podłoża tych wszystkich pytań kryje się podstawowe założenie: że świat jest zarówno
racjonalny, jak i poznawalny. Często wyraża się to w postaci tzw. „zasady racji dostatecznej”,
stwierdzającej, że zawsze istnieje powód, dlaczego coś jest takie, jakie jest. Dlaczego niebo jest
koloru niebieskiego? Dlaczego jabłka spadają z drzewa na ziemię? Dlaczego Układ Słoneczny
liczy dziewięć planet? Nie zadowalamy się zwykle odpowiedzią: „Bo tak już jest”, wierząc, że
zawsze jest jakaś racja, aby coś było właśnie takie. Gdyby istniały na świecie jakieś fakty,
których z założenia nie moglibyśmy uzasadnić (tak zwane luźne fakty), to świat zostałby
pozbawiony racjonalności i jawiłby się nam jako absurdalny.
Większość ludzi akceptuje zasadę racji dostatecznej bez pytania. Cała nauka wręcz oparta
jest na założeniu, że przyroda jest racjonalna. Zasada ta podzielana jest także przez większość
teologów, gdyż wierzą oni, że Bóg także jest racjonalny. Czyż jednak możemy być absolutnie
pewni, że zasady tej nie można kwestionować? Czy dysponujemy dostateczną racją, by wierzyć,
że zasada racji dostatecznej jest bezwzględnie słuszna? Prawdą jest, że zasada ta zazwyczaj się
potwierdza: jabłka spadają na ziemię pod wpływem siły ciążenia; niebo jest niebieskie, gdyż
promienie świetlne o małej długości fali ulegają rozproszeniu na cząsteczkach powietrza, i tak
dalej. Ale z tego nie wynika, że sprawdzi się ona zawsze. Oczywiście, gdyby okazała się
fałszywa, to poszukiwanie ostatecznego uzasadnienia straciłoby wszelki sens. W każdym razie,
niezależnie od tego, czy zasada racji dostatecznej jest prawdziwa czy też nie, warto przyjąć ją
jako hipotezę roboczą, by przekonać się, gdzie nas ona doprowadzi.
Przystępując do rozważania fundamentalnych problemów związanych z istnieniem
świata, musimy rozróżnić dwie kategorie.
Do pierwszej należą fakty dotyczące świata fizycznego, takie jak liczba planet w Układzie
Słonecznym. W samej rzeczy planet jest dziewięć, lecz nie widać żadnych powodów, by
przypuszczać, że musi ich być dziewięć. Przeciwnie, możemy sobie bez trudu wyobrazić, że jest
ich osiem albo dziesięć. Aby uzasadnić, dlaczego jest ich dziewięć, musielibyśmy rozpatrzeć, w
jaki sposób Układ Słoneczny uformował się z obłoku gazowego, względną obfitość pierwiastków
w tym obłoku, i tak dalej. Jako że uzasadnienie własności Układu Słonecznego wymaga
odwołania się do czegoś poza nim, własności określane są mianem „przygodnych”. Coś jest
przygodne, jeżeli mogłoby być inne, i uzasadnienie, dlaczego jest właśnie takie, wymaga
odwołania się do czegoś zewnętrznego, czegoś poza tą rzeczą.
Druga kategoria obejmuje fakty, obiekty i zdarzenia, które nie są przygodne, określane
mianem „koniecznych”. Coś jest konieczne, jeżeli jest, jakie jest, niezależnie od czegokolwiek
innego. Rzecz konieczna zawiera w sobie rację swego istnienia i nie ulega nigdy zmianie, nawet
gdyby zmieniło się wszystko poza nią.
Ciężko jest przekonać się, czy w przyrodzie istnieje cokolwiek koniecznego.
Niewątpliwie wszystkie ciała fizyczne, jakie napotykamy wokół nas, i związane z nimi
wydarzenia zależą w jakiś sposób od reszty świata, więc muszą być uznane za przygodne.
Ponadto, jeżeli coś jest w sposób konieczny tym, czym jest, to musi takie pozostać na zawsze; nie
może ulec żadnej zmianie. Rzecz konieczna nie może zawierać żadnego odniesienia do czasu.
Stan świata ustawicznie się zmienia w czasie, a zatem wszystkie ciała fizyczne
współuczestniczące w tych zmianach są przygodne.
Co z Wszechświatem jako całością, skoro definiując go odwołujemy się do czasu? Miałby
on być bytem koniecznym? Tak uważał Spinoza i jego następcy. Na pierwszy rzut oka nie
wydaje się, aby mogli oni mieć rację, gdyż z łatwością możemy sobie wyobrazić, że
Wszechświat jest inny. Oczywiście, możliwość wyobrażenia sobie czegokolwiek nie jest żadną
gwarancją, że jest to możliwe, a nawet że jest logicznie dopuszczalne. Niemniej jestem
przekonany, że są dostateczne powody, by przyjmować, iż Wszechświat mógłby być inny, i
krótko je tutaj omówię.
A co z prawami fizyki? Czy mają one charakter konieczny, czy przygodny? W tym
przypadku sytuacja jest mniej jasna. Zazwyczaj prawa te uznawane są za pozaczasowe i wieczne,
a więc można by argumentować, że są one konieczne. Z drugiej strony, doświadczenie pokazuje,
iż w miarę postępu fizyki prawa niegdyś uważane za niezależne okazują się być ze sobą
powiązane. Dobrym przykładem może tu być niedawne odkrycie, że słabe oddziaływania
jądrowe i oddziaływania elektromagnetyczne stanowią faktycznie dwa przejawy jednego
oddziaływania zwanego elektrosłabym i opisywane są tymi samymi równaniami. A zatem te dwa
odziaływania z osobna okazują się być zależne od innych oddziaływań. Ale może jest tak, że
istnieje jednak jakieś superoddziaływanie, czy też najwyższe prawo jednoczące w sobie
wszystkie oddziaływania, które jest konieczne? Wielu fizyków sądzi, że tak. Niektórzy
współcześni naukowcy, jak na przykład chemik z Oxfordu Peter Atkins, wskazują na
występujące w fizyce teoretycznej dążenie do znalezienia jednego najwyższego prawa,
twierdząc, że dowodzi to, iż świat fizyczny w znanej nam postaci nie jest przygodny, lecz
konieczny. Utrzymują oni, że nie ma potrzeby poszukiwania dalszych uzasadnień w metafizyce.
Naukowcy ci sądzą, że nadejdzie czas, kiedy wszystkie prawa fizyki zostaną ujęte w ramy
jednolitej teorii, której matematyczna struktura będzie jedyną możliwą pod względem logicznym.
Są jednak i tacy, którzy zwracając uwagę na tę samą postępującą unifikację, wyciągają
całkowicie odmienne wnioski. Przykładem może być tu papież Jan Paweł II, który pozostając
pod głębokim wrażeniem spektakularnych sukcesów unifikacji różnych cząstek elementarnych i
czterech fundamentalnych oddziaływań przyrody, uznał niedawno za stosowne zwrócić się do
uczestników konferencji naukowej z komentarzem na temat szeroko pojmowanych konsekwencji
tych odkryć:
Fizycy zdobyli szczegółową, choć niepełną i tymczasową, wiedzę o cząstkach
elementarnych i o fundamentalnych siłach, którymi oddziaływają one ze sobą przy małych i
średnich energiach. Dysponują oni obecnie dobrą teorią unifikacji słabych oddziaływań
jądrowych z elektromagnetycznymi oraz mniej pewnymi, aczkolwiek obiecującymi, teoriami
Wielkiej Unifikacji, które próbują uwzględnić również silne oddziaływania jądrowe. W dalszej
perspektywie tego rozwoju pojawiają się już dość szczegółowe propozycje ostatniego stadium
superunifikacji, to znaczy unifikacji wszystkich czterech oddziaływań przyrody, w tym
grawitacji. Czyż nie jest wart uwagi fakt, że w dziedzinie o tak daleko posuniętej specjalizacji,
jak współczesna fizyka, występuje tak wyraźnie zaznaczona tendencja do jednoczenia?
Istotną cechą tego procesu jest sposób, w jaki ogarnia on stopniowo znane prawa fizyki.
Każdy krok ukazuje nowe wzajemne zależności i wewnętrzną spójność pomiędzy prawami
uważanymi dotąd za całkowicie niezależne. Na przykład, sam wymóg, by wszystkie teorie
zgodne były z mechaniką kwantową i teorią względności, nakłada silne ograniczenia na postać
matematyczną występujących w nich praw. Rodzi to oczekiwanie, że pewnego dnia, może już
niedługo, ten proces jednoczenia osiągnie swój cel: opis wszystkich praw przyrody w ramach
jednej teorii. Jest to idea tak zwanej Teorii Wszystkiego, o której wspominałem już w rozdziale
1.
Jedyna Teoria Wszystkiego?
Czy Teoria Wszystkiego jest w ogóle możliwa? Wielu naukowców sądzi, że tak.
Niektórzy z nich uważają nawet, że już prawie dysponujemy taką teorią, podając modną obecnie
teorię superstrun jako poważną próbę ujęcia wszystkich znanych w fizyce fundamentalnych
oddziaływań i cząstek elementarnych, jak również struktury przestrzeni i czasu, w ramy jednej,
uniwersalnej struktury matematycznej. W istocie, pogląd ten nie jest niczym nowym. Próby
znalezienia całkowicie jednolitego opisu świata mają już długą historię. W swej książce Theories
of Everything: The Quest for Ultimate Explanation [Teorie Wszystkiego: w poszukiwaniu
ostatecznego uzasadnienia] John Barrow przypisuje popularność poszukiwania teorii tego typu
głęboko zakorzenionemu u ludzi przekonaniu o racjonalności świata, przekonaniu, że pod
powłoką zjawisk kryją się jednolite zasady logiczne, które dają się ująć w zrozumiałej, zwięzłej
formie.
Rodzi się wtedy pytanie, czy przy tym dążeniu do globalnej unifikacji teoria zostaje
poddana tak ścisłym wymogom matematycznej spójności, że staje się ona jedyną możliwą.
Gdyby tak było, mielibyśmy w fizyce do czynienia tylko z jedną uniwersalną teorią, przy czym
poszczególne jej prawa wyznaczone byłyby jednoznacznie jako logiczna konieczność. Powiada
się, że świat byłby wtedy w pełni uzasadniony: prawa Newtona, równania Maxwella dla pola
elektromagnetycznego, i wszystko inne, wynikałoby nieuchronnie z wymogu logicznej
niesprzeczności teorii, podobnie jak twierdzenie Pitagorasa wynika z aksjomatów geometrii
euklidesowej. Posuwając się tą drogą rozumowania do końca, naukowcy nie potrzebowaliby
dłużej zaprzątać sobie głowy żadnymi obserwacjami ani eksperymentami. Nauki przyrodnicze
utraciłyby charakter nauk empirycznych, stając się gałęzią logiki dedukcyjnej, przy czym prawa
przyrody zyskałyby status twierdzeń matematycznych, a własności świata można by poznawać
wyłącznie na drodze rozumowania dedukcyjnego.
Przekonanie, że naturę rzeczy istniejących w świecie można poznać mocą czystego
rozumu, poprzez zastosowanie wnioskowania dedukcyjnego wychodzącego z oczywistych
przesłanek, ma długą historię. Jego zaczątki możemy znaleźć już w pismach Platona i
Arystotelesa. Pojawiło się ono ponownie w siedemnastym wieku u filozofów racjonalistycznych,
jak Kartezjusz, który skonstruował system fizyki, z założenia oparty na zastosowaniu samego
rozumu, a nie obserwacjach empirycznych. O wiele później, w latach trzydziestych naszego
stulecia, fizyk E.A. Milne w podobny sposób próbował stworzyć dedukcyjny opis grawitacji i
kosmologii. W ostanich latach idea, że całkowicie zunifikowana teoria fizyki mogłaby się okazać
możliwa do wyprowadzenia w sposób dedukcyjny, znów zyskała na popularności, co skłoniło
Stephena Hawkinga do nadania swemu wykładowi inauguracyjnemu przy obejmowaniu katedry
fizyki w Cambridge prowokacyjnego tytułu „Czy zbliża się kres fizyki teoretycznej?”
Jednak jakie są podstawy, by przypuszczać, że może się tak zdarzyć? Nie wdając się w
rozważania, czy teoria superstrun i podobne jej koncepcje rzeczywiście stanowią zalążek
przyszłej unifikacji, jestem przekonany, że teza o jedyności teorii superunifikacji jest fałszywa i
da się to wykazać. Do wniosku takiego doprowadziło mnie szereg przesłanek. Pierwszą z nich
jest, że fizycy często rozważają niesprzeczne matematycznie „wszechświaty myślowe”, które bez
wątpienia są różne od naszego Wszechświata. Powody tego wyjaśniałem w rozdziale l.
Poznaliśmy już jeden taki wszechświat myślowy - automat komórkowy, a istnieje jeszcze wiele
innych. Wydaje mi się, że dla zapewnienia jedyności teorii musimy postawić jej wymóg nie tylko
tego, by była niesprzeczna wewnętrznie, lecz także aby spełniała szereg innych warunków
różnego typu, takich jak zgodność z teorią względności, występowanie określonych symetrii, czy
też istnienie trzech wymiarów przestrzennych i jednego czasowego.
Druga przesłanka dotyczy samego pojęcia jedyności w matematyce i logice. Matematyka
opiera się na pewnym zbiorze aksjomatów. Wszystkie twierdzenia matematyki można wywieść
dedukcyj-nie z tego zbioru aksjomatów, jednakże nie można wyprowadzić samych aksjomatów.
Ich uzasadnienie wykracza poza ramy matematyki. Można sobie wyobrazić wiele różnych
zestawów aksjomatów, prowadzących do różnych pod względem logicznym struktur. Poważne
problemy stwarza także twierdzenie Godła. Pamiętajmy, że zgodnie z tym twierdzeniem w
ogólnym przypadku niemożliwe jest dla danego systemu aksjomatów nawet udowodnienie nie-
sprzeczności samych aksjomatów, a jeśli nawet uda się dowieść ich niesprzeczności, to i tak
system aksjomatów będzie niezupełny w tym sensie, że będą istniały prawdziwe twierdzenia
matematyczne, których prawdziwości nie da się udowodnić w ramach tego systemu. W jednym
ze swych najnowszych artykułów Russell Stannard omawia, jakie to może mieć konsekwencje
dla unifikacji fizyki:
Prawdziwa teoria wszystkiego musi uzasadnić nie tylko, jak powstał nasz Wszechświat,
ale także, dlaczego jest to jedyny typ Wszechświata, jaki mógł zaistnieć - dlaczego mamy tylko
jeden system praw fizyki.
Cel ten uważam za iluzoryczny. (...) Ten wrodzony, nieunikniony brak zupełności musi
się odzwierciedlać w każdym matematycznym modelu naszego Wszechświata. Jako istoty
stworzone, przynależące do świata fizycznego, musimy być również opisywani przez ten model.
Wynika stąd, że nigdy nie będziemy w stanie uzasadnić wyboru przyjętych w tym modelu
aksjomatów, a w konsekwencji i praw fizyki, którym odpowiadają te aksjomaty. Nie będziemy
też mogli uzasadnić wszystkich prawdziwych zdań, jakie można wypowiedzieć o
Wszechświecie.
John Barrow zajął się zbadaniem, jakie ograniczenia na Teorię Wszystkiego nakłada
twierdzenie Godła, i dochodzi do wniosku, że taka teoria byłaby „dalece niewystarczająca, by
rozwikłać zawiłości Wszechświata takiego jak nasz. (...) Nie istnieje pojedyncza formuła
ujmująca cały Wszechświat, jego prawdę, harmonię i prostotę. Nie istnieje Teoria Wszystkiego
pozwalająca wniknąć w całość istnienia, albowiem wniknąć we wszystko znaczy nie poznać
konkretnie niczego”.
Zatem poszukiwania Teorii Wszystkiego, pozwalającej wyrugować ze świata wszelką
przygodność i wykazać, że świat fizyczny w sposób konieczny jest tym, czym jest, wydają się
skazane na niepowodzenie z racji czysto logicznych. Dla żadnego systemu racjonalnej wiedzy nie
można dowieść, że jest on zarazem spójny i zupełny. Zawsze pozostanie pewna otwartość,
pewien element tajemnicy, coś niewyjaśnionego. Filozof Thomas Torrance przygania tym,
którzy ulegli pokusie uwierzenia, że Wszechświat jest „swego rodzaju perpetuum mobile,
samoistnym, samowystarczalnym, samouzasadniającym się tworem, całkowicie spójnym i
zupełnym, a tym samym uwięzionym w zaklętym kręgu nieuniknionych konieczności”. Ostrzega,
że „Wszechświat nie zawiera w sobie racji, dlaczego w ogóle istnieje, ani dlaczego jest taki, jaki
jest; dlatego oszukujemy samych siebie, jeżeli sądzimy, że potrafimy dowieść, iż poprzez naukę
uda nam się dowieść, że Wszechświat nie mógłby być inny”.
Może być jednak tak, że prawa Wszechświata, choć nie są jedynymi możliwymi pod
względem logicznym, są jedynymi dopuszczającymi powstanie struktur złożonych. A może nasz
Wszechświat jest jedynym, w którym możliwa jest biologia, a zatem powstanie organizmów
obdarzonych świadomością. Byłby to więc jedyny Wszechświat będący przedmiotem poznania.
Wracając do postawionego przez Einsteina pytania, czy Bóg stwarzając Wszechświat miał jakąś
swobodę wyboru, musimy na nie odpowiedzieć negatywnie, chyba że sam Bóg tak urządził
świat, abyśmy o tym nie wiedzieli. Wspomina o tym Stephen Hawking w książce Krótka historia
czasu: „Być może jest tylko jedna, lub co najwyżej kilka, teorii wielkiej unifikacji, takich jak
teoria strun heterotycznych, które są spójne wewnętrznie i dopuszczają powstanie struktur tak
skomplikowanych jak człowiek, będący w stanie zgłębiać prawa przyrody i stawiać pytania o
naturę Boga”.
Może nawet nie ma żadnych logicznych przeszkód, by uznać tak postawioną tezę; tego
nie wiem. Wiem jednak, że nie ma absolutnie niczego, co by za nią przemawiało. Można by
jeszcze próbować argumentacji, że żyjemy w najprostszym z możliwych poznawalnych
wszechświatów to znaczy, prawa fizyki są najprostszym logicznie spójnym zbiorem praw, który
dopuszcza powstanie struktur samoreprodukujących się. Nie wydaje się jednak, aby nawet w tak
bardzo osłabionej wersji dało się tego dowieść. Jak przekonaliśmy się w rozdziale 4, istnieją
światy kreowane przez automaty komórkowe, w których możliwa jest samoreprodukcja struktur,
przy czym reguły definiujące te światy są tak proste, że trudno wręcz sobie wyobrazić, aby prawa
fizyki w ostatecznej teorii unifikacji mogły być prostsze.
Zajmijmy się teraz poważniejszym problemem dotyczącym tezy o jedyności
Wszechświata, którego się na ogół nie zauważa. Nawet gdyby okazało się, że prawa fizyki mogą
być tylko jedne, nie wynika z tego wcale, że wyznaczają one tylko jeden Wszechświat. Jak
podawałem w rozdziale 2, prawa fizyki muszą być rozpatrywane wspólnie z kosmicznymi
warunkami początkowymi. Jeden z możliwych układów warunków początkowych
zaproponowany został przez Hartle'a i Hawkinga; omówimy je pod koniec tego rozdziału.
Jakkolwiek może się on wydawać naturalny, jest to tylko jedna z nieskończenie wielu
możliwości. W obecnej koncepcji „prawa warunków początkowych” nie ma nic, co mogłoby w
najmniejszym stopniu sugerować, że tylko jakieś jedne konkretne warunki początkowe miałyby
być spójne z prawami fizyki. Wręcz przeciwnie. Sam Hartle dowodzi, że istnieją głębokie
zasadnicze powody, dlaczego prawa te nie mogą być wyznaczone jednoznacznie: „Konstruujemy
nasze teorie w ramach Wszechświata, a nie poza nim, i wprowadza to w nieunikniony sposób
pewne ograniczenia. Na przykład, warunki początkowe muszą być na tyle proste, aby dały się
one wyrazić w ramach samego Wszechświata”. Uprawiając naukę, wprawiamy materię w ruch.
Nawet samo myślenie wiąże się ze zmianami ruchu elektronów w naszym mózgu. Zmiany te,
choć bardzo niewielkie, mają wpływ na stan innych elektronów i atomów we Wszechświecie.
Hartle wyciąga stąd wniosek: „Wobec tego musi istnieć wiele układów warunków początkowych
niemożliwych do odróżnienia poprzez sam fakt, że o nich myślimy”.
Inna łyżka dziegciu związana jest z tym, że świat na poziomie fundamentalnym ma naturę
kwantową, wraz z nieodłącznym jej indetenninizmem. Każda teoria pretendująca do miana Teorii
Wszystkiego musi to uwzględniać, co oznacza, że teoria taka mogłaby wyznaczać jednoznacznie
co najwyżej świat najbardziej prawdopodobny, od którego świat rzeczywisty różniłby się na
poziomie elementarnym na niezliczoną liczbę niemożliwych do przewidzenia sposobów.
Mogłoby się to także uwidaczniać w skali makroskopowej; na przykład pojedyncze zderzenie
cząstek może doprowadzić do powstania nowej mutacji jakiegoś gatunku, zmieniając bieg
ewolucji.
Ład przygodny
Wydaje się zatem, że Wszechświat nie musi być taki, jaki jest: mógłby być inny. W
ostatecznym rachunku to właśnie założenie, że Wszechświat jest zarówno przygodny, jak i
poznawalny, jest motywacją dla badań empirycznych, bowiem gdyby nie był przygodny,
bylibyśmy w stanie poznać go wyłącznie na drodze logicznej dedukcji; a gdyby nie był
poznawalny, nauka w ogóle nie byłaby możliwa. „To właśnie połączenie przygodności i
poznawalności - pisze filozof Ian Barbour - motywuje nas do poszukiwania nowych,
nieoczekiwanych form racjonalnego porządku”. Barbour wskazuje, że przygodność świata ma
poczwórny aspekt. Po pierwsze, same prawa fizyki, jak wszystko na to wskazuje, nie są
konieczne. Po drugie, kosmologiczne warunki początkowe mogły być inne. Po trzecie, jak wiemy
z mechaniki kwantowej, „Pan Bóg gra w kości” - to znaczy, zjawiska na poziomie
fundamenalnym przyrody mają charakter statystyczny. I w końcu mamy fakt, że Wszechświat
rzeczywiście istnieje. Ostatecznie, niezależnie od tego, jak znakomite teorie byśmy tworzyli, nie
jest wcale powiedziane, że świat odpowiadający tym teoriom musi istnieć. Stephen Hawking
zwraca szczególną uwagę właśnie na ten aspekt: „Czemu Wszechświat zadaje sobie w ogóle trud
istnienia? - pyta. - Co wypełnia równania życiem, powołując do istnienia Wszechświat, który
opisują?”.
Moim zdaniem jest jeszcze piąty typ przygodności, z którym mamy do czynienia w
prawach „wyższego poziomu”, odnoszących się do własności samoorganizacji układów
złożonych. Co rozumiem pod pojęciem takich praw, omówiłem wyczerpująco w książce The
Cosmic Blueprint, więc ograniczę się tu do kilku przykładów. Wspominałem już o prawach
genetyki Mendla, które, jakkolwiek w pełni zgodne z prawami fizyki, nie mogą być jednak
wyprowadzone wyłącznie na ich podstawie. Podobnie różnego typu prawa i regularności,
występujące w układach chaotycznych lub układach samoorganizujących się, uwarunkowane są
nie tylko prawami fizyki, ale i konkretnym charakterem danego układu. W wielu przypadkach
efektywne zachowanie się układu zależy od przypadkowych fluktuacji na poziomie
mikroskopowym, a zatem praktycznie musimy taki układ uznać za indeterministyczny. A zatem
te prawa i regularności wyższego poziomu zawierają istotne elementy przygodności niezależnie
od praw fizyki.
Najbardziej tajemniczą stroną przygodności jest nie tyle to, że świat mógłby być inny, niż
jest, lecz to, iż panuje w nim przygodny ład. Najsilniej uwidacznia się w dziedzinie biologii,
gdzie konkretne formy organizmów żywych są bez wątpienia przygodne (łatwo mogłyby być
inne), a jednak w biosferze mamy do czynienia z wyraźnym, wszechobecnym ładem. Gdyby
elementy świata były bezładne, nieuporządkowane w żaden szczególny sposób, ich konkretny
układ i tak byłby zagadkowy. Jednakże fakt, że przygodne przymioty świata układają się
jednocześnie w pewne uporządkowane struktury, z pewnością kryje w sobie głęboki sens.
Kolejna niezwykle istotna cecha uporządkowanej przygodności świata związana jest z
istotą tego porządku, który konstytuuje racjonalną jedność kosmosu. Ponadto ten całościowy
porządek jest dla nas poznawalny. Czyni to całą zagadkę o wiele, wiele głębszą. Niemniej,
niezależnie od tego, co się za tym kryje, na tych własnościach świata opiera się cała nauka. „To
połączenie przygodności, racjonalności, wolności i stabilności Wszechświata - pisze Torrance -
sprawia, że jest on tak niezwykły, i nie tylko umożliwia badanie go w sposób naukowy, ale czyni
to wręcz naszym obowiązkiem. (...) Właśnie w oparciu o nierozerwalną więź pomiędzy
przygodnością a porządkiem w świecie, w naukach przyrodniczych mogło rozwinąć się to
charakterystyczne zespolenie teorii i empirii, które doprowadziło do największych postępów w
zdobywaniu przez nas wiedzy o otaczającym nas świecie”.
Zatem moim wnioskiem jest, że faktyczny kształt świata nie jest w żadnym stopniu
wymuszony; mógłby on równie dobrze być inny. W ten sposób ponownie stanęliśmy przed
problemem, dlaczego jest on taki, jaki jest. Czym można by uzasadnić jego istnienie i niezwykłą
postać?
Najpierw postaram się wykazać niesłuszność dość trywialnego uzasadnienia, jakie bywa
niekiedy proponowane. Jest to pogląd, że każdy element Wszechświata da się uzasadnić za
pomocą czegoś innego, a to z kolei z pomocą czegoś jeszcze innego, i tak dalej w
nieskończoność. Jak nadmieniłem w rozdziale 2, takim nieskończonym łańcuchem rozumowania
posługiwali się niektórzy zwolennicy teorii stanu stacjonarnego w oparciu o to, że w teorii tej
Wszechświat nie miał początku w czasie. Jednakże nie da się przyjąć nieskończonego łańcucha,
w którym każde ogniwo jest uzasadnieniem poprzedniego ogniwa, za rzeczywiste uzasadnienie
czegokolwiek, gdyż nadal pozostanie zagadką, dlaczego istnieje właśnie dane ogniwo, czy też
dlaczego istnieje w ogóle taki łańcuch. Leibniz przedstawił to dobitnie, zachęcając do
wyobrażenia sobie nieskończonego ciągu książek, z których każda kolejna kopiowana jest z
poprzedniej. Powiedzenie, że uzasadniliśmy w ten sposób pochodzenie ich treści, jest absurdalne.
Nadal mamy pełne prawo zapytać, kto jest autorem.
Wydaje mi się, że jeżeli ktoś uparcie trzyma się zasady racji dostatecznej i żąda, aby świat
miał racjonalne uzasadnienie, to nie ma innej możliwości, jak poszukiwać tego uzasadnienia
gdzieś poza nim w sferze metafizyki, ponieważ, jak widzieliśmy, przygodny świat fizyczny nie
może uzasadnić sam siebie. Jakiego typu metafizyczna siła sprawcza byłaby zdolna do
stworzenia Wszechświata? Ważne jest, aby wystrzegać się naiwnego wyobrażania sobie Stwórcy
tworzącego w jakiejś chwili świat swą nadprzyrodzoną mocą, niczym magik wyciągający królika
z cylindra. Jak już wyczerpująco wyjaśniałem, stworzenie świata nie może polegać na samym
spowodowaniu Wielkiego Wybuchu. Potrzebne jest bardziej wyrafinowane, bezczasowe
rozumienie stworzenia, które, by użyć sformułowania Hawkinga, wypełnia równania życiem,
przemieniając to, co tylko możliwe, w coś, co istnieje naprawdę, stworzenie w sensie
kształtowania praw fizyki, które między innymi wyznaczają ewolucję czasoprzestrzeni.
Naturalnie teologowie twierdzą, że mocą sprawczą odpowiedzialną za istnienie świata jest
Bóg. Ale w jaki sposób miałoby to nastąpić? Jeśli wyobrażać sobie Boga jako nadprzyrodzony
umysł (czy też Myśl), zasadne jest określanie go jako osoby. Wszakże nie wszyscy teiści
podzielają tę ideę. Niektórzy wolą myśleć o Bogu jako o Bycie-w-sobie, bądź jako o Mocy
Stwórczej, aniżeli Myśli.
W istocie można jednak przyjmować, że czynnik stwórczy może mieć jeszcze inną
postać. Filozof John Leslie utrzymuje, że mogłaby tu wchodzić w grę „powinność etyczna”, idea,
która sięga swymi korzeniami jeszcze myśli Platona. Innymi słowy, Wszechświat istnieje,
ponieważ jest to dobre. „Wiara w Boga - pisze Leslie - przeradza się w wiarę, iż świat istnieje,
gdyż powinien istnieć”. Koncepcja ta wydaje się nieco dziwna. W jaki sposób „powinność
etyczna” miałaby stworzyć świat? Pamiętajmy jednak, że nie mówimy tutaj o stwarzaniu w
kauzalno-mechanicznym sensie, jak w przypadku budowniczego domu, lecz o „napełnianiu
życiem równań” wyrażających prawa fizyki, przekształcaniu tego, co tylko możliwe, w
rzeczywistość. Co mogłoby „napełniać życiem” w tym sensie? Z oczywistych względów nie
może to być żaden ze znanych obiektów materialnych. Jeśli w ogóle istnieje odpowiedź na to
pytanie, musiałoby to być coś bardzo abstrakcyjnego i niecodziennego. Nie ma żadnej logicznej
sprzeczności w przypisywaniu zdolności stwórczych wartościom etycznym lub estetycznym, lecz
nie ma też żadnej logicznej konieczności, aby to czynić. Leslie proponuje jednakowoż, iż może tu
chodzić o słabszy, pozalogiczny, sens konieczności: że „dobro” może jakoś zmuszone stworzyć
świat, ponieważ jest to dobre.
Jeżeli ktoś nie zamierza porzucić idei, że świat nie może istnieć bez uzasadnienia, i jeżeli
dla wygody określimy to uzasadnienie mianem Boga (niezależnie od tego, czy mamy na myśli
osobę, moc stwórczą, powinność etyczną, czy też jakąś inną nie wymienioną dotąd jej
koncepcję), to pierwszym pytaniem, na jakie winien odpowiedzieć, jest: w jakim sensie można
powiedzieć, że Bóg ukstałtował prawa fizyki (i inne przygodne elementy świata)? Albowiem, by
określenie to mogło cokolwiek w ogóle znaczyć, Bóg musiał wybrać nasz świat spośród innych
możliwości. Musiał tu być jakiś element wolnej decyzji, odrzucenia innych możliwych światów.
Więc jaki to miałby być Bóg? Z założenia byłby On racjonalny. Nie miałoby sensu mówienie o
irracjonalnym Bogu; równie dobrze możemy przyjmować, że irracjonalny jest sam Wszechświat.
Powinien On być także wszechmocny. Gdyby Bóg nie był wszechmocny, to Jego moc musiałaby
być czymś ograniczona. Ale co mogłoby ograniczać moc Boga? Chcielibyśmy z kolei wiedzieć,
skąd wzięły się te ograniczenia i co określiło ich konkretną postać, mianowicie, co Bóg może i
czego nie może. (Zauważmy, że nawet wszechmocny Bóg podlegałby ograniczeniom
wynikającym z logiki; nie byłby w stanie stworzyć na przykład kwadratowego koła). Na mocy
analogicznego rozumowania, Bóg musiałby być doskonały, bo cóż mogłoby spowodować w Nim
jakieś niedoskonałości? Musiałby być również wszechwiedzący, to znaczy musiałby znać
wszystkie dopuszczalne logicznie alternatywne możliwości, aby był w stanie dokonać
racjonalnego wyboru.
Najlepszy ze światów?
Leibniz przeprowadził powyższe rozumowanie szczegółowo, starając się udowodnić na
podstawie przesłanki o racjonalności kosmosu, że taki Bóg istnieje. Konkluzją jego rozumowania
było, że byt racjonalny, wszechmocny, doskonały i wszechwiedzący musiał nieodwołalnie
wybrać najlepszy z możliwych światów. Powód? Gdyby doskonały Bóg świadomie wybrał świat
mniej doskonały, to postąpiłby irracjonalnie. Żądalibyśmy uzasadnienia tego szczególnego
wyboru. Ależ jakież można by tu podać uzasadnienie?
Koncepcja, że nasz świat jest najlepszy z możliwych, do wielu ludzi nie przemawiała.
Leibniz (pod postacią doktora Panglossa) został okrutnie wykpiony w tej kwestii przez Woltera:
„O, doktorze Pangloss! Jeżeli to ma być najlepszy ze wszystkich możliwych światów, to jakżeż
muszą wyglądać te pozostałe?” Zarzuty pod jej adresem koncentrują się zazwyczaj na problemie
zła. Możemy sobie przecież wyobrazić świat, w którym, na przykład, nie ma zła ani cierpienia.
Czyż ów świat nie byłby lepszy?
Pomijając rozważania etyczne, może być także pewien sens fizyczny, w którym nasz
świat jest najlepszy z możliwych. Każdego uderza ogromne bogactwo i złożoność fizycznego
świata. Niekiedy może się wydawać, że przyroda wprost „wyszła z siebie”, aby wytworzyć
nietrywialny, wyrafinowany Wszechświat. Freeman Dyson próbował uchwycić tę właściwość w
podanej przez siebie zasadzie maksymalnej komplikacji: prawa przyrody i warunki początkowe
są takie, że dają w wyniku Wszechświat możliwie najbardziej zróżnicowany. „Najlepszy”
rozumiane jest w tym przypadku jako „najbogatszy” w sensie największej różnorodności i
złożoności układów fizycznych. Cała sztuka polega na tym, aby ująć to jakoś w ścisły,
matematyczny sposób.
Ostatnio fizycy teoretyczni Lee Smolin i Julian Barbour podali wyimaginowany przykład,
jak to można by osiągnąć. Założyli oni,że istnieje jakieś fundamentalne prawo przyrody, które
powoduje, iż Wszechświat dąży do stanu maksymalnej różnorodności. Oznacza to, że jego
elementy układają się tak, aby doprowadzić do możliwie największego zróżnicowania, które
należałoby ściśle zdefiniować. Leibniz twierdził, że świat wykazuje największą różnorodność,
gdy podlega największemu uporządkowaniu. Brzmi to ładnie, jednak znaczy niewiele, dopóki nie
zdefiniuje się tego jasno w sposób matematyczny. Smolin i Barbour podejmują się to uczynić,
aczkolwiek w skromnej skali, definiując „różnorodność” dla najprostszego z możliwych do
pomyślenia systemów: układu kropek połączonych ze sobą liniami, przypominającego schemat
połączeń lotniczych na mapie. Matematycy nazywają to „grafem”. Kropki i linie nie muszą
odpowiadać żadnym rzeczywistym obiektom w rzeczywistej przestrzeni, po prostu reprezentują
pewne abstrakcyjne związki, które mogą być rozpatrywane same w sobie. Jasne jest, że mogą być
grafy proste i grafy skomplikowane, w zależności od tego, jak poprowadzimy linie wewnątrz
nich. Możliwe jest znalezienie grafu, którego układ, widziany z wszystkich jego punktów
(kropek), będzie, w dobrze określonym sensie, najbardziej skomplikowany. Cały chwyt polega na
odniesieniu tego do rzeczywistego świata. Co miałoby odpowiadać kropkom i liniom grafu?
Smolin i Barbour sugerują, by były one abstrakcyjnymi odpowiednikami cząstek w
trójwymiarowej przestrzeni, a pojęcia takie, jak odległości wzajemne między cząstkami,
wynikałyby w naturalny sposób ze stosunków wewnątrz grafu. Na tym etapie idea ta wydaje się
dość mało konkretna, niemniej pokazuje to, jakimi drogami podążają teoretycy, aby poszerzyć
swoje horyzonty przy zgłębianiu istoty praw fizyki.
Można też sobie wyobrazić odmienne formy optymalnego wyboru, inne sposoby, na jakie
nasz świat mógłby być najlepszy z możliwych. Wspominałem już, że prawa fizyki można
potraktować jako kosmiczny kod, zaszyfrowany „komunikat” ukryty pod powierzchnią danych
obserwacyjnych. John Barrow snuł przypuszczenia, że konkretne prawa obowiązujące w naszym
Wszechświecie mogą odpowiadać kodowaniu optymalnemu pod jakimś względem. Znaczna
część tego, co naukowcom wiadomo w zakresie kodowania i przesyłania informacji, wywodzi się
z pionierskich prac Claude'a Shannona prowadzonych podczas drugiej wojny światowej, którego
książka o teorii informacji stała się pozycją klasyczną. Jednym z problemów, jakimi zajmował się
Shannon, był wpływ szumów w kanale przesyłowym na przesyłany komunikat. Wszyscy wiemy,
w jakim stopniu zakłócenia na linii telefonicznej mogą utrudnić prowadzenie rozmowy: ogólnie
mówiąc, szumy powodują stratę informacji. Niemniej można obejść ten problem poprzez
zakodowanie komunikatu z odpowiednią redundancją. Na tej zasadzie działają niektóre z
nowoczesnych systemów telekomunikacyjnych. Barrow rozciąga tę ideę na prawa przyrody. W
końcu, nauka jest swoistym dialogiem z przyrodą. Przeprowadzając eksperymenty, w pewnym
sensie zadajemy przyrodzie pytania. Co więcej, w odpowiedzi nie otrzymujemy informacji w
czystej postaci; zawiera ona przeróżne „szumy”, zwane błędami eksperymentalnymi, które
powodowane są przez wiele czynników. Ale, jak podkreślałem, przyroda nie przekazuje nam
informacji otwartym tekstem, lecz w postaci kodu. Teza Barrowa zasadza się w tym, że ten
„kosmiczny kod” ma być może taką strukturę, by umożliwiać optymalny przekaz informacji
zgodnie z teorią Shannona: „Aby zrealizować tę obietnicę dowolnie wysokiej wierności
przekazywania sygnałów, informacja musi zostać zakodowana w szczególny sposób. (...) W
przedziwny metaforyczny sposób Przyroda wydaje się być »zaszyfrowana« w takiej właśnie
optymalnej postaci”. Mogłoby to wyjaśniać, dlaczego udaje nam się złamać ten kod przyrody i
odkryć jej ogólne prawa.
Optymalnością innego typu, odnoszącą się do matematycznej postaci praw przyrody, jest
ich często wymieniana prostota. Einstein podsumował to pisząc: „Dotychczasowe doświadczenia
uzasadniają naszą wiarę, że przyroda realizuje najprostsze z możliwych do pomyślenia idei
matematycznych”. Z pewnością jest to intrygujące. „Zagadkę stanowi już samo to, iż świat
można opisać za pomocą matematyki - pisze Barrow - ale to, że jest to w miarę prosta
matematyka, którą jesteśmy w stanie opanować w ciągu zaledwie kilku lat wytężonych studiów,
jest doprawdy tajemnicą wewnątrz tej zagadki”. Czyżbyśmy więc naprawdę żyli w świecie
najlepszym z możliwych w tym sensie, iż da się najprościej opisać matematycznie? Wcześniej w
tym rozdziale podawałem powody, dlaczego sądzę, że nie. A może w najprostszym możliwym
świecie, który dopuszcza istnienie złożonych układów biologicznych? I w tym przypadku, jak
wyjaśniałem, odpowiedź, moim zdaniem, jest negatywna, jakkolwiek jest to przynajmniej
hipoteza podatna na badanie w sposób naukowy. Możemy wypisać równania fizyki,a następnie
pomajstrować trochę przy nich, by się przekonać, jaki to da efekt. W ten sposób teoretycy
konstruują sztuczne modelowe światy, by sprawdzić matematycznie, czy możliwe byłoby w nich
życie. Badaniom nad tym zagadnieniem poświęcono wiele wysiłku. Większość badaczy dochodzi
do wniosku, że istnienie układów złożonych, zwłaszcza układów biologicznych, jest w znacznym
stopniu zależne od kształtu praw fizyki i w niektórych przypadkach nawet ich minimalne zmiany
są w stanie zniweczyć szansę powstania życia, przynajmniej w znanej nam postaci. Nosi to
nazwę Zasady Antropicznej, ponieważ wiąże nasze istnienie jako obserwatorów Wszechświata z
jego prawami i warunkami początkowymi. Powrócę do tego zagadnienia w rozdziale 8.
Oczywiście, żądanie, aby prawa dopuszczały powstanie świadomych form życia, jest w
każdym razie dość szowinistyczne. Szczególność praw może być różnego rodzaju; mogą one na
przykład posiadać rozmaite matematyczne własności, których dotychczas nie poznaliśmy. Może
rzeczywiste prawa odpowiadają maksymalnym lub minimalnym wartościom jakichś nie znanych
jeszcze wielkości. Tego po prostu nie wiemy.
Piękno jako wskaźnik prawdy
Do tej pory zajmowałem się aspektami matematycznymi. Ale może nasze prawa
wyróżniają się w jakiś inny, bardziej wyrafinowany sposób, na przykład pod względem
estetycznym. Wśród naukowców rozpowszechnione jest przekonanie, że piękno może prowadzić
do prawdy, i wiele odkryć w fizyce teoretycznej zostało dokonanych przez fizyków stawiających
nowej teorii wymóg matematycznej elegancji. Niekiedy, gdy przeprowadzenie testów
laboratoryjnych nastręcza nazbyt wielkie trudności, takie estetyczne kryteria mogą odgrywać
nawet większą rolę niż eksperymenty. Gdy Einstein omawiał raz test eksperymentalny swojej
ogólnej teorii względności, zapytano go, co by uczynił, gdyby eksperyment ten dał wyniki
niezgodne z teorią. Możliwość ta bynajmniej nie zbiła go z tropu. „Tym gorzej dla eksperymentu
- odparł. - Teoria jest słuszna!” Paul Dirac, fizyk-teoretyk, którego rozważania natury estetycznej
doprowadziły do znalezienia bardziej eleganckiego pod względem matematycznym równania
opisującego elektron, które później pozwoliło efektywnie przewidzieć istnienie antymaterii,
podzielając ten pogląd wyraził się, że „ważniejsze, aby równania odznaczały się pięknem, niż by
odpowiadały wynikom eksperymentów”.
Elegancja matematyczna jest pojęciem, które trudno wytłumaczyć komuś nie
obeznanemu z matematyką, niemniej jednak wielce cenioną przez uczonych. Jednakże, jak
wszelkie oceny wartości estetycznych, ma ona charakter wysoce subiektywny. Nikt dotąd nie
wynalazł „wzorca piękna”, który pozwoliłby na mierzenie wartości estetycznych bez
odwoływania się do człowieka oceniającego je. Czyż można rzeczywiście twierdzić, że pewne
formy matematyczne są same w sobie piękniejsze od innych? Być może nie. Wtedy staje się
bardzo dziwne, że piękno może decydować o wyborze teorii w nauce. Czemu prawa przyrody
wydają się ludziom piękne? Nie ulega wątpliwości, że w kształtowaniu poczucia piękna u
człowieka odgrywają rolę przeróżne czynniki biologiczne i psychologiczne. Nic zatem
zaskakującego w tym, że na przykład wszystko, co przypomina kobietę, jest pociągające dla
mężczyzn, a płynne linie wielu pięknych rzeźb, obrazów i budowli architektonicznych
niewątpliwie rodzą takie skojarzenia. To, co przyjemne dla oka i ucha, może być podyktowane
budową i sposobem funcjonowania mózgu. Być może muzyka w jakiś sposób odzwierciedla
rytmy encefalograficzne. Tak czy owak, jest w tym jednak coś dziwnego. Jeżeli piękno jest
pojęciem uwarunkowanym biologicznie, mającym znaczenie dla przetrwania gatunku ludzkiego,
z tym większym zaskoczeniem przyjmujemy, że pojawia się ono w ezoterycznym świecie
fundamentalnych praw fizyki, które nie mają żadnego bezpośredniego odniesienia do biologii. Z
drugiej strony, jeżeli piękno to coś więcej niż czysta biologia, jeżeli kontemplacja piękna polega
na docieraniu do czegoś głębszego, jakiejś istotnej warstwy rzeczywistości, to jest z pewnością
faktem o dużym znaczeniu, iż to „coś” miałoby się odbijać w fundamentalnych prawach
Wszechświata.
W rozdziale 6 opisywałem, jak wielu wybitnych uczonych wyrażało poczucie, że czerpią
inspirację z jakiegoś myślowego kontaktu z platońską dziedziną form matematycznych i
estetycznych. Szczególnie Roger Penrose wiarygodnie przedstawia owo „wtargnięcie” twórczego
umysłu w dziedzinę idealną i bezpośredni ogląd form matematycznych, które są w jakimś sensie
piękne. W istocie uważa on piękno za decydujący czynnik, którym kierował się w większości
swoich badań matematycznych. Może to być zaskakujące dla czytelników, którzy mieli wizję
matematyki jako bezosobowej, zimnej, oschłej i rygorystycznej dyscypliny. Lecz, jak wyjaśnia
Penrose: „Ścisły dowód stanowi zwykle dopiero ostatni etap. Wcześniej prowadzi się
poszukiwania na drodze intuicyjnej i względy estetyczne odgrywają wtedy niezmiernie ważną
rolę”.
Czy Bóg jest bytem koniecznym?
Dwoje oczu ma czlowiek
Jedno widzi rzeczy marne które czas pochłania
Drugie zaś
To co boskie i wieczne
Księga Angelusa Silesiusa
Odchodząc od pytania, czy i w jakim sensie możemy uznać, że żyjemy w najlepszym z
możliwych światów, stajemy przed jeszcze głębszym problemem. Ujmując rzecz prosto: jeżeli
świat ma swoje uzasadnienie i tym uzasadnieniem nie może być on sam, to musi nim być jakiś
byt wobec świata zewnętrzny, np. Bóg. Lecz co z kolei stanowi uzasadnienie Boga? Ta stara
zagadka „kto stworzył Boga” grozi popadnięciem w nieskończony ciąg uzasadniania. Jak się
wydaje, można temu zapobiec jedynie przez przyjęcie, że Bóg „uzasadnia się sam”, co oznacza,
iż jest On bytem koniecznym w sensie logicznym, co wyjaśniałem na początku tego rozdziału.
Ściślej mówiąc, jeśli Bóg ma stanowić rację dostateczną świata, to wynika stąd, że sam musi być
bytem koniecznym, ponieważ gdyby był bytem przygodnym, to ciąg uzasadnień trzeba by
kontynuować, gdyż moglibyśmy postawić pytanie, jakie czynniki zewnętrzne determinują Boga i
jego naturę. Jednak czy pojęcie bytu koniecznego, bytu zawierającego w sobie rację swego
własnego istnienia, ma w ogóle sens? Wielu filozofów dowodziło, że idea ta jest sprzeczna lub
bezsensowna. Z pewnością ludzie nie są w stanie pojąć natury takiego bytu, lecz to nie oznacza
bynajmniej, że samo pojęcie bytu koniecznego jest wewnętrznie sprzeczne.
Zmagając się z pojęciem bytu koniecznego, można zacząć od postawienia pytania, czy w
ogóle istnieje coś, co zachodzi w sposób konieczny. Aby zaostrzyć nasz apetyt, na początek
rozważmy stwierdzenie: „Istnieje co najmniej jedno prawdziwe zdanie”. Nazwijmy je zdaniem
A. Czy A jest prawdziwe w sposób konieczny? Przypuśćmy, że twierdzę, iż A jest fałszywe.
Nazwijmy to zdaniem B: „A jest fałszywe”. Ale jeżeli A jest fałszywe, to B również, jako że B
jest zdaniem, a jeżeli A jest fałszywe, nie istnieje żadne zdanie prawdziwe. Tak więc A musi być
prawdziwe. Jest zatem logicznie niemożliwe, by nie istniały żadne zdania prawdziwe.
Jeżeli istnieją konieczne zdania, to pojecie bytu koniecznego nie jest już z góry
absurdalne. Tradycyjna koncepcja Boga w teologii chrześcijańskiej, rozwinięta w znacznej części
przez św. Tomasza z Akwinu w trzynastym wieku, określa Go jako byt konieczny, bezczasowy,
doskonały i niezmienny, od którego świat jest całkowicie zależny w swym istnieniu, lecz który z
kolei zupełnie nie zależy od istnienia świata. Jakkolwiek taka wizja Boga jako ostatecznego
uzasadnienia świata zdaje się być wymuszona przez wymogi racjonalności, istnieją poważne
trudności z pogodzeniem jej z ideą przygodnego, zmiennego świata, a zwłaszcza świata, w
którym występują istoty obdarzone wolną wolą. Jak ujął to niegdyś ateistyczny filozof A.J. Ayer,
ze zdań koniecznych wynikają tylko zdania konieczne.
Ta niepokojąca sprzeczność trapiła zasadniczo myśl teologiczną Zachodu już od czasów
Platona. U Platona, jak widzieliśmy, samo pojęcie „racjonalności” związane było z istnieniem
abstrakcyjnego świata wiecznych, niezmiennych i doskonałych Idei, który stanowił dla niego
jedynie prawdziwą rzeczywistość. I w tej niezmiennej dziedzinie Platon umieścił najwyższy cel
poznania, Dobro. W przeciwieństwie do niej, dostępny bezpośrednio zmysłom świat rzeczy
materialnych nieustannie się zmienia. Powiązanie wiecznego świata Idei i przemijającego świata
materii stwarza zatem znaczne problemy. Jak wyjaśniałem w rozdziale l, Platon postulował
istnienie Demiurga, bytującego w czasie, który stara się kształtować materię jak najwierniej na
wzór Idei, lecz to naiwne usiłowanie pogodzenia tego, co zmienne, z tym, co Niezmienne,
jeszcze bardziej uzmysławia, jak poważny jest paradoks pojęciowy zawarty we wszelkich
próbach uzasadnienia przygodnego świata.
Ważne jest, aby zrozumieć, że paradoks ten nie jest jedynie technicznym problemem
pojawiającym się w dyskusjach teologicznych, lecz nieuchronną konsekwencją pewnych
racjonalnych metod uzasadniania. Kartezjusz i jego zwolennicy starali się osadzić nasze
doświadczenie świata na opoce intelektualnej pewności. Jeśli będziemy trzymać się tej tradycji,
to w naszych poszukiwaniach wiedzy pewnej nieuniknienie dojdziemy do systemów pojęć bez-
czasowych, takich jak matematyka i logika, ponieważ prawda rzeczywista z definicji nie zależy
od czasu. Rzetelność tych abstrakcyjnych dziedzin jest zapewniona przez to, że ich elementy
spojone są ze sobą pewnością koniecznego wynikania logicznego. Jednak sam świat
doświadczenia, na którego uzasadnieniu nam zależy, jest przygodny i zależny od czasu.
Napięcia wywołane tą sprzecznością pojawiają się w nauce równie często, jak w religii.
Widzimy je w nieustających trudnościach, w jakie wikłają się próby pogodzenia wiecznych praw
fizyki z istnieniem we Wszechświecie „strzałki czasu”. Widzimy je w zażartych debatach, jak
możliwy jest postęp w ewolucji biologicznej zachodzącej wskutek chaotycznych mutacji. I
widzimy je w starciu paradygmatów, jakie towarzyszy najnowszym badaniom nad układami
samoorganizującymi się, które spotykają się z taką wrogością, że wskazuje to na jakieś głęboko
zakorzenione uprzedzenia kulturowe.
Oryginalnym wkładem myśli chrześcijańskiej w przezwyciężenie tego paradoksu jest
doktryna stworzenia ex nihilo, którą przedstawiłem w rozdziale 2. Była to śmiała próba wyrwania
się z logicznej pułapki przez zapostulowanie, aby pozaczasowy byt konieczny nadprzyrodzoną
mocą powoływał do istnienia (nie w sensie czasowym) świat materialny w wyniku wolnej
decyzji. Przez zadeklarowanie, że świat stworzony jest czymś innym niż Stwórca, czymś, czego
Bóg nie musiał stwarzać, lecz zdecydował się stworzyć, myśliciele chrześcijańscy uniknęli
zarzutów, na jakie narażona była alternatywna koncepcja świata jako emanacji Boga, w której
świat fizyczny wyłania się bezpośrednio z istoty Boga, dziedzicząc w ten sposób Jego konieczny
charakter. Zasadnicze znaczenie miało w tym przypadku wprowadzenie elementu boskiej Woli.
Wolna wola z definicji zakłada przygodność, ponieważ o wolnym wyborze możemy mówić tylko
wtedy, jeśli mógł on być inny. Zatem jeśli Bóg dysponował swobodą wyboru pomiędzy
alternatywnymi możliwymi światami, przygodność rzeczywistego świata znajduje swoje
uzasadnienie. Natomiast wymóg poznawalności jest spełniony poprzez przypisanie Bogu natury
racjonalnej, na mocy której jego decyzje również są racjonalne.
Może się wydawać, że osiągnięto w ten sposób pewien rzeczywisty postęp. Na pierwszy
rzut oka koncepcja stworzenia ex nihilo stanowi rozwiązanie paradoksu, w jaki sposób zmienny,
przygodny świat może być uzasadniony przez pozaczasowy byt konieczny. Niestety, mimo iż
całe pokolenia filozofów i teologów usiłowały nadać tej koncepcji spójny logicznie kształt, nie
udało się tego osiągnąć. Zasadniczą przeszkodę stanowi trudność wytłumaczenia, dlaczego Bóg
zdecydował się stworzyć ten, a nie inny, świat.
W przypadku wolnej woli u ludzi, ostateczny wybór zależy od ich wewnętrznej natury
Coz więc możemy powiedzieć o naturze Boga? Można przypuszczać, ze jest ona wyznaczona
przez to, ze Bóg jest bytem koniecznym Nie chcielibyśmy tu przywoływać możliwości, ze jest
wiele rożnych typów Boga, gdyż wtedy wprowadzanie pojęcia Boga me prowadziłoby do
niczego Zostalibyśmy z problemem, dlaczego istnieje ten konkretny Bóg, a me inny Cały sens
powoływania się na Boga jako byt konieczny polega na tym, ze jest On jedyny możliwy jego
natura me mogłaby być inna Lecz jeśli istota Boga wyznaczona jest przez jego konieczność, czy
był on w stanie stworzyć świat innym, mz jest? Tak mogłoby być tylko wtedy, gdyby stworzenie
nie było aktem racjonalnego wyboru, lecz jakimś kaprysem, boskim odpowiednikiem rzutu
monetą Jednak w takim razie istnienie świata i tak ma charakter arbitralny, więc celowość
wprowadzania Boga staje się problematyczna.
Filozof Keith Ward przeprowadził szczegółową analizę sprzeczności pomiędzy konieczną
naturą Boga a przygodnym charakterem świata, streszczając jej istotę następująco:
Przede wszystkim, jeżeli Bóg jest naprawdę samoistny, jak wymaga tego aksjomat
racjonalności, jak doszło do tego, ze wogóle stworzył świat.
Wydaje się to czymś arbitralnym i
bezcelowym. Z drugiej strony, jeżeli Bóg jest naprawdę bytem koniecznym i niezmiennym, w
jaki sposób byłby w stanie podjąć wolną decyzję
?
Przecież wszystko, co czyni, czyni z
konieczności i bez żadnej możliwości wyboru. Nieusuwalny dylemat - albo akty Boga są
konieczne, a zatem nie wolne (nie mogłyby być inne), albo są one wolne, a zatem arbitralne (nic
nie może ograniczać wolnej woli Boga) - zabijał klina olbrzymiej większości chrześcijańskich
filozofów przez stulecia.
Problem polega na tym, ze cokolwiek byśmy zrobili, powracamy do tej samej
podstawowej trudności, ze byt czysto przygodny nie może powstać z bytu w pełni koniecznego.
Jeżeli Bóg jest stwórcą lub przyczyną przygodnego świata, to sam musi być przygodny i
istniejący w czasie, lecz jesli Bóg jest bytem koniecznym, to wszystko, co stwarza, musi być
stwarzane w sposób konieczny i niezmienny. Na tej opoce zasadzają się obydwie wersje teizmu.
Wymóg racjonalności pociąga za sobą istnienie bytu koniecznego, niezmiennego i wiecznego.
Stworzenie zdaje się wymagać Boga przygodnego, istniejącego w czasie, który oddziaływa ze
światem stworzonym, a zatem nie jest samoistnym bytem w sobie. Lecz jak to z sobą pogodzi?ć
I w innym miejscu:
Jak może byt, który jest konieczny i niezmienny, mieć zdolność uczynienia wszystkiego?
Jako konieczny, me może uczynić nic innego, mz czyni, jako niezmienny, nie może uczynić
niczego nowego ani oryginalnego. Nawet jeżeli stworzenie pojmować będziemy jako dokonujący
się poza czasem akt Boga, rzeczywista trudność nadal pozostanie, gdyż jako że Bóg jest w pełni
konieczny, będzie musiał to być akt konieczny, który pod żadnym względem nie mógłby być
inny. Pogląd ten kłóci się z zasadniczym motywem tradycji chrześcijańskiej, mianowicie, ze Bóg
nie musiał stwarzać świata i nie musiał stwarzać właśnie tego świata Jak może byt konieczny
odznaczać się jakąkolwiek wolnością
?
Taką samą tezę stawia Schubert Ogden.
Teologowie zazwyczaj mówią nam, ze Bóg stworzył świat w akcie wolnej woli, jak
świadczy o tym przygodny, czyli wewnętrznie niekonieczny świat naszego doświadczenia.
Jednocześnie, trzymając się utartych założeń klasycznej metafizyki, mówią, ze boski akt
stworzenia wypływa z jego wiecznej istoty, która jest pod każdym względem konieczna i
wyklucza wszelką przygodność. Zatem, gdybyśmy chcieli potraktować ich słowa poważnie,
uznając obydwa twierdzenia za prawdziwe, popadniemy natychmiast w nierozwiązywalną
sprzeczność, ze całkowicie przygodny świat powstał w wyniku całkowicie koniecznego aktu
stworzenia.
Całe tomy zapisane zostały przez filozofów i teologów próbujących wydobyć się z tej
jaskrawej, uporczywej sprzeczności Z braku miejsca omówię tu jedynie jeden konkretny, dość
oczywisty sposób, w jaki można tego dokonać.
Dwubiegunowy Bóg i chmura Wheelera
Jak widzieliśmy, Platon rozwiązał antagonizm konieczności i przygodności postulując
istnienie dwóch istot boskich Dobra i Demiurga, z których pierwsza była konieczna, a druga
przygodna. Być może da się spełnić wymogi monoteizmu przez pokazanie, że sytuację tę można
właściwie opisać jako istnienie w rzeczywistości dwóch komplementarnych aspektów jednego,
„dwubiegunowego”, Boga. Jest to stanowisko podzielane przez wyznawców kierunku znanego
pod nazwą „teologu procesu”.
Filozofia procesu jest próbą przedstawiania sobie świata nie jako zbioru ciał
materialnych, ani nawet zbioru zdarzeń, lecz procesu przebiegającego w określonym kierunku.
Zasadniczą rolę odgrywa zatem w niej upływ czasu i uznaje ona wyższość stawania się nad
byciem. W przeciwieństwie do sztywnego mechanistycznego obrazu świata, jaki wyłania się z
prac Newtona i jego następców, w filozofii procesu kładzie się nacisk na otwarty i
indeterministyczny charakter przyrody. Przyszłość nie zawiera się w teraźniejszości; zawsze
możliwy jest alternatywny rozwój wypadków. W ten sposób przyrodzie przypisana została
wewnętrzna wolność, jaka nie występowała w koncepcji świata-mechanizmu Laplace'a. Wolność
ta zostaje osiągnięta za cenę odejścia od redukcjonizmu; świat staje się czymś więcej niż prostą
sumą swoich elementów. Musimy porzucić pogląd, że układy fizyczne, takie jak kamienie,
chmury czy ludzie, nie są wyłącznie zbiorowiskami atomów, i uznać, że struktura rzeczywistości
ma wiele odrębnych poziomów. Człowieka, na przykład, bez wątpienia można rozpatrywać jako
zbiorowisko atomów, lecz zawiera on także szereg wyższych poziomów strukturalnych, których
ten prymitywny opis nie uwzględnia, a które odgrywają zasadniczą rolę w tym, co rozumiemy
pod pojęciem „osoby”. Przy traktowaniu układów złożonych jako hierarchii poziomów
strukturalnych proste widzenie przyczynowości jako dokonującej się wyłącznie „od dołu”,
począwszy od cząstek elementarnych oddziaływających ze sobą wzajemnie, musi ustąpić miejsca
bardziej wyrafinowanemu, wielopoziomowemu obrazowi, w którym wyższe poziomy mogą
także oddziaływać na niższe poziomy. Pozwala to wprowadzić do biegu spraw w świecie
elementy teleologii, czyli zachowań celowych. Filozofia prowadzi w naturalny sposób do
ekologicznego pojmowania świata jako wielkiego organizmu, przypominającego poglądy
kosmologiczne Arystotelesa, Ian Barbour uważa, że wizja rzeczywistości w filozofii procesu
wyraża się w poglądzie, że świat jest w większym stopniu społecznością niezależnych istot
aniżeli zbiorowiskiem trybików w maszynie.
Jakkolwiek motywy przewodnie filozofii procesu zajmują poczesne miejsce w historii
filozofii, w nauce myślenie w kategoriach procesu stało się modne stosunkowo niedawno.
Powstanie mechaniki kwantowej na przełomie lat trzydziestych naszego stulecia położyło
definitywnie kres pojmowaniu świata na kształt deterministycznej maszyny, ale decydujący
wpływ miały tu dopiero najnowsze badania dotyczące chaosu, samoorganizacji i teorii systemów.
Zmusiły one badaczy do myślenia w coraz większym stopniu w kategoriach układów otwartych,
które nie są ściśle wyznaczone przez swoje części składowe, ponieważ pozostają także pod
wpływem swojego środowiska. Zazwyczaj układy otwarte o znacznym stopniu komplikacji są
bardzo czułe na oddziaływania zewnętrzne, co czyni ich zachowanie nieprzewidywalnym,
wprowadzając do nich w ten sposób pewien element wolności. Najbardziej zaskakujące było, że
układy otwarte mogą także zachowywać się w sposób uporządkowany, według określonych
prawidłowości, pomimo ich indeterministycznego charakteru i pozostawania na łasce wyraźnie
przypadkowych zaburzeń zewnętrznych. Najwyraźniej istnieją jakieś ogólne prawa strukturalne,
rządzące zachowaniem układów złożonych na wyższych poziomach organizacji, prawa, które
istnieją niezależnie od praw fizyki (które działają na najniższym poziomie poszczególnych
cząstek). Prawa te są niesprzeczne z prawami fizyki, lecz nie sprowadzają się do nich ani nie
mogą być z nich wyprowadzone. W ten sposób naukowcy doszli do ważnego pojęcia porządku
przygodnego. Bardziej wyczerpujące omówienie tej problematyki znajduje się w moich
książkach The Cosmic Blueprint i The Matter Myth.
Myślenie w kategoriach procesu zostało wprowadzone do teologii przez Alfreda Northa
Whiteheada, matematyka i filozofa, który wspólnie z Bertrandem Russellem napisał wpływowe
dzieło Principia Mathematica. Whitehead wysunął tezę, że świat fizyczny stanowi wzajemnie
połączony system tego, co nazwał „zaktualizowanymi możliwościami”. Są one czymś więcej niż
po prostu zdarzeniami, gdyż cechuje je wolność i zdolność uczenia się, które nie występowały w
mechanistycznej wizji świata. Rdzeniem filozofii Whiteheada jest to, że Bóg jest sprawcą
porządku w świecie, lecz nie działając bezpośrednio, lecz poprzez stworzenie różnych
możliwości, które świat fizyczny aktualizuje potem według własnego uznania. W ten sposób
Bóg, nie naruszając zasadniczo otwartego i indeterministycznego charakteru świata, jest pomimo
to w stanie sprawiać, by podążał on ku dobru. O istnieniu takiego subtelnego, pośredniego
oddziaływania może świadczyć na przykład progresywny charakter ewolucji biologicznej oraz
występująca w świecie tendencja do samoorganizowania się w coraz to bardziej różnorodne i
złożone struktury. Whitehead zastępuje w ten sposób monarchistyczną wizję Boga jako
wszechmocnego stwórcy władającego światem koncepcją Boga-współuczestnika procesów
twórczych zachodzących w świecie. Nie jest on już niezależnym i niezmiennym bytem w sobie,
lecz wpływa - i znajduje się pod wpływem - na rozwój wydarzeń postępujący w rzeczywistym
świecie fizycznym. Z drugiej strony, Bóg nie jest przy tym w pełni poddany strumieniowi czasu.
Zasadnicza natura i cele Boga pozostają niezmienne i wieczne. W ten sposób aspekty
pozaczasowego bytowania i zmienności w czasie zostają ze sobą pogodzone w ramach jednej
koncepcji.
Niektórzy utrzymują, ze pojęcie „dwubiegunowego” Boga również pozwala na
pogodzenie konieczności z przygodnością. Jednakże wiąże się to w tym przypadku z
porzuceniem wszelkiej nadziei, by Bóg mógł być prosty w swej boskiej doskonałości, jak
zakładał Tomasz z Akwinu. Keith Ward, na przykład, zaproponował model złożonej natury
Boga: niektóre jego elementy miałyby być konieczne, a inne przygodne. Taki Bóg, aczkolwiek
istniejący w sposób konieczny, poddany jest jednak wpływom świata stworzonego i własnych
działań stwórczych, przez co wprowadzony zostaje element otwartości czy tez wolności.
Przyznaję, ze sprawiło mi wielką trudność zrozumienie filozoficznych zawiłości
niezbędnych przy uzasadnianiu koncepcji dwubiegunowego Boga. Pomoc przyszła jednakże z
nieoczekiwanej strony od mechaniki kwantowej. Zrekapitulujmy raz jeszcze zasadnicze wnioski
wypływające z kwantowej zasady nieoznaczoności. Cząstka, na przykład elektron, nie może mieć
jednocześnie dokładnie wyznaczonego położenia i pędu. Można dokonać pomiaru położenia,
otrzymując jego dokładną wartość, lecz wtedy wartość pędu będzie całkowicie nieokreślona, i na
odwrót. W ogólnym przypadku dla danego układu kwantowego niemożliwe jest określenie z
góry, jaki wynik otrzyma się po przeprowadzeniu pomiaru można tylko podać wartości
prawdopodobieństwa otrzymania poszczególnych wartości. Zatem, jeżeli dokonuje się na takim
układzie pomiaru położenia, mamy do dyspozycji szereg możliwych wyników. Układ ten posiada
więc charakter niedeterministyczny - można powiedzieć, ze ma wolność wyboru spośród wielu
możliwości - i rzeczywisty wynik pomiaru jest czysto przygodny. Z drugiej strony, to
eksperymentator określa, czy pomiar będzie dotyczył położenia, czy pędu, a więc wybór
alternatywnych zbiorów wartości (to znaczy, czy to będzie zbiór możliwych wartości położenia,
czy wartości pędu) dokonywany jest przez czynnik zewnętrzny. Z punktu widzenia elektronu
istniejące alternatywne możliwości są czymś koniecznym, a faktycznie zrealizowany wybór
czymś przypadkowym.
Aby uczynić to bardziej jasnym, pozwolę sobie przytoczyć znaną historię, pochodzącą od
Johna Wheelera. Pewnego dnia współpracownicy Wheelera zaproponowali mu grę w
dwadzieścia pytań, nie wtajemniczając go bliżej, o co im chodzi. Przypomnijmy, ze tradycyjna
gra polega na odgadnięciu przez jednego z grających uzgodnionego przez pozostałych
uczestników słowa, przy czym może on zadać co najwyżej dwadzieścia pytań, na które można
odpowiadać tylko tak-nie. Wheeler rozpoczął od standardowych pytań czy to jest duże? czy to
jest coś żywego? Z początku odpowiedzi padały szybko, później coraz wolniej, z coraz większym
wahaniem. W końcu spróbował zgadnąć „Czy to jest chmura?” Odpowiedź była twierdząca i
wszyscy wkoło wybuchnęli śmiechem. Koledzy ujawnili następnie Wheelerowi, że chcąc mu
spłatać figla, nie wybrali wcale żadnego słowa, lecz umówili się, iż będą udzielać odpowiedzi
czysto przypadkowych, byle tylko nie były sprzeczne z poprzednimi odpowiedziami. Mimo to
odpowiedzi te doprowadziły do rozwiązania. Rozwiązanie to oczywiście było przygodne, gdyż
nikt go z góry nie ustalał, lecz nie było całkiem arbitralne, po części wyznaczone było przez
pytania, które Wheeler zdecydował się zadać, a po części wynikało z czystego przypadku. W ten
sam sposób rzeczywistość odkrywana w procesie pomiaru kwantowego jest częściowo zależna
od tego, jakie pytania eksperymentator postawi przyrodzie (tzn czy będzie wyznaczał dokładne
położenie, czy dokładny pęd), a częściowo przez przypadek (tzn prawdopodobieństwo
otrzymania określonych wartości jako wyników pomiarów tych wielkości).
Powróćmy teraz do przykładu teologicznego. Z podobnym połączeniem przygodności i
konieczności mamy do czynienia w przypadku Boga, który w sposób konieczny wyznacza
alternatywne światy, jakie możliwe będą do realizacji, lecz pozostawia przyrodzie wolność co do
wyboru którejś z tych możliwości. W teologii procesu czyii się założenie, że alternatywne
możliwości są z konieczności ustalane tak, aby osiągnąć założony cel, tzn by kierowały czy też
wspomagały (pod innymi względami wolny) świat w ewolucji ku jakiemuś dobru. Jednakże to
ukierunkowywanie nie wyklucza otwartości. Dlatego świat nie jest ani całkowicie
zdeterminowany ani w pełni arbitralny, lecz, tak jak „chmura Wheelera”, stanowi ścisły związek
celowego wyboru i czystego przypadku.
Czy Bóg może nie istnieć?
Argumentacja, z której wnioski rozpatrywałem dotychczas w tym rozdziale, nosi nazwę
kosmologicznego dowodu istnienia Boga. Dowód ten nie polega na wykazaniu, że istnienie Boga
jest koniecznością logiczną. Można sobie przecież wyobrazić, iż nie istnieje ani Bóg, ani świat,
albo że istnieje tylko świat, a nie Bóg. Na pierwszy rzut oka nie widać żadnej sprzeczności
logicznej w obydwu przypadkach. Zatem, nawet gdyby dało się wykazać, że pojęcie bytu
koniecznego ma sens, to nie wynikałoby z tego, że taki byt istnieje, a tym bardziej że musi
istnieć.
Historia teologii zna jednak próby udowodnienia, że nieistnienie Boga jest logiczną
niemożliwością. Argumentacja ta, znana jako „dowód ontologiczny”, pochodzi od św. Anzelma i
wygląda mniej więcej w ten sposób: Bóg z definicji jest najbardziej doskonałą z możliwych do
pomyślenia rzeczy. Z kolei coś, co realnie istnieje, jest z oczywistych względów bardziej
doskonałe niż sama myśl o tej rzeczy. (Detektyw, który naprawdę istniał, słynny Fabian ze Scot-
land Yardu, jest bardziej doskonały niż postać literacka, Sherlock Holmes). Dlatego też bóg
realnie istniejący jest bardziej doskonały niż bóg fikcyjny. Ale Bóg jest najbardziej doskonałym z
możliwych do pomyślenia bytów, więc wynika stąd, że musi istnieć.
Dowód ontologiczny sprawia wrażenie sztuczki logicznej i nie wygląda, aby był
użyteczny filozoficznie. W istocie jednak wielu filozofów w różnych okresach traktowało go
poważnie, w tym przez krótki czas nawet ateista Bertrand Russell. Niemniej jednak, ogólnie
rzecz biorąc, nawet wśród teologów nie znalazłoby się zbyt wielu chętnych do jego obrony.
Jeden problem z tym dowodem polega na traktowaniu istnienia jako własności przysługującej
rzeczy, podobnie jak masa i kolor. Porównujemy ideę boga-realnie-istniejącego z ideą boga-
który-nie-istnieje. Ale istnienie nie jest atrybutem, który można przypisać czemuś lub nie, jak
zwykłe własności fizyczne. Ma sens powiedzenie, że mam w kieszeni pięć małych monet i sześć
dużych, lecz cóż to miałoby znaczyć, gdybym powiedział, że mam tam pięć monet istniejących i
sześć nieistniejących?
Kolejnym problemem w przypadku dowodu ontologicznego jest wymóg, by Bóg stanowił
rację świata. Nie wystarczy, aby istniał byt logicznie konieczny, lecz nie posiadający żadnego
odniesienia do świata. Trudno sobie wyobrazić, aby byt przynależący do sfery czystej logiki
mógł uzasadniać przygodne własności świata. Dowód ontologiczny opiera się na tym, co
filozofowie nazywają „zdaniami analitycznymi”. Zdanie analityczne to takie zdanie, którego
prawdziwość (lub fałszywość) wynika wyłącznie ze znaczenia terminów w nim występujących.
Zatem „Wszyscy kawalerowie są mężczyznami” jest zdaniem analitycznym. Zdania, które nie
należą do klasy zdań analitycznych, nazywamy „syntetycznymi”, ponieważ ustalają one związki
pomiędzy rzeczami nie powiązanymi na mocy samej definicji. I tak, w teoriach fizycznych
występują zawsze zdania syntetyczne, gdyż stanowią one wypowiedzi o faktach w przyrodzie,
które mogą być testowane empirycznie. Skuteczność matematyki w opisywaniu przyrody, a
zwłaszcza rządzących nią praw, może sprawiać wrażenie, jak się przekonaliśmy, niektórzy
faktycznie bronili takiej tezy), że w świecie nie istnieje nic oprócz matematyki, a matematyka z
kolei nie zawiera nic poza definicjami i tautologiami, tzn. zdaniami analitycznymi. Uważam ten
pogląd za duże nieporozumienie. Choćbyśmy nie wiem jak się starali, nie można wyprowadzić
zdania syntetycznego ze zdań analitycznych.
Do przeciwników dowodu ontologicznego należał Immanuel Kant. Utrzymywał on, że
jeśli mają istnieć sensowne twierdzenia metafizyczne, to muszą istnieć zdania, które są
koniecznie prawdziwe nie tylko na mocy samej definicji. Jak wspominałem już w rozdziale l,
Kant był przekonany, iż posiadamy jakąś wiedzę a priori. Tak więc Kant twierdził, że muszą
istnieć prawdziwie syntetyczne zdania a priori w przypadku każdego procesu myślowego
odnoszącego się do świata obiektywnego. Tego typu zdania aprioryczne byłyby z konieczności
prawdziwe, niezależnie od przygodnej charakterystyki świata, to znaczy, byłyby one prawdziwe
w każdym świecie. Niestety, filozofom do tej pory nie udało się znaleźć żadnych koniecznych
zdań syntetycznych a priori.
Jeśli nawet nie istnieją zdania syntetyczne konieczne, to może istnieją takie, które są
niemożliwe do zakwestionowania. Można sobie wyobrazić, że system takich zdań mógłby
posłużyć do uzasadnienia przygodnych własności świata, takich jak konkretna postać praw
fizyki. Niejednego by to zadowoliło. Fizyk David Deutsch twierdzi, że „zamiast próbować
otrzymać »coś z niczego«, czyli zdanie syntetyczne z analitycznego”, powinniśmy wprowadzić
na fundamentalnym poziomie fizyki zdania syntetyczne, „które trzeba i tak postulować, z
powodów leżących poza samą fizyką”. Dalej podaje przykład: Rzeczą, którą zawsze milcząco
zakładamy a priori przy konstruowaniu teorii fizycznych, jest to, ze teoria ta nie zabrania, by
dane procesy fizyczne zostały poznane i opisane przez ludzi. Żadne prawo fizyki, które jesteśmy
w stanie poznać, nie może samo w sobie zabraniać, abyśmy je poznali. Fakt, ze każde prawo
fizyczne musi spełniać ten bardzo specyficzny warunek, jest syntetycznym zdaniem a priori, nie
dlatego, iż jest koniecznie prawdziwe, lecz dlatego, że nie możemy nie uznawać go za
prawdziwe, starając się poznać te prawa.
John Barrow również sugeruje, ze istnieją pewne prawdy konieczne dotyczące wszystkich
światów, w których istnieje obserwator. Przytacza on jako przykład różne wersje Zasady
Antropicznej, które starają się wykazać, ze organizmy biologiczne obdarzone świadomością
mogą powstać tylko we Wszechświecie, w którym prawa fizyki mają określoną szczególną
postać „Te »antropiczne« warunki wskazują na określone własności, jakie Wszechświat musi
posiadać a priori, a które są na tyle nietrywialne, ze można je uznać za syntetyczne. Zatem
syntetycznym a priori mógłby stać się konieczny wymóg, ze żadne poznawalne prawo fizyki,
wchodzące w skład »Tajemmcy Wszechświata«, nie może nam samo zabraniać możliwości,
abyśmy je poznali”.
Keith Ward uważa, ze pojęciu konieczności logicznej można by nadać szerszy sens
Weźmy na przykład zdanie „Nic nie może być jednocześnie całe zielone i czerwone” Czy jest to
zdanie koniecznie prawdziwe? Przypuśćmy, ze twierdzę, iż jest ono fałszywe. Moje stwierdzenie
nie jest w żaden oczywisty sposób wewnętrznie sprzeczne. Niemniej jednak jest ono
prawdopodobnie fałszywe we wszystkich możliwych światach, co nie jest równoważne, by było
ono logicznie sprzeczne w formalnym sensie. Założenie, ze to pierwsze zdanie jest prawdziwe,
jest, by użyć słów Deutscha, „czymś, co i tak założylibyśmy” Może stwierdzenie „Bóg nie
istnieje” należy właśnie do tej kategorii zdań, które wprawdzie nie są sprzeczne z żadnymi
aksjomatami jakiegoś systemu formalnej logiki zdań, lecz są fałszywe we wszystkich możliwych
światach.
Na koniec należałoby wspomnieć o zastosowaniu przez Franka Tiplera dowodu
ontologicznego do samego świata (a nie do Boga). Tipler próbuje ominąć zarzut, ze „istnienie”
nie jest własnością, poprzez zdefiniowanie tego pojęcia w szczególny sposób. Widzieliśmy w
rozdziale 5, jak Tipler utrzymywał, że światy symulacji komputerowych są dla istot bytujących w
takim symulowanym świecie równie realne, jak dla nas nasz świat. Wskazuje on, że program
komputerowy nie jest zasadniczo niczym innym, jak odwzorowaniem jednego zbioru znaków lub
liczb na inny zbiór. Można by zakładać, ze wszystkie możliwe odwzorowania, a zatem i
wszystkie możliwe programy komputerowe istnieją w jakimś abstrakcyjnym, platońskim sensie.
Wśród tych programów będzie wiele (prawdopodobnie nieskończenie wiele) takich, które
realizują symulowane światy. Pytanie brzmi, które z tych możliwych symulacji komputerowych
odpowiadają „fizycznie istniejącym” światom. Używając sformułowania Hawkinga, które z nich
są wypełnione życiem? Tipler stawia tezę, ze wyłącznie te symulacje, „które są wystarczająco
złożone, by zawierać obserwatorów - istoty zdolne do myślenia i odczuwania - jako swoje
podsymulacje”, są tymi, które istnieją realnie, przynajmniej z punktu widzenia symulowanych
istot. Ponadto symulacje te istnieją w sposób konieczny jako konsekwencja logicznych
warunków związanych z operacjami matematycznymi zawartymi w odwzorowaniach. Zatem,
konkluduje Tipler, nasz Wszechświat (i wiele, wiele innych) musi istnieć w następstwie logicznej
konieczności.
Alternatywne światy
Jakiż więc wniosek można wyciągnąć na zakończenie? Być może czytelnikowi kręci się
w głowie po tym naszym wypadzie w dziedzinę filozofii, autorowi również. Wydaje mi się, że
dowód ontologiczny jest próbą zmuszenia Boga do zaistnienia z niczego na mocy samej definicji,
która w ściśle logicznym sensie skazana jest na niepowodzenie. W wyniku czysto dedukcyjnego
rozumowania nie można otrzymać więcej, niż się doń włożyło. W najlepszym przypadku można
wykazać, ze jeśli byt konieczny jest możliwy, to musi istnieć Bóg nie mógłby istnieć jedynie,
gdyby pojęcie bytu koniecznego było sprzeczne wewnętrznie. Mogę się z tym zgodzić, lecz
poprzez dowód ontologiczny nie daje się wykazać w ścisły, formalny sposób niemożliwości, by
Bóg nie istniał. Z drugiej strony, gdyby dowód ontologiczny uzupełnić jednym lub kilkoma
dodatkowymi założeniami, to może okazałby się on skuteczny. A co jeśli na owe dodatkowe
założenia (które z konieczności byłyby zdaniami syntetycznymi) składały się jedynie warunki
umożliwiające racjonalne myślenie? Moglibyśmy wtedy wyciągnąć wniosek, że wobec istnienia
racjonalnego poznania bylibyśmy w stanie rzeczywiście udowodnić istnienie Boga mocą
czystego rozumu. Jest to na razie jedynie spekulacja, lecz na przykład Keith Ward jest
zdecydowany nie wykluczać takiej możliwości: „Nie jest absurdalnym przypuszczenie, że
poprzez analizę pojęć »doskonałości«, »bytu«, »konieczności« i »istnienia« dojdziemy do
przekonania, że możliwość ich sensownego zastosowania do świata może wymagać założenia
istnienia określonego bytu”.
A co z dowodem kosmologicznym? Jeżeli przyjmujemy, że świat jest przygodny, to
jednym z możliwych sposobów uzasadnienia jego istnienia jest postulowanie istnienia
transcendentnego Boga. Stajemy wtedy przed problemem, czy Bóg jest bytem koniecznym, czy
przygodnym. Gdyby Bóg był przygodny, czyż zyskalibyśmy cokolwiek na jego wprowadzeniu,
skoro z kolei jego własne istnienie i przymioty wymagałyby uzasadnienia? Możliwe jednak, że
tak. Mogłoby być tak, że hipoteza Boga pozwalałaby uprościć i ujednolicić opis rzeczywistości
poprzez „łączne” uzasadnienie wszystkich praw i warunków początkowych. Prawa fizyki
doprowadzałyby nas do pewnego punktu i poszukiwalibyśmy głębszego poziomu wyjaśnienia.
Na przykład filozof Richard Swinburne argumentował, iż prościej jest zakładać istnienie
nieskończonego umysłu, niż przyjmować jako goły fakt istnienie przygodnego Wszechświata. W
tym przypadku wiara w Boga stanowi w znacznym stopniu przedmiot indywidualnej preferencji i
przyjmowana jest z powodu większej zdolności uzasadniania, a nie logicznego przymusu.
Osobiście również wolę, by istniał poziom uzasadniania głębszy niż prawa fizyki. To, czy na jego
określenie należy używać terminu „Bóg”, może być oczywiście przedmiotem dyskusji.
Alternatywą jest trzymanie się klasycznego stanowiska teistycznego, które głosi, że Bóg
jest bytem koniecznym, stwarzającym przygodny świat aktem swej wolnej woli. Znaczy to, iż
Bóg nie miał żadnego wyboru co do swego istnienia i przymiotów, lecz ma wybór w przypadku
stworzenia świata. Jak widzieliśmy, pogląd ten jest najeżony filozoficznymi trudnościami, które
można wszakże próbować przezwyciężyć. Większość proponowanych rozwiązań popada jednak
w labirynt lingwistycznych subtelności, jakimi różnią się poszczególne definicje „konieczności”,
„prawdy” i tym podobnych pojęć, z którego pewne z nich wyrywają się poprzez szczere uznanie,
że stoimy wobec tajemnicy. Ale dwubiegunowa koncepcja Boga, w której czyni się rozróżnienie
miedzy konieczną naturą Boga a Jego przygodnym działaniem w świecie, jakkolwiek można jej
zarzucić pewne skomplikowanie, jest najbliższa ominięcia tych problemów.
To, co wynika z takich analiz głośno i wyraźnie, to zasadnicza niemożliwość pogodzenia
całkowicie pozaczasowego, niezmiennego, koniecznego Boga z twórczym charakterem przyrody,
ze światem, który potrafi się zmieniać i ewoluować, tworząc coś rzeczywiście nowego, światem,
w którym istnieje wolna wola. W istocie nie można mieć obydwu rzeczy na raz. Albo Bóg
determinuje wszystko, łącznie ze swoim własnym postępowaniem, i wolna wola jest tylko
złudzeniem - „Predestynacja nie dopuszcza żadnych wyjątków”, pisał Tomasz z Akwinu - albo
istnieją rzeczy, nad którymi Bóg albo faktycznie nie ma władzy, albo się jej dobrowolnie zrzekł.
Zanim odejdziemy od problemu przygodności, należałoby coś powiedzieć o tak zwanej
hipotezie wielu światów. Zgodnie z tą koncepcją, która obecnie cieszy się znaczną popularnością
u pewnych fizyków, nie istnieje tylko jeden fizyczny świat, lecz ich nieskończona liczba.
Wszystkie te światy współistnieją ze sobą „równolegle”, przy czym każdy różni się od
pozostałych, choć niekiedy te różnice mogą być nieznaczne. Można sobie wyobrazić, że
wszystko urządzone jest w ten sposób, iż każda pomyślana możliwość zaktualizowana jest w
którymś ze światów spośród tej nieskończonej liczby. Jeżeli, na przykład, chcemy mieć świat, w
którym siła ciążenia jest proporcjonalna do odwrotności sześcianu, a nie odwrotności kwadratu
odległości, to znajdziemy i taki. Większość tych światów jest nie zamieszkana, ze względu na to,
że warunki fizyczne w nich panujące nie sprzyjają powstaniu organizmów żywych. Tylko te
światy, w których życie może się zrodzić i rozwinąć się w stopniu umożliwiającym powstanie
istot obdarzonych inteligencją, zawierają obserwatora. Pozostałych nikt nigdy nie obserwuje.
Dany obserwator ma możliwość obserwacji tylko jednego konkretnego świata i nie zdaje sobie
bezpośrednio sprawy, że istnieją także inne światy. Dany konkretny świat byłby silnie
przygodny. Niemniej pytanie „Dlaczego właśnie ten świat?” traci na znaczeniu, jako że istnieją
wszystkie możliwe światy. Wszystkie światy wzięte razem nie miałyby już charakteru
przygodnego.
Hipoteza wielu światów nie wszystkich zadowala. Postulowanie istnienia nieskończonej
liczby nieobserwowanych i nieobserwowalnych światów tylko po to, by uzasadnić ten, który
obserwujemy,wydaje się zbytnim balastem. Prościej już postulować istnienie jednego
niewidzialnego Boga. Do tego wniosku dochodzi również Swinburn:
Postulując Boga postulujemy jeden byt o nieskomplikowanej naturze. (...) Postulując
rzeczywiste istnienie nieskończonej liczby światów, wyczerpujących miedzy sobą wszystkie
dopuszczalne logicznie możliwości (...) postulujemy złożoność i niezaaranżowany zbieg
okoliczności na niebotyczną skalę, przekraczającą wszelkie możliwości racjonalnego
uzasadnienia.
Hipoteza wielu światów nie spełnia kryteriów hipotezy naukowej, ponieważ nie można jej
sfalsyfikować: jakiego typu odkrycia mogłyby skłonić zwolennika wielu światów do zmiany
swych poglądów? W jaki sposób można by przekonać kogoś, kto zaprzecza że istnieją te inne
światy? Co gorsza, za pomocą tej hipotezy można uzasadnić wszystko, co się chce. Nauka staje
się zbędna. Nie potrzeba już więcej badać prawidłowości przyrody, ponieważ można je wyjaśnić
po prostu efektem selekcji, dzięki któremy jesteśmy w stanie żyć w świecie i obserwować go.
Ponadto jest coś głęboko niezadowalającego pod względem filozoficznym w tych wszystkich
światach, które nie są obserwowane. Parafrazując Penrose'a, cóż to znaczy, że istnieje coś, co nie
może być nigdy, nawet w zasadzie, obserwowane? Będę miał na ten temat więcej do
powiedzenia w następnym rozdziale.
Bóg, który gra w kości
Przyznaję, że nie da się dowieść racjonalności świata. Z pewnością możliwe jest, że na
najgłębszym poziomie jest on absurdalny i musimy przyjmować istnienie i własności świata jako
gołe fakty, które mogłyby być równie dobrze zupełnie inne. Jednakże osiągnięcia metody
naukowej co najmniej pośrednio przemawiają na rzecz racjonalności przyrody. W nauce, jeżeli
jakieś rozumowanie okazuje się efektywne, stosujemy go tak długo, aż znajdziemy dla niego
kontrprzykład.
W mym własnym umyśle nie żywię najmniejszych wątpliwości, że argumenty
przemawiające za koniecznym charakterem świata są o wiele słabsze niż te, które przemawiają za
istnieniem bytu koniecznego, toteż osobiście byłbym skłonny wybrać tę drugą możliwość.
Niemniej jednak zdaję sobie także sprawę, że powiązanie tego pozaczasowego bytu koniecznego
ze zmiennym, przygodnym światem doświadczenia z omówionych przeze mnie powodów
nastręcza poważne trudności. Nie sądzę, aby trudności te były innej natury niż różne nie
rozwiązane dotychczas problemy, które i tak istnieją, dotyczące istoty czasu, wolnej woli i
pojęcia tożsamości osób. Nie jest też wcale dla mnie oczywiste, że postulowany w celu
zapewnienia racjonalności świata byt ma coś wspólnego z Bogiem osobowym, a tym bardziej z
Bogiem Biblii czy też Koranu.
Chociaż nie żywię żadnych wątpliwości, że przyroda jest racjonalna, jestem jednocześnie
zwolennikiem kosmosu twórczego z powodów, które wyłożyłem w mojej książce The Cosmic
Blueprint. I w tym przypadku nieuchronnie natykamy się na paradoksalną konieczność
pogodzenia bycia i stawania się, tego, co zmienne, i tego, co wieczne. Może to być dokonane
wyłącznie na drodze kompromisu, który nazywa się „stochastyczność”. Układ stochastyczny to,
ogólnie mówiąc, taki układ, który podlega nieprzewidywalnym, przypadkowym fluktuacjom. We
współczesnej fizyce stochastyczność stanowi zasadniczą cechę układów występujących w
mechanice kwantowej. Pojawia się ona również nieuchronnie w przypadku układów otwartych,
w których mamy do czynienia z chaotycznymi zaburzeniami zewnętrznymi.
We współczesnych teoriach fizycznych racjonalność przejawia się poprzez istnienie praw
o ustalonej matematycznej postaci, a element twórczy w tym, że prawa te mają zasadniczo postać
statystyczną. Używając raz jeszcze oklepanego powiedzenia Einsteina, Pan Bóg jednak gra w
kości. Istotnie, statystyczny charakter zdarzeń na poziomie atomowym i niestabilność wielu
układów fizycznych względem małych fluktuacji sprawiają, że przyszłość pozostaje otwarta i nie
jest do końca wyznaczona przez teraźniejszość. W ten sposób możliwe staje się powstawanie
nowych form i układów, tak że świat dysponuje czymś na kształt wolności, pozwalającej mu na
rozwijanie się w nie spotykany dotąd sposób. Tak więc bliższy jest mi wewnętrznie duch
opisanej wcześniej w tym rozdziale filozofii procesu.
Zdaję sobie sprawę, że wprowadzenie do przyrody na poziomie fundamentalnym
stochastyczności oznacza częściowe odejście od zasady racji dostatecznej. Jeżeli przyroda
odznacza się prawdziwą stochastycznością, to wynik konkretnego „rzutu kostką” naprawdę nie
jest przez nic zdeterminowany, co równoważne jest przyznaniu,że w danym konkretnym
przypadku nie istnieją żadnej racje, dlaczego otrzymaliśmy ten a nie inny wynik. Pozwolę sobie
podać przykład. Wyobraźmy sobie elektron zderzający się z atomem. Mechanika kwantowa
mówi nam, że jest, na przykład, równe prawdopodobieństwo, że elektron ten odchyli się na lewo,
jak i na prawo. Jeżeli statystyczna natura zdarzeń na poziomie kwantowym jest rzeczywiście
czymś fundamentalnym, a nie wynika wyłącznie z naszej niewiedzy, to w przypadku, gdy
elektron faktycznie odchylił się na lewo, a nie na prawo, nie istnieje żaden powód, żeby tak się
stało.
Czy nie wprowadza się przez to do świata elementu irracjonalności? Einstein uważał, że
tak właśnie jest („Pan Bóg nie gra w kości!”). Dlatego nie pogodził się nigdy z myślą, iż
mechanika kwantowa miałaby stanowić pełny opis rzeczywistości. Ale co dla jednych jest
irracjonalnością, inni nazywają twórczością. A stochastyczność i anarchia to bynajmniej nie to
samo. Rozwój nowych form i układów podlega ogólnym zasadom powstawania struktur, które
wytyczają kierunek i skłaniają, a nie zmuszają, materię i energię, by rozwijały się na jeden z
wielu wyznaczonych z góry sposobów ewolucji. W mojej książce The Cosmic Blueprint użyłem
na określenie tych ogólnych tendencji terminu „predestynacja” dla odróżnienia od
„determinizmu” (w sensie, jaki nadawał mu Tomasz z Akwinu). Dla tych, którzy, tak jak
zwolennicy teologii procesu, chcą widzieć w twórczym rozwoju świata ukierunkowującą rękę
Boga w miejsce czystej spontaniczności, stochastyczność stanowi praktyczny środek do
urzeczywistniania boskich zamiarów. I nie ma żadnej potrzeby, by taki Bóg interweniował
bezpośrednio w przebieg ewolucji poprzez „zbieranie rozrzuconych kwantowych kości”, o czym
wspomniałem przelotnie w rozdziale 5. Wytyczanie kierunku może się dokonywać poprzez
(bezczasowe) prawa samoorganizowania się struktur i przepływu informacji.
Można tu postawić zarzut, że jeżeli odejdzie się od zasady racji dostatecznej w jednym
miejscu, to można od niej odejść wszędzie. Jeżeli dany elektron „ot, tak sobie” ulega odchyleniu
na lewo, czy nie może być tak, że prawo powszechnego ciążenia czy też kosmiczne warunki
początkowe również zachodzą „ot, tak sobie”? Sądzę, że odpowiedź na to pytanie jest
negatywna. Stochastyczność właściwa fizyce kwantowej jest pod tym względem zasadniczo
odmienna. Warunek całkowitego nieuporządkowania lub czystej przypadkowości - „rzetelność”
kwantowej kości - narzuca sam z siebie silne ograniczenia. Jakkolwiek poszczególnych zdarzeń
kwantowych istotnie nie można przewidzieć, to zbiór wielu takich zdarzeń podlega prawom
mechaniki statystycznej. Można by rzec, iż w tym nieporządku jest porządek. Fizyk John
Wheeler podkreślał fakt wyłaniania się regularnego zachowania z pozornie całkowicie
nieregularnych fluktuacji kwantowych, ponieważ nawet chaos podlega pewnym statystycznym
prawidłowościom. Zasadnicze znaczenie ma to, że zdarzenia kwantowe tworzą zespół, który
możemy obserwować, natomiast prawa fizyki i warunki początkowe nie. Czymś innym jest
powiedzenie, że każde ze zbioru chaotycznych zdarzeń ma charakter czysto przypadkowy, a
czymś innym byłoby przypisywanie tego samego procesowi uporządkowanemu, jak prawo
fizyki. Dotychczas podczas tej naszej filozoficznej wyprawy zajmowałem się głównie
rozumowaniami logicznymi, niewiele miejsca poświęcając faktom empirycznym dotyczącym
świata. Dowód on-tologiczny i kosmologiczny same w sobie mogą jedynie wskazywać na
istnienie bytu koniecznego, który pozostaje wciąż pojęciem mglistym i abstrakcyjnym. Jeśli taki
byt istnieje, czy jesteśmy w stanie dowiedzieć się czegokolwiek o jego naturze na podstawie
badań świata fizycznego? Pytanie to wprowadza nas w krąg problematyki planowego charakteru
świata.
Rozdział ósmy
ZAPROJEKTOWANY WSZECHŚWIAT
Ludzie zawsze byli pełni podziwu dla wyrafinowania, wspaniałości i misternej budowy
świata fizycznego. Ciała niebieskie regularnie przemierzające firmament, rytm pór roku,
struktura płatka śniegu, niezliczone rzesze żywych stworzeń tak doskonale przystosowanych do
swego otoczenia - wszystko to wydawało się zbyt uporządkowane, aby mogło być wyłącznie
wynikiem ślepego przypadku. Istnieje powszechna tendencja, by przypisywać obecność tego
niezwykłego ładu w świecie celowemu działaniu jakiejś istoty nadprzyrodzonej.
Powstanie nauki przyczyniło się do odkrycia dalszych cudów przyrody, tak że obecnie
poznaliśmy jej porządek od najgłębszych zakamarków atomu do najdalszych galaktyk. Nauka
dostarcza jednak także racji dla tego porządku. Nie potrzebujemy już dla uzasadnienia struktury
płatka śniegu czy też istnienia organizmów żywych odwoływać się do teologii. Prawa przyrody
pozwalają na to, by materia i energia same z siebie organizowały się w złożone formy i układy,
jakie widzimy wokół nas. Jakkolwiek przedwczesne byłoby twierdzenie, że naukowcy zrozumieli
do końca istotę tej samoorganizacji, nie widać zasadniczych przeszkód, by, przy danych prawach
fizyki, wszystkie znane układy fizyczne nie mogły być przekonywająco przedstawione jako
wynik normalnych procesów fizycznych.
Niektórzy wyciągają stąd wniosek, że nauka obdarła Wszechświat z wszelkiej tajemnicy i
celowości, a wewnętrzna złożoność świata fizycznego jest bądź to niezamierzonym przypadkiem,
bądź nieuniknioną konsekwencją bezdusznych praw. „Im bardziej Wszechświat staje się
zrozumiały, tym bardziej widać, że nie ma on sensu” - uważa fizyk Steven Weinberg. Biolog
Jacques Monod wtóruje temu ponuremu stwierdzeniu: „Dawne przymierze rozpadło się;
człowiek uświadomił sobie w końcu, iż stoi samotnie wobec nieprzyjaznego ogromu
Wszechświata, z którego wyłonił się na zasadzie czystego przypadku. Jego przeznaczenie ani
jego powinności nie są nigdzie określone”.
Jednak inni naukowcy wyciągają z tych samych faktów odmienne wnioski. Zgadzając się,
że porządek przyrody da się wyjaśnić za pomocą praw fizyki wraz z odpowiednimi kosmicznymi
warunkami początkowymi, uznają oni, że istnienie wielu z występujących we Wszechświecie
złożonych struktur i układów uwarunkowane jest szczególną postacią tych praw i warunków
początkowych. W niektórych przypadkach wiązało się to z tak dokładnym doborem, że nawet
najmniejsza zmiana kształtu tych praw sprawiłaby, iż żadne struktury złożone by nie powstały.
Dokładne badania wykazały, iż rzeczywiste prawa wyjątkowo sprzyjają ukształtowaniu się
bogatych i zróżnicowanych struktur. Jeśli chodzi o organizmy żywe, to ich istnienie związane jest
z tak wielką liczbą korzystnych zbiegów okoliczności, że w opinii niektórych naukowców i
filozofów jest ona wręcz niewiarygodna.
Jedność Wszechświata
Opinia typu „zbyt piękne, aby mogło być prawdziwe” dotyczy kilku różnych faktów.
Pierwszym z nich jest, że Wszechświat jest w ogóle uporządkowany. Równie dobrze mógłby być
on przecież chaotyczny na nieskończenie wiele sposobów. Mogłyby w nim nie istnieć żadne
prawa, bądź też mogłyby występować jedynie niespójne, luźne prawa, nie zapewniające żadnego
porządku ani stabilności. Albo też Wszechświat mógłby być skrajnie prosty, wręcz bez wszelkich
struktur, w którym na przykład nie występowałaby materia albo ruch. Można sobie także
wyobrazić Wszechświat, w którym warunki zmieniają się nieustannie w skomplikowany lub
chaotyczny sposób, bądź taki, w którym wszystko nagle przestaje istnieć. Wszystko wskazuje na
to, że idea takich niesfornych wszechświatów jest w pełni logicznie dopuszczalna. Niemniej
realny Wszechświat taki nie jest. Jest w znacznym stopniu uporządkowany i występują w nim
dobrze określone prawa fizyki i wyraźne związki przyczynowo-skutkowe. Prawa te działają
niezawodnie. By posłużyć się sformułowaniem Davida Hume'a, przyroda biegnie wciąż tym
samym jednostajnym trybem. Ten porządek przyczynowy nie wynika z logicznej konieczności;
stanowi on syntetyczną własność świata, i to taką, dla której możemy słusznie domagać się
uzasadnienia.
Prawidłowości występujące w fizycznym świecie nie mają charakteru arbitralnego; w
szczególny sposób układają się one w spójną całość. Jak wyjaśniałem w rozdziale 5,
Wszechświat zawieszony jest pomiędzy dwiema skrajnościami: prostymi symetrycznymi
strukturami (jak struktura kryształu) a chaotycznymi układami złożonymi (jak w przypadku
cząsteczek gazu). Świat jest niewątpliwie złożony, lecz jest to złożoność uporządkowana.
Posługując się technicznym określeniem, które wprowadziłem w rozdziale 5, można powiedzieć,
że struktury Wszechświata mają „głębokość”. Ta głębokość nie występowała we Wszechświecie
od samego początku, lecz kształtowała się później z pierwotnego chaosu w ciągu postępujących
procesów samoorganizacji, w wyniku których powstawały coraz to bogatsze i bardziej złożone
struktury. Nietrudno wyobrazić sobie świat, który, choć uporządkowany, nie zawierałby w sobie
czynników i warunków umożliwiających rozbudowanie struktur w głąb.
O szczególności porządku fizycznego świata możemy mówić w jeszcze innym sensie.
Chodzi o ogólną spójność i jedność przyrody oraz o sam fakt, że możemy w ogóle posługiwać się
prawomocnie pojęciem „Wszechświata” jako obejmującym wszystko, co istnieje. W świecie
występują wprawdzie pojedyncze elementy i układy, lecz ich struktura jest taka, że wszystkie
razem tworzą jednolitą, spójną całość. Na przykład, oddziaływania w przyrodzie nie stanowią
luźnego zbioru zasadniczo odmiennych sił, lecz wpasowują się w jeden, wzajemnie się
wspomagający, system, nadający przyrodzie stabilność i harmonię, które trudno wyrazić
matematycznie, lecz są one oczywiste dla każdego, kto zajmuje się nauką. Tę właśnie cechę
świata starałem się uzmysłowić czytelnikowi poprzez analogię z krzyżówką.
Szczególnie zadziwiające jest, że parametry procesów zachodzących w skali mikroświata,
powiedzmy w fizyce jądrowej, są tak dobrane, iż prowadzą do różnorodnych isotnych zjawisk w
dużo większej skali, na przykład w astrofizyce. Tak więc przekonujemy się, że siła grawitacji
wraz z termodynamicznymi i mechanicznymi własnościami wodoru pozwala na tworzenie się
wiekiej liczby kuł gazowych. Kule te są wystarczająco duże, by w ich wnętrzu zostały
zapoczątkowane reakcje termojądrowe, lecz nie na tyle duże, by skolapsować od razu do stanu
czarnej dziury. Tak rodzą się stabilne gwiazdy. Wiele dużych gwiazd kończy swe życie w
spektakularny sposób, wybuchając jako tak zwane supernowe. Siła wybuchu w znacznej mierze
pochodzi od najbardziej nieuchwytnych cząstek elementarnych w przyrodzie - neutrin. Neutrina
praktycznie nie oddziaływają fizycznie: przeciętne kosmiczne neutrino bez trudu przeniknęłoby
przez warstwę ołowiu o grubości kilku lat świetlnych. A jednak te ulotne cząstki potrafią, w
ekstremalnych warunkach panujących we wnętrzu umierającej gwiazdy, zebrać się w sobie na
tyle, by być w stanie wyrzucić materię gwiazdową w przestrzeń. Szczątki te wykazują dużą
zawartość ciężkich pierwiastków, takich, z jakich zbudowana jest Ziemia. Zatem istnienie planet
podobnych do Ziemi, wraz z całym ich bogactwem form i układów, przypisać możemy
własnościom cząstki elementarnej tak ulotnej, że mogłaby nigdy nie zostać odkryta. Cykl
ewolucji gwiazd dostarcza jeszcze jednego przykładu przemyślnego, jak gdyby celowego,
współdziałania zjawisk fizycznych w dużej i małej skali, zmierzającego do większej złożoności
przyrody.
Oprócz takich ścisłych związków pomiędzy różnymi swymi aspektami, przyroda
odznacza się zadziwiającą jednorodnością. Prawa fizyki odkryte w laboratorium stosują się
równie dobrze do atomów w odległych galaktykach. Elektrony tworzące obraz na ekranie
naszych telewizorów mają dokładnie tę samą masę, ładunek i moment magnetyczny, jak
elektrony na Księżycu czy też na krańcu obserwowalnego Wszechświata. Ponadto własności te
nie wykazują najmniejszych zmian w czasie. Na przykład, moment magnetyczny elektronu
potrafimy zmierzyć z dokładnością do dziesięciu miejsc po przecinku i mimo tak fantastycznej
dokładności nie stwierdzono żadnej zmienności. Wiele wskazuje na to, że podstawowe własności
materii nie zmieniają się, nawet w skali istnienia Wszechświata.
Oprócz jednorodności praw fizyki mamy także jednorodność i izotropowość
przestrzennego rozkładu Wszechświata. W dużej skali, materia i energia rozłożone są wyjątkowo
równomiernie, a Wszechświat wydaje się rozszerzać z tą samą szybkością w każdym miejscu i
we wszystkich kierunkach. Oznacza to, że obserwator żyjący w innej galaktyce widziałby w
dużej skali ten sam obraz Wszechświata co my. Z innymi galaktykami łączy nas wspólna
kosmografia i wspólna historia. Jak pisałem w rozdziale 2, kosmologowie próbowali wyjaśnić tę
jednorodność poprzez wprowadzenie tak zwanej hipotezy Wszechświata inflacyjnego, zgodnie z
którą Wszechświat gwałtownie zwiększył swoje rozmiary krótko po powstaniu. Spowodowałoby
to wygładzenie wszelkich istniejących początkowo nieregularności. Warto jednak zdać sobie
sprawę, że wyjaśnienie tej jednorodności za pomocą jakiegoś mechanizmu fizycznego w niczym
nie umniejsza jej szczególnego charakteru, gdyż nadal możemy zadawać pytanie, dlaczego prawa
przyrody są takie, iż ten mechanizm był możliwy. Ważne jest nie tyle to, w jaki sposób
Wszechświat osiągnął swą szczególną postać, lecz to, że jest właśnie taki, iż ją osiągnął.
I w końcu mamy jeszcze tak szeroko omawianą prostotę praw. Rozumiem przez to, że
prawa te wyrażają się funkcjami prostymi pod względem matematycznym (jak proporcjonalność
do odwrotności kwadratu odległości). I w tym przypadku możemy sobie wyobrazić światy, w
których występują wprawdzie regularności, lecz są one tak bardzo skomplikowane, że można je
opisać jedynie zawiłą kombinacją różnych matematycznych pojęć. Zarzut, że rozwijamy naszą
matematykę właśnie w taki sposób, by pozwalała na prosty opis świata, rozpatrzyłem w rozdziale
6. Osobiście uważam, że „niezrozumiała skuteczność” matematyki w opisywaniu rzeczywistości
wskazuje na to, iż prawidłowości, z jakimi mamy do czynienia w przyrodzie, są bardzo
szczególnego rodzaju.
Życie jest takie trudne
Próbowałem wykazać, że istnienie uporządkowanego, spójnego Wszechświata,
zawierającego stabilne złożone struktury o wysokim stopniu wewnętrznej organizacji, wymaga
praw i warunków bardzo szczególnego rodzaju. Wszystko wskazuje na to, że nasz Wszechświat
jest nie tylko wszechświatem starym, lecz i takim, który jest specjalnie dostosowany, aby mogły
w nim istnieć pewne obiekty o istotnym znaczeniu (np. stabilne gwiazdy). W rozdziale 7
pokazywałem, jak Freeman Dyson i inni badacze nadali temu przypuszczeniu bardziej formalną
postać zasady maksymalnego zróżnicowania.
Sytuacja staje się jeszcze bardziej intrygująca, jeżeli weźmiemy pod uwagę istnienie
organizmów żywych. Fakt, że układy biologiczne wymagają do swego rozwoju bardzo
szczególnych warunków i warunki te są na szczęście spełnione w przyrodzie, był komentowany
bodajże od siedemnastego stulecia. Jednakże dopiero w dwudziestym wieku, wraz z rozwojem
biochemii, genetyki i biologii molekularnej, można było potwierdzić to szczegółowo. Już w 1913
roku wybitny biochemik z Harvardu Lawrence Ander-son pisał: „Własności materii i przebieg
ewolucji kosmosu widziane są obecnie jako pozostające w bliskich związkach z budową
organizmów żywych i ich funkcjonowaniem; (...) biolog ma teraz pełne prawo uważać, że
Wszechświat w istocie swej jest biocentryczny”. Henderson doszedł do tego zaskakującego
wniosku na podstawie swych prac nad regulacją kwasowości i alkaliczności w organizmach
żywych, obserwując sposób, w jaki regulacja ta istotnie zależy od dość szczególnych własności
pewnych związków chemicznych. Duże wrażenie wywarła też na nim rola wody, z jej szeregiem
anomalnych własności, w powstaniu i podtrzymywaniu życia. Gdyby te substancje nie istniały
lub gdyby nie miały tych szczególnych własności, to życie (przynajmniej w znanej nam postaci)
nie mogłoby się rozwinąć. Henderson uważał, że to „przystosowanie środowiska” do rozwoju
życia jest zbyt znaczne, by można uznać je za sprawę przypadku, i starał się odgadnąć, jakiego
typu prawa mogłyby uzasadniać takie dopasowanie.
W latach sześćdziesiątych astronom Fred Hoyle zwrócił uwagę, że węgiel, pierwiastek,
którego własności chemiczne sprawiają, że jest on podstawą życia na Ziemi, produkowany jest z
helu we wnętrzu dużych gwiazd, a następnie ulega stamtąd wyrzuceniu podczas wybuchów
supernowych, o których wspominałem w poprzednim podrozdziale. Gdy Hoyle badał reakcje
jądrowe prowadzące do powstawania węgla w jądrach gwiazd, uderzył go fakt, że zasadnicza
reakcja zachodzi jedynie dzięki wyjątkowo szczęśliwemu zbiegowi okoliczności. Jądra węgla
tworzą się w wyniku dość skomplikowanego procesu wymagającego jednoczesnego zderzenia
trzech szybkich jąder helu, które potem pozostają już złączone. Wskutek tego, iż zderzenia trzech
jąder są zdarzeniem rzadkim, reakcja może zachodzić z zadowalającą szybkością jedynie przy
pewnych określonych wartościach energii (zwanych „rezonansami”), przy których szybkość
reakcji ulega znacznemu zwiększeniu wskutek efektów kwantowych. Tak się szczęśliwie składa,
że jeden z tych rezonansów odpowiada mniej więcej wartościom energii, jakie mają jądra helu
we wnętrzu dużych gwiazd. Co ciekawe, Hoyle nie wiedział wtedy jeszcze o tym, lecz
przewidywał, że tak musi być, na podstawie faktu, iż węgiel jest w przyrodzie pierwiastkiem
bardzo rozpowszechnionym. Eksperymenty wykazały potem, że miał rację. Dokładne badania
ujawniły również inne „zbiegi okoliczności”, bez których ani produkcja, ani gromadzenie węgla
wewnątrz gwiazd nie byłyby możliwe. Ten „monstrualny ciąg przypadków” wywarł na Hoyle'u
takie wrażenie, że skłonił go do powiedzenia wręcz, że wygląda to tak, jak gdyby „prawa fizyki
jądrowej zostały celowo zaprojektowane pod kątem konsekwencji, jakie wywołują we wnętrzach
gwiazd”. W późniejszym okresie wielokrotnie wyjaśniał, że Wszechświat sprawia wrażenie
„podrasowanego”, jak gdyby ktoś coś „majstrował” przy prawach fizyki.
Powyższe przykłady są tylko jednymi z wielu. Od tego czasu zgromadzono już długą listę
dalszych „szczęśliwych przypadków” i „zbiegów okoliczności”. Jest ona w znacznej części
dziełem astrofizyków, Brandona Cartera, Bernarda Carra i Martina Reesa. Lista ta dostarcza
przekonującego dowodu, że życie w znanych nam formach zależy bardzo istotnie od konkretnej
postaci praw fizyki i od szeregu pozornie zupełnie przypadkowych zbieżności obranych przez
przyrodę wartości mas niektórych cząstek, siły oddziaływania, i tak dalej. Ponieważ przykłady te
zostały już wyczerpująco omówione w innych książkach, nie będę ich tutaj wyliczał. Powiem
tylko, że gdybyśmy wczuli się w rolę Boga i chcieli regulować wartości tych wielkości według
naszego uznania, ręcznie obracając mnóstwem pokręteł, szybko stwierdzilibyśmy, że przy prawie
wszystkich położeniach pokręteł otrzymalibyśmy Wszechświat, w którym życie nie byłoby
możliwe. W niektórych przypadkach, jak się wydaje, wzajemne położenie pokręteł musiałoby
zostać ustawione z ogromną dokładnością, aby doprowadzić do powstania życia. W swej książce
Cosmic Coincidences [Kosmiczne przypadki] John Gribbin i Martin Rees konkludują: „Warunki
panujące w naszym Wszechświecie naprawdę wydają się być jedynymi odpowiednimi dla
rozwoju form życia takiego jak nasze”.
Truizmem jest stwierdzenie, że możemy obserwować jedynie Wszechświat pozwalający
na istnienie nas samych. Jak już wspominałem, związek pomiędzy istnieniem ludzkiego
obserwatora a prawami i warunkami Wszechświata stał się znany pod dość niefortunną nazwą
Zasady Antropicznej. W trywialnej, podanej powyżej formie Zasada Antropiczna nie stwierdza,
że prawa fizyki są w jakikolwiek sposób zmuszone przez nasze istnienie do przybrania formy,
jaką posiadają, ani też nie wynika z niej, iżby prawa fizyki zostały celowo zaprojektowane pod
kątem ludzi. Z drugiej strony, to, że nawet najmniejsze zmiany w porządku rzeczy pozbawiłyby
Wszechświat obserwatora, jest niewątpliwie faktem o ogromnym znaczeniu.
Czy Wszechświat został zaprojektowany przez inteligentnego Stwórcę?
Już dawni filozofowie greccy uznawali, że ład i harmonia kosmosu wymaga uzasadnienia,
lecz pogląd, że własności te są dziełem Stwórcy realizującego założony plan, ukształtował się w
pełni dopiero z nadejściem ery chrześcijańskiej. W trzynastym wieku Tomasz z Akwinu
przedstawił ideę, że ciała w przyrodzie zachowują się tak, jak gdyby były prowadzone ku
określonemu celowi, „tak aby go jak najlepiej zrealizować”. Takie dopasowanie środków do celu
zakłada - twierdził Akwinata - czyjąś intencję. Lecz skoro ciała nie są obdarzone świadomością,
intencja ta nie może pochodzić od nich samych. „Zatem istnieje pewna inteligentna istota
kierująca wszystkie rzeczy ku ich celom; istotę tę nazywamy Bogiem”.
Argument Tomasza z Akwinu upadł w siedemnastym stuleciu wraz z rozwojem
mechaniki. Prawa Newtona dostarczają w pełni adekwatnego wyjaśnienia ruchu ciał
materialnych w kategoriach ich bezwładności i działających na nie sił, bez potrzeby odwoływania
się do nadprzyrodzonej intencji. W tym czysto mechanicznym obrazie świata nie było miejsca na
teleologię (przyczyny celowe). Racji określonego zachowania się ciał należy upatrywać w
bezpośrednich przyczynach fizycznych, tzn. siłach działających na nie lokalnie ze strony innych
ciał. Jednakże ta zmiana poglądów nie położyła całkowitego kresu idei, że świat musiał być
celowo zaprojektowany. Sam Newton, jak się przekonaliśmy, uważał, że Układ Słoneczny
wygląda na zbyt wymyślny, by mógł powstać wyłącznie w wyniku działania ślepych sił
przyrody: „Ten przepiękny układ, obejmujący Słońce, planety i komety, mógł powstać jedynie za
sprawą i pod przewodnictwem potężnej i inteligentnej Istoty”. Zatem nawet pozostając w ramach
mechanistycznego obrazu świata, można być zaintrygowanym porządkiem rzeczy materialnych
we Wszechświecie. Wielu uczonym nadal trudno było przypuścić, by wyrafinowany i
harmonijny porządek przyrody mógł być wynikiem czystego przypadku.
Pogląd ten został wyartykułowany przez Roberta Boyle'a, tego od prawa Boyle'a:
Niezwykła przemyślność wspaniałej konstrukcji świata, a zwłaszcza ciekawa budowa
organizmów zwierzęcych, funkcjonowanie ich aparatu zmysłowego i innych części ciała,
stanowiły podstawowe motywy skłaniające filozofów wszystkich epok i narodów do uznawania
Istoty Boskiej za twórcę tych cudownych struktur.
Boyle wprowadził słynne porównanie świata do mechanizmu zegara, które najpełniej
wyraził teolog William Paley w osiemnastym wieku. Wyobraźmy sobie, dowodził Paley, że
„wędrujemy po pustkowiu” i nagle znajdujemy leżący na ziemi zegarek. Dokładnie go oglądając,
stwierdzamy wymyślny charakter części jego mechanizmu i to, że są one ułożone tak, aby ze
sobą współdziałając, służyły jakiemuś ogólnemu celowi. Nawet gdybyśmy nigdy w życiu nie
widzieli zegarka i nie mieli pojęcia o jego działaniu, to na podstawie tego oglądu doszlibyśmy do
wniosku, że jest to jakieś celowo zaprojektowane urządzenie. W dalszym ciągu swego wywodu
Paley stwierdza, że kiedy widzimy jeszcze bardziej wymyślne konstrukcje przyrody, to wniosek
ten powinien się nam narzucić tym bardziej.
Słabym punktem tego rozumowania jest, co pokazał Hume, to, że opiera się ono na
analogii. Pojmowany mechanistycznie Wszechświat przypomina zegarek; zegarek został przez
kogoś wykonany, a zatem Wszechświat też musiał mieć swego stwórcę. Można by równie dobrze
utrzymywać, że Wszechświat przypomina organizm żywy, a zatem musiał się rozwinąć z
zarodka w kosmicznym łonie! Oczywistym jest, że rozumując przez analogię nie można niczego
dowieść. Co najwyżej analogia może służyć do poparcia jakiejś hipotezy. Stopień tego poparcia
zależy od tego, na ile dana analogia zdolna jest kogoś przekonać. John Leslie pisał, że gdyby
świat usłany był blokami granitu z wyrytym napisem MADE BY GOD, podobnie jak oznacza się
producenta zegarka, to może nawet Hume'owie tego świata zostaliby przekonani. „Można zadać
pytanie, czy każdy możliwy wyraźny ślad istnienia boskiego Stwórcy, w tym, na przykład,
przesłanie wypisane w postaci struktur występujących w przyrodzie łańcuchów molekularnych
(...) można lekką ręką odrzucać z komentarzem: Ależ nie ma w tym nic szczególnego”.
Niewykluczone, że w przyrodzie obecny jest wyraźny ślad Stwórcy, lecz jest w jakiś sposób
przed nami ukryty. Być może uda nam się rozpoznać „znak firmowy” boskiego architekta
dopiero po osiągnięciu pewnego poziomu rozwoju nauki. Stanowi to motyw powieści
fantastycznonaukowej Contact astronoma Carla Sagana, w której przesłanie to jest misternie
zakodowane w ciągu cyfr rozwinięcia liczby n, liczby, która jest istotnym elementem samej
struktury Wszechświata, i może być odczytane wyłącznie przy użyciu zaawansowanych metod
komputerowych.
Prawdą jest także, że nawet najbardziej racjonalni ludzie posługują się rozumowaniem
przez analogię w innych przypadkach. Jeden z nich dotyczy istnienia w ogóle świata
obiektywnego. W bezpośrednim doświadczeniu dany jest nam świat subiektywny, świat naszych
doznań zmysłowych. Zazwyczaj uważamy ten świat za dość wierną kopię czy model obiektywnie
istniejącego świata fizycznego i potrafimy odróżnić sen od rzeczywistości. Jednak kopia lub
model to także rodzaj analogii i w tym przypadku bez oporów ją akceptujemy. Jeszcze większy
element wiary zawarty jest we wnioskowaniu o istnieniu umysłów inne niż nasz. W naszym
doświadczeniu inni ludzie dani są nam wyłącznie poprzez swe ciała; nie mamy możliwości
postrzegać bezpośrednio ich umysłów. Nie ulega wątliwości, że inni ludzie zachowują się, jak
gdyby ich umysł funkcjonował podobnie jak nasz, lecz nie możemy tego wiedzieć na pewno.
Przekonanie o istnieniu innych umysłów opiera się całkowicie na analogii z naszymi własnymi
doznaniami i zachowaniami.
Argument planowego charakteru świata nie może być zaklasyfikowany jako prawdziwy
lub fałszywy, lecz jedynie jako mniej lub bardziej przekonujący. W jakim stopniu więc jest on
przekonujący? Nikt z ludzi nauki nie poparłby obecnie Newtona w jego twierdzeniu, że Układ
Słoneczny jest zbyt uporządkowany, aby mógł był powstać w sposób naturalny. Jakkolwiek nie
udało się jeszcze rozstrzygnąć definitywnie, w jaki sposób powstał, znane są mechanizmy zdolne
do nadania mu porządku, jaki w nim obserwujemy. Tym niemniej pełna struktura Wszechświata
jawi się wielu astronomom jako zawierająca element celowego zaprojektowania. I tak James
Jeans twierdził, że „projekt Wszechświata jest najwyraźniej dziełem matematyka” oraz że „w
coraz większym stopniu przypomina on wielką myśl niż wielką maszynę”, pisząc również:
Odkrywamy, że Wszechświat wykazuje ślady działalności jakiegoś czynnika
projektującego czy też kierującego, który ma coś wspólnego z naszym ludzkim umysłem - nie, o
ile nam na razie wiadomo, pod względem emocji, moralności lub poczucia piękna, lecz tendencji
do myślenia w sposób, który, z braku lepszego słowa, można by określić jako matematyczny.
Odejdźmy na chwilę od astronomii. Najbardziej zdumiewające przykłady „przemyślności
przyrody” można znaleźć w obrębie biologii, i to im właśnie Paley poświęcił najwięcej uwagi.
Przystosowanie celowe w biologii jest wręcz legendarne. Weźmy, na przykład, oko. Doprawdy
trudno sobie wyobrazić, aby miało ono być czymś innym niż narządem wzroku. Albo że skrzydła
ptaka nie miały na celu funkcji latania. Dla Paleya i jemu podobnych takie misterne i skuteczne
przystosowanie było wyrazem celowego działania inteligentnego Stwórcy. Niestety, jak
wszystkim wiadomo, argument ten szybko stracił na znaczeniu. Teoria ewolucji Darwina
wykazała definitywnie, że zorganizowane struktury efektywnie przystosowane do otoczenia
mogą powstać w wyniku przypadkowych mutacji i doboru naturalnego. Nie jest potrzebny żaden
stwórca, by powstało oko lub skrzydło. Narządy te rozwijają się w rezultacie zupełnie zwykłych
procesów naturalnych. Triumfalistyczne nastroje, jakie wzbudziła ta rozstrzygająca koncepcja,
przedstawione są znakomicie w książce The Blind Watchmaker [Ślepy zegarmistrz] pióra biologa
z Oxfordu Richarda Dawkinsa.
Surowa krytyka, z jaką spotkał się argument planowego charakteru świata ze strony
Hume'a, Darwina i innych, sprawiła, że został on prawie całkowicie porzucony przez teologów.
Tym ciekawsze jest więc, że w ostatnich latach został on przywrócony do życia przez wielu
naukowców. W swej nowej formie dotyczy nie tyle materialnej zawartości świata, lecz
rządzących nim praw, wobec czego dotychczasowe krytyki się do niej nie odnoszą. By pokazać,
dlaczego, pozwolę sobie najpierw wyjaśnić, na czym zasadniczo polega ewolucja typu
darwinowskiego. W swym założeniu teoria Darwina wymaga istnienia kolektywu, czyli zespołu
podobnych osobników, wśród których może się dokonywać dobór naturalny. Rozważmy na
przykład, jak doszło do tego, że polarne niedźwiedzie są koloru białego, tak doskonale
zlewającego się ze śniegiem. Wyobraźmy sobie stado brunatnych niedźwiedzi polujących na żer
na pokrytym śniegiem terytorium. Ich potencjalne ofiary z łatwością dostrzegają zbliżającego się
drapieżnika i biorą nogi za pas. Brunatne niedźwiedzie wiodą ciężki żywot. Wtem, w wyniku
genetycznego przypadku, rodzi się biały niedźwiedź. Bez trudu przychodzi mu zdobywanie
pożywienia, ponieważ może niezauważenie podkraść się do ofiary. Żyje on dłużej niż jego
brunatni pobratymcy i wśród jego potomstwa jest więcej białych osobników. Im również wiedzie
się lepiej, więc rodzi się jeszcze więcej białych niedźwiedzi. Wkrótce mają one przewagę
liczebną, toteż przechwytują całą zwierzynę, doprowadzając brunatne niedźwiedzie do
wyginięcia.
Trudno sobie wyobrazić, aby powyższa historyjka była daleka od prawdy. Ale weźmy
pod uwagę, jak istotne było, aby na początku było wiele niedźwiedzi. Jeden niedźwiedź w stadzie
rodzi się biały, co daje mu przewagę nad innymi. Cała koncepcja opiera się na tym, że przyroda
może dokonywać wyboru z zespołu podobnych, konkurujących ze sobą, osobników. Jednakże w
przypadku praw fizyki i kosmologicznych warunków początkowych nie mamy takiego zespołu.
Prawa i warunki początkowe naszego Wszechświata są jedyne w swoim rodzaju. (Kwestią, czy
może istnieć wiele wszechświatów o odmiennych prawach, będę się jeszcze zajmował). Jeżeli
powstanie życia wymaga, aby prawa i warunki początkowe były dopasowane z dużą
dokładnością, i takie dopasowanie faktycznie ma miejsce, to sugestia planowego początku
wydaje się nieodparta.
Niemniej zanim wyciągniemy taki wniosek, rozpatrzmy wpierw kilka zarzutów. Po
pierwsze, twierdzi się niekiedy, że gdyby przyrodzie nie udało się wytworzyć warunków, w
których mogło powstać życie, nie byłoby nas i nie moglibyśmy o tym dyskutować. Jest to
oczywiście prawda, lecz nie jest to żaden kontrargument. Faktem jest, że jesteśmy tu, i to za
sprawą dość szczególnych warunków, lecz samo nasze istnienie nie uzasadnia wystąpienia tych
warunków. Można próbować załatwić sprawę stwierdzeniem, iż z pewnością mamy olbrzymie
szczęście, że we Wszechświecie przypadkowo panują warunki sprzyjające rozwojowi życia, ale
jest to tylko uśmiech losu, bez głębszego znaczenia. I w tym przypadku jest to kwestia
indywidualnej oceny. Przypuśćmy, że można wykazać, że życie nie byłoby możliwe, gdyby
stosunek masy elektronu do masy protonu odpowiadał z dokładnością 0,00000000001 procenta
jakiejś zupełnie niezależnej liczbie - powiedzmy, wielokrotności stosunku gęstości wody i rtęci
przy 18 stopniach Celsjusza. Nawet najbardziej zatwardziały sceptyk zmuszony byłby wtedy
przyznać, że „coś w tym jest”.
Ale jak ocenić, w jakim stopniu coś jest „nienaturalne”? Problem polega na tym, że nie
znamy sposobu, w jaki można by wyznaczyć wartości prawdopodobieństwa znanych nam
„zbiegów okoliczności”. Z jakiego zakresu może pochodzić, powiedzmy, wartość siły
oddziaływań jądrowych (od której zależą na przykład wartości energii odpowiadające
rezonansom Hoyle'a)? Jeśli zakres ten jest nieskończony, to prawdopodobieństwo wybrania
każdego skończonego zbioru wartości równa się zeru. Ale wtedy trudno byłoby mówić, iż
wymogi powstania życia w jakimkolwiek stopniu tę wartość zmieniają. Stanowi to niewątpliwe
reductio ad absurdum całego rozumowania. Potrzebna jest tu jakaś metateoria, teoria teorii, która
pozwalałaby na wyznaczenie wartości prawdopodobieństwa dla danego zakresu wartości
parametrów. Taka metateoria nie istnieje, a przynajmniej, o ile mi wiadomo, nikt jej dotychczas
nie stworzył. Dopóki jej nie będzie, ocena stopnia „nienaturalności” danego stanu Wszechświata
pozostaje sprawą czysto subiektywną. Niemniej jednak czujemy, że jest on nienaturalny!
Innym podnoszonym niekiedy zarzutem jest to, że w procesie ewolucji organizmy żywe
dostosowują się do panujących warunków, nic więc dziwnego, że życie tak dobrze odpowiada
tym warunkom. Może to być prawdą jedynie w odniesieniu do ogólnych parametrów środowiska,
na przykład umiarkowanych zmian klimatycznych. Z pewnością byłoby błędem wskazanie na
Ziemię i powiedzenie: „Spójrzcie, jak warunki sprzyjają tu życiu! Klimat jest właściwy, jest dużo
tlenu i wody, a siła ciężkości odpowiada akurat długości kończyn, itd. itd. Co za niezwykła seria
przypadków!” Ziemia jest tylko jedną spośród wielkiej liczby planet położonych w naszej
Galaktyce i poza nią. Życie może powstać tylko na tych planetach, gdzie są odpowiednie
warunki. Gdyby Ziemia się do nich nie zaliczała, być może ta książka napisana zostałaby w
jakiejś innej galaktyce. Ale nie chodzi nam teraz o coś tak zaściankowego, jak życie na Ziemi.
Pytanie brzmi: jakie muszą być spełnione warunki, aby powstało w ogóle życie gdzieś we
Wszechświecie. Jeśli już ono powstanie, to w nieunikniony sposób będzie się rozwijało w
miejscu, gdzie są po temu warunki.
Szczególny charakter, o jakim mówiłem, nie dotyczy tej czy innej niszy ekologicznej,
lecz samych praw fizyki. Gdyby prawa te nie spełniały pewnych warunków, życie nie mogłoby w
ogóle powstać. Z oczywistych względów nie istniałoby życie oparte na związkach węgla, gdyby
nie było węgla. Lecz co z alternatywnymi formami życia, tak ulubionymi przez autorów
fantastyki naukowej? I w tym przypadku, musimy przyznać, że po prostu nie wiemy. Gdyby
prawa fizyki były nieco inne, może powstałyby inne możliwości rozwoju życia zamiast tych,
które znamy. Sprzeciwia się temu ogólny pogląd, że organizmy biologiczne są tak szczególnymi
układami, że nie mogłyby się pojawić w wyniku dowolnych praw i warunków. Jednakże, dopóki
nie poznaliśmy należycie pochodzenia życia i nie są nam znane żadne jego alternatywne formy
istniejące gdzieś we Wszechświecie, kwestia ta musi pozostać nie rozstrzygnięta.
Mądrość przyrody
Powróćmy znów do słynnego powiedzenia Einsteina, że „Pan Bóg jest wyrafinowany,
lecz nie perfidny” - pozwoli nam ono dostrzec jeszcze jeden intrygujący aspekt porządku świata.
Einstein miał na myśli to, że poznanie przyrody wymaga wprawdzie znacznych umiejętności
matematycznych, intuicji fizycznej i dużej pomysłowości, mimo to cel ten jest dla nas możliwy
do osiągnięcia. Problematykę tę dyskutowałem w nieco innym ujęciu w rozdziale 6, gdzie
wskazałem na fakt, że świat wydaje się być zbudowany w ten sposób, że jego opis
matematyczny, choć wcale nietrywialny, pozostaje w zasięgu umysłu człowieka.
Jak już raz czy dwa wspominałem, niezwykle trudno przekazać, na czym polega
wyrafinowanie matematycznego opisu przyrody, komuś nie obeznanemu z fizyką teoretyczną,
jednakże naukowcy, którzy mieli do czynienia z tą dziedziną, doskonale wiedzą, o co chodzi. Jest
ono być może najbardziej uderzające w fizyce cząstek elementarnych i teorii pola, które
wymagają jednoczesnego stosowania kilku działów matematyki wyższej. Wyrażając rzecz
możliwie najprościej: stosując matematykę w zwykły sposób dochodzimy do pewnego punktu i
nagle opis się załamuje: pojawia się jakaś wewnętrzna sprzeczność lub też teoria daje wyniki
drastycznie nie odpowiadające rzeczywistości. Wtedy przychodzi ktoś sprytniejszy od nas i
wynajduje jakiś trik; znajduje, być może, jakąś ukrytą lukę w twierdzeniu albo elegancki sposób
wyrażenia danego problemu w języku całkiem odmiennych pojęć matematycznych i proszę
bardzo, wszystko pasuje! Trudno oprzeć się pokusie przypisania przyrodzie co najmniej równie
wielkiej dozy sprytu, skoro potrafiła „zauważyć” to rozwiązanie i je wykorzystać. Często słyszy
się fizyków teoretycznych, którzy we właściwy im nieformalny, bezceremonialny sposób
zachwalają swoją teorię przy użyciu powiedzonka, iż jest ona tak
sprytna/wyrafinowana/elegancka, że trudno przypuścić, aby przyroda nie chciała jej
wykorzystać!
Pozwolę sobie zwięźle naszkicować jeden przykład. W rozdziale 7 omawiałem najnowsze
próby unifikacji czterech podstawowych oddziaływań przyrody. Dlaczegóż przyroda miałaby się
posługiwać aż czterema odrębnymi siłami? Czyż nie byłoby prostszym, efektywniejszym i
bardziej eleganckim rozwiązaniem, gdybyśmy mieli trzy, dwie, a może nawet tylko jedną siłę,
przejawiającą się pod czterema różnymi postaciami? Tak przynajmniej sądzili zaangażowani w te
badania fizycy, poszukujący podobieństw pomiędzy poszczególnymi oddziaływaniami, które
pozwoliłyby na znalezienie jednego wspólnego opisu matematycznego. W latach
sześćdziesiątych okazało się, że można to będzie osiągnąć w przypadku elektromagnetyzmu i
słabych oddziaływań jądrowych. Wiedziano, że oddziaływania elektromagnetyczne polegają na
wymianie cząstek zwanych „fotonami”. Fotony te, śmigając tam i z powrotem pomiędzy
naładowanymi elektrycznie cząstkami, na przykład elektronami, powodują powstanie
działających na nie sił. Gdy widzimy przywieranie potartego balonu do sufitu czy też wzajemne
przyciąganie i odpychanie magnesów, to obserwujemy właśnie skutki niewidzialnej pracy tych
niestrudzonych cząstek. Możemy sobie wyobrażać, że fotony te pełnią jak gdyby rolę posłańców,
które powiadamiają jedne cząstki o sile działającej na nie ze strony innych cząstek, a te z kolei w
ten sam sposób odpowiadają.
Otóż teoretycy doszli do przekonania, że coś podobnego zachodzi w przypadku
oddziaływań słabych w jądrach atomowych. Wynaleziono hipotetyczną cząstkę, nazwana dość
tajemniczo cząstką W, która miałaby odgrywać rolę pośrednika, analogicznie jak fotony.
Jednakże, w przeciwieństwie do fotonów, które były dobrze znane w laboratorium, nikt nigdy nie
widział cząstki W, więc można było opierać się wyłącznie na matematyce. Teorię oddziaływań
słabych przeformułowano tak, aby uwydatnić jej zasadnicze podobieństwo do
elektromagnetyzmu. Idea była taka, że jeżeli mamy dwa zbliżone opisy matematyczne, to można
je ze sobą połączyć w jeden jednolity opis. Przeformułowanie to obejmowało wprowadzenie
jeszcze jednej cząstki pośredniczącej, nazwanej cząstką Z, która przypomina foton w jeszcze
większym stopniu niż cząstka W. Problem polegał na tym, że nawet w tym nowym
sformułowaniu oba opisy - teoria elektromagnetyzmu i oddziaływań słabych - nadal cechowała
pewna zasadnicza różnica. Mimo wielu podobieństw cząstek Z do fotonów ich masy były
krańcowo odmienne. Powodem było to, że masa cząstki pośredniczącej wiąże się bezpośrednio z
zasięgiem danego oddziaływania: im krótszy zasięg, tym większa masa cząstek. Zasięg sił
elektromagnetycznych jest nieskończony, co wymaga, aby pośrednicząca w nich cząstka miała
masę równą zeru, podczas gdy zasięg oddziaływań słabych nie przekracza rozmiarów jądra,
wskutek czego pośredniczące cząstki muszą mieć masę bardzo dużą, rzędu mas całych atomów.
Kilka słów trzeba poświęcić faktowi zerowej masy fotonu. Masa cząstki wiąże się z jej
bezwładnością. Im mniejsza masa, tym mniejsza bezwładność cząstki i tym większego
przyśpieszenia doznaje ona pod wpływem działającej na nią siły. Gdy dane ciało ma bardzo małą
masę, to dany impuls siły nada mu bardzo dużą prędkość. Jeśli wyobrazimy sobie cząstki o coraz
to mniejszej masie, to prędkość ta będzie coraz większa. Można by sądzić, że cząstka o zerowej
masie będzie poruszać się nieskończenie szybko, ale tak nie jest. Teoria względności zabrania, by
cokolwiek poruszało się z prędkością przewyższającą prędkość światła, a zatem cząstki o masie
zerowej poruszają się z prędkością światła. Fotony, jako „cząstki światła”, są tu oczywistym
przykładem. Natomiast z obliczeń wynikało, że cząstki W i Z powinny mieć masy równe
odpowiednio osiemdziesięciu i dziewięćdziesięciu masom protonu, najcięższej ze znanych
trwałych cząstek.
Problem, przed jakim stanęli teoretycy w latach sześćdziesiątych, polegał na tym, w jaki
sposób połączyć z sobą eleganckie pod względem matematycznym opisy oddziaływań
elektromagnetycznych i słabych, skoro różnią się one od siebie jednym tak istotnym szczegółem.
Przełom nastąpił w roku 1967. W oparciu o aparat matematyczny, rozwinięty wcześniej przez
Sheldona Glashowa, dwaj fizycy teoretyczni, Abdus Salam i Steven Weinberg, niezależnie od
siebie, znaleźli wyjście z syluacji. Zasadnicza myśl była następująca. Przypuśćmy, że duże
wartości masy cząstek W i Z nie są ich własnością pierwotną, lecz zostały nabyte w wyniku
jakiegoś oddziaływania zewnętrznego; to znaczy, przypuśćmy, że cząstki te nie posiadają, że się
tak wyrażę, masy wrodzonej, lecz „niosą” ją ze sobą. Ta różnica, choć może wydawać się
drobna, jest niezwykle istotna. Oznacza bowiem, że masa nie jest kwestią teorii fizycznej, lecz
konkretnego stanu, w jakim normalnie się te cząstki znajdują. Posłużę się analogią, aby to bliżej
wyjaśnić. Gdy ustawimy ołówek pionowo na ostrym końcu i puścimy, przewróci się on,
układając w pewnym kierunku. Powiedzmy, że będzie wskazywał na północny wschód. Stan ten
został osiągnięty pod wpływem sił ciążenia ziemskiego, lecz „północny wschód” nie jest
bynajmniej wewnętrzną cechą grawitacji. Siły ciążenia niewątpliwie wyróżniają kierunek góra-
dół, ale nie północ-południe, wschód-zachód, ani żaden kierunek pośredni. Z punktu widzenia
grawitacji wszystkie kierunki w poziomie są równoważne. Zatem ułożenie ołówka na północny
wschód jest jedynie przypadkową cechą układu ołówek + siła ciężkości, związaną ze
szczególnym stanem, w jakim akurat znalazł się ołówek.
W przypadku cząstek W i Z rolę grawitacji odgrywa hipotetyczne nowe pole, zwane
polem Higgsa, od nazwiska Petera Higgsa z University of Edinburgh. Pole Higgsa działając na W
i Z powoduje ich „przewrócenie” w sensie symbolicznym. W wyniku tego nie otrzymujemy
„północnego wschodu”, lecz masę, i to dużą. Zostaje w ten sposób otwarta droga do unifikacji z
elektromagnetyzmem, jako że cząstki W i Z teraz „naprawdę” nie posiadają masy, podobnie jak
foton. Dwa matematyczne opisy można teraz z sobą połączyć, otrzymując jednolitą teorię, w
której występuje tylko jedno „elektrosłabe” oddziaływanie.
Reszta, jak to się mówi, jest historią. Na początku lat osiemdziesiątych w akceleratorach
Europejskiego Ośrodka Badań Jądrowych (CERN) pod Genewą udało się w końcu otrzymać
cząstki W, a następnie Z. Teoria zyskała w ten sposób wspaniałe potwierdzenie. Dwa z
występujących w przyrodzie oddziaływań okazały się być naprawdę dwoma obliczami tego
samego oddziaływania. Najwidoczniej przyroda dostrzegła także lukę w rozumowaniu, że nie
można utożsamić cząstek o masie zerowej i niezerowej - jest to możliwe, gdy wykorzysta się
mechanizm Higgsa.
Historia ta ma jeszcze ciąg dalszy. Z polem Higgsa, które odgrywa tu tak znaczącą rolę,
stowarzyszona jest z kolei cząstka nazwana „bozonem Higgsa”. Posiada ona przypuszczalnie
bardzo dużą masę, co oznacza, że do jej wytworzenia potrzebna jest bardzo duża energia. Do tej
pory nikomu nie udało się zaobserwować bozonu Higgsa, lecz jest on na czele listy cząstek
oczekujących na odkrycie. Jej wytworzenie będzie jednym z podstawowych zadań planowanego
nowego gigantycznego akceleratora, który ma być zbudowany na pustkowiach Teksasu w drugiej
połowie lat dziewięćdziesiątych. Znane pod nazwą SSC (Superconducting Supercollider) to
monstrualne urządzenie o obwodzie około osiemdziesięciu kilometrów umożliwi przyśpieszanie
protonów i antyprotonów do nieosiągalnych dotąd energii. Przeciwbieżne strumienie cząstek
będą zderzać się ze sobą, przez co uzyska się zderzenia o niespotykanej gwałtowności. Istnieje
nadzieja, że SSC pozwoli na skumulowanie energii wystarczającej na wytworzenie bozonu Hig-
gsa. Lecz w wyścigu tym oprócz Amerykanów biorą udział także Europejczycy, którzy
spodziewają się, że uda im się uzyskać bozon Higgsa w którymś z akceleratorów w CERN.
Dopóki się go nie odkryje, nie możemy być pewni, czy przyroda faktycznie korzysta z
mechanizmu Higgsa. Być może znalazła jakiś jeszcze sprytniejszy sposób. Pozostaje w napięciu
oczekiwać na finał tej historii.
Miejsce na wszystko i wszystko na swoim miejscu
Gdy naukowcy mówią o czymś: „dlaczego przyroda miałaby sobie zadawać tyle trudu?”,
czy też: „po co to jest?”, zdają się przypisywać przyrodzie inteligencję. Jakkolwiek zwykle
pytania takie wypowiadane są nieco żartobliwie, mają one również podtekst poważny.
Doświadczenie wykazało, że przyroda podziela nasze pojęcia oszczędności, efektywności, piękna
i wyrafinowania matematycznego, a zatem kierowanie się nimi w badaniach naukowych daje
bardzo dobre wyniki (jak w przypadku unifikacji oddziaływań słabych i elektromagnetycznych).
Większość fizyków uważa, że pod zewnętrzną złożonością ich dyscypliny kryje się elegancka
wszechogarniająca jedność i że postęp w fizyce polega na wykrywaniu matematycznych
„sztuczek”, które pozwoliły przyrodzie wygenerować nietrywialnie zróżnicowany i złożony
Wszechświat z tej fundamentalnej prostoty.
Istnieje na przykład wśród fizyków niewyrażane, lecz dość powszechne przekonanie, że
wszystko, co istnieje w przyrodzie, musi mieć „miejsce”, czy też rolę, w ramach pewnej
ogólniejszej całości, że przyroda nie pozwala sobie na rozrzutność poprzez tworzenie bytów
przypadkowych; że nie jest ona arbitralna. Każdy element rzeczywistości fizycznej powinien
łączyć się z innymi w „naturalny” i logiczny sposób. Zatem, kiedy w 1937 roku odkryto cząstkę
elementarną nazwaną potem mionem, fizyk Isidor Rabi wykrzyknął ze zdumienia: „Czy ktoś to
zamawiał?” Mion jest cząstką praktycznie identyczną z elektronem pod wszystkimi względami,
lecz o 206,8 razy większej masie. Ten większy brat elektronu jest nietrwały i w ciągu jednej lub
dwóch mikrosekund ulega rozpadowi, nie stanowi zatem stałego składnika materii. Tym
niemniej, wszystko wskazuje na to, ze jest on samodzielną cząstką elementarną, a nie złożeniem
innych cząstek. Reakcja Rabiego jest charakterystyczna. Po co istnieje taki mion'? Do czego
przyrodzie potrzebny jest jeszcze jeden gatunek elektronów, i to tak nietrwały? Jaką sprawiłoby
różnicę, gdyby mion wogóle me istniał?
Od tego czasu cały problem się jeszcze bardziej skomplikował. Wiemy teraz, że
większych braci jest dwóch. Drugi z nich, odkryty w 1974 roku, nazwany został „taonem”. Co
gorsza, okazuje się, ze inne cząstki również mają niestabilnych większych braci. Każdy z tak
zwanych kwarków - cegiełek składowych materii jądrowej, jak protony i neutrony - występuje w
dwóch cięższych wariantach. Mamy także trzy rodzaje neutrin. Sytuacja przedstawiona jest
schematycznie w Tabeli l. Wydaje się, ze wszystkie znane cząstki elementarne można podzielić
na trzy „generacje” Do pierwszej generacji zaliczają się elektron, neutrino elektronowe i dwa
kwarki, zwane „górnym” i „dolnym”, z których składają się protony i neutrony Cząstki pierwszej
generacji są zasadniczo trwałe i stanowią podstawowy składnik widzialnego Wszechświata
Zarówno atomy naszego ciała, jak i te wchodzące w skład Słońca i gwiazd, zbudowane są z
cząstek pierwszej generacji.
TABELA l
Leptony Kwarki
Pierwsza generacja elektron „dolny”
neutrino elektronowe „górny”
Druga generacja mion , dziwny”
neutrino mionowe „powabny”
Trzecia generacja taon „piękny”
neutrino taonowe ,,top”
Materia zbudowana jest z dwunastu podstawowych typów cząstek Sześć z nich, zwanych
„leptonami” , jest dość lekka i uczestniczy jedynie w oddziaływaniach słabych. Pozostałych sześć
zwanych „kwarkami” , ma dużą masę i wchodzi w oddziaływania silne tworząc cząstki składowe
jąder atomowych. Wszystkie te cząstki można uporządkować w trzy generacje o zbliżonych
własnościach.
Druga generacja wydaje się mniej więcej powtórzeniem pierwszej. Znajdujemy tutaj
mion, który tak zdumiał Rabiego. Cząstki te (być może z wyjątkiem neutrino) są nietrwałe i
rozpadają się po krótkim czasie na cząstki pierwszej generacji. I oto, ni stąd m zowąd, przyroda
jeszcze raz powtarza to wszystko w postaci trzeciej generacji. Można się zastanawiać, czy na tym
już koniec. Być może liczba generacji jest nieskończona i mamy do czynienia z jakąś prostą
strukturą powtarzalną. Fizycy w większości są odmiennego zdania. W 1989 roku w CERN użyto
nowego akceleratora cząstek do dokładnego prześledzenia rozpadu cząstki Z. Otóż Z rozpada się
na neutrina, a szybkość tego procesu wyznaczona jest przez liczbę odrębnych rodzajów neutrin
występujących w przyrodzie, a zatem dokładny pomiar tej szybkości może służyć do określenia
tej liczby. Otrzymano liczbę trzy, co oznaczałoby, ze mamy do czynienia jedynie z trzema
generacjami cząstek.
Stajemy zatem przed zagadką dlaczego trzy? Jedna lub nieskończenie wiele byłoby
„naturalne”, lecz trzy wydaje się czystą perwersją. Owa „zagadka generacji” dostarczyła impulsu
do wielu istotnych prac teoretycznych. Największego postępu w fizyce cząstek elementarnych
dokonano dzięki zastosowaniu działu matematyki zwanego „teorią grup”. Wiąże się to silnie z
zagadnieniem symetrii, jednej z „ulubionych” własności przyrody. Teoria grup pozwala na
połączenie pozornie odrębnych cząstek w jednolite rodziny. Istnieją określone reguły
matematyczne przedstawiania grup i łączenia ich ze sobą, a także określające, ile cząstek każdego
typu może wchodzić w skład grupy. Naukowcy mają nadzieję na uzyskanie opisu
teonogrupowego uzasadnionego niezależnie, który również zawierałby trzy generacje cząstek.
Pozorna rozrzutność przyrody okazałaby się wtedy konieczną konsekwencją jakiejś głębszej
symetrii.
Oczywiście, dopóki nie uda się dokonać takiej unifikacji, istnienie trzech generacji
stanowi kontrprzykład dla tezy, ze przyrodę cechuje wyrafinowana oszczędność, a nie złośliwa
arbitralność. Jestem jednak tak pewny, ze przyroda podziela nasze poczucie oszczędności, iż
chętnie ręczę własną głową, że problem ten zostanie rozwiązany w najbliższych dziesięcioleciach
i że rozwiązanie to będzie stanowiło kolejny dobitny dowód, iż przyroda stosuje się jednak do
zasady „Miejsce na wszystko i wszystko na swoim miejscu”.
Cała sprawa z generacjami cząstek ma jeszcze jeden interesujący aspekt, który potwierdza
moją tezę. Przyznaję, ze Tabela l nie jest do końca prawdziwa. Gdy piszę tę książkę, istnienie
kwarka „top” nie zostało jeszcze ostatecznie potwierdzone. Kilka razy był on już wprawdzie
„odkrywany”, lecz wiadomość ta była potem dementowana. Otóż można by się zastanawiać, skąd
fizycy czerpią taką pewność, że kwark „top” istnieje, iż skłonni są poświęcać znaczną część
skąpych środków na badania, jakie mają do dyspozycji, na jego poszukiwania. A jeśli on w ogóle
nie istnieje? Może jednak w tabeli (która w końcu została tylko wymyślona przez ludzi) jest puste
miejsce, i tak naprawdę to nie mamy wcale trzech generacji cząstek, lecz dwie i trzy czwarte?
Cóż, ciężko byłoby znaleźć fizyka, który sądziłby, iż przyroda mogłaby być tak złośliwa, i kiedy
kwark „top” zostanie odkryty (a nie mam żadnych wątpliwości, że to prędzej czy później
nastąpi), będzie on kolejnym przykładem, że przyroda nie dopuszcza nieporządku.
Problem generacji stanowi w istocie część szerszego problemu unifikacji, o którym
wspominałem, a z którym potyka się cała armia teoretyków. John Polkinghorne, który zanim
wstąpił do stanu duchownego, zajmował się teorią cząstek elementarnych, opisuje pewność, jaką
fizycy pokładają w następnym etapie programu unifikacji:
Moi niegdysiejsi koledzy zadają sobie wiele trudu, usiłując stworzyć teorię jeszcze
bardziej ogólną. (...) Rzekłbym, iż obecnie ich wyniki mają w sobie element sztuczności, bądź
wręcz desperacji. Jakiś podstawowy fakt, czy też idea, ciągle nie jest dostrzegany. Niemniej
jednak nie wątpię, że w swoim czasie uda się wniknąć w głąb rzeczy i odkryć głębszą strukturę
leżącą u podstaw fizycznej rzeczywistości.
Jak już wspominałem, aktualnie modna jest tak zwana teoria superstrun, lecz niewątpliwie
wkrótce pojawi się coś innego. Jakkolwiek przed fizykami piętrzą się olbrzymie trudności, w
pełni zgadzam się z Polkinghornem. Nie mogę uwierzyć, że problemy te miałyby być z natury
nierozwiązywalne i że unifikacja fizyki cząstek jest celem niemożliwym do osiągnięcia.
Wszystkie znaki na niebie i ziemi wskazują, że pod powierzchnią zjawisk kryje się jedność, a nie
arbitralność, niezależnie od tego, ile jeszcze będziemy musieli drapać się po głowie, aby ją
odkryć.
Na zakończenie rozważań, czy faktycznie „potrzeba” tylu rodzajów cząstek, przychodzi
mi do głowy ciekawa myśl. Miony, jakkolwiek nie wchodzą w skład normalnej materii,
odgrywają jednak w przyrodzie dość istotną rolę. Znaczna część promieniowania kosmicznego,
które dociera do powierzchni Ziemi, to właśnie miony. Stanowią one część normalnego tła
promieniowania, przyczyniając się do powstawania mutacji, które są siłą napędową ewolucji
biologicznej. Zatem, przynajmniej do pewnego stopnia, miony znajdują zastosowanie w biologii.
Stanowi to kolejny przykład tak szczęśliwego dla nas dopasowania elementów Wszechświata w
dużej i małej skali, o którym wspominałem wcześniej w tym rozdziale.
Czy potrzebny jest Stwórca?
Mam nadzieję, że niniejsza dyskusja pozwoli przekonać czytelnika, że świat nie jest
bezładną zbieraniną obiektów i sił, lecz niezwykle pomysłową, jednolitą strukturą matematyczną.
Słowa takie jak „pomysłowy” lub „sprytny” niezaprzeczalnie odnoszą się do działalności
człowieka, a pomimo to nieodparcie nasuwają się w odniesieniu do przyrody. Czy jest to tylko
jeszcze jeden przykład narzucania przyrodzie naszych własnych kategorii myślowych, czy też
odzwierciedla się w tym jakaś istotna głęboka właściwość świata?
Odeszliśmy już dość daleko od paleyowskiej wizji świata jako zegarka. Posługując się raz
jeszcze moją ulubioną analogią, można powiedzieć, że świat fizyki cząstek elementarnych
przypomina bardziej krzyżówkę niż mechanizm zegarka. Każde nowe odkrycie stanowi
wskazówkę pozwalającą odkryć jakieś nowe elementy matematycznej struktury. W miarę
gromadzenia się odkryć, coraz więcej tych krzyżujących się powiązań „wypełnia się” i zaczynają
wyłaniać się zarysy całej struktury. W chwili obecnej w „krzyżówce” tej pozostaje jeszcze wiele
pustych miejsc, niemniej da się już zauważyć, jak bardzo jest ona misterna i spójna. W
odróżnieniu od mechanizmu, który może jedynie powoli z czasem zmierzać w kierunku form o
większym stopniu złożoności i organizacji, „krzyżówka” fizyki cząstek jest gotowa od razu w
całości. Powiązania nie powstają, lecz istnieją przez cały czas, ukryte w prawach. Musimy je po
prostu bądź przyjąć jako zdumiewające nagie fakty, bądź też poszukiwać dla nich głębszego
uzasadnienia.
Zgodnie z myślą chrześcijańską tym głębszym uzasadnieniem jest Bóg, który stworzył
świat w całym jego bogactwie i złożoności, a zadaniem fizyki jest odkrywanie szczegółów tego
Bożego zamysłu. Gdybyśmy się na to zgodzili, następnym pytaniem jest: jaki cel miał Bóg
stwarzając świat w ten sposób? Aby odpowiedzień na to pytanie, musimy wziąć pod uwagę
wszystkie „zbiegi okoliczności” wspomniane wcześniej w związku z zasadą antropiczną i
warunkami występowania organizmów żywych. Wyraźne „dopasowanie” praw przyrody,
niezbędne, aby we Wszechświecie mogły zrodzić się i przetrwać istoty żywe obdarzone
świadomością, stwarza wyraźną sugestię, iż to właśnie Bóg tak zaprojektował Wszechświat, by
możliwe było powstanie życia i świadomości. Oznaczałoby to, że istnienie nas samych we
Wszechświecie stanowi zasadniczą część stwórczego planu Boga.
Lecz czy istnienie planu w konieczny sposób zakłada istnienie jego twórcy? John Leslie
argumentuje, że tak nie jest. Jak pamiętamy, w jego teorii stworzenia świat powstał w wyniku
„wymogu etycznego”. Pisze on: „Świat istniejący w wyniku etycznej potrzeby mógłby być
dokładnie taki sam, równie obfitujący w dowody działalności planowej, niezależnie od tego, czy
potrzeba ta wymagała do swego urzeczywistnienia stwórczych aktów ukierunkowanej na dobro
inteligentnej istoty, czy też nie”. Krótko mówiąc, świat zrodzony przez dobro może jawić się nam
jako planowy, nawet jeżeli faktycznie taki nie jest.
W książce The Cosmic Blueprint pisałem, że świat wygląda, jak gdyby rozwijał się
według jakiegoś planu lub projektu. Idea ta jest (fragmentarycznie) wyrażona w schematyczny
sposób na rysunku 12, gdzie rolę projektu (czy też kosmicznego programu komputerowego, jak
kto woli) odgrywają prawa fizyki, wyobrażone w postaci maszynki do mięsa. Na wejściu mamy
kosmiczne warunki początkowe, a na wyjściu zorganizowane struktury złożone, czyli
rozbudowanie w głąb. Inna wersja tego schematu pokazana jest na rysunku 13, gdzie na wejściu
mamy materię, a na wyjściu umysł. Zasadniczą myślą jest, że coś wartościowego powstaje w
wyniku przetwarzania według pewnego z góry określonego zbioru reguł. Reguły te wyglądają,
jak gdyby były dziełem istoty inteligentnej. Nie widzę, jak ktoś mógłby temu przeczyć. To, czy
się wierzy, że zostały one naprawdę zaplanowane celowo, a jeśli tak, to przez kogo, musi
pozostać już sprawą indywidualnych preferencji. Osobiście skłaniam się do przypuszczenia, że
własności takie, jak przemyślność, oszczędność środków, piękno itp., mają naprawdę charakter
trancendentny - nie są one wyłącznie wytworem ludzkim - i że własności te odzwierciedlają się w
strukturze świata. Czy te własności są w stanie same z siebie powołać świat do istnienia, tego nie
wiem. Gdyby tak było, można by uważać Boga wyłącznie za mityczną personifikację tych
własności stwórczych, a nie niezależny czynnik sprawczy. Jasne jest, że nie zadowoliłoby to
nikogo, kto uważa, że Bóg jest stroną relacji międzyosobowej.
Wielokrotna rzeczywistość
Niewątpliwie najpoważniejszym wyzwaniem dla tezy o planowym charakterze świata jest
alternatywna hipoteza wielu światów, czyli wielokrotnej rzeczywistości. Mówiłem już o tej teorii
w rozdziale 7 przy okazji omawiania kosmologicznego dowodu istnienia Boga. Zasadnicza jej
idea polega na tym, że świat, jaki widzimy, jest tylko jednym z wielkiej liczby światów, a
przyczyną tego, że nasz konkretny świat wygląda na zaplanowany, jest to, iż tylko w światach o
stosunkowo wymyślnej postaci może dojść do powstania życia (a tym samym świadomości). Nic
zatem dziwnego, że znajdujemy się w świecie tak sprzyjającym biologicznemu życiu. Został on
po prostu „wybrany antropicznie”.
Musimy wpierw zadać pytanie, czy dysponujemy jakimikolwiek dowodami na istnienie
tych innych światów. Filozof George Gale sporządził listę kilku teorii fizycznych, które w ten
czy inny sposób sugerują istnienie wielości światów. Najczęściej koncepcja wielu światów
pojawia się w kontekście interpretacji mechaniki kwantowej. Aby zobaczyć, w jaki sposób
kwantowa nieoznaczoność prowadzi do możliwości, że istnieje więcej niż jeden świat, rozważmy
prosty przykład. Wyobraźmy sobie pojedynczy elektron w polu magnetycznym. Posiada on
wewnętrzny moment magnetyczny, zwany spinem. Możemy wyznaczyć energię oddziaływania
spinu z zewnętrznym polem magnetycznym; energia ta będzie zależała od kąta pomiędzy
kierunkiem przyłożonego pola magnetycznego a kierunkiem własnego pola magnetycznego
elektronu. Jeśli kierunki te są zgodne, energia ta będzie niska; jeśli przeciwne - wysoka; a dla
kątów pośrednich powinna przyjmować wartości pośrednie. Pomiar tej energii pozwala zatem na
efektywne wyznaczenie orientacji spinu elektronu. Okazuje się, i jest to jeden z podstawowych
faktów mechaniki kwantowej, że obserwuje się tylko dwie wartości energii, odpowiadające,
mówiąc w uproszczeniu, orientacji spinu zgodnej z kierunkiem zewnętrznego pola
magnetycznego oraz przeciwnej.
Pojawia się teraz interesujące pytanie, co się stanie, jeżeli celowo weźmiemy elektron,
którego wewnętrzne pole magnetyczne jest ustawione prostopadle do pola zewnętrznego, to
znaczy spin elektronu nie jest ustawiony ani zgodnie z kierunkiem pola, ani przeciwnie, lecz
poprzecznie. Od strony matematycznej sytuacja ta opisana jest poprzez przyjęcie, że elektron
znajduje się w stanie będącym „superpozycją” obydwu możliwości. Oznacza to, iż stan jest -
znowu w pewnym uproszczeniu - złożeniem dwóch zachodzących na siebie rzeczywistości:
jednej, w której spin skierowany jest do góry, i drugiej, w której spin skierowany jest w dół.
Jeżeli teraz dokonamy pomiaru energii, to jego wynik będzie odpowiadał albo orientacji „w
górę”, albo orientacji „w dół”, a nie żadnej przedziwnej kombinacji obydwu. Tymczasem
właściwa mechanice kwantowej nieoznaczoność nie pozwala nam przewidzieć z góry, z którą z
tych możliwości będziemy mieli do czynienia. Prawa mechaniki kwantowej pozwalają jednak na
przypisanie alternatywnym stanom względnych wartości prawdopodobieństwa. W rozważanym
przykładzie wartości te są równe. Zatem, według prymitywnej wersji hipotezy wielu światów, w
momencie dokonywania pomiaru świat rozpada się na dwa „egzemplarze”: jeden, w którym spin
zorientowany jest ku górze, i drugi, w którym zorientowany jest w dół.
Bardziej wyrafinowana wersja zakłada, że oba światy istnieją przez cały czas, lecz przed
dokonaniem eksperymentu są one identyczne pod każdym względem. Dopiero sam pomiar
powoduje ich zróżnicowanie pod względem orientacji spinu elektronu. W przypadku gdy
wchodzą w grę nierówne wartości prawdopodobieństwa, można sobie zakładać więcej
identycznych światów, odpowiednio do tych wartości. Na przykład, jeśli mamy wartości
prawdopodobieństwa 2/3 dla orientacji „w górę” i dla orientacji „w dół”, to można sobie
wyobrażać trzy początkowo identyczne światy, z których dwa pozostają identyczne i spin
skierowany jest w nich „do góry”, a trzeci różni się od nich tym, że spin skierowany jest „w dół”.
W ogólnym przypadku potrzeba nieskończonej liczby światów, aby uwzględnić wszystkie
możliwości.
Wyobraźmy sobie teraz, że stosujemy tę ideę nie do pojedynczego elektronu, lecz do
wszystkich cząstek we Wszechświecie. W całym kosmosie nieoznaczoności dotyczące każdej
bez wyjątku cząstki elementarnej powodują rozszczepianie się rzeczywistości na coraz to więcej
niezależnie istniejących światów. Z wizji tej wynika, że wszystko, co może się zdarzyć, zdarza
się; to znaczy, każdy zespół warunków, który jest dopuszczalny fizycznie (aczkolwiek nie każdy
dopuszczalny logicznie), zostaje gdzieś zrealizowany pośród tej nieskończonej liczby światów.
Poszczególne światy należy przy tym uważać za „równoległe”,czyli współistniejące
rzeczywistości. Dany obserwator będzie, oczywiście, widział zawsze tylko jeden z nich, ale
musimy zakładać, że świadomość obserwatora również podlega procesowi rozwarstwiania, a
więc każdy z tej mnogości alternatywnych światów będzie zawierał również kopie umysłu
obserwatora. Założeniem całej teorii jest, że nie uświadamiamy sobie tego „rozszczepienia”
umysłu i każdy „egzemplarz” uważa się za jedyny, integralny umysł. Niemniej jednak zostajemy
w ten sposób powieleni w nieskończonej liczbie egzemplarzy. Hipoteza, mimo całej swojej
niecodzienności, znajduje uznanie, w tej czy innej wersji, u wielu zarówno fizyków, jak i
filozofów. Szczególnie przemawia ona do badaczy zajmujących się kosmologią kwantową, gdzie
alternatywne interpretacje mechaniki kwantowej stwarzają jeszcze większe trudności. Trzeba
jednakże przyznać, że teoria ta ma też swoich krytyków, którzy (np. Roger Penrose) kwestionują
między innymi pogląd, że nie da się dostrzec rozszczepienia.
Nie jest to bynajmniej jedyna istniejąca hipoteza wielości światów. Inną, nieco łatwiejszą
do wizualizacji, możliwością jest, iż to, co nazywamy „Wszechświatem”, stanowi zaledwie
niewielki wyrywek olbrzymiego układu rozciągającego się o wiele dalej w przestrzeni.
Gdybyśmy byli w stanie zaglądnąć dalej niż te dziesięć miliardów z okładem lat świetlnych
dostępnych naszym instrumentom obserwacyjnym, zobaczylibyśmy (tak przynajmniej twierdzi
się w tej teorii) zupełnie odmienne obszary Wszechświata. Liczba możliwych obszarów z
różnymi warunkami w nich panującymi jest nieograniczona, gdyż zakłada się, że Wszechświat
jest nieskończenie wielki. Ściśle mówiąc, jeżeli definiuje się „Wszechświat” jako wszystko, co
istnieje, to należałoby w tym przypadku mówić raczej o hipotezie wielu obszarów aniżeli wielu
światów, ale dla naszych celów rozróżnienie to nie jest istotne.
Zagadnieniem, które musimy teraz rozważyć, jest, czy oznaki planowego charakteru
świata mogą być jednocześnie traktowane jako oznaki przemawiające na rzecz istnienia wielości
światów. W niektórych przypadkach odpowiedź musi być zdecydowanie pozytywna. Na
przykład wielkoskalowy rozkład przestrzenny materii w kosmosie ma istotne znaczenie dla
powstania życia. Gdyby Wszechświat był wysoce nieregularny, powstawałyby w nim czarne
dziury lub też turbulencje gazowe, a nie uporządkowane galaktyki zawierające stabilne gwiazdy i
planety, mogące stworzyć warunki dogodne dla życia. Jeżeli wyobrazimy sobie nieskończoną
mnogość światów z przypadkowym rozkładem materii, to przeważałyby wśród nich światy
całkowicie chaotyczne. Niemniej tu i ówdzie, na zasadzie czystego przypadku, powstawałyby
oazy porządku, w których możliwe byłoby powstanie życia. Zmierzającą w tym kierunku wersję
scenariusza kosmicznej inflacji przedstawił ostatnio rosyjski fizyk Andriej Linde. Chociaż owe
oazy spokoju byłyby niewiarygodnie rzadkie, nie ma nic zaskakującego w tym, że znajdujemy się
w takim miejscu, gdyż inaczej po prostu by nas nie było. W końcu nie dziwimy się temu, iż
jesteśmy nietypowo usytuowani na powierzchni planety, podczas gdy przeważającą część
Wszechświata stanowi praktycznie pusta przestrzeń. Tak więc obserwowany przez nas w
kosmosie ład nie musi być wynikiem opatrznościowej preor-dynacji, lecz efektem selekcyjnym
związanym z istnieniem nas samych.
Uzasadnienia tego typu mogą być również zastosowane w przypadku niektórych
„zbiegów okoliczności” w fizyce cząstek elementarnych. Omawiałem już, w jaki sposób
mechanizm Higgsa pozwala na wyjaśnienie, skąd bierze się masa cząstek W i Z. W bardziej
zaawansowanych teoriach unifikacji wprowadza się dalsze pola Higgsa, by wygenerować masę
wszystkich cząstek, a ponadto ustalić niektóre inne parametry teorii związane z natężeniem
oddziaływania. Podobnie jak w przypadku podanej przeze mnie poprzednio analogii z ołówkiem,
gdy układ-ołówek przewracając się przybiera jeden z wielu możliwych stanów (może wskazywać
na północny wschód, południowy wschód, południowy zachód, itd.), w bardziej
zaawansowanych wersjach mechanizmu Higgsa układ cząstek może poprzez złamanie symetrii
znaleźć się w wielu różnych stanach. Wybór konkretnego stanu uwarunkowany jest w
przypadkowy sposób fluktuacjami kwantowymi, tj. wewnętrzną nieoznaczonością właściwą
wszystkim układom kwantowym. Teoria wielości światów wymaga, aby każdej możliwości
odpowiadał odrębny zupełny Wszechświat; ewentualnie, aby były one realizowane w odrębnych
obszarach przestrzeni. W obu przypadkach mamy do czynienia z mnogością układów
kosmologicznych, w których występują różne wartości mas cząstek i odziaływań. Można wtedy
utrzymywać, że tylko w układach, w których parametry te są sprzyjające, może pojawić się życie.
Mimo iż teoria wielości światów pozwala na wyjaśnienie tego, co w innym przypadku
pozostawałoby zadziwiającymi szczególnymi faktami przyrody, natyka się ona na szereg
poważnych trudności. Pierwszą z nich, którą omawiałem już w rozdziale 7, jest, że stanowi ona
policzek wymierzony brzytwie Ockhama poprzez wprowadzenie ogromnej (faktycznie
nieskończonej) złożoności po to, by uzasadnić prawidłowości tylko jednego Wszechświata.
Osobiście uważam, że taka metoda „strzelania z grubej rury” przy wyjaśnianiu szczególnego
charakteru naszego Wszechświata jest wątpliwa pod względem naukowym. Pojawia się także
problem, że teoria ta jest w stanie wyjaśnić jedynie te aspekty przyrody, które mają jakieś
znaczenie dla zaistnienia życia i świadomości; w innych przypadkach nie istnieje żaden
mechanizm selekcji. Część z podawanych przeze mnie przykładów planowego charakteru świata,
jak wyrafinowanie i jedność fizyki cząstek elementarnych, nie ma żadnych wyraźnych związków
z biologią. A należy mieć na uwadze, że nie wystarczy, by dana cecha była z jakichś względów
istotna biologicznie; powinna ona odgrywać zasadniczą rolę przy powstawaniu życia w takiej
formie, jaka faktycznie istnieje.
Innym momentem, nad którym na ogół przechodzi się do porządku dziennego, jest to. że
we wszystkich teoriach wielości światów, które wywodzą się z fizyki (w przeciwieństwie do
czystego fantazjowania na temat istnienia innych światów), prawa fizyki są takie same we
wszystkich światach. Selekcja dokonuje się wyłącznie wśród światów fizycznie dopuszczalnych,
a nie wszystkich, jakie można sobie wyobrazić. Mogą być światy niesprzeczne logicznie, lecz
sprzeczne z prawami fizyki. W podanym przykładzie z elektronem, który może mieć spin
skierowany w górę lub w dół, w obu światach elektron ma ten sam ładunek elektryczny, podlega
tym samym prawom elektromagnetyzmu, itd. Tak więc teorie wielości światów pozwalają na
selekcję spośród różnych stanów świata, lecz nie spośród praw. Prawdą jest, że rozróżnienie
między cechami przyrody, które zawdzięczają swe istnienie jakiemuś prawu, a tymi, które są
tylko wyrazem określonego jej stanu, nie zawsze jest możliwe. Widzieliśmy już, że pewne
parametry, jak masy niektórych cząstek, które poprzednio wchodziły do teorii jako część
zakładanych praw fizyki, są teraz uważane za stany, których wybór dokonuje się poprzez
mechanizm Higgsa. Jednak mechanizm ten działa w ramach teorii, kióra zawiera swoje własne
prawa, i je także należałoby jakoś uzasadnić. Ponadto, jakkolwiek wskutek fluktuacji
kwantowych mechanizm Higgsa może działać odmiennie w różnych światach, na podstawie
dotychczasowych teorii nie wynika wcale, że można w ten sposób uzyskać wszystkie możliwe
wartości mas cząstek, natężenia pól, itp. Mechanizm Higgsa i inne podobne mechanizmy tak
zwanego łamania symetrii prowadzą na ogół do dyskretnego, i to skończonego, zbioru
alternatywnych wartości.
Dlatego nie jest możliwe, jak sugerowali niektórzy fizycy, wyjaśnienie na tej drodze faktu
istnienia praw, którym podlega przyroda. Czy nie można by jednak rozszerzyć koncepcji wielości
światów tak, by obejmowała także wybór spośród różnych praw? Nie istnieją żadne przeszkody
logiczne, by tego dokonać, lecz nie ma jednocześnie po temu żadnych podstaw naukowych.
Przypuśćmy wszakże, że dopuszczamy wśród alternatywnych rzeczywistości również ogromną
klasę takich, w których nie występuje żaden porządek, prawa czy regularności, tzn. panuje w nich
totalny chaos. Światy te zachowywałyby się w sposób całkowicie przypadkowy. I tak jak małpa
waląca w klawisze maszyny do pisania może w końcu napisać dzieła Szekspira, wśród tej
ogromnej liczby światów znajdą się takie, w których, na zasadzie czystego przypadku, pojawi się
jakiś porządek. Argumenty typu antropicznego prowadzą nas wtedy do stwierdzenia, że każdy
obserwator będzie z konieczności widział świat uporządkowany, choćby był on nie wiem jak
rzadki pośród swych chaotycznych pobratymców. Czy można by to uznać za wyjaśnienie
naszego świata?
Moim zdaniem, odpowiedź na to pytanie jest negatywna. Pozwolę sobie przypomnieć, że
argumenty natury antropicznej mają sens jedynie w odniesieniu do tych aspektów przyrody, które
mają istotne znaczenie dla życia biologicznego. W przypadku wyboru spośród światów nie
podlegających w ogólnym przypadku żadnym prawom, przeważająca liczba wybranych
przypadkowo zamieszkałych światów będzie uporządkowana tylko pod względami, które
odgrywają zasadniczą rolę w powstawaniu i zachowaniu życia. Nie ma na przykład żadnego
powodu, dlaczego ładunek elektronu miałby pozostawać absolutnie niezmienny w czasie lub
dlaczego wszystkie elektrony mają dokładnie taki sam ładunek. Drobne fluktuacje wartości tego
ładunku nie zagrażałyby istnieniu życia. Cóż innego mogłoby powodować, że ładunek ten jest
stały, i to stały z tak zdumiewającą dokładnością, jeśli nie prawa fizyki? Można sobie wyobrazić
mnogość światów, w której w każdym świecie są inne, choć ustalone, prawa. Być może da się
wtedy za pomocą argumentów antropicznych uzasadnić, dlaczego przynajmniej niektóre z praw,
jakie obserwujemy, mają daną postać. Niemniej hipoteza ta musi zakładać pojęcie samego prawa,
pozostaje więc otwarte pytanie, skąd wzięły się same prawa i w jaki sposób „umocowują” się one
w świecie „na zawsze”.
Moją konkluzją jest, że hipoteza wielu światów jest w stanie uzasadnić co najwyżej cześć
cech rzeczywistego świata, i to pod warunkiem przyjęcia pewnych metafizycznych założeń, które
są równie nieoczywiste jak planowy charakter świata. Ostatecznie brzytwa Ockhama skłania
mnie do postawienia na planowość świata, lecz jak zwykle w kwestiach metafizycznych, wybór
ten jest bardziej sprawą osobistych preferencji niż osądu naukowego. Warto jednak zauważyć, że
uznawanie hipotezy wielu światów w żadnym stopniu nie kłóci się z wiarą w Boga jako autora
planu świata. W istocie, jak zaznaczałem, wiarygodne wersje tej hipotezy nadal pozostawiają
miejsce dla poszukiwania dalszego uzasadnienia faktów takich, jak uporządkowany charakter
światów i skąd w ogóle wzięła się sama mnogość światów. Wspomnę także, że wszelkie
dyskusje, w których w oparciu o obserwacje jednego tylko Wszechświata wyciąga się wnioski co
do nieprawdopodobności tej czy innej cechy, rodzą poważne kwestie związane z istotą samego
prawdopodobieństwa. Sądzę, że zostały one zadowalająco rozpatrzone przez Johna Leslie,
niemniej jednak niektórzy autorzy upierają się, że wszelkie argumentowanie wstecz „po fakcie” -
w tym przypadku faktem tym jest zaistnienie nas samych -jest niedopuszczalne.
Kosmologiczny darwinizm
Ostatnio Lee Smolin przedstawił interesującą wersję hipotezy wielu światów, która unika
pewnych zarzutów poprzez ukazanie nietrywialnego związku pomiędzy wymogami istnienia istot
żywych a wielością różnych światów. W rozdziale 2 ukazywałem, że, jak wynika z badań w
dziedzinie kosmologii kwantowej, w wyniku fluktuacji kwantowych mogą powstawać
„wszechświaty niemowlęce” i w ten sposób „wszechświat macierzysty” może ulec rozmnożeniu.
Te nowe wszechświaty powstają w czarnych dziurach. Zgodnie z klasyczną (niekwantową) teorią
grawitacji, czarna dziura zawiera w sobie osobliwość, którą można uważać za coś w rodzaju
brzegu czasoprzestrzeni. W wersji kwantowej osobliwość ta ulega pewnemu rozciągnięciu. Nie
wiemy dokładnie, jak to się dzieje, w każdym razie wyraźny brzeg czasoprzestrzeni przemienia
się w coś w rodzaju tunelu, gardzieli czy też pępowiny, łączącej nasz Wszechświat z nowym,
niemowlęcym wszechświatem. Jak podawałem w rozdziale 2, czarna dziura w wyniku efektów
kwantowych może ostatecznie „wyparować”, zrywając „pępowinę” i pozostawiając wszechświat
niemowlęcy jako niezależnie istniejący.
Smolin rozwinął tę myśl zauważając, że w ekstremalnych warunkach panujących w
pobliżu osobliwości może dochodzić do drobnych przypadkowych zmian w prawach fizyki. W
szczególności wartości niektórych stałych przyrody, takich jak masy cząstek, ładunki, itp., we
wszechświecie pochodnym mogą się nieznacznie różnić od tych, jakie występowały we
wszechświecie macierzystym. Ewolucja wszechświata pochodnego będzie zatem przebiegała
nieco odmiennie. Przy odpowiednio dużej liczbie „pokoleń” różnice pomiędzy poszczególnymi
wszechświatami mogą być już dość znaczne. Prawdopodobnie jednak we wszechświatach, które
różnią się znacznie od naszego, nie powstaną gwiazdy (jak pamiętamy, warunki umożliwiające
narodziny gwiazd są dość szczególne). Ponieważ czarne dziury powstają przede wszystkim z
gwiazd, które zakończyły swoją ewolucję, we wszechświatach takich nie byłoby wiele czarnych
dziur i nie mogłyby one rodzić wielu wszechświatów niemowlęcych. Natomiast we
wszechświatach, których fizyczne parametry pozwalają na powstawanie dużej liczby gwiazd,
tworzyłoby się także wiele czarnych dziur, a tym samym i więcej wszechświatów niemowlęcych
posiadających zbliżone wartości tych parametrów. Owo zróżnicowanie kosmicznej „płodności”
prowadzi do czegoś w rodzaju darwinowskiego doboru naturalnego. Chociaż wszechświaty nie
konkurują bezpośrednio ze sobą o przeżycie, powstaje podział na „skuteczne” i „mniej
skuteczne”, i udział „skutecznych” wszechświatów - w tym przypadku takich, w których procesy
powstawania gwiazd są najbardziej wydajne - w całej populacji stale się powiększa. Smolin
wskazuje następnie, że istnienie gwiazd stanowi także warunek konieczny do powstania życia.
Zatem te same warunki, które sprzyjają życiu, sprzyjają także narodzinom innych
wszechświatów, w których możliwe jest życie. W koncepcji Smolina życie nie stanowi więc
zdarzenia skrajnie rzadkiego, jak w innych teoriach wielu światów, lecz będzie ono występowało
w większości wszechświatów.
Mimo jej atrakcyjności, nie jest oczywiste, czy teoria Smolina stanowi istotny krok
naprzód w wyjaśnianiu szczególnego charakteru naszego Wszechświata. Ukazanie możliwych
powiązań pomiędzy ewolucją biologiczną a kosmologiczną jest niewątpliwie ciekawe, niemniej
nadal można zadawać pytanie, dlaczego prawa przyrody są takie, że umożliwiają te powiązania.
W końcu fakt, że warunki powstawania życia odpowiadają warunkom narodzin nowych
wszechświatów, jest także bardzo szczęśliwym zbiegiem okoliczności Ponadto, by teoria ta miała
w ogolę sens, nadal konieczne jest, aby zasadnicza struktura praw we wszystkich wszechświatach
była taka sama To, ze ta właśnie wspólna struktura sprzyja powstaniu życia, pozostaje faktem
niewyjaśnionym.
Rozdział dziewiąty
TAJEMNICA U PODSTAW ŚWIATA
Zawsze uważałem za dziwne że mimo iż większość naukowców odżegnuje się od religii to
faktycznie zajmuje ona w ich myślach więcej miejsca niż u duchownych.
Fred Hoyle w książce tej postawiłem sobie za cel prześledzenie racjonalnych przesłanek
naukowych, na ile się tylko dało, w poszukiwaniu ostatecznych odpowiedzi w kwestiach
egzystencjalnych Idea, ze możliwe jest wyjaśnienie wszystkiego do końca - całego świata
przyrodzonego i nadprzyrodzonego w ramach jednego spójnego systemu wiedzy -jest niezwykle
pociągająca Jednakże jakąż możemy mieć pewność, ze tak określony cel naszych dążeń
poznawczych nie jest tylko mrzonką?
Potęga żółwia
Stephen Hawkmg rozpoczyna swą słynną książkę Krótka historia czasu od przytoczenia
anegdotki o starszej pani, która wysłuchawszy popularnego odczytu o Wszechświecie wstała i
powiedziała, ze ona i tak wie swoje. Świat, jej zdaniem, naprawdę jest płaski i opiera się na
grzbiecie ogromnego żółwia. Zapytana przez prelegenta, na czym z kolei opiera się ów żółw,
odparła „Żółw stoi na żółwiu, i tak dalej, bez końca”.
Anegdotka ta unaocznia podstawowy problem, jaki staje przed wszystkimi, którzy
poszukują ostatecznych odpowiedzi w kwestiach istnienia świata. Staramy się uzasadnić ten
świat odwołując się do czegoś bardziej fundamentalnego, jakiegoś zespołu przyczyn, który z
kolei uwarunkowany jest jakimiś prawami czy też podstawowymi zasadami, lecz następnie
poszukujemy uzasadnienia również dla tego bardziej fundamentalnego poziomu, i tak dalej. Czy
ten ciąg rozumowania ma gdzieś swój kres? Trudno pogodzie się z myślą, ze mógłby on iść w
nieskończoność „Nie ma piramidy żółwi - utrzymuje John Wheeler - Nie jest tak, ze każda
struktura, porządek, teoria, opierają się na strukturach niższego poziomu, te z kolei na
następnym, potem jeszcze niższym, i tak ad infinitum, aż w bezdenną otchłań”
Ale jakąż mamy alternatywę? Czy jest jakiś „superzółw”, który nie wymagając podparcia,
stanowi podstawę całej piramidy”? A może ten „superzółw” w jakiś sposób „podpiera sam
siebie”? Pogląd ten ma długą historię. Widzieliśmy już, iż filozof Spinoza dowodził, ze świat nie
mógłby być inny, że Bóg nie miał żadnego wyboru. Superżółwiem w świecie Spinozy jest czysto
logiczna konieczność. Nawet ci, którzy uważają, ze świat jest przygodny, odwołują się do tego
samego argumentu, twierdząc, ze uzasadnieniem dla świata jest Bóg, który jest bytem logicznie
koniecznym. W rozdziale 7 przedstawiłem problemy, jakie pojawiają się, gdy próbujemy
wyjaśniać przygodność poprzez konieczność Wcale me mniejsze trudności mają ci, którzy
odrzucając Boga poszukują jakiejś Teorii Wszystkiego, która dostarczałaby uzasadnienia
Wszechświata i była zarazem wyznaczona jednoznacznie na gruncie logicznej konieczności
Mogłoby się wydawać, ze jedyną alternatywą jest bądź nieskończona piramida żółwi,
bądź tez istnienie ostatecznego superzołwia, który stanowi uzasadnienie samego siebie
Tymczasem jest jeszcze trzecia możliwość zamknięta pętla W przepięknej książeczce Vicious
Circles and Infinity [Błędne koła i nieskończoność] znajduje się ilustracja przedstawiająca
pierścień z ludzi (zamiast żółwi), z których każdy siedzi na kolanach poprzedniego, trzymając z
kolei sam kogoś na kolanach. Ta zamknięta pętla wzajemnie podtrzymujących się ludzi ma
symbolizować koncepcję Wszechświata Johna Wheelera „Fizyka rodzi współuczestniczącego
obserwatora, obserwator rodzi informację, informacja rodzi fizykę”. To dość niejasne
stwierdzenie bierze swój początek z idei kwantowomechanicznych, gdzie nie ma wyraźnego
podziału na obserwatora i obserwowany świat, stąd „współuczestniczący obserwator” Wheeler
interpretuje mechanikę kwantową w ten sposób, iż rzeczywisty świat aktualizuje się poprzez akt
obserwacji, jednak ten sam fizyczny świat rodzi obserwatora, który powoduje aktualizację jego
istnienia. Ponadto aktualizacja ta dotyczy również samych praw fizyki, ponieważ Wheeler
odrzuca całkowicie pojęcie praw wiecznych. „Prawa fizyki nie mogą istnieć z wieczności w
wieczność. Musiały one również zaistnieć podczas Wielkiego Wybuchu”.
Zatem, miast
odwoływać się do pozaczasowych, transcendentnych praw powołujących świat do istnienia,
Wheeler preferuje wizję „obwodu samowzbudzającego się”, czyli Wszechświata, który powoduje
zaistnienie samego siebie, wraz z prawami fizyki i wszystkim innym. Jakkolwiek taki
„samosprzężony” układ może wydawać się pociągający, bynajmniej nie jest on w stanie stanowić
ostatecznego wyjaśnienia, gdyż zawsze można zapytać „,Skąd się wzięło to sprzężenie?” czy też
„Dlaczego w ogóle istnieje jakiekolwiek sprzężenie?” Nawet zamknięta pętla wzajemnie
podpierających się żółwi rodzić będzie zawsze pytanie „A dlaczego właśnie żółwie?”
Wszystkie trzy z podanych powyżej schematów oparte są na założeniu, ze człowiek jest
istotą racjonalną, ze zasadne jest poszukiwanie „racji” dla wszystkiego i ze naprawdę rozumiemy
coś dopiero wtedy, gdy znamy „uzasadnienie” tego Jednakże trzeba przyznać, że pojęcie
racjonalnego uzasadniania bierze się prawdopodobnie z naszych obserwacji świata i naszego
dziedzictwa ewolucyjnego. Czy możemy być pewni, że prowadzi nas ono we właściwym
kierunku, gdy wikłamy się w rozwiązywanie podstawowych kwestii istnienia? Czyż nie może
być tak, że racja istnienia świata nie stanowi jego uzasadnienia w normalnym sensie tego słowa?
Nie oznaczałoby to, że Wszechświat jest absurdalny lub pozbawiony sensu, lecz jedynie to, iż
uzasadnienie jego istnienia i własności wykracza poza zwykłe kategorie racjonalnego myślenia
człowieka. Widzieliśmy już, że nawet stosowanie racjonalnego myślenia w jego najbardziej
wyrafinowanej i sformalizowanej postaci w matematyce nie jest wolne od paradoksów i
niepewności. Twierdzenie Godła stanowi ostrzeżenie, iż aksjomatyczna metoda wyciągania
wniosków z danych założeń na drodze dedukcyjnej nie pozwala w ogólnym przypadku na
stworzenie systemu, o którym dałoby się dowieść, że jest zupełny i spójny. Zawsze będzie jakaś
prawda przekraczająca go, której nie można osiągnąć wychodząc ze skończonego zbioru
aksjomatów. Poszukiwania zamkniętej teorii, która dostarczałaby pełnego i spójnego opisu
wszystkiego, co istnieje, skazane są na niepowodzenie. Podobnie jak kabalistyczna liczba u
Chaitina, taka teoria może istnieć i my możemy o tym wiedzieć, a nawet poznać jej niewielkie
fragmenty, lecz nigdy nie będziemy w stanie poznać jej w całości na drodze racjonalnego
poznania.
Wydaje mi się, że jak długo utożsamiamy „poznanie” z „racjonalnym uzasadnieniem”,
takim, jakie występuje w naukach przyrodniczych, nieuchronnie popadamy w „problem żółwi”:
albo niekończący się ciąg, albo tajemniczy superżółw będący swoją własną podstawą, albo
niewyjaśniona zamknięta pętla. U podstaw świata zawsze będzie kryć się tajemnica. Być może
jednak istnieją jakieś inne formy poznania, które byłyby w stanie zaspokoić poszukujący umysł.
Czy możemy poznać sens świata bez wikłania się w „problem żółwi”? Czy jest jakaś metoda
osiągania wiedzy - być może nawet „wiedzy ostatecznej” - która wykracza poza normalny tryb
racjonalnego poznania naukowego i wnioskowania logicznego? Wielu ludzi uważa, że tak.
Nazywa się ona mistycyzmem.
Wiedza mistyczna
Ludzie nauki wykazują na ogół głęboką nieufność wobec mistycyzmu. Nie powinno to
nikogo dziwić, jako że myślenie mistyczne jest krańcowym przeciwieństwem myślenia
racjonalnego, na którym opiera się metoda naukowa. Ponadto, mistycyzm bywa często mylony z
wiedzą tajemną, zjawiskami paranormalnymi i innymi podejrzanymi poglądami z obrzeża nauki.
W istocie, wiele z najtęższych umysłów w dziejach nauki, w tym uczeni tacy jak Einstein, Pauli,
Schródinger, Heisenberg, Eddington i Jeans, nie stroniło od mistycyzmu. Moim własnym
poglądem w tej kwestii jest, że metodą naukową należy się posługiwać, gdzie tylko można.
Mistycyzm nie może zastępować badań naukowych i racjonalnego myślenia tam, gdzie mogą być
one prawomocnie zastosowane. Dopiero gdy przychodzi do podjęcia fundamentalnych kwestii
związanych z istnieniem, nauka i logika zaczynają nas zawodzić. Nie chcę tu powiedzieć, że dają
one niewłaściwe odpowiedzi, lecz że nie są w stanie odpowiedzieć na pytania typu „dlaczego” (w
przeciwieństwie do „jak”), z którymi wtedy mamy do czynienia.
Terminem „doświadczenie mistyczne” posługują się często ludzie głęboko religijni lub
uprawiający praktyki medytacyjne. Doświadczenia tego typu, które są bez wątpienia realne dla
ludzi, którzy je przeżywają, są podobno bardzo trudne do oddania słowami. Mistycy mówią
często o przemożnym poczuciu bycia jednością ze światem lub z Bogiem, przebłysku
holistycznej wizji rzeczywistości czy też bliskości potężnej, miłującej istoty. Najbardziej istotne
jest to, że utrzymują oni, że chwytają ostateczną rzeczywistość w ramach pojedynczego
przeżycia, w przeciwieństwie do długich i żmudnych rozumowań dedukcyjnych (wikłających się
ponadto w „problem żółwi”), nieodłącznie związanych z logiczno-naukową drogą poznania.
Niekiedy przeżycia mistyczne sprowadzają do doznania wewnętrznego spokoju „współczujący,
radosny spokój, dający wytchnienie od wytężonej pracy umysłu”, jak to opisywał mi kiedyś
pewien znajomy fizyk. Einstein mówił o „kosmicznym przeżyciu religijnym” inspirującym go do
rozważań nad porządkiem i harmonią przyrody. Niektórzy naukowcy, z których warto wymienić
przede wszystkim Briana Josephsona i Davida Bohma, uważają, że regularne przeżycia
mistyczne osiągane na drodze cichych praktyk medytacyjnych mogą pomóc w formułowanu
teorii naukowych.
W innych przypadkach przeżycia mistyczne zdają się mieć bardziej bezpośredni i
objawiający charakter. Russell Stannard pisze o doznanym wrażeniu stanięcia twarzą w twarz z
przemożną nieznaną siłą, „która wzbudzała jednocześnie poczucie czci i bojaźni. (...) Było w tym
coś niepokojąco naglącego; jak gdyby wzbierający wulkan mający właśnie wybuchnąć”. Autor
książek o nauce David Peat opisuje „dziwne intensywne uczucie, które zdaje się zalewać cały
otaczający nas świat, nadając mu w jednej chwili sens. (...) Mamy poczucie, iż dotykamy czegoś
uniwersalnego, może nawet wiecznego, i że ta właśnie konkretna chwila zyskuje charakter
numinotyczny i zdaje się trwać w nieskończoność. Czujemy, że znikają wszelkie granice między
nami a światem zewnętrznym, ponieważ to, czego doświadczamy, wymyka się wszystkim
kategoriom i wszelkim próbom logicznego pojmowania”.
Język używany do opisu przeżyć tego typu zwykle uwarunkowany jest kręgiem
kulturowym, do którego należy dany człowiek. Mistycy Zachodu podkreślają osobowy charakter
uobecniania, opisując, że obcują z kimś, zazwyczaj jest to Bóg, kto jest odrębny od nich samych,
lecz czują z nim głęboką osobową więź. Tego typu doświadczenia mają długą tradycję w
chrześcijaństwie i innych religiach Zachodu. Mistycy Wschodu kładą natomiast nacisk na
poczucie bycia jedną całością ze wszystkim, co istnieje, i w większym stopniu utożsamiają się z
tym, co uobecnia się w przeżyciu mistycznym. Pisarz Ken Wilber opisuje doświadczenia
mistyczne Wschodu posługując się charakterystycznie niejasnym językiem:
Świadomość mistyczna pojmuje Rzeczywistość bezpośrednio i w jednorazowym akcie, to
znaczy bez żadnych środków pośredniczących, żadnych symboli, pojęć czy też abstrakcji;
podmiot i przedmiot poznania stają się jednym w dokonującym się poza czasem i przestrzenią
akcie, który przekracza wszelkie możliwe formy wyrazu. Wszyscy mistycy mówią o dotykaniu
rzeczywistości ,jaką ona jest”, w jej samej istocie, bez odwoływania się do słów, symboli, nazw,
myśli, obrazów.
Istotą doświadczenia mistycznego jest zatem coś w rodzaju dochodzenia do prawdy na
skróty, bezpośredni, jednorazowy kontakt pozwalający ujrzeć ostateczną rzeczywistość. Według
Rudiego Ruckera: Podstawową tezą mistycyzmu jest: Rzeczywistość jest Jednością. Praktyka
mistycyzmu polega na odnajdywaniu sposobów pozwalających na doświadczanie tej jedności
bezpośrednio. Jedność ta bywa rozmaicie nazywana: Dobrem, Bogiem, Kosmosem, Myślą,
Nicością, czy też (chyba najbardziej neutralnie) Absolutem. Żadne drzwi w zamku-labiryncie
nauki nie otwierają się bezpośrednio na Absolut. Ale jeśli osiągnie się odpowiednio wysoki
stopień poznania tego labiryntu, można wydostać się z niego i doświadczyć Absolutu jako
takiego. (...) Jednakże, ostatecznie, poznanie mistyczne dokonuje się w jednorazowym akcie lub
wcale. Nie ma tu żadnej drogi stopniowego dochodzenia do wiedzy.
W rozdziale 6 wspominałem, że niektórzy naukowcy i matematycy utrzymują, że doznali
takich nagłych przebłysków, bardzo przypominających przeżycia mistyczne. Roger Penrose
opisuje momenty natchnienia u matematyka jako nagłe „wdzieranie się” w platońską dziedzinę
idei. Rucker zauważa, że Kurt Godeł również mówił o „innej relacji do rzeczywistości”,
pozwalającej mu postrzegać bezpośrednio obiekty abstrakcyjne, jak nieskończoność. Inni
naukowcy doznawali objawień nieoczekiwanie, pośród codziennych zajęć. Fred Hoyle opowiada
o przypadku, jaki spotkał go, gdy jechał samochodem na północ Anglii. „Tak jak Paweł doznał
objawienia w drodze do Damaszku, moje objawienie nastąpiło, gdy przejeżdżałem przez Bowes
Moor”. W drugiej połowie lat sześćdziesiątych Hoyle wraz ze swoim współpracownikiem
Jayantem Narlikarem pracował nad kosmologiczną teorią elektromagnetyzmu, która wymagała
znacznej dozy trudnej matematyki. Pewnego dnia, zmagając się ze szczególnie skomplikowaną
całką, Hoyle postanowił zrobić sobie parę dni odpoczynku i dołączyć do kolegów, którzy właśnie
urządzili wędrówkę po górach Szkocji.
Gdy przemierzałem kolejne kilometry, ten kwantowomechaniczny problem (...) plątał mi
się gdzieś po głowie w niejasny sposób, jak to bywa, kiedy myślę o matematyce w łóżku przed
zaśnięciem. Zwykle muszę zapisywać wszystko na kartce, by potem grzebać się w równaniach i
całkach na miarę moich umiejętności. Ale gdzieś koło Bowes Moor rozjaśniło mi się w głowie,
nie odrobinę, nie w żaden zwykły sposób, lecz jak gdyby ktoś nagle włączył olbrzymi jaskrawy
reflektor, w którego świetle ujrzałem wyraźną ideę. Ile to mogło trwać, zanim się przekonałem,
że problem został w pełni rozwiązany? Chyba niecałe pięć sekund. Zanim doznanie to znikło,
zdążyłem się jeszcze upewnić, że zapamiętałem wystarczająco dużo kroków rozwiązania, abym
mógł je później odtworzyć. O stopniu mojej pewności świadczy fakt, że w ciągu następnych dni
nie chciało mi się niczego zapisywać na papierze. Gdy po jakichś dziesięciu dniach wycieczki
powróciłem do Cambridge, zapisanie całego toku rozumowania nie sprawiało trudności.
Hoyle wspomina również, jak rozmawiał na temat objawień z Richardem Feynmanem:
Kilka lat temu Dick Feynmann plastycznie opisywał, jak to jest w takim momencie
natchnienia i że następuje potem ogromne poczucie euforii, trwające przez jakieś dwa, trzy dni.
Gdy spytałem, ile razy mu się to przydarzyło, Feynman odparł: „cztery”; obaj zgodziliśmy się, że
dwanaście dni euforii nie jest zbyt dużą zapłatą za życie wypełnione pracą naukową.
Opowiedziałem przeżycia Hoyle'a w tym miejscu, a nie w rozdziale 6, gdyż sam
przyznaje, że miały one prawdziwie religijny (w przeciwieństwie do czysto platońskiego)
charakter. Hoyle uważa, że za porządek kosmosu odpowiedzialna jest jakaś „superinteligencja”,
która rządzi jego ewolucją poprzez procesy kwantowe; o koncepcji tej wspomniałem w rozdziale
7. Ponadto Bóg Hoyle'a jest Bogiem Ideologicznym (co przypomina Arystotelesa lub Teilharda
de Chardin), ukierunkowywującym świat ku końcowemu stanowi w nieskończonej przyszłości.
Hoyle uważa, że działając na poziomie kwantowym superinteligencja ta jest w stanie zaszczepiać
w ludzkim umyśle w gotowej postaci myśli i idee pochodzące z przyszłości. Stąd, jego zdaniem,
bierze się natchnienie zarówno w matematyce, jak i w muzyce.
Nieskończoność
W naszym poszukiwaniu odpowiedzi ostatecznych trudno nie natknąć się, w ten czy inny
sposób, na nieskończoność. Czy to będzie nieskończona piramida żółwi, nieskończony zbiór
twierdzeń matematycznych, czy też nieskończony Stwórca, nie wydaje nam się, aby świat
fizyczny mógł wywodzić się z czegoś skończonego. W religiach Zachodu istnieje długa tradycja
utożsamiania Nieskończoności z Bogiem, podczas gdy filozofia Wschodu stara się
wyeliminować różnicę między Jednością a Wielościa i utożsamić Nicość z Nieskończonościa –
zero i nieskonczoność.
Gdy pierwsi myśliciele chrześcijańscy, jak Platon, głosili nieskończoność Boga, chcieli
przez to powiedzieć przede wszystkim, że nie podlega On żadnym ograniczeniom. Matematyczne
pojęcie nieskończoności w owym czasie było jeszcze bardzo niejasne. Powszechnie uważano, że
nieskończoność stanowi granicę, ku której zmierza proces liczenia, lecz której w rzeczywistości
nigdy nie da się osiągnąć. Nawet Tomasz z Akwinu, który przyznawał Bogu nieskończoną
naturę, nie był gotów uznać, że nieskończoność może być czymś więcej niż bytem potencjalnym,
w przeciwieństwie do aktualnego. Wszechmocny Bóg „nie jest w stanie uczynić rzeczy
nieograniczonej w sensie absolutnym” - twierdził.
Pogląd, że nieskończoność jest pojęciem paradoksalnym i wewnętrznie sprzecznym,
utrzymał się aż do dziewiętnastego wieku. Wtedy to matematykowi Georgowi Cantorowi, przy
okazji badania problemów trygonometrycznych, udało się ostatecznie przeprowadzić ścisły pod
względem logicznym dowód, że pojęcie nieskończoności aktualnej nie jest wewnętrznie
sprzeczne. Cantor miał ciężką przeprawę w środowisku naukowym; niektórzy wybitni
matematycy uważali go wręcz za szaleńca. Faktem jest, że później naprawdę zapadł na chorobę
umysłową. Niemniej w końcu zasady wolnego od sprzeczności posługiwania się liczbami
nieskończonymi, mimo całej swojej niecodzienności i sprzeczności z intuicją, powszechnie się
przyjęły. W istocie, znaczna część dwudziestowiecznej matematyki opiera się na pojęciu
nieskończoności (bądź też wielkości nieskończenie małych).
Jeżeli nieskończoność daje się ująć i wykorzystać za pomocą racjonalnego rozumowania,
czyż nie otwiera to drogi do poznania ostatecznego uzasadnienia wszechrzeczy bez odwoływania
się do mistycyzmu? Bynajmniej. Aby przekonać się, dlaczego, musimy bliżej przyjrzeć się
samemu pojęciu nieskończoności.
Jednym z zaskakujących wniosków Cantora było, że nie istnieje jedna nieskończoność,
lecz cała mnogość nieskończoności. Na przykład, zbiór wszystkich liczb całkowitych i zbiór
wszystkich ułamków są zbiorami nieskończonymi. Mogłoby się intuicyjnie wydawać, że
ułamków jest więcej niż liczb całkowitych, ale to nieprawda. Z drugiej strony, zbiór wszystkich
ułamków dziesiętnych jest większy niż zbiór wszystkich ułamków zwykłych i zbiór liczb
całkowitych. Pojawia się zatem pytanie: czy istnieje „największa” nieskończoność? Co będzie,
jeśli połączymy wszystkie zbiory nieskończone w jeden superwszechzbiór? Klasa wszystkich
możliwych zbiorów faktycznie istnieje i nosi nazwę Absolutu Cantora.
Jest tylko jeden szkopuł. Twór ten nie jest zbiorem, ponieważ gdyby był, to na mocy
definicji musiałby również zawierać sam siebie. Ale zbiory zawierające same siebie prowadzą w
prostej linii do antynomii Russella.
W ten sposób jeszcze raz natykamy się na gódlowską granicę dla poznania racjonalnego -
tajemnicę u podstaw świata. Nie możemy poznać Absolutu Cantora, ani żadnego innego
Absolutu, na drodze racjonalnej, jako że każdy Absolut, będąc Jednością, a zatem bytem
zupełnym, musi obejmować również siebie. Jak zauważył Rucker w kontekście Krainy Myśli,
czyli klasy wszystkich zbiorów idei: „Jeżeli Kraina Myśli jest Jednością, to jest ona elementem
samej siebie, a zatem może być poznana jedynie w przebłysku objawienia mistycznego. Żadna
idea racjonalna nie obejmuje samej siebie, a zatem nie istnieje racjonalna idea pozwalająca pojąć
Krainę Myśli jako Jedno”.
Kim jest człowiek?
Czuję, że jestem w tym Wszechświecie u siebie.
Freeman Dyson
Czy szczere przyznanie, że nie ma dla nas żadnej nadziei na osiągnięcie poznania
ostatecznego, oznacza, że wszelkie rozważania metafizyczne są bezwartościowe? Czy mamy
przyjmować praktyczną postawę ateisty, który zadowala się przyjęciem, że Wszechświat jest mu
dany jako taki, i zajmuje się katalogowaniem jego własności? Niewątpliwie wielu naukowców
gwałtownie sprzeciwia się powoływaniu na argumenty metafizyczne, nie mówiąc już o
mistycznych, w jakiejkolwiek postaci. Pogardliwie odnoszą się oni do przekonania, że mógłby
istnieć Bóg, czy nawet jakiś nieosobowy czynnik stwórczy, czy też zasada bytu, pozwalająca na
jakieś uzasadnienie rzeczywistości, by uczynić jej przygodne aspekty mniej arbitralnymi.
Osobiście nie podzielam tej pogardy. Chociaż wiele metafizycznych i teistycznych teorii może
się wydawać wydumanymi lub dziecinnymi, nie są one absurdalne bardziej niż przekonanie, że
świat istnieje, i to istnieje właśnie w takiej postaci, bez żadnej racji. Wydaje się, że co najmniej
warto spróbować zbudowania teorii metafizycznej, która w jakimś stopniu zmniejszałaby
arbitralny charakter świata. Niemniej ostateczne racjonalne uzasadnienie świata w sensie
stworzenia zupełnego zamkniętego systemu prawd logicznych jest prawie na pewno niemożliwe.
Dostępu do wiedzy ostatecznej, do poznania ostatecznego uzasadnienia bronią nam te same
reguły rozumowania, które wpierw skłaniają nas do poszukiwania takiego uzasadnienia. Jeżeli
chcemy wyjść poza nie, musimy przyjąć inną koncepcję „poznania” niż poszukiwanie
uzasadnienia na drodze racjonalnej. Możliwe, że poznanie takie da się osiągnąć poprzez mistykę.
Sam nigdy nie miałem żadnych doświadczeń mistycznych, niemniej nie wzbraniam się przed
uznaniem takich doświadczeń za wartościowe. Być może stanowią one jedyny sposób, by
wykroczyć poza granice, do których doprowadza nas filozofia i nauki przyrodnicze, i jest to
jedyna droga do Absolutu.
Zasadniczym wątkiem, którym zajmowałem się w tej książce, było to, że poprzez naukę
my, ludzie, jesteśmy w stanie poznać przynajmniej niektóre sekrety przyrody. Udało nam się
częściowo złamać kosmiczny szyfr. Dlaczego jest tak, że to właśnie Homo sapiens przypadła w
udziale iskierka racjonalności, dająca klucz do świata, pozostaje niezgłębioną zagadką. My,
którzy wyrośliśmy z tego Wszechświata jako ożywiony gwiezdny pył, jesteśmy pomimo to
zdolni do refleksji nad jego naturą, aż po przebłyski poznania zasad, które nim rządzą. W jaki
sposób zostaliśmy włączeni w ten kosmiczny wymiar, pozostaje tajemnicą. Jednak to, że tak się
stało, jest faktem niezaprzeczalnym.
Co to oznacza? Kim jest Człowiek, skoro doznał takiego zaszczytu? Nie mogę uwierzyć,
że nasze istnienie w tym Wszechświecie miałoby być jedynie kaprysem losu, przypadkiem w
dziejach Wszechświata, malutkim omsknięciem w wielkim kosmicznym dramacie. W zbyt
wielkim stopniu jesteśmy weń zaangażowani. Gatunek Homo sapiens jako taki może wiele nie
znaczyć; jednak to, że na jakiejś planecie istnieją organizmy żywe wyposażone w umysł, jest bez
wątpienia faktem o podstawowym znaczeniu. Oto, poprzez istoty świadome, Wszechświat
wytworzył świadomość samego siebie. Świadomość ta nie może być nieistotnym szczegółem,
bezwartościowym produktem ubocznym ślepych, bezmyślnych sił.
Naprawdę jesteśmy tu nieprzypadkowo.