Davies Paul Plan Stworcy

background image

P

AUL

D

AVIES

P

LAN

S

TWÓRCY

N

AUKOWE

PODSTAWY

RACJONALNEJ

WIZJI

ŚWIATA

( P

RZEKŁAD

M

AREK

K

ROŚNIAK

)

SCAN-

DAL

background image

Rozdział pierwszy

ROZUM A PRZEKONANIA

Ludzie żywią najróżniejszego rodzaju przekonania i na różnych podstawach je opierają,

począwszy od logicznego dowodu do ślepej wiary. Jedne przekonania mają swe źródło w

osobistym doświadczeniu, inne nabywane są w procesie kształcenia, a jeszcze inne wpajane

poprzez indoktrynacje. Nie ulega wątpliwości, że istnieją przekonania o charakterze wrodzonym,

ukształtowane w wyniku ewolucji. Niektóre z przekonań uważamy za możliwe do uzasadnienia,

inne zaś żywimy, gdyż „tak czujemy”.

Jest oczywiste, że wiele naszych przekonań jest fałszywych, już to dlatego, iż są

sprzeczne wewnętrznie, już to dlatego, że nie zgadzają się z innymi przekonaniami czy też

faktami. Pierwszą systematyczną próbę znalezienia uniwersalnej podstawy przekonań podjęto

dwa i pół tysiąca lat temu w starożytnej Grecji. Greccy filozofowie dążyli do sformalizowania

ludzkiego myślenia za pomocą niepodważalnych reguł wnioskowania dedukcyjnego. Sądzili oni,

że poprzez odwołanie się do powszechnie przyjętych procedur racjonalności pozbędą się

niejasności, nieporozumień i sporów, towarzyszących rozwiązywaniu wszelkich ludzkich spraw.

Ich ostatecznym celem było ustalenie zbioru założeń, zwanych aksjomatami, które, akceptowane

przez każdego racjonalnego człowieka, umożliwiłyby rozwiązanie wszelkich kwestii spornych.

Trzeba przyznać, że celu tego nigdy nie osiągnięto, pomijając kwestię, czy to było w

ogóle możliwe. We współczesnym świecie zróżnicowanie przekonań jest większe niż

kiedykolwiek, występuje wiele przekonań ekscentrycznych, niekiedy wręcz niebezpiecznych, a

odwoływanie się do argumentów racjonalnych uważane jest częstokroć przez zwykłych ludzi za

bezużyteczną sofistykę. Jedynie w nauce, zwłaszcza w matematyce (a także, oczywiście, w samej

filozofii), urzeczywistniane są ideały greckich filozofów. Natomiast przy rozważaniu

zasadniczych kwestii egzystencjalnych, takich jak pochodzenie i sens Wszechświata, miejsce

człowieka w świecie czy też naturalny porządek wszechrzeczy, istnieje silna pokusa popad-niecia

w irracjonalizm, od której nie są wolni nawet naukowcy. Jednakże od dawna podejmowano

poważne próby zmierzenia się z tymi problemami poprzez racjonalną, obiektywną analizę. Ale

jak daleko zajdziemy drogą rozumu? Czy naprawdę możemy mieć nadzieję, że ostateczne

zagadki bytu zostaną rozwiązane poprzez racjonalne rozumowanie naukowe, czy też zawsze w

background image

pewnym momencie natkniemy się na nieprzeniknioną tajemnicę? I czym w ogóle jest sama

racjonalność?

background image

Cud nauki

Piękno, majestat i wyrafinowanie fizycznego świata wysławiano od wieków we

wszystkich kulturach. Ale dopiero w nowożytnej, opartej na nauce, kulturze podjęto

systematyczną próbę badania tego świata i miejsca, jakie w nim zajmujemy. Sukcesy metody

naukowej w dziedzinie wyjaśniania tajemnic przyrody okazały się tak oszałamiające, że

niejednokrotnie przesłaniają to, co jest największym cudem związanym z nauką: fakt, że nauka

jest w ogóle możliwa. Sami uczeni przyjmują zazwyczaj za pewnik, że żyjemy w racjonalnym,

uporządkowanym świecie poddanym precyzyjnym prawom, które mogą być poznane ludzkim

rozumem. Jednakże, dlaczego tak właśnie jest, pozostaje zadziwiającą zagadką. Jak to się dzieje,

że człowiek posiada zdolność odkrywania i rozumienia zasad, na których opiera się

Wszechświat?

Ostatnio problemem tym zajmuje się coraz więcej uczonych i filozofów. Czy nasze

sukcesy w poznawaniu świata za pomocą matematyki i nauk przyrodniczych są wyłącznie

szczęśliwym zbiegiem okoliczności, czy też organizmy biologiczne wyłonione z kosmicznego

porządku z konieczności posiadają zdolność odzwierciedlania tego porządku w swoich procesach

poznawczych? Czy spektakularne postępy nauki są jedynie incydentalnym faktem historycznym,

czy też świadczą o zachodzeniu głębokich, istotnych współzależności pomiędzy ludzkim

umysłem a fundamentalnym porządkiem przyrody, która go ukształtowała?

Czterysta lat temu nauki przyrodnicze weszły w konflikt z religią, ponieważ wydawały się

zagrażać uprzywilejowanej pozycji Człowieka w świecie stworzonym przez Boga. Ten myślowy

przewrót, zapoczątkowany przez Kopernika i dokończony przez Darwina, doprowadził do

marginalizacji, czy też wręcz trywializacji, Człowieka. Ludzie przestali być celem stworzenia,

przypisano im przypadkową i pozornie bezsensowną rolę w bezosobowym kosmicznym

dramacie; byli kimś w rodzaju nie przewidzianych w scenariuszu statystów, którzy zabłąkali się

na olbrzymim planie filmowym.

Ta egzystencjalistyczna koncepcja, głosząca, że życie człowieka ma tylko taki sens, jaki

on sam mu nada, stała się przewodnim motywem nauki. To właśnie z tego powodu zwykli ludzie

widzą w nauce zagrożenie i deprecjację swej godności, uważając, że wyobcowuje ich ona ze

świata.

Wizja nauki, jaką przedstawię w następnych rozdziałach, jest całkowicie odmienna.

background image

Wynika z niej, że człowiek nie jest przypadkowym wytworem ślepych sił, jako że istnienie

organizmów obdarzonych świadomością jest fundamentalną właściwością Wszechświata.

Jesteśmy głęboko i, jak wierzę, celowo zapisani w prawach przyrody. Nie uważam również, by

nauka w jakikolwiek sposób prowadziła do alienacji. Jest ona szlachetnym i ubogacającym

człowieka poszukiwaniem sensu świata w obiektywny, metodyczny sposób. Nie zaprzecza ona,

że świat może mieć sens zewnętrzny wobec swego istnienia. Wręcz przeciwnie - jak

podkreślałem, fakt, że nauka jest w ogóle możliwa i odznacza się taką skutecznością, wskazuje

na pewne głębokie, istotne cechy zorganizowania kosmosu. Wszelkie próby poznania natury

rzeczywistości i miejsca człowieka we Wszechświecie muszą być oparte na solidnych

podstawach naukowych. Naturalnie, nauka nie jest jedyną dziedziną aktywności umysłowej

człowieka, nawet w tej naszej, tak zwanej naukowej epoce bujnie rozkwita religia; jednakże, jak

zauważył kiedyś Einstein, religia bez nauki jest ułomna.

Poszukiwania naukowe są podróżą w nieznane. Każdy etap przynosi nowe,

nieoczekiwane odkrycia i niezwykłe, niekiedy trudne do zrozumienia, koncepcje, stanowiące

wyzwanie dla ludzkiego umysłu. Niemniej wszędzie odnajdujemy znajome motywy

racjonalności i porządku. Przekonamy się, że ten kosmiczny porządek wyznaczany jest przez

ścisłe prawa matematyczne, które są ze sobą wzajemnie powiązane, tworząc misterną,

harmonijną całość. Prawa te odznaczają się prostotą i elegancją, niejednokrotnie narzucają się

one uczonym wyłącznie na mocy swego wewnętrznego piękna. Jednakże te właśnie proste prawa

pozwalają na samoorganizowanie się materii i energii w ogromną różnorodność złożonych

struktur, w tym również w takie, które, obdarzone świadomością, zdolne są do refleksji

poznawczej nad tym samym kosmicznym porządkiem, który je zrodził.

Jednym z najbardziej ambitnych celów tego typu refleksji jest lożliwość sformułowania

„Teorii Wszystkiego” - dostarczającej upełnego opisu świata w postaci zamkniętego systemu

prawd agicznych. Dążenie do stworzenia teorii uniwersalnej stało się dla izyków czymś na kształt

poszukiwania świętego graala. Sama idea akiej teorii jest bez wątpienia bardzo pociągająca. W

końcu, jeżeli Vszechświat stanowi przejaw racjonalnego porządku, to powinniśmy być w stanie

wywieść jego naturę na mocy „czystego rozumu”, iez potrzeby odwoływania się do obserwacji

czy też eksperymentów. Większość uczonych odrzuca tego typu podejście, głosząc, że

dobywanie wiedzy na drodze empirycznej jest jedyną metodą, na .tórej można polegać. Jednak,

jak zobaczymy, wymóg racjonalności i poddania prawom logiki co najmniej nakłada pewne

background image

ograniczenia na typ świata dostępnego naszemu poznaniu. Z drugiej strony, same struktury logiki

zawierają immanentne, paradoksalne ograniczenia, wskutek których nigdy nie uda nam się pojąć

pełni istnienia rozumując wyłącznie poprzez dedukcję.

W dziejach nauki występowało wiele modeli mających obrazować podstawowy,

racjonalny porządek rzeczywistości: świat jako przejaw idealnych form geometrycznych, jako

żywy organizm, jako ogromny mechanizm zegarowy, czy też, ostatnio, gigantyczny komputer. W

każdym z tych wyobrażeń uchwycony został jakiś zasadniczy aspekt rzeczywistości, lecz każde z

nich samo w sobie jest dalece niepełne. Omówimy niektóre najnowsze wersje tego typu metafor i

konstrukcje matematyczne, jakie używane są do ich wyrażenia. To doprowadzi nas do pytania,

czym jest matematyka i dlaczego jest ona tak skutecznym narzędziem opisu praw rządzących

światem, a także skąd się biorą same te prawa. Rozważane kwestie będą na ogół łatwe do

przedstawienia, lecz niektóre mają bardziej techniczny, abstrakcyjny charakter. Zapraszam Cię,

Czytelniku, abyś wraz ze nną wyruszył w tę naukową wyprawę w nieznane w poszukiwaniu

ostatecznej podstawy rzeczywistości. Chociaż droga od czasu do czasu jest wyboista, a cel

pozostaje spowity mgłą tajemnicy, mam nadzieję, że podróż ta sprawi Ci wiele radości.

background image

Ludzkie myślenie a zdrowy rozsądek

Często mówi się, że tym, co odróżnia człowieka od innych zwierząt, jest nasza zdolność

myślenia. Zwierzęta wydają się w mniejszym lub większym stopniu posiadać właściwość

uświadamiania sobie otaczającego je świata i reagowania na niego, lecz u człowieka mamy do

czynienia z czymś więcej niż tylko ze świadomością. Posiadamy bowiem zdolność pojmowania

świata i miejsca, jakie w nim zajmujemy. Jesteśmy w stanie przewidywać wydarzenia i

wykorzystywać naturalne procesy do swoich własnych celów, a chociaż sami stanowimy część

świata, to odróżniamy siebie od otaczającej nas rzeczywistości.

W kulturach pierwotnych poznanie świata przez ludzi ograniczało się do zjawisk życia

codziennego, takich jak zmiany pór roku czy też strzelanie z procy lub łuku. Miało ono charakter

ściśle pragmatyczny, bez żadnej podbudowy teoretycznej, nie licząc sfery magii. Obecnie, w

wieku nauki, nasza wiedza uległa znacznemu rozszerzeniu, tak że trzeba ją było podzielić na

odrębne dziedziny: astronomię, fizykę, chemię, geologię, psychologię i tak dalej. Ten gwałtowny

postęp dokonał się prawie wyłącznie dzięki zastosowaniu „metody naukowej”, opartej na

eksperymentach, obserwacjach, dedukcji oraz stawianiu i falsyfikacji hipotez. Nie będziemy tutaj

wchodzić w szczegóły, istotne jest, że nauka wyznacza rygorystyczne standardy procedur

badawczych i dyskutowania ich wyników, które zdecydowanie przedkładają racjonalną

argumentację ponad ślepą wiarę.

Pojęcie racjonalnej argumentacji jest samo w sobie bardzo intrygujące. Poszukujemy

„racjonalnych” argumentów, uznając za najbardziej satysfakcjonujące te, które odwołują się do

„zdrowego rozsądku”. Jednakże procesy myślowe człowieka nie pochodzą bezpośrednio od

Boga, lecz biorą swój początek ze struktury ludzkiego mózgu i zadań, do jakich ukształtował się

on w procesie ewolucji. Z kolei działanie mózgu opiera się na prawach fizyki i zależy od

otaczającego nas świata. To, co określamy mianem zdrowego rozsądku, jest wytworem

schematów myślowych głęboko zakorzenionych w ludzkim umyśle, prawdopodobnie dlatego, że

okazały się skuteczne w praktyce życia codziennego, w sytuacjach takich jak unikanie

spadających przedmiotów lub ucieczka przed drapieżnikami. Niektóre aspekty działania umysłu

determinowane są przez budowę ludzkiego mózgu, inne zaś stanowią „genetyczne

oprogramowanie” odziedziczone po naszych dalekich przodkach.

Wielki filozof Immanuel Kant twierdził, iż nie wszystkie kategorie myślowe, jakimi się

background image

posługujemy, mają swe źródło w zmysłowym doświadczeniu świata. Uważał on, że niektóre

pojęcia mają charakter a priori, przez co rozumiał, iż jakkolwiek nie są prawdami koniecznymi w

ścisłym logicznym sensie, to jednak,zadne myślenie nie byłoby bez nich możliwe: stanowią one

„niezbędny warunek myślenia”. Jako przykład Kant podawał nasze intuicyjne pojmowanie

trójwymiarowości przestrzeni za pośrednictwem aksjomatów geometrii euklidesowej, zakładając,

że ta wiedza jest człowiekowi wrodzona. Niestety, później okazało się, iż geometria euklidesowa

jest faktycznie fałszywa! Obecnie uczeni i filozofowie zgodni są co do tego, że nawet najbardziej

podstawowe aspekty ludzkiego myślenia mają swe ostateczne źródło w obserwacjach świata

fizycznego. Być może pojęcia, które zakorzeniły się w naszym umyśle do tego stopnia, że nie

wyobrażamy sobie, aby można się było bez nich obejść - takie jak „zdrowy

rozsądek”,racjonalność - zostały genetycznie zaprogramowane głęboko w ludzkim mózgu.

Interesujące mogłoby być rozważenie, czy jakieś hipotetyczne istoty inteligentne, których

ewolucja przebiegałaby w odmiennych warunkach, podzielałyby nasze kategorie zdrowego

rozsądku czy eż w ogóle schematy ludzkiego myślenia. Gdyby, jak w wizji niektórych autorów

fantastyki naukowej, istniało życie na powierzchni gwiazdy neutronowej, można by postawić

pytanie, jak takie stoty widziałyby świat i w jakich kategoriach go przedstawiały. Zupełnie

możliwe, że ich pojęcie racjonalności różniłoby się od naszego tak dalece, iż żadne z

argumentów, które my uważamy za racjonalne, nie byłyby dla nich przekonujące.

Czy oznacza to, że do ludzkiego myślenia należy podchodzić , podejrzliwością? Czy

jesteśmy krańcowo szowinistyczni lub zaściankowi, gdy zakładamy, iż kategorie myślowe

gatunku Homo sapiens możemy z powodzeniem stosować do rozwiązywania podstawowych

kwestii egzystencjalnych? Niekoniecznie. Nasz umysł działa w określony sposób właśnie

dlatego, że jego procesy odzwierciedlają do pewnego stopnia naturę świata, w którym żyjemy.

Naprawdę zaskakujące jest to, że ludzkie myślenie okazuje się tak skuteczne w poznawaniu tych

obszarów rzeczywistości, które nie są dane bezpośrednio naszym zmysłom. Nie ma nic dziwnego

w tym iż człowiek był w stanie sformułować prawa rządzące spadaniem ciał, gdyż jego mózg w

swym rozwoju musiał zajmować się sposobami uniknięcia spadających przedmiotów. Ale czy w

jakikolwiek sposób uprawnione jest oczekiwanie, że nasze sposoby rozumowania okażą się

skuteczne na przykład w fizyce jądrowej czy też astrofizyce? Fakt, iż w samej rzeczy okazują się

skuteczne i prowadzą do „nadspodziewanie” dobrych wyników, jest jedną z wielkich zagadek

Wszechświata, którymi będę się zajmował w tej książce.

background image

Jednakże w tym miejscu pojawia się następny problem. Jeżeli w ludzkim myśleniu

odzwierciedla się w jakiś sposób struktura rzeczywistości, czy można twierdzić, że świat stanowi

przejaw rozumu? Będziemy posługiwać się słowem „racjonalny” w sensie „zgodny z rozumem”,

a więc moje pytanie można sformułować, czy, lub w jakim stopniu, świat jest racjonalny. Nauka

zasadza się na założeniu, że świat jest racjonalny we wszystkich swoich aspektach, jakie mogą

być obserwowane przez człowieka. Nie można jednak wykluczyć, iż istnieją jakieś obszary

rzeczywistości wykraczające poza zasięg ludzkiego poznania. Nie znaczy to, że musiałyby one

być irracjonalne w absolutnym sensie. Istoty zamieszkujące gwiazdy neutronowe (lub też

superkomputery) mogłyby być w stanie poznawać rzeczy, których my, wskutek specyficznej

budowy naszego mózgu, poznać nie możemy. Musimy zatem brać pod uwagę możliwość, że

istnieją rzeczy, których nie jesteśmy w stanie wyjaśnić, a nawet takie, których wyjaśnić nie da się

w ogóle.

W tej książce przyjmuję optymistyczny pogląd, że w ogólnym przypadku możemy

polegać na ludzkim rozumie jako narzędziu poznania. Pozostaje faktem, iż u ludzi występują

przekonania, zwłaszcza typu religijnego, które można by określić mianem irracjonalnych. Ich

irracjonalność nie oznacza, iż muszą być one fałszywe. Być może istnieją sposoby poznania (na

przykład typu mistycznego lub poprzez objawienie), które pomijają lub wykraczają poza drogę

poznania rozumowego. Jako uczony, staram się posługiwać rozumem, jak dalece jest to tylko

możliwe. Badając granice rozumu i racjonalności niejednokrotnie natkniemy się na rzeczy

tajemnicze i niezrozumiałe; z dużym prawdopodobieństwem możemy oczekiwać, że w pewnym

momencie rozum przestanie wystarczać i będzie musiał ustąpić miejsca irracjonalnej wierze lub

też szczeremu przyznaniu się do niewiedzy.

Jeżeli świat jest, przynajmniej w znacznym stopniu, racjonalny, jaka jest podstawa jego

racjonalności? Nie może nią być umysł człowieka, ponieważ odzwierciedla tylko to, co już

istnieje. Czy poszukując uzasadnienia powinniśmy odwoływać się do koncepcji racjonalnego

Stwórcy? A może racjonalność „rodzi samą siebie” na mocy własnej „logiczności”? Inną

możliwością jest, że świat „w wielkiej skali” jest irracjonalny, lecz my zamieszkujemy w oazie

względnej racjonalności, ponieważ jest to jedyne „miejsce”, w którym mogą bytować istoty

obdarzone świadomością i zdolnością myślenia. Aby spróbować odpowiedzieć na pytania tego

typu, przyjrzyjmy się bliżej różnym typom rozumowania.

background image

Myślenie o myśleniu

Istnieją dwa użyteczne typy rozumowania i ważne jest, aby potrafić je należycie

rozróżnić. Pierwszy z nich nosi nazwę „dedukcji” i polega na zastosowaniu ścisłych praw logiki.

Zgodnie z logiką klasyczną pewne zdania, takie jak „Pies jest psem” albo „Każda rzecz albo jest

albo nie jest psem”, są zawsze prawdziwe, podczas gdy inne, jak „Pies nie jest psem”, są z

konieczności fałszywe. Przy rozumowaniu dedukcyjnym wychodzimy od zbioru założeń,

zwanych „przesłankami”. Są to zdania, które dla potrzeb danego rozumowania uznajemy za

bezdyskusyjnie prawdziwe. Jest oczywiste, że przesłanki nie mogą być ze sobą sprzeczne.

Powszechnie uważa się, że wnioski logicznego rozumowania dedukcyjnego nie zawierają

nic ponad to, co było zawarte w przesłankach wyjściowych, tak więc za pomocą argumentu tego

typu nie udowodnimy nigdy niczego naprawdę nowego. Rozważmy przykład rozumowania

dedukcyjnego, zwany „sylogizmem”:

1. Wszyscy kawalerowie są mężczyznami.

2. Aleksander jest kawalerem.

3. A zatem, Aleksander jest mężczyzną.

Zdanie 3 mówi nam tylko to, co było wyrażone w zdaniach l i 2 tak więc, zgodnie z tym

poglądem, rozumowanie dedukcyjne stanowi jedynie sposób przekształcania faktów lub pojęć

tak, aby nadać im bardziej dogodną lub interesującą formę.

Jednak gdy zastosujemy rozumowanie dedukcyjne do bardziej ikomplikowanych pojęć,

możemy otrzymać wyniki nieoczekiwane zaskakujące, nawet jeżeli są one jedynie inną postacią

przesłanek wyjściowych. Dobrym przykładem może być tu geometria, opierająca się na zbiorze

założeń, zwanych aksjomatami, z których wyprowadza się inne twierdzenia składające się na

całość teorii. W III wieku przed naszą erą grecki matematyk Euklides podał pięć aksjomatów,

które stały się podstawą geometrii klasycznej, wśród nich takie: „Istnieje tylko jedna prosta

przechodząca przez dwa dane punkty”. Z tych aksjomatów, posługując się dedukcją, można

otrzymać wszystkie twierdzenia geometryczne, których uczymy się w szkole. Jednym z nich jest

twierdzenie Pitagorasa, którego, jakkolwiek nie niesie ono w sobie więcej informacji niż

aksjomaty Euklidesa, z których zostało wyprowadzone, nie możemy bynajmniej uznać za

intuicyjnie oczywiste.

Nie ulega wątpliwości, że wartość rozumowania dedukcyjnego jest taka, jak wartość

background image

przesłanek, na których się ono opiera.

W dziewiętnastym wieku niektórzy matematycy postanowili zbadać konsekwencje

opuszczenia piątego aksjomatu Euklidesa, głoszącego, że przez dany punkt możemy

przeprowadzić dokładnie jedną prostą równoległą do danej prostej. W ten sposób powstała

„geometria nieeuklidesowa”, która znalazła niezwykle duże zastosowanie w nauce; została

wykorzystana między innymi przez Alberta Einsteina w jego ogólnej teorii względności (teorii

grawitacji). Jak wspomnieliśmy, geometria euklidesowa nie jest słuszna w odniesieniu do świata

realnego, w którym, najogólniej mówiąc, przestrzeń jest zakrzywiona wskutek istnienia

grawitacji. Niemniej w szkole nadal uczy się geometrii euklidesowej, ponieważ w normalnych

warunkach jest ona bardzo dobrym przybliżeniem. Jednakże wypływa stąd morał, że nie byłoby

rozsądne uważanie jakichkolwiek aksjomatów za tak oczywiście słuszne, iż nie mogłoby być

inaczej.

Powszechnie przyjmuje się, że dedukcja logiczna stanowi najpewniejszy typ

rozumowania, jakkolwiek trzeba tu wspomnieć, że niekiedy podawane jest w wątpliwość nawet

samo posługiwanie się logiką klasyczną. W tak zwanej logice kwantowej rezygnuje się z zasady,

że coś nie może jednocześnie być i nie być czymś, motywując to tym, iż w mechanice kwantowej

pojecie „bycia” jest bardziej złożone niż w życiu codziennym: kwantowe układy fizyczne mogą

stanowić superpozycję przeciwstawnych stanów.

Inny powszechnie stosowany typ rozumowania nazywa się „indukcyjnym”. Tak jak w

przypadku dedukcji, w indukcji wychodzi się od danego zbioru faktów lub założeń i dochodzi do

określonych wniosków, lecz dokonuje się tego poprzez uogólnienie, a nie tworzenie ciągu

wynikających z siebie zdań. Przekonanie, że słońce jutro wzejdzie, jest przykładem rozumowania

indukcyjnego w oparciu o będący częścią naszego doświadczenia fakt, iż słońce dotychczas

regularnie codziennie wschodziło. Kiedy upuszczę ciężki przedmiot, oczekuję, że będzie on

spadał, na podstawie moich poprzednich doświadczeń z siłą ciążenia. Stosując rozumowanie

indukcyjne, uczeni formułują hipotezy w oparciu o ograniczoną liczbę obserwacji lub

eksperymentów. Do tego typu hipotez należą na przykład prawa fizyki. Prawo mówiące, że siły

elektrostatyczne są odwrotnie proporcjonalne do kwadratu odległości, było wielokrotnie

sprawdzane na różne sposoby i zawsze się potwierdzało. Nazywamy je prawem przyrody, gdyż,

poprzez indukcję, przyjmujemy, że tak będzie zawsze. Jednakże fakt, iż nikt do tej pory nie

zaobserwował naruszenia tego prawa, nie oznacza, że jest ono z konieczności prawdziwe, tak jak

background image

przy założeniu słuszności aksjomatów geometrii euklidesowej musi być prawdziwe twierdzenie

Pitagorasa. Niezależnie od tego, ile będzie poszczególnych przypadków potwierdzających to

prawo, nie możemy być nigdy absolutnie pewni, że zachodzi ono bez żadnych wyjątków.

Indukcja upoważnia nas tylko do wyciągnięcia wniosku, iż jest bardzo prawdopodobne, że przy

każdej następnej próbie prawo to się potwierdzi.

Filozof David Hume przestrzegał przed rozumowaniem indukcyjnym. To, że słońce dotąd

regularnie wschodziło lub prawo proporcjonalności siły elektrostatycznej do odwrotności

kwadratu odległości zawsze się potwierdzało, nie gwarantuje, iż będzie się to powtarzało nadal w

przyszłości. Przekonanie, że tak właśnie będzie, opiera się na założeniu, iż „procesy w przyrodzie

przebiegają zawsze w ten sam, ustalony, sposób”. Ale jakie mamy podstawy, by przyjmować

takie założenie? Nawet jeżeli faktycznie zawsze dotąd obserwowano, że jakiś stan rzeczy B (np.

świt) następuje po stanie rzeczy A (np. zmierzchu), czyż można stąd wnosić, że oznacza to, iż B

jest konieczną konsekwencją A? W jakim sensie moglibyśmy twierdzić, że B musi następować

po A? Z pewnością jesteśmy sobie w stanie wyobrazić świat, w którym zachodzi A, lecz nie

zachodzi B: między A i B nie ma koniecznego logicznego związku. Czy można mówić o

konieczności w jakimś innym sensie, czymś w rodzaju konieczności naturalnej? Hume i jego

zwolennicy stanowczo temu zaprzeczają.

Wygląda na to, że zmuszeni jesteśmy przyznać, iż wnioski, do których dochodzi się na

drodze indukcji, nigdy nie są absolutnie pewne, tak jak wnioskowanie poprzez dedukcję, mimo

że kategoria „zdrowego rozsądku” oparta jest na indukcji. To, że rozumowanie indukcyjne jest na

ogół skuteczne, jest (niezwykłą) własnością świata, którą można by określić mianem

„spolegliwości przyrody”. Wszyscy kierujemy się w życiu przekonaniami o świecie (takimi jak

to, że nieuchronnie wzejdzie słońce), do których doszliśmy w sposób indukcyjny, uważając je za

całkowicie racjonalne, mimo iż u ich podstaw nie leży logika formalna, lecz przygodna własność

świata. Jak się przekonamy, nie ma żadnego logicznego uzasadnienia, aby rzeczy nie miały się

przedstawiać inaczej. Moglibyśmy równie dobrze mieć do czynienia ze światem chaotycznym, w

którym nie byłyby możliwe żadne uogólnienia typu indukcyjnego.

We współczesnej filozofii dużą rolę odegrały prace Karla Poppera, który utrzymywał, że

w praktyce w nauce bardzo rzadko używa się rozumowania indukcyjnego w opisany sposób. Po

dokonaniu nowego odkrycia naukowcy spoglądają wstecz starając się sformułować hipotezy

zgodne z tym odkryciem, a następnie wyprowadzają wnioski z tych hipotez, które z kolei mogą

background image

być sprawdzone na drodze eksperymentalnej. Jeśli któreś z tych przewidywań okaże się

fałszywe, teorię należy zmodyfikować lub odrzucić. Tak więc główny nacisk zostaje położony na

falsyfikację, a nie weryfikację teorii. Dobra teoria to taka, która jest w znacznym stopniu podatna

na falsyfikację, a zatem może być sprawdzona na różne konkretne szczegółowe sposoby. Jeśli

testy te wypadną pozytywnie, nasze zaufanie do teorii wzrasta. Teoria zbyt niejasna lub ogólna,

albo też prowadząca jedynie do przewidywań, których sprawdzić nie jesteśmy w stanie, jest

niewiele warta.

W praktyce zatem ludzka aktywność intelektualna nie polega wyłącznie na rozumowaniu

dedukcyjnym i indukcyjnym. U źródeł wielkich odkryć naukowych leżą zazwyczaj genialne

intuicje i swobodna gra wyobraźni. W takich przypadkach kluczowy fakt czy też hipoteza

pojawia się w umyśle badacza w gotowej postaci i dopiero potem znajduje on jego uzasadnienie

w postaci logicznego łańcucha rozumowania. Inspiracja tego typu jest procesem bardzo

tajemniczym, który rodzi wiele pytań. Czy idee posiadają jakiś rodzaj niezależnego istnienia i są

tylko „odkrywane” w pewnym momencie przez ludzki umysł? A może natchnienie to nic innego

jak normalne rozumowanie, lecz dokonujące się gdzieś na poziomie podświadomości, a

uświadamiamy sobie dopiero jego gotowy wynik? Jeśli tak, to w jaki sposób wykształciła się u

człowieka umiejętność tego typu? Jaką biologiczną przewagę zapewnia gatunkowi ludzkiemu

kreatywność matematyczna i artystyczna?

background image

Racjonalność świata

Teza o racjonalności świata związana jest z faktem, że jest on uporządkowany. Na ogół

zdarzenia nie następują bezładnie, lecz są ze sobą powiązane. Słońce wschodzi planowo,

ponieważ Ziemia obraca się w regularny sposób; spadek ciężkiego przedmiotu poprzedzony jest

jego upuszczeniem z wysokości, i tak dalej. Właśnie to wzajemne powiązanie zdarzeń prowadzi

do pojęcia przyczyny i skutku. Okno zostaje wybite, ponieważ uderzył w nie kamień. Dąb rośnie,

ponieważ została zasadzona do ziemi żołądź. Przyzwyczajeni do niezmiennego następstwa

zdarzeń powiązanych ze sobą przyczynowo, skłonni jesteśmy uważać za przyczynę same

przedmioty materialne: to kamień wybija okno. Jednak oznaczałoby to przypisywanie

przedmiotom aktywnej roli, która im się nie należy. W rzeczywistości możemy jedynie

stwierdzić, że istnieje pewna korelacja między, na przykład, kamieniami lecącymi w stronę okna

a zbitą szybą, a zatem zdarzenia tworzące taki ciąg nie są niezależne. Gdybyśmy sporządzili

zapis wszystkich zdarzeń w jakimś obszarze przestrzeni w określonym czasie, zauważylibyśmy,

że można je ze sobą połączyć w krzyżujące się struktury, „ciągi przyczynowo-skutkowe”. To w

występowaniu tego typu struktur przejawia się racjonalny porządek świata; bez nich mielibyśmy

do czynienia jedynie z chaosem.

Z przyczynowością ściśle wiąże się pojęcie determinizmu. W jego współczesnej postaci

polega ono na założeniu, że wszelkie zdarzenia są w pełni zdeterminowane przez inne,

wcześniejsze zdarzenia. Determinizm implikuje, że stan świata w danym momencie pozwala na

wyznaczenie stanu świata w każdej późniejszej chwili. A ponieważ ten późniejszy stan wyznacza

z kolei następne stany, można wyciągnąć wniosek, że wszystko, co kiedykolwiek wydarzy się we

Wszechświecie w przyszłości, jest całkowicie określone przez jego stan obecny. Gdy, w

siedemnastym wieku, Isaac Newton sformułował prawa swojej mechaniki, zawarł w nich

automatycznie determinizm. Na przykład, jeżeli uznamy Układ Słoneczny za układ izolowany,

znajomość położenia i prędkości planet w określonej chwili pozwala na jednoznaczne

wyznaczenie (za pomocą praw Newtona) ich pozycji i prędkości w każdej następnej chwili.

Ponadto, ponieważ prawa Newtona nie wyróżniają kierunku czasu, zachodzi również możliwość

odwrotna: znajomość stanu obecnego wystarcza na jednoznaczne ustalenie stanu w dowolnym

momencie w przeszłości. W ten sposób jesteśmy na przykład w stanie przewidywać zaćmienia

Słońca i Księżyca, które nastąpią w przyszłości, jak również obliczyć momenty ich wystąpienia

background image

w przeszłości.

Jeżeli świat ma charakter ściśle deterministyczny, wszystkie zdarzenia tworzą zespół

powiązanych ze sobą ciągów przyczynowo-skutkowych. Przeszłość i przyszłość zawarte są w

teraźniejszości, w tym sensie, że pełna informacja potrzebna do odtworzenia przeszłych i

przyszłych stanów świata kryje się w jego stanie obecnym, podobnie pełna informacja o

twierdzeniu Pitagorasa kryje się w aksjomatach geometrii euklidesowej. Cały kosmos staje się

czymś na kształt gigantycznego mechanizmu czy też zegara, posłusznie podążającego drogą

zmian zaplanowaną od samego początku czasu. Ilya Prigogine wyraził to w sposób bardziej

poetyczny: Bóg zostaje sprowadzony do roli bibliotekarza odwracającego kolejne stronice

napisanej już księgi historii kosmicznej.

Przeciwieństwem determinizmu jest indeterminizm, czyli przypadkowość. Mówimy, że

jakieś zdarzenie było „czysto przypadkowe”, gdy nie było ono w żaden zauważalny sposób

zdeterminowane przez coś innego. Typowym przykładem są tu rzuty kostką do gry lub monetą.

Jednakże, czy mamy w tym przypadku do czynienia z rzeczywistym indeterminizmetn czy też

czynniki i siły determinujące wynik rzutu są przed nami ukryte, tak że zachowanie monety lub

kostki po prostu wydaje się nam przypadkowe?

Jeszcze w ubiegłym stuleciu większość uczonych odpowiedziałaby na to pytanie

twierdząco. Zakładano, że na najbardziej podstawowym poziomie świat jest ściśle

deterministyczny, a to, że niektóre wydarzenia wydają się nam przypadkowe, jest wyłącznie

wynikiem tego, że nie posiadamy pełnej informacji o danym układzie. Gdybyśmy znali ruchy

poszczególnych atomów - rozumowano - bylibyśmy w stanie przewidzieć nawet rezultat rzutu

monetą. Jego praktyczna nieprzewidywalność bierze się z ograniczoności naszej wiedzy o

świecie. Zachowanie przypadkowe miałoby być cechą układów wysoce niestabilnych, a zatem

zdanych na łaskę nieznacznych fluktuacji sił ze swego otoczenia.

Pogląd ten został powszechnie odrzucony w drugiej połowie lat dwudziestych naszego

stulecia wraz z odkryciem mechaniki kwantowej, dostarczającej opisu zjawisk zachodzących w

skali atomu, w której mamy do czynienia z indeterminizmem na poziomie fundamentalnym.

Jeden z przejawów tego indeterminizmu znany jest jako zasada nieoznaczoności Heisenberga,

nazwana na cześć niemieckiego fizyka, Wernera Heisenberga, jednego z odkrywców mechaniki

kwantowej. Najogólniej mówiąc, stwierdza ona, że wszystkie mierzalne wielkości podlegają

nieprzewidywalnym fluktuacjom, a zatem niemożliwy jest ich pomiar z absolutną dokładnością.

background image

Ta fundamentalna niedokładność da się ująć w sposób ilościowy, jeżeli pogrupujemy

obserwowalne własności cząstki w pary: i tak na przykład parę taką tworzą położenie i pęd, jak

również energia i czas. Zasada nieoznaczoności stwierdza, że jakiekolwiek próby zwiększenia

dokładności pomiaru jednej z wielkości z takiej pary zmniejszają dokładność, z jaką jesteśmy w

stanie znać wartość drugiej. A zatem dokładniejszy pomiar położenia cząstki elementarnej, na

przykład elektronu, prowadzi do zwiększenia nieokreśloności jego pędu, i odwrotnie. Ponieważ

przewidywanie przyszłych stanów jakiegoś układu wymaga znajomości dokładnych położeń i

pędów jego cząstek składowych, zasada nieoznaczoności Heisenberga położyła ostateczny kres

koncepcji, że przyszłość wyznaczona jest dokładnie przez teraźniejszość. Oczywiście, zakłada się

przy tym, że nieoznaczoność kwantowa jest rzeczywistą immanentną cechą przyrody, a nie

wynikiem działania ukrytych czynników deterministycznych. Wiele kluczowych eksperymentów,

jakie przeprowadzono dla sprawdzenia tej tezy w ostatnich latach, potwierdziło, że

nieoznaczoność należy do istoty układów kwantowych. Wszechświat na swym najbardziej

fundamentalnym poziomie ma charakter indeterministyczny.

Czy miałoby to oznaczać, że Wszechświat jest jednak irracjonalny? W żadnym wypadku.

Zachodzi zasadnicza różnica między rolą, jaką odgrywa prawdopodobieństwo w mechanice

kwantowej, a niczym nie ograniczonym chaosem pozbawionego praw świata. Chociaż, ogólnie

rzecz biorąc, przyszłe stany układu kwantowego nie mogą być znane z pewnością, względne

prawdopodobieństwa różnych możliwych stanów są wyznaczone w sposób ścisły. Zatem

możemy podać, jaka jest szansa, że atom będzie się znajdował w stanie wzbudzonym lub nie,

nawet jeżeli niemożliwe jest przewidzenie wyniku w konkretnym przypadku. Te statystyczne

prawidłowości powodują, że na poziomie makroskopowym, gdzie efektów kwantowych w

normalnych warunkach nie obserwuje się, przyroda wydaje się podlegać prawom

deterministycznym.

Zadaniem fizyka jest poszukiwanie regularności w przyrodzie i ujmowanie ich w proste

koncepcje matematyczne. Pytanie, dlaczego w ogóle występują regularności i dlaczego dają się

one prosto wyrażać za pomocą matematyki, wykracza poza zakres fizyki i należy do metafizyki.

background image

Metafizyka: komu jest ona potrzebna?

Termin „metafizyka” w filozofii greckiej oznaczał pierwotnie „to, co następuje po

fizyce”. Wiązało się to z faktem, iż pisma Arystotelesa dotyczące metafizyki znajdowały się, nie

opatrzone tytułem, po jego traktacie o fizyce. Jednak wkrótce terminem tym zaczęto oznaczać

wszelką tematykę wykraczającą poza fizykę (dzisiaj powiedzielibyśmy: poza nauki

przyrodnicze), a mimo to mającą znaczenie dla badań naukowych. Tak więc metafizyka oznacza

tematykę dotyczącą fizyki (czy też ogólnie nauki) w odróżnieniu od tematyki samej nauki.

Tradycyjne kwestie metafizyczne obejmują pochodzenie, naturę i sens Wszechświata, problem

relacji świata przedstawień, dostępnego naszym zmysłom, do ukrytego porządku świata

„prawdziwego”, związek pomiędzy umysłem a materią, oraz problem wolnej woli. Kwestie te są

w oczywisty sposób istotne dla nauki, lecz podobnie jak w przypadku pytań o sens życia nie

można na nie udzielić odpowiedzi odwołując się wyłącznie do badań empirycznych.

U progu dziewiętnastego wieku cały gmach metafizyki uległ zachwianiu po krytycznych

analizach Davida Hume'a i Immanuela Kanta. Filozofowie ci podali w wątpliwość nie tylko

konkretne systemy metafizyczne jako takie, lecz zakwestionowali zarazem samą sensowność

metafizyki. Hume dowodził, że sens można przypisać jedynie ideom, które biorą swój początek

bezpośrednio z obserwacji świata lub z systemów dedukcyjnych, jak matematyka. Pojęć takich

jak „rzeczywistość”, „umysł”, czy też „substancja”, które miałyby wykraczać poza obiekty

dostępne naszym zmysłom, Hume nie akceptował jako pozbawionych sensu obserwacyjnego.

Odrzucał również wszelkie pytania o celowość i sens Wszechświata, czy też miejsce w nim

człowieka, ponieważ uważał, że żadnej z tych kwestii nie da się sensownie powiązać z rzeczami,

które faktycznie jesteśmy w stanie obserwować. Ten kierunek filozoficzny znany jest jako

„empirycyzm”, ponieważ uznaje się w nim fakty empiryczne za podstawę poznania.

Kant akceptował tezę empirystów, że wszelka wiedza wychodzi od naszego

doświadczenia świata, lecz, jak już wspomniałem, uważał jednocześnie, iż ludzie posiadają

pewną wiedzę wrodzoną, która jest niezbędnym warunkiem możliwości jakiegokolwiek

myślenia. Zatem w procesie myślenia zbiegają się dwie składowe: dane zmysłowe i wiedza a

priori. Kant zastosował swą teorię do zbadania granic tego, co ludzie z samej istoty swoich

zdolności obserwowania i rozumowania mogą mieć nadzieję poznać w ogóle. Jego krytyka

metafizyki polegała na tym, że nasze myślenie może odnosić się jedynie do obszaru

background image

doświadczenia, do świata zjawiskowego, który faktycznie obserwujemy. Nie mamy żadnych

podstaw, by zakładać, że mogłoby się ono odnosić do hipotetycznej dziedziny wykraczającej

poza rzeczywistość zjawisk. Innymi słowy, nasze myślenie odnosi się do rzeczy-jak-je-widzimy,

natomiast nie jest w stanie powiedzieć nam niczego o rzeczach-samych-w-sobie. Jakakolwiek

próba spekulowania o „rzeczywistości” leżącej poza obiektami jezpośredniego doświadczenia

skazana jest na niepowodzenie.

Jakkolwiek po tych atakach snucie teorii metafizycznych stało się liemodne, część

filozofów i przyrodników nadal zajmowała się rozważaniami, co naprawdę kryje się pod

powierzchnią zjawisk świata fenomenalnego. W ostatnim czasie wiele odkryć w dziedzinie fizyki

teoretycznej, kosmologii i teorii komputerów doprowadziło io zwiększenia zainteresowania

niektórymi kwestiami tradycyjnie należącymi do metafizyki. Badania nad „sztuczną inteligencją”

ożywiły dyskusję nad problemem wolnej woli i relacji umysł-ciało. Odkrycie Wielkiego

Wybuchu zrodziło pytanie o sposób, w jaki fizyczny Wszechświat w ogóle zaistniał. Mechanika

kwantowa wydobyła na jaw skomplikowany charakter związków obserwatora z tym, co podlega

obserwacji. Teoria chaosu ujawniła, że relacje pomiędzy trwałością a zmianą bynajmniej nie są

proste.

Ponadto wśród fizyków pojawiła się koncepcja Teorii Wszystkiego - połączenia

wszystkich praw fizyki w ramach jednego, opartego na matematyce, systemu pojęciowego.

Skupiono także uwagę na istocie samych praw fizyki. Dlaczego przyroda wybrała jeden

konkretny zbiór praw zamiast innego? Dlaczego dają się one wyrazić w kategoriach matematyki?

Czy prawa, jakie faktycznie obserwujemy, są w jakiś sposób wyróżnione? Czy mogliby istnieć

rozumni obserwatorzy we Wszechświecie opisywanym przez jakiś inny zestaw praw?

Termin „metafizyka” zaczął oznaczać „teorie o teoriach” fizycznych. Nagle stały się

modne rozważania o „klasach praw” zamiast rzeczywistych praw rządzących naszym

Wszechświatem. Poświęcano uwagę hipotetycznym wszechświatom o własnościach zupełnie

odmiennych od naszego, starając się stwierdzić, czy nasz Wszechświat jest w jakikolwiek sposób

wyróżniony. Pewni teoretycy rozpatrywali możliwość istnienia „praw dotyczących praw”, które

pozwalałyby „wybrać” prawa naszego Wszechświata spośród szerszej ich klasy. Niektórzy

skłonni byli nawet przyjąć, że owe inne wszechświaty, rządzące się odmiennymi prawami,

realnie istnieją.

W samej rzeczy, w tym sensie fizycy uprawiali metafizykę od dawna. Praca fizyka

background image

teoretycznego polega miedzy innymi na badaniu pewnych wyidealizowanych modeli

matematycznych, które miałyby odawać jedynie pewne wąskie aspekty rzeczywistości, i to

często jedynie w sposób symboliczny. Modele te odgrywają rolę „wszechświatów-zabawek”,

które bada się dla nich samych, niekiedy jako ćwiczenie umysłu, lecz częściej, by rzucić nieco

światła na świat rzeczywisty poprzez znalezienie pewnych cech, które byłyby wspólne różnym

modelom. Nazwy tych wszechświatów-zabawek często pochodzą od nazwisk ich twórców.

Mamy zatem model Thirringa, model Sugawary, model Tauba-NUT, maksymalnie rozciągły

wszechświat Kruskala, i tak dalej. Teoretycy zajmują się nimi ze względu na to. że w

przeciwieństwie do modeli bardziej realistycznych zazwyczaj dają się one ściśle wyrazić

matematycznie. Moja własna praca około dziesięciu lat temu była w znacznej części poświęcona

badaniu efektów kwantowych w modelach Wszechświata o jednym zamiast trzech wymiarów.

Miało to na celu uczynienie rozważanych problemów łatwiejszymi. Założeniem było, że niektóre

z istotnych własności modelu jednowymiarowego powinny się zachować również w modelach

trójwymiarowych. Nikt nie wysuwał tezy, iż Wszechświat miałby być naprawdę

jednowymiarowy. Wraz z moimi współpracownikami badałem owe hipotetyczne światy, by

zdobyć wiedzę o własnościach pewnego typu praw fizycznych, własnościach, które mogłyby się

również odnosić do praw rządzących rzeczywistym Wszechświatem.

background image

Czas i wieczność: fundamentalny paradoks istnienia

„Myślę, więc jestem”. Tymi sławnymi słowami siedemnastowieczny filozof Rene

Descartes wyraził to, co uważał za podstawową wypowiedź o rzeczywistości, z którą każdy

myślący człowiek może się zgodzić. Najbardziej pierwotnym doświadczeniem jest

doświadczenie naszego własnego istnienia. Jednakże nawet w tej bezdyskusyjnej tezie zawarte

jest jądro paradoksu, który uparcie przewija się w dziejach ludzkiej myśli. Bycie jest pewnym

stanem, zaś myślenie procesem. Kiedy myślę, stan mojego umysłu zmienia się z upływem czasu.

Niemniej jednak „ja”, będące podmiotem tego stanu, pozostaje to samo. Jest to prawdopodobnie

najstarszy z problemów metafizycznych omawianych w tej książce, i to on właśnie ujawnił się

ponownie z pełną mocą we współczesnej metodologii nauki. Jakkolwiek doświadczenie

własnego „ja” jest naszym doświadczeniem pierwotnym, doświadczamy również świata

zewnętrznego i przenosimy na niego tę samą paradoksalną opozycję procesu i bycia; tego, co

wydarza się w czasie, i tego, co pozaczasowe. Z jednej strony, świat ciągle istnieje; z drugiej

strony, nieustannie się zmienia. Stałych punktów odniesienia doszukujemy się nie tylko w swej

podmiotowej niezmienności, lecz zarazem w trwałości rzeczy i własności należących do

otaczającego nas świata. Tworzymy pojęcia takie jak „człowiek”, „drzewo”, „góra”, „słońce”.

Nawet jeżeli zdajemy sobie sprawę, że obiekty nie są wieczne, charakteryzują się one pewną

trwałością, która umożliwia traktowanie ich jako odrębnych bytów. Jednakże na tło tego niby-

trwałego bycia nakłada się ustawiczna zmiana. Wszystko jest procesem. Teraźniejszość ginie w

mroku przeszłości, a przyszłość „nastaje”: mamy tu fenomen stającego-się-bytu. „Istnieniem”

nazywamy właśnie to paradoksalne zespolenie bycia i stawania się.

Człowiek, być może z powodów psychologicznych, lękając się swej własnej

śmiertelności, niestrudzenie poszukuje trwałych aspektów rzeczywistości. Ludzie rodzą się i

umierają, drzewa rosną i usychają, nawet góry podlegają stopniowej erozji, a obecnie wiemy, że

nawet słońce nie będzie świeciło wiecznie. Czy istnieje cokolwiek autentycznie stałego, na czym

można by polegać? Był czas, że za niezmienne uznawane były niebiosa, a słońce i gwiazdy miały

trwać z wieczności w wieczność. Lecz teraz wiemy, że obiekty astronomiczne nie istniały od

zawsze, ani nie będą trwać w nieskończoność. Astronomowie odkryli, że w rzeczywistości cały

Wszechświat podlega ewolucji.

Czy istnieje zatem coś absolutnie stałego? W poszukiwaniu odpowiedzi na to pytanie

background image

nasza myśl nieuniknienie zwraca się od świata tego, co fizyczne i materialne, w dziedzinę

mistyki i abstrakcji. Pojęcia takie jak „logika”, „liczba”, „dusza” czy też „Bóg” pretendowały

wielokrotnie w dziejach do roli podstawy wizji rzeczywistości, którą można by uznać za trwałą.

Ale w każdym przypadku pojawia się ten nieznośny paradoks istnienia: w jaki sposób

zakotwiczyć zmienny świat percepcji w niezmiennym świecie abstrakcyjnych pojęć?

Już u zarania systematycznej filozofii, w starożytnej Grecji, z dychotomią tą zmierzył się

Platon, dla którego prawdziwą rzeczywistość stanowił transcendentny świat niezmiennych,

abstrakcyjnych Idei czyli doskonałych Form, dziedzina relacji matematycznych i wzorcowych

struktur geometrycznych. Miała to być dziedzina czystego bytu, niedostępna zmysłom. Zmienny

świat naszego bezpośredniego doświadczenia - świat stawania się - był dla niego czymś ulotnym,

efemerycznym, iluzorycznym. Świat obiektów materialnych miał być zaledwie bladym odbiciem

czy też naśladownictwem świata idealnych Form. Platon ilustrował zależność między tymi

dwoma światami za pomocą metafory. Wyobraźmy sobie, że jesteśmy uwięzieni w jaskini

plecami do światła. Obiekty przesuwające się przed wejściem jaskini rzucają cień na jej ścianę.

Cienie te byłyby niedoskonałym odwzorowaniem prawdziwych form. Platon przyrównywał świat

naszych doznań zmysłowych właśnie do świata cieni na ścianie jaskini. Jedynie niezmienny świat

Idei „rozświetlony był słońcem rozumu”.

Platon wykoncypował dwa bóstwa, które miałyby rządzić tymi światami. U szczytu

świata idealnych Form było Dobro, wieczny i niezmienny byt, istniejący poza przestrzenią i

czasem. Zamknięty w półrzeczywistym, zmiennym świecie obiektów i sił materialnych był

natomiast tak zwany Demiurg, którego zadaniem było wprowadzanie w istniejącą materię

porządku, posługując się Formami jako czymś w rodzaju matrycy czy też planu. Jednak, będąc

dalekim od doskonałości, tak ukształtowany świat nieustannie rozpada się i wymaga stałych

wysiłków twórczych Demiurga. W ten sposób powstaje zmienność świata naszych wrażeń

zmysłowych. Platon był świadom fundamentalnej opozycji między byciem a stawaniem się,

między pozaczasowymi, wiecznymi Formami a zmiennym światem ludzkiego doświadczenia,

lecz nie uczynił żadnego poważnego wysiłku, aby je pogodzić. Zadowolił się jedynie nadaniem

temu drugiemu statusu częściowo iluzorycznego, uznając, że wyłącznie to, co pozaczasowe i

wieczne, ma prawdziwą wartość.

Uczeń Platona, Arystoteles, odrzucał koncepcję bytujących poza czasem form,

konstruując w ich miejsce obraz świata jako żywego organizmu, który tak jak embrion

background image

ukierunkowany jest w swym rozwoju ku ostatecznemu celowi. Według niego, kosmos jest

przeniknięty celowością i popychany ku swemu przeznaczeniu przez przyczyny celowe. Każdy

obiekt przyrody ożywionej wyposażony jest w duszę, która kieruje jego celową działalnością,

lecz Arystoteles uważał te dusze za immanentne składowe samych organizmów, a nie byty

transcendentne w sensie platońskim. W tej animistycznej wizji Wszechświata nacisk położony

został na proces dokonujący się poprzez celowo zorientowane zmiany. Zatem moglibyśmy

przyjąć, że, w przeciwieństwie do Platona, Arystoteles daje pierwszeństwo stawaniu się nad

byciem. Niemniej jednak jego świat nadal stanowił paradoksalne połączenie tych dwóch

przeciwieństw. Cele, ku którym zmierzała ewolucja bytów, były niezmienne; to samo dotyczyło

dusz. Ponadto wszechświat Arystotelesa, jakkolwiek oparty na ciągłym rozwoju, nie miał

początku w czasie, zawierając obiekty - ciała niebieskie - które były „odwieczne, niezniszczalne i

wiekuiste”, poruszające się w nieskończoność po ustalonych, doskonałych orbitach kołowych.

Tymczasem na Bliskim Wschodzie powstała judaistyczna wizja świata, oparta na

przymierzu Jahwe z narodem wybranym Izraela. Tutaj nacisk położono na objawianie się Boga w

dziejach, tak jak zostało ono przedstawione w relacjach historycznych Starego Testamentu,

znajdując swój najpełniejszy wyraz w Księdze Rodzaju, poprzez zawarty w niej opis stworzenia

świata przez Boga w pewnym określonym momencie w przeszłości. Mimo to Żydzi głosili, że

ich Bóg jest niezmienny i transcendentny. I w tym przypadku nie uczyniono żadnej poważnej

próby, by rozwikłać nieunikniony paradoks, iż niezmienny Bóg zmienia swe celowe działania w

zależności od okoliczności historycznych.

Na usystematyzowaną wizję świata podejmującą w istotny sposób kwestię paradoksów

związanych z czasem trzeba było czekać aż do piątego wieku przed naszą erą, kiedy to pojawiły

się prace św. Augustyna z Hippony. Augustyn uznawał czas za składnik świata fizycznego -

część stworzenia, więc zdecydowanie umieścił Stwórcę poza strumieniem czasu. Idea poza

czasowego Bóstwa nie dawała się jednak łatwo pogodzić z doktryną chrześcijańską. Szczególne

trudności wiązały się w tym przypadku ze zbawczą misją Chrystusa: Cóż miałoby to oznaczać, że

pozaczasowy Bóg dokonuje wcielenia i umiera na krzyżu w konkretnym czasie historycznym?

Jak można pogodzić Bożą niepodatność na wpływy z cierpieniem, jakie stało się udziałem

Chrystusa? Dyskusja ta została podjęta ponownie w trzynastym wieku, kiedy to w nowo

powstałych uniwersytetach w Europie pojawiły się przekłady prac Arystotelesa, oddziałując

głęboko na ówczesną myśl filozoficzną. Młody dominikanin z Paryża, Tomasz z Akwinu,

background image

postawił sobie za cel pogodzenie religii chrześcijańskiej z greckimi wzorcami racjonalnego

filozofowania. Sformułował on ideę trancendentnego Boga bytującego na podobieństwo

platońskich idei poza przestrzenią i czasem. Opisał następnie Boga za pośrednictwem szeregu

dobrze określonych przymiotów - jako byt doskonały, prosty, pozaczasowy, wszechmocny i

wszechwiedzący, próbując udowodnić ich konieczny i niesprzeczny charakter na drodze

logicznej, podobnie jak w przypadku twierdzeń geometrii. Chociaż jego prace wywarły wielki

wpływ, Akwinata i jego zwolennicy mieli ogromne trudności w określeniu związków tego

abstrakcyjnego, niezmiennego Boga z zależnym od czasu światem fizycznym oraz Bogiem

będącym obiektem czci i wiary chrześcijańskiej. Ten i inne jeszcze problemy doprowadziły do

potępienia prac Tomasza przez biskupa Paryża, jakkolwiek został on później oczyszczony z

zarzutów i w końcu kanonizowany.

Nelson Pike w swojej książce God and Timelessness [Pozaczasowy Bóg] po

wyczerpującym przestudiowaniu tego zagadnienia dochodzi do wniosku: „Powziąłem teraz

podejrzenie, iż doktryna o pozaczasowości Boga została wprowadzona do teologii

chrześcijańskiej, ponieważ filozofia platońska była w owym czasie modna, a doktryna ta

wydawała się bardzo korzystna z punktu widzenia elegancji systemu. Gdy raz została

wprowadzona, zaczęła później żyć swym własnym życiem”. Filozof John O'Donnell wyciągnął

ten sam wniosek; jego książka Trinity and Temporality [Trójca a czas] podejmuje sprawę

konfliktu pomiędzy platońska pozaczasowością a judeochrześcijańską historycznością: „Skłonny

jestem przypuszczać, że w miarę jak rozwijały się kontakty chrześcijaństwa z myślą helleńską

(...), usiłowało ono stworzyć syntezę, która miała wewnętrzne pęknięcie dokładnie w tym

miejscu. (...) Ewangelia w połączeniu z pewnymi hellenistycznymi tezami o naturze Boga

prowadziła w ślepe zaułki, z których Kościół musiał się potem wywikływać”. Do sprawy tych

„ślepych zaułków” powrócimy w rozdziale 7.

Średniowieczna Europa była świadkiem powstania nowożytnej nauki i związanego z nią

całkiem nowego sposobu spojrzenia na świat. Uczeni, tacy jak Roger Bacon i, później, Galileo

Galilei, podkreślali wagę zdobywania wiedzy poprzez dokładne, ilościowe eksperymenty i

obserwacje. Dokonywali oni rozdziału między Człowiekiem i przyrodą, pojmując eksperyment

na kształt dialogu z przyrodą, w którym ujawnia ona swe sekrety. Racjonalny porządek przyrody,

sam w sobie pochodzący od Boga, przejawiał się, ich zdaniem, w postaci ścisłych praw. Tak oto

echo niezmiennego, pozaczasowego Boga Platona i Akwinaty wkracza do nauki w postaci

background image

wiecznych praw - koncepcji, która osiągnęła najdoskonalszą formę w monumentalnym dziele

Izaaka Newtona w siedemnastym wieku. W fizyce newtonowskiej czyni się wyraźne

rozróżnienie między stanami świata, które zmieniają się z chwili na chwilę, rządzącymi nimi

prawami, które pozostają niezmienne. Jednak znowu natykamy się tu na trudność pogodzenia

bycia i stawania , gdyż nie potrafimy wyjaśnić upływu czasu w świecie opartym pozaczasowych

prawach. Stanowi to zagadnienie tak zwanej „strzałki czasu”, które miało odtąd trapić fizykę i

jest przedmiotem dyskusji i intensywnych badań do dnia dzisiejszego. Żadna próba opisania

świata, czy to na gruncie naukowym czy logicznym, nie może być uznana za udaną, dopóki nie

wyjaśni paradoksalnego związku zmienności i trwania, bycia i stawania się, w żadnej tematyce

opozycja ta nie znajduje bardziej jaskrawego wyrazu niż w zagadnieniu początku Wszechświata.

background image

Rozdział drugi

CZY WSZECHŚWIAT MOŻE STWORZYĆ SAM SIEBIE?

Zadaniem nauki jest ustalenie, w jaki sposób zaistnial Wszechświat.

John Wheeler

Zazwyczaj uważamy, że przyczyny poprzedzają powodowane przez siebie skutki. Jest

zatem naturalne, iż próbujemy wyjaśnić Wszechświat poprzez odwołanie się do sytuacji we

wcześniejszych stadiach jego rozwoju. Jednakże, nawet gdyby się nam udało uzasadnić obecny

stan Wszechświata poprzez stan, w jakim się on znajdował, powiedzmy, miliard lat temu, czy

osiągnęlibyśmy przez to cokolwiek poza przesunięciem tajemnicy o miliard lat wstecz? Przecież

z pewnością próbowalibyśmy wtedy uzasadnić stan Wszechświata przed miliardem lat poprzez

jego stan w jeszcze wcześniejszej epoce, i tak dalej. Czy ten ciąg przyczyn i skutków ma jakiś

kres? Przekonanie, że „to wszystko nie mogło powstać samo z siebie”, jest głęboko zakorzenione

w kulturze zachodniej. Ponadto powszechnie zakłada się, iż to „coś” wykracza poza dziedzinę

badań naukowych i ma w tym czy innym sensie charakter nadnaturalny. W tym toku

rozumowania powiada się, że naukowcy potrafią niewątpliwie bardzo przemyślnie uzasadnić

wiele rzeczy; być może uda im się kiedyś wyjaśnić cały świat fizyczny, lecz w swoim łańcuchu

uzasadniania muszą dojść do punktu, poza który nauka nie może się posunąć. Ten punkt to

stworzenie Wszechświata jako całości, ostateczny początek świata fizycznego.

Jest to tak zwany argument kosmologiczny, który, w tej czy innej formie, był często

przytaczany przy udowadnianiu istnienia Boga. W przeciągu wieków był on stale udoskonalany i

dyskutowany przez teologów i filozofów, niejednokrotnie w bardzo wyrafinowany sposób.

Zagadnienie początku Wszechświata jest chyba jedynym obszarem, gdzie uczony o poglądach

ateistycznych nie czuje się zbyt pewnie. Wnioski z argumentu kosmologicznego były, moim

zdaniem, trudne do zakwestionowania aż do ostatnich lat, kiedy to podjęto poważną próbę

wyjaśnienia początków Wszechświata w ramach fizyki. Od razu zaznaczę, że to konkretne

rozwiązanie nie musi wcale być słuszne. Niemniej jednak sądzę, iż nie w tym rzecz. Chodzi o

to,czy do powstania Wszechświata konieczny był jakiś nadnaturalny t stwórczy czy też nie. Jeżeli

jesteśmy w stanie stworzyć sensowną naukową wyjaśniającą powstanie fizycznego

background image

Wszechświata, to przynajmniej wiemy, że naukowe rozwiązanie tej kwestii jest może,

niezależnie od słuszności tej konkretnej teorii.

background image

Czy w dziejach świata miało miejsce stworzenie?

We wszelkich dyskusjach dotyczących początku Wszechświata przyjmowane jest

założenie, że Wszechświat faktycznie miał początek. Tymczasem koncepcja czasu przyjmowana

w większości starożytnych kultur głosiła, iż świat nie miał początku, lecz podlega powtarzającym

się bez końca cyklom. Ciekawe jest prześledzenie, jak zrodziły się idee tego typu. Plemiona

prymitywne żyły w ścisłej styczności z przyrodą, gdyż ich przetrwanie zależało od rytmu pór

roku i innych okresowych zjawisk przyrody. Na przestrzeni wielu pokoleń warunki życia

praktycznie pozostawały niezmienne, zatem objęcie nieodwracalnej zmiany czy też postępu

dziejów było im zupełnie obce. Pytania o początek i koniec świata nie mieściły się w ich

koncepcji rzeczywistości; zajmowali się za to mitami wyrażającymi powtarzalność zjawisk

przyrody i potrzebę zjednywania związanych z nimi bóstw, aby zapewnić sobie pomyślność i

obfite plony. [Powstanie wielkich cywilizacji starożytnych w Chinach i na bliskim Wschodzie nie

wpłynęło w znaczący sposób na zmianę tych poglądów. Stanley Jaki, należący do zgromadzenia

benedyktynów uczony węgierskiego pochodzenia, posiadający stopień doktora [zarówno z fizyki,

jak i z teologii, który przeprowadził szczegółowe badania dawnych cyklicznych koncepcji świata,

zwrócił uwagę na fakt, że system dynastyczny w Chinach odzwierciedlał brak zainteresowania

postępem historii: „Rachuba czasu w Chinach rozpoczynała się od nowa z nastaniem każdej

kolejnej dynastii, co świadczy o tym, że Chińczycy pojmowali czas na sposób cykliczny, a nie

linearny. Faktycznie, wszelkie wydarzenia z dziedziny polityki cultury układały się w ich

mniemaniu w swego rodzaju cykle, Idące odbiciem ścierania się dwóch podstawowych sił

Wszechświata, Yin i Yang. (...) Sukcesy występowały na przemian z porażkami, a po każdym

wzroście następował upadek”.

System hinduski składał się z niezmiernie długich cykli, powiązanych w jeszcze większe

cykle. Licząca cztery jugi mahajuga miała trwać 4,32 miliona lat; tysiąc mahajug tworzyło kalpę,

dwie kalpy stanowiły dzień Brahmy; jeden cykl życia Brahmy składał się ze stu lat bramińskich,

co odpowiadało mniej więcej 311 bilionom lat! Jak przyrównuje hinduski system cykli

czasowych do wiecznego kieratu, z którego nie można się wyzwolić, jego hipnotyczny wpływ

przyczynił się znacznie do tego, co określa on jako charakterystyczne dla hinduskiej kultury

przygnębienie i brak nadziei. Podobna cykliczność i związany z nią fatalizm występowała

również w kosmologiach Babilończyków, Egipcjan i Majów. Jaki przytacza historię Itza, dobrze

background image

uzbrojonego plemienia Majów, które w 1698 roku bez walki poddało się niewielkiemu

kontyngentowi wojsk hiszpańskich, poinformowawszy osiemdziesiąt lat wcześniej dwóch

hiszpańskich misjonarzy, że data ta oznacza dla nich początek ery klęski.

Filozofia grecka również podtrzymywała koncepcję odwiecznych cykli, lecz w

przeciwieństwie do fatalistycznej beznadziei nieszczęsnych Majów, Grecy uważali, że ich kultura

stanowi ukoronowanie cyklu - szczyt postępu. Cykliczne pojmowanie czasu u Greków zostało

przejęte przez Arabów, którzy stali się depozytariuszami kultury greckiej, zanim przekazali ją

później, w średniowieczu, chrześcijaństwu. Wiele z poglądów na świat występujących obecnie w

kulturze europejskiej wzięło swój początek z owej potężnej konfrontacji, która wtedy nastąpiła,

pomiędzy filozofią grecką a tradycją judeochrześcijańską. Nie ulega wątpliwości, że dla doktryn

judaizmu i chrześcijaństwa kluczowy jest fakt, iż świat został stworzony przez Boga w

określonym konkretnym momencie w przeszłości i wszystko, co nastąpiło później, układa się w

jednokierunkowy, postępujący ciąg. Religie te nadają historii sens właśnie poprzez wyznaczenie

ciągu istotnych momentów dziejowych - grzechu pierworodnego, przymierza, wcielenia i

zmartwychwstania, oraz powtórnego przyjścia - co stoi w wyraźnej sprzeczności z grecką

koncepcją wiecznych powrotów. Starając się propagować liniową, a nie cykliczną, wizję czasu,

pierwsi Ojcowie Kościoła, pomimo uznania, jakie żywili dla myśli greckiej jako takiej,

stanowczo odrzucali koncepcję cyklicznego Wszechświata występującą u pogańskich filozofów

greckich. I tak u Tomasza z Akwinu znajdujemy zarówno pochwały dla siły argumentów

Arystotelesa na rzecz odwiecznego istnienia świata, jak i wezwania, aby wierzyć, że

Wszechświat miał swój początek, gdyż tak podaje Biblia. Kluczowym elementem

juedeochrześcijańskiej doktryny o stworzeniu jest to, że Stwórca jest całkowicie odrębny i

niezależny od świata stworzonego; to znaczy, istnienie Boga nie zapewnia automatycznie

istnienia świata, jak to ma miejsce w niektórych wierzeniach pogańskich, gdzie świat fizyczny

stanowi emanację Boga jako konieczne dopełnienie jego bytu. Przeciwnie, świat zostaje

powołany do istnienia w określonym momencie czasu w wyniku mającego nadnaturalny

charakter stworzenia jako celowa decyzja istniejącego wcześniej Boga.

Jakkolwiek ta koncepcja stworzenia nie wydaje się skomplikowana, była ona w ciągu

wieków przedmiotem zażartych sporów doktrynalnych, po części dlatego, że starożytne teksty, w

których się ona pojawia, są niebyt konkretne. Przykładem może tu być biblijny opis stworzenia

świata w Księdze Rodzaju, w znacznej mierze oparty na wcześniejszych bliskowschodnich

background image

mitach o stworzeniu, który zawiera wiele pięknych sformułowań poetyckich, lecz niewiele

konkretów. Nie jesteśmy na jego podstawie w stanie rozstrzygnąć, czy Bóg jedynie stwarza

porządek w ramach pierwotnego chaosu, stwarza materię i światło w istniejącej pustce, czy też

akt stworzenia ma charakter jeszcze bardziej fundamentalny. Takie niewygodne pytania można

mnożyć dalej. Czym zajmował się Bóg, zanim stworzył świat? Dlaczego stworzył go w tym, a

nie innym, momencie? Jeżeli Bóg mógł istnieć odwiecznie bez świata, co skłoniło go do podjęcia

decyzji o jego stworzeniu?

Pismo św. pozostawia w tych kwestiach wiele miejsca na interpretację. I takie

interpretacje istotnie powstały. Chrześcijańska doktryna o stworzeniu świata ukształtowała się

faktycznie w znacznej części długo po powstaniu Księgi Rodzaju, pod wpływem zarówno myśli

greckiej, jak i judaistycznej. Z naukowego punktu widzenia szczególnie istotne są dwie kwestie:

pierwsza to relacja Boga i czasu, druga to relacja Boga i materii.

Wszystkie wielkie religie Zachodu uważają Boga za byt wieczny, lecz słowo „wieczny”

można rozumieć na dwa różne sposoby. Z jednej strony, może ono wyrażać fakt, że Bóg istnieje

od nieskończenie dawna i będzie istniał w nieskończoność w przyszłości; z drugiej strony może

oznaczać, że Bóg bytuje całkowicie poza czasem. Jak wspomniałem w rozdziale 1, św. Augustyn

skłaniał się ku temu drugiemu poglądowi, gdy twierdził, że Bóg stworzył świat „wraz z czasem, a

nie w czasie”. Przez uczynienie czasu częścią fizycznego świata, zamiast sceną, na której

dokonuje się akt stworzenia tego świata, i usunięcie Boga całkowicie poza jego obręb, Augustyn

zręcznie uniknął problemu, co działo się z Bogiem, zanim stworzył świat.

Jednak miało to swoją cenę. Siła argumentu „to wszystko nie mogło powstać samo z

siebie” jest oczywista dla każdego. W siedemnastym wieku modny był pogląd, że Wszechświat

jest gigantycznym mechanizmem, który został wprawiony w ruch przez Boga. Także obecnie

wielu ludzi skłania się ku pojmowaniu Boga jako Pierwszego Poruszyciela czy też Pierwszej

Przyczyny w kosmicznym ciągu przyczyn i skutków. Ale w jakim sensie Bóg bytujący poza

czasem mógłby być przyczyną czegokolwiek? Trudność ta powoduje, że zwolennicy koncepcji

pozaczasowego Boga akcentują w większym stopniu jego rolę w zachowywaniu świata

stworzonego w każdym momencie jego istnienia. Nie rozróżnia się w tym przypadku stworzenia

od podtrzymywania w istnieniu: z punktu widzenia pozaczasowego Boga są one tym samym

aktem.

Podobnie stosunek Boga i materii prowadził także do trudności doktrynalnych. Niektóre z

background image

mitów o stworzeniu, na przykład babilońskie, opisują kosmos jako stworzony z pierwotnego

chaosu (słowo „kosmos” oznaczało „porządek” lub „piękno”; to drugie znaczenie przetrwało do

naszych czasów w słowie „kosmetyczny”). Według tego poglądu istnienie materii wyprzedza

nadnaturalny akt stwórczy, który wprowadza w nią ład. Podobna koncepcja pojawiła się w

starożytnej Grecji: demiurg Platona musiał stwarzać świat z już istniejącej materii. Stanowisko to

było podzielane także przez chrześcijańskich gnostyków, którzy uważali materię za siedlisko

zepsucia, a zatem za dzieło szatana, a nie Boga.

W samej rzeczy, posługiwanie się ciągle tym samym słowem „Bóg” w relacjonowaniu

tych sporów może być mylące, zważywszy na wielką różnorodność koncepcji teologicznych,

jakie występowały w dziejach. Wiara w bóstwo, które powołuje Wszechświat do istnienia, a

potem „siada i przypatruje się”, określana jest mianem „deizmu”. W tym przypadku naturę Boga

pojmuje się na kształt wielkiego zegarmistrza, kosmicznego mechanika, który obmyśla i

konstruuje olbrzymi, skomplikowany mechanizm, a następnie wprawia go w ruch.

Przeciwieństwem deizmu jest „teizm”, wiara w Boga jako stworzyciela świata, uczestniczącego

jednak ciągle w jego istnieniu, a w szczególności w życiu ludzi, z którymi utrzymuje stałą relację

osobową, prowadząc ich do zbawienia. Zarówno w deizmie, jak i w teizmie występuje wyraźne

rozgraniczenie Boga i świata, Stwórcy i rzeczy stworzonych. Boga uważa się za całkowicie

odrębnego i transcendentnego wobec świata fizycznego, jakkolwiek odpowiedzialnego za to, co

się w nim dzieje. W systemie znanym pod nazwą „panteizmu” takie rozróżnienie nie występuje;

Bóg zostaje utożsamiony z samym światem: wszystko jest częścią Boga, a Bóg jest we

wszystkim. Istnieje również „panenteizm”, podobny do panteizmu pod tym względem, że świat

jest częścią Boga, lecz nie całym Bogiem. Jedną z metafor jest w tym przypadku pojmowanie

świata jako ciała Boga.

Na koniec trzeba wspomnieć o pewnych uczonych, wysuwających koncepcję bóstwa,

które rozwija się wraz ze Wszechświatem, stając się ostatecznie tak potężne, że przypomina

platońskiego demiurga. Można sobie, na przykład, wyobrazić inteligentną istotę czy też nawet

maszynę, która w swym rozwoju staje się coraz doskonalsza i opanowuje coraz większe obszary

kosmosu, aż jej władza nad materią i energią staje się tak znaczna, że można tę inteligencję

utożsamić z samym światem. Być może taką wszechmocną inteligencję rozwiną w przyszłości

nasi potomkowie albo też jest ona obecnie udziałem jakichś pozaziemskich cywilizacji. Możliwe

jest pomyślenie ewolucyjnego procesu, w którym zlewają się z sobą dwie lub więcej odrębne

background image

inteligencje. Takie idee były wysuwane przez astronoma Freda Hoyle'a, fizyka Franka Tiplera i

popularyzatora nauki Isaaca Asimova. „Bóg” w tych koncepcjach ewidentnie nie obejmuje

całego Wszechświata i, jakkolwiek obdarzony jest znaczną potęgą, nie jest wszechmocny, a

zatem nie może być uważany za stwórcę Wszechświata jako całości, a jedynie za

odpowiedzialnego za narzucenie porządku pewnej jego części. (Oczywiście, jeśli nie wprowadzi

się jakiejś niezwykłej możliwości oddziaływania wstecz w czasie, która pozwalałaby owej

superinteligencji na stworzenie świata u jego początku w ramach jakiejś spójnej pętli przyczyn i

skutków. Tego typu elementy pojawiają się u fizyka Johna Wheelera. Możliwość taka była

rozważana także przez Freda Hoyle'a, lecz nie w kontekście uniwersalnego aktu stworzenia

świata).

background image

Stworzenie z niczego

W pogańskich mitach o stworzeniu przyjmuje się istnienie zarówno materii, jak i bóstwa,

a więc są one zasadniczo dualistyczne. W przeciwieństwie do nich Kościół pierwszych

chrześcijan opowiedział się za doktryną „stworzenia z nicości”, zakładającą istnienie tylko Boga.

Przyjmuje się w niej, że Bóg stworzył cały świat z niczego. Powołanie do istnienia wszystkich

rzeczy widzialnych i niewidzialnych zostaje zatem przypisane wolnemu aktowi stwórczemu

Boga. Istotnym elementem tej doktryny jest Boża wszechmoc: moc stwórcza Boga nie podlega

żadnym ograniczeniom, tak jak w przypadku platońskiego demiurga. W istocie, nie tylko Bóg nie

jest ograniczony uprzednim istnieniem materii, lecz także żadnymi istniejącymi prawami fizyki,

ponieważ częścią Jego aktu stwórczego jest właśnie wprowadzenie harmonii i porządku do

świata poprzez ustanowienie tych praw. Gnostycki pogląd, że materia jest siedliskiem zła, zostaje

odrzucony jako niemożliwy do pogodzenia z Wcieleniem Chrystusa. Z drugiej strony, materia

nie jest czymś boskim, jak w koncepcjach panteistycznych, gdzie Bóg jest immanentny w

świecie. Fizyczny Wszechświat - dzieło stwórcze Boga - uważany jest za istniejący odrębnie od

swego Stwórcy.

Znaczenie tego rozróżnienia pomiędzy Stwórcą a jego stworzeniem polega na tym, że

świat stworzony jest zależny w swym istnieniu całkowicie od Stwórcy. Gdyby świat fizyczny

sam w sobie był boskiej natury lub też stanowił jakąś bezpośrednią emanację Stwórcy,

udzielałoby mu się konieczne istnienie Boga. Jednakże, ponieważ został stworzony z niczego, a

sam akt stwórczy był realizacją wolnej woli Boga, istnienie świata nie ma charakteru

koniecznego. Św. Augustyn pisze: „...uczyniłeś coś z niczego. Uczyniłeś niebo nad niebiosami i

ziemię, lecz nie z siebie. Gdybyś je uczynił z siebie, byłyby one równe jednororodzonemu

Synowi Twemu, a więc i Tobie”

2

. Najbardziej oczywistą różnicą pomiędzy Stwórcą a

stworzeniem jest to, że Stwórca jest wieczny, a świat stworzony miał początek.

Wczesnochrześcijański teolog Ireneusz pisał: „Jednakże rzeczy stworzone różne są od Tego,

który je stworzył, i tego, co byłoby uczynione z Tego, który je uczynił. Albowiem On sam nie

jest bytem stworzonym, nie ma początku ani końca i posiada pełnię bytu. On sam istnieje z

konieczności, lecz każda z rzeczy, które uczynił, miała swój początek”.

Odnośnie interpretacji stworzenia, nawet obecnie utrzymują się różnice doktrynalne

pomiędzy głównymi odłamami Kościoła, i jeszcze większe różnice pomiędzy wielkimi religiami

background image

świata. Z jednej strony mamy poglądy chrześcijańskich i islamskich fundamentalistów, oparte na

dosłownym rozumieniu tradycyjnych tekstów religijnych; z drugiej koncepcje radykalnych

myślicieli chrześcijańskich pojmujących stworzenie na sposób całkowicie abstrakcyjny. Niemniej

jednak wszyscy są zgodni, że świat fizyczny sam w sobie jest, w tym czy innym sensie,

niezupełny. Nie jest w stanie sam siebie uzasadnić. Jego istnienie w ostatecznej instancji wymaga

czegoś zewnętrznego wobec niego i może być pojęte wyłącznie jako zależne od jakiejś formy

boskiej interwencji.

background image

Początek czasu

Wracając do poglądów naukowych na początek Wszechświata, można zapytać, na jakiej

podstawie możemy sądzić, że taki początek faktycznie miał miejsce. Z pewnością możliwe jest

wyobrażenie sobie wszechświata o nieskończonym czasie trwania i przez większość ery

nowożytnego rozwoju nauki, dzięki pracom Kopernika, Galileusza i Newtona, naukowcy

faktycznie uważali, że Wszechświat istniał wiecznie. Jednakże przekonanie to związane jest z

pewnymi trudnościami. Newtonowi nie dawały spokoju konsekwencje odkrytego przez niego

powszechnego prawa ciążenia, zgodnie z którym każde ciało materialne przyciąga wszelkie inne

ciała. Zastanawiało go, co sprawia, iż cała materia we Wszechświecie spadając na siebie nie

tworzy jednego wielkiego skupiska. W jaki sposób gwiazdy utrzymują się w przestrzeni bez

żadnego oparcia, nie poddając się działaniu wzajemnego przyciągania grawitacyjnego?

Rozwiązanie Newtona było genialnie proste. Materia Wszechświata skupiłaby się w jego środku

ciężkości, gdyby taki środek faktycznie istniał. Jeśli jednak rozmiary Wszechświata są

nieskończone i gwiazdy są w nim rozmieszczone z jednakową gęstością średnią, to nie ma

wyróżnionego punktu, ku któremu miałyby one spadać. Każda gwiazda przyciągana jest

jednakowo we wszystkich kierunkach, a zatem siły grawitacji wzajemnie się znoszą.

Rozwiązanie to trudno uznać za w pełni zadowalające z powodu jego matematycznej

niejednoznaczności: wszystkie wchodzące tu w grę siły są nieskończenie wielkie. Zatem pytanie,

dlaczego Wszechświat nie kolapsuje, powracało wielokrotnie aż do obecnego stulecia. Było ono

kłopotliwe nawet dla Einsteina. Swoją własną teorię grawitacji (ogólną teorię względności)

prawie bezpośrednio po jej sformułowaniu w 1915 roku „poprawił”, usiłując ją pogodzić z

modelem stabilnego Wszechświata. Poprawka ta polegała na wprowadzeniu dodatkowego członu

w równaniach pola grawitacyjnego reprezentującego siłę odpychającą - coś w rodzaju anty-

grawitacji. Gdyby udało się tak dobrać wielkość tej siły, aby odpowiadała ona oddziaływaniu

grawitacyjnemu wszystkich obiektów Wszechświata, siły przyciągania i odpychania wzajemnie

równoważyłyby się, co prowadziłoby do Wszechświata statycznego. Niestety, otrzymana w ten

sposób równowaga okazała się niestabilna i pod wpływem najmniejszego zaburzenia któraś z sił

uzyskałaby przewagę: Wszechświat albo rozproszyłby się w nieskończoność, albo uległ

kolapsowi.

Problem uniknięcia kolapsu nie był jedyną trudnością, na jaką napotykała koncepcja

background image

istniejącego odwiecznie Wszechświata. Inną był tak zwany paradoks Olbersa, dotyczący wyglądu

nocnego nieba. Polegał on na tym, że jeżeli Wszechświat jest nieskończony, zarówno w

przestrzeni, jak i w czasie, to Ziemia powinna być skąpana w świetle pochodzącym od

nieskończonej liczby gwiazd. Prosty rachunek wykazuje, iż w takim razie niebo w nocy nie

mogłoby być ciemne. Paradoks ten można usunąć poprzez przyjęcie skończonego wieku

Wszechświata, ponieważ wtedy widzimy tylko te gwiazdy, których światło zdążyło dotrzeć do

Ziemi od momentu jego powstania.

Obecnie jest dla nas oczywiste, że i tak żadna gwiazda nie świeci wiecznie, gdyż po

jakimś czasie wyczerpie się jej paliwo. Jest to przykład ogólniejszej zasady: wieczne istnienie

Wszechświata jest nie do pogodzenia z zachodzeniem w nim procesów nieodwracalnych. Jeśli

jakieś układy fizyczne wchodzące w skład Wszechświata podlegają nieodwracalnym zmianom w

skończonym czasie, to zdążyłyby one zajść już dawno temu, a zatem nie byłoby możliwe,

abyśmy mogli procesy tego typu (na przykład świecenie gwiazd) obserwować obecnie.

Tymczasem procesy nieodwracalne występują we Wszechświecie dość powszechnie, co sprawia,

iż pod pewnymi względami można go porównać do nakręconego zegara. Taki zegar po jakimś

czasie musi stanąć, podobnie Wszechświat nie mógł „chodzić” od zawsze, bez potrzeby

„nakręcania”.

Naukowcy zaczęli uświadamiać sobie ten problem w połowie dziewiętnastego stulecia.

Do tej pory fizycy zajmowali się prawami, które są odwracalne w czasie i nie wyróżniają ani

przeszłości, ani przyszłości. Jednakże gdy podjęli badania procesów termodynamicznych,

sytuacja zupełnie się zmieniła. Centralne znaczenie w termodynamice ma jej druga zasada,

zabraniająca, aby ciepło mogło samo z siebie przepływać od ciał zimnych do ciepłych, tak jak

przepływa od ciał ciepłych do zimnych. Prawo to ma charakter nieodwracalny: wskazując jeden

kierunek zmian, narzuca we Wszechświecie strzałkę czasu. Uczeni szybko doszli do wniosku, że

Wszechświat zmierza nieuchronnie do stanu równowagi termodynamicznej. To dążenie do

wyrównania wszelkich różnic temperatury we Wszechświecie i osiągnięcia stanu stabilnego

określono mianem „śmierci cieplnej” Wszechświata. Odpowiada to maksymalnemu

nieuporządkowaniu molekuł, czyli maksimum entropii. Z faktu, że Wszechświat dotąd nie

„umarł”, to znaczy nie osiągnął stanu maksymalnej entropii, wynika, iż nie mógł on istnieć

odwiecznie.

W latach dwudziestych astronomowie stwierdzili, że tradycyjny obraz statycznego

background image

Wszechświata i tak nie jest prawdziwy. Odkryto, że w rzeczywistości Wszechświat się rozszerza,

a galaktyki oddalają się od siebie. Odkrycie to legło u podstaw słynnej hipotezy Wielkiego

Wybuchu, według której Wszechświat zaistniał w określonym momencie przeszłości, około

piętnastu miliardów lat temu, w wyniku potężnej eksplozji. Obserwowana obecnie ekspansja

stanowiłaby pozostałość owego pierwotnego wybuchu. Teorię Wielkiego Wybuchu obwoływano

niejednokrotnie potwierdzeniem biblijnego opisu stworzenia świata w Księdze Rodzaju.

Wspomniał o tym nawet w 1951 roku papież Pius XII w przemówieniu do Papieskiej Akademii

Nauk. Tymczasem analogie tej teorii z biblijną wersją są bardzo powierzchowne i wymagają

traktowania opisu biblijnego w sposób czysto symboliczny. Co najwyżej można stwierdzić, że w

obu przypadkach świat miał początek i było to wydarzenie jednorazowe, a nie stopniowy proces.

Teoria Wielkiego Wybuchu w naturalny sposób eliminuje paradoksy wiecznego

Wszechświata. Ponieważ w tym przypadku wiek Wszechświata jest skończony, występowanie w

nim procesów nieodwracalnych nie powoduje żadnych trudności. Wszechświat w ewidentny

sposób został „nakręcony” na samym początku i obecnie ciągle jeszcze ewoluuje siłą owego

początkowego impulsu. Niebo w nocy jest ciemne, gdyż sięgamy wzrokiem w kosmos jedynie na

skończoną odległość (około piętnastu miliardów lat świetlnych), to znaczy maksymalną

odległość, jaką światło mogło przebyć w drodze do Ziemi od początku Wszechświata. Nie

pojawia się także problem Wszechświata kolapsującego pod wpływem własnej grawitacji. Skoro

galaktyki oddalają się wzajemnie, nie grozi im spadnięcie na siebie, przynajmniej jeszcze przez

jakiś czas.

Jednakże teoria ta, rozwiązując jedne problemy, staje z miejsca wobec innych, z których

jednym z ważniejszych jest, co właściwie spowodowało Wielki Wybuch. W tym miejscu

natykamy się na istotną subtelność co do rozumienia samej natury Wielkiego Wybuchu. Z

niektórych popularnych opracowań można odnieść wrażenie, jak gdyby była to eksplozja bryły

hipergęstej materii znajdującej się w określonym miejscu w istniejącej pustej przestrzeni. Jest to

duże nieporozumienie. Teoria Wielkiego Wybuchu opiera się na ogólnej teorii względności

Einsteina, której jednym z podstawowych wniosków jest, że materia jest nierozerwalnie związana

z przestrzenią i czasem. Związek ten ma niezwykłe istotne następstwa dla zagadnienia początku

Wszechświata. Jeżeli wyobrazimy sobie „kosmiczny film puszczony do tyłu”, to ujrzymy

galaktyki zbliżające się ku sobie, a następnie zlewające w jedną wielką masę. Potem materia

galaktyczna ulega coraz większemu ściśnięciu aż do osiągnięcia stanu o ogromnej gęstości. Gdy

background image

tak coraz bardziej zbliżamy się do momentu zerowego eksplozji, możemy sobie zadawać pytanie,

czy istnieje jakaś graniczna wartość tej gęstości.

Łatwo się przekonać, że nie może być takiej granicy. Wyobraźmy sobie bowiem, iż jest

taka maksymalna wartość gęstości. Pociągałoby to za sobą konieczność istnienia jakiejś siły

odpychającej, zdolnej zrównoważyć ogromną siłę przyciągania grawitacyjnego, w przeciwnym

przypadku grawitacja wzięłaby górę i materia ulegałaby dalszej kompresji. Ponadto ta

przeciwdziałająca siła musiałaby być naprawdę ogromna, jako że siła grawitacji wzrasta

nieograniczenie w miarę postępującej kompresji. Co mogłoby być taką siłą? Może coś w rodzaju

wewnętrznego ciśnienia czy też sprężystości - kto wie, jakie siły występują w materii w tak

ekstremalnych warunkach? Jednakże, mimo iż nie wiemy nic konkretnego o tych siłach, muszą

one podlegać pewnym ogólnym zasadom fizyki. Na przykład, w miarę wzrostu sprężystości

materii rośnie również prędkość rozchodzenia dźwięku wewnątrz niej. Wydaje się oczywiste, że

gdyby sprężystość materii w pierwotnym Wszechświecie stała się wystarczająco wysoka,

prędkość dźwięku przekroczyłaby prędkość światła, co stoi w sprzeczności z teorią względności,

która głosi, że żadne fizyczne oddziaływanie nie może się przenosić z prędkością większą niż

światło. Zatem sprężystość materii nie może rosnąć w nieskończoność i na pewnym etapie

ściskania materii siły grawitacji stałyby się większe niż siły sprężystości, co oznacza, że

sprężystość byłaby niewystarczająca do powstrzymania procesu dalszej kompresji.

Wniosek ten, który wyciągnęliśmy w odniesieniu do sił działających w pierwotnym

Wszechświecie, oznacza, że w warunkach krańcowo wielkiej gęstości, jakie panowały podczas

Wielkiego Wybuchu, nie istniała żadna siła zdolna przeciwstawić się kolapsowi grawitacyjnemu,

a zatem kolaps ten postępowałby w nieskończoność. Jeśli rozkład materii we Wszechświecie jest

jednorodny, to w momencie początkowym musiała być ona nieskończenie ściśnięta; innymi

słowy, cały Wszechświat był ściśnięty do jednego punktu. W punkcie tym zarówno siła

grawitacji, jak i gęstość materii były nieskończone. Taki punkt nazywany jest w fizyce

teoretycznej „osobliwością”.

Jakkolwiek istnienie osobliwości początkowej Wszechświata wynika już z całkiem

elemementarnych rozważań, ścisły dowód wymaga zastosowania wyrafinowanych metod

matematycznych. Został on przeprowadzony przez angielskich fizyków-teoretyków Rogera

Penrose'a i Stephena Hawkinga. W szeregu silnych twierdzeń dowiedli oni, że osobliwości typu

Wielkiego Wybuchu nie da się wyeliminować, jeśli w ekstremalnych warunkach wczesnego

background image

Wszechświata grawitacja nadal pozostaje siłą przyciągającą. Najistotniejszym aspektem ich

pracy jest to, że osobliwość jest nieunikniona nawet w przypadku niejednorodnego rozkładu

materii. Stanowi ona immanentną własność Wszechświata opisywanego przez równania teorii

grawitacji Einsteina, lub, jeśli już o to chodzi, każdej podobnej teorii.

Idea osobliwości początkowej Wszechświata spotkała się ze znacznym sprzeciwem wśród

fizyków i kosmologów, gdy pojawiła się po raz pierwszy. Jeden z powodów tego sprzeciwu

dotyczy wspomnianego faktu, że w ogólnej teorii względności czas, przestrzeń i materia stanowią

nierozerwalną całość. Związek ten ma istotne konsekwencje dla ewolucji rozszerzającego się

Wszechświata. Naiwnie rzecz biorąc, można by sobie wyobrażać galaktyki jako rozbiegające się

w różnych kierunkach w pustej przestrzeni. Jednakże bardziej odpowiada rzeczywistości wizja,

że to sama przestrzeń pęcznieje czy też się rozciąga; to znaczy, galaktyki oddalają się od siebie w

wyniku tego, że przestrzeń pomiędzy nimi się rozszerza. (Czytelników, którym nie przychodzi

łatwo wyobrażenie sobie, jak przestrzeń może się rozszerzać, odsyłam do mojej książki The Edge

of Infinity [Na skraju nieskończoności], gdzie kwestię tę omówiłem bardziej szczegółowo). I

odwrotnie, w przeszłości przestrzeń była skurczona. Jeżeli rozważymy moment, w którym

przestrzeń była nieskończenie ściśnięta, to musiała być też nieskończenie skurczona. Lecz

przestrzeń, która skurczy się nieskończenie, musi dosłownie zniknąć, jak balon, który kurczy się i

ostatecznie znika. A zasadnicza jedność materii, przestrzeni i czasu oznacza, że czas w tym

wypadku znika także. Nie ma czasu bez przestrzeni. W ten sposób osobliwość rozkładu materii

jest zarazem osobliwością czasoprzestrzeni. Wszystkie prawa znanej nam fizyki sformułowane są

w kategoriach przestrzeni i czasu, a zatem nie można ich stosować poza punktem, w którym czas

i przestrzeń przestają istnieć. Tak więc prawa fizyki z konieczności przestają w osobliwości

obowiązywać.

Obraz początku Wszechświata, do jakiego dochodzimy w ten sposób, godny jest uwagi.

W pewnym skończonym momencie przeszłości Wszechświat zawierający przestrzeń, czas i

materię znika w czasoprzestrzennej osobliwości. Tak więc początek Wszechświata oznacza

pojawienie się nie tylko materii, ale również przestrzeni i czasu.

Trudno przecenić znaczenie tego wniosku. Ludzie często pytają: Gdzie nastąpił Wielki

Wybuch? Tymczasem nie mamy tu do czynienia ze zdarzeniem, które zaszło w jakimś punkcie

przestrzeni, lecz ze zdarzeniem, w którego wyniku zaistniała sama przestrzeń. To samo dotyczy

pytania: Co było przed Wielkim Wybuchem? Jedyną możliwą odpowiedzią jest, iż nie było

background image

żadnego „przedtem”, gdyż czas również powstał w momencie Wielkiego Wybuchu. Jak

wspominałem, św. Augustyn już w starożytności głosił, że świat zrodził się wraz z czasem, a nie

w czasie, co odpowiada dokładnie poglądowi współczesnej nauki.

Jednakże nie wszyscy naukowcy skłonni byli się z tym pogodzić. Akceptując fakt

ekspansji Wszechświata, niektórzy kosmologowie usiłowali skonstruować teorie, w których czas

i przestrzeń nie zaczynałyby się w osobliwości.

background image

Cykliczny Wszechświat raz jeszcze

Pomimo zakorzenionej w myśli Zachodu idei stworzonego Wszechświata i liniowego

czasu koncepcja wiecznego powrotu pozostaje stale atrakcyjna. Nawet w obecnych czasach, już

po szerokim uznaniu Wielkiego Wybuchu, pojawiały się próby powrotu do pojęcia cyklicznego

Wszechświata. Jak wspominałem, gdy Einstein formułował ogólną teorię względności,

naukowcy byli przekonani, że Wszechświat jest statyczny, co skłoniło go do wprowadzenia do

swoich równań dodatkowego członu odpowiedzialnego za zrównoważenie oddziaływania

grawitacyjnego. Jednakże mniej więcej w tym samym czasie nieznany rosyjski fizyk-meteorolog

nazwiskiem Aleksander Friedmann zajął się badaniem równań Einsteina i ich znaczenia dla

kosmologii. Udało mu się uzyskać kilka interesujących rozwiązań, z których wszystkie

opisywały Wszechświat bądź to rozszerzający się, bądź to kurczący się. Jeden z układów

rozwiązań odpowiada Wszechświatowi, który zaczyna się Wielkim Wybuchem, podczas

ewolucji jego prędkość rozszerzania stopniowo maleje, a następnie zaczyna z powrotem się

kurczyć. Faza kontrakcji jest dokładnym odwróceniem fazy ekspansji, a zatem kurczenie staje się

coraz szybsze i wreszcie Wszechświat znika w „Wielkim Zgnieceniu” olbrzymiej implozji

będącej odwrotnością Wielkiego Wybuchu. Ten cykl naprzemiennej ekspansji i kontrakcji może

się następnie powtarzać ad infinitum. W 1922 roku Friedmann wysłał opis swego modelu

okresowego Wszechświata Einsteinowi, na którym nie wywarł on większego wrażenia. Dopiero

w parę lat później, gdy Edwin Hubble i inni astronomowie potwierdzili obserwacyjnie, że

Wszechświat naprawdę się rozszerza, prace Friedmanna zyskały należne uznanie.

Rozwiązania Friedmanna nie wymuszają, aby Wszechświat oscylował, na przemian

kurcząc się i rozszerzając. Dopuszczają one również Wszechświat zaczynający się Wielkim

Wybuchem, który rozszerza się bez końca. Która z tych możliwości ostatecznie zostanie

zrealizowana, zależy od tego, ile jest materii we Wszechświecie. Zasadniczo, przy obecności

wystarczającej ilości materii, jej grawitaga powstrzyma ostatecznie ucieczkę galaktyk i

Wszechświat zacznie kolapsować z powrotem. Tak więc kosmiczny kolaps, którego obawiał się

Newton, faktycznie miałby miejsce, jakkolwiek dopiero po upływie wielu miliardów lat. Z

przeprowadzonych pomiarów wynika, że gwiazdy stanowią zaledwie około 1% masy materii

potrzebnej do zapoczątkowania kolapsu Wszechświata. Jednakże istnieją silne dane

obserwacyjne przemawiające za tym, iż we Wszechświecie zawarta jest duża ilość niewidocznej,

background image

tzw. „ciemnej” materii, która byłaby w stanie wyrównać brakującą masę. Naukowcy nie są

wszakże zgodni, co miałoby stanowić te „ciemną materię”.

Jeżeli Wszechświat zawiera wystarczająco wiele materii, aby przejść w fazę kurczenia,

musimy rozważyć możliwość, że jest on Wszechświatem pulsującym. Wiele

popularnonaukowych książek z dziedziny kosmologii omawia taki pulsujący model

Wszechświata, podkreślając, iż jest on zgodny z wizją świata zawartą w hinduizmie i innych

religiach Wschodu uznających koncepcję cyklicznego świata. Czyżby oscylacyjne rozwiązanie

równań Einsteina otrzymane przez Friedmanna stanowiło naukowy odpowiednik starożytnej idei

wiecznego powrotu, a trwający wiele miliardów lat okres od Wielkiego Wybuchu do Wielkiego

Zgniecenia odpowiadał Wielkiemu Rokowi Cyklu Życia Brahmy?

Jakkolwiek analogie te mogą być bardzo pociągające, znikają one przy bliższej analizie.

Po pierwsze, nie mamy tu do czynienia z oscylacjami w matematycznym sensie. Punkty, w

których miałoby następować przejście od Wielkiego Zgniecenia do Wielkiego Wybuchu, są w

istocie osobliwościami, co oznacza, że opisujące ten proces równania przestają w nich

obowiązywać. Aby Wszechświat przeszedł od fazy kurczenia do fazy rozszerzania się nie

napotykając osobliwości, coś musiałoby przeciwstawić się przyciąganiu grawitacyjnemu i

wyrzucić materię ponownie. Krótko mówiąc, takie odbicie byłoby możliwe, gdyby proces

ewolucji zdominowany został przez ogromną siłę odpychającą, nazwijmy ją lewitacyjną, taką,

jaką wprowadził Einstein do swoich równań, lecz o wiele rzędów wielkości większą.

Nawet gdyby okazało się to możliwe, cykliczny charakter modelu dotyczyłby jedynie

zachowania się Wszechświata w wielkiej skali, a nie procesów fizycznych w nim zachodzących.

Nadal obowiązywałoby drugie prawo termodynamiki, wymagające, żeby procesy te powodowały

wzrost entropii, a zatem całkowita entropia Wszechświata wzrastała z cyklu na cykl. Prowadzi to

do dość ciekawego efektu, odkrytego przez Richarda Tolmana w latach trzydziestych. Tolman

stwierdził, że w miarę wzrostu entropii Wszechświata kolejne cykle stają się większe i dłuższe .

W rezultacie okazuje się zatem, że Wszechświat nie jest w ogóle cykliczny w ścisłym sensie. Co

dziwne jednak, pomimo stałego wzrostu entropii, Wszechświat nigdy nie osiągnie stanu

równowagi termodynamicznej - nie istnieje stan o maksymalnej entropii. Po prostu będzie

pulsował bez końca, wytwarzając przez cały czas coraz to więcej entropii.

W latach sześćdziesiątych astronom Thomas Gold sądził, że udało mu się znaleźć

rzeczywiście cykliczny model Wszechświata. Gold wiedział, iż istniejący wiecznie statyczny

background image

Wszechświat nie jest możliwy do utrzymania, ponieważ osiągnąłby on stan równowagi

termodynamicznej w skończonym czasie. Uderzył go fakt, że ekspansja Wszechświata oddala go

od stanu równowagi termodynamicznej poprzez stałe ochładzanie zawartej w nim materii (jest to

znane zjawisko ochładzania substancji przy jej rozprężaniu). Goldowi wydawało się, iż wzrost

entropii Wszechświata można by powiązać z faktem, że się on rozszerza. Jednakże teza ta

prowadzi do paradoksalnego wniosku: gdyby Wszechświat zaczął się kurczyć, wszystkie procesy

zaczęłyby przebiegać w odwrotnym kierunku - entropia spadałaby, a drugie prawo

termodynamiki zostałoby odwrócone. Tak więc, w pewnym sensie, czas zacząłby płynąć do tyłu.

Gold zwrócił uwagę, że odwrócenie to objęłoby wszystkie układy fizyczne, w tym również mózg

i pamięć człowieka, a zatem psychologiczna strzałka czasu również uległaby odwróceniu:

„pamiętalibyśmy” przyszłość, a nie przeszłość. Dla wszelkich istot obdarzonych świadomością,

żyjących w takiej fazie widzianej przez nas jako kurczenie, uległyby odwróceniu także pojęcia

przeszłości i przyszłości, a zatem uważałyby, że to one właśnie znajdują się w fazie rozszerzania,

a z ich punktu widzenia my znajdowalibyśmy się w kurczącym się Wszechświecie (rysunek 3).

Skoro w wyniku tego odwrócenia Wszechświat stałby się doskonale symetryczny względem

czasu, jego stan końcowy, Wielkie Zgniecenie, byłby tym samym co stan początkowy, Wielki

Wybuch. Po utożsamieniu tych zdarzeń czas zamknąłby się w pętlę i Wszechświat można by

uznać za rzeczywiście cykliczny.

Symetryczny względem czasu model Wszechświata rozważany był także przez Johna

Wheelera, który wysunął hipotezę, iż owo odrócenie biegu czasu mogłoby nie następować w

sposób gwałtowny, lecz stopniowo, podobnie jak przejście przypływu w odpływ. Strzałka czasu

nie odwracałaby się nagle w momencie maksymalnej ekspansji, lecz podlegałaby wpierw

wahaniom, stając się coraz bardziej nieokreślona, zanim nastąpiłoby jej faktyczne odwrócenie.

Wheeler spekulował, że w takim przypadku niektóre na pozór nieodwracalne procesy, takie jak

rozpad promieniotwórczy jąder, mogłyby przebiegać wolniej, co poprzedzałoby ich odwrócenie,

sugerując, że porównanie obecnego tempa rozpadu promieniotwórczego z wartościami z odległej

przeszłości pozwoliłoby wykryć oznaki takiego spowolnienia.

Innym zjawiskiem wykazującym wyraźną strzałkę czasu jest emisja promieniowania

elektromagnetycznego. Na przykład, sygnał radiowy zawsze zostaje odebrany po jego wysłaniu,

a nigdy przedtem. Dzieje się tak dlatego, że gdy nadajnik generuje fale radiowe, fale te

rozbiegają się z nadajnika na wszystkie strony i znikają w głębinach Wszechświata. Nigdy nie

background image

zaobserwowano modulowanych fal radiowych dochodzących z obrzeży Wszechświata, które

zbiegałyby się na antenie radiowej. (W terminologii technicznej fale rozbiegające się określa się

jako „retardowane”, a fale zbiegające jako „adwansowane”). Gdyby jednak faktycznie strzałka

czasu uległa odwróceniu w kurczącym się Wszechświecie, kierunek ruchu fal radiowych również

by się odwrócił - zamiast fal retardowanych mielibyśmy wyłącznie fale adwansowane. W

koncepcji Wheelera oznaczałoby to, iż bezpośrednio po Wielkim Wybuchu występowałyby

wyłącznie fale retardowane, lecz w miarę przybliżania się momentu maksymalnej ekspansji

powinno pojawiać się coraz więcej fal adwansowanych. W maksimum - liczba fal

adwansowanych i retardowanych byłaby równa, natomiast po przejściu do fazy kontrakcji

zaczęłyby dominować z kolei fale adwansowane. Jeśli koncepcja ta miałaby być słuszna,

powinniśmy obserwować już w chwili obecnej pewną niewielką liczbę fal adwansowanych.

Byłyby to w samej rzeczy fale radiowe dochodzące „z przyszłości”.

Jakkolwiek idea ta mogłaby wydawać się całkiem fantastyczna, została w latach

siedemdziesiątych poddana testowaniu eksperymentalnemu przez astronoma Bruce'a Partridge'a.

Eksperyment ten oparty był na tym, że fale radiowe skierowane ku ekranowi pochłaniającemu

będą w 100% falami retardowanymi. Jeśli jednak pozwoli się im rozchodzić swobodnie w

przestrzeni, część z nich może osiągnąć „punkt zwrotny”. Zatem powinny one posiadać pewną

domieszkę fal adwansowanych. Jeśli tak jest, fale adwansowane oddadzą z powrotem do anteny

pewną znikomą część energii wyemitowanej w postaci fal retardowanych. W rezultacie

powinniśmy zaobserwować niewielką różnicę w odpływie energii z anteny w zależności od tego,

czy jest ona otoczona ekranem pochłaniającym, czy też fale rozchodzą się swobodnie w

przestrzeni. Pomimo korzystania z bardzo czułej aparatury pomiarowej Partridge'owi nie udało

się jednak znaleźć żadnych śladów fal adwansowanych.

Jakkolwiek atrakcyjna może być koncepcja Wszechświata symetrycznego względem

czasu, bardzo trudno znaleźć przemawiające za nią rozsądne argumenty. Statystycznie rzecz

biorąc, przeważająca większość dopuszczalnych stanów początkowych Wszechświata nie

prowadzi do takiego modelu; „punkt zwrotny” otrzymamy tylko w przypadku bardzo

szczególnego doboru warunków początkowych. Można to przyrównać do bomby eksplodującej

we wnętrzu stalowego pojemnika: można sobie wyobrazić, że wszystkie odłamki odbiją się

zgodnie od ścian pojemnika i wracając na poprzednie miejsce, złożą się ponownie w bombę. O

tego typu sytuacji nie da się powiedzieć, że jest całkowicie wykluczona, jednak oczywiste jest, że

background image

wymaga ona wprost nieprawdopodobnego zbiegu okoliczności.

Niemniej jednak idea Wszechświata symetrycznego w czasie okazała się na tyle

pociągająca, że podjął ją ostatnio nawet Stephen Hawking w ramach swojego programu

kosmologii kwantowej, który omówię pokrótce w dalszej części książki. Jednakże po jej bardziej

szczegółowych badaniach Hawking przyznał, iż było to z jego strony błędem.

background image

Ciągła kreacja materii

Thomas Gold opowiadał, jak pewnego wieczoru pod koniec lat czterdziestych wracał

wraz z Hermannem Bondim z kina po obejrzeniu filmu Dead of Night [Najgłębsza noc], którego

tematem były sny zawierające się wewnątrz innych snów, tworząc w ten sposób nieskończony

ciąg. W drodze do domu nagle przyszło im do głowy, że film ten mógłby być alegorią

Wszechświata. Niewykluczone, że Wszechświat nie miał początku i żadnego Wielkiego

Wybuchu nigdy nie było. Być może istnieje jakiś mechanizm nieustannego odradzania się

Wszechświata, tak że jest on w stanie istnieć wiecznie.

W ciągu następnych miesięcy Bondi i Gold przyoblekli swój pomysł w kształt konkretnej

hipotezy naukowej. Jej zasadniczym założeniem było to, iż Wszechświat nie miał jednorazowego

początku w rodzaju Wielkiego Wybuchu, w którym powstała cała zawarta w nim materia, lecz w

miarę rozszerzania się Wszechświata rodzą się w nim nowe cząstki, wskutek czego średnia

gęstość materii nie ulega zmianie. Każda z galaktyk przechodziłaby swój cykl ewolucyjny,

„umierając” po wypaleniu się gwiazd wchodzących w jej skład, lecz z nowo stworzonej materii

powstawałyby następne galaktyki. W danym momencie można by obserwować galaktyki w

różnym wieku, z tym że najstarsze z nich byłyby rozmieszczone z najmniejszą gęstością, gdyż

Wszechświat zdążył się już znacznie rozszerzyć od czasu ich powstania. Bondi i Gold

utrzymywali, że Wszechświat rozszerza się z niezmienną szybkością, a tempo kreacji materii jest

takie, iż zapewnia zachowanie jego gęstości średniej. Jest to tak, jak w przypadku rzeki, która

wygląda stale tak samo, mimo iż woda, którą widzimy, jest za każdym razem inna. Rzeka nie jest

tworem statycznym, lecz stacjonarnym. Dlatego hipoteza Bondiego i Golda stała się znana jako

model „stanu stacjonarnego” Wszechświata.

W modelu stanu stacjonarnego Wszechświat nie ma ani początku, ani końca i wygląda

średnio stale tak samo, pomimo iż nieustannie się rozszerza. Model ten unika problemu śmierci

cieplnej, gdyż kreacja nowej materii stanowi jednocześnie zastrzyk ujemnej entropii; powracając

do analogii z zegarkiem - w tym przypadku zegarek jest nakręcany przez cały czas. Bondi i Gold

nie podali żadnego konkretnego sposobu, w jaki miałaby być stwarzana materia; problem ten

został natomiast podjęty przez współpracującego z nimi Freda Hoyle'a. Hoyle wprowadził

pojęcie „pola kreacyjnego”, które posiadałoby zdolność wytwarzania nowych cząstek materii.

Ponieważ materia jest pewną formą energii, można by sądzić, że mechanizm podany przez

background image

Hoyle'a stanowi naruszenie prawa zachowania energii, ale niekoniecznie musi tak być. Pole

kreacyjne niosłoby ze sobą energię ujemną i przy starannym doborze parametrów można uzyskać

sytuację, że dodatnia energia wytworzonej materii odpowiadałaby dokładnie wzrostowi ujemnej

energii pola kreacyjnego. Po przeprowadzeniu dokładnych matematycznych wyliczeń Hoyle

odkrył, że jego model kosmologiczny zawierający pole kreacyjne sam z siebie dąży do

osiągnięcia stanu stacjonarnego przewidzianego przez teorię Bondiego i Golda, a następnie w

tym stanie pozostaje.

Prace Hoyle'a dostarczyły podbudowy teoretycznej niezbędnej do tego, aby teoria stanu

stacjonarnego była traktowana poważnie; przez ponad dziesięć lat była ona uznawana za

równorzędną teorię konkurującą z teorią Wielkiego Wybuchu. Wielu naukowców, w tym sami

twórcy teorii stanu stacjonarnego, uważało, że poprzez pozbycie się Wielkiego Wybuchu raz na

zawsze usunięta została potrzeba doszukiwania się jakichś nadnaturalnych przyczyn

Wszechświata. Świat, który nie ma początku, nie potrzebuje ani stworzenia, ani Stwórcy, a

wskutek tego, iż się sam „nakręca” za pośrednictwem pola kreacyjnego czysto fizycznej natury,

nie wymaga żadnych boskich interwencji, by utrzymać go w istnieniu.

W istocie konkluzja ta jest całkowicie nieuprawniona. Fakt, że Wszechświat nie miał

początku w czasie, w żadnej mierze nie uzasadnia, dlaczego on istnieje, i to w tej właśnie postaci.

Nie wyjaśnia również, skąd miałyby pochodzić pola (takie jak pole kreacji) i prawa fizyki, dzięki

którym możliwe było zaistnienie stanu stacjonarnego. Jak na ironię, niektórzy teologowie byli

wręcz zachwyceni teorią stanu stacjonarnego, uważając, że dostarczyła ona modus operandi dla

Boga w jego dziele stworzenia. Ostatecznie, istniejący wiecznie Wszechświat, któremu nie

zagraża śmierć cieplna, jest koncepcją bardzo atrakcyjną dla teologa. Na przełomie wieków

angielski matematyk i filozof Alfred North Whitehead sformułował tak zwaną teologię procesu.

Zwolennicy tego kierunku odrzucali zakorzenioną w tradycji chrześcijańskiej koncepcję

stworzenia z nicości na rzecz Wszechświata, który nie miał w ogóle początku. Działanie Boga

jako Stwórcy ma w tym przypadku charakter nieustającego procesu, stwórczej interwencji w bieg

przyrody. Do tematu kosmologii kreacyjnej powrócę jeszcze w rozdziale 7.

Ostatecznie, teoria stanu stacjonarnego popadła w niełaskę nie z racji filozoficznych, lecz

dlatego, że sfalsyfikowały ją dane obserwacyjne. Z teorii tej wynikała bardzo konkretna

prognoza, że Wszechświat powinien wyglądać średnio tak samo we wszystkich epokach, a

pojawienie się olbrzymich radioteleskopów umożliwiło przetestowanie tego przewidywania. Gdy

background image

astronomowie obserwują bardzo odległe obiekty, widzą je nie takimi, jakimi są one teraz, lecz

jakimi były w odległej przeszłości, kiedy to wyemitowane z nich światło lub fale radiowe

rozpoczęły swą długą podróż ku Ziemi. Obecnie astronomowie są w stanie badać obiekty odległe

o miliardy lat świetlnych, więc widzimy je takimi, jakimi były one wiele miliardów lat temu.

Zatem odpowiednio głęboki przegląd Wszechświata może dostarczyć jego „migawkowych” ujęć

do celów porównawczych. W połowie lat sześćdziesiątych stało się jasne, że kilka miliardów lat

temu Wszechświat wyglądał zupełnie odmiennie niż obecnie, w szczególności pod względem

gęstości rozmieszczenia galaktyk różnych typów.

Ostatnim gwoździem do trumny teorii stanu stacjonarnego było odkrycie w 1965 roku, że

cały Wszechświat przeniknięty jest promieniowaniem cieplnym odpowiadającym temperaturze

około trzech stopni powyżej zera absolutnego. Promieniowanie to uważane jest za bezpośrednią

pozostałość Wielkiego Wybuchu, coś w rodzaju gasnącej poświaty od pierwotnej kuli ognistej, z

której narodził się Wszechświat. Byłoby niezwykle trudno wytłumaczyć pochodzenie takiego

wszechobecnego promieniowania w inny sposób niż poprzez to, że Wszechświat był kiedyś

niezwykle gęsty i gorący. Taki stan nie występuje w teorii stanu stacjonarnego. Oczywiście, fakt,

że Wszechświat nie znajduje się w stanie stacjonarnym, nie oznacza, iż ciągła kreaqa materii jest

czymś niemożliwym, jednakże motywy, jakie skłoniły Hoyle'a do wprowadzenia pojęcia pola

kreacji, zostały w znacznej mierze podważone, skoro okazało się, że Wszechświat jednak

podlega ewolucji. Obecnie prawie wszyscy kosmologowie są zgodni, że żyjemy we

Wszechświecie, który miał początek w postaci Wielkiego Wybuchu i który zmierza do

nieznanego końca.

Gdy zaakceptuje się idee, że przestrzeń, czas i materia miały swój początek w

osobliwości, stanowiącej absolutną granicę fizycznego Wszechświata w przeszłości, pojawia się

szereg zagadek. Po pierwsze, mamy znany problem, co spowodowało Wielki Wybuch. Jednakże

pytanie to musi być teraz widziane w nowym świetle, ponieważ nie jest możliwe powiązanie

Wielkiego Wybuchu z czymś, co wydarzyło się przed nim, jak zwykle w przypadku, gdy

mówimy o powiązaniach przyczynowo-skutkowych. Czy oznacza to, że Wielki Wybuch miałby

być zdarzeniem, które nie miało przyczyny? Jeżeli prawa fizyki przestają obowiązywać w

osobliwości, nie mogą one służyć jako podstawa wyjaśniania w tym przypadku. Zatem, jeżeli

chcemy jednak doszukiwać się przyczyny Wielkiego Wybuchu, musi mieć ona charakter

pozafizyczny.

background image

Czy Bóg był przyczyną Wielkiego Wybuchu?

Wielu ludzi wyobraża sobie Boga jako kogoś w rodzaju pirotechnika, który po zapaleniu

kosmicznego lontu, rozsiada się wygodnie, by oglądać fajerwerki Wielkiego Wybuchu. Niestety,

ten prosty obraz, tak bardzo do niektórych przemawiający, jest zupełnie pozbawiony sensu. Jak

widzieliśmy, nadprzyrodzony akt stworzenia nie może być działaniem przyczynowym w czasie,

gdyż to właśnie zaistnienie samego czasu jest tym, co chcielibyśmy wyjaśnić. Jeżeli Bóg ma

stanowić uzasadnienie świata fizycznego, nie może to być uzasadnienie w kategoriach przyczyny

i skutku, do jakich jesteśmy przyzwyczajeni.

Ten powracający nieustannie problem czasu został ostatnio podjęty przez angielskiego

fizyka Russella Stannarda, który przyrównał Boga do autora książki. Książka po jej napisaniu

istnieje jako skończona całość, chociaż my, ludzie, czytamy kolejno jej stronice od początku do

końca. „Tak jak pisarz nie ogranicza się do napisania tylko pierwszego rozdziału powieści,

pozwalając, aby reszta została dopisana przez kogoś innego, tak moc stwórcza Boga nie

wyczerpuje się w Wielkim Wybuchu ani nawet nie jest jakoś szczególnie na to zdarzenie

ukierunkowana. Przeciwnie, należy przyjmować, iż mocą tą przeniknięta jest cała przestrzeń i

cały czas: stwarzanie staje się tym samym, co utrzymywanie w istnieniu.”

Niezależnie od problematyki początku czasu, odwoływanie się do Boga w celu

wyjaśnienia Wielkiego Wybuchu związane jest z niektórymi innymi trudnościami. Aby je

zilustrować, posłużę się wyimaginowaną rozmową między teistą (czy też należałoby właściwie

powiedzieć deistą) - zwolennikiem tezy, że świat został stworzony przez Boga, a ateistą, który

„nie widzi potrzeby takiej hipotezy”.

Ateista: W dawnych czasach bóstwa służyły do objaśnienia najróżniejszych zjawisk

świata fizycznego, takich jak wiatr, deszcz i ruchy planet. W miarę postępu nauki powoływanie

się na takie nadprzyrodzone czynniki dla wyjaśnienia zjawisk przyrody uznano za zbędne.

Dlaczego zatem upierasz się, że Bóg miałby być przyczyną Wielkiego Wybuchu?

Teistą: To twoja nauka nie jest w stanie wyjaśnić wszystkiego. Świat jest pełen tajemnic.

Na przykład, nawet najwięksi optymiści wśród biologów przyznają, że powstanie życia pozostaje

ciągle wielką zagadką.

Ateista: Zgadzam się, że nauka nie wyjaśniła dotąd wszystkiego, ale nie wynika stąd

bynajmniej, iż nie potrafi tego uczynić. Wy, teiści, zawsze ulegaliście pokusie, by wskazywać na

background image

jakieś zjawisko, którego nauka nie mogła w danym momencie wyjaśnić, twierdząc, że dla jego

uzasadnienia niezbędny jest Bóg. Następnie, po nowych odkryciach nauki, Bóg okazywał się do

tego uzasadnienia niepotrzebny. Powinniście się już nauczyć, że koncepcja Boga jako

„wypełniacza luk” nie da się dłużej utrzymać. W miarę upływu czasu coraz mniejsza jest liczba

luk naszej wiedzy, w których mógłby się on ostać. Mnie osobiście nie sprawia trudności

przypuszczenie, że nauka będzie w stanie wyjaśnić wszystkie zjawiska przyrody, w tym

powstanie życia. Przyznaję, że początek Wszechświata to trudny orzech do zgryzienia. Jeśli

jednak, jak na to wygląda, zaszliśmy już tak daleko, iż jedynym nie wyjaśnionym elementem

pozostaje sam Wielki Wybuch, byłoby czymś dalece nieprzystojnym wprowadzanie tu pojęcia

Istoty Nadprzyrodzonej tylko dlatego, że została ona wyeliminowana ze wszystkich innych

zjawisk i miałaby to być jej „ostatnia szansa”.

Teistą: Nie widzę, dlaczego by tak miało być. Nawet jeżeli odrzuca się ideę, że Bóg

działa bezpośrednio w świecie fizycznym po jego stworzeniu, problem ostatecznego początku

tego świata należy do zupełnie innej kategorii niż problem wyjaśnienia zjawisk przyrody w

istniejącym już świecie.

Ateista: Lecz jeżeli nie posiada się innych powodów, dla których mielibyśmy wierzyć w

istnienie Boga, stwierdzenie po prostu, że „Bóg stworzył świat”, ma charakter całkowicie adhoc;

nie wyjaśnia ono niczego. W istocie, taka wypowiedź jest zasadniczo pozbawiona jakiejkolwiek

głębszej treści, gdyż sprowadza się do definiowania Boga jako czynnika sprawczego dla świata.

Ten wybieg nie posuwa naprzód naszego poznania nawet w najmniejszym stopniu. Po prostu

jedna zagadka (powstanie Wszechświata) zostaje wyjaśniona za pomocą innej zagadki (Bóg).

Jako naukowiec mam prawo zastosować tu brzytwę Ockhama i odrzucić hipotezę Boga jako

niepotrzebne komplikowanie sprawy. W przeciwnym przypadku zmuszony byłbym postawić

pytanie: kto stworzył Boga?

Teista: Bóg nie potrzebuje innego stwórcy. Jest on bytem koniecznym i po prostu musi

istnieć. Nie ma tu innej możliwości.

Ateista: Ale można równie dobrze utrzymywać, że Wszechświat nie wymaga stwórcy.

Jakimikolwiek argumentami będziemy uzasadniali, iż istnienie Boga jest konieczne, mogą być

one z równą słusznością zastosowane do Wszechświata; w ten sposób co najmniej uprościmy

nasze rozważania.

Teista: Z pewnością jednak naukowcy powszechnie stosują mój tryb rozumowania.

background image

Dlaczego ciała spadają? Ponieważ poddane są działaniu siły ciężkości. Dlaczego działa na nie

siła ciężkości? Ponieważ znajdują się w polu grawitacyjnym. Skąd się bierze pole grawitacyjne?

Ponieważ przestrzeń jest zakrzywiona. I tak dalej. Jeden opis zastępuje się innym, głębszym

opisem, wyłącznie w celu wyjaśnienia tego, od czego zaczęliśmy, mianowicie zjawiska spadania

ciał. Dlaczego zatem oponujesz, gdy odwołuję się do Boga jako głębszego i bardziej

zadowalającego uzasadnienia Wszechświata?

Ateista: Ależ to jest coś zupełnie innego! Teoria naukowa powinna wnosić coś więcej do

faktów, które ma wyjaśniać. Dobre teorie upraszczają obraz świata poprzez ukazanie powiązań

pomiędzy zjawiskami, które poprzednio uważane były za odmienne. Na przykład, teoria

grawitacji Newtona pokazała związek zachodzący pomiędzy pływami morskimi a ruchem

Księżyca. Ponadto dla dobrych teorii można podać testy obserwacyjne, takie jak przewidzenie

nowych, nie znanych dotąd, zjawisk. Pozwalają one również na szczegółową analizę przebiegu

interesujących nas zjawisk fizycznych w kategoriach danej teorii. W przypadku grawitacji

umożliwiają to równania opisujące związek natężenia pola grawitacyjnego ze strukturą jego

źródeł. W teorii tej znajdujemy dokładny mechanizm przebiegu zjawisk grawitacyjnych.

Natomiast koncepcja Boga przywoływana jedynie dla wyjaśnienia Wielkiego Wybuchu nie

spełnia żadnego z tych trzech kryteriów. Nie upraszczając w niczym naszej wizji świata, pojęcie

Stwórcy stanowi dodatkowy element, sam domagający się uzasadnienia. Po drugie, nie ma żadnej

możliwości eksperymentalnej weryfikacji tej hipotezy: Bóg w tym przypadku przejawił się tylko

w jednym jedynym zjawisku - Wielkim Wybuchu - które miało miejsce dawno temu. I w końcu,

gołe stwierdzenie „Bóg stworzył świat” nie stanowi w istocie żadnego wyjaśnienia, dopóki nie

towarzyszy jemu dokładny opis, w jaki sposób to nastąpiło. Chciałoby się wiedzieć, na przykład,

jakie własności możemy przypisać takiemu Bogu i jak konkretnie stwarzał on Wszechświat,

dlaczego Wszechświat ma właśnie taką postać, i tak dalej. Krótko mówiąc, dopóki nikt nie

potrafi ani podać innych przejawów istnienia takiego Boga, ani dokładnego opisu, w jaki sposób

stworzył on świat, który nawet taki ateista jak ja uznałby za głębszy, prostszy i bardziej

zadowalający, nie widzę żadnych powodów, które uzasadniałyby wiarę w taką istotę.

Teista: Mimo to twoje stanowisko również trudno uznać za w pełni zadowalające, gdyż,

jak sam przyznajesz, uzasadnienie Wielkiego Wybuchu wykracza poza ramy nauki. Zmuszony

jesteś przyjmować istnienie Wszechświata jako fakt pozbawiony jakiegokolwiek głębszego

uzasadnienia.

background image

Ateista: Wolę już przyjmować jako fakt istnienie świata niż istnienie Boga. W końcu,

abyśmy mogli o nim dyskutować, świat musi istnieć!

Wieloma z kwestii, jakie wystąpiły w tym dialogu, zajmę się w następnych rozdziałach.

Istota sporu sprowadza się do tego, czy to, że Wszechświat powstał w wyniku wybuchu, jak

wszystko na to wskazuje, musimy przyjąć jako niezależny, nie dający się uzasadnić, fakt na

zasadzie „tak-to-już-jest”, czy też możemy poszukiwać jakiegoś bardziej zadowalającego

uzasadnienia. Do niedawna wydawało się, że każde takie uzasadnienie musiałoby odwoływać się

do czynników nadprzyrodzonych, wykraczających poza prawa fizyki, lecz najnowsze postępy

naszej wiedzy o bardzo wczesnym Wszechświecie dokonały przełomu w tej całej dyskusji,

ukazując tę odwieczną zagadkę w zupełnie nowym świetle.

background image

Stworzenie bez stworzenia

Od upadku teorii stanu stacjonarnego wydawało się, iż w kwestii początków

Wszechświata uczeni nie mają wielkiego wyboru. Można było albo wierzyć, że Wszechświat

istniał zawsze, stawiając czoła wszystkim związanym z tym paradoksom fizycznym, albo

zakładać, że czas i przestrzeń zaczęły się gwałtownie, lecz nie można tego wyjaśnić w sposób

naukowy. Przeoczono trzecią możliwość: że Wszechświat nie istniał zawsze, a jednak nie zaczął

się jednorazowo w osobliwości.

Przed przejściem do szczegółów pozwolę sobie zrobić ogólną uwagę, że istota całego

problemu z początkiem Wszechświata leży w tym, iż Wielki Wybuch miałby być zdarzeniem nie

mającym przyczyny na płaszczyźnie fizycznej. Na ogół uważa się, że stoi to w sprzeczności z

prawami fizyki. Istnieje tu jednak pewna furtka. Jest nią mechanika kwantowa. Jak wyjaśniałem

w rozdziale l, za obszar stosowania mechaniki kwantowej przyjmuje się zazwyczaj atomy,

cząsteczki i cząstki elementarne. Dla obiektów makroskopowych efekty kwantowe są w

normalnych warunkach zaniedbywalnie małe. Proszę sobie przypomnieć, że istotę fizyki

kwantowej stanowi zasada nieoznaczoności Heisenberga, stwierdzająca, iż wartości wszystkich

wielkości mierzalnych (takich jak położenie, pęd, energia) podlegają nieprzewidywalnym

fluktuacjom. Na skutek owej nieprzewidywalności mikroświat ma charakter indeterministyczny;

aby posłużyć się obrazową metaforą Einsteina: Pan Bóg gra z Wszechświatem w kości. Dlatego

na poziomie kwantowym zdarzenia nie są wyznaczone w sposób bezwzględny przez

poprzedzające je przyczyny. Jakkolwiek prawdopodobieństwo jakiegoś zdarzenia (np. rozpadu

promieniotwórczego jądra atomu) można ustalić na podstawie teorii, rzeczywisty wynik danego

procesu kwantowego jest nie tylko nieznany, ale i z zasady niepoznawalny.

Wskutek rozmycia więzi między przyczyną a skutkiem mechanika kwantowa pozwala w

przemyślny sposób obejść problem zaistnienia Wszechświata. Gdyby udało się wykazać, że

Wszechświat wyłonił się z nicości w wyniku fluktuacji kwantowej, to żadne prawa fizyki nie

byłyby pogwałcone. Innymi słowy, z punktu widzenia mechaniki kwantowej spontaniczne

powstanie Wszechświata nie jest niczym szczególnym, jako że na poziomie mikroświata obiekty

fizyczne powstają same z siebie bez wyróżnionej przyczyny przez cały czas. Fizyk kwantowy nie

ma większej potrzeby odwoływania się do sił nadprzyrodzonych w przypadku powstania świata

niż w przypadku uzasadniania, dlaczego rozpad danego jądra promieniotwórczego nastąpił

background image

właśnie w określonym momencie.

Wszystko to zależy naturalnie od prawomocności stosowania mechaniki kwantowej do

Wszechświata jako całości. Nie jest to wcale takie oczywiste. Nie mówiąc już o tym, że

stosowanie teorii opisującej świat cząstek elementarnych do całego kosmosu wymaga

niewiarygodnej ekstrapolacji, pojawiają się w tym przypadku głębokie pytania natury zasadniczej

co do treści, jaką należałoby przypisać niektórym obiektom matematycznym występującym w

teorii. Jednak zdaniem wielu znakomitych fizyków teoria kwantów może być z powodzeniem

stosowana w tej sytuacji - i w ten sposób narodziła się nowa dyscyplina, kosmologia kwantowa.

Uzasadnieniem dla kosmologii kwantowej jest fakt, że o ile Wielki Wybuch traktować

poważnie, musiał istnieć moment, kiedy promień całego Wszechświata był rzędu rozmiarów

subatomowych, a zatem procesy kwantowe musiały w nim odgrywać dominującą rolę. W

szczególności na strukturę i ewolucję bardzo wczesnego Wszechświata musiały mieć głęboki

wpływ fluktuacje związane z zasadą nieoznaczoności Heisenberga. Kiedy ta epoka miała

miejsce, wynika z prostego obliczenia. Efekty kwantowe były znaczące, gdy gęstość materii

sięgała zawrotnej wartości 10

94

g cm

3

; było to wtedy, gdy Wszechświat miał mniej niż 10

43

sekundy i zaledwie 10

33

cm średnicy. Wartości te nazywa się odpowiednio gęstością, czasem i

promieniem Plancka, na cześć Maxa Plancka, pioniera teorii kwantów.

Zdolność fluktuacji kwantowych do „rozmywania” rzeczywistości fizycznej w skali

mikroświata prowadzi do fascynującego wniosku dotyczącego natury czasoprzestrzeni. W

laboratorium fizycy mogą obserwować fluktuacje kwantowe nie mniejsze niż 10

18

cm w skali

czasu około 10

28

sekundy. Fluktuacje te, którym podlegają takie parametry jak położenia i pędy

cząstek, rozgrywają się na tle w miarę ustabilizowanej czasoprzestrzeni. Jednakże w skali jeszcze

mniejszej, rzędu wielkości Plancka, fluktuacjom podlega również sama czasoprzestrzeń.

Aby zrozumieć, w jaki sposób się to odbywa, trzeba wpierw przyjrzeć się bliskiemu

sprzężeniu przestrzeni i czasu. Teoria względności wymaga, byśmy traktowali trzy wymiary

przestrzenne i jeden wymiar czasowy jako atrybuty jednolitej czterowymiarowej

czasoprzestrzeni. Pomimo tej unifikacji przestrzeń pozostaje pod względem fizycznym czymś

odrębnym od czasu. W życiu codziennym odróżnienie ich nie przedstawia dla nas żadnych

trudności. Różnica ta ulega jednak zatarciu w przypadku fluktuacji kwantowych. W skali Plancka

rozróżnienie na czas i przestrzeń zaciera się. Teoria kwantowa opisuje dokładnie, w jaki sposób

się to odbywa, i pozwala na wyliczenie względnych wartości prawdopodobieństwa

background image

poszczególnych wariantów struktur czasoprzestrzennych.

Może się więc w pewnych warunkach zdarzyć, że w wyniku tych efektów kwantowych

najbardziej prawdopodobna okaże się struktura składająca się z czterech wymiarów

przestrzennych. James Hartle i Stephen Hawking przedstawili rozumowanie, z którego wynikało,

iż takie właśnie warunki miały miejsce w bardzo wczesnym Wszechświecie. Oznacza to, że jeżeli

wyobrazimy sobie, iż posuwamy się w czasie wstecz ku Wielkiemu Wybuchowi, to gdy

osiągniemy moment odległy o około jeden czas Plancka od tego, co uważaliśmy za osobliwość

początkową, dzieje się coś dziwnego: czas zaczyna „przeobrażać się” w przestrzeń. Zatem

zamiast z początkiem czasoprzestrzeni mamy teraz do czynienia z czterowymiarową przestrzenią

i możemy postawić pytanie o kształt tej przestrzeni, tj. jej geometrię. W rzeczywistości teoria

dopuszcza tu nieskończenie wiele możliwych geometrii. Odpowiedź na pytanie, która z nich

odnosi się do rzeczywistego świata, zależy od rozwiązania problemu doboru właściwych

warunków początkowych, czemu poświęcę nieco uwagi w dalszej części książki. Hartle i

Hawking dokonują tu konkretnego wyboru, który uważają za naturalny ze względu na elegancję

matematyczną.

W zrozumieniu ich idei pomocne może być przedstawienie ich w postaci schematycznego

rysunku. Jednakże powinieniem tu przestrzec czytelnika, aby nie nadawał tym rysunkom

znaczenia nazbyt dosłownego. Zacznijmy od przedstawienia czasoprzestrzeni jako

dwuwymiarowego diagramu, na którym oś czasu skierowana jest pionowo, a oś przestrzeni

poziomo. Przyszłość znajduje się u góry diagramu, przeszłość u dołu. Ponieważ niemożliwe jest

właściwe odzwierciedlenie czterech wymiarów na płaskiej stronicy książki, pozostawiłem tylko

jeden wymiar przestrzenny, co jednak wystarcza dla zilustrowania wszystkich zasadniczych

rozważań. Przekrój poziomy przez diagram odpowiada całej przestrzeni w jednym momencie

czasu, a linia pionowa przedstawia historię pewnego punktu przestrzeni w czasie. Korzystne

może być wyobrażenie sobie, że rysunek ten znajduje się na luźnej kartce papieru, z którą

możemy przeprowadzać pewne czynności. (Być może nawet czytelnik zechce je naprawdę

wykonać).

Gdyby przestrzeń i czas były nieskończone, to ściśle rzecz biorąc, dla właściwego

przedstawienia czasoprzestrzeni potrzebna by była nieskończona płaszczyzna papieru. Jeśli

jednak czas nie rozciąga się nieskończenie w przeszłość, diagram musi być od dołu ograniczony;

można sobie wyobrazić, że odcięliśmy w pewnym miejscu jego dolną część, tworząc poziomy

background image

brzeg. Czas może być także ograniczony w przyszłości, co odpowiada zrobieniu takiego samego

brzegu w górnej części. W ten sposób otrzymaliśmy nieskończony pasek papieru reprezentujący

całą nieskończoną przestrzeń w kolejnych momentach czasu od początku (brzeg dolny) do końca

(brzeg górny) świata.

W tym miejscu można rozważyć możliwość, że przestrzeń nie jest jednak nieskończona.

Einstein jako pierwszy wskazał na możliwość, że przestrzeń jest skończona, choć

nieograniczona. Do idei tej należy podchodzić poważnie i stanowi ona możliwą do obserwacyjnej

weryfikacji hipotezę kosmologiczną. Taką możliwość możemy łatwo przedstawić na naszym

diagramie poprzez zwinięcie arkusza papieru tak, aby utworzył on walec. Przestrzeń w każdym

momencie czasu jest wtedy reprezentowana przez okrąg o skończonym obwodzie

(Dwuwymiarowym odpowiednikiem jest w tym przypadku powierzchnia sfery; w trzech

wymiarach jest to tak zwana hipersfera, którą trudno sobie naocznie przedstawić, ale która pod

względem matematycznym jest obiektem dobrze określonym i zrozumiałym).

Następnym krokiem jest uwzględnienie ekspansji Wszechświata poprzez pozwolenie, aby

rozmiar Wszechświata zmieniał się w czasie. Ponieważ zajmujemy się tutaj przede wszystkim

początkiem Wszechświata, pominę część górną diagramu i pokażę jedynie część dolną. Cylinder

przybiera teraz kształt stożka. Kolejne przekroje, będące coraz większymi okręgami,

przedstawiają rozszerzającą się przestrzeń. Hipoteza, że Wszechświat zaczął się stanem

osobliwym o nieskończonej gęstości, odpowiada temu, iż stożek zbiega się u dołu w jeden punkt.

Pojedynczy wierzchołek stożka przedstawia gwałtowne powstanie zarówno czasu, jak i

przestrzeni w Wielkim Wybuchu.

Podstawową tezą kosmologii kwantowej jest, że zasada nieoznaczoności Heisenberga

powoduje „stępienie” ostrego wierzchołka stożka i zastąpienie go zakończeniem obłym. Jego

konkretny kształt zależy od przyjmowanego modelu teoretycznego; w modelu Hartle'a i

Hawkinga możemy sobie mniej więcej wyobrażać, że wierzchołek uległ zaokrągleniu, gdzie

wierzchołek stożka został zastąpiony półkulą. Promień tej półkuli równy jest długości Plancka

(10

33

cm), co jest wartością niezmiernie małą podług ludzkich standardów, jednakże

nieskończenie wielką w porównaniu z osobliwością punktową. Ponad początkową półkulą stożek

rozwiera się jak poprzednio, co odpowiada standardowej niekwantowej ewolucji rozszerzającego

się Wszechświata. W tej górnej części czas biegnie pionowo jak zwykle i jest pod względem

fizycznym czymś całkowicie odrębnym od przestrzeni, która rozpościera się poziomo wokół

background image

obwodu stożka. Natomiast poniżej przejścia w sferę sytuacja całkowicie się zmienia. Wymiar

czasowy zaczyna odkształcać się w kierunku wymiaru przestrzennego (tzn. poziomo). W ten

sposób u dołu, w pobliżu podstawy półkuli mamy dwuwymiarową, w przybliżeniu poziomą,

zakrzywioną powierzchnię, której oba wymiary są przestrzenne, w miejsce jednego

przestrzennego i jednego czasowego. Proszę zauważyć, że przejście wymiaru przestrzennego w

czasowy ma charakter stopniowy; nie należy sobie wyobrażać, że następuje ono gwałtownie przy

przejściu ze stożka na półkulę. Ujmując to w inny sposób, można powiedzieć, że czas wyłania się

stopniowo z przestrzeni, w miarę jak powierzchnia półkuli przechodzi w powierzchnię stożka.

Należy również zwrócić uwagę, że w tym przypadku czas jest nadal ograniczony od dołu - nie

rozciąga się wstecz do nieskończoności - a jednak nie istnieje w istocie jego „pierwszy moment”,

nie ma tu gwałtownego początku w osobliwości. Zatem osobliwość została faktycznie usunięta.

Można być skłonnym uważać najniższy punkt półkuli - jej „biegun południowy” - za

„początek” Wszechświata, lecz, jak podkreśla Hawking, jest to pogląd błędny. Podstawową

własnością charakteryzującą powierzchnię sferyczną jest to, że wszystkie jej punkty są

równoważne, to znaczy żaden punkt nie jest w żaden sposób wyróżniony. Najniższy punkt

półkuli wydaje nam się wyróżniony, ponieważ tak ustawiliśmy stożkowatą powierzchnię. Gdy

odchylimy stożek, inny punkt stanie się punktem najniższym. Hawking zauważa, iż mamy tu do

czynienia z sytuacją analogiczną do sposobu, w jaki geometrycznie przedstawiamy powierzchnie

kuli ziemskiej. Południki zbiegają się na Biegunie Północnym i Południowym, lecz powierzchnia

Ziemi w tych miejscach niczym się nie wyróżnia. Jako punkt zbiegania się południków można by

równie dobrze wybrać Mekkę lub Hongkong. (W rzeczy samej wybór biegunów wiąże się z

położeniem osi rotacji Ziemi, ale nie ma to znaczenia z punktu widzenia tej dyskusji). Nikt nie

twierdzi wszakże, iż powierzchnia Ziemi zaczyna się gwałtownie na biegunach. Są to wprawdzie

punkty osobliwe systemu współrzędnych opartego na południkach i równoleżnikach, ale nie są

one wyróżnione realnie pod względem geometrycznym.

Aby to lepiej wyjaśnić, wyobraźmy sobie, że w „biegunie południowym” półkuli

zrobiliśmy małą dziurkę, następnie rozciągamy obszar wokół dziurki (zakładamy, że jest on

elastyczny), aby utworzyć walec, który rozcinamy i rozkładamy na płasko. Konkluzja jest taka, iż

to, co poprzednio braliśmy za początek czasu w osobliwości (dolny brzeg), jest w rzeczywistości

jedynie punktem osobliwym systemu współrzędnych nieskończenie rozciągniętym. Dokładnie to

samo zachodzi dla map powierzchni Ziemi w rzucie Mercatora. Biegun Południowy, który

background image

naprawdę jest normalnym punktem na powierzchni kuli ziemskiej, staje się poziomym brzegiem,

jak gdyby powierzchnia Ziemi tam się kończyła. Jednak brzeg ten jest tworem sztucznym,

wynikającym z przyjętego sposobu odwzorowania powierzchni sferycznej na płaszczyźnie.

Możemy równie dobrze przerysować mapę Ziemi w innym układzie współrzędnych, w którym

południki będą się zbiegały w innym punkcie, a Biegun Południowy będzie punktem jak

wszystkie inne, tak jak w rzeczywistości.

W rezultacie tych wszystkich rozważań dochodzimy do wniosku, za Hartle'em i

Hawkingiem, że Wszechświat nie miał początku. W żadnym przypadku nie oznacza to jednak, iż

Wszechświat miałby istnieć od zawsze. Czas jest skończony w przeszłości, lecz nie ma punktu

początkowego. W ten sposób paradoksalna opozycja nieskończonego i skończonego czasu, która

przez stulecia nie dawała spokoju filozofom, znajduje eleganckie rozstrzygnięcie. Hartle'emu i

Hawkingowi udało się w przemyślny sposób przepłynąć między Scyllą a Charybdą tego,

zdawałoby się nierozwiązywalnego, dylematu. Jak ujął to Hawking: „Warunkiem brzegowym dla

Wszechświata jest brak brzegów”.

Implikacje modelu Hartle'a-Hawkinga dla teologii są daleko idące. Sam Hawking wyraził

się w tej kwestii: „Dopóki zakładamy, że Wszechświat miał początek, możemy przypuszczać, że

istnieje jego Stwórca. Natomiast jeśli Wszechświat jest w pełni samowystarczalny, nie ma

żadnych granic ani brzegów, to nie ma również początku ani końca: po prostu jest. Gdzież tu

zatem miejsce dla Stwórcy?”

Argumentacja jest zatem taka, że skoro Wszechświat nie zaczął się

w określonym, osobliwym momencie w przeszłości, nie ma potrzeby odwoływać się do

nadprzyrodzonego aktu stworzenia, aby powołać go do istnienia. Angielski fizyk Chris Isham,

który sam jest specjalistą w dziedzinie kosmologii kwantowej, zajął się zbadaniem implikacji

teorii Hartle'a-Hawkinga dla teologii. Pisze on: „Nie ulega wątpliwości, że, od strony

psychologicznej, istnienie takiego osobliwego punktu początkowego wpływa na zrodzenie idei

Stwórcy, który miałby wprawić wszystko w ruch”. Uważa jednak, że nowe koncepcje

kosmologiczne usuwają potrzebę przywoływania Boga-jako-zapełniacza-luk jako przyczyny

Wielkiego Wybuchu: „Wygląda na to, że te nowe teorie doskonale sobie radzą z tą właśnie luką”.

Jakkolwiek u Hawkinga Wszechświat nie miał początku w czasie, prawdą jest w tej teorii

zarazem, że nie istniał on zawsze. Czy byłoby zatem prawidłowe stwierdzenie, iż Wszechświat

„sam się stworzył”? Ja ująłbym to raczej w ten sposób, że Wszechświat składający się z

czasoprzestrzeni i materii jest wewnętrznie spójny i samowystarczalny. Do swego istnienia nie

background image

potrzebuje niczego zewnętrznego wobec siebie, w szczególności żadnego „pierwszego

poruszyciela”. Czy ma to oznaczać, że istnienie Wszechświata może być „uzasadnione” w

sposób naukowy bez wprowadzania pojęcia Boga? Czy Wszechświat może być uznany za układ

zamknięty, obejmujący również rację swego własnego istnienia? Odpowiedź zależy od tego,

jakie znaczenie nadajemy słowu „uzasadniać”. Jeśli prawa fizyki potraktujemy jako dane,

Wszechświat jest w stanie, że tak powiem, zająć się sam sobą, w tym także swym własnym

stworzeniem. Ale skąd się wzięły prawa fizyki? Czy stajemy z kolei przed koniecznością

poszukiwania uzasadnienia dla nich? Problemem tym zajmę się w następnym rozdziale.

Czy te najnowsze odkrycia naukowe są sprzeczne z chrześcijańską doktryną o stworzeniu

ex nihilo. Jak już wielokrotnie podkreślałem, powołanie świata do istnienia z niczego przez Boga

nie może być uważane za akt dokonywany w czasie, ponieważ obejmuje on również stworzenie

samego czasu. We współczesnej doktrynie chrześcijańskiej przez stworzenie ex nihilo rozumie

się stałe podtrzymywanie Wszechświata w istnieniu. Obecnie w naukowej kosmologii także nie

rozważa się „zaistnienia” czasoprzestrzeni, lecz przyjmuje, że czasoprzestrzeń (lub Wszechświat)

po prostu jest.

„W tej koncepcji nie występuje żadne specjalnie wyróżnione zdarzenie początkowe”,

twierdzi filozof Wim Drees. „A zatem każdy moment świata znajduje się w tej samej relacji do

Stwórcy. Albo musimy przyjmować jako fakt, że wszystkie momenty po prostu »zawsze były i

są«, albo uważać je wszystkie w jednakowym stopniu za wynik stwórczej działalności Boga.

Niewątpliwą zaletą kosmologii kwantowej jest to, że ten aspekt pojęcia stworzenia ex nihilo,

który wydawał się najbardziej oderwany od myślenia naukowego, mianowicie »podtrzymywanie

w istnieniu«, znajduje w tej teorii swe naturalne miejsce”. Jednakże wizerunek Boga wyłaniający

się z tej teorii jest dość odległy od chrześcijańskiego Boga naszego stulecia. Drees znajduje tu

bliskie podobieństwo do panteistycznej wizji Boga, jaką przyjmował żyjący w siedemnastym

wieku filozof Baruch Spinoza, w której świat fizyczny obdarzony zostaje atrybutami boskimi,

takimi jak istnienie „wieczne” i „konieczne”.

Można oczywiście pytać dalej: dlaczego istnieje Wszechświat? Czy (pozaczasowe)

istnienie czasoprzestrzeni może być uważane za (nie zachodzącą w czasie) formę „stworzenia”?

W tym sensie mówienie o stworzeniu „z niczego” nie odnosiłoby się do rozgrywającego się w

czasie procesu przejścia od nicości do bytu, lecz stanowiłoby sposób unaocznienia, że bardziej

prawdopodobne jest nieistnienie czegoś niż istnienie. Większość naukowców (bynajmniej nie

background image

wszyscy, patrz strona 135-136) skłonna byłaby się zgodzić, że istnienie matematycznego modelu

Wszechświata nie jest tym samym, co faktyczne istnienie tegoż Wszechświata. Koncepcja musi

zostać dopiero urzeczywistniona. Zatem mamy to, co Drees nazywa „ontologiczną

przypadłością”. Teoria Hartle'a-Hawkinga jest w miarę zgodna z tym bardziej abstrakcyjnym

rozumieniem „stworzenia”, gdyż jest teorią kwantową. Istotą mechaniki kwantowej, jak już

mówiłem, jest brak pewności: przewidywanie w teorii kwantów jest przewidywaniem

prawdopodobieństwa zajścia jakiegoś stanu rzeczy. Formalizm matematyczny Hartle'a-Hawkin-

ga dostarcza zatem prawdopodobieństwa tego, że określony Wszechświat z określonym

rozkładem materii istnieje w danej chwili. Przewidując niezerową wartość prawdopodobieństwa

dla danego Wszechświata, twierdzimy tym samym, że ma on szansę się urzeczywistnić. W ten

sposób stworzeniu ex nihilo nadana zostaje konkretna interpretacja jako „realizacji możliwości”.

background image

Wszechświaty-matki i Wszechświaty-dzieci

Przed zakończeniem rozważania problemu początku Wszechświata wspomnę o jednej z

ostatnich teorii kosmologicznych, w której problem ten rozwiązywany jest w radykalnie

odmienny sposób. W mojej książce God and the New Physics [Bóg i nowa fizyka] rzuciłem

myśl, że to, co uważamy za Wszechświat, mogło powstać jako wytwór większej całości, a

następnie się od niej oddzielić i stać się niezależnym bytem. Przestrzeń reprezentowana jest tutaj

jako dwuwymiarowa płaszczyzna. Zgodnie z ogólną teorią względności wyobraźmy sobie, iż

płaszczyzna ta jest zakrzywiona. W szczególności możemy sobie wyobrazić, że w pewnym

miejscu tej płaszczyzny utworzy się wybrzuszenie, które następnie rośnie, przekształcając się w

wystającą strukturę połączoną z główną płaszczyzną jedynie wąskim przesmykiem. Może być

tak, że przesmyk ten staje się coraz węższy i węższy, aż wreszcie przerywa się zupełnie. W ten

sposób z początkowej wypukłości powstaje całkowicie oderwany „bąbel”. Płaszczyzna „matka”

zrodziła „dziecko”.

Zdumiewające, że są podstawy, by przypuszczać, iż coś takiego ma miejsce w

rzeczywistym Wszechświecie. Chaotyczne fluktuacje przewidywane przez mechanikę kwantową

powodują, że w skali mikroświata czasoprzestrzeń obfituje w przeróżne wybrzuszenia, kanaliki i

pomosty, nieustannie pojawiające się i znikające. Radziecki fizyk Andriej Linde wysunął ideę, że

w ten właśnie sposób zapoczątkowany został nasz Wszechświat jako niewielki bąbel

czasoprzestrzeni, który potem uległ ogromnemu rozdęciu w procesie kosmicznej inflacji, co

doprowadziło do Wielkiego Wybuchu. Podobne modele rozwijane były także przez innych

badaczy. Wszechświat-matka, który zrodził nasz Wszechświat, niezależnie podlega

niewiarygodnie szybkiej inflacji, przez cały czas produkując co sił Wszechświaty niemowlęce.

Jeśli ten opis jest prawidłowy, oznaczałoby to, że „nasz” Wszechświat jest tylko jednym z

nieskończonego zbiorowiska Wszechświatów, jakkolwiek obecnie całkowicie od nich odrębnym.

Zbiorowisko to jako całość nie ma ani początku, ani końca. W każdym razie posługiwanie się

słowami „początek” i „koniec” nie ma większego sensu, gdyż nie istnieje żaden

wszechobowiązujący czas, w którym rozgrywałby się proces narodzin nowych Wszechświatów,

chociaż każdy z tych „bąbli” posiada swój czas wewnętrzny.

Interesujące jest pytanie, czy nasz Wszechświat także może być Wszechświatem-matką i

rodzić nowe Wszechświaty. A może jakiemuś naukowcowi-szaleńcowi udałoby się stworzyć

background image

swój własny Wszechświat w laboratorium. Zagadnienie to zostało rozpatrzone przez Alana

Gutha, autora koncepcji kosmicznej inflacji. Okazuje się, iż jeżeli udałoby się skoncentrować

olbrzymią ilość energii, faktycznie mogłaby się utworzyć czasoprzestrzenna protuberancja. Na

pierwszy rzut oka może to rodzić obawy, że grozi nam nowy Wielki Wybuch, ale w istocie

zdarzenie takie wyglądałoby z naszego miejsca w czasoprzestrzeni jako powstanie czarnej

dziury. Jakkolwiek przestrzeń wewnątrz takiej protuberancji mogłaby podlegać wybuchowej

inflacji, my widzielibyśmy jedynie kurczącą się czarną dziurę. W końcu dziura wyparowałaby

doszczętnie i tym samym nasz Wszechświat odseparowałby się od nowo powstałego

Wszechświata-dziecka.

Mimo iż teoria ta niezwykle przemawia do wyobraźni, ciągle należy ona do sfery czystej

spekulacji. Powrócę do niej na krótko w rozdziale 8. Teoria wszechświatów niemowlęcych,

podobnie jak teoria Hartle'a-Hawkinga, zmyślnie omija problemy związane z początkiem

Wszechświata przez odwołanie się do procesów kwantowych. Warto wyciągnąć stąd wniosek, że

mechanika kwantowa otwiera drogę do wszechświatów o skończonym okresie trwania, których

istnienie nie wymaga jednak wprowadzenia jakiejś określonej przyczyny sprawczej. Nie jest

potrzebny żaden akt stworzenia.

Wszystkie koncepge fizyczne omówione w tym rozdziale opierały się na założeniu, że

Wszechświat jako całość podlega pewnym określonym prawom fizyki. Prawa te, na których

opiera się świat fizyczny, wplecione są w obręb matematyki, a ta z kolei opiera się na solidnych

podstawach logiki. To przejście od zjawisk fizycznych, poprzez prawa fizyki, do matematyki, a

ostatecznie logiki, otwiera kuszącą perspektywę, że świat można pojąć stosując wyłącznie

logiczne rozumowanie. Czyż nie mogłoby być tak, że znaczna część, jeśli wręcz nie całość,

fizycznego Wszechświata istnieje dlatego, iż jest logicznie konieczna? Niektórzy naukowcy

faktycznie twierdzili, że tak właśnie jest, że istnieje jeden jedyny logicznie spójny zestaw praw i

jeden jedyny logicznie spójny Wszechświat. Aby odnieść się do tego daleko idącego twierdzenia,

musimy zadać sobie pytanie o istotę praw fizyki.

background image

Rozdział trzeci

CZYM SĄ PRAWA PRZYRODY?

W rozdziale 2 pokazałem, że, przy danych prawach fizyki, Wszechświat jest w stanie

stworzyć sam siebie, czy też, wyrażając się bardziej poprawnie, możliwości, że Wszechświat

istnieje bez zewnętrznej wobec niego pierwszej przyczyny, nie należy już uważać za sprzeczną z

prawami fizyki. Wniosek ten opiera się w szczególności na zastosowaniu reguł mechaniki

kwantowej do kosmologii. Gdy dane są prawa, istnienie świata nie jest już samo w sobie niczym

cudownym. A zatem wygląda to, jak gdyby prawa fizyki stanowiły „podstawę bytową” świata. Z

pewnością, i tak właśnie uważa większość naukowców, można je uznać za opokę rzeczywistości,

za wieczne prawdy, na których opiera się ład kosmiczny.

Pojęcie prawa przyrody tak przyjęło się w nauce, że do niedawna niewielu naukowców

zastanawiało się nad istotą i pochodzeniem tych praw, zadowalając się po prostu przyjęciem ich

jako „danych”. Obecnie, kiedy fizycy i kosmologowie dokonali znaczących postępów na drodze

ku znalezieniu tego, co można by uznać za „podstawowe” prawa Wszechświata, wiele ze starych

pytań pojawiło się na nowo. Dlaczego prawa przyrody mają właśnie taką postać? Czy mogłyby

one być inne? Skąd się wzięły te prawa? Czy istnieją one niezależnie od świata fizycznego?

background image

Pochodzenie praw

Pojęcie prawa przyrody nie zostało wynalezione przez żadnego filozofa czy uczonego.

Jakkolwiek przybrało ono konkretną postać dopiero w erze nowożytnej nauki, jego początki

sięgają w przeszłość, do zarania dziejów, i są ściśle związane z religią. Już nasi dalecy

przodkowie musieli dysponować szczątkowym pojęciem przyczyny i skutku. Na przykład, celem

wykonywania narzędzi zawsze było lepsze wykorzystywanie otaczającego ich świata. Uderżenie

orzecha kamieniem powoduje jego rozłupanie, a umiejętnie rzucona włócznia podąża tam, gdzie

się ją wycelowało. Niemniej, chociaż ci pierwotni ludzie uświadamiali sobie pewne regularności

zachodzące wokół, olbrzymia większość zjawisk przyrody pozostawała dla nich tajemnicza i

nieprzewidywalna; w celu ich wyjaśnienia wymyślono szereg bóstw: boga deszczu, boga słońca,

bóstwa drzew, rzek, i tak dalej. W ten sposób świat przyrody rządzony był przez mnóstwo

niewidzialnych potężnych istot.

Zawsze niebezpiecznie jest sądzić dawne kultury podług współczesnych kategorii, ze

wszystkimi naszymi ukrytymi założeniami i uprzedzeniami. W dobie nauki doszukiwanie się

mechanistycznych uzasadnień obserwowanych zjawisk jest dla nas zupełnie naturalne: napięta

cięciwa łuku wprawia w ruch strzałę, siła grawitacji powoduje, że kamień spada na ziemię. Dana

przyczyna, która zazwyczaj przybiera postać określonej siły, powoduje późniejszy skutek. Lecz

ludzie w dawnych kulturach generalnie nie podchodzili do świata w ten sposób. W niektórych

kulturach postrzegano przyrodę jako pole starcia rywalizujących ze sobą sił. Bóstwa czy duchy,

każde obdarzone odrębnym charakterem, walczyły ze sobą lub zawierały pokój. Inne kultury,

zwłaszcza kultury Wschodu, widziały świat fizyczny jako holistyczny splot niezależnych

czynników.

W prawie wszystkich dawnych teoriach kosmologicznych świat przyrównywany był do

żywego organizmu. Przedmiotom fizycznym przypisywano działanie celowe, takie jakie

obserwowano u zwierząt. Ślady tego myślenia przetrwały do dzisiaj w języku, gdy mówi się, że

woda „dąży” do osiągnięcia najniższego poziomu czy też igła kompasu „pokazuje” kierunek

północny. Koncepcja, że układ fizyczny podąża, jest wewnętrznie ukierunkowany lub pociągany

ku jakiemuś celowi, znana jest jako „teleologia”. Grecki filozof Arystoteles, o którego

animistycznej wizji Wszechświata wspominałem w rozdziale l, rozróżniał cztery rodzaje

przyczyn: przyczynę materialną, przyczynę formalną, przyczynę sprawczą i przyczynę celową.

background image

Podział ten często wyjaśnia się na przykładzie domu. Co jest przyczyną powstania domu? Po

pierwsze, mamy przyczynę materialną, którą w tym przypadku utożsamiamy z cegłami i innymi

materiałami użytymi do jego budowy. Następnie mamy przyczynę formalną, to znaczy formę,

czyli kształt, jaki zostaje nadany tym materiałom. Trzecią jest przyczyna sprawcza, za której

pośrednictwem materiał przybiera tę formę (w tym przypadku jest to budowniczy). I w końcu jest

przyczyna celowa, cel, ku któremu podąża dana rzecz. W przypadku domu za cel taki można by

uznać sporządzony wcześniej plan, którym kieruje się budowniczy podczas budowy.

Nawet dysponując tak rozbudowanym systemem przyczyn Arystoteles nie doszedł do

sformułowania pojęcia tego, co dzisiaj nazywamy prawem przyrody. Zajmował się ruchem ciał

materialnych, ale to, co nazywa się u niego prawami ruchu, stanowi w istocie jedynie jakościowy

opis odwołujący się do przyczyn celowych. I tak, na przykład, kamień spada, ponieważ

„naturalnym miejscem” dla ciał ciężkich jest powierzchnia Ziemi, a gazy wznoszą się do góry,

ponieważ ich naturalne miejsce znajduje się w dziedzinie eterycznej ponad sferą niebios, i tak

dalej.

Wiele z tych dawnych koncepcji opierało się na założeniu, że własności ciał fizycznych

są ich wewnętrznymi cechami, nieodłącznie z nimi związanymi. Wielka różnorodność form i

substancji występujących w przyrodzie stanowiła zatem odzwierciedlenie nieskończonej liczby

takich wewnętrznych własności. Ten sposób patrzenia na świat został zakwestionowany w

wielkich religiach monoteistycznych. W judaizmie Bóg pojmowany był jako Dawca Praw. Bóg,

odrębny i niezależny od rzeczy stworzonych, nakłada prawa na świat fizyczny z zewnątrz.

Przyroda podległa jest określonym prawom na mocy decyzji Boga. Można wprawdzie nadal

doszukiwać się przyczyn zjawisk, lecz związek pomiędzy przyczyną a skutkiem regulowany jest

przez prawa. John Barrow, który badał historyczne kształtowanie się pojęcia prawa przyrody,

przeciwstawia panteon bogów występujący w religii starożytnej Grecji jedynemu Bogu-władcy w

judaizmie: „Kiedy przyjrzymy się bliżej religii starożytnych Greków z jej dość rozbudowanym

systemem bogów, widzimy, że nie występuje w niej pojęcie wszechmocnego kosmicznego

Prawodawcy. Bieg wydarzeń w świecie ustalany jest na drodze negocjacji, wzajemnych oszustw

czy dyskusji między bogami, a nie poprzez zrządzenie nadprzyrodzonej istoty. Stworzenie ma w

tym przypadku charakter decyzji kolektywnej, a nie dekretu władcy”

1

.

Pogląd, że prawa nie są immanentną cechą przyrody, lecz zostały nadane z zewnątrz,

został ostatecznie przyjęty zarówno przez chrześcijaństwo, jak i przez islam, choć odbyło się to

background image

nie bez oporów. Barrow przytacza poglądy św. Tomasza z Akwinu, który „uważał wprowadzone

przez Arystotelesa tendencje wrodzone za własności świata przyrody, którymi Bóg posługuje się

przy realizacji swoich celów, nie naruszając wszakże ich zasadniczej istoty. Zgodnie z tym

poglądem, Bóg jest wobec przyrody raczej partnerem niż niepodzielnym władcą”.

Arystotelesowskie koncepcje tego typu zostały jednak potępione przez biskupa Paryża w 1277

roku i w późniejszej doktrynie chrześcijańskiej ustąpiły miejsca pojęciu Boga jako Prawodawcy,

które tak dobrze wyraził Kempthorn w swym napisanym w 1796 roku hymnie:

Chwała Panu! Gdy przemówił,

Stworzył swym rozkazem świat.

Dał mu prawa niewzruszone,

By podążał w słuszny ślad.

Fascynujące jest prześledzenie, jaką rolę odegrały wpływy różnych kultur i religii w

kształtowaniu się nowożytnego pojęcia prawa przyrody. Średniowieczna Europa, z

chrześcijańską doktryną prawa boskiego przejawiającego się w przyrodzie i szeroko

rozpowszechnioną ideą prawa świeckiego, stanowiła podatny grunt, na którym mogła powstać

naukowa koncepcja praw przyrody. Możemy się przekonać, że astronomowie, jak Tycho Brahe i

Johannes Kepler, którzy sformułowali prawa ruchu planet, sądzili, iż badając regularności

występujące w przyrodzie odkrywają racjonalną strukturę będącą elementem Bożego planu.

Stanowisko to zostało podtrzymane przez francuskiego uczonego-filozofa Renę Descartesa, i

przyjęte przez Izaaka Newtona, którego prawa dotyczące ruchu ciał i powszechnego ciążenia

zapoczątkowały współczesną erę nauki.

Sam Newton wierzył mocno w kosmicznego Konstruktora działającego poprzez

niezmienne prawa matematyki. Dla Newtona i jego współczesnych Wszechświat stanowił wielki,

wspaniały mechanizm będący dziełem Boga. Nie było jednak jedności poglądów co do

charakteru działania Boga jako Kosmicznego Matematyka i Inżyniera. Czy jedynie skonstruował

On mechanizm, nakręcił, a następnie pozostawił własnemu losowi, czy też bierze aktywny udział

w jego codziennym funkcjonowaniu? Newton uważał, że Wszechświat ratowany jest od rozpadu

pod wpływem sił grawitacji jedynie za przyczyną nieustannego cudu Boga. Boska ingerencja

tego typu jest klasycznym przykładem „Boga od wypełniania luk”.

background image

Argumentacja taka kryje liczne niebezpieczeństwa i podatna jest na możliwość, że

przyszły rozwój nauki pozwoli zadowalająco wyjaśnić daną lukę w naszej wiedzy o świecie bez

potrzeby odwoływania się do Boga. I faktycznie stabilność grawitacyjna Wszechświata jest dla

nas obecnie zupełnie zrozumiała. Zresztą jeszcze za życia Newtona koncepcja nieustannego cudu

była przedmiotem drwin jego kontynentalnych oponentów. Leibniz naigrawał się:

Pan Newton i jego zwolennicy żywią wyjątkowo niedorzeczne mniemanie o dziele

Bożym. Według nich Bóg musi od czasu do czasu nakręcać mechanizm swego zegara, aby nie

stanął, gdyż nie okazał się wystarczająco przezorny przy stworzeniu, aby obdarzyć go ruchem

wiecznym. (...) Według mnie, świat wykazuje zawsze tę samą energię i siły żywotne.

Dla Kartezjusza i Leibniza Bóg był praźródłem i gwarancją wszechobejmującej

racjonalności, którą przeniknięty jest kosmos. To ta właśnie racjonalność otwiera drzwi do

poznania przyrody mocą człowieczego rozumu, który sam też jest dany od Boga. W

renesansowej Europie uzasadnieniem tego, co obecnie nazywamy metodą naukową, była wiara w

racjonalnego Boga, stworzony przez którego ład możemy w przyrodzie odkryć na drodze badań

naukowych. I, pomimo Newtona, w skład tych przekonań wchodziło przeświadczenie, że

pochodzące od Boga prawa są niezmienne. „Kultura naukowa, powstała w zachodniej Europie -

pisze Barrow - której jesteśmy spadkobiercami, przeniknięta była ideą absolutnej niezmienności

praw przyrody, co miało stanowić gwarancję sensowności uprawiania nauki i osiągnięcia

wartościowych wyników”.

Współcześnie naukowcy zadowalają się stwierdzeniem, że w przyrodzie obserwujemy

pewne regularności, które zwykliśmy nazywać prawami, nie zadając sobie zazwyczaj pytania o

pochodzenie tych praw. Jednakże warto rozważyć, czy rozwój nauki, jaki miał miejsce w

średniowiecznej i renesansowej Europie, byłby w ogóle możliwy, gdyby nie zachodnia,

chrześcijańska, teologia. Weźmy na przykład Chiny, mające w owym czasie wysoko rozwiniętą

kulturę i cywilizację, która dała im szereg technicznych wynalazków, nie znanych jeszcze w

Europie. Japońskiemu uczonemu Kowa Seki, żyjącemu w czasach Newtona, przypisuje się

niezależne wynalezienie rachunku różniczkowego i metody obliczania liczby

TC

, lecz nie

zdecydował się on na ogłoszenie swych odkryć. Joseph Needham w swoim studium myśli

dawnych Chin pisze: „Brakowało przekonania, że kodeks praw przyrody kiedykolwiek odsłoni

się przed człowiekiem i będzie mógł być przez niego odczytany, ponieważ nie wyobrażano sobie,

by jakaś istota boska, nawet bardziej racjonalna od nas, mogła kiedyś uczynić taki kodeks,

background image

możliwy do odczytania przez człowieka”. Barrow utrzymuje, że przy braku „pojęcia istoty

boskiej sankcjonującej swymi działaniami bieg spraw świata, która ustanowiwszy niezmienne

»prawa« przyrody stanowiłaby gwarancję poznania naukowego” nauka chińska skazana była na

status „płonnej ciekawości” świata.

Jakkolwiek jest nieco prawdy w twierdzeniu, że różnice w rozwoju nauki pomiędzy

Wschodem a Zachodem mogą być przypisane odmiennym teologiom, decydujące były również

inne czynniki. Znaczna część zachodniej nauki zasadzała się na metodzie redukcji, w której

własności złożonego systemu poznawane są przez badanie zachowania się jego części

składowych. By dać tu prosty przykład: przypuszczalnie żaden pojedynczy człowiek na świecie

nie zna się na wszystkich systemach technicznych pasażerskiego samolotu Boeing 747, lecz nie

ulega wątpliwości, że każdy z nich z osobna jest dobrze poznany przez wielu ludzi. Możemy

jednak twierdzić, iż samolot ten jako całość jest poznawalny, ponieważ sądzimy, że stanowi on

jedynie sumę swoich części składowych.

Zdolność ludzkiego umysłu do rozbijania złożonych systemów występujących w

przyrodzie na prostsze części okazała się kluczowym czynnikiem postępu nauki. Termin

„analiza”, częstokroć używany zamiennie ze słowem „nauka”, jest wyrazem przekonania, że, aby

poznać jakąś całość, możemy ją rozłożyć na części i badać je osobno. Niektórzy utrzymują, że

nawet układy tak złożone jak ludzkie ciało można poznać poprzez badanie zachowania

poszczególnych genów czy też praw rządzących cząsteczkami, z których zbudowane są jego

komórki. Gdybyśmy nie byli w stanie zrozumieć ograniczonych części Wszechświata bez

zrozumienia go jako całości, uprawianie nauki byłoby zajęciem beznadziejnym. Jednakże ta

„analizowalność” układów fizycznych nie jest własnością tak uniwersalną, jak dotąd sądzono.

Ostatnio naukowcy znajdują coraz więcej przykładów systemów, które mogą być poznane tylko

jako całość lub wcale. Od strony matematycznej systemy takie opisywane są za pomocą równań

znanych jako „nieliniowe”. (Więcej szczegółów na ten temat można znaleźć w moich książkach

The Cosmic Blueprint i The Matter Myth). Być może było jedynie historycznym przypadkiem, że

prekursorzy nauki zajmowali się liniowymi układami fizycznymi, które dopuszczają badanie na

sposób analityczny, uprawniając w pełni metodę redukcjonistyczną.

Rozgłos, jaki zyskała sobie w ostatnich latach „nauka holistyczna”, wyzwolił falę książek,

z których należałoby przede wszystkim wymienić Tao fizyki Fritjofa Capry, akcentujących

podobieństwa pomiędzy starożytną filozofią Wschodu, z jej naciskiem na holistyczny

background image

wszechzwiązek rzeczy w świecie, a współczesną fizyką układów nieliniowych. Czy możemy

zatem wyciągnąć wniosek, że filozofia i teologia Wschodu wykazały jednak swą wyższość nad

swymi zachodnimi odpowiednikami? Z pewnością nie. Dostrzegamy obecnie wyraźnie, że postęp

nauki wymaga stosowania zarówno metod redukcjonistycznych, jak i holistycznych. Nie jest tak,

że jedne z nich są słuszne, a drugie nie, jak niektórzy chcieliby to widzieć, lecz stanowią one dwa

komplementarne sposoby poznawania rzeczywistości. Zastanawiające jest raczej to, iż

redukcjonizm jest w ogóle możliwy. Dlaczego świat jest tak urządzony, że jesteśmy w stanie

poznać cokolwiek nie poznając wszystkiego? Tym zagadnieniem zajmę się w rozdziale 6.

background image

Kosmiczny szyfr

Wraz z narodzinami nauki i nastaniem Ery Rozumu pojawiła się idea ukrytego porządku

przyrody, który ma postać matematyczną i może być poznany na drodze wyrafinowanych badań

naukowych. Podczas gdy w przypadku prymitywnych rozumowań przyczynowo-skutkowych

odkrywamy związki, które przedstawiają się bezpośrednio naszym zmysłom, prawa przyrody, do

których dochodzi się w nauce, mają zupełnie odmienny, głębszy charakter. Przykładowo, każdy

może zobaczyć, że jabłka spadają, lecz potwierdzenie słuszności sformułowanego przez Newtona

prawa proporcjonalności przyciągania grawitacyjnego ciał do odwrotności kwadratu ich

odległości wymaga przeprowadzenia specjalnych systematycznych pomiarów oraz, co

istotniejsze, abstrakcyjnej podbudowy teoretycznej, wyrażonej za pośrednictwem matematyki,

jako kontekstu tych pomiarów. Surowe dane odbierane przez nasze zmysły nie tłumaczą się

bezpośrednio same przez się. Aby je ze sobą powiązać w zrozumiałą całość, potrzebny jest etap

pośredni, który nazywamy teorią.

Fakt, że taka teoria ma wyrafinowaną, matematyczną postać, można obrazowo wyrazić,

mówiąc, iż prawa przyrody są zaszyfrowane. Zadaniem naukowca jest poprzez „złamanie” tego

kosmicznego szyfru odkryć tajemnice, jakie kryje w sobie Wszechświat. Heinz Pagels w swej

książce The Cosmic Code (Kosmiczny szyfr) ujmuje to tak:

Jakkolwiek idea, że Wszechświat posiada porządek podległy prawom, które nie są

bezpośrednio dostępne naszym zmysłom, jest bardzo stara, dopiero w ciągu ostatnich trzech

stuleci odkryliśmy metodę pozwalającą na dotarcie do tego ukrytego porządku - eksperyment

naukowy. Metoda ta jest tak skuteczna, że praktycznie wszystko, co uczeni wiedzą o przyrodzie,

zdobyte zostało za jej pośrednictwem. Odkrywają oni, że świat jest w istocie rzeczy zbudowany

według niewidocznych bezpośrednio, uniwersalnych zasad; nazwałbym to kosmicznym szyfrem

szyfrem, którym posłużył się Demiurg stwarzając świat

7

.

Jak wspominałem w rozdziale l, Platon wykoncypował dobrego budowniczego,

Demiurga, budującego świat przy pomocy zasad matematycznych w oparciu o symetryczne

formy geometryczne. Ta abstrakcyjna dziedzina Form Platońskich powiązana była z naszym

codziennym światem doznań zmysłowych poprzez wzniosłą sferę, którą Platon nazywał Światem

Ducha. Filozof Walter Mayerstein przyrównuje platoński Świat Ducha do współczesnego pojęcia

teorii matematycznej, która również wiąże nasze doznania zmysłowe z zasadami, na których

background image

opiera się Wszechświat, dostarczając nam tego, co nazywamy zrozumieniem

8

. W czasach nam

współczesnych także Einstein utrzymywał, że zdarzenia obserwowane przez nas bezpośrednio w

świecie nie są na ogół zrozumiałe same przez się, lecz muszą być powiązane poprzez głębszą

teorię. W liście do M. Solovine'a, datowanym 7 maja 1952 roku, Einstein pisał o „zawsze

problematycznym związku pomiędzy światem idei a tym, czego bezpośrednio doświadczamy”.

Einstein podkreśla, że „nie ma logicznego przejścia” pomiędzy pojęciami teoretycznymi a

terminami obserwacyjnymi. Ich wzajemną odpowiedniość ustala się „na drodze pozalogicznej

(intuicyjnej)”

9

.

Posługując się metaforą z dziedziny teleinformatyki, moglibyśmy powiedzieć, że prawa

przyrody stanowią sposób zakodowania pewnej, przeznaczonej dla nas wiadomości,

przekazywanej nam poprzez kanał, który nazywamy teorią naukową. Dla Platona i wielu jego

następców nadawcą tej wiadomości jest Demiurg, kosmiczny Budowniczy. Jak przekonamy się

w następnych rozdziałach, wszelką informację o świecie można w zasadzie przedstawić w

postaci binarnej (ciągów jedynek i zer), która jest formą najbardziej dogodną dla przetwarzania

komputerowego. „Wszechświat - twierdzi Mayerstein - można symulować jako gigantyczny ciąg

zer i jedynek; zadaniem nauki jest zatem nic innego, jak rozkodowanie i uporządkowanie tego

»przesłania« pod kątem uczynienia go sensownym i zrozumiałym dla nas”. Co można

powiedzieć o naturze tego „przesłania”? „Jest całkiem oczywiste, iż jeśli zakładamy, że mamy do

czynienia z zakodowaną wiadomością, musimy przyjąć, że w sposobie ułożenia zer i jedynek w

tym ciągu występują pewne regularności czy też struktury; całkowicie przypadkowy, chaotyczny

ciąg z natury rzeczy byłby niemożliwy do rozkodowania”. Tak więc fakt, że mamy do czynienia

z kosmosem, a nie z chaosem, sprowadza się do istnienia struktur w owym zerojedynkowym

ciągu. W rozdziale 6 zajmę się bliżej charakterem tych struktur.

background image

Obecny status praw przyrody

Wielu ludzi, także naukowców, skłonnych byłoby przyjąć, że kosmiczny kod zawiera

istotnie wiadomość przesyłaną nam przez jakiegoś Nadawcę. Twierdzą oni, iż skoro istnieje kod,

musi istnieć także Nadawca, który się nim posłużył, i że na podstawie treści tej wiadomości

możemy dowiedzieć się czegoś o nim samym. Inni, jak Pagels, nie są bynajmniej przekonani o

istnieniu Nadawcy: „Jedną z najdziwniejszych własności kosmicznego kodu jest to, że, jak

wszystko na to wskazuje, Demiurg nie podpisał się pod swoim przesłaniem - mamy do czynienia

z wiadomością od obcej istoty bez żadnych jej śladów”. Zatem prawa przyrody byłyby

wiadomością bez Nadawcy. Pagelsa to bynajmniej nie peszy. „To, czy Bóg jest samym

przesłaniem czy jego autorem, czy też napisało się ono samo, jest kwestią bez znaczenia dla

naszego życia. Możemy bez szwanku porzucić ideę Demiurga, ponieważ nie ma żadnych

naukowych dowodów, iż świat został stworzony przez jakiegoś Stwórcę, żadnych śladów wolnej

woli lub działania celowego, które wykraczałoby poza znane nam prawa przyrody”.

Jak długo prawa przyrody brały swój początek z Boga, ich istnienie nie było czymś w

większym stopniu nadzwyczajnym niż istnienie materii, również stworzonej przez Boga. Lecz

gdy nadprzyrodzone umocowanie praw zostanie zniesione, ich istnienie staje się wielką zagadką.

Skąd się one biorą? Kto był „nadawcą przesłania”? Kto opracował kod? Czy prawa po prostu są

same z siebie, żeby się tak wyrazić, czy też powinniśmy odrzucić samo pojęcie praw przyrody

jako nikomu niepotrzebną pozostałość po wierzeniach religijnych?

Aby spróbować jakoś rozwikłać te głębokie problemy, przyjrzyjmy się najpierw, co

naukowcy faktycznie uważają za prawo. Każdy zgodzi się, że w przyrodzie możemy wyróżnić

uderzające regularności. Na przykład, orbity planet są prostymi figurami geometrycznymi, a ich

ruch wykazuje wyraźną, opisaną matematycznie okresowość. Ze strukturami i okresami mamy do

czynienia także w obrębie atomu i jego części składowych. Nawet obiekty spotykane w życiu

codziennym, takie jak mosty i maszyny, zazwyczaj zachowują się w regularny, możliwy do

przewidzenia, sposób. Wychodząc z takich doświadczeń, naukowcy na mocy rozumowania

indukcyjnego nadają tym regularnościom charakter prawa. Jak wyjaśniałem w rozdziale l,

rozumowanie indukcyjne nie jest absolutnie pewne. To, że przez całe nasze życie widzieliśmy, iż

Słońce codziennie wschodzi, nie stanowi żadnej gwarancji, że wzejdzie ono także jutro.

Przekonanie, że tak właśnie będzie, to znaczy, że w przyrodzie są regularności, których możemy

background image

być pewni, jest aktem wiary, lecz takim, bez którego postęp w nauce nie byłby możliwy.

Ważne jest, aby zrozumieć, że regularności występujące w przyrodzie są rzeczywiste.

Czasem można spotkać się z tezą, iż prawa przyrody, które stanowią próbę uchwycenia i

usystematyzowania tych regularności, są narzucone światu przez nasz, starający się go pojąć,

umysł. Prawdą jest, że człowiek ma tendencję do wyławiania regularności, a nawet

wprowadzania ich tam, gdzie faktycznie nie istnieją. Nasi przodkowie widzieli na gwiezdnym

niebie sylwetki zwierząt oraz bogów i w ten sposób pojawiły się gwiazdozbiory. I chyba każdy z

nas kiedyś dopatrywał się zarysów twarzy w chmurach, skałach czy też płomieniach. Niemniej

jednak uważam, iż pogląd, że prawa przyrody miałyby stanowić takie właśnie projekcje

ludzkiego umysłu, jest absurdalny. Występowanie regularności w przyrodzie jest obiektywnym

faktem matematycznym. Z drugiej strony, zdania, nazywane prawami, które możemy znaleźć w

podręcznikach, s ą bez wątpienia dziełem ludzkiego umysłu, lecz takim, które ma za zadanie

odzwierciedlać, choćby w niedoskonały sposób, faktycznie istniejące własności przyrody. Bez

założenia, że regularności te są czymś realnym, nauka byłaby tylko czczym rozwiązywaniem

szarad.

Innym powodem, dla którego nie uważam, że prawa przyrody są wytworem ludzkim, jest

to, iż pomagają nam one dowiedzieć się czegoś nowego o świecie; niekiedy są to rzeczy całkiem

nieoczekiwane. Cechą mocnego prawa jest to, że wykracza ono poza wierny opis zjawiska, w

związku z którym zostało sformułowane, i dostarcza również uzasadnienia innych zjawisk. Na

przykład prawo ciążenia Newtona wyjaśnia dokładnie ruchy planet, ale opisuje jednocześnie

pływy oceanów, kształt Ziemi, poruszanie się statków kosmicznych i wiele innych zjawisk.

Teoria elektromagnetyzmu Maxwella nie ograniczała się do opisu elektryczności i magnetyzmu,

lecz potrafiła także wyjaśnić naturę fal świetlnych i przewidzieć istnienie fal radiowych. Zatem

prawa przyrody o naprawdę podstawowym charakterze ukazują głębokie związki zachodzące

pomiędzy procesami fizycznymi różnego typu. Dzieje nauki pokazują, że gdy tylko zostanie

przyjęte nowe prawo, poszukuje się wszystkich możliwych jego konsekwencji, testując je w

innych kontekstach, co często prowadzi do odkrycia nowych, nieoczekiwanych, istotnych

zjawisk. To skłania mnie do poglądu, że uprawiając naukę, odkrywamy rzeczywiste regularności

i związki, że odczytujemy te regularności, a nie wpisujemy ich do przyrody.

Nawet jeżeli nie wiemy, czym są prawa przyrody, ani skąd się one wzięły, jesteśmy w

stanie wymienić ich własności. Co ciekawe, prawa zostały obdarzone wieloma atrybutami

background image

poprzednio formalnie przypisywanymi Bogu, od którego miałyby one pochodzić.

Przede wszystkim, prawa mają charakter uniwersalny. Prawo, które jest słuszne jedynie

czasem, czy też w tym, a nie w innym, miejscu, to nie jest żadne prawo. Zakłada się, że prawa

przyrody obowiązują bez wyjątku w całym Wszechświecie i na wszystkich etapach jego historii,

nie dopuszczając żadnych wyjątków. W tym sensie prawa są także doskonałe.

Po drugie, prawa są absolutne. Nie zależą od niczego poza sobą. W szczególności nie

zależą od tego, kto dokonuje obserwacji świata, czy też od jego stanu. To prawa wpływają na

stan Wszechświata, a nie odwrotnie. W istocie, zasadniczym elementem naukowej wizji świata

jest rozdzielenie praw rządzących jakimś układem od stanu tego układu. Gdy naukowiec mówi o

„stanie” układu, ma na myśli faktyczny fizyczny stan, w jakim układ ten znajduje się w danym

momencie. W celu opisania tego stanu trzeba podać wartości wszystkich parametrów fizycznych

charakteryzujących układ. Stan gazu, na przykład, można określić podając jego temperaturę,

ciśnienie, skład chemiczny itd., jeśli interesują nas wyłącznie jego własności globalne. Zupełna

specyfikacja stanu gazu wymagałaby podania szczegółowych pozycji i pędów wszystkich

cząsteczek wchodzących w jego skład. Stan ten nie jest czymś na zawsze ustalonym, danym od

Boga; na ogół zmienia się z czasem. W przeciwieństwie do niego, prawa, pozwalające powiązać

z sobą stan gazu w kolejnych momentach, pozostają niezmienne w czasie.

W ten sposób doszliśmy do trzeciej i najważniejszej własności praw przyrody: są one

wieczne. Ponadczasowy, wieczny charakter tych praw znajduje swój wyraz w strukturach

matematycznych używanych do opisu świata fizycznego. W mechanice klasycznej, na przykład,

prawa dynamiki opisane są za pomocą tworu matematycznego zwanego „hamiltonianem”, który

rozpatrywany jest w przestrzeni zwanej „przestrzenią fazową”. Dokładne definicje tych

konstrukcji matematycznych nie są tu dla naszych rozważań istotne. Ważne jest to, iż zarówno

hamiltonian, jak i przestrzeń fazowa są niezmienne. Z drugiej strony, stan układu reprezentowany

jest przez punkt w przestrzeni fazowej i punkt ten porusza się, co odpowiada zmianom, jakim

podlega układ w trakcie swojej ewolucji. Zasadniczym faktem jest, że sam hamiltonian i

przestrzeń fazowa nie zależą w żaden sposób od ruchu tego punktu.

Po czwarte, prawa są wszechwładne. Rozumiem przez to, że nic nie jest w stanie ujść

spod ich władzy: są wszechmocne. Można również w pewnym sensie powiedzieć, iż są

wszechwiedzące, ponieważ, jeżeli już trzymamy się metafory, że prawa „rządzą” układami

fizycznymi, układy te nie muszą „powiadamiać” praw o stanie, w jakim się znajdują, aby prawa

background image

„wydały odpowiednie instrukcje”, właściwe dla tego właśnie stanu.

W stosunku do tego, co powiedzieliśmy do tej pory o prawach przyrody, na ogół wszyscy

są zgodni. Różnice pojawiają się jednak, gdy przychodzi do rozważania statusu tych praw. Czy

odkrywamy jedynie realnie istniejące prawa, czy też są one genialnym wytworem uczonych

umysłów? Czy prawo powszechnego ciążenia Newtona jest obiektywną rzeczywistością, którą

przypadkowo odkrył właśnie Newton, czy też zostało ono wynalezione przez Newtona w celu

opisania obserwowanych w świecie regularności? Ujmując to w odmienny sposób, czy Newton

odkrył coś obiektywnego w świecie, czy też po prostu wymyślił model matematyczny pewnego

aspektu świata, który okazał się niezwykle użyteczny do jego opisu.

Język, jakim posługują się naukowcy w odniesieniu do praw Newtona, zdradza silną

preferencję dla pierwszej z wymienionych możliwości. Fizycy mówią, że planety „są posłuszne”

prawom Newtona, jak gdyby planeta sama z siebie miała naturę buntowniczą i zaczęłaby sobie

hulać, gdyby nie była „podległa” tym prawom. W ten sposób powstaje wrażenie, że prawa czają

się „gdzieś tam”, gotowe ingerować w ruch planet, gdziekolwiek i kiedykolwiek miałby on

miejsce. Ulegając temu sposobowi opisu, łatwo przypisać prawom istnienie niezależne. Jeśli nada

im się taki status, mówi się, że prawa są transcendentne, ponieważ wykraczają poza sferę zjawisk

fizycznych, lecz czy jest to faktycznie uzasadnione?

W jaki sposób prawa mogłyby uzyskać odrębny, trancendentny byt? Przecież jeżeli

przejawiają się one jedynie za pośrednictwem układów fizycznych poprzez sposób, w jaki się te

układy zachowują, nie możemy nigdy wyjść „poza” sferę zjawisk, do praw jako takich. Prawa

kryją się wewnątrz zjawisk fizycznych, a my obserwujemy zjawiska, a nie prawa. Jeżeli jedynym

sposobem dotarcia do praw jest śledzenie ich przejawów w sferze zjawisk fizycznych, jakież

mamy prawo przypisywać im byt niezależny?

Z pomocą może nam tu przyjść analogia ze stosunkiem sprzętu i oprogramowania w

technice komputerowej. Prawa fizyki odpowiadają oprogramowaniu, a świat fizyczny

konkretnemu sprzętowi. (Prawdą jest, że słowo „konkretny” jest tu nieco naciągnięte, gdyż pod

mianem świata fizycznego rozumiemy obiekty tak niedookreślone jak pola kwantowe, a nawet

sama czasoprzestrzeń). Podstawowe pytanie może być zatem sformułowane w ten sposób: czy

mamy do czynienia z niezależnie istniejącym „kosmicznym oprogramowaniem” - czymś w

rodzaju programu komputerowego - dla Wszechświata, które obejmowałoby wszystkie niezbędne

prawa? Czy to „oprogramowanie” może istnieć bez „sprzętu”?

background image

Wyraziłem już swoje przekonanie, że prawa przyrody są czymś rzeczywistym, są

obiektywnymi prawdami o Wszechświecie, i że odkrywamy je, a nie wymyślamy. Lecz

wszystkie znane fundamentalne prawa okazują się mieć formę matematyczną. Dlaczego tak

właśnie jest, to ważny i trudny problem, który wymaga przyjrzenia się temu, czym jest

matematyka. Zajmę się tym w następnych rozdziałach.

background image

Co to znaczy, że coś „istnieje”?

Jeżeli świat fizyczny opiera się na prawach fizyki, to te prawa w jakimś sensie muszą

istnieć niezależnie. Jaką formę istnienia można przypisać bytowi tak abstrakcyjnemu i mglistemu

jak prawo przyrody?

Zacznijmy od czegoś bardziej uchwytnego, powiedzmy, od kamienia. Wiemy, że kamień

istnieje, ponieważ (zgodnie ze słynnym sformułowaniem Samuela Johnsona) możemy go kopnąć.

Możemy go również zobaczyć i powąchać: kamień oddziałuje bezpośrednio na nasze zmysły.

Jednak istnienie kamienia polega na czymś więcej niż na dotknięciu, obejrzeniu i powąchaniu.

Można przyjąć, że istnienie kamienia nie zależy od naszych zmysłów. Istnieje on realnie i będzie

istniał nadal, nawet jeżeli nie będziemy go mogli dotknąć, zobaczyć czy powąchać. Jest to

oczywiście hipoteza, jednakże hipoteza w pełni racjonalna. Jedno jest pewne, przy powtórnym

oglądzie nasze dane zmysłowe będą zbliżone do poprzednich. Korelacja pomiędzy danymi

otrzymywanymi przy kolejnych okazjach pozwala nam rozpoznawać, że jest to kamień i że za

każdym razem mamy do czynienia z tym samym kamieniem. Zatem prościej jest przyjąć taki

model rzeczywistości, w którym kamień obdarzony jest istnieniem niezależnym od naszych

zmysłów, niż zakładać, iż znika on za każdym razem, gdy odwracamy wzrok, i posłusznie

pojawia się znów w tym samym miejscu, gdy spoglądamy nań ponownie.

W przypadku kamienia wszystko to wydaje się bezsporne. Jednak nie wszystkie obiekty,

o których twierdzimy, że istnieją, są równie konkretne jak kamień. Co na przykład z atomami? Są

one zbyt małe, aby można je było zobaczyć, dotknąć czy też w jakikolwiek inny sposób

percypować bezpośrednio. Nasza wiedza dotycząca atomów uzyskiwana jest na drodze

pośredniej, za pomocą przyrządów pomiarowych, których dane muszą być dopiero poddane

obróbce i interpretacji. Mechanika kwantowa pogarsza jeszcze bardziej sytuację. Okazuje się, że

nie jest na przykład możliwe przypisanie atomowi jednocześnie określonego położenia i

prędkości. Atomy i subatomowe cząstki elementarne tworzą jak gdyby na wpół istniejący świat

cieni.

Mamy też dość abstrakcyjne byty, takie jak pola. Pole grawitacyjne wytwarzane przez

dane ciało bez wątpienia istnieje, jednak nie można go kopnąć, nie mówiąc już o zobaczeniu czy

powąchaniu. Czymś jeszcze bardziej nieuchwytnym są pola kwantowe, niewidzialne rozedrgane

struktury przestrzenne, niosące w sobie energię.

background image

Mało konkretne istnienie nie jest jednak wyłącznie domeną fizyki. Takich pojęć jak

obywatelstwo czy bankructwo, z którymi mamy do czynienia na co dzień, też nie można dotknąć

ani zobaczyć, niemniej są one realne. Kolejnym przykładem jest informacja. Fakt, iż informacji

jako takiej nie da się percypować bezpośrednio, w niczym nie umniejsza rzeczywistego

znaczenia w naszym życiu „technologii informacyjnych”, pozwalających na przechowywanie i

przetwarzanie informacji. To samo dotyczy pojęcia oprogramowania i inżynierii

oprogramowania w informatyce. Oczywiście, jesteśmy w stanie zobaczyć i dotknąć elementów

służących do przechowywania informacji, takich jak dysk komputerowy czy kostka pamięci, lecz

nie możemy z nich bezpośrednio percypować informacji jako takiej.

Następnie mamy całą sferę zjawisk subiektywnych, jak sny. Obiekty występujące w

marzeniach sennych niezaprzeczalnie istnieją (przynajmniej dla tego, kto je śni), lecz w sposób

daleko mniej konkretny niż kamienie. Podobnie ma się sprawa z myślami, emocjami,

wspomnieniami i odczuciami: nie da się ich odrzucić jako nieistniejących, chociaż charakter ich

istnienia jest zupełnie odmienny niż istnienie elementów „obiektywnego” świata. Tak jak

programy komputerowe, umysł lub dusza mogą wymagać dla swego przejawiania się jakiegoś

konkretnego podłoża - w tym przypadku mózgu - lecz to nie czyni ich samych bardziej

konkretnymi.

Istnieje także kategoria rzeczy, które określa się ogólnym mianem kultury, na przykład

muzyka lub literatura. Istnienia symfonii Beethovena czy powieści Dickensa nie da się

sprowadzić po prostu do istnienia papieru, na którym zostały one napisane. Także religii i

polityki nie można utożsamić z ludźmi, którzy je uprawiają.

Wszystkie te rzeczy „istnieją” w niezbyt konkretnym, niemniej istotnym, sensie.

I w końcu mamy dziedzinę matematyki i logiki, o zasadniczym znaczeniu dla nauki. Jaki

jest charakter ich istnienia? Kiedy mówimy, że istnieje jakieś twierdzenie, na przykład dotyczące

liczb pierwszych, nie chodzi nam o to, iż twierdzenie to można kopnąć tak jak kamień. Jednak

obiekty matematyczne obdarzone są jakimś, jakkolwiek abstrakcyjnym, rodzajem istnienia.

Stajemy przed pytaniem, czy prawa fizyki są bytami transcendentnymi. Wielu fizyków

uważa, że tak. Mówią o „odkrywaniu” praw fizyki, jak gdyby istniały one już poprzednio przez

cały czas. Oczywiście, na ogół zakłada się, że to, co dzisiaj nazywamy prawami fizyki, stanowi

jedynie próbę przybliżenia do pewnego zupełnego zbioru „prawdziwych” praw, wierząc jednak,

iż w miarę postępu nauki przybliżenie to staje się coraz lepsze i pewnego dnia będziemy znali

background image

„właściwe” prawa. Kiedy to nastąpi, fizyka teoretyczna osiągnie swój cel. Właśnie nadzieja, że

takie ukoronowanie fizyki czeka nas już niedługo, skłoniła Stephena Hawkinga do nadania

swemu wykładowi inauguracyjnemu przy obejmowaniu Katedry Lukasjańskiej w Cambridge

tytułu „Czy widać już koniec fizyki teoretycznej?”

Jednak nie wszystkim fizykom równie odpowiada idea transcendentnych praw. James

Hartle, zauważając, iż „naukowcy w naukach przyrodniczych, podobnie jak matematycy,

postępują tak, jak gdyby prawdy w dziedzinach, którymi się zajmują, miały byt niezależny (...),

jak gdyby mieli do czynienia z jedynym zbiorem praw, którymi rządzi się Wszechświat, przy

czym prawa te są w istocie od niego niezależne”, dowodzi, że dzieje nauki obfitują w przykłady

„niepodważalnych prawd uniwersalnych”, które okazywały się później możliwymi do obalenia

przypadkami szczególnymi. To, że Ziemia stanowi centrum Wszechświata, było nie-

kwestiowaną prawdą przez stulecia, dopóki ludzie nie stwierdzili, iż się im to tylko tak wydaje

wskutek położenia, jakie zajmują na jej powierzchni. To, że linie i kąty w trójwymiarowej

przestrzeni spełniają aksjomaty geometrii euklidesowej, również przyjmowano jako prawdę

fundamentalną i niepodważalną, a później okazało się, iż jest tak wyłącznie dlatego, że żyjemy w

obszarze czasoprzestrzeni, w którym grawitacja jest stosunkowo słaba, tak że krzywizna

przestrzeni była dotąd niezauważalna. Jak wiele jeszcze własności świata, zastanawia się Hartle,

jest podobnie wynikiem szczególnej perspektywy, z jakiej go oglądamy, a nie głębokiej,

trancendentalnej prawdy? Samo rozróżnienie „świata” od „praw” również może do nich należeć.

Zgodnie z tym poglądem, nauka nie zmierza ku odkryciu jednego, ostatecznego zbioru

praw. Naszych teorii i zawartych w nich praw nie sposób oddzielić, twierdzi Hartle, od

okoliczności, w jakich one powstały. Okoliczności te obejmują naszą kulturę, ewolucję naszego

gatunku i konkretną wiedzę, jaką posiadamy o świecie. Obca cywilizacja, inaczej ukształtowana

na drodze ewolucji, z inną kulturą i nauką, być może doszłaby do odmiennych praw. Hartle

wskazuje na fakt, że do jednego zbioru danych można dopasować szereg odmiennych praw i

nigdy nie możemy być pewni, że prawa, które wybraliśmy, są tymi właściwymi.

background image

Na początku

Istotne jest, by zdawać sobie sprawę, że same prawa nie dostarczają pełnego opisu świata.

W istocie, naszym celem przy formułowaniu praw jest powiązanie ze sobą różnych zjawisk

fizycznych. Jedno z prostych praw na przykład głosi, że piłka wyrzucona ku górze porusza się po

torze parabolicznym. Parabole mogą być jednak różne; jedne są wysokie i krótkie, inne niskie i

długie. Po jakiej parabli będzie poruszała się dana piłka, zależy od prędkości i kąta, pod jakim

została ona wyrzucona. Paramery te określa się mianem „warunków początkowych”. Prawo o

ruchu po paraboli plus warunki początkowe pozwalają na jednoznaczne wyznaczenie toru ruchu

piłki.

Prawa zatem są wypowiedziami o klasach zjawisk, natomiast warunki początkowe

dotyczą konkretnych układów fizycznych. Prowadzenie badań naukowych przez fizyka-

eksperymentatora polega często na doborze, lub wynajdywaniu, pewnych warunków

początkowych. Na przykład, Galileusz w swym słynnym doświadczeniu ze spadaniem ciał

upuszczał jednocześnie przedmioty o różnych masach, aby dowieść, że wszystkie one uderzą w

ziemię w tej samej chwili. W przeciwieństwie do warunków początkowych prawa nie mogą być

dobierane przez badacza; są one „dane od Boga”. Powoduje to, że prawa uzyskują o wiele

wyższą rangę i uważane są za fundamentalne, wieczne i absolutne, podczas gdy warunki

początkowe traktuje się jako przypadkowe szczegóły, dające się dowolnie kształtować.

W świecie rzeczywistym jednak, poza zasięgiem możliwości eksperymentatora,

warunków początkowych dostarcza sama przyroda. Spadające na ziemię ziarno gradu nie zostało

upuszczone przez Galileusza w zamierzony sposób, lecz jest wytworem procesów fizycznych

zachodzących w górnych warstwach atmosfery. Podobnie, gdy do Układu Słonecznego wleci z

zewnątrz kometa poruszająca się po określonym torze, jej orbita zależy od procesów fizycznych,

jakie zaszły w miejscu, gdzie powstała. Innymi słowy, warunki początkowe odnoszące się do

jakiegoś interesującego nas układu kształtowane są przez otoczenie, w jakim się ten układ

znajduje. Można sobie z kolei zadać pytanie o warunki początkowe tego szerszego układu.

Dlaczego ziarno gradu uformowało się w danym miejscu atmosfery? Dlaczego chmury utworzyły

się tam, a nie gdzie indziej? Ten ciąg pytań nie ma końca.

Łatwo się przekonać, że sieć takich przyczynowych powiązań rośnie bardzo szybko i

wkrótce obejmuje cały Wszechświat. I co wtedy? Pytanie o kosmiczne warunki początkowe

background image

prowadzi nas z powrotem do Wielkiego Wybuchu i problemu pochodzenia Wszechświata. Tutaj

mamy do czynienia z diametralnie odmienną sytuacją. Podczas gdy dla poszczególnych układów

fizycznych warunki początkowe były czymś przypadkowym, co można było uzasadnić przez

odwołanie się do szerszego kontekstu we wcześniejszej chwili, w przypadku warunków

początkowych Wszechświata nie mamy szerszego kontekstu ani wcześniejszej chwili.

Kosmiczne warunki początkowe są czymś „danym”, podobnie jak prawa fizyki.

Wielu naukowców uważa, że problem warunków początkowych leży całkowicie poza

zakresem nauki i, podobnie jak prawa, trzeba je po prostu przyjąć jako pierwotny fakt. Ci o

bardziej religijnym nastawieniu umysłu dla ich uzasadnienia odwołują się do Boga, natomiast

ateiści uważają je za przypadkowe lub arbitralne. Zadaniem naukowca jest poszukiwanie

uzasadnień nie polegających na żadnym szczególnym doborze warunków początkowych. Jeśli

jakiś element świata może być uzasadniony jedynie przez założenie, iż Wszechświat zaczął się w

określony sposób, to nie stanowi to faktycznie żadnego uzasadnienia. Po prostu stwierdza się

jedynie, że świat jest, jaki jest, ponieważ kiedyś był, jaki był. Rodzi to tendencję do

konstruowania teorii Wszechświata, które nie zależą w zasadniczy sposób od doboru warunków

początkowych.

Pomysłu, jak tego można dokonać, dostarcza termodynamika. Jeżeli dostanę szklankę

gorącej wody, wiem, że jutro będzie ona zimna. Natomiast, jeśli dostanę szklankę zimnej wody,

nie jestem w stanie stwierdzić, czy była ona gorąca wczoraj lub przedwczoraj, jak bardzo gorąca,

i czy w ogóle kiedykolwiek była gorąca. Można powiedzieć, że szczegóły termicznej historii tej

wody, w tym jej stan początkowy, zostały zatarte przez procesy termodynamiczne, które

doprowadziły ją do równowagi termodynamicznej z otoczeniem. Kosmologowie twierdzą, że

analogiczne procesy doprowadziły do zatarcia śladów warunków początkowych Wszechświata, a

zatem jest niemożliwe wywnioskowanie, nawet w najogólniejszy sposób, jaki był Wszechświat

na początku, jedynie na podstawie znajomości jego stanu dzisiejszego.

Pozwolę sobie przytoczyć przykład. Wszechświat rozszerza się obecnie z tą samą

prędkością we wszystkich kierunkach. Czy oznacza to, że Wielki Wybuch był izotropowy?

Niekoniecznie. Mogło być tak, że ekspansja na początku miała charakter chaotyczny, odbywając

się z różnymi prędkościami w różnych kierunkach, i dopiero później uległa uporządkowaniu w

wyniku różnych procesów fizycznych. Na przykład ruch w kierunkach, w których ekspansja była

najszybsza, mógł być spowalniany przez siły tarcia. Albo też, zgodnie z modnym obecnie

background image

modelem Wszechświata inflacyjnego, omówionym pokrótce w rozdziale 2, we wczesnym

Wszechświecie wystąpiła faza gwałtownej ekspansji, podczas której wszelkie istniejące

początkowo nieregularności zostały wyeliminowane. W wyniku tego powstał Wszechświat

przestrzennie jednorodny i ekspandujący izotropowo.

Hipoteza, że obserwowany obecnie stan Wszechświata jest w znacznym stopniu

niezależny od warunków początkowych Wielkiego Wybuchu, jest chętnie przyjmowana przez

wielu naukowców. Niewątpliwie po części jako wyraz sprzeciwu wobec religijnych koncepcji

zakładających stworzenie nadprzyrodzone, ale także dlatego, że usuwa ona potrzebę zajmowania

się stanem Wszechświata w fazie początkowej, gdy panowały w nim ekstremalne warunki. Z

drugiej strony, jest oczywiste, iż warunków początkowych nie można całkowicie pominąć.

Możemy sobie wyobrazić Wszechświat na tym samym etapie ewolucji, co nasz, lecz zupełnie

odmienny, a następnie na podstawie praw fizyki prześledzić jego ewolucję wstecz w czasie aż po

początek Wielkiego Wybuchu. Znaleźlibyśmy wówczas jakiś stan początkowy, który byłby

odpowiedzialny za odmienny przebieg ewolucji tamtego Wszechświata.

Jakiekolwiek były warunki początkowe powstania naszego Wszechświata, możemy

zawsze zapytać: dlaczego właśnie takie? Biorąc pod uwagę, że liczba możliwości była

nieskończona, dlaczego zaczął się właśnie w ten sposób? Czy te konkretne warunki początkowe

były w jakiś sposób wyróżnione? Pojawia się pokusa, by zakładać, że warunki początkowe nie

miały charakteru arbitralnego, lecz były wynikiem działania jakiejś głębszej zasady. W końcu,

powszechnie przyjmuje się, iż prawa fizyki nie są arbitralne, lecz mogą być z sobą powiązane

matematycznie w zgrabną całość. Czy nie mogłoby istnieć również jakieś dające się zgrabnie

wyrazić matematycznie „prawo warunków początkowych”?

Takie przypuszczenie było wysuwane przez wielu teoretyków. Przykładem może być

Roger Penrose, który dowodził, że przy przypadkowym wyborze warunków początkowych jest

wielce prawdopodobne, iż powstałby Wszechświat wysoce nieregularny, wypełniony

straszliwymi czarnymi dziurami, a nie względnie jednorodnie rozłożoną materią. Wszechświat

tak jednorodny jak nasz wymaga niewiarygodnie dokładnego doboru warunków swego

powstania, tak, aby ekspansja w obrębie wszystkich jego obszarów była ze sobą dokładnie

uzgodniona. Posługując się metaforą Stwórcy dysponującego nieskończonym „inwentarzem”

możliwych warunków początkowych, Penrose twierdzi, że Stwórca musiałby bardzo dokładnie

przeglądać swój spis, zanim znalazłby zestaw dający Wszechświat taki jak nasz. Gdyby wyboru

background image

dokonywał na ślepo, na pewno by mu się to nie udało. „Nie mając bynajmniej zamiaru ujmować

Stwórcy zdolności w tym względzie - zauważa Penrose - z całym przekonaniem twierdzę, że

jednym z obowiązków nauki jest poszukiwanie praw fizycznych, które pozwoliłyby na

uzasadnienie, lub przynajmniej dostarczały sensownego opisu, skąd wzięło się to fenomenalne

dopasowanie, z którym tak często mamy do czynienia w przyrodzie (...). Potrzebujemy prawa

fizyki, które wyjaśniałoby szczególny charakter stanu początkowego”. Istotą prawa

zaproponowanego przez Penrose'a jest nałożenie na pierwotny stan Wszechświata wymogu

jednorodności od samego początku, bez potrzeby odwoływania się do inflacji czy też jakiegoś

innego procesu ujednolicającego. Nie będziemy się tutaj zagłębiać w jego szczegóły

matematyczne.

Inną propozycję dyskutowali Hartle i Hawking w kontekście swojej teorii kwantowo-

kosmologicznej. Jak wspominałem w rozdziale 2, w teorii tej nie występuje wyraźnie

wyróżniony „pierwszy moment”, zaistnienie świata nie ma charakteru pojedynczego zdarzenia.

Zatem problem warunków początkowych zostaje usunięty przez wyeliminowanie samego

momentu początkowego. Jednakże, aby to było możliwe, na kwantowy stan Wszechświata muszą

być nałożone poważne ograniczenia, obowiązujące nie tylko na początku, lecz przez cały czas.

Hartle i Hawking podali dokładną postać matematyczną tych ograniczeń, które w ten sposób w

istocie odgrywają rolę „prawa warunków początkowych”.

Należy zdawać sobie sprawę, że prawa warunków początkowych nie można

zweryfikować ani wyprowadzić z istniejących praw fizyki. Wartość takiego prawa, podobnie jak

wszystkich hipotez naukowych, polega na jego zdolności przewidywania konsekwencji

obserwacyjnych. Wprawdzie częstokroć pewne hipotezy cieszą się powodzeniem u teoretyków

ze względu na swoją elegancję matematyczną i „naturalność”, lecz takie argumenty trudno uznać

za zadowalające uzasadnienie. Hipoteza Hartle'a-Hawkinga, na przykład, doskonale pasuje do

formalizmu kwantowej teorii grawitacji, w jej kontekście wydaje się bardzo prawdopodobna i

naturalna, lecz gdyby rozwój naszej nauki przebiegał innymi drogami, prawo Hartle'a-Hawkinga

być może wyglądałoby na wysoce arbitralne i wydumane.

Tak się nieszczęśliwie składa, że prześledzenie obserwacyjnych konsekwencji teorii

Hartle'a-Hawkinga nie jest łatwe. Jej twórcy utrzymują, że przewiduje ona fazę inflacyjną w

ewolucji Wszechświata, co niewątpliwie odpowiada najnowszym trendom w kosmologii, a

ponadto może kiedyś będzie mogła coś powiedzieć o wielkoskalowej strukturze Wszechświata,

background image

na przykład uzasadnić sposób grupowania się galaktyk. Jednakże nie wygląda na to, żeby

kiedykolwiek udało się jednoznacznie wybrać takie prawo na drodze obserwacyjnej. Hartle

dowodzi wręcz że takie jedno prawo nie istnieje. W każdym razie, nawet gdybyśmy mieli prawo

wyznaczające stan kwantowy Wszechświata jako całości, nie można by na jego podstawie

powiedzieć niczego o elementach jego szczegółowej struktury, na przykład stwierdzić istnienie

konkretnej planety, nie mówiąc już o istnieniu konkretnej osoby. Z samego kwantowego

charakteru teorii wynika (na skutek zasady nieoznaczoności Heisenberga), że takie szczegóły

pozostałyby nieokreślone.

Być może jest tak, że odróżnienie praw od warunków początkowych, które leżało u

podłoża wszystkich dotychczasowych prób badania układów dynamicznych, jest w większym

stopniu historycznym wytworem sposobu, w jaki następował rozwój nauki, aniżeli

fundamentalną własnością przyrody. W podręcznikach czytamy, że typowy eksperyment polega

na tym, że eksperymentator buduje dany układ fizyczny, nadając mu określony stan, a następnie

obserwuje, co się dzieje, tzn. jak ten stan zmienia się w czasie. Powodzenie metody naukowej

opiera się na powtarzalności wyników eksperymentu. Gdy eksperyment zostanie powtórzony,

prawa fizyki pozostają te same, natomiast warunki początkowe dobiera eksperymentator. W ten

sposób kstałtuje się wyraźny, operacyjny podział na prawa i warunki początkowe. Jednakże w

kosmologii sytuacja wygląda inaczej. Wszechświat jest tylko jeden, zatem nie ma mowy o

zastosowaniu pojęcia powtarzalnego eksperymentu. Ponadto nie jesteśmy w stanie zmienić

warunków początkowych, tak samo jak nie możemy zmienić praw fizyki. Zatem ostry podział na

prawa fizyki i warunki początkowe ulega zatarciu. „Czyż nie byłoby możliwe - snuje

przypuszczenia Hartle - że na wyższym poziomie działają bardziej ogólne zasady wyznaczające

zarówno warunki początkowe, jak i dynamikę?”.

Moim zdaniem, hipotezy o prawie warunków początkowych silnie potwierdzają platońską

koncepcję, że prawa są bytem rzeczywistym, trancendentalnym względem świata fizycznego.

Czasem spotyka się twierdzenie, że prawa fizyki zaistniały wraz z Wszechświatem. Gdyby tak

było, prawa te nie mogłyby wyjaśnić początku Wszechświata, ponieważ działałyby dopiero po

jego powstaniu. Widać to szczególnie wyraźnie w przypadku prawa warunków początkowych,

ponieważ prawo to z założenia ma uzasadniać, dlaczego Wszechświat zaistniał właśnie w takiej

konkretnej postaci. W koncepcji Hartle'a-Hawkinga nie występuje moment narodzin

Wszechświata, w którym miałoby się stosować ich prawo, niemniej ma ono stanowić

background image

uzasadnienie faktycznej postaci świata. Jeżeli prawa nie mają charakteru transcendentnego,

zmuszeni jesteśmy przyjąć po prostu jako fakt, że Wszechświat jest taki, jaki jest, a pewne jego

własności wyrażane są jako wbudowane weń prawa. Natomiast, gdy prawa są trancendentne,

mamy podstawy poszukiwania uzasadnienia, dlaczego Wszechświat jest właśnie taki.

Teza o transcendentalnym charakterze praw fizyki jest współczesnym odpowiednikiem

platońskiej dziedziny form doskonałych, których kopiami miałyby być ulotne obiekty-cienie ze

świata naszych doznań zmysłowych. W praktyce prawa fizyki formułowane są w postaci

zależności matematycznych, a zatem w naszym poszukiwaniu niewzruszonych podstaw

rzeczywistości musimy się teraz zająć istotą matematyki i odwiecznym problemem, czy obiekty

matematyczne istnieją jako samodzielne byty w sensie platońskim.

background image

Rozdział czwarty

MATEMATYKA A ŚWIAT REALNY

Nic nie uwidacznia w większym stopniu przepaści, jaka istnieje miedzy dwiema sferami -

humanistyką a naukami ścisłymi - niż matematyka. Dla niematematyków matematyka jest

obcym, przeraźliwie skomplikowanym światem abstrakcji, pełnym dziwacznych symboli i

technicznych procedur, niemożliwym do opanowania jeżykiem czarnej magii. Dla naukowca

matematyka stanowi gwarancję precyzji i obiektywności; okazuje się także być językiem samej

przyrody. Nikt, kto nie ma do czynienia z matematyką, nie może w pełni pojąć istoty

wewnętrznego porządku wpisanego głęboko w naturę świata fizycznego.

Właśnie z powodu tej niezastąpionej roli, jaką matematyka pełni w nauce, wielu

naukowców, zwłaszcza fizyków, upatruje w niej podstawową rzeczywistość przyrody. Jeden z

moich współpracowników powiedział mi kiedyś, że jego zdaniem świat to nic innego jak różne

obiekty matematyczne. Dla zwykłego człowieka, który postrzega rzeczywistość jako składającą

się z obiektów fizycznych, a matematykę jako ezoteryczne igraszki umysłu, brzmi to bez

wątpienia zdumiewająco. Jednakowoż pogląd, że matematyka jest kluczem do tajemnic kosmosu,

jest równie stary jak ona sama.

background image

Magia liczb

Większości ludzi starożytna Grecja kojarzy się w pierwszym rzędzie z geometrią. W

naszych czasach uczniowie w szkole uczą się twierdzenia Pitagorasa i innych elementów

geometrii euklidesowej jako wprawki w matematycznym i logicznym myśleniu. Niemniej dla

filozofów greckich ich geometria była czymś więcej niż tylko ćwiczeniem umysłu. Pojęcia liczby

i formy fascynowały ich tak bardzo, że oparli na nich całą teorię Wszechświata. Jak to ujął

Pitagoras: „Liczba jest miarą wszechrzeczy”.

Sam Pitagoras żył w szóstym stuleciu przed naszą erą i był założycielem szkoły filozofów

zwanych potem pitagorejczykami. Byli oni przekonani, że porządek kosmosu zasadza się na

stosunkach liczb, i przypisywali pewnym liczbom i kształtom znaczenie mistyczne. Szczególną

estymą darzyli na przykład tak zwane „doskonałe” liczby, jak 6 i 28, które są sumą swoich

podzielników (na przykład 6=1+2+3). Największym poważaniem cieszyła się liczba 10, zwana

boskim tetraktusem, jako suma pierwszych czterech liczb całkowitych. Poprzez układanie

punktów w różne konfiguracje Grecy tworzyli liczby trójkątne (jak 3, 6 i 10), kwadratowe (4, 9,

16, ...) i tak dalej. Kwadratową liczbę 4 uczyniono symbolem sprawiedliwości i wzajemności,

czego dalekie echo pobrzmiewa do dziś w angielskich wyrażeniach a square deal [sprawiedliwy

układ] i being all square [w zgodzie ze wszystkimi]. Trójkątne przedstawienie liczby 10 uważane

było za święty symbol, na który przysięgano przy obrzędach inicjacyjnych.

Wiara pitagorejczyków w potęgę numerologii została jeszcze bardziej podbudowana po

odkryciu roli liczby w muzyce przez Pitagorasa, który stwierdził, że długości strun

wytwarzających harmonicznie powiązane tony pozostają ze sobą w prostych stosunkach

liczbowych. Na przykład, oktawa odpowiada stosunkowi 2:1. Samo słowo „racjonalny” bierze

swój początek z wielkiego heurystycznego znaczenia, jakie pitagorejczycy przypisywali

stosunkom („racjom”) liczb całkowitych, takim jak 3/4 i 2/3. Zresztą matematycy do dziś

nazywają takie ułamkowe liczby racjonalnymi (wymiernymi). Dlatego duży szok stanowiło dla

Greków odkrycie, że pierwiastka z liczby 2 nie można przedstawić w postaci stosunku liczb

całkowitych. Co to znaczy? Wyobraźmy sobie kwadrat o boku jednego metra. Zgodnie z

twierdzeniem podanym właśnie przez Pitagorasa długość przekątnej wyrażona w metrach równa

się pierwiastkowi kwadratowemu z dwóch. Wynosi to w przybliżeniu 7/5 metra; lepszym

przybliżeniem będzie 707/500 metra, lecz w rzeczywistości niema ułamka, który wyrażałby ten

background image

stosunek dokładnie, niezależnie od tego, jak wielki wzięlibyśmy licznik i mianownik. Liczby

tego rodzaju noszą nazwę „niewymiernych” (irrational).

Pitagorejczycy stosowali swoją numerologię również w astronomii. Wymyślili oni system

dziewięciu koncentrycznych sfer unoszących znane ciała niebieskie podczas ich obrotu wokół

Ziemi oraz mityczną „Przeciwziemię”, aby otrzymać tetraktyczną liczbę 10. Powiązanie

pomiędzy harmonią w muzyce a harmonią sfer niebieskich wyrażane było jako przypuszczenie,

że ich obrotowi towarzyszy muzyka - muzyka sfer niebieskich. Idee pitagorejskie zostały przejęte

przez Platona, który w dialogu Timaios rozwijał dalej model kosmosu oparty na elementach

muzycznych i numerycznych. Zastosował on również numerologię do czterech żywiołów - ziemi,

powietrza, ognia i wody - oraz badał kosmiczne znaczenie regularnych form geometrycznych.

Pitagorejskie i platońskie modele świata uderzają nas dzisiaj swym prymitywnym i

ekscentrycznym charakterem, jakkolwiek od czasu do czasu otrzymuję pocztą prace, których

autorzy próbują uzasadniać własności jąder atomowych lub cząstek elementarnych w oparciu o

numerologię starożytnych Greków, a więc ewidentnie jej mistyka nadal w jakimś stopniu do

niektórych przemawia. Zasadnicza wartość tych numerologicznych i geometrycznych koncepcji

nie polega jednak na ich prawdopodobności, lecz na tym, że traktują one fizyczną rzeczywistość

jako przejaw ukrytej harmonii matematycznej. Ta podstawowa idea przetrwała aż do początków

ery naukowej. Kepler, na przykład, wyobrażał sobie Boga jako geometrę i w swych badaniach

Układu Słonecznego kierował się w znacznym stopniu tym, co uważał za mistyczne znaczenie

występujących w nim wartości liczbowych. A współczesna fizyka matematyczna, jakkolwiek

odżegnuje się od podtekstów mistycznych, nadal w gruncie rzeczy podziela przekonanie

starożytnych Greków, że we Wszechświecie mamy do czynienia z racjonalnym ładem,

możliwym do wyrażenia za pomocą zależności matematycznych.

Koncepcje numerologiczne występowały również w wielu innych kulturach i ich

pozostałości odnaleźć możemy zarówno w nauce, jak i sztuce. Na starożytnym Bliskim

Wschodzie liczba l - Jedność - utożsamiana była często z Bogiem jako Pierwszą Przyczyną.

Asyryjczycy i Babilończycy przypisywali ubóstwione liczby ciałom niebieskim: Wenus, na

przykład, utożsamiana była z liczbą 15, a Księżyc z liczbą 30. Hebrajczycy nadawali szczególne

znaczenie liczbie 40, która wielokrotnie pojawia się w Biblii. Szatan wiązany jest z liczbą 666,

której złowróżbne znaczenie zachowało się nawet do dziś dnia, jeśli faktycznie, jak podała pewna

gazeta, Ronald Reagan zmienił adres swego domu w Kalifornii, aby jej uniknąć. W istocie rzeczy

background image

numerologia w Biblii ujawnia się wielokrotnie, zarówno w samej treści, jak i jej układzie.

Niektóre z późniejszych sekt kabalistycznych, takich jak gnostycy czy też kabaliści, zajmowały

się konstruowaniem wymyślnych, ezoterycznych systemów numerologicznych na bazie Biblii.

Tego rodzaju teorie nie były obce także samemu Kościołowi. W szczególności św. Augustyn

nawoływał do studiów numerologicznych nad Biblią w ramach kształcenia chrześcijańskiego i

praktyki te utrzymały się aż do późnego średniowiecza. Również obecnie w wielu kulturach

przypisuje się nadprzyrodzoną moc pewnym liczbom lub figurom geometrycznym, a szczególne

sposoby obliczania stanowią istotny składnik rytuałów magicznych w wielu częściach świata.

Nawet w naszym tak bardzo sceptycznym społeczeństwie Zachodu wielu ludzi utrzymuje, że są

liczby przynoszące szczęście lub nieszczęście, jak 7 lub 13.

Te magiczne odniesienia zaciemniają fakt, że arytmetyka i geometria zrodziły się pod

naciskiem potrzeb czysto praktycznych. Konstruowaniu formalnych twierdzeń geometrycznych

w starożytnej Grecji towarzyszyło wynalezienie linijki i kompasu oraz rozwój technik

geodezyjnych, które stosowano w budownictwie i architekturze. Te proste techniki dały początek

olbrzymiemu systemowi myślowemu. Potęga liczb i geometrii tak bardzo przemawiała do

wyobraźni, że stały się one podstawą nowej wizji świata, w której Bogowi przypisano rolę

Wielkiego Geometry, co zostało tak dobrze oddane w znanej rycinie Williama Blake'a The

Ancient of Days [U zarania dni] przedstawiającej Boga schylającego się z niebios, by zmierzyć

świat za pomocą cyrkla.

Z historii wynika, że każda epoka wykorzystuje swe najbardziej imponujące zdobycze

techniki jako metaforę kosmosu, czy nawet Boga. I tak w siedemnastym wieku nie rozważano już

Wszechświata w kategoriach muzycznej lub geometrycznej harmonii, nad którą czuwa

kosmiczny Geometra, lecz w zupełnie nowy sposób. Naczelnym zadaniem techniki stało się w

tym czasie zapewnienie dokładnych przyrządów nawigacyjnych, szczególnie dla celów

kolonizacji Ameryki. Określanie szerokości geograficznej nie sprawiało żeglarzom żadnego

problemu, ponieważ można ją było wyznaczyć na podstawie, na przykład, wysokości Gwiazdy

Polarnej nad horyzontem. Inaczej przedstawiała się sprawa z długością geograficzną, gdyż

wskutek obrotu Ziemi sfera niebieska obraca się. W tej sytuacji pomiar położenia związany jest z

pomiarem czasu. Przy żeglowaniu ze wschodu na zachód, dla przepłynięcia Atlantyku, niezbędne

było posiadanie dokładnych zegarów. A zatem, pod naciskiem kupców i polityków, wiele

wysiłku poświęcano na konstruowanie precyzyjnych czasomierzy dla celów żeglarskich.

background image

Poszukiwanie metod dokładnego pomiaru czasu w praktyce znalazło swój wyraz

teoretyczny w pracach Galileusza i Newtona.

Galileusz wykorzystał czas jako parametr przy formułowaniu swego prawa spadania ciał.

Przypisuje się mu także odkrycie, że okres wahadła nie zależy od amplitudy jego wahań, co

podobno miało miejsce w kościele, gdzie zmierzył okres wahającej się lampy za pomocą

własnego pulsu. Newton, świadom zasadniczej roli, jaką czas pełni w fizyce, stwierdził w swych

Principiach, że „absolutny, prawdziwy, matematyczny czas, sam z siebie, na mocy swej własnej

natury, płynie równomiernie bez odniesienia do czegokolwiek zewnętrznego”. Zatem czas, tak

jak odległość, został uznany za własność świata fizycznego, którą można mierzyć, w zasadzie z

dowolną dokładnością.

Dalsze rozważanie roli upływu czasu w fizyce doprowadziło Newtona do rozwinięcia

matematycznej teorii „fluksji”, znanej dzisiaj jako rachunek różniczkowy. Podstawowym

elementem tego formalizmu jest pojęcie ciągłej zmiany. Newton uczynił je podstawą swojej

mechaniki, w której zawarł prawa ruchu ciał materialnych. Najbardziej spektakularnym

skutecznym zastosowaniem mechaniki Newtona był ruch planet w układzie słonecznym. W ten

sposób muzyka sfer została zastąpiona modelem Wszechświata jako mechanizmu zegara. Model

ten został w największym stopniu rozwinięty w drugiej połowie osiemnastego wieku w pracach

Pierre'a Laplace'a, który potraktował każdy atom we Wszechświecie jako element kosmicznego

mechanizmu zegarowego o niewiarygodnej precyzji. Bóg-Geometra stał się Bogiem-

Zegarmistrzem.

background image

Mechanizacja matematyki

W bieżącym stuleciu również mieliśmy do czynienia z rewolucją techniczną, która już

zdążyła ukształtować całą naszą wizję świata. Chodzi mi o powstanie komputera, co wywołało

głębokie zmiany w sposobie pojmowania świata zarówno w przypadku naukowców, jak i

nienaukowców. Podobnie jak w poprzednich wiekach i obecnie pojawiają się propozycje, aby te

najnowsze zdobycze techniki posłużyły jako model działania kosmosu. I tak niektórzy naukowcy

wysuwali tezę, abyśmy pojmowali przyrodę jako proces obliczeniowy. Muzyka sfer niebieskich i

Wszechświat jako mechanizm zegarowy zostały zastąpione metaforą „kosmicznego komputera”,

w której cały Wszechświat uważany jest za gigantyczny proces przetwarzania informacji. W

ramach tego poglądu prawa przyrody można utożsamić z programem tego komputera, a rozwój

wydarzeń w świecie stanowiłby rezultat jego działania. Warunki początkowe panujące u narodzin

Wszechświata odgrywałyby tu rolę danych wejściowych.

Historycy uznają obecnie, że współczesna koncepcja komputera miała swój początek w

pionierskich pracach ekscentrycznego angielskiego wynalazcy, Charlesa Babbage'a. Babbage

urodził się w 1791 roku pod Londynem jako syn bogatego bankiera, którego rodzina pochodziła

z miejscowości Totnes w hrabstwie Devonshire. Już w dzieciństwie mały Babbage wykazywał

duże zainteresowanie urządzeniami mechanicznymi. Nauczył się samodzielnie matematyki z

książek, jakie wpadły mu w ręce, i w 1810 roku, gdy rozpoczął studia w Cambridge, miał już

wyrobione własne podejście do tego przedmiotu i zamierzał rzucić wyzwanie ortodoksyjnemu

systemowi jego nauczania w Wielkiej Brytanii. Wraz ze swym długoletnim przyjacielem Johnem

Herschelem, synem znanego astronoma Williama Herschela (który w 1781 roku odkrył planetę

Uran), Babbage założył Analytical Society. Członkowie tego towarzystwa, pozostając pod

wielkim wrażeniem potęgi francuskiej nauki i techniki, uważali, że wprowadzenie w Cambridge

nauczania matematyki na sposób praktykowany we Francji będzie pierwszym krokiem w

rewolucji techniczno-przemysłowej w Wielkiej Brytanii. Towarzystwo popadło w konflikt z

działaczami politycznymi w Cambridge, którzy uważali Babbage'a i jego kolegów za

niebezpiecznych radykałów.

Po opuszczeniu Cambridge Babbage ożenił się i zamieszkał w Londynie, utrzymując się z

własnego majątku. Nadal był pełen podziwu dla osiągnięć Francji w matematyce i naukach

przyrodniczych, do czego przyczyniła się także jego osobista znajomość z rodziną Bonaparte;

background image

miał też wiele kontaktów z naukowcami z kontynentu. W tym czasie zaczęły go interesować

eksperymenty z maszynami liczącymi; udało mu się otrzymać od rządu fundusze na budowę

urządzenia, któremu nadał nazwę Maszyny Różnicowej (Difference Engine), był to rodzaj

arytmometru. Miała ona służyć do wyliczania tablic matematycznych, astronomicznych i

nawigacyjnych przy mniejszym nakładzie pracy i bez popełnianych przez człowieka błędów.

Babbage skonstruował pomniejszony, działający model Maszyny Różnicowej, lecz rząd angielski

wstrzymał finansowanie w 1833 roku i pełny projekt nie został zrealizowany. Był to bodajże

jeden z pierwszych przykładów niedostrzegania przez rząd celowości długoterminowego

wspierania działalności badawczej. (Muszę w tym miejscu przyznać, że, przynajmniej w Wielkiej

Brytanii, od lat trzydziestych ubiegłego wieku niewiele się zmieniło). Ostatecznie Maszyna

Różnicowa oparta na pomyśle Babbage'a została zbudowana w Szwecji, skąd następnie zakupił

ją rząd angielski.

Niezrażony tym niepowodzeniem Babbage wymyślił o wiele potężniejsze urządzenie

obliczeniowe, uniwersalny komputer, nazwany przez niego Maszyną Analityczną, która jest

obecnie uznawana za protoplastę współczesnych komputerów pod względem struktury i zasady

działania. Babbage poświęcił znaczną część swego majątku na konstruowanie kolejnych wersji

tej Maszyny, lecz żadnej nie udało mu się zrealizować do końca.

Babbage był porywczym, kłótliwym, wzbudzającym liczne kontrowersje człowiekiem i

wielu mu współczesnych uważało go za wariata. Niemniej jednak przypisuje mu się wynalezienie

między innymi szybkościomierza, oftalmoskopu, przedniego zderzaka dla lokomotyw,

podwieszonego podajnika pieniędzy dla sklepów i systemu kodowania światła w latarniach

morskich. Jego zainteresowania obejmowały politykę, ekonomię, filozofię i astronomię.

Rozważania nad istotą procesów obliczeniowych doprowadziły Babbage'a do idei, że

Wszechświat może być także uważany za rodzaj komputera, przy czym prawa przyrody

odgrywałyby rolę programu, co, jak zobaczymy, było wyjątkowo dalekosiężną wizją.

Mimo jego ekscentryczności, talenty Babbage'a zostały uznane poprzez powierzenie mu

katedry matematyki w Cambridge, którą niegdyś piastował Newton. W charakterze

historycznego przyczynku warto wspomnieć, że dwaj synowie Babbage'a wyemigrowali do

Adelaide w południowej Australii, zabierając ze sobą egzemplarze jego maszyn. Natomiast w

Muzeum Nauki w Londynie zrekonstruowano naturalnej wielkości Maszynę Różnicową według

oryginalnego projektu Babbage'a, aby dowieść, że jest ona w stanie wykonywać obliczenia

background image

zgodnie ze swym przeznaczeniem. A w 1991 roku dwusetna rocznica urodzin Babbage'a (która

nota bene przypadała jednocześnie z rocznicą urodzin Faradaya i rocznicą śmierci Mozarta)

została uczczona przez rząd Jej Królewskiej Mości wydaniem okolicznościowych znaczków

pocztowych.

Po śmierci Babbage'a w 1871 roku jego prace uległy zapomnieniu i dopiero w latach

trzydziestych naszego wieku, dzięki wyobraźni innego niezwykłego Anglika, Alana Turinga,

dokonał się na tym polu dalszy postęp. Turingowi i amerykańskiemu matematykowi Johnowi

von Neumannowi przypisuje się stworzenie teoretycznych podstaw działania współczesnego

komputera. Zasadnicze znaczenie w ich pracach miało pojęcie „uniwersalnego komputera”,

automatu zdolnego do wykonania każdej obliczalnej funkcji matematycznej. Aby wyjaśnić

znaczenie pojęcia uniwersalnej obliczalności, należy cofnąć się do roku 1900 do słynnego

referatu matematyka Davida Hilberta, w którym przedstawił on to, co uważał za dwadzieścia trzy

najistotniejsze problemy matematyczne do rozwiązania. Jednym z nich było pytanie, czy

możliwe jest znalezienie ogólnej procedury dowodzenia twierdzeń matematycznych.

Hilbert był świadom, że dziewiętnasty wiek przyniósł szereg niepokojących odkryć

matematycznych, a niektóre z nich wydawały się zagrażać niesprzeczności samej matematyki.

Były to problemy związane z pojęciem nieskończoności i rozmaite logiczne paradoksy oparte na

samoreferencji, które później krótko omówię. W odpowiedzi na te wątpliwości Hilbert wezwał

matematyków do znalezienia systematycznej procedury pozwalającej w skończonej liczbie

kroków stwierdzić, czy dane twierdzenie matematyczne jest prawdziwe czy fałszywe. Nikt w

owym czasie nie wydawał się wątpić, że taka procedura istnieje, jakkolwiek praktyczne jej

podanie mogło nastręczać trudności. Niemniej jednak można sobie było wyobrazić, że jakiś

pojedynczy człowiek lub grupa ludzi jest w stanie zweryfikować każdą matematyczną hipotezę

poprzez ślepe wykonywanie ustalonego ciągu operacji aż do skutku. W istocie, można by się

obyć nawet bez ludzi, gdyż taką procedurę dałoby się zautomatyzować i cały ciąg operacji

realizowany byłby przez maszynę, która po jego zakończeniu drukowałaby otrzymany wynik -

„prawda” lub „fałsz”.

Widziana w ten sposób matematyka staje się dyscypliną całkowicie formalną, czymś w

rodzaju gry polegającej na manipulowaniu symbolami według wcześniej ustalonych reguł i

znajdowaniu związków tautologicznych. Nie potrzebuje ona żadnych odniesień do świata

fizycznego. Prześledźmy to na przykładzie. Gdy wykonujemy działanie matematyczne, takie jak

background image

(5 x 8) 6 = 34, postępując według prostych reguł otrzymujemy wynik 34. Aby otrzymać

prawidłowy wynik, nie musimy rozumieć samych reguł, ani wiedzieć, skąd się one wzięły. W

istocie, nie musimy nawet wiedzieć, co symbole, którymi się posługujemy, takie jak 5 czy x

s

naprawdę znaczą. Jeśli tylko rozróżniamy poszczególne symbole i trzymamy się reguł,

otrzymamy prawidłowy wynik. Fakt, że obliczenie możemy przeprowadzić na kieszonkowym

kalkulatorze, świadczy o tym, iż procedura ta da się wykonać całkowicie na ślepo.

Kiedy dzieci zaczynają naukę arytmetyki, potrzebują odnosić poznawane symbole do

konkretnych obiektów otaczającego ich świata, więc początkowo liczą na palcach lub liczydłach.

W późniejszych latach jednak dzieci na ogół potrafią już przeprowadzać operacje matematyczne

w sposób całkowicie abstrakcyjny, do tego stopnia, że używają x i y zamiast konkretnych liczb.

Ci, którzy podejmują naukę na wyższym poziomie, poznają inne rodzaje liczb (np. zespolone) i

działań matematycznych (np. mnożenie macierzy), które w żaden oczywisty sposób nie wiążą się

z tym, co znamy z rzeczywistego świata. Mimo to studenci bez trudu uczą się manipulowania

abstrakcyjnymi symbolami oznaczającymi te niezwyczajne obiekty i działania, nie zastanawiając

się nawet nad tym, co one naprawdę, jeśli w ogóle, znaczą. W ten sposób matematyka w coraz

większym stopniu staje się czysto formalnym manipulowaniem symbolami. Może się wręcz

wydawać, że matematyka to nic innego, jak manipulowanie symbolami. Taki pogląd zwany jest

„formalizmem”.

Mimo jej pozornej możliwości formalistycznej interpretacji matematyki został zadany w

1931 roku poważny cios. Tego roku austriacki logik i matematyk Kurt Godeł dowiódł

zdumiewającego twierdzenia, że w matematyce istnieją zdania, których prawdziwości lub

fałszywości nie da się udowodnić poprzez żadną systematyczną procedurę. Było to zaiste

twierdzenie nie do przejścia, ponieważ wykazywało nieodwołalnie, że czegoś w matematyce

naprawdę nie da się zrobić, nawet w zasadzie. Fakt, że w matematyce istnieją zdania

nierozstrzygalne, stanowił wielki szok, gdyż wydawał się podważać całe logiczne podstawy tej

dyscypliny.

Twierdzenie Godła wpisuje się w całą konstelację paradoksów związanych z pojęciem

samoreferencji. Jako proste wprowadzenie w tę zawikłaną tematykę rozważmy niepokojące

zdanie: „To zdanie jest kłamstwem”. Jeżeli wypowiedź ta jest prawdziwa, to jest ona fałszywa; a

jeżeli jest fałszywa, to jest prawdziwa. Takich paradoksalnych wypowiedzi odnoszących się do

samych siebie można z łatwością przytoczyć wiele; są one niezwykle intrygujące i zastanawiały

background image

ludzi od stuleci. Na przykład w średniowieczu formułowano tę antynomię w następujący sposób:

Sokrates: „To, co Platon zaraz powie, jest kłamstwem”.

Platon: „Sokrates właśnie powiedział prawdę”.

Wielki matematyk i filozof Bertrand Russel wykazał, że istnienie tego typu paradoksów

uderza w samą istotę logiki i podważa wszelkie uczciwe próby oparcia matematyki w sposób

ścisły na podstawach logicznych. Godeł poszedł jeszcze dalej i w niezwykle genialny sposób

zastosował samozwrotność w oniesieniu do całej matematyki, rozważając związki między

opisem matematyki a samą matematyką. Jest to łatwo powiedzieć, lecz w rzeczywistości

rozumowanie Godła było długie i bardzo zawiłe. Aby wyrobić sobie jednak pojęcie, na czym ono

polegało, wyobraźmy sobie, że wypisujemy zdania matematyczne opatrując je kolejnymi

liczbami naturalnymi: l, 2, 3, ... Tworzeniu ciągu zdań stanowiącego twierdzenie matematyczne

odpowiadałoby w takim przypadku połączenie przypisanych im liczb. W ten sposób operacjom

logicznym przeprowadzanym na zdaniach matematyki odpowiadają działania samej matematyki.

Stanowi to istotę samozwrotności, na której opiera się dowód twierdzenia Godła. Poprzez

utożsamienie opisu z tym, co jest opisywane, tj. ustanowienie odpowiedniości zdań opisujących

matematykę ze zdaniami samej matematyki, Godeł odkrył antynomialną pętlę typu

russelowskiego, która w nieunikniony sposób prowadziła do istnienia zdań nierozstrzygalnych.

John Barrow zauważył ironicznie, że jeśli przez religię rozumieć będziemy system myślowy

wymagający wiary w niedowodliwe prawdy, to matematyka jest jedyną religią, która jest w

stanie dowieść, iż jest religią!

Aby wyjaśnić kluczową ideę, na której zasadza się twierdzenie Godła, posłużę się krótką

historyjką. W pewnym dalekim kraju grupa matematyków, która nie słyszała nigdy o Godłu,

doszła do wniosku, że możliwa jest jednak systematyczna procedura pozwalająca na nieomylne

stwierdzenie prawdziwości lub fałszywości każdego sensownego zdania matematycznego, i

zabrała się do wykazania tego. Procedura ta mogła być wykonywana przez człowieka, grupę

łudzi, maszynę, czy też jakąkolwiek kombinację tych elementów. Nikt nie wiedział, na co

zdecydowali się matematycy, gdyż ich system umieszczony był wewnątrz olbrzymiego budynku

uniwersytetu przypominającego świątynię, do którego wejście osobom postronnym było

wzbronione. W każdym razie system nazywał się Tom. By wypróbować możliwości Toma,

wprowadzano do niego kolejno najróżniejsze skomplikowane zdania logiczne i matematyczne i

po krótkiej chwili otrzymywano odpowiedź: prawda, prawda, fałsz, prawda, fałsz, ... W krótkim

background image

czasie sława Toma rozeszła się po całym kraju. Do laboratorium zjeżdżało coraz więcej ludzi,

którzy na wszelkie sposoby starali się wynaleźć problem na tyle trudny, aby zapędzić Toma w

kozi róg. Nikomu się to nie udawało. Twórcy Toma nabrali takiego przekonania o jego

nieomylności, że namówili króla, aby ufundował nagrodę dla tego, komu udałoby się pokonać

Toma w jego niewiarygodnych zdolnościach analitycznych. Pewnego dnia na uniwersytecie

zjawił się jakiś przybysz z innego kraju z dużą kopertą i poprosił, aby pozwolono mu zmierzyć

się z Tomem o przyobiecaną nagrodę. Wewnątrz koperty była kartka papieru z wypisanym na

niej zdaniem dla Toma. Zdanie to, które oznaczymy tutaj literą Z (od „zdanie”) brzmiało po

prostu: „Tom nie może uznać tego zdania za prawdziwe”.

Zdanie Z zostało jak zwykle przekazane Tomowi. Nie upłynęło kilka sekund, jak Tom

zaczął się zachowywać dziwnie. Po pół minuty z budynku wybiegł ktoś z obsługi i oznajmił, że

Toma trzeba było wyłączyć z przyczyn technicznych. Cóż takiego się stało? Załóżmy, że Tom

miałby roztrzygnąć, iż Z jest prawdziwe. Oznaczałoby to, że zdanie „Tom nie może uznać tego

zdania za prawdziwe” zostałoby sfalsyfikowane, ponieważ Tom to właśnie zrobił. Lecz skoro Z

zostało sfalsyfikowane, nie może być prawdą. Zatem jeśli Tom orzeknie „prawda” o zdaniu Z,

wniosek ten będzie fałszywy, co przeczy jego głoszonej nieomylności. Toteż Tom nie może

uznać tego zdania za prawdziwe. W ten sposób doszliśmy do wniosku, że Z jest jednak

prawdziwe. Jednak dochodząc do tego wniosku wykazaliśmy, że Tom nie może dojść do tego

samego wniosku. Oznacza to, że wiemy, że coś jest prawdziwe, lecz Tom nie może tego uznać za

prawdziwe. W tym tkwi istota dowodu Godła, że zawsze będą istniały pewne zdania, których

prawdziwości nie można udowodnić. Ów podróżny, wiedząc o tym, z łatwością skonstruował

takie zdanie i zgarnął nagrodę.

Należy jednak pamiętać, że odkrycie Godła dotyczyło ograniczeń związanych z

aksjomatyczną metodą dowodzenia twierdzeń, a nie samych zdań, których miałoby się dowodzić.

Zdanie, którego prawdziwości nie da się dowieść w danym systemie aksjomatów, zawsze może

być samo uznane za aksjomat i dołączone do systemu. W tak powiększonym systemie będą z

kolei istnieć inne zdania niedowodliwe i tak dalej.

Twierdzenie Godła stanowiło druzgocący cios dla programu formalistów, niemniej idea

czysto mechanicznego rozstrzygania prawdziwości zdań matematycznych nie została całkowicie

zarzucona. Może niedowodliwe zdania są tylko rzadkimi wynaturzeniami, które dałyby się

oddzielić od reszty logiki i matematyki? Gdyby udało się znaleźć jakąś metodę odróżnienia zdań

background image

niedowodliwych od dowodliwych, w przypadku tych ostatnich stwierdzanie ich prawdziwości

lub fałszywości nadal byłoby zawsze możliwe. Jednakże, czy możliwe jest podanie

systematycznej procedury pozwalającej na nieomylne rozpoznawanie i odrzucanie zdań

niedowodliwych? Zadanie to zostało podjęte w połowie lat trzydziestych przez Alonzo Churcha,

współpracownika von Neumanna z Princeton, który rychło stwierdził, że nawet ten skromniej

wyznaczony cel jest nieosiągalny, przynajmniej w skończonej liczbie kroków. Innymi słowy,

możemy formułować zdania matematyczne, które są potencjalnie prawdziwe lub fałszywe, i

możemy wdrożyć systematyczną procedurę rozstrzygającą o ich prawdziwości, lecz nie jesteśmy

w stanie poznać wyników tej procedury, gdyż nigdy się ona nie skończy.

background image

Nieobliczalność

Problem ten został również podjęty, zupełnie niezależnie i z całkowicie innej strony,

przez Alana Turinga, gdy był jeszcze studentem w Cambridge. Matematycy często mówią o

„mechanicznej” procedurze rozwiązywania problemów matematycznych, „za naciśnięciem

guzika”. Turinga fascynowało, czy można by naprawdę zbudować maszynę, która by to robiła.

Taka maszyna byłaby w stanie rozstrzygać o prawdziwości zdań matematycznych w sposób

całkowicie automatyczny, bez udziału człowieka, poprzez niewolnicze trzymanie się

deterministycznego ciągu instrukcji. Lecz jak zbudować takie urządzenie? Na jakiej zasadzie

miałoby ono działać? Turing wyobraził je sobie na kształt maszyny do pisania, wypisującej

symbole na kartce, lecz ponadto będącej w stanie odczytywać napisane znaki i w razie potrzeby

je wymazywać. Ostatecznie doszedł do koncepcji nieskończenie długiej taśmy, podzielonej na

kwadratowe pola, przy czym w każdym polu znajduje się jeden znak. Maszyna miałaby

przesuwać taśmę o jedno pole, czytać zawartość pola i w zależności od tego, co przeczytała,

pozostawać w tym samym stanie albo przechodzić w nowy stan. W każdym wypadku jej reakcja

byłaby czysto automatyczna, wyznaczona przez jej konstrukcję. Maszyna bądź zostawiałaby

przeczytany symbol bez zmian, bądź wymazywałaby go i wpisywała inny, a następnie

przesuwałaby taśmę o jedno pole i cały proces powtarzałby się od nowa.

W istocie maszyna Turinga jest tylko urządzeniem pozwalającym na przekształcanie

jednego ciągu symboli w inny ciąg na podstawie ustalonych wcześniej zasad. W razie potrzeby

zasady te można by przedstawić w postaci tabelki, z której dałoby się odczytać, jak zachowa się

maszyna w kolejnym kroku. Tak więc w gruncie rzeczy nie trzeba budować prawdziwej maszyny

z metalu i papierowej taśmy, aby przekonać się, jak ona działa. Łatwo, na przykład, wypisać

tabelkę odpowiadającą maszynie realizującej dodawanie liczb. Jednakże Turing stawiał sobie

bardziej ambitne cele. Czyż jego maszyna nie mogłaby urzeczywistnić zamierzonego przez Hil-

berta programu mechanizacji matematyki?

Jak już wspominałem, rozwiązywanie zadań matematycznych na drodze stosowania

czysto mechanicznej procedury znane jest doskonale już uczniom w szkole. Typowym

przykładem może być przekształcanie ułamka na postać dziesiętną czy też wyciąganie

pierwiastka kwadratowego z jakiejś liczby. Każdy skończony ciąg czynności prowadzący do

rozwiązania jakiegoś problemu, mającego na przykład postać liczby, niekoniecznie całkowitej,

background image

może być w oczywisty sposób zrealizowany poprzez maszynę Turinga. Ale co z procedurami o

nieskończonej liczbie kroków? Na przykład, rozwinięcie dziesiętne liczby n stanowi

nieskończony, na pozór zupełnie przypadkowy ciąg cyfr. Niemniej jednak n można wyliczyć z

dowolną liczbą miejsc po przecinku na podstawie prostej, skończonej procedury. Turing nazywał

daną liczbę „obliczalną”, jeżeli przy stosowaniu się do skończonego zestawu instrukcji można

wyliczyć tę liczbę z dowolnie wielką dokładnością, nawet jeżeli sama liczba jest nieskończenie

długa.

Turing wyobraził sobie, że sporządzona została lista wszystkich liczb obliczalnych. Lista

ta oczywiście miałaby nieskończenie wiele pozycji i na pierwszy rzut oka mogłoby się wydawać,

że każda możliwa do pomyślenia liczba powinna być w niej zawarta. A jednak tak nie jest.

Turing pokazał, że zakładając istnienie takiej listy można udowodnić istnienie liczb, które z całą

pewnością nie są w niej zawarte. Ponieważ lista ta zawierała wszystkie liczby obliczalne, te nowe

liczby trzeba określić mianem nieobliczalnych. Co to znaczy, że jakaś liczba jest nieobliczalna? Z

definicji jest to liczba, która nie może być otrzymana w wyniku skończonej mechanicznej

procedury, nawet po wykonaniu nieskończonej liczby kroków. Turing pokazał również, w jaki

sposób lista liczb obliczalnych może posłużyć do generowania liczb nieobliczalnych.

Oto schemat jego rozumowania. Wyobraźmy sobie, że zamiast liczb mamy nazwiska.

Sporządzamy listę sześcioliterowych nazwisk; powiedzmy, Sayers, Atkins, Piąuet, Mather,

Belamy, Panoff. Potem przeprowadzamy następującą prostą procedurę. Bierzemy pierwszą literę

pierwszego nazwiska i zastępujemy ją następną literą alfabetu. W tym przypadku będzie to „T”.

To samo robimy z drugą literą drugiego nazwiska, trzecią literą trzeciego, i tak dalej. Ostatecznie

otrzymujemy w ten sposób nazwisko „Turing”. Możemy być absolutnie pewni, że nazwisko to

nie występowało w naszej liście, gdyż z konieczności różni się od każdego zawartego w niej

nazwiska o jedną literę. Nawet nie widząc wyjściowej listy, wiemy, że Turinga na niej nie było.

W przypadku listy liczb obliczalnych Turing posłużył się analogicznym sposobem, polegającym

na zmianie w każdej liczbie jednej cyfry na miejscu odpowiadającym pozycji tej liczby na liście,

aby wykazać istnienie liczb nieobliczalnych. Naturalnie, lista Turinga zawierała nieskończenie

wiele nieskończenie długich liczb, lecz istota przeprowadzonego rozumowania była taka sama.

Już z samego istnienia liczb nieobliczalnych wynika, że muszą istnieć także

nierozstrzygalne twierdzenia matematyczne. Wyobraźmy sobie nieskończoną listę liczb

obliczalnych. Każda z nich może być wygenerowana przez jakąś maszynę Turinga. Jedna

background image

maszyna obliczałaby pierwiastek kwadratowy, inna logarytmy, i tak dalej. Jak się przekonaliśmy,

nawet mając do dyspozycji nieskończenie wiele takich maszyn, nie jesteśmy w stanie otrzymać w

ten sposób wszystkich liczb, jako że istnieją także liczby nieobliczalne, które nie mogą być

wygenerowane w wyniku mechanicznej procedury. Turing zauważył, że w zasadzie nie potrzeba

nieskończenie wielu maszyn do wygenerowania takiej listy; wystarczy jedna. Pokazał, iż można

zbudować uniwersalną maszynę Turinga, mogącą symulować działanie wszystkich innych

maszyn. Możliwość istnienia takiej uniwersalnej maszyny jest dość oczywista. Każdą maszynę

można określić przez podanie systematycznej procedury prowadzącej do jej zbudowania, czy to

będą maszyny pralnicze, maszyny do szycia, maszyny liczące czy też maszyny Turinga.

Podstawowe znaczenie ma tu fakt, że maszyna Turinga sama jest maszyną wykonującą określoną

procedurę. Zatem uniwersalnej maszynie Turinga można polecić, aby wpierw odczytywała

specyfikację danej maszyny, następnie rekonstruowała zasady jej działania, i ostatecznie

wykonywała jej funkcję. Zatem oczywiste jest, że można skonstruować uniwersalną maszynę do

wykonywania wszelkich operacji matematycznych. Nie trzeba mieć oddzielnie maszyny

dodającej do dodawania, maszyny mnożącej do mnożenia, i tak dalej. Jedna maszyna może robić

wszystko. Myśl ta była już zawarta w projekcie Maszyny Analitycznej Babbage'a, lecz trzeba

było dopiero upływu prawie stu lat, geniuszu Alana Turinga i potrzeb zrodzonych podczas

drugiej wojny światowej, aby koncepcja współczesnego komputera ostatecznie doczekała się

realizacji.

Może się wydawać zdumiewające, że maszyna, której działanie sprowadza się wyłącznie

do odczytywania i zapisywania symboli oraz przesuwania i zatrzymywania taśmy, jest w stanie

realizować wszelkie możliwe procedury matematyczne, niezależnie od tego, jak bardzo są

abstrakcyjne i skomplikowane. Niemniej jednak przekonanie to, zwane hipotezą Churcha-

Turinga, podzielane jest przez większość matematyków. Wynika z niego, że niezależnie od tego,

o jaki problem matematyczny chodzi, jeśli nie może on być rozwiązany przez maszynę Turinga,

to nie może być rozwiązany w ogóle. Ważną implikacją hipotezy Churcha-Turinga jest to, że

szczegóły konstrukcyjne konkretnego komputera są zupełnie nieistotne. Jeśli tylko logiczne

zasady jego działania są te same, co w przypadku uniwersalnej maszyny Turinga, wyniki będą

zawsze takie same. Innymi słowy, komputery są w stanie wzajemnie symulować swoje działanie.

Prawdziwe komputery, którymi się dzisiaj posługujemy, wyposażone są w ekrany, drukarki,

plotery, stacje dysków i inne wymyślne urządzenia, jednakże logiczna zasada ich działania nadal

background image

odpowiada idei uniwersalnej maszyny Turinga.

W połowie lat trzydziestych, gdy Turing prowadził swoje badania, wszystkie te ważne

praktyczne zastosowania jego idei były jeszcze sprawą przyszłości. Jemu samemu chodziło

przede wszystkim o program Hilberta mechanizacji matematyki, z którym zagadnienie liczb

obliczalnych i nieobliczalnych ma bezpośredni związek. Rozważmy (nieskończoną) listę liczb

obliczalnych, z których każda generowana jest przez jakąś maszynę Turinga. Wyobraźmy sobie

uniwersalną maszynę Turinga, której powierzono zadanie sporządzenia tej samej listy poprzez

kolejne symulowanie działania każdej z tych maszyn. Pierwszym krokiem takiej maszyny byłoby

odczytanie szczegółów konstrukcyjnych danej maszyny. Rodzi się wtedy od razu pytanie: czy

uniwersalna maszyna Turinga jest w stanie rozstrzygnąć na podstawie tych szczegółów, jeszcze

przed przeprowadzeniem samych obliczeń, czy dana liczba zostanie faktycznie obliczona, czy też

obliczenia zawieszą się w jakimś miejscu? Przez zawieszenie rozumiemy tu, że obliczenia

zapętliły się i maszyna nie drukuje żadnego wyniku. Jest to tak zwany „problem zatrzymania” -

czy można z góry przewidzieć, na podstawie znajomości szczegółów procedury obliczeniowej,

czy maszyna obliczy po kolei wszystkie cyfry danej liczby i zatrzyma się, czy też wpadłszy w

pętlę, nie zatrzyma się nigdy.

Turing wykazał, że na problem zatrzymania odpowiedź jest zdecydowanie negatywna.

Posłużył się przy tym sprytnym rozumowaniem. Przypuśćmy, powiedział, że maszyna

uniwersalna jest w stanie rozwiązać problem zatrzymania. Co zatem stanie się, gdy maszyna ta

spróbuje symulować samą siebie? W ten sposób znów wróciliśmy do problemu samoreferencji.

Jak można tego oczekiwać, rezultatem jest zawieszenie się obliczeń. Usiłując symulować samą

siebie, maszyna wpada w stan permanentnej pętli. Tak więc Turing doszedł do niezwykłego

wniosku, będącego wariantem twierdzenia Godła o zdaniach nierozstrzygalnych: oto maszyna,

która ma sprawdzić, czy dana procedura obliczeniowa nie zawiesi się, sama się zawiesza! W tym

przypadku nierozstrzygalność dotyczy samych zdań nieroztrzygalnych: nie ma systematycznego

sposobu pozwalającego rozstrzygnąć, czy dane zdanie jest rozstrzygalne czy nierozstrzygalne.

Stanowiło to oczywiste zaprzeczenie możliwości zamierzonej przez Hilberta mechanizacji

matematyki: twierdzenie, którego prawdziwości ani fałszywości nie sposób udowodnić poprzez

systematyczną, ogólną procedurę. Głębokie znaczenie wniosku Turinga zostało obrazowo

przedstawione przez Douglasa Hofstadtera: „Matematyka przeniknięta jest na wskroś

nierozstrzygalnymi zdaniami, jak kawałek mięsa na stek przerośnięty jest włóknami chrząstki,

background image

których nie da się wyciąć bez zniszczenia całego steku”.

background image

Dlaczego możliwa jest arytmetyka?

Wnioski Turinga zazwyczaj przytacza się w odniesieniu do matematyki i logiki. Niemniej

jednak mówią nam one też coś o naturze rzeczywistego świata. W końcu, idea maszyny Turinga

oparta jest na naszym intuicyjnym pojmowaniu, czym w ogóle jest maszyna, a rzeczywiste

maszyny działają tylko dlatego, że umożliwiają im to prawa fizyki. Ostatnio fizyk teoretyczny z

Oxfordu David Deutsch ogłosił tezę, że obliczalność jest właściwie własnością empiryczną, to

znaczy zależy w istocie od tego, jaki jest świat, a nie jest wynikiem jakiejś koniecznej prawdy

logicznej. „Uzasadnienia, dlaczego możliwe jest - pisze Deutsch - zbudowanie, na przykład,

kalkulatorów elektronicznych czy też w ogóle wykonywanie obliczeń w pamięci, nie znajdziemy

w obrębie samej matematyki i logiki. Jest to możliwe tylko dlatego, że prawa fizyki są akurat

takie, iż dopuszczają istnienie fizycznej realizacji działań arytmetycznych, takich jak dodawanie,

odejmowanie i mnożenie. Gdyby tak nie było, te tak znane nam rachunki byłyby funkcjami

nieobliczalnymi”.

Teza Deutscha jest zaiste frapująca. Operacje arytmetyczne, takie jak liczenie, wydają się

nam tak wpisane w naturę rzeczy, że nie możemy wyobrazić sobie świata, w którym nie byłyby

one możliwe. Dlaczego tak jest? Sądzę, że odpowiedzi należy doszukiwać się w historii i naturze

matematyki. Arytmetyka dotyczyła początkowo czysto praktycznych aspektów życia

codziennego, takich jak pilnowanie, by nie zginęły owce ze stada, czy też elementarne rachunki.

Jednakże na bazie tych podstawowowych działań dodawania, odejmowania i mnożenia nastąpił

tak gwałtowny rozwój idei matematycznych i stały się one tak wyrafinowane, że ludzie stracili z

oczu ich skromny praktyczny rodowód. Innymi słowy, matematyka zaczęła żyć swoim własnym

życiem. Już w czasach Platona niektórzy filozofowie utrzymywali, że matematyce przysługuje

niezależne istnienie. A my tak bardzo przywykliśmy do wykonywania prostych działań

arytmetycznych, że z łatwością przychodzi nam wierzyć, iż muszą być one wykonywalne. Lecz

w rzeczywistości ich wykonywalność zależy w zasadniczy sposób od natury świata fizycznego.

Przykładowo, czy liczenie miałoby dla nas jakikolwiek sens, gdyby nie istniały oddzielne

przedmioty, jak monety lub owce?

Matematyk R.W. Hamming nie uznaje bynajmniej wykonywalności arytmetyki za rzecz

oczywistą, uznając to za fakt dziwny i niewyjaśniony. „Próbowałem bez powodzenia - pisze -

przekazać niektórym z moich przyjaciół moje zdumienie, że liczenie przy użyciu abstrakcyjnego

background image

pojęcia liczby jest w ogóle możliwe i tak użyteczne. Czyż nie jest czymś niezwykłym, że sześć

owiec plus siedem owiec daje trzynaście owiec, i sześć kamieni plus siedem kamieni daje

trzynaście kamieni? Czyż to nie cud, że Wszechświat jest tak urządzony, iż tak proste pojęcia

abstrakcyjne jak liczba są możliwe?”.

Fakt, że własności obliczeniowe arytmetyki znajdują swe odbicie w realnym świecie, ma

głębokie implikacje. Oznacza, że w pewnym sensie świat fizyczny jest komputerem, tak jak

sądził Babbage. Albo, co bardziej istotne, iż komputery są w stanie nie tylko symulować

wzajemnie swoje działanie, lecz także symulować świat fizyczny. Oczywiście, jesteśmy

przyzwyczajeni do tego, że komputerów używa się do symulowania układów fizycznych; stąd w

istocie bierze się ich ogromna użyteczność. Jednak ta możliwość oparta jest na głębokiej i

subtelnej własności świata. Mamy ewidentnie do czynienia z zasadniczą zgodnością pomiędzy

prawami fizyki z jednej strony a obliczalnością funkcji matematycznych opisujących te właśnie

prawa z drugiej strony. Nie jest to bynajmniej truizm. Natura praw fizyki pozwala na to, by

pewne operacje matematyczne, takie jak dodawanie i mnożenie, były obliczalne. Stwierdzamy,

że wśród tych obliczalnych operacji były takie, które opisują (przynajmniej w przybliżeniu)

prawa fizyki.

Czy występowanie tego kręgu wzajemnych zależności jest czystym zbiegiem

okoliczności, czy też ta spójność jest czymś koniecznym? Czy świadczy to o jakichś głębszych

związkach pomiędzy matematyką a rzeczywistością? Wyobraźmy sobie świat, w którym prawa

fizyki są całkowicie odmienne, do tego stopnia, że nie istnieją odrębne przedmioty. Niektóre z

operacji matematycznych, które są obliczalne w naszym świecie, nie byłyby obliczalne w

tamtym, i na odwrót. W tym drugim świecie mogą istnieć odpowiedniki maszyny Turinga, ale

ich struktura i działanie byłyby na tyle odmienne, że nie potrafiłyby na przykład wykonywać

podstawowych operacji arytmetycznych, choć być może mogłyby w tamtym świecie wykonywać

operacje, których komputery w naszym świecie nie są w stanie wykonać (na przykład

rozwiązywałyby Wielkie Twierdzenie Fermata).

Pojawia się teraz szereg interesujących dodatkowych pytań: czy prawa fizyki w tym

hipotetycznym alternatywnym świecie dawałyby się wyrazić w kategoriach obliczalnych operacji

tego świata, czy też taka wewnętrzna spójność przysługuje tylko pewnej ograniczonej liczbie

światów? A może wyłącznie naszemu światu? Czy na pewno wszystkie aspekty naszego świata

dają się wyrazić poprzez operacje obliczalne? Czy możliwe są w ogóle procesy fizyczne, których

background image

nie można symulować za pomocą maszyny Turinga? Tymi intrygującymi pytaniami dotyczącymi

związku pomiędzy matematyką a światem realnym zajmę się następnym rozdziale.

background image

Matrioszki i sztuczne życie

Fakt, że uniwersalne komputery są w stanie się wzajemnie symulować, ma istotne

konsekwencje. W praktyce oznacza bowiem, że, przy odpowiednim zaprogramowaniu i

zapewnieniu wystarczającej ilości pamięci, zwykły IBM PC może doskonale naśladować na

przykład potężnego Craya pod względem wyników (a nie szybkości) obliczeń. Wszystko, co

potrafi zrobić Cray, potrafi i komputer osobisty. W istocie uniwersalny komputer nie musi

dorównywać stopniem skomplikowania nawet pecetowi; wystarczy, że składa się z szachownicy

i kompletu pionków. Taki prosty system został po raz pierwszy rozpatrzony przez Stanisława

Ulama i Johna von Neumanna w latach pięćdziesiątych jako przykład tak zwanej „teorii gier”.

Ulam i von Neumann pracowali w Los Alamos National Laboratory, gdzie prowadzono

badania nad bombą atomową w ramach projektu Manhattan. Ulam uwielbiał grać w różne gry na

komputerach, co było w tych czasach jeszcze wielką nowością. Jedna z takich gier polegała na

tym, że pewne układy elementów zmieniane są według ustalonych reguł. Wyobraźmy sobie na

przykład szachownicę z pionkami tworzącymi na niej pewien układ. Można wtedy rozważać

różne reguły, według których ten układ może być zmieniany. Przykładowo: z każdym polem

szachownicy sąsiaduje osiem innych pól (łącznie z polami po przekątnej). Stan danego pola (to

znaczy to, czy stoi na nim pionek, czy nie) pozostawiamy bez zmian, jeżeli na sąsiednich polach

stoją dokładnie dwa pionki. Jeśli pole, na którym stoi pionek, sąsiaduje z trzema zajętymi polami,

to pionek pozostawiamy; we wszystkich innych przypadkach pole opróżnia się. Po wybraniu

pewnego początkowego ułożenia pionków reguła ta zostaje zastosowana do każdego pola

szachownicy, w wyniku czego otrzymujemy nieco odmienny układ pionków. Znowu stosujemy

tę samą regułę i ułożenie pionków znowu się zmienia. Procedurę tę powtarza się wielokrotnie i

obserwuje ewolucję struktury pionków na szachownicy.

Johna Conwaya, który w 1970 roku wynalazł podane powyżej reguły, z miejsca uderzyło

bogactwo i różnorodność struktur, do jakich one prowadziły. Struktury pojawiały się i ginęły,

ewoluowały, poruszały się po szachownicy, dzieliły i zlewały. Pod wrażeniem podobieństwa

zachowania się tych układów do żywych organizmów Conway nazwał swą grę „ŻYCIE”.

Wkrótce stała się ona ulubioną rozrywką fanów komputerowych z całego świata. Do śledzenia

ewolucji struktur nie potrzebna im była wcale szachownica; o wiele łatwiej było zaprogramować

komputer tak, aby wyświetlał je bezpośrednio na ekranie, przy czym pojedynczy piksel

background image

(świecący punkt na ekranie) odpowiadał pionkowi. Niezwykle przystępny opis tej gry można

znaleźć w książce The Recursive Universe Williama Pounstone'a, zawierającej również tekst

programu dla wszystkich, którzy chcieliby zagrać w ŻYCIE na swoim własnym komputerze.

Tych, którzy mają komputer Amstrad PCW 8256, na jakim piszę właśnie tę książkę, będą

zapewne zainteresowani tym, że program do gry w ŻYCIE został fabrycznie wprowadzony do

tego typu komputerów i można go uruchomić za pomocą paru prostych poleceń.

Można potraktować przestrzeń, w której ewoluują układy punktów, jako model

Wszechświata, przy czym reguły Conwaya odpowiadałyby prawom fizyki, a upływ czasu

następuje skokowo. Wszystko, co wydarza się w tym świecie, ma charakter ściśle

deterministyczny: każdy kolejny układ jest całkowicie wyznaczony przez układ go

poprzedzający. Układ wyjściowy determinuje zatem wszystkie przyszłe układy, ad infinitum. Pod

tym względem świat ŻYCIA odpowiada newtonowskiej wizji Wszechświata jako mechanizmu

zegarowego. Faktycznie, mechanistyczny charakter gier tego typu zyskał im miano „automatów

komórkowych”, przy czym przez komórki rozumie się tutaj odpowiednio pola lub punkty na

ekranie.

Wśród nieskończonej różnorodności form występujących w ŻYCIU są takie, które

poruszając się zachowują swoją postać. Należą do nich tak zwane „szybowce”, złożone z pięciu

punktów, i większe obiekty, zwane „statkami kosmicznymi”. W wyniku zderzeń tych form

powstają najróżniejsze struktury i formy odpadowe, w zależności od sytuacji. Szybowce mogą

być wytwarzane przez „działo”, wyrzucające je kolejno jako strumień w regularnych odstępach

czasu. Co ciekawe, działo może powstać w wyniku zderzenia trzynastu szybowców, tak więc

szybowce rodzą szybowce. Innymi często spotykanymi formami są „bloki”, stacjonarne kwadraty

złożone z czterech punktów, niszczące obiekty, które się z nimi zderzają. Dalej mamy bardziej

destrukcyjne „pożeracze”, które rozbijają i pochłaniają przechodzące w pobliżu obiekty, a

następnie odbudowują ewentualne ubytki, jakie spowodowało w nich takie spotkanie. Conway i

jego współpracownicy odkryli, że w ŻYCIU występują niewiarygodnie bogate i złożone

struktury, co niekiedy było sprawą przypadku, a niekiedy wymagało sporych umiejętności i dużej

dozy intuicji. Niektóre z bardzo interesujących układów wymagają niezwykle dokładnego

zgrania olbrzymiej liczby złożonych obiektów i pojawiają się dopiero po wielu tysiącach kroków.

Śledzenie tych bardziej zaawansowanych struktur ŻYCIA wymaga już komputerów o bardzo

dużej mocy obliczeniowej.

background image

Świat ŻYCIA stanowi oczywiście jedynie blade odbicie rzeczywistości, a podobieństwo

jego mieszkańców do istot żywych jest dość powierzchowne. Niemniej jednak struktura logiczna

ŻYCIA kryje w sobie zdolność generowania struktur o dowolnym stopniu złożoności, w zasadzie

nawet tak złożonych jak organizmy biologiczne. W istocie zainteresowanie von Neumanna

automatami komórkowymi wzięło swój początek z jego dążenia do rozwikłania tajemnicy życia.

Fascynowało go, czy można w ogóle zbudować maszynę, która byłaby zdolna do

samoreprodukcji, a jeśli tak, to jaka powinna być jej struktura i zasada działania. Gdyby taka

maszyna była możliwa, to bylibyśmy w stanie pojąć zasady, dzięki którym organizmy żywe

mogą się samoreprodukować.

Rozumowanie von Neumanna opierało się na pojęciu „uniwersalnego konstruktora”,

analogicznego do pojęcia uniwersalnego komputera. Miałaby to być maszyna, którą można by

zaprogramować tak, by produkowała każdą zadaną rzecz, podobnie jak maszynę Turinga można

zaprogramować tak, by wykonywała dowolną obliczalną operację matematyczną. Von Neumann

rozważał, co będzie, gdy zaprogramuje się uniwersalnego konstruktora tak, aby produkował

samego siebie. Oczywiście, aby można było mówić o pełnej samoreprodukcji, maszyna powinna

nie tylko wykonywać kopię samej siebie, ale i kopię programu prowadzącego do wykonania

takiej kopii; w przeciwnym przypadku maszyna pochodna byłaby „bezpłodna”. Pojawia się tu

wyraźne niebezpieczeństwo postępowania w nieskończoność, lecz von Neumann wpadł na

sprytny sposób obejścia tego problemu: uniwersalny konstruktor powinien być wyposażony w

specjalny mechanizm regulujący. Gdy konstruktor wyprodukuje już kopię samego siebie

(zawierającą oczywiście także kopię mechanizmu regulującego), mechanizm ten wyłącza

program i pozwala go traktować jako jeszcze jedną część urządzenia. Maszyna von Neumanna

wykonuje zatem także kopię programu i umieszcza go w nowej maszynie, która w ten sposób nie

różni się już niczym od maszyny macierzystej i może uruchomić swój własny program

reprodukcji.

Początkowo von Neumann zamierzał zbudować prawdziwą maszynę o takich

własnościach, „z drucików i śrubek”, lecz Ulam przekonał go, że lepiej będzie zbadać

teoretycznie zachowanie automatów komórkowych pod względem występowania struktur

samoreprodukujących. W ten sposób maszyna von Neumanna miałaby być jedynie układem

punktów świetlnych na ekranie czy też pionków na szachownicy, lecz nic to nie szkodzi, gdyż

ważna jest jedynie logiczna i systemowa struktura takiej maszyny, a nie konkretny sposób jej

background image

realizacji. Po żmudnych badaniach von Neumannowi i jego współpracownikom udało się

wykazać, że zdolność samoreprodukowania się faktycznie pojawia się w układach powyżej

pewnego stopnia złożoności; wymaga to jednak rozważania automatów komórkowych o regułach

o wiele bardziej skomplikowanych niż w przypadku ŻYCIA. Zamiast przypisywania każdej

komórce zaledwie jednego z dwóch stanów - pusta lub pełna - automat von Neumanna

dopuszczał co najmniej dwadzieścia jeden możliwości. Rzeczywiste zbudowanie automatu

samoreprodukującego było zadaniem beznadziejnym - uniwersalny konstruktor wraz z

mechanizmem regulującym i pamięcią musiałby zajmować co najmniej dwieście tysięcy

komórek - lecz ważne było to, że oto w zasadzie czysto mechaniczny system zdolny jest do

samoreprodukcji. W jakiś czas po tych matematycznych badaniach von Neumanna nastąpił

rozkwit biologii molekularnej: odkrycie struktury DNA w kształcie podwójnej helisy, odczytanie

kodu genetycznego i wyjaśnienie podstawowych zasad reprodukcji organizmów na poziomie

molekularnym. Wkrótce stało się jasne, że przyroda stosuje się właśnie do logicznych zasad

odkrytych przez von Neumanna. Biolodzy istotnie znaleźli wewnątrz komórek organicznych

rzeczywiste molekuły będące odpowiednikami elementów maszyny von Neumanna.

Conwayowi udało się również pokazać, że w grze ŻYCIE również mogą wystąpić

struktury samoreprodukujące się. Względnie prosty schemat produkowania szybowców przez

szybowce nie podpada jednak pod tę kategorię, gdyż nie zachodzi w nim powielanie

uniwersalnego programu samoreprodukcji. Potrzeba czegoś o wiele bardziej skomplikowanego.

Conway rozważył najpierw zagadnienie pokrewne: czy w świecie ŻYCIA możliwe jest

zbudowanie maszyny Turinga (tj. uniwersalnego komputera)? Działanie każdego komputera

uniwersalnego opiera się na logicznych operacjach koniunkcji („I”), alternatywy („LUB”) i

negacji („NIE”). W zwykłym elektronicznym komputerze operacje te są realizowane poprzez

proste układy przełącznikowe, zwane bramkami logicznymi. Na przykład bramka „I” ma dwa

przewody wejściowe i jeden przewód wyjściowy. Jeżeli w obu przewodach wejściowych pojawi

się impuls elektryczny, to generowany jest impuls w przewodzie wyjściowym. Gdy brak sygnału

na wejściu lub jest on podany tylko w jednym przewodzie, na wyjściu nie otrzymujemy żadnego

impulsu. Komputer składa się z olbrzymiej liczby połączonych ze sobą elementów tego typu.

Obliczenia wykonywane są poprzez przedstawienie liczb w postaci dwójkowej, jako ciągi

jedynek i zer. Fizycznie jedynka odpowiada impulsowi prądu, a zero brakowi impulsu. Nie jest

jednak wcale konieczne, aby obliczenia realizowane były poprzez układy obwodów

background image

elektrycznych. Każde urządzenie pozwalające na wykonanie tych samych operacji logicznych

będzie również odpowiednie do tego celu. Mogą to być równie dobrze kółka zębate (jak w

Maszynie Analitycznej Charlesa Babbage'a), wiązki światła laserowego czy też świetlne punkty

na ekranie komputera.

Po wielu eksperymentach i rozważaniach teoretycznych Conway był w stanie wykazać,

że odpowiednie układy logiczne mogą być rzeczywiście zbudowane w świecie ŻYCIA.

Zasadnicza idea polegała na wykorzystaniu ciągów szybowców do reprezentowania liczb w

postaci dwójkowej. Na przykład, liczba 1011010010 może być przedstawiona poprzez

zastąpienie każdej z jedynek szybowcem i pozostawienie miejsc wolnych zamiast zer. Bramki

logiczne można wtedy zrealizować jako strumienie szybowców krzyżujące się w określony

sposób. Tak zatem bramka „I” będzie generowała szybowiec tylko wtedy, gdy dojdą do niej

równocześnie szybowce z obu strumieni wejściowych (co odpowiada operacji l + l -» 1). Aby to

wykonać i zapewnić wystarczającą ilość pamięci dla przechowania informacji, Conwayowi

potrzeba było tylko czterech rodzajów występujących w ŻYCIU struktur: szybowców, dział,

pożeraczy i bloków.

Potrzeba było dużej dozy sprytnych chwytów, aby odpowiednio rozmieścić wszystkie

elementy i zgrać ich ewolucję. Tak czy owak okazało się, że wszystkie niezbędne elementy

logiczne można w ten sposób utworzyć, i świetlne kropki w świecie ŻYCIA całkiem dobrze,

choć może nieco zbyt wolno, są w stanie spełniać rolę uniwersalnego komputera. Rezultat ten ma

fascynujące implikacje. Występują tu dwa poziomy. Po pierwsze, mamy komputer z

odpowiednim programem realizujący na swym ekranie grę w ŻYCIE, po drugie struktury

ŻYCIA same z kolei funkcjonują na wyższym poziomie jako komputer. Teoretycznie hierarchia

ta może obejmować dowolnie wiele poziomów: komputer ŻYCIA można zaprogramować tak, by

sam grał w ŻYCIE produkując kolejny poziom struktur... Niedawno uczestniczyłem w

konferencji poświęconej badaniom układów złożonych, na której dwaj informatycy z

Massachusetts Institute of Technology, Tom Toffoli i Norman Margolus, zademonstrowali

działanie logicznej bramki „I” w postaci struktury na ekranie komputera. Pokazowi przyglądał się

również Charles Bennett z IBM, ekspert w dziedzinie matematycznych podstaw informatyki i

teorii układów złożonych. Zwróciłem Bennettowi uwagę, że właśnie widzimy elektroniczny

komputer symulujący komórkowy automat symulujący komputer. Bennett odpowiedział, że ta

hierarchia poziomów obliczeniowych przywodzi mu na myśl rosyjskie lalki-matrioszki.

background image

Fakt, że za pomocą struktur ŻYCIA możemy zrealizować koncepcję uniwersalnego

komputera, oznacza, iż wszystkie wnioski z analiz Turinga mogą być przetransponowane w świat

ŻYCIA. Na przykład będziemy tu również mieli do czynienia z operacjami nieobliczalnymi.

Pamiętajmy, że nie ma systematycznego sposobu na sprawdzenie z góry, czy dany problem jest

możliwy do rozstrzygnięcia przez maszynę Turinga; końcowego stanu maszyny Turinga nie da

się poznać wcześniej. A zatem nie jesteśmy również w stanie poznać, co stanie się z

odpowiadającymi jej strukturami ŻYCIA, pomimo iż struktury te powstają w sposób ściśle

deterministyczny. Sądzę, że jest wniosek niezwykle doniosły, mający daleko idące konsekwencje

dla całej rzeczywistości. Okazuje się bowiem, że w świecie ŻYCIA zawarty jest element

przypadkowości czy też niepewności (nie bardzo śmiem nazwać to „wolną wolą”), zupełnie jak

w świecie rzeczywistym, i wynika on z ograniczeń narzucanych przez samą logikę, o ile tylko

rozpatrywane układy osiągną wystarczający stopień złożoności, by możliwa była samoreferencja.

Samoreferencja i samoreprodukowanie się stanowią pojęcia ściśle ze sobą związane;

skoro wiec udało się udowodnić istnienie uniwersalnych komputerów na bazie struktur ŻYCIA,

otworzyła się przed Conwayem możliwość wykazania istnienia również uniwersalnych

konstruktorów, a zatem w pełni samoreprodukujących się struktur ŻYCIA. I w tym przypadku

nie chodziło o znalezienie konkretnej struktury tego typu, gdyż byłaby ona naprawdę ogromna.

Niemniej Conway rozumował, że w nieskończonym świecie ŻYCIA z punktami

rozmieszczonymi w sposób przypadkowy struktury samore-produkujące się musiałyby gdzieś

powstać na mocy czystego przypadku. Jakkolwiek prawdopodobieństwo samoistnego utworzenia

tak złożonych i ściśle dobranych struktur jest astronomicznie małe, w naprawdę nieskończonym

świecie wszystko, co w ogóle może się zdarzyć, na pewno się wydarzy. Można nawet sobie

wyobrazić coś na kształt ewolucji typu darwinowskiego, prowadzącej do wyłonienia struktur

samoreprodukujących się o jeszcze wyższym stopniu komplikacji.

Niektórzy entuzjaści ŻYCIA utrzymują, że takie samoreprodukujące się struktury byłyby

naprawdę żywe, ponieważ posiadałyby wszystkie atrybuty, jakie przysługują organizmom

żywym w naszym Wszechświecie. Jeśli życie zdefiniujemy jako energię zorganizowaną w

struktury o odpowiednio wysokim stopniu złożoności, będą oni mieli rację. Faktem jest, że

istnieje obecnie nawet odrębna dyscyplina naukowa, „studia nad sztucznym życiem”, zajmująca

się generowanymi komputerowo strukturami obdarzonymi zdolnością samoorganizacji i

przystosowywania się. Stawia ona sobie za cel odróżnienie istoty tego, co to znaczy „być

background image

żywym”, od przypadkowych elementów rzeczywistych istot żyjących. Na jednej z ostatnich

konferencji na temat sztucznego życia informatyk Chris Langdon wyjaśniał: „Jesteśmy

przekonani, że uda nam się urzeczywistnić na komputerach światy wystarczająco złożone, by

możliwe były w nich procesy, które w odniesieniu do danego świata należałoby uznać za formy

życia. Ale w takim przypadku mielibyśmy do czynienia z życiem na zupełnie odmiennym

podłożu. (...) Rodzi się zatrważająca możliwość, że to właśnie my stworzymy następną generację

istot żywych we Wszechświecie”

6

. Poundstone zgadza się z tym poglądem: „Jeżeli za kryterium

życia uznamy nietrywialne samoreprodukowanie się, to samoreplikujące się struktury ŻYCIA

należałoby uważać za istoty żywe. Nie znaczyłoby to bynajmniej, że symulują one zachowanie

istot żywych, jak w przypadku obrazu telewizyjnego, lecz że są naprawdę żywe, gdyż obdarzone

są zdolnością kodowania i przetwarzania informacji genetycznej. Przy takim rozumieniu życia

nawet najprostsze samoreprodukujące się struktury ŻYCIA są istotami żywymi, i to w większym

stopniu niż wirusy”

7

.

John Conway posuwa się jeszcze dalej, utrzymując, że bardziej zaawansowane struktury

ŻYCIA mogłyby być obdarzone świadomością: „Jest prawdopodobne, o ile tylko, początkowo

chaotyczna, populacja ŻYCIA będzie wystarczająco duża, że po odpowiednio długim czasie

powstaną samoreplikujące się istoty inteligentne, które osiądą w jakimś miejscu kosmosu”

8

. Idee

tego typu wzbudzają jednak naturalny opór. W końcu świat ŻYCIA to tylko komputerowa

symulacja. Przecież nie jest on światem prawdziwym. Struktury poruszające się po ekranie

zaledwie imitują istoty żywe. Ich zachowanie nie ma charakteru spontanicznego; to tylko

realizacja komputerowego programu do gry w ŻYCIE. Jednakowoż, odpowiadają na to

entuzjaści ŻYCIA, zachowanie się struktur świata fizycznego również jest „zaprogramowane” w

postaci praw fizyki i zadanych warunków początkowych. Chaotyczny rozkład punktów, z

którego może się zrodzić samoreprodukująca się struktura ŻYCIA, odpowiada bezpośrednio

równie chaotycznej pierwotnej zupie molekularnej, z której miały powstać pierwsze organizmy

żywe na Ziemi.

A więc, w jaki sposób możliwe jest odróżnienie świata rzeczywistego od jego imitacji?

Będzie to tematem następnego rozdziału.

background image

Rozdział piąty

ŚWIAT RZECZYWISTY I ŚWIATY WIRTUALNE

Sny fascynują każdego z nas. Ludzie, którzy tak jak ja mają sny bardzo barwne, często

doświadczają sytuacji, że są „uwięzieni” we śnie, który wydaje się im rzeczywistością. Ogromne

uczucie ulgi, jakie towarzyszy potem przebudzeniu, jest naprawdę niekłamane. Jednak po

wielekroć zastanawiałem się, dlaczego, zważywszy, że sen jest jednak również pewną

rzeczywistością, czynimy tak ostre rozróżnienie między tym, czego doświadczamy śpiąc i po

przebudzeniu. Czy możemy być absolutnie pewni, że „świat snu” jest zaledwie ułudą, a „świat

jawy” czymś realnym? A może jest właśnie na odwrót, albo też obydwa są równie realne, albo

żaden z nich? Jakie kryteria realności należałoby zastosować, aby tę kwestię rozstrzygnąć?

Zazwyczaj w takim przypadku słyszymy odpowiedź, że sny stanowią doświadczenie

jednostkowe, podczas gdy doświadczenie świata, który jawi się nam po przebudzeniu, jest spójne

z doświadczeniem innych ludzi. Ale niewiele nam to pomoże. We śnie wiele razy spotykałem

różne osoby, które zapewniały mnie, że są jak najbardziej rzeczywiste i że doświadczają tego

samego co ja. Na jawie muszę wierzyć innym ludziom na słowo, że świat, jaki oni widzą, jest

podobny do mojego, ponieważ nie jestem w stanie uczestniczyć bezpośrednio w ich

doświadczeniu. W jaki zatem sposób mam poznać, że twierdzenia te są prawdziwe, a nie

wygłaszane przez postać ze snu, albo też odpowiednio skomplikowany, lecz pozbawiony

świadomości automat? Nie na wiele zda się tu wskazywanie faktu, że sny są na ogół niespójne,

fragmentaryczne i absurdalne. Tak zwany świat realny często też nam się taki wydaje po wypiciu

kilku kieliszków wina lub też po przebudzeniu z narkozy.

background image

Symulowanie rzeczywistości

Powyższe uwagi dotyczące snów miały przygotować czytelnika do rozważań nad

rzeczywistością symulowaną za pomocą komputerów. W poprzednim rozdziale dowodziłem, że

komputer jest w stanie symulować procesy fizyczne zachodzące w świecie rzeczywistym,

potencjalnie nawet tak złożone, z jakimi mamy do czynienia w biologii. Z drugiej strony,

widzieliśmy, że w gruncie rzeczy komputer jest niczym innym jak procedurą przekształcania

jednego ciągu symboli na inny według pewnych zadanych reguł. Zazwyczaj symbolami tymi są

liczby, a konkretnie ciągi jedynek i zer, które stanowią formę liczb najbardziej nadającą się do

przetwarzania przez maszyny. Każda jedynka lub zero odpowiada jednemu bitowi informacji, tak

wiec komputer jest urządzeniem, które pobiera ciąg bitów na wejściu i generuje inny ciąg bitów

na wyjściu. W jaki sposób ten pozornie trywialny zespół abstrakcyjnych operacji miałby być w

stanie uchwycić istotę fizycznego świata?

Porównajmy działanie komputera z jakimś układem fizycznym występującym w

przyrodzie, na przykład planetą krążącą wokół Słońca. Stan tego układu w dowolnej chwili może

być określony przez podanie położenia i prędkości planety. To są dane wejściowe. Odpowiednie

liczby mogą być podane w postaci dwójkowej, jako ciąg jedynek i zer. W jakiś czas później

planeta będzie miała inne położenie i prędkość, które mogą być wyrażone jako odpowiedni ciąg

bitów. To są dane wyjściowe. Planecie udało się przekształcić jeden ciąg bitów w inny i dlatego

w pewnym sensie możemy ją uważać za komputer. „Program”, który posłużył do tej konwersji,

stanowią właściwe prawa fizyki (w tym przypadku prawa dynamiki i powszechnego ciążenia

Newtona).

Naukowcy w coraz większym stopniu zdają sobie sprawę z podobieństw, jakie zachodzą

pomiędzy procesami fizycznymi a komputerami, i często uznają za korzystne myślenie o świecie

w kategoriach komputerowych. „Prawa nauki pełnią obecnie rolę algorytmów - twierdzi Stephen

Wolfram z Institute for Advanced Study w Princeton. - Układy fizyczne uważa się za systemy

obliczeniowe, przetwarzające informację tak, jak czynią to komputery”. Weźmy na przykład gaz.

Stan gazu można określić przez podanie położenia i prędkości wszystkich jego cząsteczek w

określonej chwili (z określoną dokładnością). Stanowiłoby to ogromnie długi ciąg bitów. Stan

gazu w jakiejś późniejszej chwili będzie wyznaczony przez inny równie długi ciąg bitów. A

zatem w wyniku dynamicznej ewolucji gazu nastąpiło przekształcenie danych wejściowych w

background image

wyjściowe.

Związek pomiędzy procesami w przyrodzie a operacjami obliczeniowymi jest jeszcze

bardziej umocniony przez teorię kwantów, która ujawnia, że wiele wielkości fizycznych, dotąd

uważanych za ciągłe, ma naprawdę charakter dyskretny. Tak więc atomy odznaczają się

oddzielnymi poziomami energii. Gdy atom zmienia swoją energię, następuje przejście pomiędzy

poziomami. Jeśli każdemu poziomowi przypiszemy jakąś liczbę, takie przejście można traktować

jako przekształcenie jednej liczby w drugą.

W ten sposób dotarliśmy do samej istoty przydatności komputerów we współczesnej

nauce. Ponieważ komputery potrafią symulować się wzajemnie, elektroniczny komputer jest w

stanie symulować każdy układ, który sam zachowuje się jak komputer. Stanowi to podstawę

komputerowego modelowania świata realnego. Planety, naczynia z gazem i różne inne rzeczy

zachowują się jak komputery, a zatem można je modelować. Lecz czy zachowanie każdego

fizycznego układu da się symulować w ten sposób? Wolfram uważa, że tak: „Oczekuje się, że

komputery są równie potężne pod względem swej mocy obliczeniowej, co jakikolwiek fizycznie

możliwy do zrealizowania układ, a zatem są one w stanie symulować dowolny układ fizyczny”.

Jeśli jest to prawdą, wynika stąd, że za pomocą odpowiednio złożonego systemu obliczeniowego

dałoby się w zasadzie symulować zachowanie całego fizycznego Wszechświata.

W poprzednim rozdziale wyjaśniałem, w jaki sposób automaty komórkowe, takie jak gra

ŻYCIE, są w stanie generować miniaturowe światy, w których również możliwe są obliczenia.

Nasuwa się nieodparty wniosek, iż świat ŻYCIA posiada wszystkie cechy świata rzeczywistego.

„Automaty komórkowe, które potrafią działać jako uniwersalny komputer, są w stanie imitować

działanie każdego możliwego komputera” - wyjaśnia Wolfram. I dalej: „skoro każdy proces

fizyczny może być przedstawiony jako proces obliczeniowy, mogą one również imitować

zachowanie każdego możliwego układu fizycznego”. Czyż więc miniaturowy świat automatu

komórkowego, taki jak świat ŻYCIA, można, przynajmniej w zasadzie, uczynić tak

„rzeczywistym”, że mógłby stanowić wierną replikę świata rzeczywistego? Wygląda na to, że

tak. Ale to rodzi następne kłopotliwe pytanie. Jeśli wszystkie układy fizyczne można traktować

jako komputery, natomiast komputery są w stanie doskonale imitować wszelkie układy fizyczne,

to czymże w końcu różni się świat rzeczywisty od symulacji?

Nasuwa się odpowiedź, że symulacje są zaledwie niedokładnymi przybliżeniami świata

rzeczywistego. Kiedy na przykład dokonuje się obliczenia orbity planety, dokładność danych

background image

wejściowych jest ograniczona przez błędy obserwacji. Ponadto realistyczne programy

komputerowe w znacznym stopniu upraszczają opisywaną sytuację przez pominięcie zakłóceń

pochodzących od mniejszych ciał kosmicznych i tym podobnych. Niemniej jednak można sobie z

pewnością wyobrazić, że programy zostają coraz bardziej ulepszane, a dane zbierane są z coraz

większą dokładnością, aż symulacja staje się praktycznie nieodróżnialna od rzeczywistości.

Ale czy symulacja nie musi się załamać na pewnym poziomie dokładności? Przez długi

czas uważano, że na pytanie to należy odpowiedzieć twierdząco, wskutek tego, co uważano za

fundamentalną różnicę pomiędzy realnym światem fizycznym a jego cyfrową symulacją. Różnica

ta wiąże się z kwestią odwracalności w czasie. Jak wyjaśniałem już w rozdziale l, prawa fizyki są

odwracalne w tym sensie, że pozostają niezmienione, gdy zamienimy miejscami przyszłość i

przeszłość, tj. nie mają wbudowanego wyróżnionego kierunku upływu czasu. Otóż wszystkie

maszyny cyfrowe podczas swego działania wydzielają energię. Ta stracona energia wydziela się

wewnątrz urządzenia w postaci ciepła i trzeba ją odprowadzać. Gromadzenie się ciepła nakłada

istotne praktyczne ograniczenia na możliwości obliczeniowe komputerów, toteż wiele wysiłków

badawczych poświęca się problemowi jego minimalizacji. Problem ten dotyczy już

elementarnych obwodów logicznych komputera. Za każdym razem, gdy następuje przełączenie,

wydziela się dodatkowa ilość ciepła. Znamy to dobrze z życia codziennego. Trzask, który

słyszymy przy zapalaniu światła w pokoju, oznacza, że część energii, jaką zużyliśmy na

uruchomienie przełącznika, rozeszła się w postaci fal dźwiękowych; pozostała część przekształca

się na ciepło wewnątrz przełącznika. Ten wydatek energii jest celowo założony przy

projektowaniu przełącznika, aby oba stany, w jakich może się on znajdować - włączony i

wyłączony - odznaczały się stabilnością. Gdyby przełączanie stanów nie wiązało się z

wydatkowaniem energii, groziłoby to tym, że przełącznik będzie przechodził samoczynnie ze

stanu do stanu.

Rozproszenie energii przy przełączaniu jest procesem nieodwracalnym. Ciepło rozchodzi

się w otoczeniu i jest bezpowrotnie stracone. Nie jest możliwe skupienie w jakiś sposób

rozproszonej energii cieplnej i wykorzystanie jej do jakichkolwiek użytecznych celów bez dalszej

utraty równie wielkiej ilości energii w tym procesie. Jest to przykład działania drugiego prawa

termodynamiki, które zabrania takiego „darmowego” spożytkowywania rozproszonej energii

cieplnej. Niektórzy informatycy zwrócili jednak uwagę na to, że drugie prawo termodynamiki

jest prawem statystycznym obowiązującym w układach o wielu stopniach swobody. W istocie

background image

same pojęcia ciepła i entropii związane są z chaotycznym ruchem cząsteczek, toteż mają sens

jedynie dla dużej liczby cząsteczek. Gdyby komputery udało się zminiaturyzować do tego

stopnia, że elementarne obwody logiczne składałyby się z kilku cząsteczek, czyż nie dałoby się

całkowicie wyeliminować wydzielania ciepła?

Jednakże wydawało się, że istnieją pewne przeszkody natury ogólnej nie pozwalające na

zrealizowanie tej idei. Weźmy na przykład pod uwagę opisaną w poprzednim rozdziale bramkę

„I”. Na wejściu mamy dwa kanały (przewody), na wyjściu tylko jeden. Cały cel operacji

koniunkcji sprowadza się do zamiany dwóch sygnałów na wejściu w jeden sygnał na wyjściu. Od

razu widać, że nie może to być proces odwracamy, gdyż nie ma możliwości odróżnienia, czy

brak impulsu na wyjściu spowodowany był brakiem impulsu w jednym przewodzie na wejściu, w

drugim czy też w obydwu. To zasadnicze ograniczenie stanowi odzwierciedlenie oczywistego

faktu, że w zwykłych działaniach arytmetycznych możemy podać odpowiedzi znając pytanie,

lecz nie na odwrót: w ogólnym przypadku nie jest możliwe wywnioskowanie pytań ze znanych

odpowiedzi. Jeżeli ktoś nam powie, że wynikiem pewnego sumowania jest liczba 4, składnikami

tej sumy mogły być 2 + 2, 3 + l lub 4 + 0. Mogłoby się zatem wydawać, że żaden komputer nie

może być puszczony do tyłu z przyczyn czysto logicznych.

W rozumowaniu tym jest jednak pewna luka, którą niedawno odkryli Rolf Landauer i

Charles Bennett z IBM. Przyjrzeli się oni bliżej nieodwracalności jako rzekomo nieodłącznej

własności procesu obliczeniowego i stwierdzili, że bierze się ona z odrzucania informacji.

Obliczając sumę 1+2 + 2, można najpierw dodać 2 i 2 otrzymując 4, a następnie dodać 4 do l, aby

otrzymać wynik końcowy 5. W tym ciągu operacji ma miejsce etap pośredni,z którego pozostaje

tylko liczba 4: występujące początkowo 2 + 2 zostały odrzucone jako niepotrzebne do

pozostałych obliczeń. Ale informacja nie musi być wcale odrzucana; możemy ją zachować.

Oczywiście potrzebna jest wtedy większa pojemność pamięci, aby pomieścić tę dodatkową

informację, jednak pozwoli to nam „odwracać” każdy proces obliczeniowy na dowolnym etapie i

przechodzić od odpowiedzi do pytań.

Jednak czy możliwe jest zbudowanie odpowiednich obwodów przełączających,

realizujących tę odwracalną logikę? Ed Fredkin z MIT odkrył, że tak. Przełącznik Fredkina miał

dwa kanały wejściowe i dwa kanały wyjściowe oraz dodatkowy „kanał kontrolny”. Dokonuje on

operacji logicznych w normalny sposób, ale zachowując pełną informację wejściową na wyjściu.

Proces obliczeniowy może być przeprowadzony w odwracalny sposób nawet na maszynie z

background image

dyssypacją, tj. takiej, w której nieuchronnie część energii ulega rozproszeniu. (Przy jakiejkolwiek

praktycznej realizacji odwracalnego procesu obliczeniowego nie da się wyeliminować

bezpowrotnego rozpraszania ciepła). Niemniej na poziomie teoretycznym można rozważać

wyidealizowany układ, w którym zarówno procesy fizyczne, jak i obliczeniowe, przebiegałyby w

sposób odwracalny. Fredkin podał przykład wyimaginowanego zespołu sprężystych kulek

odbijających się w ściśle kontrolowany sposób od nieruchomych przegródek. Układ taki zdolny

byłby do wykonywania odwracalnych operacji logicznych. Ostatnio przedstawiono również inne

koncepcje komputerów odwracalnych.

Interesujące zagadnienie pojawia się przy rozważeniu statusu automatów komórkowych

jako komputerów. Komputery generowane przez grę ŻYCIE nie są odwracalne, gdyż reguły gry,

które doprowadziły do ich powstania, nie są odwracalne (następstwa pojawiających się struktur

me można odwrócić). Jednakże Norman Margolus skonstruował automat komórkowy innego

typu, który jest w stanie modelować odwracalny układ Fredkina z kulkami i przegródkami. Na

poziomie tego automatu jest to rzeczywiście odwracalny komputer, zarówno pod względem

obliczeniowym, jak i „fizycznym” (jakkolwiek nadal mamy do czynienia z nieodwracalną

dyssypacją energii na poziomie elektronicznego komputera, na którym zrealizowany został ten

automat komórkowy).

Fakt, że proces obliczeniowy może być przeprowadzony w sposób odwracalny, eliminuje

zasadniczą różnicę pomiędzy symulacją komputerową a rzeczywistym procesem fizycznym,

który jest przedmiotem tej symulacji. W istocie można odwrócić to porównanie i zapytać, w

jakim stopniu rzeczywiste procesy fizyczne są procesami obliczeniowymi. Jeżeli proces

obliczeniowy nie wymaga nieodwracalnych przełączników, czy zwykły ruch ciał fizycznych

może być uznany za część składową takiego procesu? Kilka lat temu udowodniono, że pewne

układy nieodwracalne, na przykład maszyny Turinga i automaty komórkowe oparte na regułach

nieodwracalnych, jak ŻYCIE, można zaprogramować, aby wykonywały każdy zadany cyfrowy

proces obliczeniowy, poprzez odpowiedni dobór ich stanu początkowego. Własność ta zwana jest

„uniwersalnością obliczeniową”. W przypadku ŻYCIA oznacza to, że można dobrać taką

strukturę wyjściową, która będzie umieszczała punkt w danym położeniu, jeżeli, na przykład,

pewna liczba jest liczbą pierwszą. Inna struktura będzie to czynić, jeżeli pewne równanie posiada

rozwiązanie, i tak dalej. W ten sposób ŻYCIE może być użyte do badania nierozwiązanych

problemów matematycznych, takich jak Wielkie Twierdzenie Fermata.

background image

Zupełnie niedawno wykazano, że pewne odwracalne układy deterministyczne, takie jak

komputer Fredkina z kulkami i przegródkami, posiadają również własność uniwersalności

obliczeniowej, oraz że przysługuje ona nawet niektórym układom niedeterministycznym. Wydaje

się zatem, że uniwersalność obliczeniowa jest dosyć często spotykaną własnością układów

fizycznych. Jeśli jakiś układ posiada już tę własność, to na mocy definicji mogą w nim zachodzić

procesy o dowolnym dużym stopniu złożoności, jakie tylko mogą być symulowane za pomocą

maszyn cyfrowych. Można pokazać, że nawet układ tak prosty, jak układ trzech ciał

poruszających się w swym polu grawitacyjnym (np. dwie planety okrążające gwiazdę),

obdarzony jest uniwersalnością obliczeniową, a zatem odpowiednio dobierając położenia i

prędkości tych planet w pewnej chwili, można sprawić, że układ ten będzie obliczać na przykład

kolejne miejsca dziesiętne liczby n, trylionową liczbę pierwszą, czy też wynik kolizji miliarda

szybowców w świecie ŻYCIA. Być może ten pozornie trywialny układ trzech elementów byłby

w stanie symulować nawet zachowanie całego Wszechświata, jeśli, jak utrzymują niektórzy

entuzjaści, Wszechświat da się modelować za pomocą maszyny cyfrowej.

Zwykliśmy myśleć o komputerach jako o bardzo szczególnych układach, które wymagają

dużego wkładu myśli technicznej przy ich konstruowaniu. Nie da się zaprzeczyć, że

elektroniczne maszyny cyfrowe są skomplikowane, ale jest to związane z ich wszechstronnością.

Znaczna część niezbędnego programowania jest już zapewniona przez samą konstrukcję

komputera i nie trzeba go za każdym razem powtarzać przez odpowiedni dobór warunków

początkowych. Mimo to zdolność wykonywania obliczeń jest czymś, co, jak się wydaje,

przysługuje wielu układom fizycznym, w tym niektórym nawet bardzo prostym. Rodzi to

pytanie, czy jest możliwe przeprowadzanie obliczeń za pomocą układów pojedynczych atomów

czy wręcz cząstek elementarnych. Kwestią tą zajmował się fizyk Richard Feynman, który

wykazał, że zgodnie z prawami mechaniki kwantowej istnieje realna możliwość działania

odwracalnego komputera na poziomie cząstek elementarnych. Czy zatem możemy uważać, że

niezliczone procesy kwantowe zachodzące w przyrodzie przez cały czas - wewnątrz nas samych,

we wnętrzu gwiazd, w gazie międzygwiezdnym, w odległych galaktykach - stanowią część

jakiegoś gigantycznego kosmicznego procesu obliczeniowego? Gdyby tak było, procesy fizyczne

i obliczeniowe byłyby tym samym, i mielibyśmy prawo wyciągnąć zdumiewający wniosek, że

Wszechświat symuluje sam siebie.

background image

Czy Wszechświat jest komputerem?

Osobą, która z naciskiem odpowiada twierdząco na to pytanie, jest Ed Fredkin. Uznając

świat fizyczny za gigantyczny automat komórkowy, uważa on, że badania nad automatami

komórkowymi wykazują, iż jest możliwe symulowanie realistycznych procesów fizycznych, w

tym nawet tak wyrafinowanych jak relatywistyczne. Przekonanie to podziela też współpracownik

Fredkina Tom Toffoli, który kiedyś w żartach wyraził się, że Wszechświat jest wprawdzie

komputerem, wszakże problem polega na tym, iż ktoś inny się nim posługuje. A my, no cóż,

jesteśmy zaledwie pchłami w tej wielkiej kosmicznej maszynie! „Pozostaje nam tylko - twierdzi

Toffoli - »załapać się« na ten olbrzymi proces obliczeniowy, próbując stwierdzić, czy jakieś jego

elementy nie podążają mniej więcej w kierunku, który by nam odpowiadał”.

Fredkinowi i Toffolemu nie brakuje wspólników w tych zdumiewających, można by

nawet rzec dziwacznych, poglądach. Fizyk Frank Tipler również opowiada się silnie za ideą

utożsamienia Wszechświata ze swoją własną symulacją. Co więcej, symulacja ta wcale nie musi

być przeprowadzana na prawdziwym komputerze, utrzymuje Tipler. Ostatecznie program

komputerowy to tylko przekształcenie (czy też odwzorowanie) jednego zbioru abstrakcyjnych

symboli w inny zgodnie z pewną regułą podającą zależność między wejściem a wyjściem.

Fizyczny komputer stanowi konkretną reprezentacje tego odwzorowania, podobnie jak rzymska

liczba III jest reprezentacją abstrakcyjnej liczby 3. Samo istnienie takiego odwzorowania - nawet

o charakterze abstrakcyjnym, w obszarze czystej matematyki - jest dla Tiplera wystarczające.

Należy zaznaczyć, że nasze współczesne teorie fizyczne nie przypominają na ogół

algorytmów komputerowych, gdyż wielkości w nich występujące zmieniają się w sposób ciągły.

W szczególności za ciągłe uznawane są przestrzeń i czas. „Możliwość, aby istniała wierna

symulacja, aby komputer robił to samo, co przyroda - wyjaśnia Richard Feynman - wymaga, by

wszystko, co zachodzi w skończonym obszarze przestrzeni i czasu, dało się dokładnie

przeanalizować za pomocą skończonej liczby operacji logicznych. Obecne teorie fizyczne nie

spełniają tego warunku. Przestrzeń traktowana jest w nich jako nieskończenie podzielna”

5

. Z

drugiej strony, ciągłość zarówno przestrzeni, jak i czasu, stanowią tylko postulaty dotyczące

świata. Nie można ich dowieść, bo nigdy nie będziemy pewni, czy w jakiejś jeszcze mniejszej

skali, daleko poniżej możliwości obserwacyjnych, przestrzeń i czas nie mają jednak charakteru

dyskretnego. Co to miałoby znaczyć? Po pierwsze, znaczyłoby, że czas upływa nie jednostajnie,

background image

lecz małymi skokami. Sytuacja przypominałaby film wyświetlany w kinie, który posuwa się do

przodu zawsze o jedną klatkę. Film wydaje się nam czymś ciągłym, ponieważ nasze zmysły nie

rejestrują krótkich odstępów czasu pomiędzy klatkami. Podobnie w fizyce, aktualna technika

eksperymentalna pozwala na pomiar przedziałów czasu do 10

28

sekundy; przy tych wartościach

nie obserwuje się żadnych skoków. Jednakże niezależnie od tego, jak krótkie czasy będziemy w

stanie mierzyć, zawsze trzeba liczyć się z możliwością, że te małe przeskoki czasu są jeszcze

krótsze. To samo odnosi się do postulatu ciągłości przestrzeni, a zatem ta przeszkoda w

dokładnym symulowaniu rzeczywistości być może nie jest tak poważna.

Nadal jednak skłonni bylibyśmy uważać, że mapa jest czymś innym od terenu, który

przedstawia. Nawet gdyby mógł istnieć kosmiczny komputer tak niewiarygodnie potężny, że

byłby w stanie dokładnie symulować zachowanie każdego atomu we Wszechświecie, to przecież

komputer ten nie zawierałby w sobie Ziemi krążącej wokół Słońca, podobnie jak Biblia nie

zawiera Adama i Ewy. Symulacja komputerowa jest zazwyczaj traktowana jako reprezentacja,

czyli obraz rzeczywistości. Jak mógłby ktoś twierdzić, że procesy zachodzące we wnętrzu

komputera mogłyby stworzyć rzeczywisty świat?

Tipler replikuje, że zarzut ten może być słuszny jedynie z punktu widzenia zewnętrznego

wobec komputera. Gdyby istniał komputer na tyle potężny, że mógłby symulować świadomość, a

w konsekwencji i całą społeczność istot rozumnych, to z punktu widzenia tych istot wewnątrz

komputera świat symulacji byłby światem rzeczywistym:

„Zasadniczym pytaniem jest: czy symulowani ludzie są realni? Z ich własnego punktu

widzenia, z pewnością tak. Z założenia, jakiekolwiek działanie czy procedurę, które rzeczywiści

ludzie byliby w stanie przeprowadzić, aby dowieść, że naprawdę istnieją - związane z tym, że

myślą, oddziaływają z otoczeniem - zdolni są wykonać także ludzie symulowani, i faktycznie

wykonują. Nie ma wprost żadnego sposobu, by symulowani ludzie byli w stanie stwierdzić, że

»tak naprawdę« to są we wnętrzu komputera, że nie są istotami realnymi, lecz tylko

symulowanymi. Prawdziwa rzeczywistość, fizycznie istniejący komputer, jest dla nich stamtąd,

gdzie się znajdują, z wnętrza komputerowego programu, całkowicie niedostępna. (...) Nie ma

żadnej metody pozwalającej symulowanym ludziom na odróżnienie, że są zaledwie symulacją,

ciągami cyfr krążących po obwodach komputera, że nie są realni”.

Oczywiście cały wywód Tiplera opiera się na założeniu, że komputery są w stanie

symulować świadomość. Czy można to uznać za założenie rozsądne? Wyobraźmy sobie

background image

komputer symulujący człowieka. Jeśli mamy do czynienia z symulacją doskonałą, obserwator

zewnętrzny nie wtajemniczony w sytuację nie byłby w stanie na podstawie rozmowy odróżnić,

czy ma do czynienia z symulacją komputerową czy też z rzeczywistą osobą należącą do naszego

świata. Obserwator taki mógłby zadawać symulowanej istocie różne pytania, otrzymując w pełni

sensowne, jak u człowieka, odpowiedzi; w wyniku czego byłby skłonny uznać, że ma do

czynienia z ludzką inteligencją. W istocie sam Alan Turing podjął to zagadnienie w swym

słynnym artykule zatytułowanym Czy maszyny myślą?, w którym przytoczył nawet przykładowe

pytania dla takiego testu. Jakkolwiek większość ludzi uważa przypuszczenie, że maszyny mogą

być obdarzone świadomością, za dziwaczne, jeśli nie wręcz absurdalne, szereg wybitnych

naukowców i filozofów wyznających tak zwaną silną zasadę sztucznej inteligenci przyjmowało

na tej podstawie, że w przypadku takiej symulacji komputerowej mielibyśmy do czynienia z

rzeczywistą świadomością.

Tym, którzy oswoili się z myślą, iż komputer o odpowiedniej mocy obliczeniowej może

być obdarzony świadomością, nie sprawi już większych trudności zaakceptowanie tezy, że

komputer może w zasadzie stworzyć całą społeczność istot inteligentnych. Członkowie tej

społeczności myśleliby i odczuwali, żyli i umierali, w obrębie swego symulowanego świata,

zupełnie nie zdając sobie sprawy z faktu, że zdani są na łaskę nieznanego operatora, który może

przecież w każdej chwili wyłączyć komputer! Taki byłby właśnie status inteligentnych istot

Conwaya bytujących w świecie ŻYCIA.

W wyniku całej tej dyskusji nasuwa się nieodparcie pytanie: skąd wiemy, że my sami

jesteśmy „realni”, a nie stanowimy zaledwie symulacji w ramach jakiegoś gigantycznego

komputera? „Jest oczywiste, że nie możemy mieć takiej pewności” - odpowiada Tipler. Lecz czy

ma to w ogóle jakieś znaczenie? Tipler jest zdania, że nie jest ważne, czy taki komputer

naprawdę istnieje, skoro i tak inteligentne istoty w jego wnętrzu nie mają żadnej możliwości, by

się o tym przekonać. Wystarczy przyjąć, że istnieje odpowiedni abstrakcyjny program (nawet

jeśli ma on tylko postać abstrakcyjnej tabelki), pozwalający zrealizować symulację świata. Z tego

samego powodu nie jest istotne, czy fizyczny świat naprawdę istnieje: „Taki fizycznie realny

świat byłby równoważny rzeczy-samej-w-sobie u Kanta. Jako empirycy zmuszeni jesteśmy

odrzucić taki z zasady niepoznawalny byt: istnienie świata sprowadza się do istnienia

abstrakcyjnego programu”

7

.

Niedogodnością tego stanowiska (niezależnie od tego, że zakrawa ono na reductio ad

background image

absurdum) jest to, iż liczba możliwych abstrakcyjnych programów jest nieskończona. Dlaczego

zatem przedmiotem naszego doświadczenia jest ten właśnie Wszechświat? Tipler sądzi, że

wszystkie możliwe Wszechświaty, które dopuszczają istnienie świadomości, są przez kogoś

doświadczane. Nasz nie jest jedyny. Naturalnie, z definicji postrzegamy właśnie ten. Niemniej

istnieją inne Wszechświaty, z których wiele jest podobnych do naszego, mające swych własnych

mieszkańców, dla których ich Wszechświat jest pod każdym względem równie realny jak nasz

dla nas. (Jest to jedna z wersji kwantowomechanicznej hipotezy „wielu światów”, przyjmowanej

przez wielu wybitnych fizyków, którą opisywałem szczegółowo w mojej książce Other Worlds

[Inne światy]. Powrócę jeszcze do tego tematu w rozdziale 8). Programy realizujące światy, w

których nie ma istot inteligentnych, nie są przez nikogo poznawane, i być może z tego powodu

mogą być w pewnym sensie uważane za mniej realne. Zbiór programów zdolnych generować

światy poznawane stanowi zaledwie niewielki podzbiór zbioru wszystkich możliwych

programów. Nasz może tu uchodzić za typowy.

background image

Nieosiągalne

Jeżeli Wszechświat stanowi „wyjście” jakiegoś procesu obliczeniowego, to z definicji

musi być obliczalny. Wyrażając się dokładniej, musi istnieć program albo algorytm, pozwalający

na otrzymanie właściwego opisu świata w skończonej liczbie kroków. Gdybyśmy znali ten

algorytm, dysponowalibyśmy pełną teorią Wszechświata, zawierającą również wartości

numeryczne wszystkich mierzalnych wielkości fizycznych. Co możemy powiedzieć o tych

liczbach? Jeżeli mają być one wynikiem obliczenia, muszą to być liczby obliczalne. Powszechnie

przyjmowano, że wartości wszystkich mierzalnych wielkości w teorii fizycznej są liczbami

policzalnymi, lecz ostatnio przypuszczenie to zostało zakwestionowane przez fizyków Roberta

Gerocha i Jamesa Hartle'a. Pokazują oni, że istnieją teorie fizyczne dopuszczające wielkości

mierzalne będące liczbami niepoliczalnymi. Wprawdzie są to teorie związane z bardzo

technicznymi aspektami czasoprzestrzeni, ale chodzi o samą zasadę.

Przypuśćmy, że z naszej wspaniałej teorii wynika, że jakaś wielkość, na przykład

stosunek mas dwóch cząstek elementarnych, wyraża się niepoliczalną liczbą x. Czy taka teoria

może być zweryfikowana? Sprawdzenie jakiegoś przewidywania wymaga porównania wartości

teoretycznej z wartością otrzymaną na podstawie eksperymentów. Oczywiście, jest to możliwe

tylko z określoną dokładnością. Załóżmy, że błąd oczekiwany wartości eksperymentalnej wynosi

10 procent. Zatem trzeba, abyśmy znali wartość x z dokładnością 10 procent. Jednak, jakkolwiek

wartość x istnieje, nie mamy żadnego skończonego algorytmu, żadnej systematycznej procedury

pozwalającej ją wyznaczyć. Z drugiej strony, potrzebujemy znać wartość x jedynie z

dokładnością 10 procent i niewątpliwie można znaleźć algorytm dający w wyniku ciąg coraz

lepszych przybliżeń x, których błąd będzie w końcu mniejszy niż 10 procent. Cały problem w

tym, że skoro nie znamy x, nie jesteśmy w stanie określić, kiedy znajdziemy się w granicach

dopuszczalnego błędu.

Mimo tych trudności, niewykluczone, że dziesięcioprocentowe przybliżenie może być

wyznaczone metodami niealgorytmicznymi. Konstruując algorytm musimy z góry określić

skończony ciąg standardowych instrukcji, aby potem otrzymywać żądany wynik stosując je w

czysto mechaniczny sposób. W przypadku liczby obliczalnej, takiej jak n, możemy sobie

wyobrazić komputer pracowicie wyliczający ciąg coraz to lepszych przybliżeń i określający za

każdym razem, jaka jest dokładność otrzymanego przybliżenia. Jednakże, jak się przekonaliśmy,

background image

ta ogólna strategia zawodzi w przypadku liczb niepoliczalnych. Teoretyk będzie musiał

traktować każdy poziom dokładności jako odrębny problem, który należy rozwiązywać w

specyficzny sposób. Nawet jeżeli za pomocą jakiejś przemyślnej metody uda mu się wyznaczyć x

z dokładnością 10 procent, nie jest wcale powiedziane, że ta sama metoda pozwoli mu osiągnąć

dokładność jednoprocentową, toteż teoretyk będzie musiał się chwytać jakichś nowych, zupełnie

odmiennych sposobów. Każde zwiększenie dokładności wartości otrzymanych eksperymentalnie

zmuszać będzie naszego biednego teoretyka do coraz większego wysiłku, aby wyznaczyć daną

wartość teoretycznie z równą dokładnością.

Geroch i Hartle wskazują na fakt, że na ogół najtrudniejszym zadaniem jest

skontruowanie właściwej teorii; jej późniejsze zastosowanie jest już zazwyczaj procedurą czysto

mechaniczną. Trzeba było geniuszu Newtona, by stworzyć prawa dynamiki i powszechnego

ciążenia, natomiast wystarczy odpowiednio zaprogramować komputer, aby stosując tę teorię „na

ślepo”, przewidział datę najbliższego zaćmienia Słońca. W przypadku teorii, w której występują

wartości nieobliczalne, stosowanie teorii może być równie trudne, jak jej wcześniejsze

stworzenie. W istocie te dwie czynności nie będą się od siebie wyraźnie różniły.

Bez wątpienia teoretyk życzyłby sobie, żeby nasze teorie fizyczne takie nie były.

Jednakowoż nie możemy być pewni, że tak zawsze będzie. Mogą istnieć silne przesłanki za

przyjęciem konkretnej teorii, która, jak się potem okaże, przewiduje jakieś wielkości

nieobliczalne. Geroch i Hartle sugerują, że to właśnie ma miejsce w przypadku kwantowego

opisu czasoprzestrzeni. Czy należałoby odrzucić teorię wyłącznie z tego powodu? Czy są jakieś

przesłanki, by zakładać, że Wszechświat musi być opisywany tylko teoriami dającymi się

zastosować w sposób algorytmiczny? Tego nie wiemy, ale jednej rzeczy możemy być pewni.

Jeśli odpowiedź na to pytanie jest negatywna, cała, pod innymi względami tak bliska, analogia

pomiędzy przyrodą a komputerem zupełnie się załamuje.

Mając na uwadze powiedzenie Einsteina, iż Pan Bóg jest wyrafinowany, lecz nie

perfidny, załóżmy, że rzeczywiście żyjemy w „obliczalnym” Wszechświecie. Cóż zatem

jesteśmy w stanie wywnioskować o naturze programu, który, jak chcieliby nas przekonać

Fredkin, Tipler i im podobni, jest podłożem naszej rzeczywistości?

background image

Niepoznawalne

Zajmijmy się przez chwilę konkretnym przypadkiem programu używanego w maszynie

cyfrowej, służącego na przykład do mnożenia ciągu liczb. Założeniem całej koncepcji jest, że

napisanie programu powinno być w jakimś sensie prostsze niż wykonanie operacji, do których

jest on przeznaczony. Gdyby tak nie było, nikt nie zawracałby sobie głowy komputerem, lecz po

prostu przeprowadził rachunki bezpośrednio. Można to wyrazić w ten sposób, że użyteczny

program komputerowy jest w stanie generować więcej informacji (w tym przypadku,

przeprowadzić bardzo wiele mnożeń), niż sam zawiera. Jest to nic innego, jak nieco udziwniony

sposób powiedzenia, że w matematyce poszukujemy prostych reguł, które mogą być stosowane

wielokrotnie, nawet przy bardzo skomplikowanych obliczeniach. Jednakże nie wszystkie

operacje w matematyce da się wykonać za pośrednictwem programu znacznie mniej złożonego

niż sama ta operacja. W istocie, z faktu istnienia liczb nieobliczalnych wynika, że dla pewnych

operacji nie istnieje żaden program. Zatem niektóre procesy matematyczne cechuje taka

złożoność wewnętrzna, że nie mogą być one ujęte w ramy zwięzłego programu.

W przyrodzie również mamy do czynienia z procesami o ogromnej złożoności, a zatem

rodzi się pytanie, czy można je zawrzeć w ramach zwięzłego opisu. Ujmując rzecz inaczej, czy

„program Wszechświata” jest znacząco prostszy niż sam Wszechświat? Stanowi to bardzo

głębokie pytanie dotyczące natury rzeczywistości fizycznej. Jeśli program komputerowy lub

algorytm jest prostszy niż układ, którego dotyczy, mówimy, że układ ten jest „algorytmicznie

upraszczalny”. Zatem mamy znaleźć odpowiedź na pytanie, czy Wszechświat jest algorytmicznie

upraszczalny.

Zanim zajmiemy się tym pytaniem, nie od rzeczy będzie rozważenie pojęcia

algorytmicznej upraszczalności nieco bardziej szczegółowo. Dziedzina, zwana algorytmiczną

teorią informacji, została stworzona w latach sześćdziesiątych w Związku Radzieckim przez

Andrieja Kołmogorowa oraz w Stanach Zjednoczonych przez Gregory Chaitina z IBM. U jej

podstaw leżało bardzo proste pytanie: jaki najkrótszy komunikat pozwala wyrazić układ o

pewnym stopniu złożoności? Jest oczywiste, że prosty układ da się wyrazić krótko, lecz złożony

układ już nie (spróbujcie opisać strukturę rafy koralowej za pomocą tej samej liczby słów, co w

przypadku opisu kostki lodu). Chaitin i Kołmogorow zaproponowali definicję złożoności układu

jako długości najkrótszego możliwego jego opisu.

background image

Przyjrzyjmy się, jak to działa w przypadku liczb. Istnieją liczby proste, takie jak 2 lub n, i

liczby złożone, jak ciąg jedynek i zer otrzymany poprzez rzuty monetą (orzeł = 0, reszka = 1).

Czy możemy podać typ opisu pozwalający na jednoznaczne wyrażanie tych liczb? Jedną z

możliwości jest wypisywanie ich w postaci dziesiętnej lub dwójkowej (n można tak wyrazić

tylko jako konkretne przybliżenie, gdyż jej rozwinięcie dziesiętne ma długość nieskończoną).

Jednakże jest oczywiste, że nie jest to najkrótszy sposób ich opisu. Na przykład liczbę rt możemy

wyrazić krócej, podając wzór pozwalający na obliczenie jej z zadaną dokładnością. Jeżeli

przyjmiemy, że rozważane liczby otrzymujemy na wyjściu komputera, to najkrótszym opisem

danej liczby będzie najkrótszy program pozwalający komputerowi obliczyć tę liczbę. W ten

sposób za proste liczby będziemy uważać te, które są generowane przez krótkie programy, a za

złożone te, które wymagają długiego programu.

Następnym etapem jest porównanie długości danej liczby z długością programu, który ją

oblicza. Czy jest on krótszy? Czy faktycznie udało nam się w ten sposób osiągnąć uproszczenie?

Aby wyrazić to w sposób bardziej ścisły, przypuśćmy, że na wyjściu komputera otrzymujemy

ciąg jedynek i zer, taki jak ten:

101101011100010100110101001... (gdzie kropki „...” oznaczają „i tak dalej, nawet w

nieskończoność”). Ciąg ten będzie zawierał pewną ilość informacji, mierzoną w „bitach”.

Następnie chcemy porównać tę zawartość informacyjną z ilością informacji, jaką zawiera sam

program. By podać tu prosty przykład, załóżmy, że na wyjściu komputera otrzymaliśmy:

101010101010101010101010101010

Ten ciąg moży być wygenerowany za pomocą prostego algorytmu „Wydrukuj piętnaście

razy 10”. O wiele dłuższy ciąg otrzymamy za pomocą programu „Wydrukuj milion razy 10”. Ten

drugi program nie jest wcale bardziej skomplikowany niż pierwszy, a wynikiem jego działania

jest o wiele dłuższy ciąg informacyjny. Wynika stąd, że gdy ciąg wynikowy zawiera

jakiekolwiek struktury, to mogą być one wyrażone za pomocą prostego algorytmu, który może

być o wiele krótszy (przyjmując za jednostki bity informacji) niż pierwotnie otrzymany ciąg.

Mówimy wtedy, że ciąg jest algorytmicznie upraszczamy. Natomiast jeżeli, na odwrót, dla

danego ciągu nie da się podać algorytmu istotnie krótszego niż on sam, jest on algorytmicznie

nieupraszczalny. W tym przypadku ciąg nie będzie zawierał żadnych regularności ani struktur;

będzie to po prostu chaotyczny ciąg jedynek i zer. W ten sposób stopień możliwego do

osiągnięcia uproszczenia algorytmicznego może być uznany za praktyczną miarę złożoności

background image

ciągu wynikowego, przy czym niska upraszczalność oznaczałaby większą złożoność. Ciągi

regularne da się znacznie uprościć, podczas gdy nie można tego uczynić dla ciągów, w których

nie występują żadne struktury.

Pojęcie algorytmicznej upraszczalności pozwala na ścisłe zdefiniowanie przypadkowości:

ciągiem przypadkowym będzie ciąg, który nie może być algorytmicznie uproszczony. Może nie

być łatwo stwierdzić na drodze czysto wizualnej, czy dany ciąg jest upraszczalny, gdyż

występujące w nim struktury mogą być bardzo wyrafinowane i głęboko ukryte. Każdy, kto

kiedykolwiek zajmował się łamaniem szyfrów, wie, że to, co na pierwszy rzut oka wydaje się

bezładnym zbiorowiskiem liter, może w rzeczywistości zawierać strukturę komunikatu; trzeba

jedynie znać klucz do szyfru. Nieskończone rozwinięcie dziesiętne (i jego dwójkowy

odpowiednik) liczby n nie wykazuje żadnych regularności, nawet w skali tysięcy cyfr, i cyfry te

według wszystkich standardowych testów statystycznych ułożone są czysto losowo. Na

podstawie znajomości pierwszego tysiąca cyfr tego rozwinięcia nie mamy żadnej możliwości

przewidzieć tysiąc pierwszej cyfry. A mimo to

TI

jest algorytmicznie upraszczalna, bowiem

dysponujemy prostym algorytmem pozwalającym na wyliczanie kolejnych miejsc po przecinku

tej liczby.

Chaitin wykazuje, że takie pojęcie matematycznej złożoności może być sensownie

zastosowane także do układów fizycznych: złożonością układu fizycznego jest minimalna

długość algorytmu pozwalającego go opisać lub symulować jego działanie. Na pierwszy rzut oka

definicja ta wydaje się dość arbitralna, ponieważ nie zostało określone, jakiego będziemy używać

komputera. Okazuje się jednak, że nie ma to większego znaczenia w sytuacji, gdy wszytkie

komputery uniwersalne są w stanie się nawzajem symulować. Podobnie nieistotne jest, jakim

językiem programowania - LISP, BASIC, FORTRAN - się posłużymy, gdyż napisanie ciągu

instrukcji tłumaczącego jeden język na drugi jest sprawą prostą. Zazwyczaj wydłużenie

programu, spowodowane dołączeniem do niego instrukcji konwertujących go na inny język i

pozwalających go uruchomić na innym komputerze, w porównaniu z jego pierwotną długością

jest niewielkie, a więc nie jest ważne, jakiego komputera faktycznie używamy. Jest to wniosek

bardzo istotny. Fakt, że definicja złożoności nie zależy od konkretnego komputera, świadczy o

tym, iż udało się w niej uchwycić jakąś realną cechę, niezależną od tego, w jaki sposób się ją

opisuje.

Więcej trudności przysparza pytanie, czy konkretny wybrany algorytm jest rzeczywiście

background image

najkrótszym z możliwych. Jeśli uda się znaleźć jeszcze krótszy, odpowiedź jest oczywiście

negatywna. Natomiast w ogólnym przypadku okazuje się niemożliwe udzielenie definitywnej

odpowiedzi pozytywnej. Powody tego stanu rzeczy sięgają twierdzenia Godła o

nierozstrzygalności. Jak pamiętamy, punktem wyjściowym tego twierdzenia była matematyczna

wersja „antynomii kłamcy”, czyli paradoksalnych wypowiedzi samoreferencjalnych („To zdanie

jest fałszywe”). Chaitin zastosował tę ideę do programów komputerowych. Rozważmy

przypadek, w którym komputer otrzymuje polecenie wykonania następującej operagi: „Szukaj

ciągu cyfr, który może być wygenerowany tylko przez program dłuższy niż ten”. Jeśli operacja ta

się powiedzie, szukany ciąg cyfr zostanie wygenerowany właśnie przez dany program, a więc na

pewno nie może „być tylko generowany przez program dłuższy niż ten”. Jedyną możliwą

konkluzją jest, że poszukiwania zakończą się niepowodzeniem, nawet jeśli będą trwały

nieskończenie długo. Co z tego wynika dla naszych rozważań? Program poszukujący miał

znaleźć ciąg cyfr, który mógł być wygenerowany tylko przez program co najmniej równie długi,

jak on sam, co oznacza, że wszystkie krótsze programy były z góry wykluczone. Jednak w

sytuacji, gdy poszukiwania zakończyły się niepowodzeniem, nie możemy wykluczyć krótszego

programu. Po prostu w ogólnym przypadku nie jesteśmy w stanie stwierdzić, czy dany ciąg cyfr

może być wynikiem działania programu krótszego niż ten, którym akurat dysponujemy.

Twierdzenie Chaitina ma interesujące konsekwencje w dziedzinie liczb losowych, tzn.

przypadkowych ciągów cyfr. Jak już wyjaśniałem, za ciąg losowy uważamy ciąg, który nie może

być algorytmicznie uproszczony. Jednak właśnie się przekonaliśmy, że nie da się stwierdzić, czy

istnieje krótszy program generujący dany ciąg. Nigdy nie można uzyskać pewności, że nie

istnieją jeszcze jakieś inne sprytne możliwości skrócenia opisu, a więc nie jest w ogólnym

przypadku możliwe udowodnienie, że dany ciąg jest losowy, jakkolwiek można wykazać, że tak

nie jest, poprzez faktyczne znalezienie sposobu uproszczenia. Wynik ten jest tym bardziej

zadziwiający, iż można dowieść, że prawie wszystkie możliwe ciągi cyfr mają charakter losowy.

A my nie jesteśmy w stanie o żadnym konkretnym ciągu tego definitywnie orzec!

Fascynującym może być przypuszczenie, że wobec tej definicji niektóre z występujących

w przyrodzie pozornie przypadkowych zjawisk mogą nie mieć charakteru losowego. Kto wie na

przykład, czy nie dotyczy to indeterminizmu, z jakim mamy do czynienia w mechanice

kwantowej. W końcu z twierdzenia Chaitina wynika, że nigdy nie jesteśmy w stanie wykazać, iż

ciąg wartości otrzymanych w wyniku kolejnych pomiarów kwantowomechanicznych jest

background image

naprawdę losowy. Niewątpliwie wygląda on na losowy, ale to samo dotyczy rozwinięcia liczby

TC

. Dopóki nie mamy „klucza do kodu”, czyli algorytmu wyrażającego ukryty porządek,

uprawnione jest założenie, że mamy do czynienia z czymś naprawdę przypadkowym. Czyż nie

może być tak, że istnieje jakiś wyrafinowany „kosmiczny kod”, algorytm generujący wartości

wielkości kwantowych w przyrodzie, a obserwowany indeterminizm kwantowy jest tylko

złudzeniem? Może kod ten kryje w sobie „przesłanie”, które mogłoby nam wyjawić najgłębsze

tajemnice Wszechświata? Pomysł ten został już podchwycony przez niektórych teologów, którzy

zauważyli, że indeterminizm kwantowy pozwala Bogu działać w świecie, „rzucając kwantową

kostką” na poziomie atomów, bez naruszania klasycznych (tzn. niekwantowych) praw fizyki. W

ten sposób istniałby podatny grunt do urzeczywistniania boskich celów w świecie bez sprawiania

zbyt dużego kłopotu fizykom. W rozdziale 9 zajmę się pewną konkretną hipotezą tego typu.

Uzbrojony w swoją algorytmiczną definicję Chaitin był w stanie wykazać, że

przypadkowością przeniknięta jest cała matematyka, w tym także arytmetyka. W tym celu

posłużył się wynalezionym przez siebie monstrualnych rozmiarów równaniem, zawierającym

siedemnaście tysięcy zmiennych (ten typ równania określany jest w matematyce jako równanie

diofantyńskie). W równaniu tym występuje parametr K, przybierający kolejne wartości całkowite

l, 2, 3, i tak dalej. Chaitin postawił pytanie, czy przy danej wartości parametru K to olbrzymie

równanie ma skończoną czy nieskończoną liczbę rozwiązań. Można sobie wyobrazić, że

pracowicie rozwiązujemy je dla kolejnych wartości K, zapisując za każdym razem odpowiedź:

„skończona”, „skończona”, „nieskończona”, „skończona”, „nieskończona”, „nieskończona”...

Czy w tym ciągu odpowiedzi będzie występowała jakaś regularność? Chaitin udowodnił, że nie.

Jeżeli przypiszemy przypadkowi skończonej liczby rozwiązań cyfrę O, a nieskończonej l, to

powstały w ten sposób ciąg 001011... nie da się algorytmicznie uprościć; będzie zatem ciągiem

losowym.

Wniosek ten ma daleko idące konsekwencje. Oznacza bowiem, że nie ma ogólnego

sposobu stwierdzenia dla wybranej wartości K bez bezpośrednich przeliczeń, czy to konkretne

równanie diofantyńskie posiada skończoną czy nieskończoną liczbę rozwiązań. Innymi słowy, w

przypadku tym nie istnieje systematyczna procedura pozwalająca z góry przewidzieć odpowiedzi

na doskonale pod względem matematycznym postawiony problem: odpowiedzi mają charakter

losowy. Niewielkim pocieszeniem może być fakt, że równanie diofantyńskie z siedemnastoma

tysiącami zmiennych to w gruncie rzeczy dość osobliwy twór matematyczny. Skoro raz

background image

przypadkowość dostała się do matematyki, została ona nią do głębi skażona. Rozpowszechniona

wizja matematyki jako zbioru precyzyjnych twierdzeń, spojonego doskonale określonymi

związkami logicznymi, okazuje się nie odpowiadać prawdzie. W matematyce mamy do czynienia

z przypadkowością, a tym samym niepewnością, w równym stopniu, co w fizyce. Według

Chaitina, Bóg gra w kości nie tylko w mechanice kwantowej, ale nawet w przypadku arytmetyki

liczb całkowitych. Uważa on zatem, że matematykę należy traktować na równi z naukami

przyrodniczymi, w których poznanie rzeczywistości odbywa się na drodze połączenia

rozumowania logicznego i odkryć eksperymentalnych. Oczyma wyobraźni można już widzieć

uniwersyteckie katedry matematyki eksperymentalnej.

Dość zabawne zastosowanie koncepcji algorytmicznej informacji związane jest z pewną

liczbą nieobliczalną, zwaną omega, którą Chaitin definiuje jako prawdopodobieństwo, że

program komputerowy zatrzyma się po wprowadzeniu na wejście czysto losowego ciągu

binarnego. Prawdopodobieństwo czegokolwiek jest wyrażane liczbą rzeczywistą z przedziału

między 0 a 1; przy czym 0 odpowiada zdarzeniu niemożliwemu, a l zdarzeniu koniecznemu. Jest

oczywiste, że liczba omega będzie bliska jedności, ponieważ przytłaczającą większość

możliwych ciągów na wejściu komputer potraktuje jako losowe i natychmiast zatrzyma się,

generując odpowiedni komunikat o błędzie. Można wszakże udowodnić, że omega jest

algorytmicznie nieupraszczalna i jej rozwinięcia, zarówno w postaci dwójkowej, jak i dziesiętnej,

mają już po pierwszych kilku cyfrach charakter czysto losowy. Ponieważ omega jest

zdefiniowana poprzez odniesienia do problemu zatrzymania się, ciągi cyfr w jej rozwinięciu

kodują poszczególne rozwiązania tego pro blemu. Tak zatem pierwszych n cyfr dwójkowego

rozwinięcia tej liczby zawiera odpowiedź na pytanie, które z n-bitowych programów zatrzymają

się, a które będą wykonywane w nieskończoność.

Charles Bennett zauważył, że wiele słynnych nierozwiązanych problemów

matematycznych, takich jak Wielkie Twierdzenie Fermata, może być sformułowane jako

problem zatrzymania się, gdyż zawierają stwierdzenia, iż coś nie istnieje (w tym przypadku zbiór

liczb spełniających równanie Fermata). Wystarczy zaprogramować komputer, aby poszukiwał

kontrprzykładu. Gdy uda mu się go znaleźć, zatrzyma się; w przeciwnym przypadku będzie

międlił swe poszukiwania w nieskończoność. Ponadto, większość interesujących problemów da

się wyrazić w postaci programów zawierających nie więcej niż kilka tysięcy bitów, a zatem

znając już pierwszych kilka tysięcy cyfr rozwinięcia binarnego liczby omega, dysponowalibyśmy

background image

rozwiązaniem wszystkich słynnych problemów matematycznych tego typu, jak również

wszelkich innych problemów o porównywalnej złożoności, które mogą być sformułowane w

przyszłości! ,,W ten sposób ogromna ilość informacji zostaje zgromadzona w bardzo niewielkiej

przestrzeni pisze Bennett — albowiem kilka tysięcy cyfr, które bez trudu można wypisać na

kartce papieru, zawiera odpowiedzi na więcej problemów matematycznych, niż dałoby się

zapisać w całym Wszechświecie”

8

.

Niestety, omegi jako liczby nieobliczalnej z założenia nigdy nie da się efektywnie

wyznaczyć, niezależnie od tego, jak długo byśmy to próbowali zrobić. Zatem, poza mistycznym

objawieniem, nie ma sposobu, byśmy mogli ją kiedykolwiek poznać. A gdyby nawet została nam

ona przekazana w sposób nadprzyrodzony, i tak byśmy jej nie rozpoznali, gdyż jako liczba

losowa nie wyróżniałaby się niczym szczególnym. Mielibyśmy przed sobą tylko pozbawiony

wszelkich regularności ciąg jedynek i zer. Można by ją co najwyżej zapisać w jakimś

podręczniku.

Informacja zawarta w liczbie omega jest czymś rzeczywistym, a jednak na zawsze

ukrytym przed nami poprzez prawa logiki i paradoksy samoreferencji. Niepoznawalna Omega

stanowi być może współczesny odpowiednik „magicznych liczb” u starożytnych Greków. Bennet

okazuje się prawdziwie poetycki w opisywaniu jej mistycznego znaczenia:

Na przestrzeni dziejów filozofowie i mistycy poszukiwali klucza do uniwersalnej

mądrości skończonej formuły lub tekstu, który poznany i właściwie zrozumiany, pozwoliłby

uzyskać odpowiedź na każde pytanie. Do roli tej pretendowały Biblia, Koran, mityczne tajemne

księgi Hermesa Trismegistosa i średniowieczna żydowska Kabała. Źródła uniwersalnej mądrości

są zazwyczaj chronione przed ich nieuprawnionym użyciem przez to, że trudno do nich dotrzeć,

ciężko je zrozumieć, gdy się je znajdzie, a ponadto są niebezpieczne w użyciu, gdyż często

udzielają odpowiedzi na inne, głębsze pytania, niż człowiek im zadaje. Na podobieństwo Boga,

księgi ezoteryczne są proste, lecz niemożliwe do opisania, wszechwiedzące i przemieniające

wewnętrznie każdego, kto je pozna. (...) Omega jest pod wieloma względami liczbą

kabalistyczną. Ludzkim rozumem możemy poznać, że ona istnieje, lecz nie ją samą. Poznając ją

bliżej, musielibyśmy przyjąć wyrażający ją nieobliczalny ciąg cyfr na zasadzie wiary, jak słowa

świętych ksiąg

9

.

background image

Kosmiczny program

Algorytmiczna teoria informacji dostarcza nam ścisłej definicji złożoności w oparciu o

pojęcie obliczalności. Gdy kontynuujemy nasz wątek Wszechświata jako komputera czy też,

ściślej mówiąc,procesu obliczeniowego, rodzi się pytanie, czy Wszechświat w swej ogromnej

złożoności jest algorytmicznie upraszczalny. Czy istnieje zwięzły program zdolny do

„wygenerowania” Wszechświata ze wszystkimi jego misternymi szczegółami?

Mimo swej złożoności Wszechświat wyraźnie nie jest strukturą przypadkową, lecz

obserwujemy w nim regularności. Słońce wschodzi codziennie bez wyjątku, światło porusza się

zawsze z tą samą prędkością, zbiór mionów rozpada się zawsze z czasem połowicznego rozpadu

dwóch milionowych sekundy, i tak dalej. Regularności te systematyzujemy w postaci, którą

nazywamy prawami przyrody. Jak już podkreślałem, prawa fizyki mają charakter analogiczny do

programów komputerowych. Dla danego stanu początkowego układu (wejście) możemy za

pomocą praw obliczyć jego stan późniejszy (wyjście).

Prawa wraz z warunkami początkowymi zawierają w ogólnym przypadku znacznie mniej

informacji niż potencjalne stany wyjściowe. Oczywiście, nawet jeżeli prawo fizyki zapisane na

kartce wygląda prosto, zwykle wyrażane jest ono za pomocą abstrakcyjnej matematyki, która

sama w sobie zawiera dość skomplikowaną strukturę. Niemniej jednak, informacje potrzebne do

zrozumienia sensu symboli matematycznych można zawrzeć w kilku podręcznikach, podczas gdy

liczba faktów opisywanych przy ich pomocy jest nieograniczona. Klasycznym przykładem jest tu

przewidywanie zaćmień. Znajomość pozycji i ruchu Ziemi, Słońca i Księżyca w określonym

czasie pozwala na obliczenie dat przyszłych (i przeszłych) zaćmień Słońca i Księżyca. W ten

sposób jeden zbiór danych wejściowych generuje wiele zbiorów danych wyjściowych.

Posługując się żargonem informatycznym możemy powiedzieć, że zbiór wszystkich danych

dotyczących zaćmień został algorytmicznie uproszczony do postaci praw wraz z odpowiednimi

warunkami początkowymi. Zatem regularności obserwowane we Wszechświecie są przykładem

jego algorytmicznej upraszczalności. Pod złożonością przyrody kryje się prostota fizyki.

Co interesujące, Ray Solomonoff, jeden z twórców algorytmicznej teorii informacji,

zajmował się właśnie zagadnieniami tego rodzaju. Chciał on znaleźć sposób określenia

względnej prawdopodobności konkurujących hipotez naukowych. Jeśli dany zbiór faktów

dotyczących świata może być uzasadniony poprzez więcej niż jedną teorię, w jaki sposób

background image

możemy rozstrzygnąć, która z nich jest bardziej prawdopodobna? Czy możemy przypisać

konkurencyjnym teoriom jakieś „wartości”, które można by ze sobą porównywać?

Najprościej jest posłużyć się brzytwą Ockhama i wybrać teorię o najmniejszej liczbie

niezależnych założeń. Z kolei, jeżeli traktujemy teorię jako program komputerowy, a fakty

przyrodnicze jako wynik działania tego programu, to brzytwa Ockhama każe nam wybrać

najprostszy program zdolny wygenerować dany wynik. Znaczy to, że powinniśmy wybierać

teorię, czy też program, pozwalające na możliwie największe algorytmiczne uproszczenie

faktów.

Z tego punktu widzenia całą naukę można uważać za poszukiwanie sposobów

algorytmicznego uproszczenia danych obserwacyjnych. Ostatecznie jej celem jest wytworzenie

zwięzłego opisu świata w oparciu o pewne zasady unifikujące, które nazywamy prawami.

„Gdyby nie algorytmiczne upraszczanie danych - pisze Barrow - cała nauka stałaby się czymś w

rodzaju bezmyślnego kolekcjonowania znaczków - ślepym gromadzeniem wszystkich możliwych

faktów. Nauka zasadza się na przekonaniu, że Wszechświat jest algorytmicznie upraszczalny, a

współczesne poszukiwania Teorii Wszystkiego stanowią najwyższy wyraz tej wiary, wiary, że

Wszechświat w swej różnorodności opiera się na kilku prostych, skończonych zasadach, które

mogą być poznane przez człowieka”

10

.

Czy możemy więc wyciągnąć wniosek, że cała złożoność Wszechświata możliwa jest do

ujęcia w postaci bardzo krótkiego „kosmicznego programu”, podobnie jak świat

skomplikowanych struktur ŻYCIA sprowadza się do paru prostych reguł, powtarzanych

wielokrotnie? Jakkolwiek w przyrodzie mamy do czynienia z wieloma spektakularnymi

przypadkami uproszczenia algorytmicznego, nie każdy układ da się w ten sposób uprościć.

Istnieje klasa procesów, zwanych „chaotycznymi”, których znaczenie doceniono dopiero

niedawno. Procesy te nie wykazują żadnych regularności, przebiegając najwyraźniej w sposób

czysto losowy, toteż nie dają się algorytmicznie uprościć. Do tej pory sądzono, że chaos

występuje tylko wyjątkowo, lecz obecnie naukowcy w coraz większym stopniu uznają, iż bardzo

wiele układów, z jakimi mamy do czynienia w przyrodzie, ma charakter chaotyczny lub łatwo

taki przybiera w określonych warunkach. Najbardziej znanymi przykładami są tu przepływy

turbulentne, kapiące krany, migotanie przedsionków serca i ruch wahadła ze wspomaganiem.

Mimo iż chaos występuje tak powszechnie, nie ulega wątpliwości, że Wszechświat jako

całość nie jest bynajmniej przypadkowy. Znajdujemy w nim wiele regularności, które następnie

background image

kodyfikujemy w prawa, pozwalające realnie przewidywać przyszły rozwój zjawisk. Jednakże

Wszechświat iiie jest też całkiem prosty. Charakteryzuje się on subtelną złożonością, będącą

czymś pośrednim pomiędzy prostotą z jednej strony a zupełną chaotycznością z drugiej. Można

to wyrazić, mówiąc, że Wszechświat odznacza się „złożonością strukturalną”, co omówiłem

wyczerpująco w mojej książce The Cosmic Blueprint [Projekt kosmosu]. Wielokrotnie

próbowano uchwycić tę ulotną własność w sposób matematyczny. Jedną z takich prób podjął

Charles Bennet, wprowadzając pojęcie „głębokości logicznej”. Skupił on uwagę nie tyle na

stopniu złożoności układu czy też ilości informacji niezbędnej do jego wyspecyfikowania, a

bardziej na jej jakości czy też „wartości”. Bennet wyjaśnia to następująco:

„Typowy ciąg rzutów monetą zawiera dużą ilość informacji, lecz niczego nie

komunikuje; w efemerydach podających położenia Księżyca i planet na każdy dzień w ciągu stu

lat nie ma więcej informacji niż w równaniach ruchu i warunkach początkowych, które posłużyły

do ich obliczenia, lecz oszczędzają one użytkownikowi trudu ponownego wyliczania tych

pozycji. Wartość informacji dla odbiorcy wydaje się zatem polegać (...) na tym, co można by

określić jako włożoną w nią redundancje - rzeczy przewidywalne jedynie z trudnością, coś, do

czego odbiorca w zasadzie byłby w stanie dojść na własną rękę, lecz jedynie znacznym nakładem

czasu, pieniędzy i obliczeń. Innymi słowy, wartość informacji wyznaczona jest przez ilość pracy,

obliczeniowej lub innego rodzaju, wykonanej przez jej nadawcę, której odbiorca nie musi już

powtarzać”

11

.

Bennett zachęca nas, abyśmy myśleli o danym stanie świata jako zawierającym w sobie

ukrytą informację, przede wszystkim informację o tym, w jaki sposób stan ten został osiągnięty.

Możemy wtedy postawić pytanie, ile „pracy” musiał wykonać układ, tzn. ile musiał przetworzyć

informacji, aby dojść do tego stanu. To właśnie określa on mianem głębokości logicznej. Ilość

włożonej pracy można w sposób ścisły zdefiniować jako czas potrzebny na wyliczenie danego

komunikatu przez najkrótszy program będący w stanie go wygenerować. Podczas gdy pojęcie

algorytmicznej złożoności związane jest z długością najkrótszego programu pozwalającego

otrzymać dany wynik, pojęcie głębokości logicznej opiera się na ilości czasu, jakiej potrzebuje

ów minimalny program, aby wyprodukować tenże wynik.

Oczywiście nie można określić na podstawie samego wyglądu otrzymanego wyniku, w

jaki sposób został on wytworzony. Nawet bardzo szczegółowy, sensowny komunikat mógi

powstać na drodze czysto losowej. W dość wyświechtanym przykładzie mamy małpę, która

background image

dysponując odpowiednią ilością czasu jest w stanie wystukać na maszynie dzieła Szekspira.

Niemniej zgodnie z duchem algorytmicznej teorii informacji (i brzytwą Ockńama) należy

przypisać ten wynik działaniu minimalnego programu, ponieważ wymaga to najmniejszej liczby

założeń ad hoc.

Postawmy się w położenie radioastronoma, który odebrał tajemniczy sygnał.

Poszczególne jego impulsy ułożone w ciąg odpowiadają pierwszemu milionowi miejsc binarnego

rozwinięcia liczby

TC

, Co mamy o tym sądzić? Wniosek, ze sygnał ten powstał przypadkowo,

wymaga założeń ad hoc odpowiadających milionowi bitów, podczas gdy alternatywne

wyjaśnienie, ze sygnał został wyemitowany przez jakiś układ zdolny wyliczyć liczbę n, jest o

wieie bardziej przekonujące. Podobny przypadek miał rzeczywiście mielce w latach

sześćdziesiątych, gdy Jocelyn Bell, doktorantka z Cambridge wykonująca z Anthonym

Hewishem obserwacje radioastronomiczne, odebrała regularny sygnał niewiadomego

pochodzenia. Jednakże Bell i Hewish szybko odrzucili hipotezę o sztucznym charakterze

zarejestrowanego sygnału, W odróżnieniu od binarnego rozwinięcia liczby

K

, szereg

powtarzających się z dużą regularnością impulsów ma niewielką głębokość logiczną - można

powiedzieć, że jest logicznie płytki. Taką regularność można wyjaśnić na różne sposoby bez

posługiwania się zbyt wieloma założeniami ad hoc. jako że okresowość jest cecha dość

rozpowszechniona w przyrodzie. W tym przypadku jako źródło sygnału rozpoznano wkrótce

rotującą gwiazdę neutronową, czyli pulsar.

Struktury regularne są logicznie płytkie, ponieważ mogą być łatwo generowane przez

proste, krótkie programy. Struktury przypadkowe są również logicznie płytkie gdyż ich program

minimalny jest z definicji nie krótszy niż sama struktura, a zatem sam program jest trywialny i

sprowadza się do polecenia „Drukuj taką strukturę”. Natomiast struktury o dużym stopniu

organizacji wewnętrznej są logicznie głębokie, gdyż wygenerowanie ich wymaga wykonania

szeregu skomplikowanych działań.

Jedną z oczywistych dziedzin zastosowania pojęcia głębokości logicznej są układy

biologiczne, będące najbardziej spektakularnymi przykładami wewnętrznej organizacji.

Organizmy żywe odznaczają się dużą głębokością logiczną, ponieważ nie mogły one powstać

inaczej niż w wyniku bardzo długiego i złożonego łańcucha procesów ewolucyjnych. Innym

przykładem głębokiego logicznie układu mogą być złożone struktury generowane przez automaty

komórkowe, takie jak ŻYCIE. Struktury te powstają w oparciu o bardzo proste reguły, tak więc z

background image

algorytmicznego punktu widzenia ich złożoność jest niewielka. Istota złożoności struktur ŻYCIA

nie polega zatem na regułach, lecz na ich wielokrotnym zastosowaniu. Komputer musi włożyć

wiele pracy, powtarzając daną regułę wiele razy, zanim utworzy istotnie złożone struktury z

prostych struktur początkowych.

Świat obfituje w przykłady głębokich logicznie układów, w których widać ogrom „pracy”

włożonej w ich ukształtowanie. Murray Gellmann powiedział mi kiedyś, że układy głębokie

logicznie łatwo rozpoznajemy jako takie, gdyż są one tymi, które chcielibyśmy zachować.

Rzeczy płytkie pod względem logicznym dają się łatwo odtworzyć. Cenimy sobie obrazy, teorie

naukowe, dzieła muzyczne i literackie, rzadkie ptaki i diamenty, ponieważ niezwykle ciężko je

wytworzyć. Samochody, kryształy soli i metalowe puszki nie są dla nas tak drogocenne, gdyż są

znacznie płytsze logicznie.

Cóż zatem możemy ostatecznie powiedzieć o kosmicznym programie? Przez wieki uczeni

określali mało ściśle Wszechświat jako „uporządkowany”, nie czyniąc rozróżnienia pomiędzy

odmiennymi typami porządku: prostym i złożonym. Badania nad pojęciem obliczalności

pozwoliły nam rozpoznać, że świat jest uporządkowany zarówno w tym sensie, iż jest

algorytmicznie upraszczalny, jak i w tym, że jest głęboki logicznie. Ład kosmiczny nie polega

jedynie na prostej powtarzalności, lecz również na wewnętrznej złożoności, i to właśnie ta

złożoność sprawia, że Wszechświat ma charakter otwarty i dopuszcza istnienie obdarzonych

wolną wolą ludzi. Natomiast przez ostatnie trzy stulecia nauka zajmowała się właśnie

powtarzalnością: wyszukiwaniem regularności w przyrodzie. Dopiero ostatnio, wraz z

nadejściem ery szybkich maszyn cyfrowych, dostrzeżono ten bardziej fundamentalny aspekt

złożoności. Tak więc widzimy, że prawa fizyki odgrywają podwójną rolę. Nie tylko wyrażają

proste regularności leżące u podłoża wszystkich zjawisk fizycznych, lecz także odpowiadają za

wewnętrzną strukturę - głębię logiczną - świata. To, że prawa obowiązujące w naszym

Wszechświecie są w stanie wypełnić to ważne podwójne zadanie, stanowi fakt o iście

kosmicznym znaczeniu.

background image

Rozdział szósty

TAJEMNICA MATEMATYKI

Astronom James Jeans powiedział kiedyś, że Bóg jest matematykiem. W tym zwięzłym

sformułowaniu wyraża się w metaforyczny sposób pogląd, który stał się obecnie dla omalże

wszystkich naukowców wyznaniem wiary. Przekonanie, że podstawowy porządek świata da się

ująć w postaci matematycznej, jest osią współczesnej nauki i mało kto podaje go w wątpliwość.

Pogląd ten przyjął się tak głęboko, że żadnej dyscypliny wiedzy nie uważa się za należycie

ugruntowaną, zanim riie uda się jej opisać w obiektywnym języku matematyki.

Jak widzieliśmy, przekonanie, że w świecie fizycznym przejawia się ład i harmonia

matematyczna, zrodziło się już w starożytnej Grecji. Jego rozkwit nastąpił w Europie okresu

Odrodzenia wraz z pracami Galileusza, Newtona, Kartezjusza i innych ówczesnych uczonych.

„Księga przyrody napisana jest językiem matematyki” - głosił Galileusz. Dlaczego tak jest, jest

jedną z wielkich zagadek Wszechświata. Fizyk Eugene Wigner pisał o „niepojętej skuteczności

matematyki w naukach przyrodniczych”, cytując C.S. Pierce'a, że „być może kryje się w tym

jakaś tajemnica, która czeka wciąż na swego odkrywcę”. W niedawno opublikowanej książce

2

poświęconej temu zagadnieniu, zawierającej eseje dziewiętnastu uczonych (w tym i autora tej

książki), nie udało się nie tylko zgłębić tej tajemnicy, lecz nawet osiągnąć jakiegokolwiek

konsensusu. Wyrażone w niej opinie są zupełnie rozbieżne: jedni utrzymują, że ludzie po prostu

wynaleźli matematykę w celu porządkowania doświadczanych faktów, inni są przekonani, iż pod

matematycznym obliczem przyrody kryje się głęboka, istotna treść.

background image

Czy matematyka istnieje obiektywnie?

Zanim zajmiemy się zagadnieniem jej „niepojętej skuteczności”, ważne jest, by ustalić,

czym właściwie jest matematyka. Istnieją dwie, zasadniczo sprzeczne, szkoły myślenia w tej

kwestii. Pierwsza z nich utrzymuje, że matematyka jest tworem czysto ludzkim, druga, że istnieje

ona niezależnie od człowieka. Spotkaliśmy się już z jedną z wersji takiej „twórczej”, czyli

formalistycznej, interpretacji w rozdziale 4 przy okazji dyskusji programu Hilberta

mechanicznego dowodzenia twierdzeń matematycznych. Przed pracami Godła możliwy był

pogląd, że matematyka jest działalnością czysto formalną, będącą w istocie niczym więcej jak

olbrzymią kolekcją logicznych reguł pozwalających przekształcać jedne ciągi symboli w inne.

Uważano, że stanowi ona zamkniętą, samowystarczalną całość. Wszelkie związki ze światem

zewnętrznym uznawano za przypadkowe, nie mające żadnego znaczenia dla uprawiania samej

matematyki, które miało polegać na wynajdywaniu formalnych reguł i wszechstronnym badaniu

ich konsekwencji. Jak już wspominałem w jednym z poprzednich rozdziałów, twierdzenie Godła

o niezupełności matematyki położyło kres takiemu ściśle formalistycznemu stanowisku. Mimo to

część matematyków nadal uważa, że matematyka jest wyłącznie tworem ludzkiego umysłu i nie

ma innego znaczenia niż to, które przypisują jej matematycy.

Przeciwny kierunek myślenia znany jest pod nazwą platonizmu. Przypomnijmy sobie, że

Platon wyznawał dualistyczną wizję rzeczywistości, na jednym krańcu umieszczając świat

fizyczny, stworzony przez Demiurga, zmienny i przemijający, natomiast na drugim świat

wiecznych i niezmiennych Idei, będących czymś w rodzaju abstrakcyjnych wzorców dla

elementów świata fizycznego. Obiekty matematyczne zaliczał on do świata idealnego. Zdaniem

platoników prawdy matematyczne nie są przez nas tworzone, lecz odkrywane. Obiekty i

twierdzenia matematyki istnieją obiektywnie, transcendując fizyczną rzeczywistość będącą

przedmiotem naszej percepcji.

Aby uzmysłowić sobie w pełni sens tej dychotomii, przyjrzyjmy się jej na konkretnym

przykładzie. Rozważmy twierdzenie: „Dwadzieścia trzy jest najmniejszą liczbą pierwszą większą

od dwudziestu. Z logicznego punktu widzenia zdanie to może być albo prawdziwe, albo

fałszywe. W istocie jest ono prawdziwe. Pytaniem, jakie sobie stawiamy, jest, czy jest ono

prawdziwe w bezczasowym, absolutnym sensie. Czy było prawdziwe, zanim w ogóle

wynaleziono (czy też odkryto) liczby pierwsze? Platonicy odpowiadają na to twierdząco, gdyż

background image

uważają, że liczby pierwsze istnieją abstrakcyjnie, niezależnie od tego, czy ludzie o nich wiedzą

czy nie. Formaliści natomiast odrzuciliby takie pytanie jako absurdalne.

Co sądzą na ten temat zawodowi matematycy? Powiada się niekiedy, że matematycy są

platonikami w godzinach pracy, a formalistami w czasie wolnym. Zajmując się bezpośrednio

matematyką trudno oprzeć się wrażeniu, że odkrywa się coś realnie istniejącego, tak jak w

naukach przyrodniczych. Obiekty matematyczne żyją własnym życiem, często wykazując

zupełnie nieoczekiwane własności. Z drugiej strony, koncepcja transcendentnej dziedziny, w

której miałyby bytować obiekty matematyczne, wielu matematykom wydaje się nazbyt

mistyczna, aby się do niej przyznawać, i jeśli się ich o to zapyta, zwykli twierdzić, że uprawianie

matematyki polega wyłącznie na żonglerce symbolami i formułami.

Niemniej jednak istnieli prominentni matematycy przyznający się otwarcie do

platonizmu. Należał do nich Kurt Godeł. Jak można było tego oczekiwać, Godeł oparł swą

filozofię matematyki na wynikach swych badań nad rozstrzygalnością twierdzeń, rozumując, że

zawsze będą istnieć twierdzenia matematyczne, które są prawdziwe, lecz nie mogą być

udowodnione na podstawie istniejących aksjomatów. Wyobrażał sobie zatem, iż owe prawdziwe

twierdzenia bytują „gdzieś tam” poza naszą Jaskinią”, w dziedzinie platońskich idei. Innym

znanym platonikiem jest matematyk z Oxfordu, Roger Penrose. „Prawda matematyczna

przekracza ramy czystego formalizmu” - pisze on. „Często odnosimy wrażenie, że pod pojęciami

matematycznymi kryje się jakaś głębsza rzeczywistość, wykraczająca daleko poza deliberacje

jakiegokolwiek konkretnego matematyka. Wygląda to, jak gdyby myśl człowieka kierowana była

ku jakiejś zewnętrznej wobec niej, odwiecznie istniejącej prawdzie - prawdzie, która stanowi

niezależną od nas rzeczywistość i ukazuje się nam jedynie w niewielkiej części”. Przytaczając

jako przykład liczby zespolone, Penrose uważa, że mają one „głęboką, pozaczasową realność”.

Innym przykładem, który skłonił Penrose'a do przyjęcia platonizmu, jest coś, co nazwano

„zbiorem Mandelbrota”, na cześć Benoita Mandelbrota, naukowca z firmy komputerowej IBM.

Zbiór ten, którego postać geometryczna zwie się „fraktalem”, związany jest blisko z teorią

chaosu i dostarcza kolejnego wspaniałego przykładu, że w wyniku prostej procedury

rekurencyjnej otrzymujemy obiekt o niewiarygodnym bogactwie formy i złożoności.

Generowany jest on poprzez wielokrotne stosowanie reguły (czy też odwzorowania) z -» z

2

+ c,

gdzie z jest zmienną zespoloną, a c jest pewną stałą o wartości zespolonej. Regułę tę należy

rozumieć następująco: weź pewną liczbę zespoloną z i zastąp ją przez z

2

+ c, następnie podstaw

background image

ją za z i wykonaj tę samą operację, i tak dalej, i tak dalej. Otrzymywane kolejno liczby zespolone

można przedstawić na płaszczyźnie, na przykład na kartce papieru lub ekranie komputerowym,

przy czym każda liczba stanowi jeden punkt. Można stwierdzić, że dla jednych wartości c punkt

ten szybko wędruje poza ekran, podczas gdy dla innych wartości porusza się przez cały czas

wewnątrz pewnego ograniczonego obszaru. Z kolei dane c jako liczba zespolona również

odpowiada pewnemu punktowi na płaszczyźnie i właśnie zbiór wszystkich takich punktów c

stanowi zbiór Mandelbrota. Zbiór ten ma tak niezwykle skomplikowaną strukturę, że nie sposób

wprost opisać w słowach jego zadziwiającego piękna. Niejednokrotnie fragmenty tego zbioru

były wystawiane jako dzieła sztuki na wystawach. Charakterystyczną cechą zbioru Mandelbrota

jest to, że każda jego część może być powiększana bez końca i każdy kolejny poziom

rozdzielczości ujawnia nowe bogactwo jego struktury.

Penrose zauważa, że Mandelbrot przystępując do badania własności tego zbioru zupełnie

nie wyobrażał sobie z góry zawartej w nim wyrafinowanej struktury:

Struktura zbioru Mandelbrota nie może być przez nikogo z nas poznana w pełni swej

złożoności; nie może też jej zrealizować żaden komputer. Wydaje się, jak gdyby nie była ona

częścią naszego umysłu, lecz istniała niezależnie od nas. (...) Komputer wykorzystywany jest w

tym przypadku zasadniczo w ten sam sposób, jak fizyk-eksperymentator wykorzystuje swą

aparaturę doświadczalną do zgłębiania budowy świata fizycznego. Zbiór Mandelbrota nie został

wymyślony, lecz odkryty. Tak jak Mount Everest, zbiór Mandelbrota po prostu jest!

Martin Gardner, matematyk i znany popularyzator nauki, zgadza się z tą opinią: „Penrose

nie rozumie (ja również), jak ktoś mógłby przypuścić, że ta egzotyczna struktura jest mniej realna

od Mount Everestu; może być ona penetrowana przez badaczy na podobieństwo dżungli”.

„Czy matematykę tworzymy, czy odkrywamy?” - pyta Penrose. Czyżby matematycy byli

na tyle zafascynowani swoimi wynalazkami, iż mniemają, że istnieją one naprawdę? „Czy też

odkrywają oni prawdy, które istniały już wcześniej, prawdy, których istnienie w żadnym stopniu

nie zależy od tego, czy są one poznawane przez matematyków?” Opowiadając się wyraźnie za

tym drugim poglądem, Penrose wskazuje, że w przypadkach takich, jak zbiór Mandelbrota,

„struktura zawiera o wiele więcej, niż się do niej pierwotnie włożyło. Można powiedzieć, że w

tych przypadkach matematycy natykają się na »dzieło Boga«„. W samej rzeczy dostrzega on

analogię pomiędzy matematyką a natchnionymi dziełami sztuki: „Wśród artystów dość często

spotykane jest przekonanie, że w swych najwspanialszych dziełach odkrywają prawdy wieczne,

background image

które istniały już wcześniej jakimś eterycznym rodzajem istnienia. (...) Nie mogę oprzeć się

poczuciu, że w przypadku matematyki argumenty za tym, by wierzyć w jakiś typ eterycznego,

wiecznego bytowania (...) są o wiele silniejsze”.

Łatwo wyrobić sobie wrażenie, że gdzieś tam istnieje rozległa kraina struktur

matematycznych, a matematycy niczym podróżnicy badają to przedziwne, choć inspirujące

terytorium, orientując się niekiedy według drogowskazów własnych doświadczeń lub kamieni

milowych wcześniejszych odkryć. Posuwając się do przodu, napotykają coraz to nowe formuły i

twierdzenia, które były już tam wcześniej. Matematyk Rudi Rucker uważa, że obiekty

matematyki bytują w swego rodzaju przestrzeni duchowej, którą nazywa „Krainą Myśli”, tak jak

obiekty fizyczne bytują w przestrzeni fizycznej. „Ten, kto uprawia matematykę - pisze on - jest

odkrywcą badającym Krainę Myśli, tak jak Armstrong, Livingstone czy Cousteau badali nowe,

nieznane obszary świata fizycznego”. Zdarza się, że różni badacze wędrują po tym samym

terytorium i potem niezależnie ogłaszają, co tam znaleźli. „Podobnie jak istnieje jeden dla

wszystkich Wszechświat, tak i istnieje jedna dla wszystkich Kraina Myśli” - uważa Rucker. John

Barrow również przytacza przypadki dokonywania niezależnych odkryć w matematyce jako

dowód „pewnego rodzaju jej obiektywności”, która niezależna jest od psychiki poszczególnych

badaczy.

Penrose stawia tezę, że sposób, w jaki matematycy dokonują odkryć i komunikują sobie

wzajemnie wyniki swoich badań, świadczy o faktycznym istnieniu dziedziny platońskich idei,

czyli Krainy Myśli:

Wyobrażam sobie, że postrzegając pojęcia matematyczne umysł sięga platońskiego

świata idealnego. (...) „Widzenie” prawd matematycznych przez człowieka polega na tym, że

jego świadomość wdziera się do owego świata idei i wchodzi z tymi prawdami w bezpośredni

kontakt. (...) Intersubiektywność dyskursu matematyków jest możliwa tylko dlatego, że każdy z

osobna ma bezpośredni dostęp do prawdy - ich świadomość percypuje prawdy matematyczne

bezpośrednio, w tym procesie „widzenia”. Ponieważ każdy z nich ma bezpośredni dostęp do

świata platońskiego, łatwiej się im porozumieć ze sobą, niż można by tego oczekiwać. Obrazy,

jakie tworzą się w ich umysłach podczas tych wypadów w dziedzinę idei, są prawdopodobnie w

poszczególnych przypadkach zupełnie odmienne, lecz mimo to matematycy rozumieją się

nawzajem, ponieważ każdy z nich ma do czynienia z tym samym platońskim światem bytów

wiecznych!

background image

Niekiedy to „wdzieranie się” następuje w sposób nagły i gwałtowny; określa się je wtedy

mianem matematycznego olśnienia. Francuski matematyk Jacąues Hadamard, który badał to

zjawisko, przytacza przykład Carla Gaussa, który przez całe lata zmagał się z pewnym

problemem dotyczącym liczb całkowitych: „Jak gdyby w nagłym blasku błyskawicy, stanęło

przede mną rozwiązanie problemu. Nie jestem sam w stanie powiedzieć, co było nicią łączącą to,

co wiedziałem poprzednio, z tym, co pozwoliło mi znaleźć rozwiązanie”. Hadamard podaje

również znany przypadek Henri Poincarego, który podobnie przez długi czas bezowocnie

próbował rozwiązać problem dotyczący pewnych funkcji matematycznych. Pewnego dnia

wyruszając na wyprawę geologiczną wsiadał do autobusu. „Gdy tylko postawiłem nogę na

stopniu, zaświtała mi idea rozwiązania, przy czym nic w moich wcześniejszych myślach w żaden

sposób tego nie zapowiadało” - relacjonował później. Był tak pewny, że znalazł właściwe

rozwiązanie, iż nie myślał w tym momencie o tym więcej i prowadził dalej rozmowy ze

współtowarzyszami podróży. Po powrocie z wycieczki spokojnie, bez wysiłku, zapisał cały

dowód.

Penrose wspomina podobne zdarzenie, jakie przytrafiło mu się podczas pracy nad

czarnymi dziurami i osobliwościami czasoprzestrzeni. Rozmawiał właśnie z kimś na ruchliwej

londyńskiej ulicy i miał właśnie przejść przez jezdnię, gdy przyszła mu do głowy zasadnicza

idea, jakkolwiek na tak krótki moment, że kiedy podjął ponownie rozmowę po drugiej stronie

ulicy, zupełnie o niej zapomniał. W jakiś czas potem ogarnął go dziwny nastrój podniecenia i

starał sobie uzmysłowić, co wydarzyło się tego dnia. W końcu przypomniał sobie o owym

przebłysku natchnienia i od razu wiedział, że ma w ręku klucz do rozwiązania problemu, którym

zajmował się od dłuższego czasu. Dopiero później udało mu się przeprowadzić ścisły dowód, że

idea ta rzeczywiście była słuszna.

Wielu fizyków podziela tę platońską wizję matematyki. Na przykład, Heinrich Hertz,

uczony, który pierwszy w warunkach laboratoryjnych wytworzył i odebrał fale radiowe,

powiedział kiedyś: „Nie można uwolnić się od poczucia, że te formuły matematyczne istnieją

niezależnie od nas i są nawet mądrzejsze od tych, co je odkryli, gdyż otrzymujemy z nich więcej,

niż zostało w nie pierwotnie włożone”.

Zapytałem raz Richarda Feynmana, czyjego zdaniem matematyka, a tym samym i prawa

fizyki, istnieją obiektywnie, a on mi odpowiedział:

Problem istnienia jest zarazem bardzo interesujący i trudny. Jeśli nawet uprawia się

background image

matematykę, wyciągając jedynie wnioski z przyjętych założeń, można odkryć ciekawą rzecz przy

dodawaniu sześcianów liczb całkowitych. Jeden do sześcianu jest jeden; dwa do sześcianu jest

dwa razy dwa razy dwa, co daje osiem; trzy do sześcianu jest trzy razy trzy razy trzy, co daje

dwadzieścia siedem. Jeśli dodamy do siebie te trzy sześciany, jeden plus osiem plus dwadzieścia

siedem - na tym poprzestańmy - otrzymamy trzydzieści sześć, to jest kwadrat innej liczby, sześć,

która jest sumą trzech tych samych liczb całkowitych: jeden plus dwa plus trzy. (...) Tego, co ci

powiedziałem, mogłeś wcześniej nie wiedzieć. Mógłbyś zatem zapytać: „Skąd to jest, co to jest,

gdzie to się znajduje, w jaki sposób to istnieje?” A przecież do tego doszedłeś. Kiedy odkrywa

się coś takiego, ma się wrażenie, że było to prawdą, jeszcze zanim się o tym dowiedzieliśmy. Tak

więc rodzi się myśl, że to musiało jakoś gdzieś istnieć, ale nie ma miejsca, gdzie mogłoby to

istnieć. To tylko takie wrażenie. (...) A w przypadku fizyki kłopot jest podwójny. Odkrywamy te

matematyczne zależności, lecz one odnoszą się do świata, więc problem, gdzie one istnieją, jest

jeszcze bardziej pogmatwany. (...) Są to pytania filozoficzne, na które nie umiem odpowiedzieć.

background image

Kosmiczny komputer

W ostatnich latach na rozważania o naturze matematyki coraz większy wpływ wywierają

informatycy, którzy mają na tę dziedzinę swój własny pogląd. Nie powinno raczej nikogo dziwić,

że większość informatyków uważa komputer za zasadniczy element każdego systemu

myślowego, który miałby nadawać sens matematyce. W skrajnej postaci naczelną tezą tej

filozofii jest: „To, czego nie można obliczyć, nie ma żadnego sensu”. W szczególności, każdy

opis świata fizycznego musi być oparty jedynie o operacje matematyczne, które da się faktycznie

przeprowadzić, przynajmniej w zasadzie, za pomocą komputera. Wyklucza to oczywiście z

miejsca teorie, jakie opisywałem w rozdziale 5, w których wielkości fizyczne mogą przyjmować

wartości nieobliczalne. Nie są dopuszczalne także operacje matematyczne obejmujące

nieskończoną liczbę kroków. To z kolei wyklucza olbrzymie obszary matematyki, z których

część była już z powodzeniem stosowana do opisu układów fizycznych. Co jeszcze

poważniejsze, nawet wyniki matematyczne wymagające skończonej, lecz bardzo dużej liczby

kroków są podejrzane, gdy weźmie się pod uwagę, że moc obliczeniowa całego Wszechświata

jest ograniczona. Wyznawcą tego poglądu jest Rolf Landauer: „Nie tylko fizyka określa, co są w

stanie zrobić komputery, lecz to, co są w stanie zrobić komputery, wyznacza z kolei

fundamentalną naturę praw fizyki. W końcu prawa fizyki są algorytmami przetwarzania

informacji i nie miałyby sensu, gdyby nie dało się ich zrealizować w naszym Wszechświecie przy

użyciu jego praw i zasobów”.

Jeżeli sensowność matematyki zależy od dostępnych zasobów Wszechświata, ma to

bardzo daleko idące konsekwencje. Zgodnie ze standardowym modelem Wszechświata, od jego

momentu początkowego światło mogło przebyć jedynie skończony odcinek drogi, ponieważ wiek

Wszechświata jest skończony. Żaden fizyczny obiekt ani oddziaływanie, w szczególności żadna

informacja, nie mogą się przenosić z prędkością większą od prędkości światła. Wynika stąd, że

obszar Wszechświata, z którym jesteśmy przyczynowo powiązani, zawiera jedynie skończoną

liczbę cząstek. Zewnętrzna granica tego obszaru znana jest pod nazwą horyzontu czasowego. Jest

to najdalsza płaszczyzna w przestrzeni, do której światło wyemitowane w pobliżu nas krótko po

Wielkim Wybuchu było w stanie dotrzeć do chwili obecnej. Jeśli chodzi o obliczenia, w

oczywisty sposób jedynie te obszary Wszechświata, pomiędzy którymi możliwa jest wymiana

informacji, mogą być uznane za wchodzące w skład tego samego układu obliczeniowego; w tym

background image

przypadku będzie to obszar zawarty wewnątrz naszego horyzontu. Wyobraźmy sobie, że każdą

cząstkę w tym obszarze dało się zaprząc do obliczeń, tworząc gigantyczny kosmiczny komputer.

Jednak nawet ta, przerażająca wręcz swym ogromem, maszyna miałaby wciąż skończoną moc

obliczeniową, ponieważ zawiera skończoną liczbę cząstek (w tym przypadku około 10

80

). Nie

mogłaby, na przykład, nawet obliczyć liczby n z nieskończoną dokładnością. Landauer twierdzi,

że skoro Wszechświat jako całość nie może czegoś obliczyć, należy o tym zapomnieć. Tak więc

nawet „zwykłe n” nie byłoby dobrze określoną wielkością. Oznaczałoby to, że nie można by już

uważać, że stosunek obwodu koła do jego średnicy wyraża się dokładnie konkretną liczbą nawet

w wyidealizowanym przypadku doskonałych linii geometrycznych, lecz jest nieoznaczony.

Jeszcze trudniejszy do przyjęcia jest fakt, że w sytuacji, gdy horyzont rozszerza się z

czasem, w miarę jak światło porusza się w głąb kosmosu, zasoby zawarte w obszarze leżącym

wewnątrz horyzontu były w przeszłości mniejsze. Wynika stąd, że matematyka jest zależna od

czasu - wniosek stojący w całkowitej sprzeczności z platońskimi poglądami, że prawdy

matematyki są pozaczasowe, transcendentne i wieczne. Na przykład, w sekundę po Wielkim

Wybuchu w objętości zawartej wewnątrz horyzontu mieściłaby się jedynie niewielka część

obecnej liczby cząstek elementarnych. W tak zwanym czasie Plancka (10

4a

s) wewnątrz

horyzontu mogła znajdować się tylko jedna cząstka. Zatem moc obliczeniowa Wszechświata w

czasie Plancka była zasadniczo zerowa. Wyciągając z tez Landauera logiczne wnioski, oznacza

to, że w tej epoce cała matematyka pozbawiona była wszelkiego sensu. Gdyby tak miało być, to

próby zastosowania fizyki matematycznej do opisu wczesnego Wszechświata, w szczególności

cały program kwantowej kosmologii i problem początku Wszechświata opisany w rozdziale 2

również straciłyby sens.

background image

Dlaczego my?

Jedyną niezrozumiałą rzeczą we Wszechświecie jest to, że jest on zrozumiały.

Albert Einstein

Sukcesy współczesnej nauki często przysłaniają nam zdumiewający fakt, że nauka jest w

ogóle możliwa. Jakkolwiek większość ludzi przyjmuje to za rzecz oczywistą, jest to fakt zarówno

niezmiernie szczęśliwy, jak i niezmiernie tajemniczy, że jesteśmy w stanie zgłębiać tajniki

przyrody za pomocą metody naukowej. Jak już wyjaśniałem, istotą nauki jest odkrywanie

struktur i regularności w przyrodzie poprzez wynajdywanie sposobów algorytmicznego

upraszczania danych obserwacyjnych. W surowych danych obserwacyjnych rzadko da się

dostrzec bezpośrednio jakieś regularności. Przyroda ukrywa przed nami swój ład, głęboko go

kodując. Postęp w nauce dokonuje się poprzez łamanie tego kosmicznego kodu, wnikanie pod

powierzchnię surowych danych w poszukiwaniu ukrytego porządku. Przyrównywałem nieraz

badania podstawowe do rozwiązywania krzyżówki. Eksperymenty i obserwacje dostarczają nam

wskazówek do poszczególnych „haseł”, lecz są one wyrażone nie wprost i wymagają znacznych

umiejętności, aby je odpowiednio rozszyfrować. Wraz z odgadnięciem kolejnego „hasła” ukazuje

się nam następny fragment ogólnej struktury przyrody. Zarówno w przypadku krzyżówki, jak i

świata fizycznego, widzimy, że niezależne „hasła” łączą się w spójną całość, zazębiając się

wzajemnie, tak więc im więcej haseł odgadniemy, tym łatwiej znaleźć brakujące ogniwa.

Zadziwiające w tym wszystkim jest to, że ludziom rzeczywiście udaje się złamać ten kod,

że umysł człowieka jest wystarczająco wyposażony intelektualnie, by móc „odsłaniać tajemnice

przyrody” i pokusić się o rozwiązanie jej „tajemnej krzyżówki”. Łatwo wyobrazić sobie świat, w

którym regularności przyrody nie byłyby ukryte, lecz widoczne dla każdego na pierwszy rzut

oka. Możemy sobie także wyobrazić inny świat, w którym bądź to nie ma żadnych regularności,

bądź są one tak ukryte, tak wyrafinowane, że rozwiązanie kosmicznego kodu przekraczałoby

możliwości umysłu człowieka. My natomiast doświadczamy sytuacji, w której trudność

kosmicznego kodu jest, jak się wydaje, dokładnie dostosowana do możliwości intelektualnych

człowieka. Co prawda, rozszyfrowywanie zagadek przyrody sprawia nam wiele trudności, mimo

to odnosimy na tym polu wiele sukcesów. Uprawianie nauki jest na tyle wymagającym zadaniem,

że przyciąga najlepsze umysły, lecz nie na tyle ciężkim, by ich wysiłki poszły na marne, co

background image

mogłoby zniechęcić do dalszego ich podejmowania.

Tajemnicą pozostaje to, że, jak się uważa, zdolności ludzkiego umysłu rozwinęły się na

drodze ewolucji biologicznej, która nie rna bezpośrednio żadnego związku z uprawianiem nauki.

Nasze mózgi ukształtowały się pod wpływem wymogów reagowania i dostosowania do

środowiska, takich jak konieczność polowania na zwierzynę, ucieczki przed drapieżnikami,

unikania spadających przedmiotów itp. Co to ma wspólnego z odkrywaniem praw

elektromagnetyzmu czy też poznawaniem struktury atomu? Intryguje to również Johna Barrowa:

„Dlaczegóż nasze procesy poznawcze dostosowały się do podejmowania takich

ekstrawaganckich celów, jak zrozumienie całego Wszechświata? - pyta on. - Dlaczego akurat

my? Żadna z wyrafinowanych koncepcji naukowych nie daje jakiejkolwiek przewagi, która

mogłaby wpłynąć na selekcję w procesie ewolucji. (...) Jakże szczęśliwym zbiegiem okoliczności

jest, że nasze umysły (przynajmniej niektóre) wykształciły się tak, by zgłębiać tajemnice

Przyrody”.

Tajemnica naszego niesamowitego powodzenia w rozwijaniu nauki pogłębi się jeszcze

bardziej, gdy uświadomimy sobie, jak bardzo ograniczone są możliwości uczenia się u

człowieka. Z jednej strony, ograniczona jest szybkość przyswajania nowych faktów i pojęć,

szczególnie tych o bardziej abstrakcyjnym charakterze. Normalnie trzeba co najmniej piętnaście

lat nauki, aby student opanował matematykę i inne dyscypliny nauki w stopniu wystarczającym,

by móc próbować wnieść własny wkład w badania podstawowe. Jednakże jest faktem ogólnie

znanym, że, dotyczy to zwłaszcza fizyki teoretycznej, największe sukcesy w nauce odnoszą

ludzie mający po dwadzieścia kilka, najwyżej trzydzieści kilka lat. Newton, na przykład, miał

zaledwie cztery lata, gdy odkrył prawo powszechnego ciążenia. Dirac jeszcze jako doktorant

sformułował swe relatywistyczne równanie falowe, które doprowadziło do odkrycia antymaterii.

Einstein miał dwadzieścia sześć lat, gdy opracował szczególną teorię względności, podstawy

mechaniki statystycznej i teoretyczne podstawy zjawiska fotoelektrycznego w ciągu zaledwie

kilku miesięcy wytężonej pracy twórczej. Jakkolwiek starsi naukowcy gotowi są temu przeczyć,

istnieją przekonywające dowody, że prawdziwie nowatorska twórczość naukowa ustaje około

czterdziestki. Już znaczny zasób wiedzy i jeszcze znaczne zdolności twórcze tworzą naukowca,

dając mu krótki, lecz efektywny „przedział sposobności”, kiedy to może dokonać znaczących

odkryć naukowych. Jednakże te ograniczenia intelektualne mają swe źródło w przyziemnych

aspektach ewolucji biologicznej i związane są z długością życia, budową mózgu i strukturą

background image

społeczną u ludzi. Jakże dziwne zatem, że czynniki zestawione razem dopuszczają okres, w

którym możliwe jest twórcze uprawianie nauki.

I w tym przypadku możemy sobie wyobrażać świat, w którym wszystkim ludziom dana

jest wystarczająca ilość czasu na poznanie wszystkich faktów i koncepcji niezbędnych, by

uprawiać badania podstawowe, albo też świat, w którym nauczenie się wszystkich niezbędnych

rzeczy trwałoby tak długo, że nie stałoby na to życia u człowieka, a co najmniej okres twórczy

minąłby na długo przed ukończeniem tej edukacji. A żaden aspekt tego niesamowitego

„dostrojenia” człowieka do działalności poznawczej nie jest bardziej zadziwiający niż istnienie

matematyki, wytworu ludzkiego umysłu zdolnego zgłębiać tajniki Wszechświata.

background image

Dlaczego prawa przyrody mają charakter matematyczny?

Niewielu ludzi zajmujących się nauką zastanawia się, dlaczego podstawowe prawa

przyrody mają postać matematyczną, uważając to za rzecz oczywistą. Jednak fakt, że

matematyka jest skuteczna w odniesieniu do świata fizycznego, i to tak zdumiewająco skuteczna,

wymaga uzasadnienia, gdyż nie wiadomo, dlaczego mielibyśmy prawo oczekiwać, że świat da

się dobrze opisać za pomocą matematyki. Jakkolwiek większość naukowców przyjmuje, że tak

musi być, dzieje nauki każą być tu ostrożnym. Wiele aspektów świata było długo uważanych za

oczywiste, a potem okazywało się, że są one wynikiem szczególnych warunków lub

okoliczności. Klasycznym przykładem może tu być newtonowska koncepcja absolutnego

uniwersalnego czasu. W życiu codziennym koncepcja ta w pełni się potwierdza, ale, jak się

okazuje, tylko dlatego, że poruszamy się o wiele wolniej niż światło. Może więc i matematyka

jest skuteczna tylko ze względu na jakieś szczególne okoliczności?

Jedna z postaw wobec tego problemu polega na przyjęciu, że owa „niepojęta skuteczność

matematyki”, by posłużyć się tu znanym sformułowaniem Wignera, jest uwarunkowana

kulturowo jako wynik sposobu, w jaki ludzie zdecydowali się poznawać świat. Już Kant

ostrzegał, że jeżeli patrzymy na świat przez różowe okulary, nic dziwnego, że widzimy go na

różowo. Mamy skłonność - twierdził - przenosić na świat naszą własną preferencję do

matematyki. Innymi słowy, to my narzucamy przyrodzie ład matematyczny, a nie przyroda nam.

Jest to dość poważny argument. Nie ulega wątpliwości, że naukowcy badając przyrodę chętnie

posługują się matematyką i skłonni są w większym stopniu podejmować te zagadnienia, które

można wyrazić w sposób matematyczny. Aspektom przyrody, których nie da się łatwo ująć w

ramy matematyki (np. dotyczących układów biologicznych i społecznych), zwykle przypisuje się

mniejszą wagę, określając jako fundamentalne jedynie aspekty spełniające kryteria

matematyzowalności. Zatem w przypadku pytania: „Dlaczego fundamentalne prawa przyrody

mają charakter matematyczny”, narzuca się trywialna odpowiedź: „Ponieważ za fundamentalne

uznajemy tylko te prawa, które są matematyczne”.

Sposób, w jaki postrzegamy świat, w oczywisty sposób determinowany jest częściowo

przez budowę naszego mózgu. W procesie ewolucji biologicznej, z nie znanych nam bliżej

powodów, mózg człowieka ukształtował się w ten sposób, że łatwo wyszukuje i skupia uwagę

właśnie na matematycznych aspektach przyrody. Jak już mówiłem w rozdziale l, można sobie

background image

wyobrazić, że gdzieś w kosmosie żyją inteligentne istoty, u których ewolucja przebiegała

zupełnie odmiennie i ich mózgi nie są podobne do naszych. Istoty te mogłyby nie podzielać

naszych kategorii myślenia, w szczególności naszego upodobania do matematyki, stosując w

poznaniu świata kategorie zupełnie dla nas niezrozumiałe.

Czyż zatem skuteczność matematyki w naukach przyrodniczych jest jedynie

uwarunkowanym kulturowo wybrykiem, przypadkowym wytworem ewolucji biologicznej i

społecznej człowieka? Niektórzy uczeni i filozofowie utrzymują, że tak jest rzeczywiście, ale

przyznaję, że twierdzenie to, z wielu powodów, wydaje mi się nazbyt pochopne. Po pierwsze,

znaczna część matematyki, która wykazała tak spektakularną skuteczność w fizyce, powstała w

wyniku czysto abstrakcyjnych rozważań matematyków na długo przed zastosowaniem do opisu

rzeczywistego świata. Nie brali zupełnie pod uwagę możliwości ich zastosowania. Ten

„niezależny świat, stworzony mocą czystego rozumu”, jak określił go James Jeans, dopiero

później okazał się użyteczny w badaniach naukowych. Angielski matematyk G.H. Hardy napisał,

że matematykę uprawia się dla jej piękna, a nie zastosowań praktycznych, szczycąc się wręcz, iż

zupełnie nie wyobraża sobie, by jego prace znalazły kiedykolwiek jakieś zastosowanie. A jednak

odkrywamy, czasem w wiele lat później, że przyroda postępuje według reguł matematycznych,

które już dawno zostały sformułowane przez czystych matematyków. (Jak na ironię, dotyczy to

również znacznej części dorobku Hardy'ego). Jeans zwrócił uwagę, że matematyka jest tylko

jedną z wielu konstrukcji intelektualnych. Podejmowane były próby skontruowania modelu

świata jako, na przykład, żywego organizmu, czy też jako mechanizmu, które ostatecznie nie

powiodły się. Dlaczego metoda matematyczna miałaby być tak płodna, gdyby nie związana była

z jakąś realną własnością w przyrodzie?

Penrose, który również podejmuje to zagadnienie, zdecydowanie odrzuca tezę o

uwarunkowaniu kulturowym matematyki. Nawiązując do zdumiewającego sukcesu teorii takich

jak ogólna teoria względności, pisze on:

Trudno mi przypuścić, jak utrzymują niektórzy, że tak DOSKONAŁE teorie miałyby

powstać w wyniku czysto przypadkowej selekcji naturalnej spośród różnych koncepcji

intelektualnych, w której przetrwałyby tylko te najlepsze. Ich doskonałość jest zbyt duża, by

mogły być jedynie zbiorem przypadkowo dobranych idei. Musi zachodzić jakiś głęboko uk

r

yty

powód tak znacznej zgodności między matematyką a fizyką, tj. między platońskim światem

idealnym a światem fizycznym.

background image

Penrose przyznaje się do przekonania, które, jak stwierdziłem, jest dość

rozpowszechnione wśród naukowców, że najnowsze dokonania w dziedzinie fizyki teoretycznej

stanowią faktycznie odkrycie nowych aspektów rzeczywistości, a nie tylko nadanie danym

eksperymentalnym postaci bardziej strawnej dla możliwości poznawczych człowieka.

Wysuwano także argument, że to nasz mózg przystosował się ewolucyjnie w ten sposób,

że odzwierciedla własności fizycznego świata, w tym także jego własności matematyczne, nic

zatem dziwnego, iż odkrywamy matematykę w przyrodzie. Ale jak już wspominałem, to właśnie

jest wielką zagadką, że w ludzkim mózgu rozwinęły się tak nadzwyczajne zdolności do

uprawiania matematyki, gdyż nie widać, by abstrakcyjna matematyka mogła mieć jakąkolwiek

wartość dla przetrwania gatunku. To samo można odnieść do uzdolnień muzycznych.

Wiedzę o świecie uzyskujemy na dwa odrębne sposoby. Pierwszym z nich jest

bezpośrednia percepcja, drugim zastosowanie logicznego myślenia i wyższych funkcji

intelektualnych. Rozważmy przypadek, że obserwujemy spadający kamień. Zjawisko fizyczne

zachodzące w zewnętrznym świecie odzwierciedla się w naszym umyśle, ponieważ mózg

konstruuje wewnętrzny model świata, w którym coś, co odpowiada fizycznemu przedmiotowi,

„kamieniowi”, porusza się w trójwymiarowej przestrzeni: widzimy spadający kamień. Z drugiej

strony, upadek kamienia można rozpatrywać w zupełnie odmienny, znacznie głębszy sposób. Na

podstawie praw Newtona, uzupełnionych odpowiednią matematyką, można utworzyć sobie

innego rodzaju model spadającego kamienia. Nie jest to model umysłowy, tak jak w przypadku

percepcji, niemniej jednak stanowi on konstrukcję umysłu, w której pojmuje się dany spadający

kamień jako konkretny przypadek pewnej szerszej kategorii procesów fizycznych. Model

matematyczny oparty na prawach fizyki nie jest czymś, co naprawdę widzimy, niemniej

dostarcza on, na swój abstrakcyjny sposób, pewnego typu wiedzy o świecie, i to wiedzy

wyższego rzędu.

Wszystko wskazuje na to, że ewolucja typu darwinowskiego przystosowała nas do

poznawania świata poprzez bezpośrednią percepcję. Zapewniało to bez wątpienia przewagę w

procesie doboru naturalnego, jednakże nie ma żadnych oczywistych związków pomiędzy

poznawaniem zmysłowym tego typu a poznaniem intelektualnym. Studenci często zmagają się z

pewnymi działami fizyki, jak mechanika kwantowa i teoria względności, ponieważ starają się je

zrozumieć poprzez wizualizację. Próbują „zobaczyć” zakrzywioną przestrzeń czy też ruch

elektronu w atomie oczyma duszy i zupełnie im się to nie udaje. Nie jest to bynajmniej ich wina -

background image

nie sądzę, by jakikolwiek człowiek był w stanie przedstawić sobie wiernie te rzeczy w sposób

obrazowy. Nic też w tym dziwnego - efekty kwantowe i relatywistyczne nie uwidaczniają się

zasadniczo w życiu codziennym i ich uwzględnienie w tworzonym przez umysł modelu świata

nie dawałoby naszym mózgom żadnej wyraźnej przewagi ewolucyjnej. Pomimo to fizycy są w

stanie zgłębiać świat fizyki kwantowej i relatywistycznej za pomocą matematyki, odpowiednio

dobranych eksperymentów, abstrakcyjnego rozumowania i innych racjonalnych procedur.

Zagadką pozostaje, dlaczego dysponujemy takimi podwójnymi zdolnościami poznawania świata?

Nie ma żadnych przesłanek, by uznać tę drugą metodę za udoskonalenie pierwszej. Są to

zupełnie od siebie niezależne drogi poznania rzeczywistości. Jednakże, podczas gdy pierwsza w

widoczny sposób zaspokaja potrzeby biologiczne, druga z punktu widzenia biologii nie przynosi

żadnego zauważalnego pożytku.

Zagadka ta staje się jeszcze głębsza, gdy weźmiemy pod uwagę występowanie ludzi

genialnie uzdolnionych matematycznie lub muzycznie, których biegłość w tych dziedzinach

przewyższa o całe rzędy wielkości poziom średni dla całej populacji. Zdumiewająca intuicja

takich matematyków jak Gauss i Riemann uwidaczniała się nie tylko w ich niezwykłych

dokonaniach w dziedzinie matematyki (Gauss już w dzieciństwie uchodził za geniusza; miał

także fotograficzną pamięć), lecz także w tym, że wiele twierdzeń zapisywali bez dowodu,

pozostawiając następnym pokoleniom trud formalnego wykazania ich prawdziwości. W jaki

sposób ci matematycy byli w stanie otrzymać od razu w gotowej postaci wyniki, których

dowody, jak się później okazywało, wymagały przeprowadzenia długich i niezwykle złożonych

rozumowań, naprawdę nie wiemy.

Prawdopodobnie najsłynniejszym przykładem jest tu przypadek hinduskiego matematyka

S. Ramanujana. Ramanujan, urodzony pod koniec dziewiętnastego wieku w Indiach, pochodził z

bardzo biednej rodziny i otrzymał zaledwie elementarne wykształcenie. Matematyki nauczył się

praktycznie samodzielnie, przy czym, będąc izolowanym od głównego nurtu życia

akademickiego, podchodził do niej w sposób dość niekonwencjonalny. Ramanujan zapisał całą

masę twierdzeń bez dowodu, niektóre z nich o bardzo szczególnym charakterze, które nie

przyszłyby do głowy bardziej konwencjonalnie nastawionemu matematykowi. W końcu o

pracach Ramanujana dowiedział się Hardy i wprawiły go one w zdumienie. „Nigdy przedtem nie

widziałem nic podobnego - twierdził. - Wystarczyło na nie raz popatrzeć, by być pewnym, że

mogły one wyjść spod pióra tylko matematyka najwyższej klasy”. Hardy'emu udało się

background image

przeprowadzić dowód niektórych z twierdzeń Ramanujana, lecz jedynie z największą trudnością,

stosując pełny zakres swoich własnych, wcale niemałych, umiejętności matematycznych.

Udowodnienie pozostałych przerastało już jego możliwości, jednakże czuł, że muszą być one

prawdziwe, gdyż „nikomu nie stałoby wyobraźni, by je wymyśleć”. Hardy'emu udało się

sprowadzić Ramanujana do Cambridge i zamierzał pracować z nim wspólnie. Niestety,

Ramanujan, który nie mógł przystosować się do innego środowiska kulturowego i miał poważne

problemy ze zdrowiem, zmarł przedwcześnie w wieku zaledwie trzydziestu trzech lat,

pozostawiając olbrzymi zasób matematycznych hipotez dla potomności.

Do dziś dnia nie wiadomo, w jaki sposób mógł on osiągnąć tak niezwykłe wyniki. Jeden z

matematyków wyraził się, że twierdzenia wprost „wypływały z jego głowy”, bez zauważalnego

wysiłku. Byłaby to rzecz godna uwagi u każdego matematyka, lecz w przypadku człowieka,

który nie studiował matematyki w konwencjonalny sposób, była doprawdy czymś

nadzwyczajnym. Narzuca się przypuszczenie, że Ramanujan obdarzony był szczególną

zdolnością bezpośredniego oglądu matematycznej Krainy Myśli, skąd mógł czerpać gotowe

twierdzenia, jakie tylko chciał.

Równie tajemnicze są przedziwne przypadki tak zwanych błyskawicznych rachmistrzów -

ludzi potrafiących wykonywać prawie natychmiastowo niewiarygodnie złożone rachunki w

pamięci, nie mając przy tym najmniejszego pojęcia, w jaki sposób otrzymują odpowiedź.

Shakuntala Devi, mieszkająca w indyjskim mieście Bangalore, objeżdża świat zadziwiając

publiczność na pokazach swymi umiejętnościami rachunkowymi. Podczas jednego z pokazów w

Teksasie obliczyła prawidłowo w pamięci pierwiastek dwudziestego trzeciego stopnia z

dwustucyfrowej liczby w ciągu zaledwie pięćdziesięciu sekund!

Jeszcze bardziej szczególne są być może przypadki „autystycznych mędrców”,

upośledzonych umysłowo ludzi, którzy niejednokrotnie nie umieją wykonać najbardziej

elementarnych działań arytmetycznych, a pomimo to wykazują niesamowitą umiejętność

prawidłowego rozwiązywania zadań matematycznych, które zwykłym ludziom wydają się

nieprawdopodobnie trudne. Na przykład w Stanach Zjednoczonych żyje dwóch opóźnionych

umysłowo braci, którzy szybciej niż komputer potrafią znajdować liczby pierwsze. W innym

przypadku, w programie pokazywanym w angielskiej telewizji upośledzony mężczyzna prawie

bez namysłu określał właściwie dzień tygodnia, gdy podawano mu jakąś datę, nawet spoza

naszego stulecia.

background image

Jesteśmy oczywiście przyzwyczajeni do tego, że poszczególni ludzie są bardzo

zróżnicowani pod względem zdolności fizycznych i umysłowych. Jedni potrafią skoczyć wzwyż

powyżej dwóch metrów, podczas gdy innym sprawia trudność przeskoczenie jednego metra.

Jednakże wyobraźmy sobie, że oto ktoś nagle skacze na wysokość dwudziestu lub dwustu

metrów! A przecież skala wyczynów intelektualnych prezentowanych przez umysły uzdolnione

matematycznie jest znacznie większa niż zróżnicowanie uzdolnień fizycznych.

Naukowcy są wciąż dalecy od poznania, w jaki sposób zdolności intelektualne są

determinowane genetycznie. Być może tylko bardzo rzadko pojawia się u ludzi zestaw genów

powodujący nadzwyczajne zdolności matematyczne. A może nie zdarza się to tak rzadko, lecz

geny te nie zawsze zostają uaktywnione. Niemniej jednak w obu przypadkach odpowiednie geny

występują w puli genetycznej człowieka. Fakt, że genialni matematycy pojawiają się w każdym

pokoleniu, świadczy o tym, iż rozkład tej cechy w puli genetycznej jest dość stabilny. Jeżeli

cecha ta wykształciła się przypadkowo, a nie pod wpływem czynników otoczenia, to jest

prawdziwie zadziwiającym zbiegiem okoliczności, że matematyka da się bezpośrednio stosować

do świata fizycznego. Z drugiej strony, jeśli nawet zdolności matematyczne w jakiś, bliżej nie

znany, sposób sprzyjają przetrwaniu i rozwinęły się w wyniku doboru naturalnego, nadal stoimy

przed zagadką, dlaczego prawa przyrody mają charakter matematyczny. Przecież przetrwanie „w

dżungli” nie wymaga znajomości praw przyrody, lecz wyłącznie ich przejawów. Jak się

przekonaliśmy, same prawa są zakodowane w przyrodzie i nie mają wcale prostego odniesienia

do rzeczywistych zjawisk fizycznych, które im podlegają. Dla przetrwania istotna jest

prawidłowa ocena, jaki świat jest, a nie znajomość jego ukrytego fundamentalnego porządku. A

już na pewno nie jest ono uwarunkowane wiedzą o budowie jądra atomu, czarnych dziurach czy

też cząstkach elementarnych, które na Ziemi powstają tylko w wielkich akceleratorach.

Można by sądzić, że gdy uchylamy się przed rzuconym kamieniem lub szacujemy, jak

bardzo musimy się rozpędzić, by przeskoczyć strumień, czynimy użytek ze znajomości praw

mechaniki, ale tak nie jest. Korzystamy wtedy jedynie z doświadczenia zdobytego w

analogicznych sytuacjach. Nasz mózg reaguje na takie wyzwania automatycznie, nie dokonując

całkowania newtonowskich równań ruchu, jak fizyk analizujący tę samą sytuagę od strony

naukowej. Aby dokonywać oceny ruchu ciał w trójwymiarowej przestrzeni, nasz mózg musi się

odznaczać pewnymi szczególnymi własnościami. Uprawianie matematyki (na przykład rachunku

różniczkowego i całkowego, przydatnego przy naukowym opisie tego ruchu) również wymaga

background image

posiadania przez mózg określonych własności. Nie widzę żadnych przesłanek, by zakładać, że te

dwa w zasadzie odmienne zestawy własności miałyby sobie odpowiadać lub że jeden z nich

miałby być (nawet czysto przypadkowym) wytworem drugiego.

W istocie, fakty przemawiają za tezą przeciwną. Zwierzęta, tak jak my, potrafią uchylać

się przed rzuconym kamieniem i skutecznie przeskakiwać przez przeszkody, lecz nie przejawiają

żadnych zdolności matematycznych. Ptaki, na przykład, w o wiele większym stopniu niż ludzie

wykorzystują bezpośrednio prawa mechaniki i ich mózgi są odpowiednio do tego ewolucyjnie

przystosowane. Jednakże, jak wykazały eksperymenty z jajami ptaków, nie potrafią one liczyć

więcej niż do trzech. Znajomość pewnych regularności w przyrodzie, takich jakie występują w

mechanice, jest dla przetrwania bardzo istotna, toteż została wbudowana w mózgi ludzi i zwierząt

już na bardzo pierwotnym poziomie. W przeciwieństwie do tego, matematyka stanowi wyższą

funkcję umysłu, najwyraźniej spotykaną tylko u człowieka (przynajmniej, gdy bierzemy pod

uwagę tylko życie na Ziemi). Jest ona wytworem najbardziej złożonego ze znanych układów w

przyrodzie, a jednak jej najbardziej spektakularne sukcesy dotyczą najbardziej elementarnych

procesów przyrody: oddziaływań cząstek w atomie. Jak to się dzieje, że najbardziej złożony

układ połączony łączy się w ten sposób bezpośrednio z procesami najprostszymi?

Można by twierdzić, że skoro mózg jest wytworem procesów fizycznych, nie ma nic

dziwnego w tym, że odzwierciedla istotę tych procesów, w tym także ich matematyczność.

Jednak w rzeczywistości nie zachodzi żaden bezpośredni związek pomiędzy prawami fizyki a

budową mózgu. Tym, co odróżnia mózg od kilograma zwykłej materii, jest jego wewnętrzna

złożoność, w szczególności niezwykle skomplikowany system połączeń między neuronami.

Struktury tej nie da się uzasadnić wyłącznie w kategoriach praw fizyki. Zależy ona od szeregu

innych czynników, w tym całego mnóstwa wydarzeń przypadkowych, jakie towarzyszyły

procesowi ewolucyjnemu. Prawa, które miały decydujący udział w kształtowaniu struktury

mózgu (takie jak prawa genetyki Mendla), nie mają bezpośredniego związku z prawami fizyki.

background image

Jak możemy wiedzieć cokolwiek, nie wiedząc wszystkiego?

Pytanie to, postawione wiele lat temu przez matematyka Hermanna Bondiego, jest

obecnie jeszcze bardziej aktualne, wobec postępu, jaki dokonał się w teorii zjawisk kwantowych.

Mówi się często, że świat jest jednością, że przyroda połączona jest wewnętrznie w jedną wielką

całość. W pewnym sensie jest to prawda. Niemniej prawdą jest też, że jesteśmy w stanie zdobyć

nawet bardzo szczegółową wiedzę o poszczególnych jej elementach, nie wiedząc wszystkiego. W

istocie, nauka nie byłaby w ogóle możliwa, gdybyśmy nie mogli zdobywać wiedzy „po

kawałku”. Galileusz odkrywając prawo spadku swobodnego ciał nie musiał znać rozkładu

wszystkich mas we Wszechświecie; własności elektronów w atomie mogły być odkryte, zanim

poznano budowę jądra, i tak dalej. Nietrudno wyobrazić sobie świat, w którym zjawiska

związane z jednym miejscem, bądź też jedną skalą rozmiarów lub energii, są na tyle ściśle

związane z wszystkimi innymi, że nie można ich ująć osobno w postać prostych praw.

Odwołując się do analogii z krzyżówką: zamiast krzyżującej się siatki odzielnych słów,

mielibyśmy do odgadnięcia jedno niezwykle skomplikowane słowo. Poznanie Wszechświata

odbywałoby się na zasadzie „wszystko-albo-nic”.

Całą zagadkę pogłębia fakt, że tak naprawdę owa rozdzielność przyrody ma charakter

jedynie przybliżony. W rzeczywistości Wszechświat jest jedną całością. Pozycja Księżyca ma

wpływ na spadające na Ziemi jabłko, i na odwrót. Na ruch elektronów w atomie wpływają także

siły jądrowe. Jednakże w obydwu przypadkach efekty tych oddziaływań są na tyle małe, że

praktycznie prawie zawsze możemy je zaniedbać. Niemniej nie dotyczy to wszystkich układów.

Wspominałem już o istnieniu układów chaotycznych, które są niezmiernie wrażliwe na

najdrobniejsze zewnętrzne zaburzenia. Sprawia to, że układy chaotyczne zachowują się w sposób

nieprzewidywalny. Jednakże, pomimo iż żyjemy w świecie pełnym układów chaotycznych,

potrafimy wydzielić zeń znaczną liczbę układów fizycznych, których zachowanie da się

przewidzieć i opisywać za pomocą matematyki.

Można to przypisać po części dwóm ciekawym własnościom, zwanym „liniowością” i

„lokalnością”. Układ liniowy spełnia dość szczególne matematyczne warunki rozdzielności

mnożenia względem dodawania, związane z wykresami w postaci linii prostych - stąd nazwa

„liniowy”, których nie będę tu bliżej omawiał (przedstawiłem je bardziej szczegółowo w mojej

książce The Matter Myth [Mit materii]). Na przykład prawa elektromagnetyzmu, opisujące pola

background image

magnetyczne i elektryczne, są w bardzo dużym stopniu dokładności liniowe. Układy liniowe nie

mają charakteru chaotycznego i nie są zbyt czułe na drobne zaburzenia zewnętrzne.

Żaden układ nie jest jednak dokładnie liniowy, zatem problem separowalności sprowadza

się do kwestii, dlaczego efekty nieliniowe są na ogół w praktyce tak małe. Zazwyczaj bierze się

to stąd, że wchodzące w grę odziaływania nieliniowe są same w sobie niezwykle słabe bądź mają

bardzo krótki zasięg, albo i to, i to. Nie wiemy na razie, dlaczego siła i zasięg poszczególnych

oddziaływań w przyrodzie są takie, jakie są: być może kiedyś uda się je wyliczyć z jakiejś

ogólnej teorii. Inną możliwością jest, że są to „stałe przyrody”, których nie sposób wyprowadzić

z samych praw. Istnieje jeszcze trzecia możliwość, że te „stałe” nie są wcale stałymi, których

wartości są raz na zawsze ustalone, „dane od Boga”, lecz uwarunkowane są przez faktyczny stan

Wszechświata; innymi słowy, wyznaczone są przez kosmiczne warunki początkowe.

Własność lokalności odnosi się do faktu, że, jak to ma miejsce w większości przypadków,

zachowanie się układu fizycznego wyznaczone jest całkowicie przez siły i oddziaływania

występujące w jego bezpośrednim otoczeniu. Tak więc przyśpieszenie spadającego swobodnie

jabłka w danym punkcie przestrzeni zależy od natężenia pola grawitacyjnego tylko w tym

punkcie. Ta sama reguła stosuje się do wielu innych oddziaływań i okoliczności. Istnieją wszakże

sytuacje, w których mamy do czynienia ze zjawiskami nielokalnymi. Weźmy na przykład dwie

cząstki elementarne, które oddziaływają ze sobą lokalnie, a następnie oddalają się od siebie. Z

zasad mechaniki kwantowej wynika, że nawet gdy cząstki te znajdą się na przeciwległych

krańcach Wszechświata, nadal muszą być uważane za niepodzielną całość; to znaczy, wynik

pomiaru przeprowadzonego na jednej z cząstek będzie częściowo zależał od stanu drugiej

cząstki. Einstein określał tę nielokalność jako „widmowe oddziaływanie na odległość”, nie

wierząc zupełnie w jej realny charakter. Tymczasem przeprowadzone ostatnio eksperymenty

potwierdziły ponad wszelką wątpliwość, że takie efekty nielokalne faktycznie występują.

Uogólniając, należy stwierdzić, że na poziomie subatomowym, opisywanym przez mechanikę

kwantową, zespół wielu cząstek musi być traktowany holistycznie, gdyż zachowanie jednej

cząstki jest nieodłącznie związane z zachowaniem pozostałych, niezależnie od tego, jak wielkie

będą ich wzajemne odległości.

Fakt ten ma istotne znaczenie dla Wszechświata jako całości. Gdybyśmy chcieli

arbitralnie określić stan kwantowy całego kosmosu, odpowiadałby on prawdopodobnie

gigantycznemu zespołowi wzajemnie oddziałujących wszystkich cząstek we Wszechświecie. W

background image

rozdziale 2 wspominałem o najnowszych ideach Hartle'a i Hawkinga dotyczących kwantowego

opisu Wszechświata jako całości, czyli kosmologii kwantowej. Jednym z wielkich wyzwań

stojących przed kosmologami kwantowymi jest wyjaśnienie, w jaki sposób świat, który znamy z

naszego doświadczenia, wyłonił się z mglistego stanu początkowego. Przypomnijmy, że

mechanika kwantowa zawiera zasadę nieoznaczoności Heisenberga, która przewiduje rozmycie

wartości wszystkich wielkości obserwowalnych w nieprzewidywalny sposób. Zgodnie z tym nie

można przyjmować, że elektron wewnątrz atomu posiada w każdej chwili określoną pozycję w

przestrzeni. Nie powinno się wręcz wyobrażać sobie, że krąży on wokół jądra atomu po

konkretnej orbicie, lecz że jest on w bliżej nie określony sposób rozmyty wokół jądra.

Chociaż tak to wygląda w przypadku elektronów w atomie, dla obiektów

makroskopowych takiego rozmycia nie obserwujemy. Zatem planeta Mars ma w każdej chwili

dokładną pozyq'ę w przestrzeni i porusza się po dobrze określonej orbicie wokół Słońca. Pomimo

to Mars także podlega prawom mechaniki kwantowej. Można więc zapytać, jak to uczynił kiedyś

Enrico Fermi, dlaczego Mars nie jest rozmyty wokół Słońca, tak jak elektron wokół jądra atomu.

Innymi słowy, założywszy, że narodziny Wszechświata były procesem kwantowym, jak to się

stało, że powstał świat zasadniczo niekwantowy? Początkowo, gdy rozmiary Wszechświata były

jeszcze bardzo małe, dominowała w nim nieokreśloność kwantowa, lecz obecnie dla ciał

makroskopowych nie obserwujemy żadnych jej przejawów.

Większość naukowców czyni milczące założenie, że w przybliżeniu niekwantowy (czyli

„klasyczny”, by użyć przyjmowanego określenia) świat jest koniecznym rezultatem Wielkiego

Wybuchu, nawet zdominowanego początkowo przez efekty kwantowe. Niedawno jednak Hartle i

Gell-Mann zakwestionowali ten pogląd, dowodząc, że istnienie świata w przybliżeniu

klasycznego, w którym dobrze określone obiekty materialne znajdują się w określonych

miejscach przestrzeni i w którym obowiązuje dobrze określone pojęcie czasu, jest możliwe tylko

dla pewnych szczególnych warunków początkowych. Z ich obliczeń wynika, że dla większości

możliwych warunków początkowych taki klasyczny świat by nie powstał i podział świata na

odrębne obiekty, zajmujące konkretne położenie w dobrze określonej czasoprzestrzeni, nie byłby

możliwy. Zasada lokalności nie obowiązywałaby. Wydaje się prawdopodobne, że w takim

rozmytym świecie nie byłoby możliwe poznanie czegokolwiek bez poznania wszystkiego. W

istocie Hartle i Gell-Mann twierdzą, że sama koncepcja praw fizyki klasycznej, takich jak prawa

mechaniki Newtona, nie może być uznana za fundamentalną cechę rzeczywistości, lecz jest

background image

pozostałością Wielkiego Wybuchu i konsekwencją szczególnego kwantowego stanu

początkowego Wszechświata.

Jeżeli jest także prawdą, jak wspominałem powyżej, że siła i zasięg oddziaływań w

przyrodzie również zależy od kwantowego stanu Wszechświata, to możemy dojść do istotnego

wniosku. Zarówno liniowość, jak i lokalność większości układów fizycznych nie wynika wcale z

jakichś praw fundamentalnych, lecz ze szczególnego stanu kwantowego u początków

Wszechświata. Racjonalność świata, fakt, że możemy poznawać go stopniowo, odkrywając

kolejne prawa, to znaczy, że nauka jest w ogóle możliwa, nie jest czymś koniecznym, absolutnie

obowiązującym, lecz należy ją przypisać szczególnym, może nawet bardzo szczególnym,

kosmicznym warunkom początkowym. „Niepojęta skuteczność” matematyki w odniesieniu do

świata rzeczywistego byłaby zatem skutkiem „niepojęcie skutecznych” warunków

początkowych.

background image

Rozdział siódmy

DLACZEGO NASZ ŚWIAT JEST WŁAŚNIE TAKI?

Einstein nadmienił kiedyś, iż najbardziej go ciekawi, czy Bóg stwarzając świat miał jakąś

możliwość wyboru. Einstein nie był człowiekiem wierzącym w tradycyjnym sensie, niemniej

chętnie posługiwał się pojęciem Boga jako metaforą przydatną przy wyrażaniu najbardziej

zasadniczych kwestii egzystencjalnych. To konkretne pytanie dręczyło całe pokolenia uczonych,

filozofów i teologów. Czy świat z konieczności jest taki, jaki jest, czy też mógłby równie dobrze

być zupełnie inny? a jeśli mógłby być inny, w jaki sposób moglibyśmy uzasadnić, dlaczego

jednak jest właśnie taki?

Podejmując kwestię, czy Bóg mógł stworzyć świat tak, jak chciał, Einstein nawiązywał

do idei siedemnastowiecznego filozofa Benedykta Spinozy. Spinoza był panteistą i uważał

obiekty świata fizycznego za atrybuty Boga, a nie rzeczy przez niego stworzone. Utożsamiając

Boga z przyrodą, Spinoza odrzucał chrześcijańską koncepcję transcendentnego Boga, który

stworzył świat jako akt swej wolnej woli. Z drugiej strony, Spinoza nie był bynajmniej ateistą,

był przekonany, że potrafi udowodnić na gruncie logiki, że Bóg musi istnieć. Ponieważ uznał

tożsamość Boga ze światem fizycznym, oznaczało to, że potrafi udowodnić, iż nasz konkretny

świat również istnieje z konieczności. U Spinozy Bóg nie miał żadnej możliwości wyboru:

„Świat nie mógłby być powołany do istnienia przez Boga w jakikolwiek inny sposób ani w

jakiejkolwiek innej postaci niż ta, którą faktycznie otrzymał” - pisał on.

Ten trend myślowy - że rzeczywistość w tej postaci jest logicznie konieczna i nie

mogłaby być inna - jest obecnie dość powszechny wśród naukowców. Na ogół jednak wolą oni

nie wprowadzać do niej Boga. Gdyby mieli rację, oznaczałoby to, że świat jest układem

zupełnym i zamkniętym pod względem poznawczym, w którym wszystko da się uzasadnić i nie

ma miejsca na żadną tajemnicę, a także, iż w zasadzie nie potrzebujemy obserwować świata, aby

poznać, co i jak w obrębie niego istnieje, ponieważ wszystko, co istnieje, jest logicznie

konieczne, istotę Wszechświata można zgłębić mocą samego rozumu. „Jestem głęboko

przekonany - pisał Einstein, do którego przemawiała ta idea - że czystą myślą możemy dosięgnąć

rzeczywistości, tak jak marzyli o tym starożytni. (...) Za pomocą czystej matematyki jesteśmy w

stanie odkryć koncepcje oraz spajające je w jedną całość prawa, które stanowią klucz do

background image

zrozumienia zjawisk przyrody”. Oczywiście, możemy nie okazać się wystarczająco inteligentni,

aby faktycznie otrzymać właściwe koncepcje i prawa wyłącznie na drodze dedukcji

matematycznej, ale nie w tym rzecz. Gdyby taka zamknięta pod względem poznawczym

struktura była w ogóle możliwa, zmieniłoby to zasadniczo nasze myślenie o Wszechświecie i

miejscu, jakie w nim zajmujemy. Jednakże, czy te aspiracje do zupełnego i jednolitego systemu

są w jakikolwiek sposób uzasadnione, czy też są jedynie próżną mrzonką?

background image

Poznawalność Wszechświata

U podłoża tych wszystkich pytań kryje się podstawowe założenie: że świat jest zarówno

racjonalny, jak i poznawalny. Często wyraża się to w postaci tzw. „zasady racji dostatecznej”,

stwierdzającej, że zawsze istnieje powód, dlaczego coś jest takie, jakie jest. Dlaczego niebo jest

koloru niebieskiego? Dlaczego jabłka spadają z drzewa na ziemię? Dlaczego Układ Słoneczny

liczy dziewięć planet? Nie zadowalamy się zwykle odpowiedzią: „Bo tak już jest”, wierząc, że

zawsze jest jakaś racja, aby coś było właśnie takie. Gdyby istniały na świecie jakieś fakty,

których z założenia nie moglibyśmy uzasadnić (tak zwane luźne fakty), to świat zostałby

pozbawiony racjonalności i jawiłby się nam jako absurdalny.

Większość ludzi akceptuje zasadę racji dostatecznej bez pytania. Cała nauka wręcz oparta

jest na założeniu, że przyroda jest racjonalna. Zasada ta podzielana jest także przez większość

teologów, gdyż wierzą oni, że Bóg także jest racjonalny. Czyż jednak możemy być absolutnie

pewni, że zasady tej nie można kwestionować? Czy dysponujemy dostateczną racją, by wierzyć,

że zasada racji dostatecznej jest bezwzględnie słuszna? Prawdą jest, że zasada ta zazwyczaj się

potwierdza: jabłka spadają na ziemię pod wpływem siły ciążenia; niebo jest niebieskie, gdyż

promienie świetlne o małej długości fali ulegają rozproszeniu na cząsteczkach powietrza, i tak

dalej. Ale z tego nie wynika, że sprawdzi się ona zawsze. Oczywiście, gdyby okazała się

fałszywa, to poszukiwanie ostatecznego uzasadnienia straciłoby wszelki sens. W każdym razie,

niezależnie od tego, czy zasada racji dostatecznej jest prawdziwa czy też nie, warto przyjąć ją

jako hipotezę roboczą, by przekonać się, gdzie nas ona doprowadzi.

Przystępując do rozważania fundamentalnych problemów związanych z istnieniem

świata, musimy rozróżnić dwie kategorie.

Do pierwszej należą fakty dotyczące świata fizycznego, takie jak liczba planet w Układzie

Słonecznym. W samej rzeczy planet jest dziewięć, lecz nie widać żadnych powodów, by

przypuszczać, że musi ich być dziewięć. Przeciwnie, możemy sobie bez trudu wyobrazić, że jest

ich osiem albo dziesięć. Aby uzasadnić, dlaczego jest ich dziewięć, musielibyśmy rozpatrzeć, w

jaki sposób Układ Słoneczny uformował się z obłoku gazowego, względną obfitość pierwiastków

w tym obłoku, i tak dalej. Jako że uzasadnienie własności Układu Słonecznego wymaga

odwołania się do czegoś poza nim, własności określane są mianem „przygodnych”. Coś jest

przygodne, jeżeli mogłoby być inne, i uzasadnienie, dlaczego jest właśnie takie, wymaga

background image

odwołania się do czegoś zewnętrznego, czegoś poza tą rzeczą.

Druga kategoria obejmuje fakty, obiekty i zdarzenia, które nie są przygodne, określane

mianem „koniecznych”. Coś jest konieczne, jeżeli jest, jakie jest, niezależnie od czegokolwiek

innego. Rzecz konieczna zawiera w sobie rację swego istnienia i nie ulega nigdy zmianie, nawet

gdyby zmieniło się wszystko poza nią.

Ciężko jest przekonać się, czy w przyrodzie istnieje cokolwiek koniecznego.

Niewątpliwie wszystkie ciała fizyczne, jakie napotykamy wokół nas, i związane z nimi

wydarzenia zależą w jakiś sposób od reszty świata, więc muszą być uznane za przygodne.

Ponadto, jeżeli coś jest w sposób konieczny tym, czym jest, to musi takie pozostać na zawsze; nie

może ulec żadnej zmianie. Rzecz konieczna nie może zawierać żadnego odniesienia do czasu.

Stan świata ustawicznie się zmienia w czasie, a zatem wszystkie ciała fizyczne

współuczestniczące w tych zmianach są przygodne.

Co z Wszechświatem jako całością, skoro definiując go odwołujemy się do czasu? Miałby

on być bytem koniecznym? Tak uważał Spinoza i jego następcy. Na pierwszy rzut oka nie

wydaje się, aby mogli oni mieć rację, gdyż z łatwością możemy sobie wyobrazić, że

Wszechświat jest inny. Oczywiście, możliwość wyobrażenia sobie czegokolwiek nie jest żadną

gwarancją, że jest to możliwe, a nawet że jest logicznie dopuszczalne. Niemniej jestem

przekonany, że są dostateczne powody, by przyjmować, iż Wszechświat mógłby być inny, i

krótko je tutaj omówię.

A co z prawami fizyki? Czy mają one charakter konieczny, czy przygodny? W tym

przypadku sytuacja jest mniej jasna. Zazwyczaj prawa te uznawane są za pozaczasowe i wieczne,

a więc można by argumentować, że są one konieczne. Z drugiej strony, doświadczenie pokazuje,

iż w miarę postępu fizyki prawa niegdyś uważane za niezależne okazują się być ze sobą

powiązane. Dobrym przykładem może tu być niedawne odkrycie, że słabe oddziaływania

jądrowe i oddziaływania elektromagnetyczne stanowią faktycznie dwa przejawy jednego

oddziaływania zwanego elektrosłabym i opisywane są tymi samymi równaniami. A zatem te dwa

odziaływania z osobna okazują się być zależne od innych oddziaływań. Ale może jest tak, że

istnieje jednak jakieś superoddziaływanie, czy też najwyższe prawo jednoczące w sobie

wszystkie oddziaływania, które jest konieczne? Wielu fizyków sądzi, że tak. Niektórzy

współcześni naukowcy, jak na przykład chemik z Oxfordu Peter Atkins, wskazują na

występujące w fizyce teoretycznej dążenie do znalezienia jednego najwyższego prawa,

background image

twierdząc, że dowodzi to, iż świat fizyczny w znanej nam postaci nie jest przygodny, lecz

konieczny. Utrzymują oni, że nie ma potrzeby poszukiwania dalszych uzasadnień w metafizyce.

Naukowcy ci sądzą, że nadejdzie czas, kiedy wszystkie prawa fizyki zostaną ujęte w ramy

jednolitej teorii, której matematyczna struktura będzie jedyną możliwą pod względem logicznym.

Są jednak i tacy, którzy zwracając uwagę na tę samą postępującą unifikację, wyciągają

całkowicie odmienne wnioski. Przykładem może być tu papież Jan Paweł II, który pozostając

pod głębokim wrażeniem spektakularnych sukcesów unifikacji różnych cząstek elementarnych i

czterech fundamentalnych oddziaływań przyrody, uznał niedawno za stosowne zwrócić się do

uczestników konferencji naukowej z komentarzem na temat szeroko pojmowanych konsekwencji

tych odkryć:

Fizycy zdobyli szczegółową, choć niepełną i tymczasową, wiedzę o cząstkach

elementarnych i o fundamentalnych siłach, którymi oddziaływają one ze sobą przy małych i

średnich energiach. Dysponują oni obecnie dobrą teorią unifikacji słabych oddziaływań

jądrowych z elektromagnetycznymi oraz mniej pewnymi, aczkolwiek obiecującymi, teoriami

Wielkiej Unifikacji, które próbują uwzględnić również silne oddziaływania jądrowe. W dalszej

perspektywie tego rozwoju pojawiają się już dość szczegółowe propozycje ostatniego stadium

superunifikacji, to znaczy unifikacji wszystkich czterech oddziaływań przyrody, w tym

grawitacji. Czyż nie jest wart uwagi fakt, że w dziedzinie o tak daleko posuniętej specjalizacji,

jak współczesna fizyka, występuje tak wyraźnie zaznaczona tendencja do jednoczenia?

Istotną cechą tego procesu jest sposób, w jaki ogarnia on stopniowo znane prawa fizyki.

Każdy krok ukazuje nowe wzajemne zależności i wewnętrzną spójność pomiędzy prawami

uważanymi dotąd za całkowicie niezależne. Na przykład, sam wymóg, by wszystkie teorie

zgodne były z mechaniką kwantową i teorią względności, nakłada silne ograniczenia na postać

matematyczną występujących w nich praw. Rodzi to oczekiwanie, że pewnego dnia, może już

niedługo, ten proces jednoczenia osiągnie swój cel: opis wszystkich praw przyrody w ramach

jednej teorii. Jest to idea tak zwanej Teorii Wszystkiego, o której wspominałem już w rozdziale

1.

background image

Jedyna Teoria Wszystkiego?

Czy Teoria Wszystkiego jest w ogóle możliwa? Wielu naukowców sądzi, że tak.

Niektórzy z nich uważają nawet, że już prawie dysponujemy taką teorią, podając modną obecnie

teorię superstrun jako poważną próbę ujęcia wszystkich znanych w fizyce fundamentalnych

oddziaływań i cząstek elementarnych, jak również struktury przestrzeni i czasu, w ramy jednej,

uniwersalnej struktury matematycznej. W istocie, pogląd ten nie jest niczym nowym. Próby

znalezienia całkowicie jednolitego opisu świata mają już długą historię. W swej książce Theories

of Everything: The Quest for Ultimate Explanation [Teorie Wszystkiego: w poszukiwaniu

ostatecznego uzasadnienia] John Barrow przypisuje popularność poszukiwania teorii tego typu

głęboko zakorzenionemu u ludzi przekonaniu o racjonalności świata, przekonaniu, że pod

powłoką zjawisk kryją się jednolite zasady logiczne, które dają się ująć w zrozumiałej, zwięzłej

formie.

Rodzi się wtedy pytanie, czy przy tym dążeniu do globalnej unifikacji teoria zostaje

poddana tak ścisłym wymogom matematycznej spójności, że staje się ona jedyną możliwą.

Gdyby tak było, mielibyśmy w fizyce do czynienia tylko z jedną uniwersalną teorią, przy czym

poszczególne jej prawa wyznaczone byłyby jednoznacznie jako logiczna konieczność. Powiada

się, że świat byłby wtedy w pełni uzasadniony: prawa Newtona, równania Maxwella dla pola

elektromagnetycznego, i wszystko inne, wynikałoby nieuchronnie z wymogu logicznej

niesprzeczności teorii, podobnie jak twierdzenie Pitagorasa wynika z aksjomatów geometrii

euklidesowej. Posuwając się tą drogą rozumowania do końca, naukowcy nie potrzebowaliby

dłużej zaprzątać sobie głowy żadnymi obserwacjami ani eksperymentami. Nauki przyrodnicze

utraciłyby charakter nauk empirycznych, stając się gałęzią logiki dedukcyjnej, przy czym prawa

przyrody zyskałyby status twierdzeń matematycznych, a własności świata można by poznawać

wyłącznie na drodze rozumowania dedukcyjnego.

Przekonanie, że naturę rzeczy istniejących w świecie można poznać mocą czystego

rozumu, poprzez zastosowanie wnioskowania dedukcyjnego wychodzącego z oczywistych

przesłanek, ma długą historię. Jego zaczątki możemy znaleźć już w pismach Platona i

Arystotelesa. Pojawiło się ono ponownie w siedemnastym wieku u filozofów racjonalistycznych,

jak Kartezjusz, który skonstruował system fizyki, z założenia oparty na zastosowaniu samego

rozumu, a nie obserwacjach empirycznych. O wiele później, w latach trzydziestych naszego

background image

stulecia, fizyk E.A. Milne w podobny sposób próbował stworzyć dedukcyjny opis grawitacji i

kosmologii. W ostanich latach idea, że całkowicie zunifikowana teoria fizyki mogłaby się okazać

możliwa do wyprowadzenia w sposób dedukcyjny, znów zyskała na popularności, co skłoniło

Stephena Hawkinga do nadania swemu wykładowi inauguracyjnemu przy obejmowaniu katedry

fizyki w Cambridge prowokacyjnego tytułu „Czy zbliża się kres fizyki teoretycznej?”

Jednak jakie są podstawy, by przypuszczać, że może się tak zdarzyć? Nie wdając się w

rozważania, czy teoria superstrun i podobne jej koncepcje rzeczywiście stanowią zalążek

przyszłej unifikacji, jestem przekonany, że teza o jedyności teorii superunifikacji jest fałszywa i

da się to wykazać. Do wniosku takiego doprowadziło mnie szereg przesłanek. Pierwszą z nich

jest, że fizycy często rozważają niesprzeczne matematycznie „wszechświaty myślowe”, które bez

wątpienia są różne od naszego Wszechświata. Powody tego wyjaśniałem w rozdziale l.

Poznaliśmy już jeden taki wszechświat myślowy - automat komórkowy, a istnieje jeszcze wiele

innych. Wydaje mi się, że dla zapewnienia jedyności teorii musimy postawić jej wymóg nie tylko

tego, by była niesprzeczna wewnętrznie, lecz także aby spełniała szereg innych warunków

różnego typu, takich jak zgodność z teorią względności, występowanie określonych symetrii, czy

też istnienie trzech wymiarów przestrzennych i jednego czasowego.

Druga przesłanka dotyczy samego pojęcia jedyności w matematyce i logice. Matematyka

opiera się na pewnym zbiorze aksjomatów. Wszystkie twierdzenia matematyki można wywieść

dedukcyj-nie z tego zbioru aksjomatów, jednakże nie można wyprowadzić samych aksjomatów.

Ich uzasadnienie wykracza poza ramy matematyki. Można sobie wyobrazić wiele różnych

zestawów aksjomatów, prowadzących do różnych pod względem logicznym struktur. Poważne

problemy stwarza także twierdzenie Godła. Pamiętajmy, że zgodnie z tym twierdzeniem w

ogólnym przypadku niemożliwe jest dla danego systemu aksjomatów nawet udowodnienie nie-

sprzeczności samych aksjomatów, a jeśli nawet uda się dowieść ich niesprzeczności, to i tak

system aksjomatów będzie niezupełny w tym sensie, że będą istniały prawdziwe twierdzenia

matematyczne, których prawdziwości nie da się udowodnić w ramach tego systemu. W jednym

ze swych najnowszych artykułów Russell Stannard omawia, jakie to może mieć konsekwencje

dla unifikacji fizyki:

Prawdziwa teoria wszystkiego musi uzasadnić nie tylko, jak powstał nasz Wszechświat,

ale także, dlaczego jest to jedyny typ Wszechświata, jaki mógł zaistnieć - dlaczego mamy tylko

jeden system praw fizyki.

background image

Cel ten uważam za iluzoryczny. (...) Ten wrodzony, nieunikniony brak zupełności musi

się odzwierciedlać w każdym matematycznym modelu naszego Wszechświata. Jako istoty

stworzone, przynależące do świata fizycznego, musimy być również opisywani przez ten model.

Wynika stąd, że nigdy nie będziemy w stanie uzasadnić wyboru przyjętych w tym modelu

aksjomatów, a w konsekwencji i praw fizyki, którym odpowiadają te aksjomaty. Nie będziemy

też mogli uzasadnić wszystkich prawdziwych zdań, jakie można wypowiedzieć o

Wszechświecie.

John Barrow zajął się zbadaniem, jakie ograniczenia na Teorię Wszystkiego nakłada

twierdzenie Godła, i dochodzi do wniosku, że taka teoria byłaby „dalece niewystarczająca, by

rozwikłać zawiłości Wszechświata takiego jak nasz. (...) Nie istnieje pojedyncza formuła

ujmująca cały Wszechświat, jego prawdę, harmonię i prostotę. Nie istnieje Teoria Wszystkiego

pozwalająca wniknąć w całość istnienia, albowiem wniknąć we wszystko znaczy nie poznać

konkretnie niczego”.

Zatem poszukiwania Teorii Wszystkiego, pozwalającej wyrugować ze świata wszelką

przygodność i wykazać, że świat fizyczny w sposób konieczny jest tym, czym jest, wydają się

skazane na niepowodzenie z racji czysto logicznych. Dla żadnego systemu racjonalnej wiedzy nie

można dowieść, że jest on zarazem spójny i zupełny. Zawsze pozostanie pewna otwartość,

pewien element tajemnicy, coś niewyjaśnionego. Filozof Thomas Torrance przygania tym,

którzy ulegli pokusie uwierzenia, że Wszechświat jest „swego rodzaju perpetuum mobile,

samoistnym, samowystarczalnym, samouzasadniającym się tworem, całkowicie spójnym i

zupełnym, a tym samym uwięzionym w zaklętym kręgu nieuniknionych konieczności”. Ostrzega,

że „Wszechświat nie zawiera w sobie racji, dlaczego w ogóle istnieje, ani dlaczego jest taki, jaki

jest; dlatego oszukujemy samych siebie, jeżeli sądzimy, że potrafimy dowieść, iż poprzez naukę

uda nam się dowieść, że Wszechświat nie mógłby być inny”.

Może być jednak tak, że prawa Wszechświata, choć nie są jedynymi możliwymi pod

względem logicznym, są jedynymi dopuszczającymi powstanie struktur złożonych. A może nasz

Wszechświat jest jedynym, w którym możliwa jest biologia, a zatem powstanie organizmów

obdarzonych świadomością. Byłby to więc jedyny Wszechświat będący przedmiotem poznania.

Wracając do postawionego przez Einsteina pytania, czy Bóg stwarzając Wszechświat miał jakąś

swobodę wyboru, musimy na nie odpowiedzieć negatywnie, chyba że sam Bóg tak urządził

świat, abyśmy o tym nie wiedzieli. Wspomina o tym Stephen Hawking w książce Krótka historia

background image

czasu: „Być może jest tylko jedna, lub co najwyżej kilka, teorii wielkiej unifikacji, takich jak

teoria strun heterotycznych, które są spójne wewnętrznie i dopuszczają powstanie struktur tak

skomplikowanych jak człowiek, będący w stanie zgłębiać prawa przyrody i stawiać pytania o

naturę Boga”.

Może nawet nie ma żadnych logicznych przeszkód, by uznać tak postawioną tezę; tego

nie wiem. Wiem jednak, że nie ma absolutnie niczego, co by za nią przemawiało. Można by

jeszcze próbować argumentacji, że żyjemy w najprostszym z możliwych poznawalnych

wszechświatów to znaczy, prawa fizyki są najprostszym logicznie spójnym zbiorem praw, który

dopuszcza powstanie struktur samoreprodukujących się. Nie wydaje się jednak, aby nawet w tak

bardzo osłabionej wersji dało się tego dowieść. Jak przekonaliśmy się w rozdziale 4, istnieją

światy kreowane przez automaty komórkowe, w których możliwa jest samoreprodukcja struktur,

przy czym reguły definiujące te światy są tak proste, że trudno wręcz sobie wyobrazić, aby prawa

fizyki w ostatecznej teorii unifikacji mogły być prostsze.

Zajmijmy się teraz poważniejszym problemem dotyczącym tezy o jedyności

Wszechświata, którego się na ogół nie zauważa. Nawet gdyby okazało się, że prawa fizyki mogą

być tylko jedne, nie wynika z tego wcale, że wyznaczają one tylko jeden Wszechświat. Jak

podawałem w rozdziale 2, prawa fizyki muszą być rozpatrywane wspólnie z kosmicznymi

warunkami początkowymi. Jeden z możliwych układów warunków początkowych

zaproponowany został przez Hartle'a i Hawkinga; omówimy je pod koniec tego rozdziału.

Jakkolwiek może się on wydawać naturalny, jest to tylko jedna z nieskończenie wielu

możliwości. W obecnej koncepcji „prawa warunków początkowych” nie ma nic, co mogłoby w

najmniejszym stopniu sugerować, że tylko jakieś jedne konkretne warunki początkowe miałyby

być spójne z prawami fizyki. Wręcz przeciwnie. Sam Hartle dowodzi, że istnieją głębokie

zasadnicze powody, dlaczego prawa te nie mogą być wyznaczone jednoznacznie: „Konstruujemy

nasze teorie w ramach Wszechświata, a nie poza nim, i wprowadza to w nieunikniony sposób

pewne ograniczenia. Na przykład, warunki początkowe muszą być na tyle proste, aby dały się

one wyrazić w ramach samego Wszechświata”. Uprawiając naukę, wprawiamy materię w ruch.

Nawet samo myślenie wiąże się ze zmianami ruchu elektronów w naszym mózgu. Zmiany te,

choć bardzo niewielkie, mają wpływ na stan innych elektronów i atomów we Wszechświecie.

Hartle wyciąga stąd wniosek: „Wobec tego musi istnieć wiele układów warunków początkowych

niemożliwych do odróżnienia poprzez sam fakt, że o nich myślimy”.

background image

Inna łyżka dziegciu związana jest z tym, że świat na poziomie fundamentalnym ma naturę

kwantową, wraz z nieodłącznym jej indetenninizmem. Każda teoria pretendująca do miana Teorii

Wszystkiego musi to uwzględniać, co oznacza, że teoria taka mogłaby wyznaczać jednoznacznie

co najwyżej świat najbardziej prawdopodobny, od którego świat rzeczywisty różniłby się na

poziomie elementarnym na niezliczoną liczbę niemożliwych do przewidzenia sposobów.

Mogłoby się to także uwidaczniać w skali makroskopowej; na przykład pojedyncze zderzenie

cząstek może doprowadzić do powstania nowej mutacji jakiegoś gatunku, zmieniając bieg

ewolucji.

background image

Ład przygodny

Wydaje się zatem, że Wszechświat nie musi być taki, jaki jest: mógłby być inny. W

ostatecznym rachunku to właśnie założenie, że Wszechświat jest zarówno przygodny, jak i

poznawalny, jest motywacją dla badań empirycznych, bowiem gdyby nie był przygodny,

bylibyśmy w stanie poznać go wyłącznie na drodze logicznej dedukcji; a gdyby nie był

poznawalny, nauka w ogóle nie byłaby możliwa. „To właśnie połączenie przygodności i

poznawalności - pisze filozof Ian Barbour - motywuje nas do poszukiwania nowych,

nieoczekiwanych form racjonalnego porządku”. Barbour wskazuje, że przygodność świata ma

poczwórny aspekt. Po pierwsze, same prawa fizyki, jak wszystko na to wskazuje, nie są

konieczne. Po drugie, kosmologiczne warunki początkowe mogły być inne. Po trzecie, jak wiemy

z mechaniki kwantowej, „Pan Bóg gra w kości” - to znaczy, zjawiska na poziomie

fundamenalnym przyrody mają charakter statystyczny. I w końcu mamy fakt, że Wszechświat

rzeczywiście istnieje. Ostatecznie, niezależnie od tego, jak znakomite teorie byśmy tworzyli, nie

jest wcale powiedziane, że świat odpowiadający tym teoriom musi istnieć. Stephen Hawking

zwraca szczególną uwagę właśnie na ten aspekt: „Czemu Wszechświat zadaje sobie w ogóle trud

istnienia? - pyta. - Co wypełnia równania życiem, powołując do istnienia Wszechświat, który

opisują?”.

Moim zdaniem jest jeszcze piąty typ przygodności, z którym mamy do czynienia w

prawach „wyższego poziomu”, odnoszących się do własności samoorganizacji układów

złożonych. Co rozumiem pod pojęciem takich praw, omówiłem wyczerpująco w książce The

Cosmic Blueprint, więc ograniczę się tu do kilku przykładów. Wspominałem już o prawach

genetyki Mendla, które, jakkolwiek w pełni zgodne z prawami fizyki, nie mogą być jednak

wyprowadzone wyłącznie na ich podstawie. Podobnie różnego typu prawa i regularności,

występujące w układach chaotycznych lub układach samoorganizujących się, uwarunkowane są

nie tylko prawami fizyki, ale i konkretnym charakterem danego układu. W wielu przypadkach

efektywne zachowanie się układu zależy od przypadkowych fluktuacji na poziomie

mikroskopowym, a zatem praktycznie musimy taki układ uznać za indeterministyczny. A zatem

te prawa i regularności wyższego poziomu zawierają istotne elementy przygodności niezależnie

od praw fizyki.

Najbardziej tajemniczą stroną przygodności jest nie tyle to, że świat mógłby być inny, niż

background image

jest, lecz to, iż panuje w nim przygodny ład. Najsilniej uwidacznia się w dziedzinie biologii,

gdzie konkretne formy organizmów żywych są bez wątpienia przygodne (łatwo mogłyby być

inne), a jednak w biosferze mamy do czynienia z wyraźnym, wszechobecnym ładem. Gdyby

elementy świata były bezładne, nieuporządkowane w żaden szczególny sposób, ich konkretny

układ i tak byłby zagadkowy. Jednakże fakt, że przygodne przymioty świata układają się

jednocześnie w pewne uporządkowane struktury, z pewnością kryje w sobie głęboki sens.

Kolejna niezwykle istotna cecha uporządkowanej przygodności świata związana jest z

istotą tego porządku, który konstytuuje racjonalną jedność kosmosu. Ponadto ten całościowy

porządek jest dla nas poznawalny. Czyni to całą zagadkę o wiele, wiele głębszą. Niemniej,

niezależnie od tego, co się za tym kryje, na tych własnościach świata opiera się cała nauka. „To

połączenie przygodności, racjonalności, wolności i stabilności Wszechświata - pisze Torrance -

sprawia, że jest on tak niezwykły, i nie tylko umożliwia badanie go w sposób naukowy, ale czyni

to wręcz naszym obowiązkiem. (...) Właśnie w oparciu o nierozerwalną więź pomiędzy

przygodnością a porządkiem w świecie, w naukach przyrodniczych mogło rozwinąć się to

charakterystyczne zespolenie teorii i empirii, które doprowadziło do największych postępów w

zdobywaniu przez nas wiedzy o otaczającym nas świecie”.

Zatem moim wnioskiem jest, że faktyczny kształt świata nie jest w żadnym stopniu

wymuszony; mógłby on równie dobrze być inny. W ten sposób ponownie stanęliśmy przed

problemem, dlaczego jest on taki, jaki jest. Czym można by uzasadnić jego istnienie i niezwykłą

postać?

Najpierw postaram się wykazać niesłuszność dość trywialnego uzasadnienia, jakie bywa

niekiedy proponowane. Jest to pogląd, że każdy element Wszechświata da się uzasadnić za

pomocą czegoś innego, a to z kolei z pomocą czegoś jeszcze innego, i tak dalej w

nieskończoność. Jak nadmieniłem w rozdziale 2, takim nieskończonym łańcuchem rozumowania

posługiwali się niektórzy zwolennicy teorii stanu stacjonarnego w oparciu o to, że w teorii tej

Wszechświat nie miał początku w czasie. Jednakże nie da się przyjąć nieskończonego łańcucha,

w którym każde ogniwo jest uzasadnieniem poprzedniego ogniwa, za rzeczywiste uzasadnienie

czegokolwiek, gdyż nadal pozostanie zagadką, dlaczego istnieje właśnie dane ogniwo, czy też

dlaczego istnieje w ogóle taki łańcuch. Leibniz przedstawił to dobitnie, zachęcając do

wyobrażenia sobie nieskończonego ciągu książek, z których każda kolejna kopiowana jest z

poprzedniej. Powiedzenie, że uzasadniliśmy w ten sposób pochodzenie ich treści, jest absurdalne.

background image

Nadal mamy pełne prawo zapytać, kto jest autorem.

Wydaje mi się, że jeżeli ktoś uparcie trzyma się zasady racji dostatecznej i żąda, aby świat

miał racjonalne uzasadnienie, to nie ma innej możliwości, jak poszukiwać tego uzasadnienia

gdzieś poza nim w sferze metafizyki, ponieważ, jak widzieliśmy, przygodny świat fizyczny nie

może uzasadnić sam siebie. Jakiego typu metafizyczna siła sprawcza byłaby zdolna do

stworzenia Wszechświata? Ważne jest, aby wystrzegać się naiwnego wyobrażania sobie Stwórcy

tworzącego w jakiejś chwili świat swą nadprzyrodzoną mocą, niczym magik wyciągający królika

z cylindra. Jak już wyczerpująco wyjaśniałem, stworzenie świata nie może polegać na samym

spowodowaniu Wielkiego Wybuchu. Potrzebne jest bardziej wyrafinowane, bezczasowe

rozumienie stworzenia, które, by użyć sformułowania Hawkinga, wypełnia równania życiem,

przemieniając to, co tylko możliwe, w coś, co istnieje naprawdę, stworzenie w sensie

kształtowania praw fizyki, które między innymi wyznaczają ewolucję czasoprzestrzeni.

Naturalnie teologowie twierdzą, że mocą sprawczą odpowiedzialną za istnienie świata jest

Bóg. Ale w jaki sposób miałoby to nastąpić? Jeśli wyobrażać sobie Boga jako nadprzyrodzony

umysł (czy też Myśl), zasadne jest określanie go jako osoby. Wszakże nie wszyscy teiści

podzielają tę ideę. Niektórzy wolą myśleć o Bogu jako o Bycie-w-sobie, bądź jako o Mocy

Stwórczej, aniżeli Myśli.

W istocie można jednak przyjmować, że czynnik stwórczy może mieć jeszcze inną

postać. Filozof John Leslie utrzymuje, że mogłaby tu wchodzić w grę „powinność etyczna”, idea,

która sięga swymi korzeniami jeszcze myśli Platona. Innymi słowy, Wszechświat istnieje,

ponieważ jest to dobre. „Wiara w Boga - pisze Leslie - przeradza się w wiarę, iż świat istnieje,

gdyż powinien istnieć”. Koncepcja ta wydaje się nieco dziwna. W jaki sposób „powinność

etyczna” miałaby stworzyć świat? Pamiętajmy jednak, że nie mówimy tutaj o stwarzaniu w

kauzalno-mechanicznym sensie, jak w przypadku budowniczego domu, lecz o „napełnianiu

życiem równań” wyrażających prawa fizyki, przekształcaniu tego, co tylko możliwe, w

rzeczywistość. Co mogłoby „napełniać życiem” w tym sensie? Z oczywistych względów nie

może to być żaden ze znanych obiektów materialnych. Jeśli w ogóle istnieje odpowiedź na to

pytanie, musiałoby to być coś bardzo abstrakcyjnego i niecodziennego. Nie ma żadnej logicznej

sprzeczności w przypisywaniu zdolności stwórczych wartościom etycznym lub estetycznym, lecz

nie ma też żadnej logicznej konieczności, aby to czynić. Leslie proponuje jednakowoż, iż może tu

chodzić o słabszy, pozalogiczny, sens konieczności: że „dobro” może jakoś zmuszone stworzyć

background image

świat, ponieważ jest to dobre.

Jeżeli ktoś nie zamierza porzucić idei, że świat nie może istnieć bez uzasadnienia, i jeżeli

dla wygody określimy to uzasadnienie mianem Boga (niezależnie od tego, czy mamy na myśli

osobę, moc stwórczą, powinność etyczną, czy też jakąś inną nie wymienioną dotąd jej

koncepcję), to pierwszym pytaniem, na jakie winien odpowiedzieć, jest: w jakim sensie można

powiedzieć, że Bóg ukstałtował prawa fizyki (i inne przygodne elementy świata)? Albowiem, by

określenie to mogło cokolwiek w ogóle znaczyć, Bóg musiał wybrać nasz świat spośród innych

możliwości. Musiał tu być jakiś element wolnej decyzji, odrzucenia innych możliwych światów.

Więc jaki to miałby być Bóg? Z założenia byłby On racjonalny. Nie miałoby sensu mówienie o

irracjonalnym Bogu; równie dobrze możemy przyjmować, że irracjonalny jest sam Wszechświat.

Powinien On być także wszechmocny. Gdyby Bóg nie był wszechmocny, to Jego moc musiałaby

być czymś ograniczona. Ale co mogłoby ograniczać moc Boga? Chcielibyśmy z kolei wiedzieć,

skąd wzięły się te ograniczenia i co określiło ich konkretną postać, mianowicie, co Bóg może i

czego nie może. (Zauważmy, że nawet wszechmocny Bóg podlegałby ograniczeniom

wynikającym z logiki; nie byłby w stanie stworzyć na przykład kwadratowego koła). Na mocy

analogicznego rozumowania, Bóg musiałby być doskonały, bo cóż mogłoby spowodować w Nim

jakieś niedoskonałości? Musiałby być również wszechwiedzący, to znaczy musiałby znać

wszystkie dopuszczalne logicznie alternatywne możliwości, aby był w stanie dokonać

racjonalnego wyboru.

background image

Najlepszy ze światów?

Leibniz przeprowadził powyższe rozumowanie szczegółowo, starając się udowodnić na

podstawie przesłanki o racjonalności kosmosu, że taki Bóg istnieje. Konkluzją jego rozumowania

było, że byt racjonalny, wszechmocny, doskonały i wszechwiedzący musiał nieodwołalnie

wybrać najlepszy z możliwych światów. Powód? Gdyby doskonały Bóg świadomie wybrał świat

mniej doskonały, to postąpiłby irracjonalnie. Żądalibyśmy uzasadnienia tego szczególnego

wyboru. Ależ jakież można by tu podać uzasadnienie?

Koncepcja, że nasz świat jest najlepszy z możliwych, do wielu ludzi nie przemawiała.

Leibniz (pod postacią doktora Panglossa) został okrutnie wykpiony w tej kwestii przez Woltera:

„O, doktorze Pangloss! Jeżeli to ma być najlepszy ze wszystkich możliwych światów, to jakżeż

muszą wyglądać te pozostałe?” Zarzuty pod jej adresem koncentrują się zazwyczaj na problemie

zła. Możemy sobie przecież wyobrazić świat, w którym, na przykład, nie ma zła ani cierpienia.

Czyż ów świat nie byłby lepszy?

Pomijając rozważania etyczne, może być także pewien sens fizyczny, w którym nasz

świat jest najlepszy z możliwych. Każdego uderza ogromne bogactwo i złożoność fizycznego

świata. Niekiedy może się wydawać, że przyroda wprost „wyszła z siebie”, aby wytworzyć

nietrywialny, wyrafinowany Wszechświat. Freeman Dyson próbował uchwycić tę właściwość w

podanej przez siebie zasadzie maksymalnej komplikacji: prawa przyrody i warunki początkowe

są takie, że dają w wyniku Wszechświat możliwie najbardziej zróżnicowany. „Najlepszy”

rozumiane jest w tym przypadku jako „najbogatszy” w sensie największej różnorodności i

złożoności układów fizycznych. Cała sztuka polega na tym, aby ująć to jakoś w ścisły,

matematyczny sposób.

Ostatnio fizycy teoretyczni Lee Smolin i Julian Barbour podali wyimaginowany przykład,

jak to można by osiągnąć. Założyli oni,że istnieje jakieś fundamentalne prawo przyrody, które

powoduje, iż Wszechświat dąży do stanu maksymalnej różnorodności. Oznacza to, że jego

elementy układają się tak, aby doprowadzić do możliwie największego zróżnicowania, które

należałoby ściśle zdefiniować. Leibniz twierdził, że świat wykazuje największą różnorodność,

gdy podlega największemu uporządkowaniu. Brzmi to ładnie, jednak znaczy niewiele, dopóki nie

zdefiniuje się tego jasno w sposób matematyczny. Smolin i Barbour podejmują się to uczynić,

aczkolwiek w skromnej skali, definiując „różnorodność” dla najprostszego z możliwych do

background image

pomyślenia systemów: układu kropek połączonych ze sobą liniami, przypominającego schemat

połączeń lotniczych na mapie. Matematycy nazywają to „grafem”. Kropki i linie nie muszą

odpowiadać żadnym rzeczywistym obiektom w rzeczywistej przestrzeni, po prostu reprezentują

pewne abstrakcyjne związki, które mogą być rozpatrywane same w sobie. Jasne jest, że mogą być

grafy proste i grafy skomplikowane, w zależności od tego, jak poprowadzimy linie wewnątrz

nich. Możliwe jest znalezienie grafu, którego układ, widziany z wszystkich jego punktów

(kropek), będzie, w dobrze określonym sensie, najbardziej skomplikowany. Cały chwyt polega na

odniesieniu tego do rzeczywistego świata. Co miałoby odpowiadać kropkom i liniom grafu?

Smolin i Barbour sugerują, by były one abstrakcyjnymi odpowiednikami cząstek w

trójwymiarowej przestrzeni, a pojęcia takie, jak odległości wzajemne między cząstkami,

wynikałyby w naturalny sposób ze stosunków wewnątrz grafu. Na tym etapie idea ta wydaje się

dość mało konkretna, niemniej pokazuje to, jakimi drogami podążają teoretycy, aby poszerzyć

swoje horyzonty przy zgłębianiu istoty praw fizyki.

Można też sobie wyobrazić odmienne formy optymalnego wyboru, inne sposoby, na jakie

nasz świat mógłby być najlepszy z możliwych. Wspominałem już, że prawa fizyki można

potraktować jako kosmiczny kod, zaszyfrowany „komunikat” ukryty pod powierzchnią danych

obserwacyjnych. John Barrow snuł przypuszczenia, że konkretne prawa obowiązujące w naszym

Wszechświecie mogą odpowiadać kodowaniu optymalnemu pod jakimś względem. Znaczna

część tego, co naukowcom wiadomo w zakresie kodowania i przesyłania informacji, wywodzi się

z pionierskich prac Claude'a Shannona prowadzonych podczas drugiej wojny światowej, którego

książka o teorii informacji stała się pozycją klasyczną. Jednym z problemów, jakimi zajmował się

Shannon, był wpływ szumów w kanale przesyłowym na przesyłany komunikat. Wszyscy wiemy,

w jakim stopniu zakłócenia na linii telefonicznej mogą utrudnić prowadzenie rozmowy: ogólnie

mówiąc, szumy powodują stratę informacji. Niemniej można obejść ten problem poprzez

zakodowanie komunikatu z odpowiednią redundancją. Na tej zasadzie działają niektóre z

nowoczesnych systemów telekomunikacyjnych. Barrow rozciąga tę ideę na prawa przyrody. W

końcu, nauka jest swoistym dialogiem z przyrodą. Przeprowadzając eksperymenty, w pewnym

sensie zadajemy przyrodzie pytania. Co więcej, w odpowiedzi nie otrzymujemy informacji w

czystej postaci; zawiera ona przeróżne „szumy”, zwane błędami eksperymentalnymi, które

powodowane są przez wiele czynników. Ale, jak podkreślałem, przyroda nie przekazuje nam

informacji otwartym tekstem, lecz w postaci kodu. Teza Barrowa zasadza się w tym, że ten

background image

„kosmiczny kod” ma być może taką strukturę, by umożliwiać optymalny przekaz informacji

zgodnie z teorią Shannona: „Aby zrealizować tę obietnicę dowolnie wysokiej wierności

przekazywania sygnałów, informacja musi zostać zakodowana w szczególny sposób. (...) W

przedziwny metaforyczny sposób Przyroda wydaje się być »zaszyfrowana« w takiej właśnie

optymalnej postaci”. Mogłoby to wyjaśniać, dlaczego udaje nam się złamać ten kod przyrody i

odkryć jej ogólne prawa.

Optymalnością innego typu, odnoszącą się do matematycznej postaci praw przyrody, jest

ich często wymieniana prostota. Einstein podsumował to pisząc: „Dotychczasowe doświadczenia

uzasadniają naszą wiarę, że przyroda realizuje najprostsze z możliwych do pomyślenia idei

matematycznych”. Z pewnością jest to intrygujące. „Zagadkę stanowi już samo to, iż świat

można opisać za pomocą matematyki - pisze Barrow - ale to, że jest to w miarę prosta

matematyka, którą jesteśmy w stanie opanować w ciągu zaledwie kilku lat wytężonych studiów,

jest doprawdy tajemnicą wewnątrz tej zagadki”. Czyżbyśmy więc naprawdę żyli w świecie

najlepszym z możliwych w tym sensie, iż da się najprościej opisać matematycznie? Wcześniej w

tym rozdziale podawałem powody, dlaczego sądzę, że nie. A może w najprostszym możliwym

świecie, który dopuszcza istnienie złożonych układów biologicznych? I w tym przypadku, jak

wyjaśniałem, odpowiedź, moim zdaniem, jest negatywna, jakkolwiek jest to przynajmniej

hipoteza podatna na badanie w sposób naukowy. Możemy wypisać równania fizyki,a następnie

pomajstrować trochę przy nich, by się przekonać, jaki to da efekt. W ten sposób teoretycy

konstruują sztuczne modelowe światy, by sprawdzić matematycznie, czy możliwe byłoby w nich

życie. Badaniom nad tym zagadnieniem poświęcono wiele wysiłku. Większość badaczy dochodzi

do wniosku, że istnienie układów złożonych, zwłaszcza układów biologicznych, jest w znacznym

stopniu zależne od kształtu praw fizyki i w niektórych przypadkach nawet ich minimalne zmiany

są w stanie zniweczyć szansę powstania życia, przynajmniej w znanej nam postaci. Nosi to

nazwę Zasady Antropicznej, ponieważ wiąże nasze istnienie jako obserwatorów Wszechświata z

jego prawami i warunkami początkowymi. Powrócę do tego zagadnienia w rozdziale 8.

Oczywiście, żądanie, aby prawa dopuszczały powstanie świadomych form życia, jest w

każdym razie dość szowinistyczne. Szczególność praw może być różnego rodzaju; mogą one na

przykład posiadać rozmaite matematyczne własności, których dotychczas nie poznaliśmy. Może

rzeczywiste prawa odpowiadają maksymalnym lub minimalnym wartościom jakichś nie znanych

jeszcze wielkości. Tego po prostu nie wiemy.

background image

Piękno jako wskaźnik prawdy

Do tej pory zajmowałem się aspektami matematycznymi. Ale może nasze prawa

wyróżniają się w jakiś inny, bardziej wyrafinowany sposób, na przykład pod względem

estetycznym. Wśród naukowców rozpowszechnione jest przekonanie, że piękno może prowadzić

do prawdy, i wiele odkryć w fizyce teoretycznej zostało dokonanych przez fizyków stawiających

nowej teorii wymóg matematycznej elegancji. Niekiedy, gdy przeprowadzenie testów

laboratoryjnych nastręcza nazbyt wielkie trudności, takie estetyczne kryteria mogą odgrywać

nawet większą rolę niż eksperymenty. Gdy Einstein omawiał raz test eksperymentalny swojej

ogólnej teorii względności, zapytano go, co by uczynił, gdyby eksperyment ten dał wyniki

niezgodne z teorią. Możliwość ta bynajmniej nie zbiła go z tropu. „Tym gorzej dla eksperymentu

- odparł. - Teoria jest słuszna!” Paul Dirac, fizyk-teoretyk, którego rozważania natury estetycznej

doprowadziły do znalezienia bardziej eleganckiego pod względem matematycznym równania

opisującego elektron, które później pozwoliło efektywnie przewidzieć istnienie antymaterii,

podzielając ten pogląd wyraził się, że „ważniejsze, aby równania odznaczały się pięknem, niż by

odpowiadały wynikom eksperymentów”.

Elegancja matematyczna jest pojęciem, które trudno wytłumaczyć komuś nie

obeznanemu z matematyką, niemniej jednak wielce cenioną przez uczonych. Jednakże, jak

wszelkie oceny wartości estetycznych, ma ona charakter wysoce subiektywny. Nikt dotąd nie

wynalazł „wzorca piękna”, który pozwoliłby na mierzenie wartości estetycznych bez

odwoływania się do człowieka oceniającego je. Czyż można rzeczywiście twierdzić, że pewne

formy matematyczne są same w sobie piękniejsze od innych? Być może nie. Wtedy staje się

bardzo dziwne, że piękno może decydować o wyborze teorii w nauce. Czemu prawa przyrody

wydają się ludziom piękne? Nie ulega wątpliwości, że w kształtowaniu poczucia piękna u

człowieka odgrywają rolę przeróżne czynniki biologiczne i psychologiczne. Nic zatem

zaskakującego w tym, że na przykład wszystko, co przypomina kobietę, jest pociągające dla

mężczyzn, a płynne linie wielu pięknych rzeźb, obrazów i budowli architektonicznych

niewątpliwie rodzą takie skojarzenia. To, co przyjemne dla oka i ucha, może być podyktowane

budową i sposobem funcjonowania mózgu. Być może muzyka w jakiś sposób odzwierciedla

rytmy encefalograficzne. Tak czy owak, jest w tym jednak coś dziwnego. Jeżeli piękno jest

pojęciem uwarunkowanym biologicznie, mającym znaczenie dla przetrwania gatunku ludzkiego,

background image

z tym większym zaskoczeniem przyjmujemy, że pojawia się ono w ezoterycznym świecie

fundamentalnych praw fizyki, które nie mają żadnego bezpośredniego odniesienia do biologii. Z

drugiej strony, jeżeli piękno to coś więcej niż czysta biologia, jeżeli kontemplacja piękna polega

na docieraniu do czegoś głębszego, jakiejś istotnej warstwy rzeczywistości, to jest z pewnością

faktem o dużym znaczeniu, iż to „coś” miałoby się odbijać w fundamentalnych prawach

Wszechświata.

W rozdziale 6 opisywałem, jak wielu wybitnych uczonych wyrażało poczucie, że czerpią

inspirację z jakiegoś myślowego kontaktu z platońską dziedziną form matematycznych i

estetycznych. Szczególnie Roger Penrose wiarygodnie przedstawia owo „wtargnięcie” twórczego

umysłu w dziedzinę idealną i bezpośredni ogląd form matematycznych, które są w jakimś sensie

piękne. W istocie uważa on piękno za decydujący czynnik, którym kierował się w większości

swoich badań matematycznych. Może to być zaskakujące dla czytelników, którzy mieli wizję

matematyki jako bezosobowej, zimnej, oschłej i rygorystycznej dyscypliny. Lecz, jak wyjaśnia

Penrose: „Ścisły dowód stanowi zwykle dopiero ostatni etap. Wcześniej prowadzi się

poszukiwania na drodze intuicyjnej i względy estetyczne odgrywają wtedy niezmiernie ważną

rolę”.

background image

Czy Bóg jest bytem koniecznym?

Dwoje oczu ma czlowiek

Jedno widzi rzeczy marne które czas pochłania

Drugie zaś

To co boskie i wieczne

Księga Angelusa Silesiusa

Odchodząc od pytania, czy i w jakim sensie możemy uznać, że żyjemy w najlepszym z

możliwych światów, stajemy przed jeszcze głębszym problemem. Ujmując rzecz prosto: jeżeli

świat ma swoje uzasadnienie i tym uzasadnieniem nie może być on sam, to musi nim być jakiś

byt wobec świata zewnętrzny, np. Bóg. Lecz co z kolei stanowi uzasadnienie Boga? Ta stara

zagadka „kto stworzył Boga” grozi popadnięciem w nieskończony ciąg uzasadniania. Jak się

wydaje, można temu zapobiec jedynie przez przyjęcie, że Bóg „uzasadnia się sam”, co oznacza,

iż jest On bytem koniecznym w sensie logicznym, co wyjaśniałem na początku tego rozdziału.

Ściślej mówiąc, jeśli Bóg ma stanowić rację dostateczną świata, to wynika stąd, że sam musi być

bytem koniecznym, ponieważ gdyby był bytem przygodnym, to ciąg uzasadnień trzeba by

kontynuować, gdyż moglibyśmy postawić pytanie, jakie czynniki zewnętrzne determinują Boga i

jego naturę. Jednak czy pojęcie bytu koniecznego, bytu zawierającego w sobie rację swego

własnego istnienia, ma w ogóle sens? Wielu filozofów dowodziło, że idea ta jest sprzeczna lub

bezsensowna. Z pewnością ludzie nie są w stanie pojąć natury takiego bytu, lecz to nie oznacza

bynajmniej, że samo pojęcie bytu koniecznego jest wewnętrznie sprzeczne.

Zmagając się z pojęciem bytu koniecznego, można zacząć od postawienia pytania, czy w

ogóle istnieje coś, co zachodzi w sposób konieczny. Aby zaostrzyć nasz apetyt, na początek

rozważmy stwierdzenie: „Istnieje co najmniej jedno prawdziwe zdanie”. Nazwijmy je zdaniem

A. Czy A jest prawdziwe w sposób konieczny? Przypuśćmy, że twierdzę, iż A jest fałszywe.

Nazwijmy to zdaniem B: „A jest fałszywe”. Ale jeżeli A jest fałszywe, to B również, jako że B

jest zdaniem, a jeżeli A jest fałszywe, nie istnieje żadne zdanie prawdziwe. Tak więc A musi być

prawdziwe. Jest zatem logicznie niemożliwe, by nie istniały żadne zdania prawdziwe.

Jeżeli istnieją konieczne zdania, to pojecie bytu koniecznego nie jest już z góry

absurdalne. Tradycyjna koncepcja Boga w teologii chrześcijańskiej, rozwinięta w znacznej części

background image

przez św. Tomasza z Akwinu w trzynastym wieku, określa Go jako byt konieczny, bezczasowy,

doskonały i niezmienny, od którego świat jest całkowicie zależny w swym istnieniu, lecz który z

kolei zupełnie nie zależy od istnienia świata. Jakkolwiek taka wizja Boga jako ostatecznego

uzasadnienia świata zdaje się być wymuszona przez wymogi racjonalności, istnieją poważne

trudności z pogodzeniem jej z ideą przygodnego, zmiennego świata, a zwłaszcza świata, w

którym występują istoty obdarzone wolną wolą. Jak ujął to niegdyś ateistyczny filozof A.J. Ayer,

ze zdań koniecznych wynikają tylko zdania konieczne.

Ta niepokojąca sprzeczność trapiła zasadniczo myśl teologiczną Zachodu już od czasów

Platona. U Platona, jak widzieliśmy, samo pojęcie „racjonalności” związane było z istnieniem

abstrakcyjnego świata wiecznych, niezmiennych i doskonałych Idei, który stanowił dla niego

jedynie prawdziwą rzeczywistość. I w tej niezmiennej dziedzinie Platon umieścił najwyższy cel

poznania, Dobro. W przeciwieństwie do niej, dostępny bezpośrednio zmysłom świat rzeczy

materialnych nieustannie się zmienia. Powiązanie wiecznego świata Idei i przemijającego świata

materii stwarza zatem znaczne problemy. Jak wyjaśniałem w rozdziale l, Platon postulował

istnienie Demiurga, bytującego w czasie, który stara się kształtować materię jak najwierniej na

wzór Idei, lecz to naiwne usiłowanie pogodzenia tego, co zmienne, z tym, co Niezmienne,

jeszcze bardziej uzmysławia, jak poważny jest paradoks pojęciowy zawarty we wszelkich

próbach uzasadnienia przygodnego świata.

Ważne jest, aby zrozumieć, że paradoks ten nie jest jedynie technicznym problemem

pojawiającym się w dyskusjach teologicznych, lecz nieuchronną konsekwencją pewnych

racjonalnych metod uzasadniania. Kartezjusz i jego zwolennicy starali się osadzić nasze

doświadczenie świata na opoce intelektualnej pewności. Jeśli będziemy trzymać się tej tradycji,

to w naszych poszukiwaniach wiedzy pewnej nieuniknienie dojdziemy do systemów pojęć bez-

czasowych, takich jak matematyka i logika, ponieważ prawda rzeczywista z definicji nie zależy

od czasu. Rzetelność tych abstrakcyjnych dziedzin jest zapewniona przez to, że ich elementy

spojone są ze sobą pewnością koniecznego wynikania logicznego. Jednak sam świat

doświadczenia, na którego uzasadnieniu nam zależy, jest przygodny i zależny od czasu.

Napięcia wywołane tą sprzecznością pojawiają się w nauce równie często, jak w religii.

Widzimy je w nieustających trudnościach, w jakie wikłają się próby pogodzenia wiecznych praw

fizyki z istnieniem we Wszechświecie „strzałki czasu”. Widzimy je w zażartych debatach, jak

możliwy jest postęp w ewolucji biologicznej zachodzącej wskutek chaotycznych mutacji. I

background image

widzimy je w starciu paradygmatów, jakie towarzyszy najnowszym badaniom nad układami

samoorganizującymi się, które spotykają się z taką wrogością, że wskazuje to na jakieś głęboko

zakorzenione uprzedzenia kulturowe.

Oryginalnym wkładem myśli chrześcijańskiej w przezwyciężenie tego paradoksu jest

doktryna stworzenia ex nihilo, którą przedstawiłem w rozdziale 2. Była to śmiała próba wyrwania

się z logicznej pułapki przez zapostulowanie, aby pozaczasowy byt konieczny nadprzyrodzoną

mocą powoływał do istnienia (nie w sensie czasowym) świat materialny w wyniku wolnej

decyzji. Przez zadeklarowanie, że świat stworzony jest czymś innym niż Stwórca, czymś, czego

Bóg nie musiał stwarzać, lecz zdecydował się stworzyć, myśliciele chrześcijańscy uniknęli

zarzutów, na jakie narażona była alternatywna koncepcja świata jako emanacji Boga, w której

świat fizyczny wyłania się bezpośrednio z istoty Boga, dziedzicząc w ten sposób Jego konieczny

charakter. Zasadnicze znaczenie miało w tym przypadku wprowadzenie elementu boskiej Woli.

Wolna wola z definicji zakłada przygodność, ponieważ o wolnym wyborze możemy mówić tylko

wtedy, jeśli mógł on być inny. Zatem jeśli Bóg dysponował swobodą wyboru pomiędzy

alternatywnymi możliwymi światami, przygodność rzeczywistego świata znajduje swoje

uzasadnienie. Natomiast wymóg poznawalności jest spełniony poprzez przypisanie Bogu natury

racjonalnej, na mocy której jego decyzje również są racjonalne.

Może się wydawać, że osiągnięto w ten sposób pewien rzeczywisty postęp. Na pierwszy

rzut oka koncepcja stworzenia ex nihilo stanowi rozwiązanie paradoksu, w jaki sposób zmienny,

przygodny świat może być uzasadniony przez pozaczasowy byt konieczny. Niestety, mimo iż

całe pokolenia filozofów i teologów usiłowały nadać tej koncepcji spójny logicznie kształt, nie

udało się tego osiągnąć. Zasadniczą przeszkodę stanowi trudność wytłumaczenia, dlaczego Bóg

zdecydował się stworzyć ten, a nie inny, świat.

W przypadku wolnej woli u ludzi, ostateczny wybór zależy od ich wewnętrznej natury

Coz więc możemy powiedzieć o naturze Boga? Można przypuszczać, ze jest ona wyznaczona

przez to, ze Bóg jest bytem koniecznym Nie chcielibyśmy tu przywoływać możliwości, ze jest

wiele rożnych typów Boga, gdyż wtedy wprowadzanie pojęcia Boga me prowadziłoby do

niczego Zostalibyśmy z problemem, dlaczego istnieje ten konkretny Bóg, a me inny Cały sens

powoływania się na Boga jako byt konieczny polega na tym, ze jest On jedyny możliwy jego

natura me mogłaby być inna Lecz jeśli istota Boga wyznaczona jest przez jego konieczność, czy

był on w stanie stworzyć świat innym, mz jest? Tak mogłoby być tylko wtedy, gdyby stworzenie

background image

nie było aktem racjonalnego wyboru, lecz jakimś kaprysem, boskim odpowiednikiem rzutu

monetą Jednak w takim razie istnienie świata i tak ma charakter arbitralny, więc celowość

wprowadzania Boga staje się problematyczna.

Filozof Keith Ward przeprowadził szczegółową analizę sprzeczności pomiędzy konieczną

naturą Boga a przygodnym charakterem świata, streszczając jej istotę następująco:

Przede wszystkim, jeżeli Bóg jest naprawdę samoistny, jak wymaga tego aksjomat

racjonalności, jak doszło do tego, ze wogóle stworzył świat.

Wydaje się to czymś arbitralnym i

bezcelowym. Z drugiej strony, jeżeli Bóg jest naprawdę bytem koniecznym i niezmiennym, w

jaki sposób byłby w stanie podjąć wolną decyzję

?

Przecież wszystko, co czyni, czyni z

konieczności i bez żadnej możliwości wyboru. Nieusuwalny dylemat - albo akty Boga są

konieczne, a zatem nie wolne (nie mogłyby być inne), albo są one wolne, a zatem arbitralne (nic

nie może ograniczać wolnej woli Boga) - zabijał klina olbrzymiej większości chrześcijańskich

filozofów przez stulecia.

Problem polega na tym, ze cokolwiek byśmy zrobili, powracamy do tej samej

podstawowej trudności, ze byt czysto przygodny nie może powstać z bytu w pełni koniecznego.

Jeżeli Bóg jest stwórcą lub przyczyną przygodnego świata, to sam musi być przygodny i

istniejący w czasie, lecz jesli Bóg jest bytem koniecznym, to wszystko, co stwarza, musi być

stwarzane w sposób konieczny i niezmienny. Na tej opoce zasadzają się obydwie wersje teizmu.

Wymóg racjonalności pociąga za sobą istnienie bytu koniecznego, niezmiennego i wiecznego.

Stworzenie zdaje się wymagać Boga przygodnego, istniejącego w czasie, który oddziaływa ze

światem stworzonym, a zatem nie jest samoistnym bytem w sobie. Lecz jak to z sobą pogodzi?ć

I w innym miejscu:

Jak może byt, który jest konieczny i niezmienny, mieć zdolność uczynienia wszystkiego?

Jako konieczny, me może uczynić nic innego, mz czyni, jako niezmienny, nie może uczynić

niczego nowego ani oryginalnego. Nawet jeżeli stworzenie pojmować będziemy jako dokonujący

się poza czasem akt Boga, rzeczywista trudność nadal pozostanie, gdyż jako że Bóg jest w pełni

konieczny, będzie musiał to być akt konieczny, który pod żadnym względem nie mógłby być

inny. Pogląd ten kłóci się z zasadniczym motywem tradycji chrześcijańskiej, mianowicie, ze Bóg

nie musiał stwarzać świata i nie musiał stwarzać właśnie tego świata Jak może byt konieczny

odznaczać się jakąkolwiek wolnością

?

Taką samą tezę stawia Schubert Ogden.

background image

Teologowie zazwyczaj mówią nam, ze Bóg stworzył świat w akcie wolnej woli, jak

świadczy o tym przygodny, czyli wewnętrznie niekonieczny świat naszego doświadczenia.

Jednocześnie, trzymając się utartych założeń klasycznej metafizyki, mówią, ze boski akt

stworzenia wypływa z jego wiecznej istoty, która jest pod każdym względem konieczna i

wyklucza wszelką przygodność. Zatem, gdybyśmy chcieli potraktować ich słowa poważnie,

uznając obydwa twierdzenia za prawdziwe, popadniemy natychmiast w nierozwiązywalną

sprzeczność, ze całkowicie przygodny świat powstał w wyniku całkowicie koniecznego aktu

stworzenia.

Całe tomy zapisane zostały przez filozofów i teologów próbujących wydobyć się z tej

jaskrawej, uporczywej sprzeczności Z braku miejsca omówię tu jedynie jeden konkretny, dość

oczywisty sposób, w jaki można tego dokonać.

background image

Dwubiegunowy Bóg i chmura Wheelera

Jak widzieliśmy, Platon rozwiązał antagonizm konieczności i przygodności postulując

istnienie dwóch istot boskich Dobra i Demiurga, z których pierwsza była konieczna, a druga

przygodna. Być może da się spełnić wymogi monoteizmu przez pokazanie, że sytuację tę można

właściwie opisać jako istnienie w rzeczywistości dwóch komplementarnych aspektów jednego,

„dwubiegunowego”, Boga. Jest to stanowisko podzielane przez wyznawców kierunku znanego

pod nazwą „teologu procesu”.

Filozofia procesu jest próbą przedstawiania sobie świata nie jako zbioru ciał

materialnych, ani nawet zbioru zdarzeń, lecz procesu przebiegającego w określonym kierunku.

Zasadniczą rolę odgrywa zatem w niej upływ czasu i uznaje ona wyższość stawania się nad

byciem. W przeciwieństwie do sztywnego mechanistycznego obrazu świata, jaki wyłania się z

prac Newtona i jego następców, w filozofii procesu kładzie się nacisk na otwarty i

indeterministyczny charakter przyrody. Przyszłość nie zawiera się w teraźniejszości; zawsze

możliwy jest alternatywny rozwój wypadków. W ten sposób przyrodzie przypisana została

wewnętrzna wolność, jaka nie występowała w koncepcji świata-mechanizmu Laplace'a. Wolność

ta zostaje osiągnięta za cenę odejścia od redukcjonizmu; świat staje się czymś więcej niż prostą

sumą swoich elementów. Musimy porzucić pogląd, że układy fizyczne, takie jak kamienie,

chmury czy ludzie, nie są wyłącznie zbiorowiskami atomów, i uznać, że struktura rzeczywistości

ma wiele odrębnych poziomów. Człowieka, na przykład, bez wątpienia można rozpatrywać jako

zbiorowisko atomów, lecz zawiera on także szereg wyższych poziomów strukturalnych, których

ten prymitywny opis nie uwzględnia, a które odgrywają zasadniczą rolę w tym, co rozumiemy

pod pojęciem „osoby”. Przy traktowaniu układów złożonych jako hierarchii poziomów

strukturalnych proste widzenie przyczynowości jako dokonującej się wyłącznie „od dołu”,

począwszy od cząstek elementarnych oddziaływających ze sobą wzajemnie, musi ustąpić miejsca

bardziej wyrafinowanemu, wielopoziomowemu obrazowi, w którym wyższe poziomy mogą

także oddziaływać na niższe poziomy. Pozwala to wprowadzić do biegu spraw w świecie

elementy teleologii, czyli zachowań celowych. Filozofia prowadzi w naturalny sposób do

ekologicznego pojmowania świata jako wielkiego organizmu, przypominającego poglądy

kosmologiczne Arystotelesa, Ian Barbour uważa, że wizja rzeczywistości w filozofii procesu

wyraża się w poglądzie, że świat jest w większym stopniu społecznością niezależnych istot

background image

aniżeli zbiorowiskiem trybików w maszynie.

Jakkolwiek motywy przewodnie filozofii procesu zajmują poczesne miejsce w historii

filozofii, w nauce myślenie w kategoriach procesu stało się modne stosunkowo niedawno.

Powstanie mechaniki kwantowej na przełomie lat trzydziestych naszego stulecia położyło

definitywnie kres pojmowaniu świata na kształt deterministycznej maszyny, ale decydujący

wpływ miały tu dopiero najnowsze badania dotyczące chaosu, samoorganizacji i teorii systemów.

Zmusiły one badaczy do myślenia w coraz większym stopniu w kategoriach układów otwartych,

które nie są ściśle wyznaczone przez swoje części składowe, ponieważ pozostają także pod

wpływem swojego środowiska. Zazwyczaj układy otwarte o znacznym stopniu komplikacji są

bardzo czułe na oddziaływania zewnętrzne, co czyni ich zachowanie nieprzewidywalnym,

wprowadzając do nich w ten sposób pewien element wolności. Najbardziej zaskakujące było, że

układy otwarte mogą także zachowywać się w sposób uporządkowany, według określonych

prawidłowości, pomimo ich indeterministycznego charakteru i pozostawania na łasce wyraźnie

przypadkowych zaburzeń zewnętrznych. Najwyraźniej istnieją jakieś ogólne prawa strukturalne,

rządzące zachowaniem układów złożonych na wyższych poziomach organizacji, prawa, które

istnieją niezależnie od praw fizyki (które działają na najniższym poziomie poszczególnych

cząstek). Prawa te są niesprzeczne z prawami fizyki, lecz nie sprowadzają się do nich ani nie

mogą być z nich wyprowadzone. W ten sposób naukowcy doszli do ważnego pojęcia porządku

przygodnego. Bardziej wyczerpujące omówienie tej problematyki znajduje się w moich

książkach The Cosmic Blueprint i The Matter Myth.

Myślenie w kategoriach procesu zostało wprowadzone do teologii przez Alfreda Northa

Whiteheada, matematyka i filozofa, który wspólnie z Bertrandem Russellem napisał wpływowe

dzieło Principia Mathematica. Whitehead wysunął tezę, że świat fizyczny stanowi wzajemnie

połączony system tego, co nazwał „zaktualizowanymi możliwościami”. Są one czymś więcej niż

po prostu zdarzeniami, gdyż cechuje je wolność i zdolność uczenia się, które nie występowały w

mechanistycznej wizji świata. Rdzeniem filozofii Whiteheada jest to, że Bóg jest sprawcą

porządku w świecie, lecz nie działając bezpośrednio, lecz poprzez stworzenie różnych

możliwości, które świat fizyczny aktualizuje potem według własnego uznania. W ten sposób

Bóg, nie naruszając zasadniczo otwartego i indeterministycznego charakteru świata, jest pomimo

to w stanie sprawiać, by podążał on ku dobru. O istnieniu takiego subtelnego, pośredniego

oddziaływania może świadczyć na przykład progresywny charakter ewolucji biologicznej oraz

background image

występująca w świecie tendencja do samoorganizowania się w coraz to bardziej różnorodne i

złożone struktury. Whitehead zastępuje w ten sposób monarchistyczną wizję Boga jako

wszechmocnego stwórcy władającego światem koncepcją Boga-współuczestnika procesów

twórczych zachodzących w świecie. Nie jest on już niezależnym i niezmiennym bytem w sobie,

lecz wpływa - i znajduje się pod wpływem - na rozwój wydarzeń postępujący w rzeczywistym

świecie fizycznym. Z drugiej strony, Bóg nie jest przy tym w pełni poddany strumieniowi czasu.

Zasadnicza natura i cele Boga pozostają niezmienne i wieczne. W ten sposób aspekty

pozaczasowego bytowania i zmienności w czasie zostają ze sobą pogodzone w ramach jednej

koncepcji.

Niektórzy utrzymują, ze pojęcie „dwubiegunowego” Boga również pozwala na

pogodzenie konieczności z przygodnością. Jednakże wiąże się to w tym przypadku z

porzuceniem wszelkiej nadziei, by Bóg mógł być prosty w swej boskiej doskonałości, jak

zakładał Tomasz z Akwinu. Keith Ward, na przykład, zaproponował model złożonej natury

Boga: niektóre jego elementy miałyby być konieczne, a inne przygodne. Taki Bóg, aczkolwiek

istniejący w sposób konieczny, poddany jest jednak wpływom świata stworzonego i własnych

działań stwórczych, przez co wprowadzony zostaje element otwartości czy tez wolności.

Przyznaję, ze sprawiło mi wielką trudność zrozumienie filozoficznych zawiłości

niezbędnych przy uzasadnianiu koncepcji dwubiegunowego Boga. Pomoc przyszła jednakże z

nieoczekiwanej strony od mechaniki kwantowej. Zrekapitulujmy raz jeszcze zasadnicze wnioski

wypływające z kwantowej zasady nieoznaczoności. Cząstka, na przykład elektron, nie może mieć

jednocześnie dokładnie wyznaczonego położenia i pędu. Można dokonać pomiaru położenia,

otrzymując jego dokładną wartość, lecz wtedy wartość pędu będzie całkowicie nieokreślona, i na

odwrót. W ogólnym przypadku dla danego układu kwantowego niemożliwe jest określenie z

góry, jaki wynik otrzyma się po przeprowadzeniu pomiaru można tylko podać wartości

prawdopodobieństwa otrzymania poszczególnych wartości. Zatem, jeżeli dokonuje się na takim

układzie pomiaru położenia, mamy do dyspozycji szereg możliwych wyników. Układ ten posiada

więc charakter niedeterministyczny - można powiedzieć, ze ma wolność wyboru spośród wielu

możliwości - i rzeczywisty wynik pomiaru jest czysto przygodny. Z drugiej strony, to

eksperymentator określa, czy pomiar będzie dotyczył położenia, czy pędu, a więc wybór

alternatywnych zbiorów wartości (to znaczy, czy to będzie zbiór możliwych wartości położenia,

czy wartości pędu) dokonywany jest przez czynnik zewnętrzny. Z punktu widzenia elektronu

background image

istniejące alternatywne możliwości są czymś koniecznym, a faktycznie zrealizowany wybór

czymś przypadkowym.

Aby uczynić to bardziej jasnym, pozwolę sobie przytoczyć znaną historię, pochodzącą od

Johna Wheelera. Pewnego dnia współpracownicy Wheelera zaproponowali mu grę w

dwadzieścia pytań, nie wtajemniczając go bliżej, o co im chodzi. Przypomnijmy, ze tradycyjna

gra polega na odgadnięciu przez jednego z grających uzgodnionego przez pozostałych

uczestników słowa, przy czym może on zadać co najwyżej dwadzieścia pytań, na które można

odpowiadać tylko tak-nie. Wheeler rozpoczął od standardowych pytań czy to jest duże? czy to

jest coś żywego? Z początku odpowiedzi padały szybko, później coraz wolniej, z coraz większym

wahaniem. W końcu spróbował zgadnąć „Czy to jest chmura?” Odpowiedź była twierdząca i

wszyscy wkoło wybuchnęli śmiechem. Koledzy ujawnili następnie Wheelerowi, że chcąc mu

spłatać figla, nie wybrali wcale żadnego słowa, lecz umówili się, iż będą udzielać odpowiedzi

czysto przypadkowych, byle tylko nie były sprzeczne z poprzednimi odpowiedziami. Mimo to

odpowiedzi te doprowadziły do rozwiązania. Rozwiązanie to oczywiście było przygodne, gdyż

nikt go z góry nie ustalał, lecz nie było całkiem arbitralne, po części wyznaczone było przez

pytania, które Wheeler zdecydował się zadać, a po części wynikało z czystego przypadku. W ten

sam sposób rzeczywistość odkrywana w procesie pomiaru kwantowego jest częściowo zależna

od tego, jakie pytania eksperymentator postawi przyrodzie (tzn czy będzie wyznaczał dokładne

położenie, czy dokładny pęd), a częściowo przez przypadek (tzn prawdopodobieństwo

otrzymania określonych wartości jako wyników pomiarów tych wielkości).

Powróćmy teraz do przykładu teologicznego. Z podobnym połączeniem przygodności i

konieczności mamy do czynienia w przypadku Boga, który w sposób konieczny wyznacza

alternatywne światy, jakie możliwe będą do realizacji, lecz pozostawia przyrodzie wolność co do

wyboru którejś z tych możliwości. W teologii procesu czyii się założenie, że alternatywne

możliwości są z konieczności ustalane tak, aby osiągnąć założony cel, tzn by kierowały czy też

wspomagały (pod innymi względami wolny) świat w ewolucji ku jakiemuś dobru. Jednakże to

ukierunkowywanie nie wyklucza otwartości. Dlatego świat nie jest ani całkowicie

zdeterminowany ani w pełni arbitralny, lecz, tak jak „chmura Wheelera”, stanowi ścisły związek

celowego wyboru i czystego przypadku.

background image

Czy Bóg może nie istnieć?

Argumentacja, z której wnioski rozpatrywałem dotychczas w tym rozdziale, nosi nazwę

kosmologicznego dowodu istnienia Boga. Dowód ten nie polega na wykazaniu, że istnienie Boga

jest koniecznością logiczną. Można sobie przecież wyobrazić, iż nie istnieje ani Bóg, ani świat,

albo że istnieje tylko świat, a nie Bóg. Na pierwszy rzut oka nie widać żadnej sprzeczności

logicznej w obydwu przypadkach. Zatem, nawet gdyby dało się wykazać, że pojęcie bytu

koniecznego ma sens, to nie wynikałoby z tego, że taki byt istnieje, a tym bardziej że musi

istnieć.

Historia teologii zna jednak próby udowodnienia, że nieistnienie Boga jest logiczną

niemożliwością. Argumentacja ta, znana jako „dowód ontologiczny”, pochodzi od św. Anzelma i

wygląda mniej więcej w ten sposób: Bóg z definicji jest najbardziej doskonałą z możliwych do

pomyślenia rzeczy. Z kolei coś, co realnie istnieje, jest z oczywistych względów bardziej

doskonałe niż sama myśl o tej rzeczy. (Detektyw, który naprawdę istniał, słynny Fabian ze Scot-

land Yardu, jest bardziej doskonały niż postać literacka, Sherlock Holmes). Dlatego też bóg

realnie istniejący jest bardziej doskonały niż bóg fikcyjny. Ale Bóg jest najbardziej doskonałym z

możliwych do pomyślenia bytów, więc wynika stąd, że musi istnieć.

Dowód ontologiczny sprawia wrażenie sztuczki logicznej i nie wygląda, aby był

użyteczny filozoficznie. W istocie jednak wielu filozofów w różnych okresach traktowało go

poważnie, w tym przez krótki czas nawet ateista Bertrand Russell. Niemniej jednak, ogólnie

rzecz biorąc, nawet wśród teologów nie znalazłoby się zbyt wielu chętnych do jego obrony.

Jeden problem z tym dowodem polega na traktowaniu istnienia jako własności przysługującej

rzeczy, podobnie jak masa i kolor. Porównujemy ideę boga-realnie-istniejącego z ideą boga-

który-nie-istnieje. Ale istnienie nie jest atrybutem, który można przypisać czemuś lub nie, jak

zwykłe własności fizyczne. Ma sens powiedzenie, że mam w kieszeni pięć małych monet i sześć

dużych, lecz cóż to miałoby znaczyć, gdybym powiedział, że mam tam pięć monet istniejących i

sześć nieistniejących?

Kolejnym problemem w przypadku dowodu ontologicznego jest wymóg, by Bóg stanowił

rację świata. Nie wystarczy, aby istniał byt logicznie konieczny, lecz nie posiadający żadnego

odniesienia do świata. Trudno sobie wyobrazić, aby byt przynależący do sfery czystej logiki

mógł uzasadniać przygodne własności świata. Dowód ontologiczny opiera się na tym, co

background image

filozofowie nazywają „zdaniami analitycznymi”. Zdanie analityczne to takie zdanie, którego

prawdziwość (lub fałszywość) wynika wyłącznie ze znaczenia terminów w nim występujących.

Zatem „Wszyscy kawalerowie są mężczyznami” jest zdaniem analitycznym. Zdania, które nie

należą do klasy zdań analitycznych, nazywamy „syntetycznymi”, ponieważ ustalają one związki

pomiędzy rzeczami nie powiązanymi na mocy samej definicji. I tak, w teoriach fizycznych

występują zawsze zdania syntetyczne, gdyż stanowią one wypowiedzi o faktach w przyrodzie,

które mogą być testowane empirycznie. Skuteczność matematyki w opisywaniu przyrody, a

zwłaszcza rządzących nią praw, może sprawiać wrażenie, jak się przekonaliśmy, niektórzy

faktycznie bronili takiej tezy), że w świecie nie istnieje nic oprócz matematyki, a matematyka z

kolei nie zawiera nic poza definicjami i tautologiami, tzn. zdaniami analitycznymi. Uważam ten

pogląd za duże nieporozumienie. Choćbyśmy nie wiem jak się starali, nie można wyprowadzić

zdania syntetycznego ze zdań analitycznych.

Do przeciwników dowodu ontologicznego należał Immanuel Kant. Utrzymywał on, że

jeśli mają istnieć sensowne twierdzenia metafizyczne, to muszą istnieć zdania, które są

koniecznie prawdziwe nie tylko na mocy samej definicji. Jak wspominałem już w rozdziale l,

Kant był przekonany, iż posiadamy jakąś wiedzę a priori. Tak więc Kant twierdził, że muszą

istnieć prawdziwie syntetyczne zdania a priori w przypadku każdego procesu myślowego

odnoszącego się do świata obiektywnego. Tego typu zdania aprioryczne byłyby z konieczności

prawdziwe, niezależnie od przygodnej charakterystyki świata, to znaczy, byłyby one prawdziwe

w każdym świecie. Niestety, filozofom do tej pory nie udało się znaleźć żadnych koniecznych

zdań syntetycznych a priori.

Jeśli nawet nie istnieją zdania syntetyczne konieczne, to może istnieją takie, które są

niemożliwe do zakwestionowania. Można sobie wyobrazić, że system takich zdań mógłby

posłużyć do uzasadnienia przygodnych własności świata, takich jak konkretna postać praw

fizyki. Niejednego by to zadowoliło. Fizyk David Deutsch twierdzi, że „zamiast próbować

otrzymać »coś z niczego«, czyli zdanie syntetyczne z analitycznego”, powinniśmy wprowadzić

na fundamentalnym poziomie fizyki zdania syntetyczne, „które trzeba i tak postulować, z

powodów leżących poza samą fizyką”. Dalej podaje przykład: Rzeczą, którą zawsze milcząco

zakładamy a priori przy konstruowaniu teorii fizycznych, jest to, ze teoria ta nie zabrania, by

dane procesy fizyczne zostały poznane i opisane przez ludzi. Żadne prawo fizyki, które jesteśmy

w stanie poznać, nie może samo w sobie zabraniać, abyśmy je poznali. Fakt, ze każde prawo

background image

fizyczne musi spełniać ten bardzo specyficzny warunek, jest syntetycznym zdaniem a priori, nie

dlatego, iż jest koniecznie prawdziwe, lecz dlatego, że nie możemy nie uznawać go za

prawdziwe, starając się poznać te prawa.

John Barrow również sugeruje, ze istnieją pewne prawdy konieczne dotyczące wszystkich

światów, w których istnieje obserwator. Przytacza on jako przykład różne wersje Zasady

Antropicznej, które starają się wykazać, ze organizmy biologiczne obdarzone świadomością

mogą powstać tylko we Wszechświecie, w którym prawa fizyki mają określoną szczególną

postać „Te »antropiczne« warunki wskazują na określone własności, jakie Wszechświat musi

posiadać a priori, a które są na tyle nietrywialne, ze można je uznać za syntetyczne. Zatem

syntetycznym a priori mógłby stać się konieczny wymóg, ze żadne poznawalne prawo fizyki,

wchodzące w skład »Tajemmcy Wszechświata«, nie może nam samo zabraniać możliwości,

abyśmy je poznali”.

Keith Ward uważa, ze pojęciu konieczności logicznej można by nadać szerszy sens

Weźmy na przykład zdanie „Nic nie może być jednocześnie całe zielone i czerwone” Czy jest to

zdanie koniecznie prawdziwe? Przypuśćmy, ze twierdzę, iż jest ono fałszywe. Moje stwierdzenie

nie jest w żaden oczywisty sposób wewnętrznie sprzeczne. Niemniej jednak jest ono

prawdopodobnie fałszywe we wszystkich możliwych światach, co nie jest równoważne, by było

ono logicznie sprzeczne w formalnym sensie. Założenie, ze to pierwsze zdanie jest prawdziwe,

jest, by użyć słów Deutscha, „czymś, co i tak założylibyśmy” Może stwierdzenie „Bóg nie

istnieje” należy właśnie do tej kategorii zdań, które wprawdzie nie są sprzeczne z żadnymi

aksjomatami jakiegoś systemu formalnej logiki zdań, lecz są fałszywe we wszystkich możliwych

światach.

Na koniec należałoby wspomnieć o zastosowaniu przez Franka Tiplera dowodu

ontologicznego do samego świata (a nie do Boga). Tipler próbuje ominąć zarzut, ze „istnienie”

nie jest własnością, poprzez zdefiniowanie tego pojęcia w szczególny sposób. Widzieliśmy w

rozdziale 5, jak Tipler utrzymywał, że światy symulacji komputerowych są dla istot bytujących w

takim symulowanym świecie równie realne, jak dla nas nasz świat. Wskazuje on, że program

komputerowy nie jest zasadniczo niczym innym, jak odwzorowaniem jednego zbioru znaków lub

liczb na inny zbiór. Można by zakładać, ze wszystkie możliwe odwzorowania, a zatem i

wszystkie możliwe programy komputerowe istnieją w jakimś abstrakcyjnym, platońskim sensie.

Wśród tych programów będzie wiele (prawdopodobnie nieskończenie wiele) takich, które

background image

realizują symulowane światy. Pytanie brzmi, które z tych możliwych symulacji komputerowych

odpowiadają „fizycznie istniejącym” światom. Używając sformułowania Hawkinga, które z nich

są wypełnione życiem? Tipler stawia tezę, ze wyłącznie te symulacje, „które są wystarczająco

złożone, by zawierać obserwatorów - istoty zdolne do myślenia i odczuwania - jako swoje

podsymulacje”, są tymi, które istnieją realnie, przynajmniej z punktu widzenia symulowanych

istot. Ponadto symulacje te istnieją w sposób konieczny jako konsekwencja logicznych

warunków związanych z operacjami matematycznymi zawartymi w odwzorowaniach. Zatem,

konkluduje Tipler, nasz Wszechświat (i wiele, wiele innych) musi istnieć w następstwie logicznej

konieczności.

background image

Alternatywne światy

Jakiż więc wniosek można wyciągnąć na zakończenie? Być może czytelnikowi kręci się

w głowie po tym naszym wypadzie w dziedzinę filozofii, autorowi również. Wydaje mi się, że

dowód ontologiczny jest próbą zmuszenia Boga do zaistnienia z niczego na mocy samej definicji,

która w ściśle logicznym sensie skazana jest na niepowodzenie. W wyniku czysto dedukcyjnego

rozumowania nie można otrzymać więcej, niż się doń włożyło. W najlepszym przypadku można

wykazać, ze jeśli byt konieczny jest możliwy, to musi istnieć Bóg nie mógłby istnieć jedynie,

gdyby pojęcie bytu koniecznego było sprzeczne wewnętrznie. Mogę się z tym zgodzić, lecz

poprzez dowód ontologiczny nie daje się wykazać w ścisły, formalny sposób niemożliwości, by

Bóg nie istniał. Z drugiej strony, gdyby dowód ontologiczny uzupełnić jednym lub kilkoma

dodatkowymi założeniami, to może okazałby się on skuteczny. A co jeśli na owe dodatkowe

założenia (które z konieczności byłyby zdaniami syntetycznymi) składały się jedynie warunki

umożliwiające racjonalne myślenie? Moglibyśmy wtedy wyciągnąć wniosek, że wobec istnienia

racjonalnego poznania bylibyśmy w stanie rzeczywiście udowodnić istnienie Boga mocą

czystego rozumu. Jest to na razie jedynie spekulacja, lecz na przykład Keith Ward jest

zdecydowany nie wykluczać takiej możliwości: „Nie jest absurdalnym przypuszczenie, że

poprzez analizę pojęć »doskonałości«, »bytu«, »konieczności« i »istnienia« dojdziemy do

przekonania, że możliwość ich sensownego zastosowania do świata może wymagać założenia

istnienia określonego bytu”.

A co z dowodem kosmologicznym? Jeżeli przyjmujemy, że świat jest przygodny, to

jednym z możliwych sposobów uzasadnienia jego istnienia jest postulowanie istnienia

transcendentnego Boga. Stajemy wtedy przed problemem, czy Bóg jest bytem koniecznym, czy

przygodnym. Gdyby Bóg był przygodny, czyż zyskalibyśmy cokolwiek na jego wprowadzeniu,

skoro z kolei jego własne istnienie i przymioty wymagałyby uzasadnienia? Możliwe jednak, że

tak. Mogłoby być tak, że hipoteza Boga pozwalałaby uprościć i ujednolicić opis rzeczywistości

poprzez „łączne” uzasadnienie wszystkich praw i warunków początkowych. Prawa fizyki

doprowadzałyby nas do pewnego punktu i poszukiwalibyśmy głębszego poziomu wyjaśnienia.

Na przykład filozof Richard Swinburne argumentował, iż prościej jest zakładać istnienie

nieskończonego umysłu, niż przyjmować jako goły fakt istnienie przygodnego Wszechświata. W

tym przypadku wiara w Boga stanowi w znacznym stopniu przedmiot indywidualnej preferencji i

background image

przyjmowana jest z powodu większej zdolności uzasadniania, a nie logicznego przymusu.

Osobiście również wolę, by istniał poziom uzasadniania głębszy niż prawa fizyki. To, czy na jego

określenie należy używać terminu „Bóg”, może być oczywiście przedmiotem dyskusji.

Alternatywą jest trzymanie się klasycznego stanowiska teistycznego, które głosi, że Bóg

jest bytem koniecznym, stwarzającym przygodny świat aktem swej wolnej woli. Znaczy to, iż

Bóg nie miał żadnego wyboru co do swego istnienia i przymiotów, lecz ma wybór w przypadku

stworzenia świata. Jak widzieliśmy, pogląd ten jest najeżony filozoficznymi trudnościami, które

można wszakże próbować przezwyciężyć. Większość proponowanych rozwiązań popada jednak

w labirynt lingwistycznych subtelności, jakimi różnią się poszczególne definicje „konieczności”,

„prawdy” i tym podobnych pojęć, z którego pewne z nich wyrywają się poprzez szczere uznanie,

że stoimy wobec tajemnicy. Ale dwubiegunowa koncepcja Boga, w której czyni się rozróżnienie

miedzy konieczną naturą Boga a Jego przygodnym działaniem w świecie, jakkolwiek można jej

zarzucić pewne skomplikowanie, jest najbliższa ominięcia tych problemów.

To, co wynika z takich analiz głośno i wyraźnie, to zasadnicza niemożliwość pogodzenia

całkowicie pozaczasowego, niezmiennego, koniecznego Boga z twórczym charakterem przyrody,

ze światem, który potrafi się zmieniać i ewoluować, tworząc coś rzeczywiście nowego, światem,

w którym istnieje wolna wola. W istocie nie można mieć obydwu rzeczy na raz. Albo Bóg

determinuje wszystko, łącznie ze swoim własnym postępowaniem, i wolna wola jest tylko

złudzeniem - „Predestynacja nie dopuszcza żadnych wyjątków”, pisał Tomasz z Akwinu - albo

istnieją rzeczy, nad którymi Bóg albo faktycznie nie ma władzy, albo się jej dobrowolnie zrzekł.

Zanim odejdziemy od problemu przygodności, należałoby coś powiedzieć o tak zwanej

hipotezie wielu światów. Zgodnie z tą koncepcją, która obecnie cieszy się znaczną popularnością

u pewnych fizyków, nie istnieje tylko jeden fizyczny świat, lecz ich nieskończona liczba.

Wszystkie te światy współistnieją ze sobą „równolegle”, przy czym każdy różni się od

pozostałych, choć niekiedy te różnice mogą być nieznaczne. Można sobie wyobrazić, że

wszystko urządzone jest w ten sposób, iż każda pomyślana możliwość zaktualizowana jest w

którymś ze światów spośród tej nieskończonej liczby. Jeżeli, na przykład, chcemy mieć świat, w

którym siła ciążenia jest proporcjonalna do odwrotności sześcianu, a nie odwrotności kwadratu

odległości, to znajdziemy i taki. Większość tych światów jest nie zamieszkana, ze względu na to,

że warunki fizyczne w nich panujące nie sprzyjają powstaniu organizmów żywych. Tylko te

światy, w których życie może się zrodzić i rozwinąć się w stopniu umożliwiającym powstanie

background image

istot obdarzonych inteligencją, zawierają obserwatora. Pozostałych nikt nigdy nie obserwuje.

Dany obserwator ma możliwość obserwacji tylko jednego konkretnego świata i nie zdaje sobie

bezpośrednio sprawy, że istnieją także inne światy. Dany konkretny świat byłby silnie

przygodny. Niemniej pytanie „Dlaczego właśnie ten świat?” traci na znaczeniu, jako że istnieją

wszystkie możliwe światy. Wszystkie światy wzięte razem nie miałyby już charakteru

przygodnego.

Hipoteza wielu światów nie wszystkich zadowala. Postulowanie istnienia nieskończonej

liczby nieobserwowanych i nieobserwowalnych światów tylko po to, by uzasadnić ten, który

obserwujemy,wydaje się zbytnim balastem. Prościej już postulować istnienie jednego

niewidzialnego Boga. Do tego wniosku dochodzi również Swinburn:

Postulując Boga postulujemy jeden byt o nieskomplikowanej naturze. (...) Postulując

rzeczywiste istnienie nieskończonej liczby światów, wyczerpujących miedzy sobą wszystkie

dopuszczalne logicznie możliwości (...) postulujemy złożoność i niezaaranżowany zbieg

okoliczności na niebotyczną skalę, przekraczającą wszelkie możliwości racjonalnego

uzasadnienia.

Hipoteza wielu światów nie spełnia kryteriów hipotezy naukowej, ponieważ nie można jej

sfalsyfikować: jakiego typu odkrycia mogłyby skłonić zwolennika wielu światów do zmiany

swych poglądów? W jaki sposób można by przekonać kogoś, kto zaprzecza że istnieją te inne

światy? Co gorsza, za pomocą tej hipotezy można uzasadnić wszystko, co się chce. Nauka staje

się zbędna. Nie potrzeba już więcej badać prawidłowości przyrody, ponieważ można je wyjaśnić

po prostu efektem selekcji, dzięki któremy jesteśmy w stanie żyć w świecie i obserwować go.

Ponadto jest coś głęboko niezadowalającego pod względem filozoficznym w tych wszystkich

światach, które nie są obserwowane. Parafrazując Penrose'a, cóż to znaczy, że istnieje coś, co nie

może być nigdy, nawet w zasadzie, obserwowane? Będę miał na ten temat więcej do

powiedzenia w następnym rozdziale.

background image

Bóg, który gra w kości

Przyznaję, że nie da się dowieść racjonalności świata. Z pewnością możliwe jest, że na

najgłębszym poziomie jest on absurdalny i musimy przyjmować istnienie i własności świata jako

gołe fakty, które mogłyby być równie dobrze zupełnie inne. Jednakże osiągnięcia metody

naukowej co najmniej pośrednio przemawiają na rzecz racjonalności przyrody. W nauce, jeżeli

jakieś rozumowanie okazuje się efektywne, stosujemy go tak długo, aż znajdziemy dla niego

kontrprzykład.

W mym własnym umyśle nie żywię najmniejszych wątpliwości, że argumenty

przemawiające za koniecznym charakterem świata są o wiele słabsze niż te, które przemawiają za

istnieniem bytu koniecznego, toteż osobiście byłbym skłonny wybrać tę drugą możliwość.

Niemniej jednak zdaję sobie także sprawę, że powiązanie tego pozaczasowego bytu koniecznego

ze zmiennym, przygodnym światem doświadczenia z omówionych przeze mnie powodów

nastręcza poważne trudności. Nie sądzę, aby trudności te były innej natury niż różne nie

rozwiązane dotychczas problemy, które i tak istnieją, dotyczące istoty czasu, wolnej woli i

pojęcia tożsamości osób. Nie jest też wcale dla mnie oczywiste, że postulowany w celu

zapewnienia racjonalności świata byt ma coś wspólnego z Bogiem osobowym, a tym bardziej z

Bogiem Biblii czy też Koranu.

Chociaż nie żywię żadnych wątpliwości, że przyroda jest racjonalna, jestem jednocześnie

zwolennikiem kosmosu twórczego z powodów, które wyłożyłem w mojej książce The Cosmic

Blueprint. I w tym przypadku nieuchronnie natykamy się na paradoksalną konieczność

pogodzenia bycia i stawania się, tego, co zmienne, i tego, co wieczne. Może to być dokonane

wyłącznie na drodze kompromisu, który nazywa się „stochastyczność”. Układ stochastyczny to,

ogólnie mówiąc, taki układ, który podlega nieprzewidywalnym, przypadkowym fluktuacjom. We

współczesnej fizyce stochastyczność stanowi zasadniczą cechę układów występujących w

mechanice kwantowej. Pojawia się ona również nieuchronnie w przypadku układów otwartych,

w których mamy do czynienia z chaotycznymi zaburzeniami zewnętrznymi.

We współczesnych teoriach fizycznych racjonalność przejawia się poprzez istnienie praw

o ustalonej matematycznej postaci, a element twórczy w tym, że prawa te mają zasadniczo postać

statystyczną. Używając raz jeszcze oklepanego powiedzenia Einsteina, Pan Bóg jednak gra w

kości. Istotnie, statystyczny charakter zdarzeń na poziomie atomowym i niestabilność wielu

background image

układów fizycznych względem małych fluktuacji sprawiają, że przyszłość pozostaje otwarta i nie

jest do końca wyznaczona przez teraźniejszość. W ten sposób możliwe staje się powstawanie

nowych form i układów, tak że świat dysponuje czymś na kształt wolności, pozwalającej mu na

rozwijanie się w nie spotykany dotąd sposób. Tak więc bliższy jest mi wewnętrznie duch

opisanej wcześniej w tym rozdziale filozofii procesu.

Zdaję sobie sprawę, że wprowadzenie do przyrody na poziomie fundamentalnym

stochastyczności oznacza częściowe odejście od zasady racji dostatecznej. Jeżeli przyroda

odznacza się prawdziwą stochastycznością, to wynik konkretnego „rzutu kostką” naprawdę nie

jest przez nic zdeterminowany, co równoważne jest przyznaniu,że w danym konkretnym

przypadku nie istnieją żadnej racje, dlaczego otrzymaliśmy ten a nie inny wynik. Pozwolę sobie

podać przykład. Wyobraźmy sobie elektron zderzający się z atomem. Mechanika kwantowa

mówi nam, że jest, na przykład, równe prawdopodobieństwo, że elektron ten odchyli się na lewo,

jak i na prawo. Jeżeli statystyczna natura zdarzeń na poziomie kwantowym jest rzeczywiście

czymś fundamentalnym, a nie wynika wyłącznie z naszej niewiedzy, to w przypadku, gdy

elektron faktycznie odchylił się na lewo, a nie na prawo, nie istnieje żaden powód, żeby tak się

stało.

Czy nie wprowadza się przez to do świata elementu irracjonalności? Einstein uważał, że

tak właśnie jest („Pan Bóg nie gra w kości!”). Dlatego nie pogodził się nigdy z myślą, iż

mechanika kwantowa miałaby stanowić pełny opis rzeczywistości. Ale co dla jednych jest

irracjonalnością, inni nazywają twórczością. A stochastyczność i anarchia to bynajmniej nie to

samo. Rozwój nowych form i układów podlega ogólnym zasadom powstawania struktur, które

wytyczają kierunek i skłaniają, a nie zmuszają, materię i energię, by rozwijały się na jeden z

wielu wyznaczonych z góry sposobów ewolucji. W mojej książce The Cosmic Blueprint użyłem

na określenie tych ogólnych tendencji terminu „predestynacja” dla odróżnienia od

„determinizmu” (w sensie, jaki nadawał mu Tomasz z Akwinu). Dla tych, którzy, tak jak

zwolennicy teologii procesu, chcą widzieć w twórczym rozwoju świata ukierunkowującą rękę

Boga w miejsce czystej spontaniczności, stochastyczność stanowi praktyczny środek do

urzeczywistniania boskich zamiarów. I nie ma żadnej potrzeby, by taki Bóg interweniował

bezpośrednio w przebieg ewolucji poprzez „zbieranie rozrzuconych kwantowych kości”, o czym

wspomniałem przelotnie w rozdziale 5. Wytyczanie kierunku może się dokonywać poprzez

(bezczasowe) prawa samoorganizowania się struktur i przepływu informacji.

background image

Można tu postawić zarzut, że jeżeli odejdzie się od zasady racji dostatecznej w jednym

miejscu, to można od niej odejść wszędzie. Jeżeli dany elektron „ot, tak sobie” ulega odchyleniu

na lewo, czy nie może być tak, że prawo powszechnego ciążenia czy też kosmiczne warunki

początkowe również zachodzą „ot, tak sobie”? Sądzę, że odpowiedź na to pytanie jest

negatywna. Stochastyczność właściwa fizyce kwantowej jest pod tym względem zasadniczo

odmienna. Warunek całkowitego nieuporządkowania lub czystej przypadkowości - „rzetelność”

kwantowej kości - narzuca sam z siebie silne ograniczenia. Jakkolwiek poszczególnych zdarzeń

kwantowych istotnie nie można przewidzieć, to zbiór wielu takich zdarzeń podlega prawom

mechaniki statystycznej. Można by rzec, iż w tym nieporządku jest porządek. Fizyk John

Wheeler podkreślał fakt wyłaniania się regularnego zachowania z pozornie całkowicie

nieregularnych fluktuacji kwantowych, ponieważ nawet chaos podlega pewnym statystycznym

prawidłowościom. Zasadnicze znaczenie ma to, że zdarzenia kwantowe tworzą zespół, który

możemy obserwować, natomiast prawa fizyki i warunki początkowe nie. Czymś innym jest

powiedzenie, że każde ze zbioru chaotycznych zdarzeń ma charakter czysto przypadkowy, a

czymś innym byłoby przypisywanie tego samego procesowi uporządkowanemu, jak prawo

fizyki. Dotychczas podczas tej naszej filozoficznej wyprawy zajmowałem się głównie

rozumowaniami logicznymi, niewiele miejsca poświęcając faktom empirycznym dotyczącym

świata. Dowód on-tologiczny i kosmologiczny same w sobie mogą jedynie wskazywać na

istnienie bytu koniecznego, który pozostaje wciąż pojęciem mglistym i abstrakcyjnym. Jeśli taki

byt istnieje, czy jesteśmy w stanie dowiedzieć się czegokolwiek o jego naturze na podstawie

badań świata fizycznego? Pytanie to wprowadza nas w krąg problematyki planowego charakteru

świata.

background image

Rozdział ósmy

ZAPROJEKTOWANY WSZECHŚWIAT

Ludzie zawsze byli pełni podziwu dla wyrafinowania, wspaniałości i misternej budowy

świata fizycznego. Ciała niebieskie regularnie przemierzające firmament, rytm pór roku,

struktura płatka śniegu, niezliczone rzesze żywych stworzeń tak doskonale przystosowanych do

swego otoczenia - wszystko to wydawało się zbyt uporządkowane, aby mogło być wyłącznie

wynikiem ślepego przypadku. Istnieje powszechna tendencja, by przypisywać obecność tego

niezwykłego ładu w świecie celowemu działaniu jakiejś istoty nadprzyrodzonej.

Powstanie nauki przyczyniło się do odkrycia dalszych cudów przyrody, tak że obecnie

poznaliśmy jej porządek od najgłębszych zakamarków atomu do najdalszych galaktyk. Nauka

dostarcza jednak także racji dla tego porządku. Nie potrzebujemy już dla uzasadnienia struktury

płatka śniegu czy też istnienia organizmów żywych odwoływać się do teologii. Prawa przyrody

pozwalają na to, by materia i energia same z siebie organizowały się w złożone formy i układy,

jakie widzimy wokół nas. Jakkolwiek przedwczesne byłoby twierdzenie, że naukowcy zrozumieli

do końca istotę tej samoorganizacji, nie widać zasadniczych przeszkód, by, przy danych prawach

fizyki, wszystkie znane układy fizyczne nie mogły być przekonywająco przedstawione jako

wynik normalnych procesów fizycznych.

Niektórzy wyciągają stąd wniosek, że nauka obdarła Wszechświat z wszelkiej tajemnicy i

celowości, a wewnętrzna złożoność świata fizycznego jest bądź to niezamierzonym przypadkiem,

bądź nieuniknioną konsekwencją bezdusznych praw. „Im bardziej Wszechświat staje się

zrozumiały, tym bardziej widać, że nie ma on sensu” - uważa fizyk Steven Weinberg. Biolog

Jacques Monod wtóruje temu ponuremu stwierdzeniu: „Dawne przymierze rozpadło się;

człowiek uświadomił sobie w końcu, iż stoi samotnie wobec nieprzyjaznego ogromu

Wszechświata, z którego wyłonił się na zasadzie czystego przypadku. Jego przeznaczenie ani

jego powinności nie są nigdzie określone”.

Jednak inni naukowcy wyciągają z tych samych faktów odmienne wnioski. Zgadzając się,

że porządek przyrody da się wyjaśnić za pomocą praw fizyki wraz z odpowiednimi kosmicznymi

warunkami początkowymi, uznają oni, że istnienie wielu z występujących we Wszechświecie

złożonych struktur i układów uwarunkowane jest szczególną postacią tych praw i warunków

background image

początkowych. W niektórych przypadkach wiązało się to z tak dokładnym doborem, że nawet

najmniejsza zmiana kształtu tych praw sprawiłaby, iż żadne struktury złożone by nie powstały.

Dokładne badania wykazały, iż rzeczywiste prawa wyjątkowo sprzyjają ukształtowaniu się

bogatych i zróżnicowanych struktur. Jeśli chodzi o organizmy żywe, to ich istnienie związane jest

z tak wielką liczbą korzystnych zbiegów okoliczności, że w opinii niektórych naukowców i

filozofów jest ona wręcz niewiarygodna.

background image

Jedność Wszechświata

Opinia typu „zbyt piękne, aby mogło być prawdziwe” dotyczy kilku różnych faktów.

Pierwszym z nich jest, że Wszechświat jest w ogóle uporządkowany. Równie dobrze mógłby być

on przecież chaotyczny na nieskończenie wiele sposobów. Mogłyby w nim nie istnieć żadne

prawa, bądź też mogłyby występować jedynie niespójne, luźne prawa, nie zapewniające żadnego

porządku ani stabilności. Albo też Wszechświat mógłby być skrajnie prosty, wręcz bez wszelkich

struktur, w którym na przykład nie występowałaby materia albo ruch. Można sobie także

wyobrazić Wszechświat, w którym warunki zmieniają się nieustannie w skomplikowany lub

chaotyczny sposób, bądź taki, w którym wszystko nagle przestaje istnieć. Wszystko wskazuje na

to, że idea takich niesfornych wszechświatów jest w pełni logicznie dopuszczalna. Niemniej

realny Wszechświat taki nie jest. Jest w znacznym stopniu uporządkowany i występują w nim

dobrze określone prawa fizyki i wyraźne związki przyczynowo-skutkowe. Prawa te działają

niezawodnie. By posłużyć się sformułowaniem Davida Hume'a, przyroda biegnie wciąż tym

samym jednostajnym trybem. Ten porządek przyczynowy nie wynika z logicznej konieczności;

stanowi on syntetyczną własność świata, i to taką, dla której możemy słusznie domagać się

uzasadnienia.

Prawidłowości występujące w fizycznym świecie nie mają charakteru arbitralnego; w

szczególny sposób układają się one w spójną całość. Jak wyjaśniałem w rozdziale 5,

Wszechświat zawieszony jest pomiędzy dwiema skrajnościami: prostymi symetrycznymi

strukturami (jak struktura kryształu) a chaotycznymi układami złożonymi (jak w przypadku

cząsteczek gazu). Świat jest niewątpliwie złożony, lecz jest to złożoność uporządkowana.

Posługując się technicznym określeniem, które wprowadziłem w rozdziale 5, można powiedzieć,

że struktury Wszechświata mają „głębokość”. Ta głębokość nie występowała we Wszechświecie

od samego początku, lecz kształtowała się później z pierwotnego chaosu w ciągu postępujących

procesów samoorganizacji, w wyniku których powstawały coraz to bogatsze i bardziej złożone

struktury. Nietrudno wyobrazić sobie świat, który, choć uporządkowany, nie zawierałby w sobie

czynników i warunków umożliwiających rozbudowanie struktur w głąb.

O szczególności porządku fizycznego świata możemy mówić w jeszcze innym sensie.

Chodzi o ogólną spójność i jedność przyrody oraz o sam fakt, że możemy w ogóle posługiwać się

prawomocnie pojęciem „Wszechświata” jako obejmującym wszystko, co istnieje. W świecie

background image

występują wprawdzie pojedyncze elementy i układy, lecz ich struktura jest taka, że wszystkie

razem tworzą jednolitą, spójną całość. Na przykład, oddziaływania w przyrodzie nie stanowią

luźnego zbioru zasadniczo odmiennych sił, lecz wpasowują się w jeden, wzajemnie się

wspomagający, system, nadający przyrodzie stabilność i harmonię, które trudno wyrazić

matematycznie, lecz są one oczywiste dla każdego, kto zajmuje się nauką. Tę właśnie cechę

świata starałem się uzmysłowić czytelnikowi poprzez analogię z krzyżówką.

Szczególnie zadziwiające jest, że parametry procesów zachodzących w skali mikroświata,

powiedzmy w fizyce jądrowej, są tak dobrane, iż prowadzą do różnorodnych isotnych zjawisk w

dużo większej skali, na przykład w astrofizyce. Tak więc przekonujemy się, że siła grawitacji

wraz z termodynamicznymi i mechanicznymi własnościami wodoru pozwala na tworzenie się

wiekiej liczby kuł gazowych. Kule te są wystarczająco duże, by w ich wnętrzu zostały

zapoczątkowane reakcje termojądrowe, lecz nie na tyle duże, by skolapsować od razu do stanu

czarnej dziury. Tak rodzą się stabilne gwiazdy. Wiele dużych gwiazd kończy swe życie w

spektakularny sposób, wybuchając jako tak zwane supernowe. Siła wybuchu w znacznej mierze

pochodzi od najbardziej nieuchwytnych cząstek elementarnych w przyrodzie - neutrin. Neutrina

praktycznie nie oddziaływają fizycznie: przeciętne kosmiczne neutrino bez trudu przeniknęłoby

przez warstwę ołowiu o grubości kilku lat świetlnych. A jednak te ulotne cząstki potrafią, w

ekstremalnych warunkach panujących we wnętrzu umierającej gwiazdy, zebrać się w sobie na

tyle, by być w stanie wyrzucić materię gwiazdową w przestrzeń. Szczątki te wykazują dużą

zawartość ciężkich pierwiastków, takich, z jakich zbudowana jest Ziemia. Zatem istnienie planet

podobnych do Ziemi, wraz z całym ich bogactwem form i układów, przypisać możemy

własnościom cząstki elementarnej tak ulotnej, że mogłaby nigdy nie zostać odkryta. Cykl

ewolucji gwiazd dostarcza jeszcze jednego przykładu przemyślnego, jak gdyby celowego,

współdziałania zjawisk fizycznych w dużej i małej skali, zmierzającego do większej złożoności

przyrody.

Oprócz takich ścisłych związków pomiędzy różnymi swymi aspektami, przyroda

odznacza się zadziwiającą jednorodnością. Prawa fizyki odkryte w laboratorium stosują się

równie dobrze do atomów w odległych galaktykach. Elektrony tworzące obraz na ekranie

naszych telewizorów mają dokładnie tę samą masę, ładunek i moment magnetyczny, jak

elektrony na Księżycu czy też na krańcu obserwowalnego Wszechświata. Ponadto własności te

nie wykazują najmniejszych zmian w czasie. Na przykład, moment magnetyczny elektronu

background image

potrafimy zmierzyć z dokładnością do dziesięciu miejsc po przecinku i mimo tak fantastycznej

dokładności nie stwierdzono żadnej zmienności. Wiele wskazuje na to, że podstawowe własności

materii nie zmieniają się, nawet w skali istnienia Wszechświata.

Oprócz jednorodności praw fizyki mamy także jednorodność i izotropowość

przestrzennego rozkładu Wszechświata. W dużej skali, materia i energia rozłożone są wyjątkowo

równomiernie, a Wszechświat wydaje się rozszerzać z tą samą szybkością w każdym miejscu i

we wszystkich kierunkach. Oznacza to, że obserwator żyjący w innej galaktyce widziałby w

dużej skali ten sam obraz Wszechświata co my. Z innymi galaktykami łączy nas wspólna

kosmografia i wspólna historia. Jak pisałem w rozdziale 2, kosmologowie próbowali wyjaśnić tę

jednorodność poprzez wprowadzenie tak zwanej hipotezy Wszechświata inflacyjnego, zgodnie z

którą Wszechświat gwałtownie zwiększył swoje rozmiary krótko po powstaniu. Spowodowałoby

to wygładzenie wszelkich istniejących początkowo nieregularności. Warto jednak zdać sobie

sprawę, że wyjaśnienie tej jednorodności za pomocą jakiegoś mechanizmu fizycznego w niczym

nie umniejsza jej szczególnego charakteru, gdyż nadal możemy zadawać pytanie, dlaczego prawa

przyrody są takie, iż ten mechanizm był możliwy. Ważne jest nie tyle to, w jaki sposób

Wszechświat osiągnął swą szczególną postać, lecz to, że jest właśnie taki, iż ją osiągnął.

I w końcu mamy jeszcze tak szeroko omawianą prostotę praw. Rozumiem przez to, że

prawa te wyrażają się funkcjami prostymi pod względem matematycznym (jak proporcjonalność

do odwrotności kwadratu odległości). I w tym przypadku możemy sobie wyobrazić światy, w

których występują wprawdzie regularności, lecz są one tak bardzo skomplikowane, że można je

opisać jedynie zawiłą kombinacją różnych matematycznych pojęć. Zarzut, że rozwijamy naszą

matematykę właśnie w taki sposób, by pozwalała na prosty opis świata, rozpatrzyłem w rozdziale

6. Osobiście uważam, że „niezrozumiała skuteczność” matematyki w opisywaniu rzeczywistości

wskazuje na to, iż prawidłowości, z jakimi mamy do czynienia w przyrodzie, są bardzo

szczególnego rodzaju.

background image

Życie jest takie trudne

Próbowałem wykazać, że istnienie uporządkowanego, spójnego Wszechświata,

zawierającego stabilne złożone struktury o wysokim stopniu wewnętrznej organizacji, wymaga

praw i warunków bardzo szczególnego rodzaju. Wszystko wskazuje na to, że nasz Wszechświat

jest nie tylko wszechświatem starym, lecz i takim, który jest specjalnie dostosowany, aby mogły

w nim istnieć pewne obiekty o istotnym znaczeniu (np. stabilne gwiazdy). W rozdziale 7

pokazywałem, jak Freeman Dyson i inni badacze nadali temu przypuszczeniu bardziej formalną

postać zasady maksymalnego zróżnicowania.

Sytuacja staje się jeszcze bardziej intrygująca, jeżeli weźmiemy pod uwagę istnienie

organizmów żywych. Fakt, że układy biologiczne wymagają do swego rozwoju bardzo

szczególnych warunków i warunki te są na szczęście spełnione w przyrodzie, był komentowany

bodajże od siedemnastego stulecia. Jednakże dopiero w dwudziestym wieku, wraz z rozwojem

biochemii, genetyki i biologii molekularnej, można było potwierdzić to szczegółowo. Już w 1913

roku wybitny biochemik z Harvardu Lawrence Ander-son pisał: „Własności materii i przebieg

ewolucji kosmosu widziane są obecnie jako pozostające w bliskich związkach z budową

organizmów żywych i ich funkcjonowaniem; (...) biolog ma teraz pełne prawo uważać, że

Wszechświat w istocie swej jest biocentryczny”. Henderson doszedł do tego zaskakującego

wniosku na podstawie swych prac nad regulacją kwasowości i alkaliczności w organizmach

żywych, obserwując sposób, w jaki regulacja ta istotnie zależy od dość szczególnych własności

pewnych związków chemicznych. Duże wrażenie wywarła też na nim rola wody, z jej szeregiem

anomalnych własności, w powstaniu i podtrzymywaniu życia. Gdyby te substancje nie istniały

lub gdyby nie miały tych szczególnych własności, to życie (przynajmniej w znanej nam postaci)

nie mogłoby się rozwinąć. Henderson uważał, że to „przystosowanie środowiska” do rozwoju

życia jest zbyt znaczne, by można uznać je za sprawę przypadku, i starał się odgadnąć, jakiego

typu prawa mogłyby uzasadniać takie dopasowanie.

W latach sześćdziesiątych astronom Fred Hoyle zwrócił uwagę, że węgiel, pierwiastek,

którego własności chemiczne sprawiają, że jest on podstawą życia na Ziemi, produkowany jest z

helu we wnętrzu dużych gwiazd, a następnie ulega stamtąd wyrzuceniu podczas wybuchów

supernowych, o których wspominałem w poprzednim podrozdziale. Gdy Hoyle badał reakcje

jądrowe prowadzące do powstawania węgla w jądrach gwiazd, uderzył go fakt, że zasadnicza

background image

reakcja zachodzi jedynie dzięki wyjątkowo szczęśliwemu zbiegowi okoliczności. Jądra węgla

tworzą się w wyniku dość skomplikowanego procesu wymagającego jednoczesnego zderzenia

trzech szybkich jąder helu, które potem pozostają już złączone. Wskutek tego, iż zderzenia trzech

jąder są zdarzeniem rzadkim, reakcja może zachodzić z zadowalającą szybkością jedynie przy

pewnych określonych wartościach energii (zwanych „rezonansami”), przy których szybkość

reakcji ulega znacznemu zwiększeniu wskutek efektów kwantowych. Tak się szczęśliwie składa,

że jeden z tych rezonansów odpowiada mniej więcej wartościom energii, jakie mają jądra helu

we wnętrzu dużych gwiazd. Co ciekawe, Hoyle nie wiedział wtedy jeszcze o tym, lecz

przewidywał, że tak musi być, na podstawie faktu, iż węgiel jest w przyrodzie pierwiastkiem

bardzo rozpowszechnionym. Eksperymenty wykazały potem, że miał rację. Dokładne badania

ujawniły również inne „zbiegi okoliczności”, bez których ani produkcja, ani gromadzenie węgla

wewnątrz gwiazd nie byłyby możliwe. Ten „monstrualny ciąg przypadków” wywarł na Hoyle'u

takie wrażenie, że skłonił go do powiedzenia wręcz, że wygląda to tak, jak gdyby „prawa fizyki

jądrowej zostały celowo zaprojektowane pod kątem konsekwencji, jakie wywołują we wnętrzach

gwiazd”. W późniejszym okresie wielokrotnie wyjaśniał, że Wszechświat sprawia wrażenie

„podrasowanego”, jak gdyby ktoś coś „majstrował” przy prawach fizyki.

Powyższe przykłady są tylko jednymi z wielu. Od tego czasu zgromadzono już długą listę

dalszych „szczęśliwych przypadków” i „zbiegów okoliczności”. Jest ona w znacznej części

dziełem astrofizyków, Brandona Cartera, Bernarda Carra i Martina Reesa. Lista ta dostarcza

przekonującego dowodu, że życie w znanych nam formach zależy bardzo istotnie od konkretnej

postaci praw fizyki i od szeregu pozornie zupełnie przypadkowych zbieżności obranych przez

przyrodę wartości mas niektórych cząstek, siły oddziaływania, i tak dalej. Ponieważ przykłady te

zostały już wyczerpująco omówione w innych książkach, nie będę ich tutaj wyliczał. Powiem

tylko, że gdybyśmy wczuli się w rolę Boga i chcieli regulować wartości tych wielkości według

naszego uznania, ręcznie obracając mnóstwem pokręteł, szybko stwierdzilibyśmy, że przy prawie

wszystkich położeniach pokręteł otrzymalibyśmy Wszechświat, w którym życie nie byłoby

możliwe. W niektórych przypadkach, jak się wydaje, wzajemne położenie pokręteł musiałoby

zostać ustawione z ogromną dokładnością, aby doprowadzić do powstania życia. W swej książce

Cosmic Coincidences [Kosmiczne przypadki] John Gribbin i Martin Rees konkludują: „Warunki

panujące w naszym Wszechświecie naprawdę wydają się być jedynymi odpowiednimi dla

rozwoju form życia takiego jak nasze”.

background image

Truizmem jest stwierdzenie, że możemy obserwować jedynie Wszechświat pozwalający

na istnienie nas samych. Jak już wspominałem, związek pomiędzy istnieniem ludzkiego

obserwatora a prawami i warunkami Wszechświata stał się znany pod dość niefortunną nazwą

Zasady Antropicznej. W trywialnej, podanej powyżej formie Zasada Antropiczna nie stwierdza,

że prawa fizyki są w jakikolwiek sposób zmuszone przez nasze istnienie do przybrania formy,

jaką posiadają, ani też nie wynika z niej, iżby prawa fizyki zostały celowo zaprojektowane pod

kątem ludzi. Z drugiej strony, to, że nawet najmniejsze zmiany w porządku rzeczy pozbawiłyby

Wszechświat obserwatora, jest niewątpliwie faktem o ogromnym znaczeniu.

background image

Czy Wszechświat został zaprojektowany przez inteligentnego Stwórcę?

Już dawni filozofowie greccy uznawali, że ład i harmonia kosmosu wymaga uzasadnienia,

lecz pogląd, że własności te są dziełem Stwórcy realizującego założony plan, ukształtował się w

pełni dopiero z nadejściem ery chrześcijańskiej. W trzynastym wieku Tomasz z Akwinu

przedstawił ideę, że ciała w przyrodzie zachowują się tak, jak gdyby były prowadzone ku

określonemu celowi, „tak aby go jak najlepiej zrealizować”. Takie dopasowanie środków do celu

zakłada - twierdził Akwinata - czyjąś intencję. Lecz skoro ciała nie są obdarzone świadomością,

intencja ta nie może pochodzić od nich samych. „Zatem istnieje pewna inteligentna istota

kierująca wszystkie rzeczy ku ich celom; istotę tę nazywamy Bogiem”.

Argument Tomasza z Akwinu upadł w siedemnastym stuleciu wraz z rozwojem

mechaniki. Prawa Newtona dostarczają w pełni adekwatnego wyjaśnienia ruchu ciał

materialnych w kategoriach ich bezwładności i działających na nie sił, bez potrzeby odwoływania

się do nadprzyrodzonej intencji. W tym czysto mechanicznym obrazie świata nie było miejsca na

teleologię (przyczyny celowe). Racji określonego zachowania się ciał należy upatrywać w

bezpośrednich przyczynach fizycznych, tzn. siłach działających na nie lokalnie ze strony innych

ciał. Jednakże ta zmiana poglądów nie położyła całkowitego kresu idei, że świat musiał być

celowo zaprojektowany. Sam Newton, jak się przekonaliśmy, uważał, że Układ Słoneczny

wygląda na zbyt wymyślny, by mógł powstać wyłącznie w wyniku działania ślepych sił

przyrody: „Ten przepiękny układ, obejmujący Słońce, planety i komety, mógł powstać jedynie za

sprawą i pod przewodnictwem potężnej i inteligentnej Istoty”. Zatem nawet pozostając w ramach

mechanistycznego obrazu świata, można być zaintrygowanym porządkiem rzeczy materialnych

we Wszechświecie. Wielu uczonym nadal trudno było przypuścić, by wyrafinowany i

harmonijny porządek przyrody mógł być wynikiem czystego przypadku.

Pogląd ten został wyartykułowany przez Roberta Boyle'a, tego od prawa Boyle'a:

Niezwykła przemyślność wspaniałej konstrukcji świata, a zwłaszcza ciekawa budowa

organizmów zwierzęcych, funkcjonowanie ich aparatu zmysłowego i innych części ciała,

stanowiły podstawowe motywy skłaniające filozofów wszystkich epok i narodów do uznawania

Istoty Boskiej za twórcę tych cudownych struktur.

Boyle wprowadził słynne porównanie świata do mechanizmu zegara, które najpełniej

wyraził teolog William Paley w osiemnastym wieku. Wyobraźmy sobie, dowodził Paley, że

background image

„wędrujemy po pustkowiu” i nagle znajdujemy leżący na ziemi zegarek. Dokładnie go oglądając,

stwierdzamy wymyślny charakter części jego mechanizmu i to, że są one ułożone tak, aby ze

sobą współdziałając, służyły jakiemuś ogólnemu celowi. Nawet gdybyśmy nigdy w życiu nie

widzieli zegarka i nie mieli pojęcia o jego działaniu, to na podstawie tego oglądu doszlibyśmy do

wniosku, że jest to jakieś celowo zaprojektowane urządzenie. W dalszym ciągu swego wywodu

Paley stwierdza, że kiedy widzimy jeszcze bardziej wymyślne konstrukcje przyrody, to wniosek

ten powinien się nam narzucić tym bardziej.

Słabym punktem tego rozumowania jest, co pokazał Hume, to, że opiera się ono na

analogii. Pojmowany mechanistycznie Wszechświat przypomina zegarek; zegarek został przez

kogoś wykonany, a zatem Wszechświat też musiał mieć swego stwórcę. Można by równie dobrze

utrzymywać, że Wszechświat przypomina organizm żywy, a zatem musiał się rozwinąć z

zarodka w kosmicznym łonie! Oczywistym jest, że rozumując przez analogię nie można niczego

dowieść. Co najwyżej analogia może służyć do poparcia jakiejś hipotezy. Stopień tego poparcia

zależy od tego, na ile dana analogia zdolna jest kogoś przekonać. John Leslie pisał, że gdyby

świat usłany był blokami granitu z wyrytym napisem MADE BY GOD, podobnie jak oznacza się

producenta zegarka, to może nawet Hume'owie tego świata zostaliby przekonani. „Można zadać

pytanie, czy każdy możliwy wyraźny ślad istnienia boskiego Stwórcy, w tym, na przykład,

przesłanie wypisane w postaci struktur występujących w przyrodzie łańcuchów molekularnych

(...) można lekką ręką odrzucać z komentarzem: Ależ nie ma w tym nic szczególnego”.

Niewykluczone, że w przyrodzie obecny jest wyraźny ślad Stwórcy, lecz jest w jakiś sposób

przed nami ukryty. Być może uda nam się rozpoznać „znak firmowy” boskiego architekta

dopiero po osiągnięciu pewnego poziomu rozwoju nauki. Stanowi to motyw powieści

fantastycznonaukowej Contact astronoma Carla Sagana, w której przesłanie to jest misternie

zakodowane w ciągu cyfr rozwinięcia liczby n, liczby, która jest istotnym elementem samej

struktury Wszechświata, i może być odczytane wyłącznie przy użyciu zaawansowanych metod

komputerowych.

Prawdą jest także, że nawet najbardziej racjonalni ludzie posługują się rozumowaniem

przez analogię w innych przypadkach. Jeden z nich dotyczy istnienia w ogóle świata

obiektywnego. W bezpośrednim doświadczeniu dany jest nam świat subiektywny, świat naszych

doznań zmysłowych. Zazwyczaj uważamy ten świat za dość wierną kopię czy model obiektywnie

istniejącego świata fizycznego i potrafimy odróżnić sen od rzeczywistości. Jednak kopia lub

background image

model to także rodzaj analogii i w tym przypadku bez oporów ją akceptujemy. Jeszcze większy

element wiary zawarty jest we wnioskowaniu o istnieniu umysłów inne niż nasz. W naszym

doświadczeniu inni ludzie dani są nam wyłącznie poprzez swe ciała; nie mamy możliwości

postrzegać bezpośrednio ich umysłów. Nie ulega wątliwości, że inni ludzie zachowują się, jak

gdyby ich umysł funkcjonował podobnie jak nasz, lecz nie możemy tego wiedzieć na pewno.

Przekonanie o istnieniu innych umysłów opiera się całkowicie na analogii z naszymi własnymi

doznaniami i zachowaniami.

Argument planowego charakteru świata nie może być zaklasyfikowany jako prawdziwy

lub fałszywy, lecz jedynie jako mniej lub bardziej przekonujący. W jakim stopniu więc jest on

przekonujący? Nikt z ludzi nauki nie poparłby obecnie Newtona w jego twierdzeniu, że Układ

Słoneczny jest zbyt uporządkowany, aby mógł był powstać w sposób naturalny. Jakkolwiek nie

udało się jeszcze rozstrzygnąć definitywnie, w jaki sposób powstał, znane są mechanizmy zdolne

do nadania mu porządku, jaki w nim obserwujemy. Tym niemniej pełna struktura Wszechświata

jawi się wielu astronomom jako zawierająca element celowego zaprojektowania. I tak James

Jeans twierdził, że „projekt Wszechświata jest najwyraźniej dziełem matematyka” oraz że „w

coraz większym stopniu przypomina on wielką myśl niż wielką maszynę”, pisząc również:

Odkrywamy, że Wszechświat wykazuje ślady działalności jakiegoś czynnika

projektującego czy też kierującego, który ma coś wspólnego z naszym ludzkim umysłem - nie, o

ile nam na razie wiadomo, pod względem emocji, moralności lub poczucia piękna, lecz tendencji

do myślenia w sposób, który, z braku lepszego słowa, można by określić jako matematyczny.

Odejdźmy na chwilę od astronomii. Najbardziej zdumiewające przykłady „przemyślności

przyrody” można znaleźć w obrębie biologii, i to im właśnie Paley poświęcił najwięcej uwagi.

Przystosowanie celowe w biologii jest wręcz legendarne. Weźmy, na przykład, oko. Doprawdy

trudno sobie wyobrazić, aby miało ono być czymś innym niż narządem wzroku. Albo że skrzydła

ptaka nie miały na celu funkcji latania. Dla Paleya i jemu podobnych takie misterne i skuteczne

przystosowanie było wyrazem celowego działania inteligentnego Stwórcy. Niestety, jak

wszystkim wiadomo, argument ten szybko stracił na znaczeniu. Teoria ewolucji Darwina

wykazała definitywnie, że zorganizowane struktury efektywnie przystosowane do otoczenia

mogą powstać w wyniku przypadkowych mutacji i doboru naturalnego. Nie jest potrzebny żaden

stwórca, by powstało oko lub skrzydło. Narządy te rozwijają się w rezultacie zupełnie zwykłych

procesów naturalnych. Triumfalistyczne nastroje, jakie wzbudziła ta rozstrzygająca koncepcja,

background image

przedstawione są znakomicie w książce The Blind Watchmaker [Ślepy zegarmistrz] pióra biologa

z Oxfordu Richarda Dawkinsa.

Surowa krytyka, z jaką spotkał się argument planowego charakteru świata ze strony

Hume'a, Darwina i innych, sprawiła, że został on prawie całkowicie porzucony przez teologów.

Tym ciekawsze jest więc, że w ostatnich latach został on przywrócony do życia przez wielu

naukowców. W swej nowej formie dotyczy nie tyle materialnej zawartości świata, lecz

rządzących nim praw, wobec czego dotychczasowe krytyki się do niej nie odnoszą. By pokazać,

dlaczego, pozwolę sobie najpierw wyjaśnić, na czym zasadniczo polega ewolucja typu

darwinowskiego. W swym założeniu teoria Darwina wymaga istnienia kolektywu, czyli zespołu

podobnych osobników, wśród których może się dokonywać dobór naturalny. Rozważmy na

przykład, jak doszło do tego, że polarne niedźwiedzie są koloru białego, tak doskonale

zlewającego się ze śniegiem. Wyobraźmy sobie stado brunatnych niedźwiedzi polujących na żer

na pokrytym śniegiem terytorium. Ich potencjalne ofiary z łatwością dostrzegają zbliżającego się

drapieżnika i biorą nogi za pas. Brunatne niedźwiedzie wiodą ciężki żywot. Wtem, w wyniku

genetycznego przypadku, rodzi się biały niedźwiedź. Bez trudu przychodzi mu zdobywanie

pożywienia, ponieważ może niezauważenie podkraść się do ofiary. Żyje on dłużej niż jego

brunatni pobratymcy i wśród jego potomstwa jest więcej białych osobników. Im również wiedzie

się lepiej, więc rodzi się jeszcze więcej białych niedźwiedzi. Wkrótce mają one przewagę

liczebną, toteż przechwytują całą zwierzynę, doprowadzając brunatne niedźwiedzie do

wyginięcia.

Trudno sobie wyobrazić, aby powyższa historyjka była daleka od prawdy. Ale weźmy

pod uwagę, jak istotne było, aby na początku było wiele niedźwiedzi. Jeden niedźwiedź w stadzie

rodzi się biały, co daje mu przewagę nad innymi. Cała koncepcja opiera się na tym, że przyroda

może dokonywać wyboru z zespołu podobnych, konkurujących ze sobą, osobników. Jednakże w

przypadku praw fizyki i kosmologicznych warunków początkowych nie mamy takiego zespołu.

Prawa i warunki początkowe naszego Wszechświata są jedyne w swoim rodzaju. (Kwestią, czy

może istnieć wiele wszechświatów o odmiennych prawach, będę się jeszcze zajmował). Jeżeli

powstanie życia wymaga, aby prawa i warunki początkowe były dopasowane z dużą

dokładnością, i takie dopasowanie faktycznie ma miejsce, to sugestia planowego początku

wydaje się nieodparta.

Niemniej zanim wyciągniemy taki wniosek, rozpatrzmy wpierw kilka zarzutów. Po

background image

pierwsze, twierdzi się niekiedy, że gdyby przyrodzie nie udało się wytworzyć warunków, w

których mogło powstać życie, nie byłoby nas i nie moglibyśmy o tym dyskutować. Jest to

oczywiście prawda, lecz nie jest to żaden kontrargument. Faktem jest, że jesteśmy tu, i to za

sprawą dość szczególnych warunków, lecz samo nasze istnienie nie uzasadnia wystąpienia tych

warunków. Można próbować załatwić sprawę stwierdzeniem, iż z pewnością mamy olbrzymie

szczęście, że we Wszechświecie przypadkowo panują warunki sprzyjające rozwojowi życia, ale

jest to tylko uśmiech losu, bez głębszego znaczenia. I w tym przypadku jest to kwestia

indywidualnej oceny. Przypuśćmy, że można wykazać, że życie nie byłoby możliwe, gdyby

stosunek masy elektronu do masy protonu odpowiadał z dokładnością 0,00000000001 procenta

jakiejś zupełnie niezależnej liczbie - powiedzmy, wielokrotności stosunku gęstości wody i rtęci

przy 18 stopniach Celsjusza. Nawet najbardziej zatwardziały sceptyk zmuszony byłby wtedy

przyznać, że „coś w tym jest”.

Ale jak ocenić, w jakim stopniu coś jest „nienaturalne”? Problem polega na tym, że nie

znamy sposobu, w jaki można by wyznaczyć wartości prawdopodobieństwa znanych nam

„zbiegów okoliczności”. Z jakiego zakresu może pochodzić, powiedzmy, wartość siły

oddziaływań jądrowych (od której zależą na przykład wartości energii odpowiadające

rezonansom Hoyle'a)? Jeśli zakres ten jest nieskończony, to prawdopodobieństwo wybrania

każdego skończonego zbioru wartości równa się zeru. Ale wtedy trudno byłoby mówić, iż

wymogi powstania życia w jakimkolwiek stopniu tę wartość zmieniają. Stanowi to niewątpliwe

reductio ad absurdum całego rozumowania. Potrzebna jest tu jakaś metateoria, teoria teorii, która

pozwalałaby na wyznaczenie wartości prawdopodobieństwa dla danego zakresu wartości

parametrów. Taka metateoria nie istnieje, a przynajmniej, o ile mi wiadomo, nikt jej dotychczas

nie stworzył. Dopóki jej nie będzie, ocena stopnia „nienaturalności” danego stanu Wszechświata

pozostaje sprawą czysto subiektywną. Niemniej jednak czujemy, że jest on nienaturalny!

Innym podnoszonym niekiedy zarzutem jest to, że w procesie ewolucji organizmy żywe

dostosowują się do panujących warunków, nic więc dziwnego, że życie tak dobrze odpowiada

tym warunkom. Może to być prawdą jedynie w odniesieniu do ogólnych parametrów środowiska,

na przykład umiarkowanych zmian klimatycznych. Z pewnością byłoby błędem wskazanie na

Ziemię i powiedzenie: „Spójrzcie, jak warunki sprzyjają tu życiu! Klimat jest właściwy, jest dużo

tlenu i wody, a siła ciężkości odpowiada akurat długości kończyn, itd. itd. Co za niezwykła seria

przypadków!” Ziemia jest tylko jedną spośród wielkiej liczby planet położonych w naszej

background image

Galaktyce i poza nią. Życie może powstać tylko na tych planetach, gdzie są odpowiednie

warunki. Gdyby Ziemia się do nich nie zaliczała, być może ta książka napisana zostałaby w

jakiejś innej galaktyce. Ale nie chodzi nam teraz o coś tak zaściankowego, jak życie na Ziemi.

Pytanie brzmi: jakie muszą być spełnione warunki, aby powstało w ogóle życie gdzieś we

Wszechświecie. Jeśli już ono powstanie, to w nieunikniony sposób będzie się rozwijało w

miejscu, gdzie są po temu warunki.

Szczególny charakter, o jakim mówiłem, nie dotyczy tej czy innej niszy ekologicznej,

lecz samych praw fizyki. Gdyby prawa te nie spełniały pewnych warunków, życie nie mogłoby w

ogóle powstać. Z oczywistych względów nie istniałoby życie oparte na związkach węgla, gdyby

nie było węgla. Lecz co z alternatywnymi formami życia, tak ulubionymi przez autorów

fantastyki naukowej? I w tym przypadku, musimy przyznać, że po prostu nie wiemy. Gdyby

prawa fizyki były nieco inne, może powstałyby inne możliwości rozwoju życia zamiast tych,

które znamy. Sprzeciwia się temu ogólny pogląd, że organizmy biologiczne są tak szczególnymi

układami, że nie mogłyby się pojawić w wyniku dowolnych praw i warunków. Jednakże, dopóki

nie poznaliśmy należycie pochodzenia życia i nie są nam znane żadne jego alternatywne formy

istniejące gdzieś we Wszechświecie, kwestia ta musi pozostać nie rozstrzygnięta.

background image

Mądrość przyrody

Powróćmy znów do słynnego powiedzenia Einsteina, że „Pan Bóg jest wyrafinowany,

lecz nie perfidny” - pozwoli nam ono dostrzec jeszcze jeden intrygujący aspekt porządku świata.

Einstein miał na myśli to, że poznanie przyrody wymaga wprawdzie znacznych umiejętności

matematycznych, intuicji fizycznej i dużej pomysłowości, mimo to cel ten jest dla nas możliwy

do osiągnięcia. Problematykę tę dyskutowałem w nieco innym ujęciu w rozdziale 6, gdzie

wskazałem na fakt, że świat wydaje się być zbudowany w ten sposób, że jego opis

matematyczny, choć wcale nietrywialny, pozostaje w zasięgu umysłu człowieka.

Jak już raz czy dwa wspominałem, niezwykle trudno przekazać, na czym polega

wyrafinowanie matematycznego opisu przyrody, komuś nie obeznanemu z fizyką teoretyczną,

jednakże naukowcy, którzy mieli do czynienia z tą dziedziną, doskonale wiedzą, o co chodzi. Jest

ono być może najbardziej uderzające w fizyce cząstek elementarnych i teorii pola, które

wymagają jednoczesnego stosowania kilku działów matematyki wyższej. Wyrażając rzecz

możliwie najprościej: stosując matematykę w zwykły sposób dochodzimy do pewnego punktu i

nagle opis się załamuje: pojawia się jakaś wewnętrzna sprzeczność lub też teoria daje wyniki

drastycznie nie odpowiadające rzeczywistości. Wtedy przychodzi ktoś sprytniejszy od nas i

wynajduje jakiś trik; znajduje, być może, jakąś ukrytą lukę w twierdzeniu albo elegancki sposób

wyrażenia danego problemu w języku całkiem odmiennych pojęć matematycznych i proszę

bardzo, wszystko pasuje! Trudno oprzeć się pokusie przypisania przyrodzie co najmniej równie

wielkiej dozy sprytu, skoro potrafiła „zauważyć” to rozwiązanie i je wykorzystać. Często słyszy

się fizyków teoretycznych, którzy we właściwy im nieformalny, bezceremonialny sposób

zachwalają swoją teorię przy użyciu powiedzonka, iż jest ona tak

sprytna/wyrafinowana/elegancka, że trudno przypuścić, aby przyroda nie chciała jej

wykorzystać!

Pozwolę sobie zwięźle naszkicować jeden przykład. W rozdziale 7 omawiałem najnowsze

próby unifikacji czterech podstawowych oddziaływań przyrody. Dlaczegóż przyroda miałaby się

posługiwać aż czterema odrębnymi siłami? Czyż nie byłoby prostszym, efektywniejszym i

bardziej eleganckim rozwiązaniem, gdybyśmy mieli trzy, dwie, a może nawet tylko jedną siłę,

przejawiającą się pod czterema różnymi postaciami? Tak przynajmniej sądzili zaangażowani w te

badania fizycy, poszukujący podobieństw pomiędzy poszczególnymi oddziaływaniami, które

background image

pozwoliłyby na znalezienie jednego wspólnego opisu matematycznego. W latach

sześćdziesiątych okazało się, że można to będzie osiągnąć w przypadku elektromagnetyzmu i

słabych oddziaływań jądrowych. Wiedziano, że oddziaływania elektromagnetyczne polegają na

wymianie cząstek zwanych „fotonami”. Fotony te, śmigając tam i z powrotem pomiędzy

naładowanymi elektrycznie cząstkami, na przykład elektronami, powodują powstanie

działających na nie sił. Gdy widzimy przywieranie potartego balonu do sufitu czy też wzajemne

przyciąganie i odpychanie magnesów, to obserwujemy właśnie skutki niewidzialnej pracy tych

niestrudzonych cząstek. Możemy sobie wyobrażać, że fotony te pełnią jak gdyby rolę posłańców,

które powiadamiają jedne cząstki o sile działającej na nie ze strony innych cząstek, a te z kolei w

ten sam sposób odpowiadają.

Otóż teoretycy doszli do przekonania, że coś podobnego zachodzi w przypadku

oddziaływań słabych w jądrach atomowych. Wynaleziono hipotetyczną cząstkę, nazwana dość

tajemniczo cząstką W, która miałaby odgrywać rolę pośrednika, analogicznie jak fotony.

Jednakże, w przeciwieństwie do fotonów, które były dobrze znane w laboratorium, nikt nigdy nie

widział cząstki W, więc można było opierać się wyłącznie na matematyce. Teorię oddziaływań

słabych przeformułowano tak, aby uwydatnić jej zasadnicze podobieństwo do

elektromagnetyzmu. Idea była taka, że jeżeli mamy dwa zbliżone opisy matematyczne, to można

je ze sobą połączyć w jeden jednolity opis. Przeformułowanie to obejmowało wprowadzenie

jeszcze jednej cząstki pośredniczącej, nazwanej cząstką Z, która przypomina foton w jeszcze

większym stopniu niż cząstka W. Problem polegał na tym, że nawet w tym nowym

sformułowaniu oba opisy - teoria elektromagnetyzmu i oddziaływań słabych - nadal cechowała

pewna zasadnicza różnica. Mimo wielu podobieństw cząstek Z do fotonów ich masy były

krańcowo odmienne. Powodem było to, że masa cząstki pośredniczącej wiąże się bezpośrednio z

zasięgiem danego oddziaływania: im krótszy zasięg, tym większa masa cząstek. Zasięg sił

elektromagnetycznych jest nieskończony, co wymaga, aby pośrednicząca w nich cząstka miała

masę równą zeru, podczas gdy zasięg oddziaływań słabych nie przekracza rozmiarów jądra,

wskutek czego pośredniczące cząstki muszą mieć masę bardzo dużą, rzędu mas całych atomów.

Kilka słów trzeba poświęcić faktowi zerowej masy fotonu. Masa cząstki wiąże się z jej

bezwładnością. Im mniejsza masa, tym mniejsza bezwładność cząstki i tym większego

przyśpieszenia doznaje ona pod wpływem działającej na nią siły. Gdy dane ciało ma bardzo małą

masę, to dany impuls siły nada mu bardzo dużą prędkość. Jeśli wyobrazimy sobie cząstki o coraz

background image

to mniejszej masie, to prędkość ta będzie coraz większa. Można by sądzić, że cząstka o zerowej

masie będzie poruszać się nieskończenie szybko, ale tak nie jest. Teoria względności zabrania, by

cokolwiek poruszało się z prędkością przewyższającą prędkość światła, a zatem cząstki o masie

zerowej poruszają się z prędkością światła. Fotony, jako „cząstki światła”, są tu oczywistym

przykładem. Natomiast z obliczeń wynikało, że cząstki W i Z powinny mieć masy równe

odpowiednio osiemdziesięciu i dziewięćdziesięciu masom protonu, najcięższej ze znanych

trwałych cząstek.

Problem, przed jakim stanęli teoretycy w latach sześćdziesiątych, polegał na tym, w jaki

sposób połączyć z sobą eleganckie pod względem matematycznym opisy oddziaływań

elektromagnetycznych i słabych, skoro różnią się one od siebie jednym tak istotnym szczegółem.

Przełom nastąpił w roku 1967. W oparciu o aparat matematyczny, rozwinięty wcześniej przez

Sheldona Glashowa, dwaj fizycy teoretyczni, Abdus Salam i Steven Weinberg, niezależnie od

siebie, znaleźli wyjście z syluacji. Zasadnicza myśl była następująca. Przypuśćmy, że duże

wartości masy cząstek W i Z nie są ich własnością pierwotną, lecz zostały nabyte w wyniku

jakiegoś oddziaływania zewnętrznego; to znaczy, przypuśćmy, że cząstki te nie posiadają, że się

tak wyrażę, masy wrodzonej, lecz „niosą” ją ze sobą. Ta różnica, choć może wydawać się

drobna, jest niezwykle istotna. Oznacza bowiem, że masa nie jest kwestią teorii fizycznej, lecz

konkretnego stanu, w jakim normalnie się te cząstki znajdują. Posłużę się analogią, aby to bliżej

wyjaśnić. Gdy ustawimy ołówek pionowo na ostrym końcu i puścimy, przewróci się on,

układając w pewnym kierunku. Powiedzmy, że będzie wskazywał na północny wschód. Stan ten

został osiągnięty pod wpływem sił ciążenia ziemskiego, lecz „północny wschód” nie jest

bynajmniej wewnętrzną cechą grawitacji. Siły ciążenia niewątpliwie wyróżniają kierunek góra-

dół, ale nie północ-południe, wschód-zachód, ani żaden kierunek pośredni. Z punktu widzenia

grawitacji wszystkie kierunki w poziomie są równoważne. Zatem ułożenie ołówka na północny

wschód jest jedynie przypadkową cechą układu ołówek + siła ciężkości, związaną ze

szczególnym stanem, w jakim akurat znalazł się ołówek.

W przypadku cząstek W i Z rolę grawitacji odgrywa hipotetyczne nowe pole, zwane

polem Higgsa, od nazwiska Petera Higgsa z University of Edinburgh. Pole Higgsa działając na W

i Z powoduje ich „przewrócenie” w sensie symbolicznym. W wyniku tego nie otrzymujemy

„północnego wschodu”, lecz masę, i to dużą. Zostaje w ten sposób otwarta droga do unifikacji z

elektromagnetyzmem, jako że cząstki W i Z teraz „naprawdę” nie posiadają masy, podobnie jak

background image

foton. Dwa matematyczne opisy można teraz z sobą połączyć, otrzymując jednolitą teorię, w

której występuje tylko jedno „elektrosłabe” oddziaływanie.

Reszta, jak to się mówi, jest historią. Na początku lat osiemdziesiątych w akceleratorach

Europejskiego Ośrodka Badań Jądrowych (CERN) pod Genewą udało się w końcu otrzymać

cząstki W, a następnie Z. Teoria zyskała w ten sposób wspaniałe potwierdzenie. Dwa z

występujących w przyrodzie oddziaływań okazały się być naprawdę dwoma obliczami tego

samego oddziaływania. Najwidoczniej przyroda dostrzegła także lukę w rozumowaniu, że nie

można utożsamić cząstek o masie zerowej i niezerowej - jest to możliwe, gdy wykorzysta się

mechanizm Higgsa.

Historia ta ma jeszcze ciąg dalszy. Z polem Higgsa, które odgrywa tu tak znaczącą rolę,

stowarzyszona jest z kolei cząstka nazwana „bozonem Higgsa”. Posiada ona przypuszczalnie

bardzo dużą masę, co oznacza, że do jej wytworzenia potrzebna jest bardzo duża energia. Do tej

pory nikomu nie udało się zaobserwować bozonu Higgsa, lecz jest on na czele listy cząstek

oczekujących na odkrycie. Jej wytworzenie będzie jednym z podstawowych zadań planowanego

nowego gigantycznego akceleratora, który ma być zbudowany na pustkowiach Teksasu w drugiej

połowie lat dziewięćdziesiątych. Znane pod nazwą SSC (Superconducting Supercollider) to

monstrualne urządzenie o obwodzie około osiemdziesięciu kilometrów umożliwi przyśpieszanie

protonów i antyprotonów do nieosiągalnych dotąd energii. Przeciwbieżne strumienie cząstek

będą zderzać się ze sobą, przez co uzyska się zderzenia o niespotykanej gwałtowności. Istnieje

nadzieja, że SSC pozwoli na skumulowanie energii wystarczającej na wytworzenie bozonu Hig-

gsa. Lecz w wyścigu tym oprócz Amerykanów biorą udział także Europejczycy, którzy

spodziewają się, że uda im się uzyskać bozon Higgsa w którymś z akceleratorów w CERN.

Dopóki się go nie odkryje, nie możemy być pewni, czy przyroda faktycznie korzysta z

mechanizmu Higgsa. Być może znalazła jakiś jeszcze sprytniejszy sposób. Pozostaje w napięciu

oczekiwać na finał tej historii.

background image

Miejsce na wszystko i wszystko na swoim miejscu

Gdy naukowcy mówią o czymś: „dlaczego przyroda miałaby sobie zadawać tyle trudu?”,

czy też: „po co to jest?”, zdają się przypisywać przyrodzie inteligencję. Jakkolwiek zwykle

pytania takie wypowiadane są nieco żartobliwie, mają one również podtekst poważny.

Doświadczenie wykazało, że przyroda podziela nasze pojęcia oszczędności, efektywności, piękna

i wyrafinowania matematycznego, a zatem kierowanie się nimi w badaniach naukowych daje

bardzo dobre wyniki (jak w przypadku unifikacji oddziaływań słabych i elektromagnetycznych).

Większość fizyków uważa, że pod zewnętrzną złożonością ich dyscypliny kryje się elegancka

wszechogarniająca jedność i że postęp w fizyce polega na wykrywaniu matematycznych

„sztuczek”, które pozwoliły przyrodzie wygenerować nietrywialnie zróżnicowany i złożony

Wszechświat z tej fundamentalnej prostoty.

Istnieje na przykład wśród fizyków niewyrażane, lecz dość powszechne przekonanie, że

wszystko, co istnieje w przyrodzie, musi mieć „miejsce”, czy też rolę, w ramach pewnej

ogólniejszej całości, że przyroda nie pozwala sobie na rozrzutność poprzez tworzenie bytów

przypadkowych; że nie jest ona arbitralna. Każdy element rzeczywistości fizycznej powinien

łączyć się z innymi w „naturalny” i logiczny sposób. Zatem, kiedy w 1937 roku odkryto cząstkę

elementarną nazwaną potem mionem, fizyk Isidor Rabi wykrzyknął ze zdumienia: „Czy ktoś to

zamawiał?” Mion jest cząstką praktycznie identyczną z elektronem pod wszystkimi względami,

lecz o 206,8 razy większej masie. Ten większy brat elektronu jest nietrwały i w ciągu jednej lub

dwóch mikrosekund ulega rozpadowi, nie stanowi zatem stałego składnika materii. Tym

niemniej, wszystko wskazuje na to, ze jest on samodzielną cząstką elementarną, a nie złożeniem

innych cząstek. Reakcja Rabiego jest charakterystyczna. Po co istnieje taki mion'? Do czego

przyrodzie potrzebny jest jeszcze jeden gatunek elektronów, i to tak nietrwały? Jaką sprawiłoby

różnicę, gdyby mion wogóle me istniał?

Od tego czasu cały problem się jeszcze bardziej skomplikował. Wiemy teraz, że

większych braci jest dwóch. Drugi z nich, odkryty w 1974 roku, nazwany został „taonem”. Co

gorsza, okazuje się, ze inne cząstki również mają niestabilnych większych braci. Każdy z tak

zwanych kwarków - cegiełek składowych materii jądrowej, jak protony i neutrony - występuje w

dwóch cięższych wariantach. Mamy także trzy rodzaje neutrin. Sytuacja przedstawiona jest

schematycznie w Tabeli l. Wydaje się, ze wszystkie znane cząstki elementarne można podzielić

background image

na trzy „generacje” Do pierwszej generacji zaliczają się elektron, neutrino elektronowe i dwa

kwarki, zwane „górnym” i „dolnym”, z których składają się protony i neutrony Cząstki pierwszej

generacji są zasadniczo trwałe i stanowią podstawowy składnik widzialnego Wszechświata

Zarówno atomy naszego ciała, jak i te wchodzące w skład Słońca i gwiazd, zbudowane są z

cząstek pierwszej generacji.

TABELA l

Leptony Kwarki

Pierwsza generacja elektron „dolny”

neutrino elektronowe „górny”

Druga generacja mion , dziwny”

neutrino mionowe „powabny”

Trzecia generacja taon „piękny”

neutrino taonowe ,,top”

Materia zbudowana jest z dwunastu podstawowych typów cząstek Sześć z nich, zwanych

„leptonami” , jest dość lekka i uczestniczy jedynie w oddziaływaniach słabych. Pozostałych sześć

zwanych „kwarkami” , ma dużą masę i wchodzi w oddziaływania silne tworząc cząstki składowe

jąder atomowych. Wszystkie te cząstki można uporządkować w trzy generacje o zbliżonych

własnościach.

Druga generacja wydaje się mniej więcej powtórzeniem pierwszej. Znajdujemy tutaj

mion, który tak zdumiał Rabiego. Cząstki te (być może z wyjątkiem neutrino) są nietrwałe i

rozpadają się po krótkim czasie na cząstki pierwszej generacji. I oto, ni stąd m zowąd, przyroda

jeszcze raz powtarza to wszystko w postaci trzeciej generacji. Można się zastanawiać, czy na tym

już koniec. Być może liczba generacji jest nieskończona i mamy do czynienia z jakąś prostą

strukturą powtarzalną. Fizycy w większości są odmiennego zdania. W 1989 roku w CERN użyto

nowego akceleratora cząstek do dokładnego prześledzenia rozpadu cząstki Z. Otóż Z rozpada się

na neutrina, a szybkość tego procesu wyznaczona jest przez liczbę odrębnych rodzajów neutrin

background image

występujących w przyrodzie, a zatem dokładny pomiar tej szybkości może służyć do określenia

tej liczby. Otrzymano liczbę trzy, co oznaczałoby, ze mamy do czynienia jedynie z trzema

generacjami cząstek.

Stajemy zatem przed zagadką dlaczego trzy? Jedna lub nieskończenie wiele byłoby

„naturalne”, lecz trzy wydaje się czystą perwersją. Owa „zagadka generacji” dostarczyła impulsu

do wielu istotnych prac teoretycznych. Największego postępu w fizyce cząstek elementarnych

dokonano dzięki zastosowaniu działu matematyki zwanego „teorią grup”. Wiąże się to silnie z

zagadnieniem symetrii, jednej z „ulubionych” własności przyrody. Teoria grup pozwala na

połączenie pozornie odrębnych cząstek w jednolite rodziny. Istnieją określone reguły

matematyczne przedstawiania grup i łączenia ich ze sobą, a także określające, ile cząstek każdego

typu może wchodzić w skład grupy. Naukowcy mają nadzieję na uzyskanie opisu

teonogrupowego uzasadnionego niezależnie, który również zawierałby trzy generacje cząstek.

Pozorna rozrzutność przyrody okazałaby się wtedy konieczną konsekwencją jakiejś głębszej

symetrii.

Oczywiście, dopóki nie uda się dokonać takiej unifikacji, istnienie trzech generacji

stanowi kontrprzykład dla tezy, ze przyrodę cechuje wyrafinowana oszczędność, a nie złośliwa

arbitralność. Jestem jednak tak pewny, ze przyroda podziela nasze poczucie oszczędności, iż

chętnie ręczę własną głową, że problem ten zostanie rozwiązany w najbliższych dziesięcioleciach

i że rozwiązanie to będzie stanowiło kolejny dobitny dowód, iż przyroda stosuje się jednak do

zasady „Miejsce na wszystko i wszystko na swoim miejscu”.

Cała sprawa z generacjami cząstek ma jeszcze jeden interesujący aspekt, który potwierdza

moją tezę. Przyznaję, ze Tabela l nie jest do końca prawdziwa. Gdy piszę tę książkę, istnienie

kwarka „top” nie zostało jeszcze ostatecznie potwierdzone. Kilka razy był on już wprawdzie

„odkrywany”, lecz wiadomość ta była potem dementowana. Otóż można by się zastanawiać, skąd

fizycy czerpią taką pewność, że kwark „top” istnieje, iż skłonni są poświęcać znaczną część

skąpych środków na badania, jakie mają do dyspozycji, na jego poszukiwania. A jeśli on w ogóle

nie istnieje? Może jednak w tabeli (która w końcu została tylko wymyślona przez ludzi) jest puste

miejsce, i tak naprawdę to nie mamy wcale trzech generacji cząstek, lecz dwie i trzy czwarte?

Cóż, ciężko byłoby znaleźć fizyka, który sądziłby, iż przyroda mogłaby być tak złośliwa, i kiedy

kwark „top” zostanie odkryty (a nie mam żadnych wątpliwości, że to prędzej czy później

nastąpi), będzie on kolejnym przykładem, że przyroda nie dopuszcza nieporządku.

background image

Problem generacji stanowi w istocie część szerszego problemu unifikacji, o którym

wspominałem, a z którym potyka się cała armia teoretyków. John Polkinghorne, który zanim

wstąpił do stanu duchownego, zajmował się teorią cząstek elementarnych, opisuje pewność, jaką

fizycy pokładają w następnym etapie programu unifikacji:

Moi niegdysiejsi koledzy zadają sobie wiele trudu, usiłując stworzyć teorię jeszcze

bardziej ogólną. (...) Rzekłbym, iż obecnie ich wyniki mają w sobie element sztuczności, bądź

wręcz desperacji. Jakiś podstawowy fakt, czy też idea, ciągle nie jest dostrzegany. Niemniej

jednak nie wątpię, że w swoim czasie uda się wniknąć w głąb rzeczy i odkryć głębszą strukturę

leżącą u podstaw fizycznej rzeczywistości.

Jak już wspominałem, aktualnie modna jest tak zwana teoria superstrun, lecz niewątpliwie

wkrótce pojawi się coś innego. Jakkolwiek przed fizykami piętrzą się olbrzymie trudności, w

pełni zgadzam się z Polkinghornem. Nie mogę uwierzyć, że problemy te miałyby być z natury

nierozwiązywalne i że unifikacja fizyki cząstek jest celem niemożliwym do osiągnięcia.

Wszystkie znaki na niebie i ziemi wskazują, że pod powierzchnią zjawisk kryje się jedność, a nie

arbitralność, niezależnie od tego, ile jeszcze będziemy musieli drapać się po głowie, aby ją

odkryć.

Na zakończenie rozważań, czy faktycznie „potrzeba” tylu rodzajów cząstek, przychodzi

mi do głowy ciekawa myśl. Miony, jakkolwiek nie wchodzą w skład normalnej materii,

odgrywają jednak w przyrodzie dość istotną rolę. Znaczna część promieniowania kosmicznego,

które dociera do powierzchni Ziemi, to właśnie miony. Stanowią one część normalnego tła

promieniowania, przyczyniając się do powstawania mutacji, które są siłą napędową ewolucji

biologicznej. Zatem, przynajmniej do pewnego stopnia, miony znajdują zastosowanie w biologii.

Stanowi to kolejny przykład tak szczęśliwego dla nas dopasowania elementów Wszechświata w

dużej i małej skali, o którym wspominałem wcześniej w tym rozdziale.

background image

Czy potrzebny jest Stwórca?

Mam nadzieję, że niniejsza dyskusja pozwoli przekonać czytelnika, że świat nie jest

bezładną zbieraniną obiektów i sił, lecz niezwykle pomysłową, jednolitą strukturą matematyczną.

Słowa takie jak „pomysłowy” lub „sprytny” niezaprzeczalnie odnoszą się do działalności

człowieka, a pomimo to nieodparcie nasuwają się w odniesieniu do przyrody. Czy jest to tylko

jeszcze jeden przykład narzucania przyrodzie naszych własnych kategorii myślowych, czy też

odzwierciedla się w tym jakaś istotna głęboka właściwość świata?

Odeszliśmy już dość daleko od paleyowskiej wizji świata jako zegarka. Posługując się raz

jeszcze moją ulubioną analogią, można powiedzieć, że świat fizyki cząstek elementarnych

przypomina bardziej krzyżówkę niż mechanizm zegarka. Każde nowe odkrycie stanowi

wskazówkę pozwalającą odkryć jakieś nowe elementy matematycznej struktury. W miarę

gromadzenia się odkryć, coraz więcej tych krzyżujących się powiązań „wypełnia się” i zaczynają

wyłaniać się zarysy całej struktury. W chwili obecnej w „krzyżówce” tej pozostaje jeszcze wiele

pustych miejsc, niemniej da się już zauważyć, jak bardzo jest ona misterna i spójna. W

odróżnieniu od mechanizmu, który może jedynie powoli z czasem zmierzać w kierunku form o

większym stopniu złożoności i organizacji, „krzyżówka” fizyki cząstek jest gotowa od razu w

całości. Powiązania nie powstają, lecz istnieją przez cały czas, ukryte w prawach. Musimy je po

prostu bądź przyjąć jako zdumiewające nagie fakty, bądź też poszukiwać dla nich głębszego

uzasadnienia.

Zgodnie z myślą chrześcijańską tym głębszym uzasadnieniem jest Bóg, który stworzył

świat w całym jego bogactwie i złożoności, a zadaniem fizyki jest odkrywanie szczegółów tego

Bożego zamysłu. Gdybyśmy się na to zgodzili, następnym pytaniem jest: jaki cel miał Bóg

stwarzając świat w ten sposób? Aby odpowiedzień na to pytanie, musimy wziąć pod uwagę

wszystkie „zbiegi okoliczności” wspomniane wcześniej w związku z zasadą antropiczną i

warunkami występowania organizmów żywych. Wyraźne „dopasowanie” praw przyrody,

niezbędne, aby we Wszechświecie mogły zrodzić się i przetrwać istoty żywe obdarzone

świadomością, stwarza wyraźną sugestię, iż to właśnie Bóg tak zaprojektował Wszechświat, by

możliwe było powstanie życia i świadomości. Oznaczałoby to, że istnienie nas samych we

Wszechświecie stanowi zasadniczą część stwórczego planu Boga.

Lecz czy istnienie planu w konieczny sposób zakłada istnienie jego twórcy? John Leslie

background image

argumentuje, że tak nie jest. Jak pamiętamy, w jego teorii stworzenia świat powstał w wyniku

„wymogu etycznego”. Pisze on: „Świat istniejący w wyniku etycznej potrzeby mógłby być

dokładnie taki sam, równie obfitujący w dowody działalności planowej, niezależnie od tego, czy

potrzeba ta wymagała do swego urzeczywistnienia stwórczych aktów ukierunkowanej na dobro

inteligentnej istoty, czy też nie”. Krótko mówiąc, świat zrodzony przez dobro może jawić się nam

jako planowy, nawet jeżeli faktycznie taki nie jest.

W książce The Cosmic Blueprint pisałem, że świat wygląda, jak gdyby rozwijał się

według jakiegoś planu lub projektu. Idea ta jest (fragmentarycznie) wyrażona w schematyczny

sposób na rysunku 12, gdzie rolę projektu (czy też kosmicznego programu komputerowego, jak

kto woli) odgrywają prawa fizyki, wyobrażone w postaci maszynki do mięsa. Na wejściu mamy

kosmiczne warunki początkowe, a na wyjściu zorganizowane struktury złożone, czyli

rozbudowanie w głąb. Inna wersja tego schematu pokazana jest na rysunku 13, gdzie na wejściu

mamy materię, a na wyjściu umysł. Zasadniczą myślą jest, że coś wartościowego powstaje w

wyniku przetwarzania według pewnego z góry określonego zbioru reguł. Reguły te wyglądają,

jak gdyby były dziełem istoty inteligentnej. Nie widzę, jak ktoś mógłby temu przeczyć. To, czy

się wierzy, że zostały one naprawdę zaplanowane celowo, a jeśli tak, to przez kogo, musi

pozostać już sprawą indywidualnych preferencji. Osobiście skłaniam się do przypuszczenia, że

własności takie, jak przemyślność, oszczędność środków, piękno itp., mają naprawdę charakter

trancendentny - nie są one wyłącznie wytworem ludzkim - i że własności te odzwierciedlają się w

strukturze świata. Czy te własności są w stanie same z siebie powołać świat do istnienia, tego nie

wiem. Gdyby tak było, można by uważać Boga wyłącznie za mityczną personifikację tych

własności stwórczych, a nie niezależny czynnik sprawczy. Jasne jest, że nie zadowoliłoby to

nikogo, kto uważa, że Bóg jest stroną relacji międzyosobowej.

background image

Wielokrotna rzeczywistość

Niewątpliwie najpoważniejszym wyzwaniem dla tezy o planowym charakterze świata jest

alternatywna hipoteza wielu światów, czyli wielokrotnej rzeczywistości. Mówiłem już o tej teorii

w rozdziale 7 przy okazji omawiania kosmologicznego dowodu istnienia Boga. Zasadnicza jej

idea polega na tym, że świat, jaki widzimy, jest tylko jednym z wielkiej liczby światów, a

przyczyną tego, że nasz konkretny świat wygląda na zaplanowany, jest to, iż tylko w światach o

stosunkowo wymyślnej postaci może dojść do powstania życia (a tym samym świadomości). Nic

zatem dziwnego, że znajdujemy się w świecie tak sprzyjającym biologicznemu życiu. Został on

po prostu „wybrany antropicznie”.

Musimy wpierw zadać pytanie, czy dysponujemy jakimikolwiek dowodami na istnienie

tych innych światów. Filozof George Gale sporządził listę kilku teorii fizycznych, które w ten

czy inny sposób sugerują istnienie wielości światów. Najczęściej koncepcja wielu światów

pojawia się w kontekście interpretacji mechaniki kwantowej. Aby zobaczyć, w jaki sposób

kwantowa nieoznaczoność prowadzi do możliwości, że istnieje więcej niż jeden świat, rozważmy

prosty przykład. Wyobraźmy sobie pojedynczy elektron w polu magnetycznym. Posiada on

wewnętrzny moment magnetyczny, zwany spinem. Możemy wyznaczyć energię oddziaływania

spinu z zewnętrznym polem magnetycznym; energia ta będzie zależała od kąta pomiędzy

kierunkiem przyłożonego pola magnetycznego a kierunkiem własnego pola magnetycznego

elektronu. Jeśli kierunki te są zgodne, energia ta będzie niska; jeśli przeciwne - wysoka; a dla

kątów pośrednich powinna przyjmować wartości pośrednie. Pomiar tej energii pozwala zatem na

efektywne wyznaczenie orientacji spinu elektronu. Okazuje się, i jest to jeden z podstawowych

faktów mechaniki kwantowej, że obserwuje się tylko dwie wartości energii, odpowiadające,

mówiąc w uproszczeniu, orientacji spinu zgodnej z kierunkiem zewnętrznego pola

magnetycznego oraz przeciwnej.

Pojawia się teraz interesujące pytanie, co się stanie, jeżeli celowo weźmiemy elektron,

którego wewnętrzne pole magnetyczne jest ustawione prostopadle do pola zewnętrznego, to

znaczy spin elektronu nie jest ustawiony ani zgodnie z kierunkiem pola, ani przeciwnie, lecz

poprzecznie. Od strony matematycznej sytuacja ta opisana jest poprzez przyjęcie, że elektron

znajduje się w stanie będącym „superpozycją” obydwu możliwości. Oznacza to, iż stan jest -

znowu w pewnym uproszczeniu - złożeniem dwóch zachodzących na siebie rzeczywistości:

background image

jednej, w której spin skierowany jest do góry, i drugiej, w której spin skierowany jest w dół.

Jeżeli teraz dokonamy pomiaru energii, to jego wynik będzie odpowiadał albo orientacji „w

górę”, albo orientacji „w dół”, a nie żadnej przedziwnej kombinacji obydwu. Tymczasem

właściwa mechanice kwantowej nieoznaczoność nie pozwala nam przewidzieć z góry, z którą z

tych możliwości będziemy mieli do czynienia. Prawa mechaniki kwantowej pozwalają jednak na

przypisanie alternatywnym stanom względnych wartości prawdopodobieństwa. W rozważanym

przykładzie wartości te są równe. Zatem, według prymitywnej wersji hipotezy wielu światów, w

momencie dokonywania pomiaru świat rozpada się na dwa „egzemplarze”: jeden, w którym spin

zorientowany jest ku górze, i drugi, w którym zorientowany jest w dół.

Bardziej wyrafinowana wersja zakłada, że oba światy istnieją przez cały czas, lecz przed

dokonaniem eksperymentu są one identyczne pod każdym względem. Dopiero sam pomiar

powoduje ich zróżnicowanie pod względem orientacji spinu elektronu. W przypadku gdy

wchodzą w grę nierówne wartości prawdopodobieństwa, można sobie zakładać więcej

identycznych światów, odpowiednio do tych wartości. Na przykład, jeśli mamy wartości

prawdopodobieństwa 2/3 dla orientacji „w górę” i dla orientacji „w dół”, to można sobie

wyobrażać trzy początkowo identyczne światy, z których dwa pozostają identyczne i spin

skierowany jest w nich „do góry”, a trzeci różni się od nich tym, że spin skierowany jest „w dół”.

W ogólnym przypadku potrzeba nieskończonej liczby światów, aby uwzględnić wszystkie

możliwości.

Wyobraźmy sobie teraz, że stosujemy tę ideę nie do pojedynczego elektronu, lecz do

wszystkich cząstek we Wszechświecie. W całym kosmosie nieoznaczoności dotyczące każdej

bez wyjątku cząstki elementarnej powodują rozszczepianie się rzeczywistości na coraz to więcej

niezależnie istniejących światów. Z wizji tej wynika, że wszystko, co może się zdarzyć, zdarza

się; to znaczy, każdy zespół warunków, który jest dopuszczalny fizycznie (aczkolwiek nie każdy

dopuszczalny logicznie), zostaje gdzieś zrealizowany pośród tej nieskończonej liczby światów.

Poszczególne światy należy przy tym uważać za „równoległe”,czyli współistniejące

rzeczywistości. Dany obserwator będzie, oczywiście, widział zawsze tylko jeden z nich, ale

musimy zakładać, że świadomość obserwatora również podlega procesowi rozwarstwiania, a

więc każdy z tej mnogości alternatywnych światów będzie zawierał również kopie umysłu

obserwatora. Założeniem całej teorii jest, że nie uświadamiamy sobie tego „rozszczepienia”

umysłu i każdy „egzemplarz” uważa się za jedyny, integralny umysł. Niemniej jednak zostajemy

background image

w ten sposób powieleni w nieskończonej liczbie egzemplarzy. Hipoteza, mimo całej swojej

niecodzienności, znajduje uznanie, w tej czy innej wersji, u wielu zarówno fizyków, jak i

filozofów. Szczególnie przemawia ona do badaczy zajmujących się kosmologią kwantową, gdzie

alternatywne interpretacje mechaniki kwantowej stwarzają jeszcze większe trudności. Trzeba

jednakże przyznać, że teoria ta ma też swoich krytyków, którzy (np. Roger Penrose) kwestionują

między innymi pogląd, że nie da się dostrzec rozszczepienia.

Nie jest to bynajmniej jedyna istniejąca hipoteza wielości światów. Inną, nieco łatwiejszą

do wizualizacji, możliwością jest, iż to, co nazywamy „Wszechświatem”, stanowi zaledwie

niewielki wyrywek olbrzymiego układu rozciągającego się o wiele dalej w przestrzeni.

Gdybyśmy byli w stanie zaglądnąć dalej niż te dziesięć miliardów z okładem lat świetlnych

dostępnych naszym instrumentom obserwacyjnym, zobaczylibyśmy (tak przynajmniej twierdzi

się w tej teorii) zupełnie odmienne obszary Wszechświata. Liczba możliwych obszarów z

różnymi warunkami w nich panującymi jest nieograniczona, gdyż zakłada się, że Wszechświat

jest nieskończenie wielki. Ściśle mówiąc, jeżeli definiuje się „Wszechświat” jako wszystko, co

istnieje, to należałoby w tym przypadku mówić raczej o hipotezie wielu obszarów aniżeli wielu

światów, ale dla naszych celów rozróżnienie to nie jest istotne.

Zagadnieniem, które musimy teraz rozważyć, jest, czy oznaki planowego charakteru

świata mogą być jednocześnie traktowane jako oznaki przemawiające na rzecz istnienia wielości

światów. W niektórych przypadkach odpowiedź musi być zdecydowanie pozytywna. Na

przykład wielkoskalowy rozkład przestrzenny materii w kosmosie ma istotne znaczenie dla

powstania życia. Gdyby Wszechświat był wysoce nieregularny, powstawałyby w nim czarne

dziury lub też turbulencje gazowe, a nie uporządkowane galaktyki zawierające stabilne gwiazdy i

planety, mogące stworzyć warunki dogodne dla życia. Jeżeli wyobrazimy sobie nieskończoną

mnogość światów z przypadkowym rozkładem materii, to przeważałyby wśród nich światy

całkowicie chaotyczne. Niemniej tu i ówdzie, na zasadzie czystego przypadku, powstawałyby

oazy porządku, w których możliwe byłoby powstanie życia. Zmierzającą w tym kierunku wersję

scenariusza kosmicznej inflacji przedstawił ostatnio rosyjski fizyk Andriej Linde. Chociaż owe

oazy spokoju byłyby niewiarygodnie rzadkie, nie ma nic zaskakującego w tym, że znajdujemy się

w takim miejscu, gdyż inaczej po prostu by nas nie było. W końcu nie dziwimy się temu, iż

jesteśmy nietypowo usytuowani na powierzchni planety, podczas gdy przeważającą część

Wszechświata stanowi praktycznie pusta przestrzeń. Tak więc obserwowany przez nas w

background image

kosmosie ład nie musi być wynikiem opatrznościowej preor-dynacji, lecz efektem selekcyjnym

związanym z istnieniem nas samych.

Uzasadnienia tego typu mogą być również zastosowane w przypadku niektórych

„zbiegów okoliczności” w fizyce cząstek elementarnych. Omawiałem już, w jaki sposób

mechanizm Higgsa pozwala na wyjaśnienie, skąd bierze się masa cząstek W i Z. W bardziej

zaawansowanych teoriach unifikacji wprowadza się dalsze pola Higgsa, by wygenerować masę

wszystkich cząstek, a ponadto ustalić niektóre inne parametry teorii związane z natężeniem

oddziaływania. Podobnie jak w przypadku podanej przeze mnie poprzednio analogii z ołówkiem,

gdy układ-ołówek przewracając się przybiera jeden z wielu możliwych stanów (może wskazywać

na północny wschód, południowy wschód, południowy zachód, itd.), w bardziej

zaawansowanych wersjach mechanizmu Higgsa układ cząstek może poprzez złamanie symetrii

znaleźć się w wielu różnych stanach. Wybór konkretnego stanu uwarunkowany jest w

przypadkowy sposób fluktuacjami kwantowymi, tj. wewnętrzną nieoznaczonością właściwą

wszystkim układom kwantowym. Teoria wielości światów wymaga, aby każdej możliwości

odpowiadał odrębny zupełny Wszechświat; ewentualnie, aby były one realizowane w odrębnych

obszarach przestrzeni. W obu przypadkach mamy do czynienia z mnogością układów

kosmologicznych, w których występują różne wartości mas cząstek i odziaływań. Można wtedy

utrzymywać, że tylko w układach, w których parametry te są sprzyjające, może pojawić się życie.

Mimo iż teoria wielości światów pozwala na wyjaśnienie tego, co w innym przypadku

pozostawałoby zadziwiającymi szczególnymi faktami przyrody, natyka się ona na szereg

poważnych trudności. Pierwszą z nich, którą omawiałem już w rozdziale 7, jest, że stanowi ona

policzek wymierzony brzytwie Ockhama poprzez wprowadzenie ogromnej (faktycznie

nieskończonej) złożoności po to, by uzasadnić prawidłowości tylko jednego Wszechświata.

Osobiście uważam, że taka metoda „strzelania z grubej rury” przy wyjaśnianiu szczególnego

charakteru naszego Wszechświata jest wątpliwa pod względem naukowym. Pojawia się także

problem, że teoria ta jest w stanie wyjaśnić jedynie te aspekty przyrody, które mają jakieś

znaczenie dla zaistnienia życia i świadomości; w innych przypadkach nie istnieje żaden

mechanizm selekcji. Część z podawanych przeze mnie przykładów planowego charakteru świata,

jak wyrafinowanie i jedność fizyki cząstek elementarnych, nie ma żadnych wyraźnych związków

z biologią. A należy mieć na uwadze, że nie wystarczy, by dana cecha była z jakichś względów

istotna biologicznie; powinna ona odgrywać zasadniczą rolę przy powstawaniu życia w takiej

background image

formie, jaka faktycznie istnieje.

Innym momentem, nad którym na ogół przechodzi się do porządku dziennego, jest to. że

we wszystkich teoriach wielości światów, które wywodzą się z fizyki (w przeciwieństwie do

czystego fantazjowania na temat istnienia innych światów), prawa fizyki są takie same we

wszystkich światach. Selekcja dokonuje się wyłącznie wśród światów fizycznie dopuszczalnych,

a nie wszystkich, jakie można sobie wyobrazić. Mogą być światy niesprzeczne logicznie, lecz

sprzeczne z prawami fizyki. W podanym przykładzie z elektronem, który może mieć spin

skierowany w górę lub w dół, w obu światach elektron ma ten sam ładunek elektryczny, podlega

tym samym prawom elektromagnetyzmu, itd. Tak więc teorie wielości światów pozwalają na

selekcję spośród różnych stanów świata, lecz nie spośród praw. Prawdą jest, że rozróżnienie

między cechami przyrody, które zawdzięczają swe istnienie jakiemuś prawu, a tymi, które są

tylko wyrazem określonego jej stanu, nie zawsze jest możliwe. Widzieliśmy już, że pewne

parametry, jak masy niektórych cząstek, które poprzednio wchodziły do teorii jako część

zakładanych praw fizyki, są teraz uważane za stany, których wybór dokonuje się poprzez

mechanizm Higgsa. Jednak mechanizm ten działa w ramach teorii, kióra zawiera swoje własne

prawa, i je także należałoby jakoś uzasadnić. Ponadto, jakkolwiek wskutek fluktuacji

kwantowych mechanizm Higgsa może działać odmiennie w różnych światach, na podstawie

dotychczasowych teorii nie wynika wcale, że można w ten sposób uzyskać wszystkie możliwe

wartości mas cząstek, natężenia pól, itp. Mechanizm Higgsa i inne podobne mechanizmy tak

zwanego łamania symetrii prowadzą na ogół do dyskretnego, i to skończonego, zbioru

alternatywnych wartości.

Dlatego nie jest możliwe, jak sugerowali niektórzy fizycy, wyjaśnienie na tej drodze faktu

istnienia praw, którym podlega przyroda. Czy nie można by jednak rozszerzyć koncepcji wielości

światów tak, by obejmowała także wybór spośród różnych praw? Nie istnieją żadne przeszkody

logiczne, by tego dokonać, lecz nie ma jednocześnie po temu żadnych podstaw naukowych.

Przypuśćmy wszakże, że dopuszczamy wśród alternatywnych rzeczywistości również ogromną

klasę takich, w których nie występuje żaden porządek, prawa czy regularności, tzn. panuje w nich

totalny chaos. Światy te zachowywałyby się w sposób całkowicie przypadkowy. I tak jak małpa

waląca w klawisze maszyny do pisania może w końcu napisać dzieła Szekspira, wśród tej

ogromnej liczby światów znajdą się takie, w których, na zasadzie czystego przypadku, pojawi się

jakiś porządek. Argumenty typu antropicznego prowadzą nas wtedy do stwierdzenia, że każdy

background image

obserwator będzie z konieczności widział świat uporządkowany, choćby był on nie wiem jak

rzadki pośród swych chaotycznych pobratymców. Czy można by to uznać za wyjaśnienie

naszego świata?

Moim zdaniem, odpowiedź na to pytanie jest negatywna. Pozwolę sobie przypomnieć, że

argumenty natury antropicznej mają sens jedynie w odniesieniu do tych aspektów przyrody, które

mają istotne znaczenie dla życia biologicznego. W przypadku wyboru spośród światów nie

podlegających w ogólnym przypadku żadnym prawom, przeważająca liczba wybranych

przypadkowo zamieszkałych światów będzie uporządkowana tylko pod względami, które

odgrywają zasadniczą rolę w powstawaniu i zachowaniu życia. Nie ma na przykład żadnego

powodu, dlaczego ładunek elektronu miałby pozostawać absolutnie niezmienny w czasie lub

dlaczego wszystkie elektrony mają dokładnie taki sam ładunek. Drobne fluktuacje wartości tego

ładunku nie zagrażałyby istnieniu życia. Cóż innego mogłoby powodować, że ładunek ten jest

stały, i to stały z tak zdumiewającą dokładnością, jeśli nie prawa fizyki? Można sobie wyobrazić

mnogość światów, w której w każdym świecie są inne, choć ustalone, prawa. Być może da się

wtedy za pomocą argumentów antropicznych uzasadnić, dlaczego przynajmniej niektóre z praw,

jakie obserwujemy, mają daną postać. Niemniej hipoteza ta musi zakładać pojęcie samego prawa,

pozostaje więc otwarte pytanie, skąd wzięły się same prawa i w jaki sposób „umocowują” się one

w świecie „na zawsze”.

Moją konkluzją jest, że hipoteza wielu światów jest w stanie uzasadnić co najwyżej cześć

cech rzeczywistego świata, i to pod warunkiem przyjęcia pewnych metafizycznych założeń, które

są równie nieoczywiste jak planowy charakter świata. Ostatecznie brzytwa Ockhama skłania

mnie do postawienia na planowość świata, lecz jak zwykle w kwestiach metafizycznych, wybór

ten jest bardziej sprawą osobistych preferencji niż osądu naukowego. Warto jednak zauważyć, że

uznawanie hipotezy wielu światów w żadnym stopniu nie kłóci się z wiarą w Boga jako autora

planu świata. W istocie, jak zaznaczałem, wiarygodne wersje tej hipotezy nadal pozostawiają

miejsce dla poszukiwania dalszego uzasadnienia faktów takich, jak uporządkowany charakter

światów i skąd w ogóle wzięła się sama mnogość światów. Wspomnę także, że wszelkie

dyskusje, w których w oparciu o obserwacje jednego tylko Wszechświata wyciąga się wnioski co

do nieprawdopodobności tej czy innej cechy, rodzą poważne kwestie związane z istotą samego

prawdopodobieństwa. Sądzę, że zostały one zadowalająco rozpatrzone przez Johna Leslie,

niemniej jednak niektórzy autorzy upierają się, że wszelkie argumentowanie wstecz „po fakcie” -

background image

w tym przypadku faktem tym jest zaistnienie nas samych -jest niedopuszczalne.

background image

Kosmologiczny darwinizm

Ostatnio Lee Smolin przedstawił interesującą wersję hipotezy wielu światów, która unika

pewnych zarzutów poprzez ukazanie nietrywialnego związku pomiędzy wymogami istnienia istot

żywych a wielością różnych światów. W rozdziale 2 ukazywałem, że, jak wynika z badań w

dziedzinie kosmologii kwantowej, w wyniku fluktuacji kwantowych mogą powstawać

„wszechświaty niemowlęce” i w ten sposób „wszechświat macierzysty” może ulec rozmnożeniu.

Te nowe wszechświaty powstają w czarnych dziurach. Zgodnie z klasyczną (niekwantową) teorią

grawitacji, czarna dziura zawiera w sobie osobliwość, którą można uważać za coś w rodzaju

brzegu czasoprzestrzeni. W wersji kwantowej osobliwość ta ulega pewnemu rozciągnięciu. Nie

wiemy dokładnie, jak to się dzieje, w każdym razie wyraźny brzeg czasoprzestrzeni przemienia

się w coś w rodzaju tunelu, gardzieli czy też pępowiny, łączącej nasz Wszechświat z nowym,

niemowlęcym wszechświatem. Jak podawałem w rozdziale 2, czarna dziura w wyniku efektów

kwantowych może ostatecznie „wyparować”, zrywając „pępowinę” i pozostawiając wszechświat

niemowlęcy jako niezależnie istniejący.

Smolin rozwinął tę myśl zauważając, że w ekstremalnych warunkach panujących w

pobliżu osobliwości może dochodzić do drobnych przypadkowych zmian w prawach fizyki. W

szczególności wartości niektórych stałych przyrody, takich jak masy cząstek, ładunki, itp., we

wszechświecie pochodnym mogą się nieznacznie różnić od tych, jakie występowały we

wszechświecie macierzystym. Ewolucja wszechświata pochodnego będzie zatem przebiegała

nieco odmiennie. Przy odpowiednio dużej liczbie „pokoleń” różnice pomiędzy poszczególnymi

wszechświatami mogą być już dość znaczne. Prawdopodobnie jednak we wszechświatach, które

różnią się znacznie od naszego, nie powstaną gwiazdy (jak pamiętamy, warunki umożliwiające

narodziny gwiazd są dość szczególne). Ponieważ czarne dziury powstają przede wszystkim z

gwiazd, które zakończyły swoją ewolucję, we wszechświatach takich nie byłoby wiele czarnych

dziur i nie mogłyby one rodzić wielu wszechświatów niemowlęcych. Natomiast we

wszechświatach, których fizyczne parametry pozwalają na powstawanie dużej liczby gwiazd,

tworzyłoby się także wiele czarnych dziur, a tym samym i więcej wszechświatów niemowlęcych

posiadających zbliżone wartości tych parametrów. Owo zróżnicowanie kosmicznej „płodności”

prowadzi do czegoś w rodzaju darwinowskiego doboru naturalnego. Chociaż wszechświaty nie

konkurują bezpośrednio ze sobą o przeżycie, powstaje podział na „skuteczne” i „mniej

background image

skuteczne”, i udział „skutecznych” wszechświatów - w tym przypadku takich, w których procesy

powstawania gwiazd są najbardziej wydajne - w całej populacji stale się powiększa. Smolin

wskazuje następnie, że istnienie gwiazd stanowi także warunek konieczny do powstania życia.

Zatem te same warunki, które sprzyjają życiu, sprzyjają także narodzinom innych

wszechświatów, w których możliwe jest życie. W koncepcji Smolina życie nie stanowi więc

zdarzenia skrajnie rzadkiego, jak w innych teoriach wielu światów, lecz będzie ono występowało

w większości wszechświatów.

Mimo jej atrakcyjności, nie jest oczywiste, czy teoria Smolina stanowi istotny krok

naprzód w wyjaśnianiu szczególnego charakteru naszego Wszechświata. Ukazanie możliwych

powiązań pomiędzy ewolucją biologiczną a kosmologiczną jest niewątpliwie ciekawe, niemniej

nadal można zadawać pytanie, dlaczego prawa przyrody są takie, że umożliwiają te powiązania.

W końcu fakt, że warunki powstawania życia odpowiadają warunkom narodzin nowych

wszechświatów, jest także bardzo szczęśliwym zbiegiem okoliczności Ponadto, by teoria ta miała

w ogolę sens, nadal konieczne jest, aby zasadnicza struktura praw we wszystkich wszechświatach

była taka sama To, ze ta właśnie wspólna struktura sprzyja powstaniu życia, pozostaje faktem

niewyjaśnionym.

background image

Rozdział dziewiąty

TAJEMNICA U PODSTAW ŚWIATA

Zawsze uważałem za dziwne że mimo iż większość naukowców odżegnuje się od religii to

faktycznie zajmuje ona w ich myślach więcej miejsca niż u duchownych.

Fred Hoyle w książce tej postawiłem sobie za cel prześledzenie racjonalnych przesłanek

naukowych, na ile się tylko dało, w poszukiwaniu ostatecznych odpowiedzi w kwestiach

egzystencjalnych Idea, ze możliwe jest wyjaśnienie wszystkiego do końca - całego świata

przyrodzonego i nadprzyrodzonego w ramach jednego spójnego systemu wiedzy -jest niezwykle

pociągająca Jednakże jakąż możemy mieć pewność, ze tak określony cel naszych dążeń

poznawczych nie jest tylko mrzonką?

background image

Potęga żółwia

Stephen Hawkmg rozpoczyna swą słynną książkę Krótka historia czasu od przytoczenia

anegdotki o starszej pani, która wysłuchawszy popularnego odczytu o Wszechświecie wstała i

powiedziała, ze ona i tak wie swoje. Świat, jej zdaniem, naprawdę jest płaski i opiera się na

grzbiecie ogromnego żółwia. Zapytana przez prelegenta, na czym z kolei opiera się ów żółw,

odparła „Żółw stoi na żółwiu, i tak dalej, bez końca”.

Anegdotka ta unaocznia podstawowy problem, jaki staje przed wszystkimi, którzy

poszukują ostatecznych odpowiedzi w kwestiach istnienia świata. Staramy się uzasadnić ten

świat odwołując się do czegoś bardziej fundamentalnego, jakiegoś zespołu przyczyn, który z

kolei uwarunkowany jest jakimiś prawami czy też podstawowymi zasadami, lecz następnie

poszukujemy uzasadnienia również dla tego bardziej fundamentalnego poziomu, i tak dalej. Czy

ten ciąg rozumowania ma gdzieś swój kres? Trudno pogodzie się z myślą, ze mógłby on iść w

nieskończoność „Nie ma piramidy żółwi - utrzymuje John Wheeler - Nie jest tak, ze każda

struktura, porządek, teoria, opierają się na strukturach niższego poziomu, te z kolei na

następnym, potem jeszcze niższym, i tak ad infinitum, aż w bezdenną otchłań”

Ale jakąż mamy alternatywę? Czy jest jakiś „superzółw”, który nie wymagając podparcia,

stanowi podstawę całej piramidy”? A może ten „superzółw” w jakiś sposób „podpiera sam

siebie”? Pogląd ten ma długą historię. Widzieliśmy już, iż filozof Spinoza dowodził, ze świat nie

mógłby być inny, że Bóg nie miał żadnego wyboru. Superżółwiem w świecie Spinozy jest czysto

logiczna konieczność. Nawet ci, którzy uważają, ze świat jest przygodny, odwołują się do tego

samego argumentu, twierdząc, ze uzasadnieniem dla świata jest Bóg, który jest bytem logicznie

koniecznym. W rozdziale 7 przedstawiłem problemy, jakie pojawiają się, gdy próbujemy

wyjaśniać przygodność poprzez konieczność Wcale me mniejsze trudności mają ci, którzy

odrzucając Boga poszukują jakiejś Teorii Wszystkiego, która dostarczałaby uzasadnienia

Wszechświata i była zarazem wyznaczona jednoznacznie na gruncie logicznej konieczności

Mogłoby się wydawać, ze jedyną alternatywą jest bądź nieskończona piramida żółwi,

bądź tez istnienie ostatecznego superzołwia, który stanowi uzasadnienie samego siebie

Tymczasem jest jeszcze trzecia możliwość zamknięta pętla W przepięknej książeczce Vicious

Circles and Infinity [Błędne koła i nieskończoność] znajduje się ilustracja przedstawiająca

pierścień z ludzi (zamiast żółwi), z których każdy siedzi na kolanach poprzedniego, trzymając z

background image

kolei sam kogoś na kolanach. Ta zamknięta pętla wzajemnie podtrzymujących się ludzi ma

symbolizować koncepcję Wszechświata Johna Wheelera „Fizyka rodzi współuczestniczącego

obserwatora, obserwator rodzi informację, informacja rodzi fizykę”. To dość niejasne

stwierdzenie bierze swój początek z idei kwantowomechanicznych, gdzie nie ma wyraźnego

podziału na obserwatora i obserwowany świat, stąd „współuczestniczący obserwator” Wheeler

interpretuje mechanikę kwantową w ten sposób, iż rzeczywisty świat aktualizuje się poprzez akt

obserwacji, jednak ten sam fizyczny świat rodzi obserwatora, który powoduje aktualizację jego

istnienia. Ponadto aktualizacja ta dotyczy również samych praw fizyki, ponieważ Wheeler

odrzuca całkowicie pojęcie praw wiecznych. „Prawa fizyki nie mogą istnieć z wieczności w

wieczność. Musiały one również zaistnieć podczas Wielkiego Wybuchu”.

Zatem, miast

odwoływać się do pozaczasowych, transcendentnych praw powołujących świat do istnienia,

Wheeler preferuje wizję „obwodu samowzbudzającego się”, czyli Wszechświata, który powoduje

zaistnienie samego siebie, wraz z prawami fizyki i wszystkim innym. Jakkolwiek taki

„samosprzężony” układ może wydawać się pociągający, bynajmniej nie jest on w stanie stanowić

ostatecznego wyjaśnienia, gdyż zawsze można zapytać „,Skąd się wzięło to sprzężenie?” czy też

„Dlaczego w ogóle istnieje jakiekolwiek sprzężenie?” Nawet zamknięta pętla wzajemnie

podpierających się żółwi rodzić będzie zawsze pytanie „A dlaczego właśnie żółwie?”

Wszystkie trzy z podanych powyżej schematów oparte są na założeniu, ze człowiek jest

istotą racjonalną, ze zasadne jest poszukiwanie „racji” dla wszystkiego i ze naprawdę rozumiemy

coś dopiero wtedy, gdy znamy „uzasadnienie” tego Jednakże trzeba przyznać, że pojęcie

racjonalnego uzasadniania bierze się prawdopodobnie z naszych obserwacji świata i naszego

dziedzictwa ewolucyjnego. Czy możemy być pewni, że prowadzi nas ono we właściwym

kierunku, gdy wikłamy się w rozwiązywanie podstawowych kwestii istnienia? Czyż nie może

być tak, że racja istnienia świata nie stanowi jego uzasadnienia w normalnym sensie tego słowa?

Nie oznaczałoby to, że Wszechświat jest absurdalny lub pozbawiony sensu, lecz jedynie to, iż

uzasadnienie jego istnienia i własności wykracza poza zwykłe kategorie racjonalnego myślenia

człowieka. Widzieliśmy już, że nawet stosowanie racjonalnego myślenia w jego najbardziej

wyrafinowanej i sformalizowanej postaci w matematyce nie jest wolne od paradoksów i

niepewności. Twierdzenie Godła stanowi ostrzeżenie, iż aksjomatyczna metoda wyciągania

wniosków z danych założeń na drodze dedukcyjnej nie pozwala w ogólnym przypadku na

stworzenie systemu, o którym dałoby się dowieść, że jest zupełny i spójny. Zawsze będzie jakaś

background image

prawda przekraczająca go, której nie można osiągnąć wychodząc ze skończonego zbioru

aksjomatów. Poszukiwania zamkniętej teorii, która dostarczałaby pełnego i spójnego opisu

wszystkiego, co istnieje, skazane są na niepowodzenie. Podobnie jak kabalistyczna liczba u

Chaitina, taka teoria może istnieć i my możemy o tym wiedzieć, a nawet poznać jej niewielkie

fragmenty, lecz nigdy nie będziemy w stanie poznać jej w całości na drodze racjonalnego

poznania.

Wydaje mi się, że jak długo utożsamiamy „poznanie” z „racjonalnym uzasadnieniem”,

takim, jakie występuje w naukach przyrodniczych, nieuchronnie popadamy w „problem żółwi”:

albo niekończący się ciąg, albo tajemniczy superżółw będący swoją własną podstawą, albo

niewyjaśniona zamknięta pętla. U podstaw świata zawsze będzie kryć się tajemnica. Być może

jednak istnieją jakieś inne formy poznania, które byłyby w stanie zaspokoić poszukujący umysł.

Czy możemy poznać sens świata bez wikłania się w „problem żółwi”? Czy jest jakaś metoda

osiągania wiedzy - być może nawet „wiedzy ostatecznej” - która wykracza poza normalny tryb

racjonalnego poznania naukowego i wnioskowania logicznego? Wielu ludzi uważa, że tak.

Nazywa się ona mistycyzmem.

background image

Wiedza mistyczna

Ludzie nauki wykazują na ogół głęboką nieufność wobec mistycyzmu. Nie powinno to

nikogo dziwić, jako że myślenie mistyczne jest krańcowym przeciwieństwem myślenia

racjonalnego, na którym opiera się metoda naukowa. Ponadto, mistycyzm bywa często mylony z

wiedzą tajemną, zjawiskami paranormalnymi i innymi podejrzanymi poglądami z obrzeża nauki.

W istocie, wiele z najtęższych umysłów w dziejach nauki, w tym uczeni tacy jak Einstein, Pauli,

Schródinger, Heisenberg, Eddington i Jeans, nie stroniło od mistycyzmu. Moim własnym

poglądem w tej kwestii jest, że metodą naukową należy się posługiwać, gdzie tylko można.

Mistycyzm nie może zastępować badań naukowych i racjonalnego myślenia tam, gdzie mogą być

one prawomocnie zastosowane. Dopiero gdy przychodzi do podjęcia fundamentalnych kwestii

związanych z istnieniem, nauka i logika zaczynają nas zawodzić. Nie chcę tu powiedzieć, że dają

one niewłaściwe odpowiedzi, lecz że nie są w stanie odpowiedzieć na pytania typu „dlaczego” (w

przeciwieństwie do „jak”), z którymi wtedy mamy do czynienia.

Terminem „doświadczenie mistyczne” posługują się często ludzie głęboko religijni lub

uprawiający praktyki medytacyjne. Doświadczenia tego typu, które są bez wątpienia realne dla

ludzi, którzy je przeżywają, są podobno bardzo trudne do oddania słowami. Mistycy mówią

często o przemożnym poczuciu bycia jednością ze światem lub z Bogiem, przebłysku

holistycznej wizji rzeczywistości czy też bliskości potężnej, miłującej istoty. Najbardziej istotne

jest to, że utrzymują oni, że chwytają ostateczną rzeczywistość w ramach pojedynczego

przeżycia, w przeciwieństwie do długich i żmudnych rozumowań dedukcyjnych (wikłających się

ponadto w „problem żółwi”), nieodłącznie związanych z logiczno-naukową drogą poznania.

Niekiedy przeżycia mistyczne sprowadzają do doznania wewnętrznego spokoju „współczujący,

radosny spokój, dający wytchnienie od wytężonej pracy umysłu”, jak to opisywał mi kiedyś

pewien znajomy fizyk. Einstein mówił o „kosmicznym przeżyciu religijnym” inspirującym go do

rozważań nad porządkiem i harmonią przyrody. Niektórzy naukowcy, z których warto wymienić

przede wszystkim Briana Josephsona i Davida Bohma, uważają, że regularne przeżycia

mistyczne osiągane na drodze cichych praktyk medytacyjnych mogą pomóc w formułowanu

teorii naukowych.

W innych przypadkach przeżycia mistyczne zdają się mieć bardziej bezpośredni i

objawiający charakter. Russell Stannard pisze o doznanym wrażeniu stanięcia twarzą w twarz z

background image

przemożną nieznaną siłą, „która wzbudzała jednocześnie poczucie czci i bojaźni. (...) Było w tym

coś niepokojąco naglącego; jak gdyby wzbierający wulkan mający właśnie wybuchnąć”. Autor

książek o nauce David Peat opisuje „dziwne intensywne uczucie, które zdaje się zalewać cały

otaczający nas świat, nadając mu w jednej chwili sens. (...) Mamy poczucie, iż dotykamy czegoś

uniwersalnego, może nawet wiecznego, i że ta właśnie konkretna chwila zyskuje charakter

numinotyczny i zdaje się trwać w nieskończoność. Czujemy, że znikają wszelkie granice między

nami a światem zewnętrznym, ponieważ to, czego doświadczamy, wymyka się wszystkim

kategoriom i wszelkim próbom logicznego pojmowania”.

Język używany do opisu przeżyć tego typu zwykle uwarunkowany jest kręgiem

kulturowym, do którego należy dany człowiek. Mistycy Zachodu podkreślają osobowy charakter

uobecniania, opisując, że obcują z kimś, zazwyczaj jest to Bóg, kto jest odrębny od nich samych,

lecz czują z nim głęboką osobową więź. Tego typu doświadczenia mają długą tradycję w

chrześcijaństwie i innych religiach Zachodu. Mistycy Wschodu kładą natomiast nacisk na

poczucie bycia jedną całością ze wszystkim, co istnieje, i w większym stopniu utożsamiają się z

tym, co uobecnia się w przeżyciu mistycznym. Pisarz Ken Wilber opisuje doświadczenia

mistyczne Wschodu posługując się charakterystycznie niejasnym językiem:

Świadomość mistyczna pojmuje Rzeczywistość bezpośrednio i w jednorazowym akcie, to

znaczy bez żadnych środków pośredniczących, żadnych symboli, pojęć czy też abstrakcji;

podmiot i przedmiot poznania stają się jednym w dokonującym się poza czasem i przestrzenią

akcie, który przekracza wszelkie możliwe formy wyrazu. Wszyscy mistycy mówią o dotykaniu

rzeczywistości ,jaką ona jest”, w jej samej istocie, bez odwoływania się do słów, symboli, nazw,

myśli, obrazów.

Istotą doświadczenia mistycznego jest zatem coś w rodzaju dochodzenia do prawdy na

skróty, bezpośredni, jednorazowy kontakt pozwalający ujrzeć ostateczną rzeczywistość. Według

Rudiego Ruckera: Podstawową tezą mistycyzmu jest: Rzeczywistość jest Jednością. Praktyka

mistycyzmu polega na odnajdywaniu sposobów pozwalających na doświadczanie tej jedności

bezpośrednio. Jedność ta bywa rozmaicie nazywana: Dobrem, Bogiem, Kosmosem, Myślą,

Nicością, czy też (chyba najbardziej neutralnie) Absolutem. Żadne drzwi w zamku-labiryncie

nauki nie otwierają się bezpośrednio na Absolut. Ale jeśli osiągnie się odpowiednio wysoki

stopień poznania tego labiryntu, można wydostać się z niego i doświadczyć Absolutu jako

takiego. (...) Jednakże, ostatecznie, poznanie mistyczne dokonuje się w jednorazowym akcie lub

background image

wcale. Nie ma tu żadnej drogi stopniowego dochodzenia do wiedzy.

W rozdziale 6 wspominałem, że niektórzy naukowcy i matematycy utrzymują, że doznali

takich nagłych przebłysków, bardzo przypominających przeżycia mistyczne. Roger Penrose

opisuje momenty natchnienia u matematyka jako nagłe „wdzieranie się” w platońską dziedzinę

idei. Rucker zauważa, że Kurt Godeł również mówił o „innej relacji do rzeczywistości”,

pozwalającej mu postrzegać bezpośrednio obiekty abstrakcyjne, jak nieskończoność. Inni

naukowcy doznawali objawień nieoczekiwanie, pośród codziennych zajęć. Fred Hoyle opowiada

o przypadku, jaki spotkał go, gdy jechał samochodem na północ Anglii. „Tak jak Paweł doznał

objawienia w drodze do Damaszku, moje objawienie nastąpiło, gdy przejeżdżałem przez Bowes

Moor”. W drugiej połowie lat sześćdziesiątych Hoyle wraz ze swoim współpracownikiem

Jayantem Narlikarem pracował nad kosmologiczną teorią elektromagnetyzmu, która wymagała

znacznej dozy trudnej matematyki. Pewnego dnia, zmagając się ze szczególnie skomplikowaną

całką, Hoyle postanowił zrobić sobie parę dni odpoczynku i dołączyć do kolegów, którzy właśnie

urządzili wędrówkę po górach Szkocji.

Gdy przemierzałem kolejne kilometry, ten kwantowomechaniczny problem (...) plątał mi

się gdzieś po głowie w niejasny sposób, jak to bywa, kiedy myślę o matematyce w łóżku przed

zaśnięciem. Zwykle muszę zapisywać wszystko na kartce, by potem grzebać się w równaniach i

całkach na miarę moich umiejętności. Ale gdzieś koło Bowes Moor rozjaśniło mi się w głowie,

nie odrobinę, nie w żaden zwykły sposób, lecz jak gdyby ktoś nagle włączył olbrzymi jaskrawy

reflektor, w którego świetle ujrzałem wyraźną ideę. Ile to mogło trwać, zanim się przekonałem,

że problem został w pełni rozwiązany? Chyba niecałe pięć sekund. Zanim doznanie to znikło,

zdążyłem się jeszcze upewnić, że zapamiętałem wystarczająco dużo kroków rozwiązania, abym

mógł je później odtworzyć. O stopniu mojej pewności świadczy fakt, że w ciągu następnych dni

nie chciało mi się niczego zapisywać na papierze. Gdy po jakichś dziesięciu dniach wycieczki

powróciłem do Cambridge, zapisanie całego toku rozumowania nie sprawiało trudności.

Hoyle wspomina również, jak rozmawiał na temat objawień z Richardem Feynmanem:

Kilka lat temu Dick Feynmann plastycznie opisywał, jak to jest w takim momencie

natchnienia i że następuje potem ogromne poczucie euforii, trwające przez jakieś dwa, trzy dni.

Gdy spytałem, ile razy mu się to przydarzyło, Feynman odparł: „cztery”; obaj zgodziliśmy się, że

dwanaście dni euforii nie jest zbyt dużą zapłatą za życie wypełnione pracą naukową.

Opowiedziałem przeżycia Hoyle'a w tym miejscu, a nie w rozdziale 6, gdyż sam

background image

przyznaje, że miały one prawdziwie religijny (w przeciwieństwie do czysto platońskiego)

charakter. Hoyle uważa, że za porządek kosmosu odpowiedzialna jest jakaś „superinteligencja”,

która rządzi jego ewolucją poprzez procesy kwantowe; o koncepcji tej wspomniałem w rozdziale

7. Ponadto Bóg Hoyle'a jest Bogiem Ideologicznym (co przypomina Arystotelesa lub Teilharda

de Chardin), ukierunkowywującym świat ku końcowemu stanowi w nieskończonej przyszłości.

Hoyle uważa, że działając na poziomie kwantowym superinteligencja ta jest w stanie zaszczepiać

w ludzkim umyśle w gotowej postaci myśli i idee pochodzące z przyszłości. Stąd, jego zdaniem,

bierze się natchnienie zarówno w matematyce, jak i w muzyce.

background image

Nieskończoność

W naszym poszukiwaniu odpowiedzi ostatecznych trudno nie natknąć się, w ten czy inny

sposób, na nieskończoność. Czy to będzie nieskończona piramida żółwi, nieskończony zbiór

twierdzeń matematycznych, czy też nieskończony Stwórca, nie wydaje nam się, aby świat

fizyczny mógł wywodzić się z czegoś skończonego. W religiach Zachodu istnieje długa tradycja

utożsamiania Nieskończoności z Bogiem, podczas gdy filozofia Wschodu stara się

wyeliminować różnicę między Jednością a Wielościa i utożsamić Nicość z Nieskończonościa –

zero i nieskonczoność.

Gdy pierwsi myśliciele chrześcijańscy, jak Platon, głosili nieskończoność Boga, chcieli

przez to powiedzieć przede wszystkim, że nie podlega On żadnym ograniczeniom. Matematyczne

pojęcie nieskończoności w owym czasie było jeszcze bardzo niejasne. Powszechnie uważano, że

nieskończoność stanowi granicę, ku której zmierza proces liczenia, lecz której w rzeczywistości

nigdy nie da się osiągnąć. Nawet Tomasz z Akwinu, który przyznawał Bogu nieskończoną

naturę, nie był gotów uznać, że nieskończoność może być czymś więcej niż bytem potencjalnym,

w przeciwieństwie do aktualnego. Wszechmocny Bóg „nie jest w stanie uczynić rzeczy

nieograniczonej w sensie absolutnym” - twierdził.

Pogląd, że nieskończoność jest pojęciem paradoksalnym i wewnętrznie sprzecznym,

utrzymał się aż do dziewiętnastego wieku. Wtedy to matematykowi Georgowi Cantorowi, przy

okazji badania problemów trygonometrycznych, udało się ostatecznie przeprowadzić ścisły pod

względem logicznym dowód, że pojęcie nieskończoności aktualnej nie jest wewnętrznie

sprzeczne. Cantor miał ciężką przeprawę w środowisku naukowym; niektórzy wybitni

matematycy uważali go wręcz za szaleńca. Faktem jest, że później naprawdę zapadł na chorobę

umysłową. Niemniej w końcu zasady wolnego od sprzeczności posługiwania się liczbami

nieskończonymi, mimo całej swojej niecodzienności i sprzeczności z intuicją, powszechnie się

przyjęły. W istocie, znaczna część dwudziestowiecznej matematyki opiera się na pojęciu

nieskończoności (bądź też wielkości nieskończenie małych).

Jeżeli nieskończoność daje się ująć i wykorzystać za pomocą racjonalnego rozumowania,

czyż nie otwiera to drogi do poznania ostatecznego uzasadnienia wszechrzeczy bez odwoływania

się do mistycyzmu? Bynajmniej. Aby przekonać się, dlaczego, musimy bliżej przyjrzeć się

samemu pojęciu nieskończoności.

background image

Jednym z zaskakujących wniosków Cantora było, że nie istnieje jedna nieskończoność,

lecz cała mnogość nieskończoności. Na przykład, zbiór wszystkich liczb całkowitych i zbiór

wszystkich ułamków są zbiorami nieskończonymi. Mogłoby się intuicyjnie wydawać, że

ułamków jest więcej niż liczb całkowitych, ale to nieprawda. Z drugiej strony, zbiór wszystkich

ułamków dziesiętnych jest większy niż zbiór wszystkich ułamków zwykłych i zbiór liczb

całkowitych. Pojawia się zatem pytanie: czy istnieje „największa” nieskończoność? Co będzie,

jeśli połączymy wszystkie zbiory nieskończone w jeden superwszechzbiór? Klasa wszystkich

możliwych zbiorów faktycznie istnieje i nosi nazwę Absolutu Cantora.

Jest tylko jeden szkopuł. Twór ten nie jest zbiorem, ponieważ gdyby był, to na mocy

definicji musiałby również zawierać sam siebie. Ale zbiory zawierające same siebie prowadzą w

prostej linii do antynomii Russella.

W ten sposób jeszcze raz natykamy się na gódlowską granicę dla poznania racjonalnego -

tajemnicę u podstaw świata. Nie możemy poznać Absolutu Cantora, ani żadnego innego

Absolutu, na drodze racjonalnej, jako że każdy Absolut, będąc Jednością, a zatem bytem

zupełnym, musi obejmować również siebie. Jak zauważył Rucker w kontekście Krainy Myśli,

czyli klasy wszystkich zbiorów idei: „Jeżeli Kraina Myśli jest Jednością, to jest ona elementem

samej siebie, a zatem może być poznana jedynie w przebłysku objawienia mistycznego. Żadna

idea racjonalna nie obejmuje samej siebie, a zatem nie istnieje racjonalna idea pozwalająca pojąć

Krainę Myśli jako Jedno”.

background image

Kim jest człowiek?

Czuję, że jestem w tym Wszechświecie u siebie.

Freeman Dyson

Czy szczere przyznanie, że nie ma dla nas żadnej nadziei na osiągnięcie poznania

ostatecznego, oznacza, że wszelkie rozważania metafizyczne są bezwartościowe? Czy mamy

przyjmować praktyczną postawę ateisty, który zadowala się przyjęciem, że Wszechświat jest mu

dany jako taki, i zajmuje się katalogowaniem jego własności? Niewątpliwie wielu naukowców

gwałtownie sprzeciwia się powoływaniu na argumenty metafizyczne, nie mówiąc już o

mistycznych, w jakiejkolwiek postaci. Pogardliwie odnoszą się oni do przekonania, że mógłby

istnieć Bóg, czy nawet jakiś nieosobowy czynnik stwórczy, czy też zasada bytu, pozwalająca na

jakieś uzasadnienie rzeczywistości, by uczynić jej przygodne aspekty mniej arbitralnymi.

Osobiście nie podzielam tej pogardy. Chociaż wiele metafizycznych i teistycznych teorii może

się wydawać wydumanymi lub dziecinnymi, nie są one absurdalne bardziej niż przekonanie, że

świat istnieje, i to istnieje właśnie w takiej postaci, bez żadnej racji. Wydaje się, że co najmniej

warto spróbować zbudowania teorii metafizycznej, która w jakimś stopniu zmniejszałaby

arbitralny charakter świata. Niemniej ostateczne racjonalne uzasadnienie świata w sensie

stworzenia zupełnego zamkniętego systemu prawd logicznych jest prawie na pewno niemożliwe.

Dostępu do wiedzy ostatecznej, do poznania ostatecznego uzasadnienia bronią nam te same

reguły rozumowania, które wpierw skłaniają nas do poszukiwania takiego uzasadnienia. Jeżeli

chcemy wyjść poza nie, musimy przyjąć inną koncepcję „poznania” niż poszukiwanie

uzasadnienia na drodze racjonalnej. Możliwe, że poznanie takie da się osiągnąć poprzez mistykę.

Sam nigdy nie miałem żadnych doświadczeń mistycznych, niemniej nie wzbraniam się przed

uznaniem takich doświadczeń za wartościowe. Być może stanowią one jedyny sposób, by

wykroczyć poza granice, do których doprowadza nas filozofia i nauki przyrodnicze, i jest to

jedyna droga do Absolutu.

Zasadniczym wątkiem, którym zajmowałem się w tej książce, było to, że poprzez naukę

my, ludzie, jesteśmy w stanie poznać przynajmniej niektóre sekrety przyrody. Udało nam się

częściowo złamać kosmiczny szyfr. Dlaczego jest tak, że to właśnie Homo sapiens przypadła w

udziale iskierka racjonalności, dająca klucz do świata, pozostaje niezgłębioną zagadką. My,

background image

którzy wyrośliśmy z tego Wszechświata jako ożywiony gwiezdny pył, jesteśmy pomimo to

zdolni do refleksji nad jego naturą, aż po przebłyski poznania zasad, które nim rządzą. W jaki

sposób zostaliśmy włączeni w ten kosmiczny wymiar, pozostaje tajemnicą. Jednak to, że tak się

stało, jest faktem niezaprzeczalnym.

Co to oznacza? Kim jest Człowiek, skoro doznał takiego zaszczytu? Nie mogę uwierzyć,

że nasze istnienie w tym Wszechświecie miałoby być jedynie kaprysem losu, przypadkiem w

dziejach Wszechświata, malutkim omsknięciem w wielkim kosmicznym dramacie. W zbyt

wielkim stopniu jesteśmy weń zaangażowani. Gatunek Homo sapiens jako taki może wiele nie

znaczyć; jednak to, że na jakiejś planecie istnieją organizmy żywe wyposażone w umysł, jest bez

wątpienia faktem o podstawowym znaczeniu. Oto, poprzez istoty świadome, Wszechświat

wytworzył świadomość samego siebie. Świadomość ta nie może być nieistotnym szczegółem,

bezwartościowym produktem ubocznym ślepych, bezmyślnych sił.

Naprawdę jesteśmy tu nieprzypadkowo.


Document Outline


Wyszukiwarka

Podobne podstrony:
Davies Paul Plan Stworcy (SCAN dal 910)
Davies Paul Plan Stwórcy
Davies Paul Plan Stworcy
Davies Paul Plan Stwórcy
Paul Davies Plan Stwórcy
Plan Stwórcy P Davies
(spanish) Davies, Paul La Maquina Del Tiempo
Czas Niedokończona rewolucja Einsteina 5 Paul Davies Biblioteka
Czas Niedokończona rewolucja Einsteina 6 Paul Davies
Czas Niedokończona rewolucja Einsteina 2 Paul Davies
Czas Niedokończona rewolucja Einsteina 3 Paul Davies
(spanish) Paul Davies Los ultimos tres minutos
Simple Plan Summer Paradise (ft Sean Paul)
Czas Niedokończona rewolucja Einsteina 1 Paul Davies

więcej podobnych podstron