Paul Davies
Plan Stwórcy
Naukowe podstawy racjonalnej wizji świata
( Przekład Marek Krośniak )
Rozdział pierwszy
Ludzie żywią najróżniejszego rodzaju przekonania i na różnych podstawach je opierają, począwszy od logicznego dowodu do ślepej wiary. Jedne przekonania mają swe źródło w osobistym doświadczeniu, inne nabywane są w procesie kształcenia, a jeszcze inne wpajane poprzez indoktrynacje. Nie ulega wątpliwości, że istnieją przekonania o charakterze wrodzonym, ukształtowane w wyniku ewolucji. Niektóre z przekonań uważamy za możliwe do uzasadnienia, inne zaś żywimy, gdyż “tak czujemy”.
Jest oczywiste, że wiele naszych przekonań jest fałszywych, już to dlatego, iż są sprzeczne wewnętrznie, już to dlatego, że nie zgadzają się z innymi przekonaniami czy też faktami. Pierwszą systematyczną próbę znalezienia uniwersalnej podstawy przekonań podjęto dwa i pół tysiąca lat temu w starożytnej Grecji. Greccy filozofowie dążyli do sformalizowania ludzkiego myślenia za pomocą niepodważalnych reguł wnioskowania dedukcyjnego. Sądzili oni, że poprzez odwołanie się do powszechnie przyjętych procedur racjonalności pozbędą się niejasności, nieporozumień i sporów, towarzyszących rozwiązywaniu wszelkich ludzkich spraw. Ich ostatecznym celem było ustalenie zbioru założeń, zwanych aksjomatami, które, akceptowane przez każdego racjonalnego człowieka, umożliwiłyby rozwiązanie wszelkich kwestii spornych.
Trzeba przyznać, że celu tego nigdy nie osiągnięto, pomijając kwestię, czy to było w ogóle możliwe. We współczesnym świecie zróżnicowanie przekonań jest większe niż kiedykolwiek, występuje wiele przekonań ekscentrycznych, niekiedy wręcz niebezpiecznych, a odwoływanie się do argumentów racjonalnych uważane jest częstokroć przez zwykłych ludzi za bezużyteczną sofistykę. Jedynie w nauce, zwłaszcza w matematyce (a także, oczywiście, w samej filozofii), urzeczywistniane są ideały greckich filozofów. Natomiast przy rozważaniu zasadniczych kwestii egzystencjalnych, takich jak pochodzenie i sens Wszechświata, miejsce człowieka w świecie czy też naturalny porządek wszechrzeczy, istnieje silna pokusa popad-niecia w irracjonalizm, od której nie są wolni nawet naukowcy. Jednakże od dawna podejmowano poważne próby zmierzenia się z tymi problemami poprzez racjonalną, obiektywną analizę. Ale jak daleko zajdziemy drogą rozumu? Czy naprawdę możemy mieć nadzieję, że ostateczne zagadki bytu zostaną rozwiązane poprzez racjonalne rozumowanie naukowe, czy też zawsze w pewnym momencie natkniemy się na nieprzeniknioną tajemnicę? I czym w ogóle jest sama racjonalność?
Piękno, majestat i wyrafinowanie fizycznego świata wysławiano od wieków we wszystkich kulturach. Ale dopiero w nowożytnej, opartej na nauce, kulturze podjęto systematyczną próbę badania tego świata i miejsca, jakie w nim zajmujemy. Sukcesy metody naukowej w dziedzinie wyjaśniania tajemnic przyrody okazały się tak oszałamiające, że niejednokrotnie przesłaniają to, co jest największym cudem związanym z nauką: fakt, że nauka jest w ogóle możliwa. Sami uczeni przyjmują zazwyczaj za pewnik, że żyjemy w racjonalnym, uporządkowanym świecie poddanym precyzyjnym prawom, które mogą być poznane ludzkim rozumem. Jednakże, dlaczego tak właśnie jest, pozostaje zadziwiającą zagadką. Jak to się dzieje, że człowiek posiada zdolność odkrywania i rozumienia zasad, na których opiera się Wszechświat?
Ostatnio problemem tym zajmuje się coraz więcej uczonych i filozofów. Czy nasze sukcesy w poznawaniu świata za pomocą matematyki i nauk przyrodniczych są wyłącznie szczęśliwym zbiegiem okoliczności, czy też organizmy biologiczne wyłonione z kosmicznego porządku z konieczności posiadają zdolność odzwierciedlania tego porządku w swoich procesach poznawczych? Czy spektakularne postępy nauki są jedynie incydentalnym faktem historycznym, czy też świadczą o zachodzeniu głębokich, istotnych współzależności pomiędzy ludzkim umysłem a fundamentalnym porządkiem przyrody, która go ukształtowała?
Czterysta lat temu nauki przyrodnicze weszły w konflikt z religią, ponieważ wydawały się zagrażać uprzywilejowanej pozycji Człowieka w świecie stworzonym przez Boga. Ten myślowy przewrót, zapoczątkowany przez Kopernika i dokończony przez Darwina, doprowadził do marginalizacji, czy też wręcz trywializacji, Człowieka. Ludzie przestali być celem stworzenia, przypisano im przypadkową i pozornie bezsensowną rolę w bezosobowym kosmicznym dramacie; byli kimś w rodzaju nie przewidzianych w scenariuszu statystów, którzy zabłąkali się na olbrzymim planie filmowym.
Ta egzystencjalistyczna koncepcja, głosząca, że życie człowieka ma tylko taki sens, jaki on sam mu nada, stała się przewodnim motywem nauki. To właśnie z tego powodu zwykli ludzie widzą w nauce zagrożenie i deprecjację swej godności, uważając, że wyobcowuje ich ona ze świata.
Wizja nauki, jaką przedstawię w następnych rozdziałach, jest całkowicie odmienna. Wynika z niej, że człowiek nie jest przypadkowym wytworem ślepych sił, jako że istnienie organizmów obdarzonych świadomością jest fundamentalną właściwością Wszechświata. Jesteśmy głęboko i, jak wierzę, celowo zapisani w prawach przyrody. Nie uważam również, by nauka w jakikolwiek sposób prowadziła do alienacji. Jest ona szlachetnym i ubogacającym człowieka poszukiwaniem sensu świata w obiektywny, metodyczny sposób. Nie zaprzecza ona, że świat może mieć sens zewnętrzny wobec swego istnienia. Wręcz przeciwnie - jak podkreślałem, fakt, że nauka jest w ogóle możliwa i odznacza się taką skutecznością, wskazuje na pewne głębokie, istotne cechy zorganizowania kosmosu. Wszelkie próby poznania natury rzeczywistości i miejsca człowieka we Wszechświecie muszą być oparte na solidnych podstawach naukowych. Naturalnie, nauka nie jest jedyną dziedziną aktywności umysłowej człowieka, nawet w tej naszej, tak zwanej naukowej epoce bujnie rozkwita religia; jednakże, jak zauważył kiedyś Einstein, religia bez nauki jest ułomna.
Poszukiwania naukowe są podróżą w nieznane. Każdy etap przynosi nowe, nieoczekiwane odkrycia i niezwykłe, niekiedy trudne do zrozumienia, koncepcje, stanowiące wyzwanie dla ludzkiego umysłu. Niemniej wszędzie odnajdujemy znajome motywy racjonalności i porządku. Przekonamy się, że ten kosmiczny porządek wyznaczany jest przez ścisłe prawa matematyczne, które są ze sobą wzajemnie powiązane, tworząc misterną, harmonijną całość. Prawa te odznaczają się prostotą i elegancją, niejednokrotnie narzucają się one uczonym wyłącznie na mocy swego wewnętrznego piękna. Jednakże te właśnie proste prawa pozwalają na samoorganizowanie się materii i energii w ogromną różnorodność złożonych struktur, w tym również w takie, które, obdarzone świadomością, zdolne są do refleksji poznawczej nad tym samym kosmicznym porządkiem, który je zrodził.
Jednym z najbardziej ambitnych celów tego typu refleksji jest lożliwość sformułowania “Teorii Wszystkiego” - dostarczającej upełnego opisu świata w postaci zamkniętego systemu prawd agicznych. Dążenie do stworzenia teorii uniwersalnej stało się dla izyków czymś na kształt poszukiwania świętego graala. Sama idea akiej teorii jest bez wątpienia bardzo pociągająca. W końcu, jeżeli Vszechświat stanowi przejaw racjonalnego porządku, to powinniśmy być w stanie wywieść jego naturę na mocy “czystego rozumu”, iez potrzeby odwoływania się do obserwacji czy też eksperymentów. Większość uczonych odrzuca tego typu podejście, głosząc, że dobywanie wiedzy na drodze empirycznej jest jedyną metodą, na .tórej można polegać. Jednak, jak zobaczymy, wymóg racjonalności i poddania prawom logiki co najmniej nakłada pewne ograniczenia na typ świata dostępnego naszemu poznaniu. Z drugiej strony, same struktury logiki zawierają immanentne, paradoksalne ograniczenia, wskutek których nigdy nie uda nam się pojąć pełni istnienia rozumując wyłącznie poprzez dedukcję.
W dziejach nauki występowało wiele modeli mających obrazować podstawowy, racjonalny porządek rzeczywistości: świat jako przejaw idealnych form geometrycznych, jako żywy organizm, jako ogromny mechanizm zegarowy, czy też, ostatnio, gigantyczny komputer. W każdym z tych wyobrażeń uchwycony został jakiś zasadniczy aspekt rzeczywistości, lecz każde z nich samo w sobie jest dalece niepełne. Omówimy niektóre najnowsze wersje tego typu metafor i konstrukcje matematyczne, jakie używane są do ich wyrażenia. To doprowadzi nas do pytania, czym jest matematyka i dlaczego jest ona tak skutecznym narzędziem opisu praw rządzących światem, a także skąd się biorą same te prawa. Rozważane kwestie będą na ogół łatwe do przedstawienia, lecz niektóre mają bardziej techniczny, abstrakcyjny charakter. Zapraszam Cię, Czytelniku, abyś wraz ze nną wyruszył w tę naukową wyprawę w nieznane w poszukiwaniu ostatecznej podstawy rzeczywistości. Chociaż droga od czasu do czasu jest wyboista, a cel pozostaje spowity mgłą tajemnicy, mam nadzieję, że podróż ta sprawi Ci wiele radości.
Często mówi się, że tym, co odróżnia człowieka od innych zwierząt, jest nasza zdolność myślenia. Zwierzęta wydają się w mniejszym lub większym stopniu posiadać właściwość uświadamiania sobie otaczającego je świata i reagowania na niego, lecz u człowieka mamy do czynienia z czymś więcej niż tylko ze świadomością. Posiadamy bowiem zdolność pojmowania świata i miejsca, jakie w nim zajmujemy. Jesteśmy w stanie przewidywać wydarzenia i wykorzystywać naturalne procesy do swoich własnych celów, a chociaż sami stanowimy część świata, to odróżniamy siebie od otaczającej nas rzeczywistości.
W kulturach pierwotnych poznanie świata przez ludzi ograniczało się do zjawisk życia codziennego, takich jak zmiany pór roku czy też strzelanie z procy lub łuku. Miało ono charakter ściśle pragmatyczny, bez żadnej podbudowy teoretycznej, nie licząc sfery magii. Obecnie, w wieku nauki, nasza wiedza uległa znacznemu rozszerzeniu, tak że trzeba ją było podzielić na odrębne dziedziny: astronomię, fizykę, chemię, geologię, psychologię i tak dalej. Ten gwałtowny postęp dokonał się prawie wyłącznie dzięki zastosowaniu “metody naukowej”, opartej na eksperymentach, obserwacjach, dedukcji oraz stawianiu i falsyfikacji hipotez. Nie będziemy tutaj wchodzić w szczegóły, istotne jest, że nauka wyznacza rygorystyczne standardy procedur badawczych i dyskutowania ich wyników, które zdecydowanie przedkładają racjonalną argumentację ponad ślepą wiarę.
Pojęcie racjonalnej argumentacji jest samo w sobie bardzo intrygujące. Poszukujemy “racjonalnych” argumentów, uznając za najbardziej satysfakcjonujące te, które odwołują się do “zdrowego rozsądku”. Jednakże procesy myślowe człowieka nie pochodzą bezpośrednio od Boga, lecz biorą swój początek ze struktury ludzkiego mózgu i zadań, do jakich ukształtował się on w procesie ewolucji. Z kolei działanie mózgu opiera się na prawach fizyki i zależy od otaczającego nas świata. To, co określamy mianem zdrowego rozsądku, jest wytworem schematów myślowych głęboko zakorzenionych w ludzkim umyśle, prawdopodobnie dlatego, że okazały się skuteczne w praktyce życia codziennego, w sytuacjach takich jak unikanie spadających przedmiotów lub ucieczka przed drapieżnikami. Niektóre aspekty działania umysłu determinowane są przez budowę ludzkiego mózgu, inne zaś stanowią “genetyczne oprogramowanie” odziedziczone po naszych dalekich przodkach.
Wielki filozof Immanuel Kant twierdził, iż nie wszystkie kategorie myślowe, jakimi się posługujemy, mają swe źródło w zmysłowym doświadczeniu świata. Uważał on, że niektóre pojęcia mają charakter a priori, przez co rozumiał, iż jakkolwiek nie są prawdami koniecznymi w ścisłym logicznym sensie, to jednak,zadne myślenie nie byłoby bez nich możliwe: stanowią one “niezbędny warunek myślenia”. Jako przykład Kant podawał nasze intuicyjne pojmowanie trójwymiarowości przestrzeni za pośrednictwem aksjomatów geometrii euklidesowej, zakładając, że ta wiedza jest człowiekowi wrodzona. Niestety, później okazało się, iż geometria euklidesowa jest faktycznie fałszywa! Obecnie uczeni i filozofowie zgodni są co do tego, że nawet najbardziej podstawowe aspekty ludzkiego myślenia mają swe ostateczne źródło w obserwacjach świata fizycznego. Być może pojęcia, które zakorzeniły się w naszym umyśle do tego stopnia, że nie wyobrażamy sobie, aby można się było bez nich obejść - takie jak “zdrowy rozsądek”,racjonalność - zostały genetycznie zaprogramowane głęboko w ludzkim mózgu.
Interesujące mogłoby być rozważenie, czy jakieś hipotetyczne istoty inteligentne, których ewolucja przebiegałaby w odmiennych warunkach, podzielałyby nasze kategorie zdrowego rozsądku czy eż w ogóle schematy ludzkiego myślenia. Gdyby, jak w wizji niektórych autorów fantastyki naukowej, istniało życie na powierzchni gwiazdy neutronowej, można by postawić pytanie, jak takie stoty widziałyby świat i w jakich kategoriach go przedstawiały. Zupełnie możliwe, że ich pojęcie racjonalności różniłoby się od naszego tak dalece, iż żadne z argumentów, które my uważamy za racjonalne, nie byłyby dla nich przekonujące.
Czy oznacza to, że do ludzkiego myślenia należy podchodzić , podejrzliwością? Czy jesteśmy krańcowo szowinistyczni lub zaściankowi, gdy zakładamy, iż kategorie myślowe gatunku Homo sapiens możemy z powodzeniem stosować do rozwiązywania podstawowych kwestii egzystencjalnych? Niekoniecznie. Nasz umysł działa w określony sposób właśnie dlatego, że jego procesy odzwierciedlają do pewnego stopnia naturę świata, w którym żyjemy. Naprawdę zaskakujące jest to, że ludzkie myślenie okazuje się tak skuteczne w poznawaniu tych obszarów rzeczywistości, które nie są dane bezpośrednio naszym zmysłom. Nie ma nic dziwnego w tym iż człowiek był w stanie sformułować prawa rządzące spadaniem ciał, gdyż jego mózg w swym rozwoju musiał zajmować się sposobami uniknięcia spadających przedmiotów. Ale czy w jakikolwiek sposób uprawnione jest oczekiwanie, że nasze sposoby rozumowania okażą się skuteczne na przykład w fizyce jądrowej czy też astrofizyce? Fakt, iż w samej rzeczy okazują się skuteczne i prowadzą do “nadspodziewanie” dobrych wyników, jest jedną z wielkich zagadek Wszechświata, którymi będę się zajmował w tej książce.
Jednakże w tym miejscu pojawia się następny problem. Jeżeli w ludzkim myśleniu odzwierciedla się w jakiś sposób struktura rzeczywistości, czy można twierdzić, że świat stanowi przejaw rozumu? Będziemy posługiwać się słowem “racjonalny” w sensie “zgodny z rozumem”, a więc moje pytanie można sformułować, czy, lub w jakim stopniu, świat jest racjonalny. Nauka zasadza się na założeniu, że świat jest racjonalny we wszystkich swoich aspektach, jakie mogą być obserwowane przez człowieka. Nie można jednak wykluczyć, iż istnieją jakieś obszary rzeczywistości wykraczające poza zasięg ludzkiego poznania. Nie znaczy to, że musiałyby one być irracjonalne w absolutnym sensie. Istoty zamieszkujące gwiazdy neutronowe (lub też superkomputery) mogłyby być w stanie poznawać rzeczy, których my, wskutek specyficznej budowy naszego mózgu, poznać nie możemy. Musimy zatem brać pod uwagę możliwość, że istnieją rzeczy, których nie jesteśmy w stanie wyjaśnić, a nawet takie, których wyjaśnić nie da się w ogóle.
W tej książce przyjmuję optymistyczny pogląd, że w ogólnym przypadku możemy polegać na ludzkim rozumie jako narzędziu poznania. Pozostaje faktem, iż u ludzi występują przekonania, zwłaszcza typu religijnego, które można by określić mianem irracjonalnych. Ich irracjonalność nie oznacza, iż muszą być one fałszywe. Być może istnieją sposoby poznania (na przykład typu mistycznego lub poprzez objawienie), które pomijają lub wykraczają poza drogę poznania rozumowego. Jako uczony, staram się posługiwać rozumem, jak dalece jest to tylko możliwe. Badając granice rozumu i racjonalności niejednokrotnie natkniemy się na rzeczy tajemnicze i niezrozumiałe; z dużym prawdopodobieństwem możemy oczekiwać, że w pewnym momencie rozum przestanie wystarczać i będzie musiał ustąpić miejsca irracjonalnej wierze lub też szczeremu przyznaniu się do niewiedzy.
Jeżeli świat jest, przynajmniej w znacznym stopniu, racjonalny, jaka jest podstawa jego racjonalności? Nie może nią być umysł człowieka, ponieważ odzwierciedla tylko to, co już istnieje. Czy poszukując uzasadnienia powinniśmy odwoływać się do koncepcji racjonalnego Stwórcy? A może racjonalność “rodzi samą siebie” na mocy własnej “logiczności”? Inną możliwością jest, że świat “w wielkiej skali” jest irracjonalny, lecz my zamieszkujemy w oazie względnej racjonalności, ponieważ jest to jedyne “miejsce”, w którym mogą bytować istoty obdarzone świadomością i zdolnością myślenia. Aby spróbować odpowiedzieć na pytania tego typu, przyjrzyjmy się bliżej różnym typom rozumowania.
Myślenie o myśleniu
Istnieją dwa użyteczne typy rozumowania i ważne jest, aby potrafić je należycie rozróżnić. Pierwszy z nich nosi nazwę “dedukcji” i polega na zastosowaniu ścisłych praw logiki. Zgodnie z logiką klasyczną pewne zdania, takie jak “Pies jest psem” albo “Każda rzecz albo jest albo nie jest psem”, są zawsze prawdziwe, podczas gdy inne, jak “Pies nie jest psem”, są z konieczności fałszywe. Przy rozumowaniu dedukcyjnym wychodzimy od zbioru założeń, zwanych “przesłankami”. Są to zdania, które dla potrzeb danego rozumowania uznajemy za bezdyskusyjnie prawdziwe. Jest oczywiste, że przesłanki nie mogą być ze sobą sprzeczne.
Powszechnie uważa się, że wnioski logicznego rozumowania dedukcyjnego nie zawierają nic ponad to, co było zawarte w przesłankach wyjściowych, tak więc za pomocą argumentu tego typu nie udowodnimy nigdy niczego naprawdę nowego. Rozważmy przykład rozumowania dedukcyjnego, zwany “sylogizmem”:
1. Wszyscy kawalerowie są mężczyznami.
2. Aleksander jest kawalerem.
3. A zatem, Aleksander jest mężczyzną.
Zdanie 3 mówi nam tylko to, co było wyrażone w zdaniach l i 2 tak więc, zgodnie z tym poglądem, rozumowanie dedukcyjne stanowi jedynie sposób przekształcania faktów lub pojęć tak, aby nadać im bardziej dogodną lub interesującą formę.
Jednak gdy zastosujemy rozumowanie dedukcyjne do bardziej ikomplikowanych pojęć, możemy otrzymać wyniki nieoczekiwane zaskakujące, nawet jeżeli są one jedynie inną postacią przesłanek wyjściowych. Dobrym przykładem może być tu geometria, opierająca się na zbiorze założeń, zwanych aksjomatami, z których wyprowadza się inne twierdzenia składające się na całość teorii. W III wieku przed naszą erą grecki matematyk Euklides podał pięć aksjomatów, które stały się podstawą geometrii klasycznej, wśród nich takie: “Istnieje tylko jedna prosta przechodząca przez dwa dane punkty”. Z tych aksjomatów, posługując się dedukcją, można otrzymać wszystkie twierdzenia geometryczne, których uczymy się w szkole. Jednym z nich jest twierdzenie Pitagorasa, którego, jakkolwiek nie niesie ono w sobie więcej informacji niż aksjomaty Euklidesa, z których zostało wyprowadzone, nie możemy bynajmniej uznać za intuicyjnie oczywiste.
Nie ulega wątpliwości, że wartość rozumowania dedukcyjnego jest taka, jak wartość przesłanek, na których się ono opiera.
W dziewiętnastym wieku niektórzy matematycy postanowili zbadać konsekwencje opuszczenia piątego aksjomatu Euklidesa, głoszącego, że przez dany punkt możemy przeprowadzić dokładnie jedną prostą równoległą do danej prostej. W ten sposób powstała “geometria nieeuklidesowa”, która znalazła niezwykle duże zastosowanie w nauce; została wykorzystana między innymi przez Alberta Einsteina w jego ogólnej teorii względności (teorii grawitacji). Jak wspomnieliśmy, geometria euklidesowa nie jest słuszna w odniesieniu do świata realnego, w którym, najogólniej mówiąc, przestrzeń jest zakrzywiona wskutek istnienia grawitacji. Niemniej w szkole nadal uczy się geometrii euklidesowej, ponieważ w normalnych warunkach jest ona bardzo dobrym przybliżeniem. Jednakże wypływa stąd morał, że nie byłoby rozsądne uważanie jakichkolwiek aksjomatów za tak oczywiście słuszne, iż nie mogłoby być inaczej.
Powszechnie przyjmuje się, że dedukcja logiczna stanowi najpewniejszy typ rozumowania, jakkolwiek trzeba tu wspomnieć, że niekiedy podawane jest w wątpliwość nawet samo posługiwanie się logiką klasyczną. W tak zwanej logice kwantowej rezygnuje się z zasady, że coś nie może jednocześnie być i nie być czymś, motywując to tym, iż w mechanice kwantowej pojecie “bycia” jest bardziej złożone niż w życiu codziennym: kwantowe układy fizyczne mogą stanowić superpozycję przeciwstawnych stanów.
Inny powszechnie stosowany typ rozumowania nazywa się “indukcyjnym”. Tak jak w przypadku dedukcji, w indukcji wychodzi się od danego zbioru faktów lub założeń i dochodzi do określonych wniosków, lecz dokonuje się tego poprzez uogólnienie, a nie tworzenie ciągu wynikających z siebie zdań. Przekonanie, że słońce jutro wzejdzie, jest przykładem rozumowania indukcyjnego w oparciu o będący częścią naszego doświadczenia fakt, iż słońce dotychczas regularnie codziennie wschodziło. Kiedy upuszczę ciężki przedmiot, oczekuję, że będzie on spadał, na podstawie moich poprzednich doświadczeń z siłą ciążenia. Stosując rozumowanie indukcyjne, uczeni formułują hipotezy w oparciu o ograniczoną liczbę obserwacji lub eksperymentów. Do tego typu hipotez należą na przykład prawa fizyki. Prawo mówiące, że siły elektrostatyczne są odwrotnie proporcjonalne do kwadratu odległości, było wielokrotnie sprawdzane na różne sposoby i zawsze się potwierdzało. Nazywamy je prawem przyrody, gdyż, poprzez indukcję, przyjmujemy, że tak będzie zawsze. Jednakże fakt, iż nikt do tej pory nie zaobserwował naruszenia tego prawa, nie oznacza, że jest ono z konieczności prawdziwe, tak jak przy założeniu słuszności aksjomatów geometrii euklidesowej musi być prawdziwe twierdzenie Pitagorasa. Niezależnie od tego, ile będzie poszczególnych przypadków potwierdzających to prawo, nie możemy być nigdy absolutnie pewni, że zachodzi ono bez żadnych wyjątków. Indukcja upoważnia nas tylko do wyciągnięcia wniosku, iż jest bardzo prawdopodobne, że przy każdej następnej próbie prawo to się potwierdzi.
Filozof David Hume przestrzegał przed rozumowaniem indukcyjnym. To, że słońce dotąd regularnie wschodziło lub prawo proporcjonalności siły elektrostatycznej do odwrotności kwadratu odległości zawsze się potwierdzało, nie gwarantuje, iż będzie się to powtarzało nadal w przyszłości. Przekonanie, że tak właśnie będzie, opiera się na założeniu, iż “procesy w przyrodzie przebiegają zawsze w ten sam, ustalony, sposób”. Ale jakie mamy podstawy, by przyjmować takie założenie? Nawet jeżeli faktycznie zawsze dotąd obserwowano, że jakiś stan rzeczy B (np. świt) następuje po stanie rzeczy A (np. zmierzchu), czyż można stąd wnosić, że oznacza to, iż B jest konieczną konsekwencją A? W jakim sensie moglibyśmy twierdzić, że B musi następować po A? Z pewnością jesteśmy sobie w stanie wyobrazić świat, w którym zachodzi A, lecz nie zachodzi B: między A i B nie ma koniecznego logicznego związku. Czy można mówić o konieczności w jakimś innym sensie, czymś w rodzaju konieczności naturalnej? Hume i jego zwolennicy stanowczo temu zaprzeczają.
Wygląda na to, że zmuszeni jesteśmy przyznać, iż wnioski, do których dochodzi się na drodze indukcji, nigdy nie są absolutnie pewne, tak jak wnioskowanie poprzez dedukcję, mimo że kategoria “zdrowego rozsądku” oparta jest na indukcji. To, że rozumowanie indukcyjne jest na ogół skuteczne, jest (niezwykłą) własnością świata, którą można by określić mianem “spolegliwości przyrody”. Wszyscy kierujemy się w życiu przekonaniami o świecie (takimi jak to, że nieuchronnie wzejdzie słońce), do których doszliśmy w sposób indukcyjny, uważając je za całkowicie racjonalne, mimo iż u ich podstaw nie leży logika formalna, lecz przygodna własność świata. Jak się przekonamy, nie ma żadnego logicznego uzasadnienia, aby rzeczy nie miały się przedstawiać inaczej. Moglibyśmy równie dobrze mieć do czynienia ze światem chaotycznym, w którym nie byłyby możliwe żadne uogólnienia typu indukcyjnego.
We współczesnej filozofii dużą rolę odegrały prace Karla Poppera, który utrzymywał, że w praktyce w nauce bardzo rzadko używa się rozumowania indukcyjnego w opisany sposób. Po dokonaniu nowego odkrycia naukowcy spoglądają wstecz starając się sformułować hipotezy zgodne z tym odkryciem, a następnie wyprowadzają wnioski z tych hipotez, które z kolei mogą być sprawdzone na drodze eksperymentalnej. Jeśli któreś z tych przewidywań okaże się fałszywe, teorię należy zmodyfikować lub odrzucić. Tak więc główny nacisk zostaje położony na falsyfikację, a nie weryfikację teorii. Dobra teoria to taka, która jest w znacznym stopniu podatna na falsyfikację, a zatem może być sprawdzona na różne konkretne szczegółowe sposoby. Jeśli testy te wypadną pozytywnie, nasze zaufanie do teorii wzrasta. Teoria zbyt niejasna lub ogólna, albo też prowadząca jedynie do przewidywań, których sprawdzić nie jesteśmy w stanie, jest niewiele warta.
W praktyce zatem ludzka aktywność intelektualna nie polega wyłącznie na rozumowaniu dedukcyjnym i indukcyjnym. U źródeł wielkich odkryć naukowych leżą zazwyczaj genialne intuicje i swobodna gra wyobraźni. W takich przypadkach kluczowy fakt czy też hipoteza pojawia się w umyśle badacza w gotowej postaci i dopiero potem znajduje on jego uzasadnienie w postaci logicznego łańcucha rozumowania. Inspiracja tego typu jest procesem bardzo tajemniczym, który rodzi wiele pytań. Czy idee posiadają jakiś rodzaj niezależnego istnienia i są tylko “odkrywane” w pewnym momencie przez ludzki umysł? A może natchnienie to nic innego jak normalne rozumowanie, lecz dokonujące się gdzieś na poziomie podświadomości, a uświadamiamy sobie dopiero jego gotowy wynik? Jeśli tak, to w jaki sposób wykształciła się u człowieka umiejętność tego typu? Jaką biologiczną przewagę zapewnia gatunkowi ludzkiemu kreatywność matematyczna i artystyczna?
Teza o racjonalności świata związana jest z faktem, że jest on uporządkowany. Na ogół zdarzenia nie następują bezładnie, lecz są ze sobą powiązane. Słońce wschodzi planowo, ponieważ Ziemia obraca się w regularny sposób; spadek ciężkiego przedmiotu poprzedzony jest jego upuszczeniem z wysokości, i tak dalej. Właśnie to wzajemne powiązanie zdarzeń prowadzi do pojęcia przyczyny i skutku. Okno zostaje wybite, ponieważ uderzył w nie kamień. Dąb rośnie, ponieważ została zasadzona do ziemi żołądź. Przyzwyczajeni do niezmiennego następstwa zdarzeń powiązanych ze sobą przyczynowo, skłonni jesteśmy uważać za przyczynę same przedmioty materialne: to kamień wybija okno. Jednak oznaczałoby to przypisywanie przedmiotom aktywnej roli, która im się nie należy. W rzeczywistości możemy jedynie stwierdzić, że istnieje pewna korelacja między, na przykład, kamieniami lecącymi w stronę okna a zbitą szybą, a zatem zdarzenia tworzące taki ciąg nie są niezależne. Gdybyśmy sporządzili zapis wszystkich zdarzeń w jakimś obszarze przestrzeni w określonym czasie, zauważylibyśmy, że można je ze sobą połączyć w krzyżujące się struktury, “ciągi przyczynowo-skutkowe”. To w występowaniu tego typu struktur przejawia się racjonalny porządek świata; bez nich mielibyśmy do czynienia jedynie z chaosem.
Z przyczynowością ściśle wiąże się pojęcie determinizmu. W jego współczesnej postaci polega ono na założeniu, że wszelkie zdarzenia są w pełni zdeterminowane przez inne, wcześniejsze zdarzenia. Determinizm implikuje, że stan świata w danym momencie pozwala na wyznaczenie stanu świata w każdej późniejszej chwili. A ponieważ ten późniejszy stan wyznacza z kolei następne stany, można wyciągnąć wniosek, że wszystko, co kiedykolwiek wydarzy się we Wszechświecie w przyszłości, jest całkowicie określone przez jego stan obecny. Gdy, w siedemnastym wieku, Isaac Newton sformułował prawa swojej mechaniki, zawarł w nich automatycznie determinizm. Na przykład, jeżeli uznamy Układ Słoneczny za układ izolowany, znajomość położenia i prędkości planet w określonej chwili pozwala na jednoznaczne wyznaczenie (za pomocą praw Newtona) ich pozycji i prędkości w każdej następnej chwili. Ponadto, ponieważ prawa Newtona nie wyróżniają kierunku czasu, zachodzi również możliwość odwrotna: znajomość stanu obecnego wystarcza na jednoznaczne ustalenie stanu w dowolnym momencie w przeszłości. W ten sposób jesteśmy na przykład w stanie przewidywać zaćmienia Słońca i Księżyca, które nastąpią w przyszłości, jak również obliczyć momenty ich wystąpienia w przeszłości.
Jeżeli świat ma charakter ściśle deterministyczny, wszystkie zdarzenia tworzą zespół powiązanych ze sobą ciągów przyczynowo-skutkowych. Przeszłość i przyszłość zawarte są w teraźniejszości, w tym sensie, że pełna informacja potrzebna do odtworzenia przeszłych i przyszłych stanów świata kryje się w jego stanie obecnym, podobnie pełna informacja o twierdzeniu Pitagorasa kryje się w aksjomatach geometrii euklidesowej. Cały kosmos staje się czymś na kształt gigantycznego mechanizmu czy też zegara, posłusznie podążającego drogą zmian zaplanowaną od samego początku czasu. Ilya Prigogine wyraził to w sposób bardziej poetyczny: Bóg zostaje sprowadzony do roli bibliotekarza odwracającego kolejne stronice napisanej już księgi historii kosmicznej.
Przeciwieństwem determinizmu jest indeterminizm, czyli przypadkowość. Mówimy, że jakieś zdarzenie było “czysto przypadkowe”, gdy nie było ono w żaden zauważalny sposób zdeterminowane przez coś innego. Typowym przykładem są tu rzuty kostką do gry lub monetą. Jednakże, czy mamy w tym przypadku do czynienia z rzeczywistym indeterminizmetn czy też czynniki i siły determinujące wynik rzutu są przed nami ukryte, tak że zachowanie monety lub kostki po prostu wydaje się nam przypadkowe?
Jeszcze w ubiegłym stuleciu większość uczonych odpowiedziałaby na to pytanie twierdząco. Zakładano, że na najbardziej podstawowym poziomie świat jest ściśle deterministyczny, a to, że niektóre wydarzenia wydają się nam przypadkowe, jest wyłącznie wynikiem tego, że nie posiadamy pełnej informacji o danym układzie. Gdybyśmy znali ruchy poszczególnych atomów - rozumowano - bylibyśmy w stanie przewidzieć nawet rezultat rzutu monetą. Jego praktyczna nieprzewidywalność bierze się z ograniczoności naszej wiedzy o świecie. Zachowanie przypadkowe miałoby być cechą układów wysoce niestabilnych, a zatem zdanych na łaskę nieznacznych fluktuacji sił ze swego otoczenia.
Pogląd ten został powszechnie odrzucony w drugiej połowie lat dwudziestych naszego stulecia wraz z odkryciem mechaniki kwantowej, dostarczającej opisu zjawisk zachodzących w skali atomu, w której mamy do czynienia z indeterminizmem na poziomie fundamentalnym. Jeden z przejawów tego indeterminizmu znany jest jako zasada nieoznaczoności Heisenberga, nazwana na cześć niemieckiego fizyka, Wernera Heisenberga, jednego z odkrywców mechaniki kwantowej. Najogólniej mówiąc, stwierdza ona, że wszystkie mierzalne wielkości podlegają nieprzewidywalnym fluktuacjom, a zatem niemożliwy jest ich pomiar z absolutną dokładnością. Ta fundamentalna niedokładność da się ująć w sposób ilościowy, jeżeli pogrupujemy obserwowalne własności cząstki w pary: i tak na przykład parę taką tworzą położenie i pęd, jak również energia i czas. Zasada nieoznaczoności stwierdza, że jakiekolwiek próby zwiększenia dokładności pomiaru jednej z wielkości z takiej pary zmniejszają dokładność, z jaką jesteśmy w stanie znać wartość drugiej. A zatem dokładniejszy pomiar położenia cząstki elementarnej, na przykład elektronu, prowadzi do zwiększenia nieokreśloności jego pędu, i odwrotnie. Ponieważ przewidywanie przyszłych stanów jakiegoś układu wymaga znajomości dokładnych położeń i pędów jego cząstek składowych, zasada nieoznaczoności Heisenberga położyła ostateczny kres koncepcji, że przyszłość wyznaczona jest dokładnie przez teraźniejszość. Oczywiście, zakłada się przy tym, że nieoznaczoność kwantowa jest rzeczywistą immanentną cechą przyrody, a nie wynikiem działania ukrytych czynników deterministycznych. Wiele kluczowych eksperymentów, jakie przeprowadzono dla sprawdzenia tej tezy w ostatnich latach, potwierdziło, że nieoznaczoność należy do istoty układów kwantowych. Wszechświat na swym najbardziej fundamentalnym poziomie ma charakter indeterministyczny.
Czy miałoby to oznaczać, że Wszechświat jest jednak irracjonalny? W żadnym wypadku. Zachodzi zasadnicza różnica między rolą, jaką odgrywa prawdopodobieństwo w mechanice kwantowej, a niczym nie ograniczonym chaosem pozbawionego praw świata. Chociaż, ogólnie rzecz biorąc, przyszłe stany układu kwantowego nie mogą być znane z pewnością, względne prawdopodobieństwa różnych możliwych stanów są wyznaczone w sposób ścisły. Zatem możemy podać, jaka jest szansa, że atom będzie się znajdował w stanie wzbudzonym lub nie, nawet jeżeli niemożliwe jest przewidzenie wyniku w konkretnym przypadku. Te statystyczne prawidłowości powodują, że na poziomie makroskopowym, gdzie efektów kwantowych w normalnych warunkach nie obserwuje się, przyroda wydaje się podlegać prawom deterministycznym.
Zadaniem fizyka jest poszukiwanie regularności w przyrodzie i ujmowanie ich w proste koncepcje matematyczne. Pytanie, dlaczego w ogóle występują regularności i dlaczego dają się one prosto wyrażać za pomocą matematyki, wykracza poza zakres fizyki i należy do metafizyki.
Metafizyka: komu jest ona potrzebna?
Termin “metafizyka” w filozofii greckiej oznaczał pierwotnie “to, co następuje po fizyce”. Wiązało się to z faktem, iż pisma Arystotelesa dotyczące metafizyki znajdowały się, nie opatrzone tytułem, po jego traktacie o fizyce. Jednak wkrótce terminem tym zaczęto oznaczać wszelką tematykę wykraczającą poza fizykę (dzisiaj powiedzielibyśmy: poza nauki przyrodnicze), a mimo to mającą znaczenie dla badań naukowych. Tak więc metafizyka oznacza tematykę dotyczącą fizyki (czy też ogólnie nauki) w odróżnieniu od tematyki samej nauki. Tradycyjne kwestie metafizyczne obejmują pochodzenie, naturę i sens Wszechświata, problem relacji świata przedstawień, dostępnego naszym zmysłom, do ukrytego porządku świata “prawdziwego”, związek pomiędzy umysłem a materią, oraz problem wolnej woli. Kwestie te są w oczywisty sposób istotne dla nauki, lecz podobnie jak w przypadku pytań o sens życia nie można na nie udzielić odpowiedzi odwołując się wyłącznie do badań empirycznych.
U progu dziewiętnastego wieku cały gmach metafizyki uległ zachwianiu po krytycznych analizach Davida Hume'a i Immanuela Kanta. Filozofowie ci podali w wątpliwość nie tylko konkretne systemy metafizyczne jako takie, lecz zakwestionowali zarazem samą sensowność metafizyki. Hume dowodził, że sens można przypisać jedynie ideom, które biorą swój początek bezpośrednio z obserwacji świata lub z systemów dedukcyjnych, jak matematyka. Pojęć takich jak “rzeczywistość”, “umysł”, czy też “substancja”, które miałyby wykraczać poza obiekty dostępne naszym zmysłom, Hume nie akceptował jako pozbawionych sensu obserwacyjnego. Odrzucał również wszelkie pytania o celowość i sens Wszechświata, czy też miejsce w nim człowieka, ponieważ uważał, że żadnej z tych kwestii nie da się sensownie powiązać z rzeczami, które faktycznie jesteśmy w stanie obserwować. Ten kierunek filozoficzny znany jest jako “empirycyzm”, ponieważ uznaje się w nim fakty empiryczne za podstawę poznania.
Kant akceptował tezę empirystów, że wszelka wiedza wychodzi od naszego doświadczenia świata, lecz, jak już wspomniałem, uważał jednocześnie, iż ludzie posiadają pewną wiedzę wrodzoną, która jest niezbędnym warunkiem możliwości jakiegokolwiek myślenia. Zatem w procesie myślenia zbiegają się dwie składowe: dane zmysłowe i wiedza a priori. Kant zastosował swą teorię do zbadania granic tego, co ludzie z samej istoty swoich zdolności obserwowania i rozumowania mogą mieć nadzieję poznać w ogóle. Jego krytyka metafizyki polegała na tym, że nasze myślenie może odnosić się jedynie do obszaru doświadczenia, do świata zjawiskowego, który faktycznie obserwujemy. Nie mamy żadnych podstaw, by zakładać, że mogłoby się ono odnosić do hipotetycznej dziedziny wykraczającej poza rzeczywistość zjawisk. Innymi słowy, nasze myślenie odnosi się do rzeczy-jak-je-widzimy, natomiast nie jest w stanie powiedzieć nam niczego o rzeczach-samych-w-sobie. Jakakolwiek próba spekulowania o “rzeczywistości” leżącej poza obiektami jezpośredniego doświadczenia skazana jest na niepowodzenie.
Jakkolwiek po tych atakach snucie teorii metafizycznych stało się liemodne, część filozofów i przyrodników nadal zajmowała się rozważaniami, co naprawdę kryje się pod powierzchnią zjawisk świata fenomenalnego. W ostatnim czasie wiele odkryć w dziedzinie fizyki teoretycznej, kosmologii i teorii komputerów doprowadziło io zwiększenia zainteresowania niektórymi kwestiami tradycyjnie należącymi do metafizyki. Badania nad “sztuczną inteligencją” ożywiły dyskusję nad problemem wolnej woli i relacji umysł-ciało. Odkrycie Wielkiego Wybuchu zrodziło pytanie o sposób, w jaki fizyczny Wszechświat w ogóle zaistniał. Mechanika kwantowa wydobyła na jaw skomplikowany charakter związków obserwatora z tym, co podlega obserwacji. Teoria chaosu ujawniła, że relacje pomiędzy trwałością a zmianą bynajmniej nie są proste.
Ponadto wśród fizyków pojawiła się koncepcja Teorii Wszystkiego - połączenia wszystkich praw fizyki w ramach jednego, opartego na matematyce, systemu pojęciowego. Skupiono także uwagę na istocie samych praw fizyki. Dlaczego przyroda wybrała jeden konkretny zbiór praw zamiast innego? Dlaczego dają się one wyrazić w kategoriach matematyki? Czy prawa, jakie faktycznie obserwujemy, są w jakiś sposób wyróżnione? Czy mogliby istnieć rozumni obserwatorzy we Wszechświecie opisywanym przez jakiś inny zestaw praw?
Termin “metafizyka” zaczął oznaczać “teorie o teoriach” fizycznych. Nagle stały się modne rozważania o “klasach praw” zamiast rzeczywistych praw rządzących naszym Wszechświatem. Poświęcano uwagę hipotetycznym wszechświatom o własnościach zupełnie odmiennych od naszego, starając się stwierdzić, czy nasz Wszechświat jest w jakikolwiek sposób wyróżniony. Pewni teoretycy rozpatrywali możliwość istnienia “praw dotyczących praw”, które pozwalałyby “wybrać” prawa naszego Wszechświata spośród szerszej ich klasy. Niektórzy skłonni byli nawet przyjąć, że owe inne wszechświaty, rządzące się odmiennymi prawami, realnie istnieją.
W samej rzeczy, w tym sensie fizycy uprawiali metafizykę od dawna. Praca fizyka teoretycznego polega miedzy innymi na badaniu pewnych wyidealizowanych modeli matematycznych, które miałyby odawać jedynie pewne wąskie aspekty rzeczywistości, i to często jedynie w sposób symboliczny. Modele te odgrywają rolę “wszechświatów-zabawek”, które bada się dla nich samych, niekiedy jako ćwiczenie umysłu, lecz częściej, by rzucić nieco światła na świat rzeczywisty poprzez znalezienie pewnych cech, które byłyby wspólne różnym modelom. Nazwy tych wszechświatów-zabawek często pochodzą od nazwisk ich twórców. Mamy zatem model Thirringa, model Sugawary, model Tauba-NUT, maksymalnie rozciągły wszechświat Kruskala, i tak dalej. Teoretycy zajmują się nimi ze względu na to. że w przeciwieństwie do modeli bardziej realistycznych zazwyczaj dają się one ściśle wyrazić matematycznie. Moja własna praca około dziesięciu lat temu była w znacznej części poświęcona badaniu efektów kwantowych w modelach Wszechświata o jednym zamiast trzech wymiarów. Miało to na celu uczynienie rozważanych problemów łatwiejszymi. Założeniem było, że niektóre z istotnych własności modelu jednowymiarowego powinny się zachować również w modelach trójwymiarowych. Nikt nie wysuwał tezy, iż Wszechświat miałby być naprawdę jednowymiarowy. Wraz z moimi współpracownikami badałem owe hipotetyczne światy, by zdobyć wiedzę o własnościach pewnego typu praw fizycznych, własnościach, które mogłyby się również odnosić do praw rządzących rzeczywistym Wszechświatem.
“Myślę, więc jestem”. Tymi sławnymi słowami siedemnastowieczny filozof Rene Descartes wyraził to, co uważał za podstawową wypowiedź o rzeczywistości, z którą każdy myślący człowiek może się zgodzić. Najbardziej pierwotnym doświadczeniem jest doświadczenie naszego własnego istnienia. Jednakże nawet w tej bezdyskusyjnej tezie zawarte jest jądro paradoksu, który uparcie przewija się w dziejach ludzkiej myśli. Bycie jest pewnym stanem, zaś myślenie procesem. Kiedy myślę, stan mojego umysłu zmienia się z upływem czasu. Niemniej jednak “ja”, będące podmiotem tego stanu, pozostaje to samo. Jest to prawdopodobnie najstarszy z problemów metafizycznych omawianych w tej książce, i to on właśnie ujawnił się ponownie z pełną mocą we współczesnej metodologii nauki. Jakkolwiek doświadczenie własnego “ja” jest naszym doświadczeniem pierwotnym, doświadczamy również świata zewnętrznego i przenosimy na niego tę samą paradoksalną opozycję procesu i bycia; tego, co wydarza się w czasie, i tego, co pozaczasowe. Z jednej strony, świat ciągle istnieje; z drugiej strony, nieustannie się zmienia. Stałych punktów odniesienia doszukujemy się nie tylko w swej podmiotowej niezmienności, lecz zarazem w trwałości rzeczy i własności należących do otaczającego nas świata. Tworzymy pojęcia takie jak “człowiek”, “drzewo”, “góra”, “słońce”. Nawet jeżeli zdajemy sobie sprawę, że obiekty nie są wieczne, charakteryzują się one pewną trwałością, która umożliwia traktowanie ich jako odrębnych bytów. Jednakże na tło tego niby-trwałego bycia nakłada się ustawiczna zmiana. Wszystko jest procesem. Teraźniejszość ginie w mroku przeszłości, a przyszłość “nastaje”: mamy tu fenomen stającego-się-bytu. “Istnieniem” nazywamy właśnie to paradoksalne zespolenie bycia i stawania się.
Człowiek, być może z powodów psychologicznych, lękając się swej własnej śmiertelności, niestrudzenie poszukuje trwałych aspektów rzeczywistości. Ludzie rodzą się i umierają, drzewa rosną i usychają, nawet góry podlegają stopniowej erozji, a obecnie wiemy, że nawet słońce nie będzie świeciło wiecznie. Czy istnieje cokolwiek autentycznie stałego, na czym można by polegać? Był czas, że za niezmienne uznawane były niebiosa, a słońce i gwiazdy miały trwać z wieczności w wieczność. Lecz teraz wiemy, że obiekty astronomiczne nie istniały od zawsze, ani nie będą trwać w nieskończoność. Astronomowie odkryli, że w rzeczywistości cały Wszechświat podlega ewolucji.
Czy istnieje zatem coś absolutnie stałego? W poszukiwaniu odpowiedzi na to pytanie nasza myśl nieuniknienie zwraca się od świata tego, co fizyczne i materialne, w dziedzinę mistyki i abstrakcji. Pojęcia takie jak “logika”, “liczba”, “dusza” czy też “Bóg” pretendowały wielokrotnie w dziejach do roli podstawy wizji rzeczywistości, którą można by uznać za trwałą. Ale w każdym przypadku pojawia się ten nieznośny paradoks istnienia: w jaki sposób zakotwiczyć zmienny świat percepcji w niezmiennym świecie abstrakcyjnych pojęć?
Już u zarania systematycznej filozofii, w starożytnej Grecji, z dychotomią tą zmierzył się Platon, dla którego prawdziwą rzeczywistość stanowił transcendentny świat niezmiennych, abstrakcyjnych Idei czyli doskonałych Form, dziedzina relacji matematycznych i wzorcowych struktur geometrycznych. Miała to być dziedzina czystego bytu, niedostępna zmysłom. Zmienny świat naszego bezpośredniego doświadczenia - świat stawania się - był dla niego czymś ulotnym, efemerycznym, iluzorycznym. Świat obiektów materialnych miał być zaledwie bladym odbiciem czy też naśladownictwem świata idealnych Form. Platon ilustrował zależność między tymi dwoma światami za pomocą metafory. Wyobraźmy sobie, że jesteśmy uwięzieni w jaskini plecami do światła. Obiekty przesuwające się przed wejściem jaskini rzucają cień na jej ścianę. Cienie te byłyby niedoskonałym odwzorowaniem prawdziwych form. Platon przyrównywał świat naszych doznań zmysłowych właśnie do świata cieni na ścianie jaskini. Jedynie niezmienny świat Idei “rozświetlony był słońcem rozumu”.
Platon wykoncypował dwa bóstwa, które miałyby rządzić tymi światami. U szczytu świata idealnych Form było Dobro, wieczny i niezmienny byt, istniejący poza przestrzenią i czasem. Zamknięty w półrzeczywistym, zmiennym świecie obiektów i sił materialnych był natomiast tak zwany Demiurg, którego zadaniem było wprowadzanie w istniejącą materię porządku, posługując się Formami jako czymś w rodzaju matrycy czy też planu. Jednak, będąc dalekim od doskonałości, tak ukształtowany świat nieustannie rozpada się i wymaga stałych wysiłków twórczych Demiurga. W ten sposób powstaje zmienność świata naszych wrażeń zmysłowych. Platon był świadom fundamentalnej opozycji między byciem a stawaniem się, między pozaczasowymi, wiecznymi Formami a zmiennym światem ludzkiego doświadczenia, lecz nie uczynił żadnego poważnego wysiłku, aby je pogodzić. Zadowolił się jedynie nadaniem temu drugiemu statusu częściowo iluzorycznego, uznając, że wyłącznie to, co pozaczasowe i wieczne, ma prawdziwą wartość.
Uczeń Platona, Arystoteles, odrzucał koncepcję bytujących poza czasem form, konstruując w ich miejsce obraz świata jako żywego organizmu, który tak jak embrion ukierunkowany jest w swym rozwoju ku ostatecznemu celowi. Według niego, kosmos jest przeniknięty celowością i popychany ku swemu przeznaczeniu przez przyczyny celowe. Każdy obiekt przyrody ożywionej wyposażony jest w duszę, która kieruje jego celową działalnością, lecz Arystoteles uważał te dusze za immanentne składowe samych organizmów, a nie byty transcendentne w sensie platońskim. W tej animistycznej wizji Wszechświata nacisk położony został na proces dokonujący się poprzez celowo zorientowane zmiany. Zatem moglibyśmy przyjąć, że, w przeciwieństwie do Platona, Arystoteles daje pierwszeństwo stawaniu się nad byciem. Niemniej jednak jego świat nadal stanowił paradoksalne połączenie tych dwóch przeciwieństw. Cele, ku którym zmierzała ewolucja bytów, były niezmienne; to samo dotyczyło dusz. Ponadto wszechświat Arystotelesa, jakkolwiek oparty na ciągłym rozwoju, nie miał początku w czasie, zawierając obiekty - ciała niebieskie - które były “odwieczne, niezniszczalne i wiekuiste”, poruszające się w nieskończoność po ustalonych, doskonałych orbitach kołowych.
Tymczasem na Bliskim Wschodzie powstała judaistyczna wizja świata, oparta na przymierzu Jahwe z narodem wybranym Izraela. Tutaj nacisk położono na objawianie się Boga w dziejach, tak jak zostało ono przedstawione w relacjach historycznych Starego Testamentu, znajdując swój najpełniejszy wyraz w Księdze Rodzaju, poprzez zawarty w niej opis stworzenia świata przez Boga w pewnym określonym momencie w przeszłości. Mimo to Żydzi głosili, że ich Bóg jest niezmienny i transcendentny. I w tym przypadku nie uczyniono żadnej poważnej próby, by rozwikłać nieunikniony paradoks, iż niezmienny Bóg zmienia swe celowe działania w zależności od okoliczności historycznych.
Na usystematyzowaną wizję świata podejmującą w istotny sposób kwestię paradoksów związanych z czasem trzeba było czekać aż do piątego wieku przed naszą erą, kiedy to pojawiły się prace św. Augustyna z Hippony. Augustyn uznawał czas za składnik świata fizycznego - część stworzenia, więc zdecydowanie umieścił Stwórcę poza strumieniem czasu. Idea poza czasowego Bóstwa nie dawała się jednak łatwo pogodzić z doktryną chrześcijańską. Szczególne trudności wiązały się w tym przypadku ze zbawczą misją Chrystusa: Cóż miałoby to oznaczać, że pozaczasowy Bóg dokonuje wcielenia i umiera na krzyżu w konkretnym czasie historycznym? Jak można pogodzić Bożą niepodatność na wpływy z cierpieniem, jakie stało się udziałem Chrystusa? Dyskusja ta została podjęta ponownie w trzynastym wieku, kiedy to w nowo powstałych uniwersytetach w Europie pojawiły się przekłady prac Arystotelesa, oddziałując głęboko na ówczesną myśl filozoficzną. Młody dominikanin z Paryża, Tomasz z Akwinu, postawił sobie za cel pogodzenie religii chrześcijańskiej z greckimi wzorcami racjonalnego filozofowania. Sformułował on ideę trancendentnego Boga bytującego na podobieństwo platońskich idei poza przestrzenią i czasem. Opisał następnie Boga za pośrednictwem szeregu dobrze określonych przymiotów - jako byt doskonały, prosty, pozaczasowy, wszechmocny i wszechwiedzący, próbując udowodnić ich konieczny i niesprzeczny charakter na drodze logicznej, podobnie jak w przypadku twierdzeń geometrii. Chociaż jego prace wywarły wielki wpływ, Akwinata i jego zwolennicy mieli ogromne trudności w określeniu związków tego abstrakcyjnego, niezmiennego Boga z zależnym od czasu światem fizycznym oraz Bogiem będącym obiektem czci i wiary chrześcijańskiej. Ten i inne jeszcze problemy doprowadziły do potępienia prac Tomasza przez biskupa Paryża, jakkolwiek został on później oczyszczony z zarzutów i w końcu kanonizowany.
Nelson Pike w swojej książce God and Timelessness [Pozaczasowy Bóg] po wyczerpującym przestudiowaniu tego zagadnienia dochodzi do wniosku: “Powziąłem teraz podejrzenie, iż doktryna o pozaczasowości Boga została wprowadzona do teologii chrześcijańskiej, ponieważ filozofia platońska była w owym czasie modna, a doktryna ta wydawała się bardzo korzystna z punktu widzenia elegancji systemu. Gdy raz została wprowadzona, zaczęła później żyć swym własnym życiem”. Filozof John O'Donnell wyciągnął ten sam wniosek; jego książka Trinity and Temporality [Trójca a czas] podejmuje sprawę konfliktu pomiędzy platońska pozaczasowością a judeochrześcijańską historycznością: “Skłonny jestem przypuszczać, że w miarę jak rozwijały się kontakty chrześcijaństwa z myślą helleńską (...), usiłowało ono stworzyć syntezę, która miała wewnętrzne pęknięcie dokładnie w tym miejscu. (...) Ewangelia w połączeniu z pewnymi hellenistycznymi tezami o naturze Boga prowadziła w ślepe zaułki, z których Kościół musiał się potem wywikływać”. Do sprawy tych “ślepych zaułków” powrócimy w rozdziale 7.
Średniowieczna Europa była świadkiem powstania nowożytnej nauki i związanego z nią całkiem nowego sposobu spojrzenia na świat. Uczeni, tacy jak Roger Bacon i, później, Galileo Galilei, podkreślali wagę zdobywania wiedzy poprzez dokładne, ilościowe eksperymenty i obserwacje. Dokonywali oni rozdziału między Człowiekiem i przyrodą, pojmując eksperyment na kształt dialogu z przyrodą, w którym ujawnia ona swe sekrety. Racjonalny porządek przyrody, sam w sobie pochodzący od Boga, przejawiał się, ich zdaniem, w postaci ścisłych praw. Tak oto echo niezmiennego, pozaczasowego Boga Platona i Akwinaty wkracza do nauki w postaci wiecznych praw - koncepcji, która osiągnęła najdoskonalszą formę w monumentalnym dziele Izaaka Newtona w siedemnastym wieku. W fizyce newtonowskiej czyni się wyraźne rozróżnienie między stanami świata, które zmieniają się z chwili na chwilę, rządzącymi nimi prawami, które pozostają niezmienne. Jednak znowu natykamy się tu na trudność pogodzenia bycia i stawania , gdyż nie potrafimy wyjaśnić upływu czasu w świecie opartym pozaczasowych prawach. Stanowi to zagadnienie tak zwanej “strzałki czasu”, które miało odtąd trapić fizykę i jest przedmiotem dyskusji i intensywnych badań do dnia dzisiejszego. Żadna próba opisania świata, czy to na gruncie naukowym czy logicznym, nie może być uznana za udaną, dopóki nie wyjaśni paradoksalnego związku zmienności i trwania, bycia i stawania się, w żadnej tematyce opozycja ta nie znajduje bardziej jaskrawego wyrazu niż w zagadnieniu początku Wszechświata.
Rozdział drugi
CZY WSZECHŚWIAT MOŻE STWORZYĆ SAM SIEBIE?
Zadaniem nauki jest ustalenie, w jaki sposób zaistnial Wszechświat.
John Wheeler
Zazwyczaj uważamy, że przyczyny poprzedzają powodowane przez siebie skutki. Jest zatem naturalne, iż próbujemy wyjaśnić Wszechświat poprzez odwołanie się do sytuacji we wcześniejszych stadiach jego rozwoju. Jednakże, nawet gdyby się nam udało uzasadnić obecny stan Wszechświata poprzez stan, w jakim się on znajdował, powiedzmy, miliard lat temu, czy osiągnęlibyśmy przez to cokolwiek poza przesunięciem tajemnicy o miliard lat wstecz? Przecież z pewnością próbowalibyśmy wtedy uzasadnić stan Wszechświata przed miliardem lat poprzez jego stan w jeszcze wcześniejszej epoce, i tak dalej. Czy ten ciąg przyczyn i skutków ma jakiś kres? Przekonanie, że “to wszystko nie mogło powstać samo z siebie”, jest głęboko zakorzenione w kulturze zachodniej. Ponadto powszechnie zakłada się, iż to “coś” wykracza poza dziedzinę badań naukowych i ma w tym czy innym sensie charakter nadnaturalny. W tym toku rozumowania powiada się, że naukowcy potrafią niewątpliwie bardzo przemyślnie uzasadnić wiele rzeczy; być może uda im się kiedyś wyjaśnić cały świat fizyczny, lecz w swoim łańcuchu uzasadniania muszą dojść do punktu, poza który nauka nie może się posunąć. Ten punkt to stworzenie Wszechświata jako całości, ostateczny początek świata fizycznego.
Jest to tak zwany argument kosmologiczny, który, w tej czy innej formie, był często przytaczany przy udowadnianiu istnienia Boga. W przeciągu wieków był on stale udoskonalany i dyskutowany przez teologów i filozofów, niejednokrotnie w bardzo wyrafinowany sposób. Zagadnienie początku Wszechświata jest chyba jedynym obszarem, gdzie uczony o poglądach ateistycznych nie czuje się zbyt pewnie. Wnioski z argumentu kosmologicznego były, moim zdaniem, trudne do zakwestionowania aż do ostatnich lat, kiedy to podjęto poważną próbę wyjaśnienia początków Wszechświata w ramach fizyki. Od razu zaznaczę, że to konkretne rozwiązanie nie musi wcale być słuszne. Niemniej jednak sądzę, iż nie w tym rzecz. Chodzi o to,czy do powstania Wszechświata konieczny był jakiś nadnaturalny t stwórczy czy też nie. Jeżeli jesteśmy w stanie stworzyć sensowną naukową wyjaśniającą powstanie fizycznego Wszechświata, to przynajmniej wiemy, że naukowe rozwiązanie tej kwestii jest może, niezależnie od słuszności tej konkretnej teorii.
Czy w dziejach świata miało miejsce stworzenie?
We wszelkich dyskusjach dotyczących początku Wszechświata przyjmowane jest założenie, że Wszechświat faktycznie miał początek. Tymczasem koncepcja czasu przyjmowana w większości starożytnych kultur głosiła, iż świat nie miał początku, lecz podlega powtarzającym się bez końca cyklom. Ciekawe jest prześledzenie, jak zrodziły się idee tego typu. Plemiona prymitywne żyły w ścisłej styczności z przyrodą, gdyż ich przetrwanie zależało od rytmu pór roku i innych okresowych zjawisk przyrody. Na przestrzeni wielu pokoleń warunki życia praktycznie pozostawały niezmienne, zatem objęcie nieodwracalnej zmiany czy też postępu dziejów było im zupełnie obce. Pytania o początek i koniec świata nie mieściły się w ich koncepcji rzeczywistości; zajmowali się za to mitami wyrażającymi powtarzalność zjawisk przyrody i potrzebę zjednywania związanych z nimi bóstw, aby zapewnić sobie pomyślność i obfite plony. [Powstanie wielkich cywilizacji starożytnych w Chinach i na bliskim Wschodzie nie wpłynęło w znaczący sposób na zmianę tych poglądów. Stanley Jaki, należący do zgromadzenia benedyktynów uczony węgierskiego pochodzenia, posiadający stopień doktora [zarówno z fizyki, jak i z teologii, który przeprowadził szczegółowe badania dawnych cyklicznych koncepcji świata, zwrócił uwagę na fakt, że system dynastyczny w Chinach odzwierciedlał brak zainteresowania postępem historii: “Rachuba czasu w Chinach rozpoczynała się od nowa z nastaniem każdej kolejnej dynastii, co świadczy o tym, że Chińczycy pojmowali czas na sposób cykliczny, a nie linearny. Faktycznie, wszelkie wydarzenia z dziedziny polityki cultury układały się w ich mniemaniu w swego rodzaju cykle, Idące odbiciem ścierania się dwóch podstawowych sił Wszechświata, Yin i Yang. (...) Sukcesy występowały na przemian z porażkami, a po każdym wzroście następował upadek”.
System hinduski składał się z niezmiernie długich cykli, powiązanych w jeszcze większe cykle. Licząca cztery jugi mahajuga miała trwać 4,32 miliona lat; tysiąc mahajug tworzyło kalpę, dwie kalpy stanowiły dzień Brahmy; jeden cykl życia Brahmy składał się ze stu lat bramińskich, co odpowiadało mniej więcej 311 bilionom lat! Jak przyrównuje hinduski system cykli czasowych do wiecznego kieratu, z którego nie można się wyzwolić, jego hipnotyczny wpływ przyczynił się znacznie do tego, co określa on jako charakterystyczne dla hinduskiej kultury przygnębienie i brak nadziei. Podobna cykliczność i związany z nią fatalizm występowała również w kosmologiach Babilończyków, Egipcjan i Majów. Jaki przytacza historię Itza, dobrze uzbrojonego plemienia Majów, które w 1698 roku bez walki poddało się niewielkiemu kontyngentowi wojsk hiszpańskich, poinformowawszy osiemdziesiąt lat wcześniej dwóch hiszpańskich misjonarzy, że data ta oznacza dla nich początek ery klęski.
Filozofia grecka również podtrzymywała koncepcję odwiecznych cykli, lecz w przeciwieństwie do fatalistycznej beznadziei nieszczęsnych Majów, Grecy uważali, że ich kultura stanowi ukoronowanie cyklu - szczyt postępu. Cykliczne pojmowanie czasu u Greków zostało przejęte przez Arabów, którzy stali się depozytariuszami kultury greckiej, zanim przekazali ją później, w średniowieczu, chrześcijaństwu. Wiele z poglądów na świat występujących obecnie w kulturze europejskiej wzięło swój początek z owej potężnej konfrontacji, która wtedy nastąpiła, pomiędzy filozofią grecką a tradycją judeochrześcijańską. Nie ulega wątpliwości, że dla doktryn judaizmu i chrześcijaństwa kluczowy jest fakt, iż świat został stworzony przez Boga w określonym konkretnym momencie w przeszłości i wszystko, co nastąpiło później, układa się w jednokierunkowy, postępujący ciąg. Religie te nadają historii sens właśnie poprzez wyznaczenie ciągu istotnych momentów dziejowych - grzechu pierworodnego, przymierza, wcielenia i zmartwychwstania, oraz powtórnego przyjścia - co stoi w wyraźnej sprzeczności z grecką koncepcją wiecznych powrotów. Starając się propagować liniową, a nie cykliczną, wizję czasu, pierwsi Ojcowie Kościoła, pomimo uznania, jakie żywili dla myśli greckiej jako takiej, stanowczo odrzucali koncepcję cyklicznego Wszechświata występującą u pogańskich filozofów greckich. I tak u Tomasza z Akwinu znajdujemy zarówno pochwały dla siły argumentów Arystotelesa na rzecz odwiecznego istnienia świata, jak i wezwania, aby wierzyć, że Wszechświat miał swój początek, gdyż tak podaje Biblia. Kluczowym elementem juedeochrześcijańskiej doktryny o stworzeniu jest to, że Stwórca jest całkowicie odrębny i niezależny od świata stworzonego; to znaczy, istnienie Boga nie zapewnia automatycznie istnienia świata, jak to ma miejsce w niektórych wierzeniach pogańskich, gdzie świat fizyczny stanowi emanację Boga jako konieczne dopełnienie jego bytu. Przeciwnie, świat zostaje powołany do istnienia w określonym momencie czasu w wyniku mającego nadnaturalny charakter stworzenia jako celowa decyzja istniejącego wcześniej Boga.
Jakkolwiek ta koncepcja stworzenia nie wydaje się skomplikowana, była ona w ciągu wieków przedmiotem zażartych sporów doktrynalnych, po części dlatego, że starożytne teksty, w których się ona pojawia, są niebyt konkretne. Przykładem może tu być biblijny opis stworzenia świata w Księdze Rodzaju, w znacznej mierze oparty na wcześniejszych bliskowschodnich mitach o stworzeniu, który zawiera wiele pięknych sformułowań poetyckich, lecz niewiele konkretów. Nie jesteśmy na jego podstawie w stanie rozstrzygnąć, czy Bóg jedynie stwarza porządek w ramach pierwotnego chaosu, stwarza materię i światło w istniejącej pustce, czy też akt stworzenia ma charakter jeszcze bardziej fundamentalny. Takie niewygodne pytania można mnożyć dalej. Czym zajmował się Bóg, zanim stworzył świat? Dlaczego stworzył go w tym, a nie innym, momencie? Jeżeli Bóg mógł istnieć odwiecznie bez świata, co skłoniło go do podjęcia decyzji o jego stworzeniu?
Pismo św. pozostawia w tych kwestiach wiele miejsca na interpretację. I takie interpretacje istotnie powstały. Chrześcijańska doktryna o stworzeniu świata ukształtowała się faktycznie w znacznej części długo po powstaniu Księgi Rodzaju, pod wpływem zarówno myśli greckiej, jak i judaistycznej. Z naukowego punktu widzenia szczególnie istotne są dwie kwestie: pierwsza to relacja Boga i czasu, druga to relacja Boga i materii.
Wszystkie wielkie religie Zachodu uważają Boga za byt wieczny, lecz słowo “wieczny” można rozumieć na dwa różne sposoby. Z jednej strony, może ono wyrażać fakt, że Bóg istnieje od nieskończenie dawna i będzie istniał w nieskończoność w przyszłości; z drugiej strony może oznaczać, że Bóg bytuje całkowicie poza czasem. Jak wspomniałem w rozdziale 1, św. Augustyn skłaniał się ku temu drugiemu poglądowi, gdy twierdził, że Bóg stworzył świat “wraz z czasem, a nie w czasie”. Przez uczynienie czasu częścią fizycznego świata, zamiast sceną, na której dokonuje się akt stworzenia tego świata, i usunięcie Boga całkowicie poza jego obręb, Augustyn zręcznie uniknął problemu, co działo się z Bogiem, zanim stworzył świat.
Jednak miało to swoją cenę. Siła argumentu “to wszystko nie mogło powstać samo z siebie” jest oczywista dla każdego. W siedemnastym wieku modny był pogląd, że Wszechświat jest gigantycznym mechanizmem, który został wprawiony w ruch przez Boga. Także obecnie wielu ludzi skłania się ku pojmowaniu Boga jako Pierwszego Poruszyciela czy też Pierwszej Przyczyny w kosmicznym ciągu przyczyn i skutków. Ale w jakim sensie Bóg bytujący poza czasem mógłby być przyczyną czegokolwiek? Trudność ta powoduje, że zwolennicy koncepcji pozaczasowego Boga akcentują w większym stopniu jego rolę w zachowywaniu świata stworzonego w każdym momencie jego istnienia. Nie rozróżnia się w tym przypadku stworzenia od podtrzymywania w istnieniu: z punktu widzenia pozaczasowego Boga są one tym samym aktem.
Podobnie stosunek Boga i materii prowadził także do trudności doktrynalnych. Niektóre z mitów o stworzeniu, na przykład babilońskie, opisują kosmos jako stworzony z pierwotnego chaosu (słowo “kosmos” oznaczało “porządek” lub “piękno”; to drugie znaczenie przetrwało do naszych czasów w słowie “kosmetyczny”). Według tego poglądu istnienie materii wyprzedza nadnaturalny akt stwórczy, który wprowadza w nią ład. Podobna koncepcja pojawiła się w starożytnej Grecji: demiurg Platona musiał stwarzać świat z już istniejącej materii. Stanowisko to było podzielane także przez chrześcijańskich gnostyków, którzy uważali materię za siedlisko zepsucia, a zatem za dzieło szatana, a nie Boga.
W samej rzeczy, posługiwanie się ciągle tym samym słowem “Bóg” w relacjonowaniu tych sporów może być mylące, zważywszy na wielką różnorodność koncepcji teologicznych, jakie występowały w dziejach. Wiara w bóstwo, które powołuje Wszechświat do istnienia, a potem “siada i przypatruje się”, określana jest mianem “deizmu”. W tym przypadku naturę Boga pojmuje się na kształt wielkiego zegarmistrza, kosmicznego mechanika, który obmyśla i konstruuje olbrzymi, skomplikowany mechanizm, a następnie wprawia go w ruch. Przeciwieństwem deizmu jest “teizm”, wiara w Boga jako stworzyciela świata, uczestniczącego jednak ciągle w jego istnieniu, a w szczególności w życiu ludzi, z którymi utrzymuje stałą relację osobową, prowadząc ich do zbawienia. Zarówno w deizmie, jak i w teizmie występuje wyraźne rozgraniczenie Boga i świata, Stwórcy i rzeczy stworzonych. Boga uważa się za całkowicie odrębnego i transcendentnego wobec świata fizycznego, jakkolwiek odpowiedzialnego za to, co się w nim dzieje. W systemie znanym pod nazwą “panteizmu” takie rozróżnienie nie występuje; Bóg zostaje utożsamiony z samym światem: wszystko jest częścią Boga, a Bóg jest we wszystkim. Istnieje również “panenteizm”, podobny do panteizmu pod tym względem, że świat jest częścią Boga, lecz nie całym Bogiem. Jedną z metafor jest w tym przypadku pojmowanie świata jako ciała Boga.
Na koniec trzeba wspomnieć o pewnych uczonych, wysuwających koncepcję bóstwa, które rozwija się wraz ze Wszechświatem, stając się ostatecznie tak potężne, że przypomina platońskiego demiurga. Można sobie, na przykład, wyobrazić inteligentną istotę czy też nawet maszynę, która w swym rozwoju staje się coraz doskonalsza i opanowuje coraz większe obszary kosmosu, aż jej władza nad materią i energią staje się tak znaczna, że można tę inteligencję utożsamić z samym światem. Być może taką wszechmocną inteligencję rozwiną w przyszłości nasi potomkowie albo też jest ona obecnie udziałem jakichś pozaziemskich cywilizacji. Możliwe jest pomyślenie ewolucyjnego procesu, w którym zlewają się z sobą dwie lub więcej odrębne inteligencje. Takie idee były wysuwane przez astronoma Freda Hoyle'a, fizyka Franka Tiplera i popularyzatora nauki Isaaca Asimova. “Bóg” w tych koncepcjach ewidentnie nie obejmuje całego Wszechświata i, jakkolwiek obdarzony jest znaczną potęgą, nie jest wszechmocny, a zatem nie może być uważany za stwórcę Wszechświata jako całości, a jedynie za odpowiedzialnego za narzucenie porządku pewnej jego części. (Oczywiście, jeśli nie wprowadzi się jakiejś niezwykłej możliwości oddziaływania wstecz w czasie, która pozwalałaby owej superinteligencji na stworzenie świata u jego początku w ramach jakiejś spójnej pętli przyczyn i skutków. Tego typu elementy pojawiają się u fizyka Johna Wheelera. Możliwość taka była rozważana także przez Freda Hoyle'a, lecz nie w kontekście uniwersalnego aktu stworzenia świata).
W pogańskich mitach o stworzeniu przyjmuje się istnienie zarówno materii, jak i bóstwa, a więc są one zasadniczo dualistyczne. W przeciwieństwie do nich Kościół pierwszych chrześcijan opowiedział się za doktryną “stworzenia z nicości”, zakładającą istnienie tylko Boga. Przyjmuje się w niej, że Bóg stworzył cały świat z niczego. Powołanie do istnienia wszystkich rzeczy widzialnych i niewidzialnych zostaje zatem przypisane wolnemu aktowi stwórczemu Boga. Istotnym elementem tej doktryny jest Boża wszechmoc: moc stwórcza Boga nie podlega żadnym ograniczeniom, tak jak w przypadku platońskiego demiurga. W istocie, nie tylko Bóg nie jest ograniczony uprzednim istnieniem materii, lecz także żadnymi istniejącymi prawami fizyki, ponieważ częścią Jego aktu stwórczego jest właśnie wprowadzenie harmonii i porządku do świata poprzez ustanowienie tych praw. Gnostycki pogląd, że materia jest siedliskiem zła, zostaje odrzucony jako niemożliwy do pogodzenia z Wcieleniem Chrystusa. Z drugiej strony, materia nie jest czymś boskim, jak w koncepcjach panteistycznych, gdzie Bóg jest immanentny w świecie. Fizyczny Wszechświat - dzieło stwórcze Boga - uważany jest za istniejący odrębnie od swego Stwórcy.
Znaczenie tego rozróżnienia pomiędzy Stwórcą a jego stworzeniem polega na tym, że świat stworzony jest zależny w swym istnieniu całkowicie od Stwórcy. Gdyby świat fizyczny sam w sobie był boskiej natury lub też stanowił jakąś bezpośrednią emanację Stwórcy, udzielałoby mu się konieczne istnienie Boga. Jednakże, ponieważ został stworzony z niczego, a sam akt stwórczy był realizacją wolnej woli Boga, istnienie świata nie ma charakteru koniecznego. Św. Augustyn pisze: “...uczyniłeś coś z niczego. Uczyniłeś niebo nad niebiosami i ziemię, lecz nie z siebie. Gdybyś je uczynił z siebie, byłyby one równe jednororodzonemu Synowi Twemu, a więc i Tobie”2. Najbardziej oczywistą różnicą pomiędzy Stwórcą a stworzeniem jest to, że Stwórca jest wieczny, a świat stworzony miał początek. Wczesnochrześcijański teolog Ireneusz pisał: “Jednakże rzeczy stworzone różne są od Tego, który je stworzył, i tego, co byłoby uczynione z Tego, który je uczynił. Albowiem On sam nie jest bytem stworzonym, nie ma początku ani końca i posiada pełnię bytu. On sam istnieje z konieczności, lecz każda z rzeczy, które uczynił, miała swój początek”.
Odnośnie interpretacji stworzenia, nawet obecnie utrzymują się różnice doktrynalne pomiędzy głównymi odłamami Kościoła, i jeszcze większe różnice pomiędzy wielkimi religiami świata. Z jednej strony mamy poglądy chrześcijańskich i islamskich fundamentalistów, oparte na dosłownym rozumieniu tradycyjnych tekstów religijnych; z drugiej koncepcje radykalnych myślicieli chrześcijańskich pojmujących stworzenie na sposób całkowicie abstrakcyjny. Niemniej jednak wszyscy są zgodni, że świat fizyczny sam w sobie jest, w tym czy innym sensie, niezupełny. Nie jest w stanie sam siebie uzasadnić. Jego istnienie w ostatecznej instancji wymaga czegoś zewnętrznego wobec niego i może być pojęte wyłącznie jako zależne od jakiejś formy boskiej interwencji.
Wracając do poglądów naukowych na początek Wszechświata, można zapytać, na jakiej podstawie możemy sądzić, że taki początek faktycznie miał miejsce. Z pewnością możliwe jest wyobrażenie sobie wszechświata o nieskończonym czasie trwania i przez większość ery nowożytnego rozwoju nauki, dzięki pracom Kopernika, Galileusza i Newtona, naukowcy faktycznie uważali, że Wszechświat istniał wiecznie. Jednakże przekonanie to związane jest z pewnymi trudnościami. Newtonowi nie dawały spokoju konsekwencje odkrytego przez niego powszechnego prawa ciążenia, zgodnie z którym każde ciało materialne przyciąga wszelkie inne ciała. Zastanawiało go, co sprawia, iż cała materia we Wszechświecie spadając na siebie nie tworzy jednego wielkiego skupiska. W jaki sposób gwiazdy utrzymują się w przestrzeni bez żadnego oparcia, nie poddając się działaniu wzajemnego przyciągania grawitacyjnego? Rozwiązanie Newtona było genialnie proste. Materia Wszechświata skupiłaby się w jego środku ciężkości, gdyby taki środek faktycznie istniał. Jeśli jednak rozmiary Wszechświata są nieskończone i gwiazdy są w nim rozmieszczone z jednakową gęstością średnią, to nie ma wyróżnionego punktu, ku któremu miałyby one spadać. Każda gwiazda przyciągana jest jednakowo we wszystkich kierunkach, a zatem siły grawitacji wzajemnie się znoszą.
Rozwiązanie to trudno uznać za w pełni zadowalające z powodu jego matematycznej niejednoznaczności: wszystkie wchodzące tu w grę siły są nieskończenie wielkie. Zatem pytanie, dlaczego Wszechświat nie kolapsuje, powracało wielokrotnie aż do obecnego stulecia. Było ono kłopotliwe nawet dla Einsteina. Swoją własną teorię grawitacji (ogólną teorię względności) prawie bezpośrednio po jej sformułowaniu w 1915 roku “poprawił”, usiłując ją pogodzić z modelem stabilnego Wszechświata. Poprawka ta polegała na wprowadzeniu dodatkowego członu w równaniach pola grawitacyjnego reprezentującego siłę odpychającą - coś w rodzaju anty-grawitacji. Gdyby udało się tak dobrać wielkość tej siły, aby odpowiadała ona oddziaływaniu grawitacyjnemu wszystkich obiektów Wszechświata, siły przyciągania i odpychania wzajemnie równoważyłyby się, co prowadziłoby do Wszechświata statycznego. Niestety, otrzymana w ten sposób równowaga okazała się niestabilna i pod wpływem najmniejszego zaburzenia któraś z sił uzyskałaby przewagę: Wszechświat albo rozproszyłby się w nieskończoność, albo uległ kolapsowi.
Problem uniknięcia kolapsu nie był jedyną trudnością, na jaką napotykała koncepcja istniejącego odwiecznie Wszechświata. Inną był tak zwany paradoks Olbersa, dotyczący wyglądu nocnego nieba. Polegał on na tym, że jeżeli Wszechświat jest nieskończony, zarówno w przestrzeni, jak i w czasie, to Ziemia powinna być skąpana w świetle pochodzącym od nieskończonej liczby gwiazd. Prosty rachunek wykazuje, iż w takim razie niebo w nocy nie mogłoby być ciemne. Paradoks ten można usunąć poprzez przyjęcie skończonego wieku Wszechświata, ponieważ wtedy widzimy tylko te gwiazdy, których światło zdążyło dotrzeć do Ziemi od momentu jego powstania.
Obecnie jest dla nas oczywiste, że i tak żadna gwiazda nie świeci wiecznie, gdyż po jakimś czasie wyczerpie się jej paliwo. Jest to przykład ogólniejszej zasady: wieczne istnienie Wszechświata jest nie do pogodzenia z zachodzeniem w nim procesów nieodwracalnych. Jeśli jakieś układy fizyczne wchodzące w skład Wszechświata podlegają nieodwracalnym zmianom w skończonym czasie, to zdążyłyby one zajść już dawno temu, a zatem nie byłoby możliwe, abyśmy mogli procesy tego typu (na przykład świecenie gwiazd) obserwować obecnie. Tymczasem procesy nieodwracalne występują we Wszechświecie dość powszechnie, co sprawia, iż pod pewnymi względami można go porównać do nakręconego zegara. Taki zegar po jakimś czasie musi stanąć, podobnie Wszechświat nie mógł “chodzić” od zawsze, bez potrzeby “nakręcania”.
Naukowcy zaczęli uświadamiać sobie ten problem w połowie dziewiętnastego stulecia. Do tej pory fizycy zajmowali się prawami, które są odwracalne w czasie i nie wyróżniają ani przeszłości, ani przyszłości. Jednakże gdy podjęli badania procesów termodynamicznych, sytuacja zupełnie się zmieniła. Centralne znaczenie w termodynamice ma jej druga zasada, zabraniająca, aby ciepło mogło samo z siebie przepływać od ciał zimnych do ciepłych, tak jak przepływa od ciał ciepłych do zimnych. Prawo to ma charakter nieodwracalny: wskazując jeden kierunek zmian, narzuca we Wszechświecie strzałkę czasu. Uczeni szybko doszli do wniosku, że Wszechświat zmierza nieuchronnie do stanu równowagi termodynamicznej. To dążenie do wyrównania wszelkich różnic temperatury we Wszechświecie i osiągnięcia stanu stabilnego określono mianem “śmierci cieplnej” Wszechświata. Odpowiada to maksymalnemu nieuporządkowaniu molekuł, czyli maksimum entropii. Z faktu, że Wszechświat dotąd nie “umarł”, to znaczy nie osiągnął stanu maksymalnej entropii, wynika, iż nie mógł on istnieć odwiecznie.
W latach dwudziestych astronomowie stwierdzili, że tradycyjny obraz statycznego Wszechświata i tak nie jest prawdziwy. Odkryto, że w rzeczywistości Wszechświat się rozszerza, a galaktyki oddalają się od siebie. Odkrycie to legło u podstaw słynnej hipotezy Wielkiego Wybuchu, według której Wszechświat zaistniał w określonym momencie przeszłości, około piętnastu miliardów lat temu, w wyniku potężnej eksplozji. Obserwowana obecnie ekspansja stanowiłaby pozostałość owego pierwotnego wybuchu. Teorię Wielkiego Wybuchu obwoływano niejednokrotnie potwierdzeniem biblijnego opisu stworzenia świata w Księdze Rodzaju. Wspomniał o tym nawet w 1951 roku papież Pius XII w przemówieniu do Papieskiej Akademii Nauk. Tymczasem analogie tej teorii z biblijną wersją są bardzo powierzchowne i wymagają traktowania opisu biblijnego w sposób czysto symboliczny. Co najwyżej można stwierdzić, że w obu przypadkach świat miał początek i było to wydarzenie jednorazowe, a nie stopniowy proces.
Teoria Wielkiego Wybuchu w naturalny sposób eliminuje paradoksy wiecznego Wszechświata. Ponieważ w tym przypadku wiek Wszechświata jest skończony, występowanie w nim procesów nieodwracalnych nie powoduje żadnych trudności. Wszechświat w ewidentny sposób został “nakręcony” na samym początku i obecnie ciągle jeszcze ewoluuje siłą owego początkowego impulsu. Niebo w nocy jest ciemne, gdyż sięgamy wzrokiem w kosmos jedynie na skończoną odległość (około piętnastu miliardów lat świetlnych), to znaczy maksymalną odległość, jaką światło mogło przebyć w drodze do Ziemi od początku Wszechświata. Nie pojawia się także problem Wszechświata kolapsującego pod wpływem własnej grawitacji. Skoro galaktyki oddalają się wzajemnie, nie grozi im spadnięcie na siebie, przynajmniej jeszcze przez jakiś czas.
Jednakże teoria ta, rozwiązując jedne problemy, staje z miejsca wobec innych, z których jednym z ważniejszych jest, co właściwie spowodowało Wielki Wybuch. W tym miejscu natykamy się na istotną subtelność co do rozumienia samej natury Wielkiego Wybuchu. Z niektórych popularnych opracowań można odnieść wrażenie, jak gdyby była to eksplozja bryły hipergęstej materii znajdującej się w określonym miejscu w istniejącej pustej przestrzeni. Jest to duże nieporozumienie. Teoria Wielkiego Wybuchu opiera się na ogólnej teorii względności Einsteina, której jednym z podstawowych wniosków jest, że materia jest nierozerwalnie związana z przestrzenią i czasem. Związek ten ma niezwykłe istotne następstwa dla zagadnienia początku Wszechświata. Jeżeli wyobrazimy sobie “kosmiczny film puszczony do tyłu”, to ujrzymy galaktyki zbliżające się ku sobie, a następnie zlewające w jedną wielką masę. Potem materia galaktyczna ulega coraz większemu ściśnięciu aż do osiągnięcia stanu o ogromnej gęstości. Gdy tak coraz bardziej zbliżamy się do momentu zerowego eksplozji, możemy sobie zadawać pytanie, czy istnieje jakaś graniczna wartość tej gęstości.
Łatwo się przekonać, że nie może być takiej granicy. Wyobraźmy sobie bowiem, iż jest taka maksymalna wartość gęstości. Pociągałoby to za sobą konieczność istnienia jakiejś siły odpychającej, zdolnej zrównoważyć ogromną siłę przyciągania grawitacyjnego, w przeciwnym przypadku grawitacja wzięłaby górę i materia ulegałaby dalszej kompresji. Ponadto ta przeciwdziałająca siła musiałaby być naprawdę ogromna, jako że siła grawitacji wzrasta nieograniczenie w miarę postępującej kompresji. Co mogłoby być taką siłą? Może coś w rodzaju wewnętrznego ciśnienia czy też sprężystości - kto wie, jakie siły występują w materii w tak ekstremalnych warunkach? Jednakże, mimo iż nie wiemy nic konkretnego o tych siłach, muszą one podlegać pewnym ogólnym zasadom fizyki. Na przykład, w miarę wzrostu sprężystości materii rośnie również prędkość rozchodzenia dźwięku wewnątrz niej. Wydaje się oczywiste, że gdyby sprężystość materii w pierwotnym Wszechświecie stała się wystarczająco wysoka, prędkość dźwięku przekroczyłaby prędkość światła, co stoi w sprzeczności z teorią względności, która głosi, że żadne fizyczne oddziaływanie nie może się przenosić z prędkością większą niż światło. Zatem sprężystość materii nie może rosnąć w nieskończoność i na pewnym etapie ściskania materii siły grawitacji stałyby się większe niż siły sprężystości, co oznacza, że sprężystość byłaby niewystarczająca do powstrzymania procesu dalszej kompresji.
Wniosek ten, który wyciągnęliśmy w odniesieniu do sił działających w pierwotnym Wszechświecie, oznacza, że w warunkach krańcowo wielkiej gęstości, jakie panowały podczas Wielkiego Wybuchu, nie istniała żadna siła zdolna przeciwstawić się kolapsowi grawitacyjnemu, a zatem kolaps ten postępowałby w nieskończoność. Jeśli rozkład materii we Wszechświecie jest jednorodny, to w momencie początkowym musiała być ona nieskończenie ściśnięta; innymi słowy, cały Wszechświat był ściśnięty do jednego punktu. W punkcie tym zarówno siła grawitacji, jak i gęstość materii były nieskończone. Taki punkt nazywany jest w fizyce teoretycznej “osobliwością”.
Jakkolwiek istnienie osobliwości początkowej Wszechświata wynika już z całkiem elemementarnych rozważań, ścisły dowód wymaga zastosowania wyrafinowanych metod matematycznych. Został on przeprowadzony przez angielskich fizyków-teoretyków Rogera Penrose'a i Stephena Hawkinga. W szeregu silnych twierdzeń dowiedli oni, że osobliwości typu Wielkiego Wybuchu nie da się wyeliminować, jeśli w ekstremalnych warunkach wczesnego Wszechświata grawitacja nadal pozostaje siłą przyciągającą. Najistotniejszym aspektem ich pracy jest to, że osobliwość jest nieunikniona nawet w przypadku niejednorodnego rozkładu materii. Stanowi ona immanentną własność Wszechświata opisywanego przez równania teorii grawitacji Einsteina, lub, jeśli już o to chodzi, każdej podobnej teorii.
Idea osobliwości początkowej Wszechświata spotkała się ze znacznym sprzeciwem wśród fizyków i kosmologów, gdy pojawiła się po raz pierwszy. Jeden z powodów tego sprzeciwu dotyczy wspomnianego faktu, że w ogólnej teorii względności czas, przestrzeń i materia stanowią nierozerwalną całość. Związek ten ma istotne konsekwencje dla ewolucji rozszerzającego się Wszechświata. Naiwnie rzecz biorąc, można by sobie wyobrażać galaktyki jako rozbiegające się w różnych kierunkach w pustej przestrzeni. Jednakże bardziej odpowiada rzeczywistości wizja, że to sama przestrzeń pęcznieje czy też się rozciąga; to znaczy, galaktyki oddalają się od siebie w wyniku tego, że przestrzeń pomiędzy nimi się rozszerza. (Czytelników, którym nie przychodzi łatwo wyobrażenie sobie, jak przestrzeń może się rozszerzać, odsyłam do mojej książki The Edge of Infinity [Na skraju nieskończoności], gdzie kwestię tę omówiłem bardziej szczegółowo). I odwrotnie, w przeszłości przestrzeń była skurczona. Jeżeli rozważymy moment, w którym przestrzeń była nieskończenie ściśnięta, to musiała być też nieskończenie skurczona. Lecz przestrzeń, która skurczy się nieskończenie, musi dosłownie zniknąć, jak balon, który kurczy się i ostatecznie znika. A zasadnicza jedność materii, przestrzeni i czasu oznacza, że czas w tym wypadku znika także. Nie ma czasu bez przestrzeni. W ten sposób osobliwość rozkładu materii jest zarazem osobliwością czasoprzestrzeni. Wszystkie prawa znanej nam fizyki sformułowane są w kategoriach przestrzeni i czasu, a zatem nie można ich stosować poza punktem, w którym czas i przestrzeń przestają istnieć. Tak więc prawa fizyki z konieczności przestają w osobliwości obowiązywać.
Obraz początku Wszechświata, do jakiego dochodzimy w ten sposób, godny jest uwagi. W pewnym skończonym momencie przeszłości Wszechświat zawierający przestrzeń, czas i materię znika w czasoprzestrzennej osobliwości. Tak więc początek Wszechświata oznacza pojawienie się nie tylko materii, ale również przestrzeni i czasu.
Trudno przecenić znaczenie tego wniosku. Ludzie często pytają: Gdzie nastąpił Wielki Wybuch? Tymczasem nie mamy tu do czynienia ze zdarzeniem, które zaszło w jakimś punkcie przestrzeni, lecz ze zdarzeniem, w którego wyniku zaistniała sama przestrzeń. To samo dotyczy pytania: Co było przed Wielkim Wybuchem? Jedyną możliwą odpowiedzią jest, iż nie było żadnego “przedtem”, gdyż czas również powstał w momencie Wielkiego Wybuchu. Jak wspominałem, św. Augustyn już w starożytności głosił, że świat zrodził się wraz z czasem, a nie w czasie, co odpowiada dokładnie poglądowi współczesnej nauki.
Jednakże nie wszyscy naukowcy skłonni byli się z tym pogodzić. Akceptując fakt ekspansji Wszechświata, niektórzy kosmologowie usiłowali skonstruować teorie, w których czas i przestrzeń nie zaczynałyby się w osobliwości.
Pomimo zakorzenionej w myśli Zachodu idei stworzonego Wszechświata i liniowego czasu koncepcja wiecznego powrotu pozostaje stale atrakcyjna. Nawet w obecnych czasach, już po szerokim uznaniu Wielkiego Wybuchu, pojawiały się próby powrotu do pojęcia cyklicznego Wszechświata. Jak wspominałem, gdy Einstein formułował ogólną teorię względności, naukowcy byli przekonani, że Wszechświat jest statyczny, co skłoniło go do wprowadzenia do swoich równań dodatkowego członu odpowiedzialnego za zrównoważenie oddziaływania grawitacyjnego. Jednakże mniej więcej w tym samym czasie nieznany rosyjski fizyk-meteorolog nazwiskiem Aleksander Friedmann zajął się badaniem równań Einsteina i ich znaczenia dla kosmologii. Udało mu się uzyskać kilka interesujących rozwiązań, z których wszystkie opisywały Wszechświat bądź to rozszerzający się, bądź to kurczący się. Jeden z układów rozwiązań odpowiada Wszechświatowi, który zaczyna się Wielkim Wybuchem, podczas ewolucji jego prędkość rozszerzania stopniowo maleje, a następnie zaczyna z powrotem się kurczyć. Faza kontrakcji jest dokładnym odwróceniem fazy ekspansji, a zatem kurczenie staje się coraz szybsze i wreszcie Wszechświat znika w “Wielkim Zgnieceniu” olbrzymiej implozji będącej odwrotnością Wielkiego Wybuchu. Ten cykl naprzemiennej ekspansji i kontrakcji może się następnie powtarzać ad infinitum. W 1922 roku Friedmann wysłał opis swego modelu okresowego Wszechświata Einsteinowi, na którym nie wywarł on większego wrażenia. Dopiero w parę lat później, gdy Edwin Hubble i inni astronomowie potwierdzili obserwacyjnie, że Wszechświat naprawdę się rozszerza, prace Friedmanna zyskały należne uznanie.
Rozwiązania Friedmanna nie wymuszają, aby Wszechświat oscylował, na przemian kurcząc się i rozszerzając. Dopuszczają one również Wszechświat zaczynający się Wielkim Wybuchem, który rozszerza się bez końca. Która z tych możliwości ostatecznie zostanie zrealizowana, zależy od tego, ile jest materii we Wszechświecie. Zasadniczo, przy obecności wystarczającej ilości materii, jej grawitaga powstrzyma ostatecznie ucieczkę galaktyk i Wszechświat zacznie kolapsować z powrotem. Tak więc kosmiczny kolaps, którego obawiał się Newton, faktycznie miałby miejsce, jakkolwiek dopiero po upływie wielu miliardów lat. Z przeprowadzonych pomiarów wynika, że gwiazdy stanowią zaledwie około 1% masy materii potrzebnej do zapoczątkowania kolapsu Wszechświata. Jednakże istnieją silne dane obserwacyjne przemawiające za tym, iż we Wszechświecie zawarta jest duża ilość niewidocznej, tzw. “ciemnej” materii, która byłaby w stanie wyrównać brakującą masę. Naukowcy nie są wszakże zgodni, co miałoby stanowić te “ciemną materię”.
Jeżeli Wszechświat zawiera wystarczająco wiele materii, aby przejść w fazę kurczenia, musimy rozważyć możliwość, że jest on Wszechświatem pulsującym. Wiele popularnonaukowych książek z dziedziny kosmologii omawia taki pulsujący model Wszechświata, podkreślając, iż jest on zgodny z wizją świata zawartą w hinduizmie i innych religiach Wschodu uznających koncepcję cyklicznego świata. Czyżby oscylacyjne rozwiązanie równań Einsteina otrzymane przez Friedmanna stanowiło naukowy odpowiednik starożytnej idei wiecznego powrotu, a trwający wiele miliardów lat okres od Wielkiego Wybuchu do Wielkiego Zgniecenia odpowiadał Wielkiemu Rokowi Cyklu Życia Brahmy?
Jakkolwiek analogie te mogą być bardzo pociągające, znikają one przy bliższej analizie. Po pierwsze, nie mamy tu do czynienia z oscylacjami w matematycznym sensie. Punkty, w których miałoby następować przejście od Wielkiego Zgniecenia do Wielkiego Wybuchu, są w istocie osobliwościami, co oznacza, że opisujące ten proces równania przestają w nich obowiązywać. Aby Wszechświat przeszedł od fazy kurczenia do fazy rozszerzania się nie napotykając osobliwości, coś musiałoby przeciwstawić się przyciąganiu grawitacyjnemu i wyrzucić materię ponownie. Krótko mówiąc, takie odbicie byłoby możliwe, gdyby proces ewolucji zdominowany został przez ogromną siłę odpychającą, nazwijmy ją lewitacyjną, taką, jaką wprowadził Einstein do swoich równań, lecz o wiele rzędów wielkości większą.
Nawet gdyby okazało się to możliwe, cykliczny charakter modelu dotyczyłby jedynie zachowania się Wszechświata w wielkiej skali, a nie procesów fizycznych w nim zachodzących. Nadal obowiązywałoby drugie prawo termodynamiki, wymagające, żeby procesy te powodowały wzrost entropii, a zatem całkowita entropia Wszechświata wzrastała z cyklu na cykl. Prowadzi to do dość ciekawego efektu, odkrytego przez Richarda Tolmana w latach trzydziestych. Tolman stwierdził, że w miarę wzrostu entropii Wszechświata kolejne cykle stają się większe i dłuższe . W rezultacie okazuje się zatem, że Wszechświat nie jest w ogóle cykliczny w ścisłym sensie. Co dziwne jednak, pomimo stałego wzrostu entropii, Wszechświat nigdy nie osiągnie stanu równowagi termodynamicznej - nie istnieje stan o maksymalnej entropii. Po prostu będzie pulsował bez końca, wytwarzając przez cały czas coraz to więcej entropii.
W latach sześćdziesiątych astronom Thomas Gold sądził, że udało mu się znaleźć rzeczywiście cykliczny model Wszechświata. Gold wiedział, iż istniejący wiecznie statyczny Wszechświat nie jest możliwy do utrzymania, ponieważ osiągnąłby on stan równowagi termodynamicznej w skończonym czasie. Uderzył go fakt, że ekspansja Wszechświata oddala go od stanu równowagi termodynamicznej poprzez stałe ochładzanie zawartej w nim materii (jest to znane zjawisko ochładzania substancji przy jej rozprężaniu). Goldowi wydawało się, iż wzrost entropii Wszechświata można by powiązać z faktem, że się on rozszerza. Jednakże teza ta prowadzi do paradoksalnego wniosku: gdyby Wszechświat zaczął się kurczyć, wszystkie procesy zaczęłyby przebiegać w odwrotnym kierunku - entropia spadałaby, a drugie prawo termodynamiki zostałoby odwrócone. Tak więc, w pewnym sensie, czas zacząłby płynąć do tyłu. Gold zwrócił uwagę, że odwrócenie to objęłoby wszystkie układy fizyczne, w tym również mózg i pamięć człowieka, a zatem psychologiczna strzałka czasu również uległaby odwróceniu: “pamiętalibyśmy” przyszłość, a nie przeszłość. Dla wszelkich istot obdarzonych świadomością, żyjących w takiej fazie widzianej przez nas jako kurczenie, uległyby odwróceniu także pojęcia przeszłości i przyszłości, a zatem uważałyby, że to one właśnie znajdują się w fazie rozszerzania, a z ich punktu widzenia my znajdowalibyśmy się w kurczącym się Wszechświecie (rysunek 3). Skoro w wyniku tego odwrócenia Wszechświat stałby się doskonale symetryczny względem czasu, jego stan końcowy, Wielkie Zgniecenie, byłby tym samym co stan początkowy, Wielki Wybuch. Po utożsamieniu tych zdarzeń czas zamknąłby się w pętlę i Wszechświat można by uznać za rzeczywiście cykliczny.
Symetryczny względem czasu model Wszechświata rozważany był także przez Johna Wheelera, który wysunął hipotezę, iż owo odrócenie biegu czasu mogłoby nie następować w sposób gwałtowny, lecz stopniowo, podobnie jak przejście przypływu w odpływ. Strzałka czasu nie odwracałaby się nagle w momencie maksymalnej ekspansji, lecz podlegałaby wpierw wahaniom, stając się coraz bardziej nieokreślona, zanim nastąpiłoby jej faktyczne odwrócenie. Wheeler spekulował, że w takim przypadku niektóre na pozór nieodwracalne procesy, takie jak rozpad promieniotwórczy jąder, mogłyby przebiegać wolniej, co poprzedzałoby ich odwrócenie, sugerując, że porównanie obecnego tempa rozpadu promieniotwórczego z wartościami z odległej przeszłości pozwoliłoby wykryć oznaki takiego spowolnienia.
Innym zjawiskiem wykazującym wyraźną strzałkę czasu jest emisja promieniowania elektromagnetycznego. Na przykład, sygnał radiowy zawsze zostaje odebrany po jego wysłaniu, a nigdy przedtem. Dzieje się tak dlatego, że gdy nadajnik generuje fale radiowe, fale te rozbiegają się z nadajnika na wszystkie strony i znikają w głębinach Wszechświata. Nigdy nie zaobserwowano modulowanych fal radiowych dochodzących z obrzeży Wszechświata, które zbiegałyby się na antenie radiowej. (W terminologii technicznej fale rozbiegające się określa się jako “retardowane”, a fale zbiegające jako “adwansowane”). Gdyby jednak faktycznie strzałka czasu uległa odwróceniu w kurczącym się Wszechświecie, kierunek ruchu fal radiowych również by się odwrócił - zamiast fal retardowanych mielibyśmy wyłącznie fale adwansowane. W koncepcji Wheelera oznaczałoby to, iż bezpośrednio po Wielkim Wybuchu występowałyby wyłącznie fale retardowane, lecz w miarę przybliżania się momentu maksymalnej ekspansji powinno pojawiać się coraz więcej fal adwansowanych. W maksimum - liczba fal adwansowanych i retardowanych byłaby równa, natomiast po przejściu do fazy kontrakcji zaczęłyby dominować z kolei fale adwansowane. Jeśli koncepcja ta miałaby być słuszna, powinniśmy obserwować już w chwili obecnej pewną niewielką liczbę fal adwansowanych. Byłyby to w samej rzeczy fale radiowe dochodzące “z przyszłości”.
Jakkolwiek idea ta mogłaby wydawać się całkiem fantastyczna, została w latach siedemdziesiątych poddana testowaniu eksperymentalnemu przez astronoma Bruce'a Partridge'a. Eksperyment ten oparty był na tym, że fale radiowe skierowane ku ekranowi pochłaniającemu będą w 100% falami retardowanymi. Jeśli jednak pozwoli się im rozchodzić swobodnie w przestrzeni, część z nich może osiągnąć “punkt zwrotny”. Zatem powinny one posiadać pewną domieszkę fal adwansowanych. Jeśli tak jest, fale adwansowane oddadzą z powrotem do anteny pewną znikomą część energii wyemitowanej w postaci fal retardowanych. W rezultacie powinniśmy zaobserwować niewielką różnicę w odpływie energii z anteny w zależności od tego, czy jest ona otoczona ekranem pochłaniającym, czy też fale rozchodzą się swobodnie w przestrzeni. Pomimo korzystania z bardzo czułej aparatury pomiarowej Partridge'owi nie udało się jednak znaleźć żadnych śladów fal adwansowanych.
Jakkolwiek atrakcyjna może być koncepcja Wszechświata symetrycznego względem czasu, bardzo trudno znaleźć przemawiające za nią rozsądne argumenty. Statystycznie rzecz biorąc, przeważająca większość dopuszczalnych stanów początkowych Wszechświata nie prowadzi do takiego modelu; “punkt zwrotny” otrzymamy tylko w przypadku bardzo szczególnego doboru warunków początkowych. Można to przyrównać do bomby eksplodującej we wnętrzu stalowego pojemnika: można sobie wyobrazić, że wszystkie odłamki odbiją się zgodnie od ścian pojemnika i wracając na poprzednie miejsce, złożą się ponownie w bombę. O tego typu sytuacji nie da się powiedzieć, że jest całkowicie wykluczona, jednak oczywiste jest, że wymaga ona wprost nieprawdopodobnego zbiegu okoliczności.
Niemniej jednak idea Wszechświata symetrycznego w czasie okazała się na tyle pociągająca, że podjął ją ostatnio nawet Stephen Hawking w ramach swojego programu kosmologii kwantowej, który omówię pokrótce w dalszej części książki. Jednakże po jej bardziej szczegółowych badaniach Hawking przyznał, iż było to z jego strony błędem.
Thomas Gold opowiadał, jak pewnego wieczoru pod koniec lat czterdziestych wracał wraz z Hermannem Bondim z kina po obejrzeniu filmu Dead of Night [Najgłębsza noc], którego tematem były sny zawierające się wewnątrz innych snów, tworząc w ten sposób nieskończony ciąg. W drodze do domu nagle przyszło im do głowy, że film ten mógłby być alegorią Wszechświata. Niewykluczone, że Wszechświat nie miał początku i żadnego Wielkiego Wybuchu nigdy nie było. Być może istnieje jakiś mechanizm nieustannego odradzania się Wszechświata, tak że jest on w stanie istnieć wiecznie.
W ciągu następnych miesięcy Bondi i Gold przyoblekli swój pomysł w kształt konkretnej hipotezy naukowej. Jej zasadniczym założeniem było to, iż Wszechświat nie miał jednorazowego początku w rodzaju Wielkiego Wybuchu, w którym powstała cała zawarta w nim materia, lecz w miarę rozszerzania się Wszechświata rodzą się w nim nowe cząstki, wskutek czego średnia gęstość materii nie ulega zmianie. Każda z galaktyk przechodziłaby swój cykl ewolucyjny, “umierając” po wypaleniu się gwiazd wchodzących w jej skład, lecz z nowo stworzonej materii powstawałyby następne galaktyki. W danym momencie można by obserwować galaktyki w różnym wieku, z tym że najstarsze z nich byłyby rozmieszczone z najmniejszą gęstością, gdyż Wszechświat zdążył się już znacznie rozszerzyć od czasu ich powstania. Bondi i Gold utrzymywali, że Wszechświat rozszerza się z niezmienną szybkością, a tempo kreacji materii jest takie, iż zapewnia zachowanie jego gęstości średniej. Jest to tak, jak w przypadku rzeki, która wygląda stale tak samo, mimo iż woda, którą widzimy, jest za każdym razem inna. Rzeka nie jest tworem statycznym, lecz stacjonarnym. Dlatego hipoteza Bondiego i Golda stała się znana jako model “stanu stacjonarnego” Wszechświata.
W modelu stanu stacjonarnego Wszechświat nie ma ani początku, ani końca i wygląda średnio stale tak samo, pomimo iż nieustannie się rozszerza. Model ten unika problemu śmierci cieplnej, gdyż kreacja nowej materii stanowi jednocześnie zastrzyk ujemnej entropii; powracając do analogii z zegarkiem - w tym przypadku zegarek jest nakręcany przez cały czas. Bondi i Gold nie podali żadnego konkretnego sposobu, w jaki miałaby być stwarzana materia; problem ten został natomiast podjęty przez współpracującego z nimi Freda Hoyle'a. Hoyle wprowadził pojęcie “pola kreacyjnego”, które posiadałoby zdolność wytwarzania nowych cząstek materii. Ponieważ materia jest pewną formą energii, można by sądzić, że mechanizm podany przez Hoyle'a stanowi naruszenie prawa zachowania energii, ale niekoniecznie musi tak być. Pole kreacyjne niosłoby ze sobą energię ujemną i przy starannym doborze parametrów można uzyskać sytuację, że dodatnia energia wytworzonej materii odpowiadałaby dokładnie wzrostowi ujemnej energii pola kreacyjnego. Po przeprowadzeniu dokładnych matematycznych wyliczeń Hoyle odkrył, że jego model kosmologiczny zawierający pole kreacyjne sam z siebie dąży do osiągnięcia stanu stacjonarnego przewidzianego przez teorię Bondiego i Golda, a następnie w tym stanie pozostaje.
Prace Hoyle'a dostarczyły podbudowy teoretycznej niezbędnej do tego, aby teoria stanu stacjonarnego była traktowana poważnie; przez ponad dziesięć lat była ona uznawana za równorzędną teorię konkurującą z teorią Wielkiego Wybuchu. Wielu naukowców, w tym sami twórcy teorii stanu stacjonarnego, uważało, że poprzez pozbycie się Wielkiego Wybuchu raz na zawsze usunięta została potrzeba doszukiwania się jakichś nadnaturalnych przyczyn Wszechświata. Świat, który nie ma początku, nie potrzebuje ani stworzenia, ani Stwórcy, a wskutek tego, iż się sam “nakręca” za pośrednictwem pola kreacyjnego czysto fizycznej natury, nie wymaga żadnych boskich interwencji, by utrzymać go w istnieniu.
W istocie konkluzja ta jest całkowicie nieuprawniona. Fakt, że Wszechświat nie miał początku w czasie, w żadnej mierze nie uzasadnia, dlaczego on istnieje, i to w tej właśnie postaci. Nie wyjaśnia również, skąd miałyby pochodzić pola (takie jak pole kreacji) i prawa fizyki, dzięki którym możliwe było zaistnienie stanu stacjonarnego. Jak na ironię, niektórzy teologowie byli wręcz zachwyceni teorią stanu stacjonarnego, uważając, że dostarczyła ona modus operandi dla Boga w jego dziele stworzenia. Ostatecznie, istniejący wiecznie Wszechświat, któremu nie zagraża śmierć cieplna, jest koncepcją bardzo atrakcyjną dla teologa. Na przełomie wieków angielski matematyk i filozof Alfred North Whitehead sformułował tak zwaną teologię procesu. Zwolennicy tego kierunku odrzucali zakorzenioną w tradycji chrześcijańskiej koncepcję stworzenia z nicości na rzecz Wszechświata, który nie miał w ogóle początku. Działanie Boga jako Stwórcy ma w tym przypadku charakter nieustającego procesu, stwórczej interwencji w bieg przyrody. Do tematu kosmologii kreacyjnej powrócę jeszcze w rozdziale 7.
Ostatecznie, teoria stanu stacjonarnego popadła w niełaskę nie z racji filozoficznych, lecz dlatego, że sfalsyfikowały ją dane obserwacyjne. Z teorii tej wynikała bardzo konkretna prognoza, że Wszechświat powinien wyglądać średnio tak samo we wszystkich epokach, a pojawienie się olbrzymich radioteleskopów umożliwiło przetestowanie tego przewidywania. Gdy astronomowie obserwują bardzo odległe obiekty, widzą je nie takimi, jakimi są one teraz, lecz jakimi były w odległej przeszłości, kiedy to wyemitowane z nich światło lub fale radiowe rozpoczęły swą długą podróż ku Ziemi. Obecnie astronomowie są w stanie badać obiekty odległe o miliardy lat świetlnych, więc widzimy je takimi, jakimi były one wiele miliardów lat temu. Zatem odpowiednio głęboki przegląd Wszechświata może dostarczyć jego “migawkowych” ujęć do celów porównawczych. W połowie lat sześćdziesiątych stało się jasne, że kilka miliardów lat temu Wszechświat wyglądał zupełnie odmiennie niż obecnie, w szczególności pod względem gęstości rozmieszczenia galaktyk różnych typów.
Ostatnim gwoździem do trumny teorii stanu stacjonarnego było odkrycie w 1965 roku, że cały Wszechświat przeniknięty jest promieniowaniem cieplnym odpowiadającym temperaturze około trzech stopni powyżej zera absolutnego. Promieniowanie to uważane jest za bezpośrednią pozostałość Wielkiego Wybuchu, coś w rodzaju gasnącej poświaty od pierwotnej kuli ognistej, z której narodził się Wszechświat. Byłoby niezwykle trudno wytłumaczyć pochodzenie takiego wszechobecnego promieniowania w inny sposób niż poprzez to, że Wszechświat był kiedyś niezwykle gęsty i gorący. Taki stan nie występuje w teorii stanu stacjonarnego. Oczywiście, fakt, że Wszechświat nie znajduje się w stanie stacjonarnym, nie oznacza, iż ciągła kreaqa materii jest czymś niemożliwym, jednakże motywy, jakie skłoniły Hoyle'a do wprowadzenia pojęcia pola kreacji, zostały w znacznej mierze podważone, skoro okazało się, że Wszechświat jednak podlega ewolucji. Obecnie prawie wszyscy kosmologowie są zgodni, że żyjemy we Wszechświecie, który miał początek w postaci Wielkiego Wybuchu i który zmierza do nieznanego końca.
Gdy zaakceptuje się idee, że przestrzeń, czas i materia miały swój początek w osobliwości, stanowiącej absolutną granicę fizycznego Wszechświata w przeszłości, pojawia się szereg zagadek. Po pierwsze, mamy znany problem, co spowodowało Wielki Wybuch. Jednakże pytanie to musi być teraz widziane w nowym świetle, ponieważ nie jest możliwe powiązanie Wielkiego Wybuchu z czymś, co wydarzyło się przed nim, jak zwykle w przypadku, gdy mówimy o powiązaniach przyczynowo-skutkowych. Czy oznacza to, że Wielki Wybuch miałby być zdarzeniem, które nie miało przyczyny? Jeżeli prawa fizyki przestają obowiązywać w osobliwości, nie mogą one służyć jako podstawa wyjaśniania w tym przypadku. Zatem, jeżeli chcemy jednak doszukiwać się przyczyny Wielkiego Wybuchu, musi mieć ona charakter pozafizyczny.
Wielu ludzi wyobraża sobie Boga jako kogoś w rodzaju pirotechnika, który po zapaleniu kosmicznego lontu, rozsiada się wygodnie, by oglądać fajerwerki Wielkiego Wybuchu. Niestety, ten prosty obraz, tak bardzo do niektórych przemawiający, jest zupełnie pozbawiony sensu. Jak widzieliśmy, nadprzyrodzony akt stworzenia nie może być działaniem przyczynowym w czasie, gdyż to właśnie zaistnienie samego czasu jest tym, co chcielibyśmy wyjaśnić. Jeżeli Bóg ma stanowić uzasadnienie świata fizycznego, nie może to być uzasadnienie w kategoriach przyczyny i skutku, do jakich jesteśmy przyzwyczajeni.
Ten powracający nieustannie problem czasu został ostatnio podjęty przez angielskiego fizyka Russella Stannarda, który przyrównał Boga do autora książki. Książka po jej napisaniu istnieje jako skończona całość, chociaż my, ludzie, czytamy kolejno jej stronice od początku do końca. “Tak jak pisarz nie ogranicza się do napisania tylko pierwszego rozdziału powieści, pozwalając, aby reszta została dopisana przez kogoś innego, tak moc stwórcza Boga nie wyczerpuje się w Wielkim Wybuchu ani nawet nie jest jakoś szczególnie na to zdarzenie ukierunkowana. Przeciwnie, należy przyjmować, iż mocą tą przeniknięta jest cała przestrzeń i cały czas: stwarzanie staje się tym samym, co utrzymywanie w istnieniu.”
Niezależnie od problematyki początku czasu, odwoływanie się do Boga w celu wyjaśnienia Wielkiego Wybuchu związane jest z niektórymi innymi trudnościami. Aby je zilustrować, posłużę się wyimaginowaną rozmową między teistą (czy też należałoby właściwie powiedzieć deistą) - zwolennikiem tezy, że świat został stworzony przez Boga, a ateistą, który “nie widzi potrzeby takiej hipotezy”.
Ateista: W dawnych czasach bóstwa służyły do objaśnienia najróżniejszych zjawisk świata fizycznego, takich jak wiatr, deszcz i ruchy planet. W miarę postępu nauki powoływanie się na takie nadprzyrodzone czynniki dla wyjaśnienia zjawisk przyrody uznano za zbędne. Dlaczego zatem upierasz się, że Bóg miałby być przyczyną Wielkiego Wybuchu?
Teistą: To twoja nauka nie jest w stanie wyjaśnić wszystkiego. Świat jest pełen tajemnic. Na przykład, nawet najwięksi optymiści wśród biologów przyznają, że powstanie życia pozostaje ciągle wielką zagadką.
Ateista: Zgadzam się, że nauka nie wyjaśniła dotąd wszystkiego, ale nie wynika stąd bynajmniej, iż nie potrafi tego uczynić. Wy, teiści, zawsze ulegaliście pokusie, by wskazywać na jakieś zjawisko, którego nauka nie mogła w danym momencie wyjaśnić, twierdząc, że dla jego uzasadnienia niezbędny jest Bóg. Następnie, po nowych odkryciach nauki, Bóg okazywał się do tego uzasadnienia niepotrzebny. Powinniście się już nauczyć, że koncepcja Boga jako “wypełniacza luk” nie da się dłużej utrzymać. W miarę upływu czasu coraz mniejsza jest liczba luk naszej wiedzy, w których mógłby się on ostać. Mnie osobiście nie sprawia trudności przypuszczenie, że nauka będzie w stanie wyjaśnić wszystkie zjawiska przyrody, w tym powstanie życia. Przyznaję, że początek Wszechświata to trudny orzech do zgryzienia. Jeśli jednak, jak na to wygląda, zaszliśmy już tak daleko, iż jedynym nie wyjaśnionym elementem pozostaje sam Wielki Wybuch, byłoby czymś dalece nieprzystojnym wprowadzanie tu pojęcia Istoty Nadprzyrodzonej tylko dlatego, że została ona wyeliminowana ze wszystkich innych zjawisk i miałaby to być jej “ostatnia szansa”.
Teistą: Nie widzę, dlaczego by tak miało być. Nawet jeżeli odrzuca się ideę, że Bóg działa bezpośrednio w świecie fizycznym po jego stworzeniu, problem ostatecznego początku tego świata należy do zupełnie innej kategorii niż problem wyjaśnienia zjawisk przyrody w istniejącym już świecie.
Ateista: Lecz jeżeli nie posiada się innych powodów, dla których mielibyśmy wierzyć w istnienie Boga, stwierdzenie po prostu, że “Bóg stworzył świat”, ma charakter całkowicie adhoc; nie wyjaśnia ono niczego. W istocie, taka wypowiedź jest zasadniczo pozbawiona jakiejkolwiek głębszej treści, gdyż sprowadza się do definiowania Boga jako czynnika sprawczego dla świata. Ten wybieg nie posuwa naprzód naszego poznania nawet w najmniejszym stopniu. Po prostu jedna zagadka (powstanie Wszechświata) zostaje wyjaśniona za pomocą innej zagadki (Bóg). Jako naukowiec mam prawo zastosować tu brzytwę Ockhama i odrzucić hipotezę Boga jako niepotrzebne komplikowanie sprawy. W przeciwnym przypadku zmuszony byłbym postawić pytanie: kto stworzył Boga?
Teista: Bóg nie potrzebuje innego stwórcy. Jest on bytem koniecznym i po prostu musi istnieć. Nie ma tu innej możliwości.
Ateista: Ale można równie dobrze utrzymywać, że Wszechświat nie wymaga stwórcy. Jakimikolwiek argumentami będziemy uzasadniali, iż istnienie Boga jest konieczne, mogą być one z równą słusznością zastosowane do Wszechświata; w ten sposób co najmniej uprościmy nasze rozważania.
Teista: Z pewnością jednak naukowcy powszechnie stosują mój tryb rozumowania. Dlaczego ciała spadają? Ponieważ poddane są działaniu siły ciężkości. Dlaczego działa na nie siła ciężkości? Ponieważ znajdują się w polu grawitacyjnym. Skąd się bierze pole grawitacyjne? Ponieważ przestrzeń jest zakrzywiona. I tak dalej. Jeden opis zastępuje się innym, głębszym opisem, wyłącznie w celu wyjaśnienia tego, od czego zaczęliśmy, mianowicie zjawiska spadania ciał. Dlaczego zatem oponujesz, gdy odwołuję się do Boga jako głębszego i bardziej zadowalającego uzasadnienia Wszechświata?
Ateista: Ależ to jest coś zupełnie innego! Teoria naukowa powinna wnosić coś więcej do faktów, które ma wyjaśniać. Dobre teorie upraszczają obraz świata poprzez ukazanie powiązań pomiędzy zjawiskami, które poprzednio uważane były za odmienne. Na przykład, teoria grawitacji Newtona pokazała związek zachodzący pomiędzy pływami morskimi a ruchem Księżyca. Ponadto dla dobrych teorii można podać testy obserwacyjne, takie jak przewidzenie nowych, nie znanych dotąd, zjawisk. Pozwalają one również na szczegółową analizę przebiegu interesujących nas zjawisk fizycznych w kategoriach danej teorii. W przypadku grawitacji umożliwiają to równania opisujące związek natężenia pola grawitacyjnego ze strukturą jego źródeł. W teorii tej znajdujemy dokładny mechanizm przebiegu zjawisk grawitacyjnych. Natomiast koncepcja Boga przywoływana jedynie dla wyjaśnienia Wielkiego Wybuchu nie spełnia żadnego z tych trzech kryteriów. Nie upraszczając w niczym naszej wizji świata, pojęcie Stwórcy stanowi dodatkowy element, sam domagający się uzasadnienia. Po drugie, nie ma żadnej możliwości eksperymentalnej weryfikacji tej hipotezy: Bóg w tym przypadku przejawił się tylko w jednym jedynym zjawisku - Wielkim Wybuchu - które miało miejsce dawno temu. I w końcu, gołe stwierdzenie “Bóg stworzył świat” nie stanowi w istocie żadnego wyjaśnienia, dopóki nie towarzyszy jemu dokładny opis, w jaki sposób to nastąpiło. Chciałoby się wiedzieć, na przykład, jakie własności możemy przypisać takiemu Bogu i jak konkretnie stwarzał on Wszechświat, dlaczego Wszechświat ma właśnie taką postać, i tak dalej. Krótko mówiąc, dopóki nikt nie potrafi ani podać innych przejawów istnienia takiego Boga, ani dokładnego opisu, w jaki sposób stworzył on świat, który nawet taki ateista jak ja uznałby za głębszy, prostszy i bardziej zadowalający, nie widzę żadnych powodów, które uzasadniałyby wiarę w taką istotę.
Teista: Mimo to twoje stanowisko również trudno uznać za w pełni zadowalające, gdyż, jak sam przyznajesz, uzasadnienie Wielkiego Wybuchu wykracza poza ramy nauki. Zmuszony jesteś przyjmować istnienie Wszechświata jako fakt pozbawiony jakiegokolwiek głębszego uzasadnienia.
Ateista: Wolę już przyjmować jako fakt istnienie świata niż istnienie Boga. W końcu, abyśmy mogli o nim dyskutować, świat musi istnieć!
Wieloma z kwestii, jakie wystąpiły w tym dialogu, zajmę się w następnych rozdziałach. Istota sporu sprowadza się do tego, czy to, że Wszechświat powstał w wyniku wybuchu, jak wszystko na to wskazuje, musimy przyjąć jako niezależny, nie dający się uzasadnić, fakt na zasadzie “tak-to-już-jest”, czy też możemy poszukiwać jakiegoś bardziej zadowalającego uzasadnienia. Do niedawna wydawało się, że każde takie uzasadnienie musiałoby odwoływać się do czynników nadprzyrodzonych, wykraczających poza prawa fizyki, lecz najnowsze postępy naszej wiedzy o bardzo wczesnym Wszechświecie dokonały przełomu w tej całej dyskusji, ukazując tę odwieczną zagadkę w zupełnie nowym świetle.
Stworzenie bez stworzenia
Od upadku teorii stanu stacjonarnego wydawało się, iż w kwestii początków Wszechświata uczeni nie mają wielkiego wyboru. Można było albo wierzyć, że Wszechświat istniał zawsze, stawiając czoła wszystkim związanym z tym paradoksom fizycznym, albo zakładać, że czas i przestrzeń zaczęły się gwałtownie, lecz nie można tego wyjaśnić w sposób naukowy. Przeoczono trzecią możliwość: że Wszechświat nie istniał zawsze, a jednak nie zaczął się jednorazowo w osobliwości.
Przed przejściem do szczegółów pozwolę sobie zrobić ogólną uwagę, że istota całego problemu z początkiem Wszechświata leży w tym, iż Wielki Wybuch miałby być zdarzeniem nie mającym przyczyny na płaszczyźnie fizycznej. Na ogół uważa się, że stoi to w sprzeczności z prawami fizyki. Istnieje tu jednak pewna furtka. Jest nią mechanika kwantowa. Jak wyjaśniałem w rozdziale l, za obszar stosowania mechaniki kwantowej przyjmuje się zazwyczaj atomy, cząsteczki i cząstki elementarne. Dla obiektów makroskopowych efekty kwantowe są w normalnych warunkach zaniedbywalnie małe. Proszę sobie przypomnieć, że istotę fizyki kwantowej stanowi zasada nieoznaczoności Heisenberga, stwierdzająca, iż wartości wszystkich wielkości mierzalnych (takich jak położenie, pęd, energia) podlegają nieprzewidywalnym fluktuacjom. Na skutek owej nieprzewidywalności mikroświat ma charakter indeterministyczny; aby posłużyć się obrazową metaforą Einsteina: Pan Bóg gra z Wszechświatem w kości. Dlatego na poziomie kwantowym zdarzenia nie są wyznaczone w sposób bezwzględny przez poprzedzające je przyczyny. Jakkolwiek prawdopodobieństwo jakiegoś zdarzenia (np. rozpadu promieniotwórczego jądra atomu) można ustalić na podstawie teorii, rzeczywisty wynik danego procesu kwantowego jest nie tylko nieznany, ale i z zasady niepoznawalny.
Wskutek rozmycia więzi między przyczyną a skutkiem mechanika kwantowa pozwala w przemyślny sposób obejść problem zaistnienia Wszechświata. Gdyby udało się wykazać, że Wszechświat wyłonił się z nicości w wyniku fluktuacji kwantowej, to żadne prawa fizyki nie byłyby pogwałcone. Innymi słowy, z punktu widzenia mechaniki kwantowej spontaniczne powstanie Wszechświata nie jest niczym szczególnym, jako że na poziomie mikroświata obiekty fizyczne powstają same z siebie bez wyróżnionej przyczyny przez cały czas. Fizyk kwantowy nie ma większej potrzeby odwoływania się do sił nadprzyrodzonych w przypadku powstania świata niż w przypadku uzasadniania, dlaczego rozpad danego jądra promieniotwórczego nastąpił właśnie w określonym momencie.
Wszystko to zależy naturalnie od prawomocności stosowania mechaniki kwantowej do Wszechświata jako całości. Nie jest to wcale takie oczywiste. Nie mówiąc już o tym, że stosowanie teorii opisującej świat cząstek elementarnych do całego kosmosu wymaga niewiarygodnej ekstrapolacji, pojawiają się w tym przypadku głębokie pytania natury zasadniczej co do treści, jaką należałoby przypisać niektórym obiektom matematycznym występującym w teorii. Jednak zdaniem wielu znakomitych fizyków teoria kwantów może być z powodzeniem stosowana w tej sytuacji - i w ten sposób narodziła się nowa dyscyplina, kosmologia kwantowa.
Uzasadnieniem dla kosmologii kwantowej jest fakt, że o ile Wielki Wybuch traktować poważnie, musiał istnieć moment, kiedy promień całego Wszechświata był rzędu rozmiarów subatomowych, a zatem procesy kwantowe musiały w nim odgrywać dominującą rolę. W szczególności na strukturę i ewolucję bardzo wczesnego Wszechświata musiały mieć głęboki wpływ fluktuacje związane z zasadą nieoznaczoności Heisenberga. Kiedy ta epoka miała miejsce, wynika z prostego obliczenia. Efekty kwantowe były znaczące, gdy gęstość materii sięgała zawrotnej wartości 1094 g cm3; było to wtedy, gdy Wszechświat miał mniej niż 1043 sekundy i zaledwie 1033 cm średnicy. Wartości te nazywa się odpowiednio gęstością, czasem i promieniem Plancka, na cześć Maxa Plancka, pioniera teorii kwantów.
Zdolność fluktuacji kwantowych do “rozmywania” rzeczywistości fizycznej w skali mikroświata prowadzi do fascynującego wniosku dotyczącego natury czasoprzestrzeni. W laboratorium fizycy mogą obserwować fluktuacje kwantowe nie mniejsze niż 1018 cm w skali czasu około 1028 sekundy. Fluktuacje te, którym podlegają takie parametry jak położenia i pędy cząstek, rozgrywają się na tle w miarę ustabilizowanej czasoprzestrzeni. Jednakże w skali jeszcze mniejszej, rzędu wielkości Plancka, fluktuacjom podlega również sama czasoprzestrzeń.
Aby zrozumieć, w jaki sposób się to odbywa, trzeba wpierw przyjrzeć się bliskiemu sprzężeniu przestrzeni i czasu. Teoria względności wymaga, byśmy traktowali trzy wymiary przestrzenne i jeden wymiar czasowy jako atrybuty jednolitej czterowymiarowej czasoprzestrzeni. Pomimo tej unifikacji przestrzeń pozostaje pod względem fizycznym czymś odrębnym od czasu. W życiu codziennym odróżnienie ich nie przedstawia dla nas żadnych trudności. Różnica ta ulega jednak zatarciu w przypadku fluktuacji kwantowych. W skali Plancka rozróżnienie na czas i przestrzeń zaciera się. Teoria kwantowa opisuje dokładnie, w jaki sposób się to odbywa, i pozwala na wyliczenie względnych wartości prawdopodobieństwa poszczególnych wariantów struktur czasoprzestrzennych.
Może się więc w pewnych warunkach zdarzyć, że w wyniku tych efektów kwantowych najbardziej prawdopodobna okaże się struktura składająca się z czterech wymiarów przestrzennych. James Hartle i Stephen Hawking przedstawili rozumowanie, z którego wynikało, iż takie właśnie warunki miały miejsce w bardzo wczesnym Wszechświecie. Oznacza to, że jeżeli wyobrazimy sobie, iż posuwamy się w czasie wstecz ku Wielkiemu Wybuchowi, to gdy osiągniemy moment odległy o około jeden czas Plancka od tego, co uważaliśmy za osobliwość początkową, dzieje się coś dziwnego: czas zaczyna “przeobrażać się” w przestrzeń. Zatem zamiast z początkiem czasoprzestrzeni mamy teraz do czynienia z czterowymiarową przestrzenią i możemy postawić pytanie o kształt tej przestrzeni, tj. jej geometrię. W rzeczywistości teoria dopuszcza tu nieskończenie wiele możliwych geometrii. Odpowiedź na pytanie, która z nich odnosi się do rzeczywistego świata, zależy od rozwiązania problemu doboru właściwych warunków początkowych, czemu poświęcę nieco uwagi w dalszej części książki. Hartle i Hawking dokonują tu konkretnego wyboru, który uważają za naturalny ze względu na elegancję matematyczną.
W zrozumieniu ich idei pomocne może być przedstawienie ich w postaci schematycznego rysunku. Jednakże powinieniem tu przestrzec czytelnika, aby nie nadawał tym rysunkom znaczenia nazbyt dosłownego. Zacznijmy od przedstawienia czasoprzestrzeni jako dwuwymiarowego diagramu, na którym oś czasu skierowana jest pionowo, a oś przestrzeni poziomo. Przyszłość znajduje się u góry diagramu, przeszłość u dołu. Ponieważ niemożliwe jest właściwe odzwierciedlenie czterech wymiarów na płaskiej stronicy książki, pozostawiłem tylko jeden wymiar przestrzenny, co jednak wystarcza dla zilustrowania wszystkich zasadniczych rozważań. Przekrój poziomy przez diagram odpowiada całej przestrzeni w jednym momencie czasu, a linia pionowa przedstawia historię pewnego punktu przestrzeni w czasie. Korzystne może być wyobrażenie sobie, że rysunek ten znajduje się na luźnej kartce papieru, z którą możemy przeprowadzać pewne czynności. (Być może nawet czytelnik zechce je naprawdę wykonać).
Gdyby przestrzeń i czas były nieskończone, to ściśle rzecz biorąc, dla właściwego przedstawienia czasoprzestrzeni potrzebna by była nieskończona płaszczyzna papieru. Jeśli jednak czas nie rozciąga się nieskończenie w przeszłość, diagram musi być od dołu ograniczony; można sobie wyobrazić, że odcięliśmy w pewnym miejscu jego dolną część, tworząc poziomy brzeg. Czas może być także ograniczony w przyszłości, co odpowiada zrobieniu takiego samego brzegu w górnej części. W ten sposób otrzymaliśmy nieskończony pasek papieru reprezentujący całą nieskończoną przestrzeń w kolejnych momentach czasu od początku (brzeg dolny) do końca (brzeg górny) świata.
W tym miejscu można rozważyć możliwość, że przestrzeń nie jest jednak nieskończona. Einstein jako pierwszy wskazał na możliwość, że przestrzeń jest skończona, choć nieograniczona. Do idei tej należy podchodzić poważnie i stanowi ona możliwą do obserwacyjnej weryfikacji hipotezę kosmologiczną. Taką możliwość możemy łatwo przedstawić na naszym diagramie poprzez zwinięcie arkusza papieru tak, aby utworzył on walec. Przestrzeń w każdym momencie czasu jest wtedy reprezentowana przez okrąg o skończonym obwodzie (Dwuwymiarowym odpowiednikiem jest w tym przypadku powierzchnia sfery; w trzech wymiarach jest to tak zwana hipersfera, którą trudno sobie naocznie przedstawić, ale która pod względem matematycznym jest obiektem dobrze określonym i zrozumiałym).
Następnym krokiem jest uwzględnienie ekspansji Wszechświata poprzez pozwolenie, aby rozmiar Wszechświata zmieniał się w czasie. Ponieważ zajmujemy się tutaj przede wszystkim początkiem Wszechświata, pominę część górną diagramu i pokażę jedynie część dolną. Cylinder przybiera teraz kształt stożka. Kolejne przekroje, będące coraz większymi okręgami, przedstawiają rozszerzającą się przestrzeń. Hipoteza, że Wszechświat zaczął się stanem osobliwym o nieskończonej gęstości, odpowiada temu, iż stożek zbiega się u dołu w jeden punkt. Pojedynczy wierzchołek stożka przedstawia gwałtowne powstanie zarówno czasu, jak i przestrzeni w Wielkim Wybuchu.
Podstawową tezą kosmologii kwantowej jest, że zasada nieoznaczoności Heisenberga powoduje “stępienie” ostrego wierzchołka stożka i zastąpienie go zakończeniem obłym. Jego konkretny kształt zależy od przyjmowanego modelu teoretycznego; w modelu Hartle'a i Hawkinga możemy sobie mniej więcej wyobrażać, że wierzchołek uległ zaokrągleniu, gdzie wierzchołek stożka został zastąpiony półkulą. Promień tej półkuli równy jest długości Plancka (1033 cm), co jest wartością niezmiernie małą podług ludzkich standardów, jednakże nieskończenie wielką w porównaniu z osobliwością punktową. Ponad początkową półkulą stożek rozwiera się jak poprzednio, co odpowiada standardowej niekwantowej ewolucji rozszerzającego się Wszechświata. W tej górnej części czas biegnie pionowo jak zwykle i jest pod względem fizycznym czymś całkowicie odrębnym od przestrzeni, która rozpościera się poziomo wokół obwodu stożka. Natomiast poniżej przejścia w sferę sytuacja całkowicie się zmienia. Wymiar czasowy zaczyna odkształcać się w kierunku wymiaru przestrzennego (tzn. poziomo). W ten sposób u dołu, w pobliżu podstawy półkuli mamy dwuwymiarową, w przybliżeniu poziomą, zakrzywioną powierzchnię, której oba wymiary są przestrzenne, w miejsce jednego przestrzennego i jednego czasowego. Proszę zauważyć, że przejście wymiaru przestrzennego w czasowy ma charakter stopniowy; nie należy sobie wyobrażać, że następuje ono gwałtownie przy przejściu ze stożka na półkulę. Ujmując to w inny sposób, można powiedzieć, że czas wyłania się stopniowo z przestrzeni, w miarę jak powierzchnia półkuli przechodzi w powierzchnię stożka. Należy również zwrócić uwagę, że w tym przypadku czas jest nadal ograniczony od dołu - nie rozciąga się wstecz do nieskończoności - a jednak nie istnieje w istocie jego “pierwszy moment”, nie ma tu gwałtownego początku w osobliwości. Zatem osobliwość została faktycznie usunięta.
Można być skłonnym uważać najniższy punkt półkuli - jej “biegun południowy” - za “początek” Wszechświata, lecz, jak podkreśla Hawking, jest to pogląd błędny. Podstawową własnością charakteryzującą powierzchnię sferyczną jest to, że wszystkie jej punkty są równoważne, to znaczy żaden punkt nie jest w żaden sposób wyróżniony. Najniższy punkt półkuli wydaje nam się wyróżniony, ponieważ tak ustawiliśmy stożkowatą powierzchnię. Gdy odchylimy stożek, inny punkt stanie się punktem najniższym. Hawking zauważa, iż mamy tu do czynienia z sytuacją analogiczną do sposobu, w jaki geometrycznie przedstawiamy powierzchnie kuli ziemskiej. Południki zbiegają się na Biegunie Północnym i Południowym, lecz powierzchnia Ziemi w tych miejscach niczym się nie wyróżnia. Jako punkt zbiegania się południków można by równie dobrze wybrać Mekkę lub Hongkong. (W rzeczy samej wybór biegunów wiąże się z położeniem osi rotacji Ziemi, ale nie ma to znaczenia z punktu widzenia tej dyskusji). Nikt nie twierdzi wszakże, iż powierzchnia Ziemi zaczyna się gwałtownie na biegunach. Są to wprawdzie punkty osobliwe systemu współrzędnych opartego na południkach i równoleżnikach, ale nie są one wyróżnione realnie pod względem geometrycznym.
Aby to lepiej wyjaśnić, wyobraźmy sobie, że w “biegunie południowym” półkuli zrobiliśmy małą dziurkę, następnie rozciągamy obszar wokół dziurki (zakładamy, że jest on elastyczny), aby utworzyć walec, który rozcinamy i rozkładamy na płasko. Konkluzja jest taka, iż to, co poprzednio braliśmy za początek czasu w osobliwości (dolny brzeg), jest w rzeczywistości jedynie punktem osobliwym systemu współrzędnych nieskończenie rozciągniętym. Dokładnie to samo zachodzi dla map powierzchni Ziemi w rzucie Mercatora. Biegun Południowy, który naprawdę jest normalnym punktem na powierzchni kuli ziemskiej, staje się poziomym brzegiem, jak gdyby powierzchnia Ziemi tam się kończyła. Jednak brzeg ten jest tworem sztucznym, wynikającym z przyjętego sposobu odwzorowania powierzchni sferycznej na płaszczyźnie. Możemy równie dobrze przerysować mapę Ziemi w innym układzie współrzędnych, w którym południki będą się zbiegały w innym punkcie, a Biegun Południowy będzie punktem jak wszystkie inne, tak jak w rzeczywistości.
W rezultacie tych wszystkich rozważań dochodzimy do wniosku, za Hartle'em i Hawkingiem, że Wszechświat nie miał początku. W żadnym przypadku nie oznacza to jednak, iż Wszechświat miałby istnieć od zawsze. Czas jest skończony w przeszłości, lecz nie ma punktu początkowego. W ten sposób paradoksalna opozycja nieskończonego i skończonego czasu, która przez stulecia nie dawała spokoju filozofom, znajduje eleganckie rozstrzygnięcie. Hartle'emu i Hawkingowi udało się w przemyślny sposób przepłynąć między Scyllą a Charybdą tego, zdawałoby się nierozwiązywalnego, dylematu. Jak ujął to Hawking: “Warunkiem brzegowym dla Wszechświata jest brak brzegów”.
Implikacje modelu Hartle'a-Hawkinga dla teologii są daleko idące. Sam Hawking wyraził się w tej kwestii: “Dopóki zakładamy, że Wszechświat miał początek, możemy przypuszczać, że istnieje jego Stwórca. Natomiast jeśli Wszechświat jest w pełni samowystarczalny, nie ma żadnych granic ani brzegów, to nie ma również początku ani końca: po prostu jest. Gdzież tu zatem miejsce dla Stwórcy?” Argumentacja jest zatem taka, że skoro Wszechświat nie zaczął się w określonym, osobliwym momencie w przeszłości, nie ma potrzeby odwoływać się do nadprzyrodzonego aktu stworzenia, aby powołać go do istnienia. Angielski fizyk Chris Isham, który sam jest specjalistą w dziedzinie kosmologii kwantowej, zajął się zbadaniem implikacji teorii Hartle'a-Hawkinga dla teologii. Pisze on: “Nie ulega wątpliwości, że, od strony psychologicznej, istnienie takiego osobliwego punktu początkowego wpływa na zrodzenie idei Stwórcy, który miałby wprawić wszystko w ruch”. Uważa jednak, że nowe koncepcje kosmologiczne usuwają potrzebę przywoływania Boga-jako-zapełniacza-luk jako przyczyny Wielkiego Wybuchu: “Wygląda na to, że te nowe teorie doskonale sobie radzą z tą właśnie luką”.
Jakkolwiek u Hawkinga Wszechświat nie miał początku w czasie, prawdą jest w tej teorii zarazem, że nie istniał on zawsze. Czy byłoby zatem prawidłowe stwierdzenie, iż Wszechświat “sam się stworzył”? Ja ująłbym to raczej w ten sposób, że Wszechświat składający się z czasoprzestrzeni i materii jest wewnętrznie spójny i samowystarczalny. Do swego istnienia nie potrzebuje niczego zewnętrznego wobec siebie, w szczególności żadnego “pierwszego poruszyciela”. Czy ma to oznaczać, że istnienie Wszechświata może być “uzasadnione” w sposób naukowy bez wprowadzania pojęcia Boga? Czy Wszechświat może być uznany za układ zamknięty, obejmujący również rację swego własnego istnienia? Odpowiedź zależy od tego, jakie znaczenie nadajemy słowu “uzasadniać”. Jeśli prawa fizyki potraktujemy jako dane, Wszechświat jest w stanie, że tak powiem, zająć się sam sobą, w tym także swym własnym stworzeniem. Ale skąd się wzięły prawa fizyki? Czy stajemy z kolei przed koniecznością poszukiwania uzasadnienia dla nich? Problemem tym zajmę się w następnym rozdziale.
Czy te najnowsze odkrycia naukowe są sprzeczne z chrześcijańską doktryną o stworzeniu ex nihilo. Jak już wielokrotnie podkreślałem, powołanie świata do istnienia z niczego przez Boga nie może być uważane za akt dokonywany w czasie, ponieważ obejmuje on również stworzenie samego czasu. We współczesnej doktrynie chrześcijańskiej przez stworzenie ex nihilo rozumie się stałe podtrzymywanie Wszechświata w istnieniu. Obecnie w naukowej kosmologii także nie rozważa się “zaistnienia” czasoprzestrzeni, lecz przyjmuje, że czasoprzestrzeń (lub Wszechświat) po prostu jest.
“W tej koncepcji nie występuje żadne specjalnie wyróżnione zdarzenie początkowe”, twierdzi filozof Wim Drees. “A zatem każdy moment świata znajduje się w tej samej relacji do Stwórcy. Albo musimy przyjmować jako fakt, że wszystkie momenty po prostu »zawsze były i są«, albo uważać je wszystkie w jednakowym stopniu za wynik stwórczej działalności Boga. Niewątpliwą zaletą kosmologii kwantowej jest to, że ten aspekt pojęcia stworzenia ex nihilo, który wydawał się najbardziej oderwany od myślenia naukowego, mianowicie »podtrzymywanie w istnieniu«, znajduje w tej teorii swe naturalne miejsce”. Jednakże wizerunek Boga wyłaniający się z tej teorii jest dość odległy od chrześcijańskiego Boga naszego stulecia. Drees znajduje tu bliskie podobieństwo do panteistycznej wizji Boga, jaką przyjmował żyjący w siedemnastym wieku filozof Baruch Spinoza, w której świat fizyczny obdarzony zostaje atrybutami boskimi, takimi jak istnienie “wieczne” i “konieczne”.
Można oczywiście pytać dalej: dlaczego istnieje Wszechświat? Czy (pozaczasowe) istnienie czasoprzestrzeni może być uważane za (nie zachodzącą w czasie) formę “stworzenia”? W tym sensie mówienie o stworzeniu “z niczego” nie odnosiłoby się do rozgrywającego się w czasie procesu przejścia od nicości do bytu, lecz stanowiłoby sposób unaocznienia, że bardziej prawdopodobne jest nieistnienie czegoś niż istnienie. Większość naukowców (bynajmniej nie wszyscy, patrz strona 135-136) skłonna byłaby się zgodzić, że istnienie matematycznego modelu Wszechświata nie jest tym samym, co faktyczne istnienie tegoż Wszechświata. Koncepcja musi zostać dopiero urzeczywistniona. Zatem mamy to, co Drees nazywa “ontologiczną przypadłością”. Teoria Hartle'a-Hawkinga jest w miarę zgodna z tym bardziej abstrakcyjnym rozumieniem “stworzenia”, gdyż jest teorią kwantową. Istotą mechaniki kwantowej, jak już mówiłem, jest brak pewności: przewidywanie w teorii kwantów jest przewidywaniem prawdopodobieństwa zajścia jakiegoś stanu rzeczy. Formalizm matematyczny Hartle'a-Hawkin-ga dostarcza zatem prawdopodobieństwa tego, że określony Wszechświat z określonym rozkładem materii istnieje w danej chwili. Przewidując niezerową wartość prawdopodobieństwa dla danego Wszechświata, twierdzimy tym samym, że ma on szansę się urzeczywistnić. W ten sposób stworzeniu ex nihilo nadana zostaje konkretna interpretacja jako “realizacji możliwości”.
Przed zakończeniem rozważania problemu początku Wszechświata wspomnę o jednej z ostatnich teorii kosmologicznych, w której problem ten rozwiązywany jest w radykalnie odmienny sposób. W mojej książce God and the New Physics [Bóg i nowa fizyka] rzuciłem myśl, że to, co uważamy za Wszechświat, mogło powstać jako wytwór większej całości, a następnie się od niej oddzielić i stać się niezależnym bytem. Przestrzeń reprezentowana jest tutaj jako dwuwymiarowa płaszczyzna. Zgodnie z ogólną teorią względności wyobraźmy sobie, iż płaszczyzna ta jest zakrzywiona. W szczególności możemy sobie wyobrazić, że w pewnym miejscu tej płaszczyzny utworzy się wybrzuszenie, które następnie rośnie, przekształcając się w wystającą strukturę połączoną z główną płaszczyzną jedynie wąskim przesmykiem. Może być tak, że przesmyk ten staje się coraz węższy i węższy, aż wreszcie przerywa się zupełnie. W ten sposób z początkowej wypukłości powstaje całkowicie oderwany “bąbel”. Płaszczyzna “matka” zrodziła “dziecko”.
Zdumiewające, że są podstawy, by przypuszczać, iż coś takiego ma miejsce w rzeczywistym Wszechświecie. Chaotyczne fluktuacje przewidywane przez mechanikę kwantową powodują, że w skali mikroświata czasoprzestrzeń obfituje w przeróżne wybrzuszenia, kanaliki i pomosty, nieustannie pojawiające się i znikające. Radziecki fizyk Andriej Linde wysunął ideę, że w ten właśnie sposób zapoczątkowany został nasz Wszechświat jako niewielki bąbel czasoprzestrzeni, który potem uległ ogromnemu rozdęciu w procesie kosmicznej inflacji, co doprowadziło do Wielkiego Wybuchu. Podobne modele rozwijane były także przez innych badaczy. Wszechświat-matka, który zrodził nasz Wszechświat, niezależnie podlega niewiarygodnie szybkiej inflacji, przez cały czas produkując co sił Wszechświaty niemowlęce. Jeśli ten opis jest prawidłowy, oznaczałoby to, że “nasz” Wszechświat jest tylko jednym z nieskończonego zbiorowiska Wszechświatów, jakkolwiek obecnie całkowicie od nich odrębnym. Zbiorowisko to jako całość nie ma ani początku, ani końca. W każdym razie posługiwanie się słowami “początek” i “koniec” nie ma większego sensu, gdyż nie istnieje żaden wszechobowiązujący czas, w którym rozgrywałby się proces narodzin nowych Wszechświatów, chociaż każdy z tych “bąbli” posiada swój czas wewnętrzny.
Interesujące jest pytanie, czy nasz Wszechświat także może być Wszechświatem-matką i rodzić nowe Wszechświaty. A może jakiemuś naukowcowi-szaleńcowi udałoby się stworzyć swój własny Wszechświat w laboratorium. Zagadnienie to zostało rozpatrzone przez Alana Gutha, autora koncepcji kosmicznej inflacji. Okazuje się, iż jeżeli udałoby się skoncentrować olbrzymią ilość energii, faktycznie mogłaby się utworzyć czasoprzestrzenna protuberancja. Na pierwszy rzut oka może to rodzić obawy, że grozi nam nowy Wielki Wybuch, ale w istocie zdarzenie takie wyglądałoby z naszego miejsca w czasoprzestrzeni jako powstanie czarnej dziury. Jakkolwiek przestrzeń wewnątrz takiej protuberancji mogłaby podlegać wybuchowej inflacji, my widzielibyśmy jedynie kurczącą się czarną dziurę. W końcu dziura wyparowałaby doszczętnie i tym samym nasz Wszechświat odseparowałby się od nowo powstałego Wszechświata-dziecka.
Mimo iż teoria ta niezwykle przemawia do wyobraźni, ciągle należy ona do sfery czystej spekulacji. Powrócę do niej na krótko w rozdziale 8. Teoria wszechświatów niemowlęcych, podobnie jak teoria Hartle'a-Hawkinga, zmyślnie omija problemy związane z początkiem Wszechświata przez odwołanie się do procesów kwantowych. Warto wyciągnąć stąd wniosek, że mechanika kwantowa otwiera drogę do wszechświatów o skończonym okresie trwania, których istnienie nie wymaga jednak wprowadzenia jakiejś określonej przyczyny sprawczej. Nie jest potrzebny żaden akt stworzenia.
Wszystkie koncepge fizyczne omówione w tym rozdziale opierały się na założeniu, że Wszechświat jako całość podlega pewnym określonym prawom fizyki. Prawa te, na których opiera się świat fizyczny, wplecione są w obręb matematyki, a ta z kolei opiera się na solidnych podstawach logiki. To przejście od zjawisk fizycznych, poprzez prawa fizyki, do matematyki, a ostatecznie logiki, otwiera kuszącą perspektywę, że świat można pojąć stosując wyłącznie logiczne rozumowanie. Czyż nie mogłoby być tak, że znaczna część, jeśli wręcz nie całość, fizycznego Wszechświata istnieje dlatego, iż jest logicznie konieczna? Niektórzy naukowcy faktycznie twierdzili, że tak właśnie jest, że istnieje jeden jedyny logicznie spójny zestaw praw i jeden jedyny logicznie spójny Wszechświat. Aby odnieść się do tego daleko idącego twierdzenia, musimy zadać sobie pytanie o istotę praw fizyki.
Rozdział trzeci
W rozdziale 2 pokazałem, że, przy danych prawach fizyki, Wszechświat jest w stanie stworzyć sam siebie, czy też, wyrażając się bardziej poprawnie, możliwości, że Wszechświat istnieje bez zewnętrznej wobec niego pierwszej przyczyny, nie należy już uważać za sprzeczną z prawami fizyki. Wniosek ten opiera się w szczególności na zastosowaniu reguł mechaniki kwantowej do kosmologii. Gdy dane są prawa, istnienie świata nie jest już samo w sobie niczym cudownym. A zatem wygląda to, jak gdyby prawa fizyki stanowiły “podstawę bytową” świata. Z pewnością, i tak właśnie uważa większość naukowców, można je uznać za opokę rzeczywistości, za wieczne prawdy, na których opiera się ład kosmiczny.
Pojęcie prawa przyrody tak przyjęło się w nauce, że do niedawna niewielu naukowców zastanawiało się nad istotą i pochodzeniem tych praw, zadowalając się po prostu przyjęciem ich jako “danych”. Obecnie, kiedy fizycy i kosmologowie dokonali znaczących postępów na drodze ku znalezieniu tego, co można by uznać za “podstawowe” prawa Wszechświata, wiele ze starych pytań pojawiło się na nowo. Dlaczego prawa przyrody mają właśnie taką postać? Czy mogłyby one być inne? Skąd się wzięły te prawa? Czy istnieją one niezależnie od świata fizycznego?
Pojęcie prawa przyrody nie zostało wynalezione przez żadnego filozofa czy uczonego. Jakkolwiek przybrało ono konkretną postać dopiero w erze nowożytnej nauki, jego początki sięgają w przeszłość, do zarania dziejów, i są ściśle związane z religią. Już nasi dalecy przodkowie musieli dysponować szczątkowym pojęciem przyczyny i skutku. Na przykład, celem wykonywania narzędzi zawsze było lepsze wykorzystywanie otaczającego ich świata. Uderżenie orzecha kamieniem powoduje jego rozłupanie, a umiejętnie rzucona włócznia podąża tam, gdzie się ją wycelowało. Niemniej, chociaż ci pierwotni ludzie uświadamiali sobie pewne regularności zachodzące wokół, olbrzymia większość zjawisk przyrody pozostawała dla nich tajemnicza i nieprzewidywalna; w celu ich wyjaśnienia wymyślono szereg bóstw: boga deszczu, boga słońca, bóstwa drzew, rzek, i tak dalej. W ten sposób świat przyrody rządzony był przez mnóstwo niewidzialnych potężnych istot.
Zawsze niebezpiecznie jest sądzić dawne kultury podług współczesnych kategorii, ze wszystkimi naszymi ukrytymi założeniami i uprzedzeniami. W dobie nauki doszukiwanie się mechanistycznych uzasadnień obserwowanych zjawisk jest dla nas zupełnie naturalne: napięta cięciwa łuku wprawia w ruch strzałę, siła grawitacji powoduje, że kamień spada na ziemię. Dana przyczyna, która zazwyczaj przybiera postać określonej siły, powoduje późniejszy skutek. Lecz ludzie w dawnych kulturach generalnie nie podchodzili do świata w ten sposób. W niektórych kulturach postrzegano przyrodę jako pole starcia rywalizujących ze sobą sił. Bóstwa czy duchy, każde obdarzone odrębnym charakterem, walczyły ze sobą lub zawierały pokój. Inne kultury, zwłaszcza kultury Wschodu, widziały świat fizyczny jako holistyczny splot niezależnych czynników.
W prawie wszystkich dawnych teoriach kosmologicznych świat przyrównywany był do żywego organizmu. Przedmiotom fizycznym przypisywano działanie celowe, takie jakie obserwowano u zwierząt. Ślady tego myślenia przetrwały do dzisiaj w języku, gdy mówi się, że woda “dąży” do osiągnięcia najniższego poziomu czy też igła kompasu “pokazuje” kierunek północny. Koncepcja, że układ fizyczny podąża, jest wewnętrznie ukierunkowany lub pociągany ku jakiemuś celowi, znana jest jako “teleologia”. Grecki filozof Arystoteles, o którego animistycznej wizji Wszechświata wspominałem w rozdziale l, rozróżniał cztery rodzaje przyczyn: przyczynę materialną, przyczynę formalną, przyczynę sprawczą i przyczynę celową. Podział ten często wyjaśnia się na przykładzie domu. Co jest przyczyną powstania domu? Po pierwsze, mamy przyczynę materialną, którą w tym przypadku utożsamiamy z cegłami i innymi materiałami użytymi do jego budowy. Następnie mamy przyczynę formalną, to znaczy formę, czyli kształt, jaki zostaje nadany tym materiałom. Trzecią jest przyczyna sprawcza, za której pośrednictwem materiał przybiera tę formę (w tym przypadku jest to budowniczy). I w końcu jest przyczyna celowa, cel, ku któremu podąża dana rzecz. W przypadku domu za cel taki można by uznać sporządzony wcześniej plan, którym kieruje się budowniczy podczas budowy.
Nawet dysponując tak rozbudowanym systemem przyczyn Arystoteles nie doszedł do sformułowania pojęcia tego, co dzisiaj nazywamy prawem przyrody. Zajmował się ruchem ciał materialnych, ale to, co nazywa się u niego prawami ruchu, stanowi w istocie jedynie jakościowy opis odwołujący się do przyczyn celowych. I tak, na przykład, kamień spada, ponieważ “naturalnym miejscem” dla ciał ciężkich jest powierzchnia Ziemi, a gazy wznoszą się do góry, ponieważ ich naturalne miejsce znajduje się w dziedzinie eterycznej ponad sferą niebios, i tak dalej.
Wiele z tych dawnych koncepcji opierało się na założeniu, że własności ciał fizycznych są ich wewnętrznymi cechami, nieodłącznie z nimi związanymi. Wielka różnorodność form i substancji występujących w przyrodzie stanowiła zatem odzwierciedlenie nieskończonej liczby takich wewnętrznych własności. Ten sposób patrzenia na świat został zakwestionowany w wielkich religiach monoteistycznych. W judaizmie Bóg pojmowany był jako Dawca Praw. Bóg, odrębny i niezależny od rzeczy stworzonych, nakłada prawa na świat fizyczny z zewnątrz. Przyroda podległa jest określonym prawom na mocy decyzji Boga. Można wprawdzie nadal doszukiwać się przyczyn zjawisk, lecz związek pomiędzy przyczyną a skutkiem regulowany jest przez prawa. John Barrow, który badał historyczne kształtowanie się pojęcia prawa przyrody, przeciwstawia panteon bogów występujący w religii starożytnej Grecji jedynemu Bogu-władcy w judaizmie: “Kiedy przyjrzymy się bliżej religii starożytnych Greków z jej dość rozbudowanym systemem bogów, widzimy, że nie występuje w niej pojęcie wszechmocnego kosmicznego Prawodawcy. Bieg wydarzeń w świecie ustalany jest na drodze negocjacji, wzajemnych oszustw czy dyskusji między bogami, a nie poprzez zrządzenie nadprzyrodzonej istoty. Stworzenie ma w tym przypadku charakter decyzji kolektywnej, a nie dekretu władcy”1.
Pogląd, że prawa nie są immanentną cechą przyrody, lecz zostały nadane z zewnątrz, został ostatecznie przyjęty zarówno przez chrześcijaństwo, jak i przez islam, choć odbyło się to nie bez oporów. Barrow przytacza poglądy św. Tomasza z Akwinu, który “uważał wprowadzone przez Arystotelesa tendencje wrodzone za własności świata przyrody, którymi Bóg posługuje się przy realizacji swoich celów, nie naruszając wszakże ich zasadniczej istoty. Zgodnie z tym poglądem, Bóg jest wobec przyrody raczej partnerem niż niepodzielnym władcą”. Arystotelesowskie koncepcje tego typu zostały jednak potępione przez biskupa Paryża w 1277 roku i w późniejszej doktrynie chrześcijańskiej ustąpiły miejsca pojęciu Boga jako Prawodawcy, które tak dobrze wyraził Kempthorn w swym napisanym w 1796 roku hymnie:
Chwała Panu! Gdy przemówił,
Stworzył swym rozkazem świat.
Dał mu prawa niewzruszone,
By podążał w słuszny ślad.
Fascynujące jest prześledzenie, jaką rolę odegrały wpływy różnych kultur i religii w kształtowaniu się nowożytnego pojęcia prawa przyrody. Średniowieczna Europa, z chrześcijańską doktryną prawa boskiego przejawiającego się w przyrodzie i szeroko rozpowszechnioną ideą prawa świeckiego, stanowiła podatny grunt, na którym mogła powstać naukowa koncepcja praw przyrody. Możemy się przekonać, że astronomowie, jak Tycho Brahe i Johannes Kepler, którzy sformułowali prawa ruchu planet, sądzili, iż badając regularności występujące w przyrodzie odkrywają racjonalną strukturę będącą elementem Bożego planu. Stanowisko to zostało podtrzymane przez francuskiego uczonego-filozofa Renę Descartesa, i przyjęte przez Izaaka Newtona, którego prawa dotyczące ruchu ciał i powszechnego ciążenia zapoczątkowały współczesną erę nauki.
Sam Newton wierzył mocno w kosmicznego Konstruktora działającego poprzez niezmienne prawa matematyki. Dla Newtona i jego współczesnych Wszechświat stanowił wielki, wspaniały mechanizm będący dziełem Boga. Nie było jednak jedności poglądów co do charakteru działania Boga jako Kosmicznego Matematyka i Inżyniera. Czy jedynie skonstruował On mechanizm, nakręcił, a następnie pozostawił własnemu losowi, czy też bierze aktywny udział w jego codziennym funkcjonowaniu? Newton uważał, że Wszechświat ratowany jest od rozpadu pod wpływem sił grawitacji jedynie za przyczyną nieustannego cudu Boga. Boska ingerencja tego typu jest klasycznym przykładem “Boga od wypełniania luk”.
Argumentacja taka kryje liczne niebezpieczeństwa i podatna jest na możliwość, że przyszły rozwój nauki pozwoli zadowalająco wyjaśnić daną lukę w naszej wiedzy o świecie bez potrzeby odwoływania się do Boga. I faktycznie stabilność grawitacyjna Wszechświata jest dla nas obecnie zupełnie zrozumiała. Zresztą jeszcze za życia Newtona koncepcja nieustannego cudu była przedmiotem drwin jego kontynentalnych oponentów. Leibniz naigrawał się:
Pan Newton i jego zwolennicy żywią wyjątkowo niedorzeczne mniemanie o dziele Bożym. Według nich Bóg musi od czasu do czasu nakręcać mechanizm swego zegara, aby nie stanął, gdyż nie okazał się wystarczająco przezorny przy stworzeniu, aby obdarzyć go ruchem wiecznym. (...) Według mnie, świat wykazuje zawsze tę samą energię i siły żywotne.
Dla Kartezjusza i Leibniza Bóg był praźródłem i gwarancją wszechobejmującej racjonalności, którą przeniknięty jest kosmos. To ta właśnie racjonalność otwiera drzwi do poznania przyrody mocą człowieczego rozumu, który sam też jest dany od Boga. W renesansowej Europie uzasadnieniem tego, co obecnie nazywamy metodą naukową, była wiara w racjonalnego Boga, stworzony przez którego ład możemy w przyrodzie odkryć na drodze badań naukowych. I, pomimo Newtona, w skład tych przekonań wchodziło przeświadczenie, że pochodzące od Boga prawa są niezmienne. “Kultura naukowa, powstała w zachodniej Europie - pisze Barrow - której jesteśmy spadkobiercami, przeniknięta była ideą absolutnej niezmienności praw przyrody, co miało stanowić gwarancję sensowności uprawiania nauki i osiągnięcia wartościowych wyników”.
Współcześnie naukowcy zadowalają się stwierdzeniem, że w przyrodzie obserwujemy pewne regularności, które zwykliśmy nazywać prawami, nie zadając sobie zazwyczaj pytania o pochodzenie tych praw. Jednakże warto rozważyć, czy rozwój nauki, jaki miał miejsce w średniowiecznej i renesansowej Europie, byłby w ogóle możliwy, gdyby nie zachodnia, chrześcijańska, teologia. Weźmy na przykład Chiny, mające w owym czasie wysoko rozwiniętą kulturę i cywilizację, która dała im szereg technicznych wynalazków, nie znanych jeszcze w Europie. Japońskiemu uczonemu Kowa Seki, żyjącemu w czasach Newtona, przypisuje się niezależne wynalezienie rachunku różniczkowego i metody obliczania liczby tc, lecz nie zdecydował się on na ogłoszenie swych odkryć. Joseph Needham w swoim studium myśli dawnych Chin pisze: “Brakowało przekonania, że kodeks praw przyrody kiedykolwiek odsłoni się przed człowiekiem i będzie mógł być przez niego odczytany, ponieważ nie wyobrażano sobie, by jakaś istota boska, nawet bardziej racjonalna od nas, mogła kiedyś uczynić taki kodeks, możliwy do odczytania przez człowieka”. Barrow utrzymuje, że przy braku “pojęcia istoty boskiej sankcjonującej swymi działaniami bieg spraw świata, która ustanowiwszy niezmienne »prawa« przyrody stanowiłaby gwarancję poznania naukowego” nauka chińska skazana była na status “płonnej ciekawości” świata.
Jakkolwiek jest nieco prawdy w twierdzeniu, że różnice w rozwoju nauki pomiędzy Wschodem a Zachodem mogą być przypisane odmiennym teologiom, decydujące były również inne czynniki. Znaczna część zachodniej nauki zasadzała się na metodzie redukcji, w której własności złożonego systemu poznawane są przez badanie zachowania się jego części składowych. By dać tu prosty przykład: przypuszczalnie żaden pojedynczy człowiek na świecie nie zna się na wszystkich systemach technicznych pasażerskiego samolotu Boeing 747, lecz nie ulega wątpliwości, że każdy z nich z osobna jest dobrze poznany przez wielu ludzi. Możemy jednak twierdzić, iż samolot ten jako całość jest poznawalny, ponieważ sądzimy, że stanowi on jedynie sumę swoich części składowych.
Zdolność ludzkiego umysłu do rozbijania złożonych systemów występujących w przyrodzie na prostsze części okazała się kluczowym czynnikiem postępu nauki. Termin “analiza”, częstokroć używany zamiennie ze słowem “nauka”, jest wyrazem przekonania, że, aby poznać jakąś całość, możemy ją rozłożyć na części i badać je osobno. Niektórzy utrzymują, że nawet układy tak złożone jak ludzkie ciało można poznać poprzez badanie zachowania poszczególnych genów czy też praw rządzących cząsteczkami, z których zbudowane są jego komórki. Gdybyśmy nie byli w stanie zrozumieć ograniczonych części Wszechświata bez zrozumienia go jako całości, uprawianie nauki byłoby zajęciem beznadziejnym. Jednakże ta “analizowalność” układów fizycznych nie jest własnością tak uniwersalną, jak dotąd sądzono. Ostatnio naukowcy znajdują coraz więcej przykładów systemów, które mogą być poznane tylko jako całość lub wcale. Od strony matematycznej systemy takie opisywane są za pomocą równań znanych jako “nieliniowe”. (Więcej szczegółów na ten temat można znaleźć w moich książkach The Cosmic Blueprint i The Matter Myth). Być może było jedynie historycznym przypadkiem, że prekursorzy nauki zajmowali się liniowymi układami fizycznymi, które dopuszczają badanie na sposób analityczny, uprawniając w pełni metodę redukcjonistyczną.
Rozgłos, jaki zyskała sobie w ostatnich latach “nauka holistyczna”, wyzwolił falę książek, z których należałoby przede wszystkim wymienić Tao fizyki Fritjofa Capry, akcentujących podobieństwa pomiędzy starożytną filozofią Wschodu, z jej naciskiem na holistyczny wszechzwiązek rzeczy w świecie, a współczesną fizyką układów nieliniowych. Czy możemy zatem wyciągnąć wniosek, że filozofia i teologia Wschodu wykazały jednak swą wyższość nad swymi zachodnimi odpowiednikami? Z pewnością nie. Dostrzegamy obecnie wyraźnie, że postęp nauki wymaga stosowania zarówno metod redukcjonistycznych, jak i holistycznych. Nie jest tak, że jedne z nich są słuszne, a drugie nie, jak niektórzy chcieliby to widzieć, lecz stanowią one dwa komplementarne sposoby poznawania rzeczywistości. Zastanawiające jest raczej to, iż redukcjonizm jest w ogóle możliwy. Dlaczego świat jest tak urządzony, że jesteśmy w stanie poznać cokolwiek nie poznając wszystkiego? Tym zagadnieniem zajmę się w rozdziale 6.
Wraz z narodzinami nauki i nastaniem Ery Rozumu pojawiła się idea ukrytego porządku przyrody, który ma postać matematyczną i może być poznany na drodze wyrafinowanych badań naukowych. Podczas gdy w przypadku prymitywnych rozumowań przyczynowo-skutkowych odkrywamy związki, które przedstawiają się bezpośrednio naszym zmysłom, prawa przyrody, do których dochodzi się w nauce, mają zupełnie odmienny, głębszy charakter. Przykładowo, każdy może zobaczyć, że jabłka spadają, lecz potwierdzenie słuszności sformułowanego przez Newtona prawa proporcjonalności przyciągania grawitacyjnego ciał do odwrotności kwadratu ich odległości wymaga przeprowadzenia specjalnych systematycznych pomiarów oraz, co istotniejsze, abstrakcyjnej podbudowy teoretycznej, wyrażonej za pośrednictwem matematyki, jako kontekstu tych pomiarów. Surowe dane odbierane przez nasze zmysły nie tłumaczą się bezpośrednio same przez się. Aby je ze sobą powiązać w zrozumiałą całość, potrzebny jest etap pośredni, który nazywamy teorią.
Fakt, że taka teoria ma wyrafinowaną, matematyczną postać, można obrazowo wyrazić, mówiąc, iż prawa przyrody są zaszyfrowane. Zadaniem naukowca jest poprzez “złamanie” tego kosmicznego szyfru odkryć tajemnice, jakie kryje w sobie Wszechświat. Heinz Pagels w swej książce The Cosmic Code (Kosmiczny szyfr) ujmuje to tak:
Jakkolwiek idea, że Wszechświat posiada porządek podległy prawom, które nie są bezpośrednio dostępne naszym zmysłom, jest bardzo stara, dopiero w ciągu ostatnich trzech stuleci odkryliśmy metodę pozwalającą na dotarcie do tego ukrytego porządku - eksperyment naukowy. Metoda ta jest tak skuteczna, że praktycznie wszystko, co uczeni wiedzą o przyrodzie, zdobyte zostało za jej pośrednictwem. Odkrywają oni, że świat jest w istocie rzeczy zbudowany według niewidocznych bezpośrednio, uniwersalnych zasad; nazwałbym to kosmicznym szyfrem szyfrem, którym posłużył się Demiurg stwarzając świat7.
Jak wspominałem w rozdziale l, Platon wykoncypował dobrego budowniczego, Demiurga, budującego świat przy pomocy zasad matematycznych w oparciu o symetryczne formy geometryczne. Ta abstrakcyjna dziedzina Form Platońskich powiązana była z naszym codziennym światem doznań zmysłowych poprzez wzniosłą sferę, którą Platon nazywał Światem Ducha. Filozof Walter Mayerstein przyrównuje platoński Świat Ducha do współczesnego pojęcia teorii matematycznej, która również wiąże nasze doznania zmysłowe z zasadami, na których opiera się Wszechświat, dostarczając nam tego, co nazywamy zrozumieniem8. W czasach nam współczesnych także Einstein utrzymywał, że zdarzenia obserwowane przez nas bezpośrednio w świecie nie są na ogół zrozumiałe same przez się, lecz muszą być powiązane poprzez głębszą teorię. W liście do M. Solovine'a, datowanym 7 maja 1952 roku, Einstein pisał o “zawsze problematycznym związku pomiędzy światem idei a tym, czego bezpośrednio doświadczamy”. Einstein podkreśla, że “nie ma logicznego przejścia” pomiędzy pojęciami teoretycznymi a terminami obserwacyjnymi. Ich wzajemną odpowiedniość ustala się “na drodze pozalogicznej (intuicyjnej)”9.
Posługując się metaforą z dziedziny teleinformatyki, moglibyśmy powiedzieć, że prawa przyrody stanowią sposób zakodowania pewnej, przeznaczonej dla nas wiadomości, przekazywanej nam poprzez kanał, który nazywamy teorią naukową. Dla Platona i wielu jego następców nadawcą tej wiadomości jest Demiurg, kosmiczny Budowniczy. Jak przekonamy się w następnych rozdziałach, wszelką informację o świecie można w zasadzie przedstawić w postaci binarnej (ciągów jedynek i zer), która jest formą najbardziej dogodną dla przetwarzania komputerowego. “Wszechświat - twierdzi Mayerstein - można symulować jako gigantyczny ciąg zer i jedynek; zadaniem nauki jest zatem nic innego, jak rozkodowanie i uporządkowanie tego »przesłania« pod kątem uczynienia go sensownym i zrozumiałym dla nas”. Co można powiedzieć o naturze tego “przesłania”? “Jest całkiem oczywiste, iż jeśli zakładamy, że mamy do czynienia z zakodowaną wiadomością, musimy przyjąć, że w sposobie ułożenia zer i jedynek w tym ciągu występują pewne regularności czy też struktury; całkowicie przypadkowy, chaotyczny ciąg z natury rzeczy byłby niemożliwy do rozkodowania”. Tak więc fakt, że mamy do czynienia z kosmosem, a nie z chaosem, sprowadza się do istnienia struktur w owym zerojedynkowym ciągu. W rozdziale 6 zajmę się bliżej charakterem tych struktur.
Obecny status praw przyrody
Wielu ludzi, także naukowców, skłonnych byłoby przyjąć, że kosmiczny kod zawiera istotnie wiadomość przesyłaną nam przez jakiegoś Nadawcę. Twierdzą oni, iż skoro istnieje kod, musi istnieć także Nadawca, który się nim posłużył, i że na podstawie treści tej wiadomości możemy dowiedzieć się czegoś o nim samym. Inni, jak Pagels, nie są bynajmniej przekonani o istnieniu Nadawcy: “Jedną z najdziwniejszych własności kosmicznego kodu jest to, że, jak wszystko na to wskazuje, Demiurg nie podpisał się pod swoim przesłaniem - mamy do czynienia z wiadomością od obcej istoty bez żadnych jej śladów”. Zatem prawa przyrody byłyby wiadomością bez Nadawcy. Pagelsa to bynajmniej nie peszy. “To, czy Bóg jest samym przesłaniem czy jego autorem, czy też napisało się ono samo, jest kwestią bez znaczenia dla naszego życia. Możemy bez szwanku porzucić ideę Demiurga, ponieważ nie ma żadnych naukowych dowodów, iż świat został stworzony przez jakiegoś Stwórcę, żadnych śladów wolnej woli lub działania celowego, które wykraczałoby poza znane nam prawa przyrody”.
Jak długo prawa przyrody brały swój początek z Boga, ich istnienie nie było czymś w większym stopniu nadzwyczajnym niż istnienie materii, również stworzonej przez Boga. Lecz gdy nadprzyrodzone umocowanie praw zostanie zniesione, ich istnienie staje się wielką zagadką. Skąd się one biorą? Kto był “nadawcą przesłania”? Kto opracował kod? Czy prawa po prostu są same z siebie, żeby się tak wyrazić, czy też powinniśmy odrzucić samo pojęcie praw przyrody jako nikomu niepotrzebną pozostałość po wierzeniach religijnych?
Aby spróbować jakoś rozwikłać te głębokie problemy, przyjrzyjmy się najpierw, co naukowcy faktycznie uważają za prawo. Każdy zgodzi się, że w przyrodzie możemy wyróżnić uderzające regularności. Na przykład, orbity planet są prostymi figurami geometrycznymi, a ich ruch wykazuje wyraźną, opisaną matematycznie okresowość. Ze strukturami i okresami mamy do czynienia także w obrębie atomu i jego części składowych. Nawet obiekty spotykane w życiu codziennym, takie jak mosty i maszyny, zazwyczaj zachowują się w regularny, możliwy do przewidzenia, sposób. Wychodząc z takich doświadczeń, naukowcy na mocy rozumowania indukcyjnego nadają tym regularnościom charakter prawa. Jak wyjaśniałem w rozdziale l, rozumowanie indukcyjne nie jest absolutnie pewne. To, że przez całe nasze życie widzieliśmy, iż Słońce codziennie wschodzi, nie stanowi żadnej gwarancji, że wzejdzie ono także jutro. Przekonanie, że tak właśnie będzie, to znaczy, że w przyrodzie są regularności, których możemy być pewni, jest aktem wiary, lecz takim, bez którego postęp w nauce nie byłby możliwy.
Ważne jest, aby zrozumieć, że regularności występujące w przyrodzie są rzeczywiste. Czasem można spotkać się z tezą, iż prawa przyrody, które stanowią próbę uchwycenia i usystematyzowania tych regularności, są narzucone światu przez nasz, starający się go pojąć, umysł. Prawdą jest, że człowiek ma tendencję do wyławiania regularności, a nawet wprowadzania ich tam, gdzie faktycznie nie istnieją. Nasi przodkowie widzieli na gwiezdnym niebie sylwetki zwierząt oraz bogów i w ten sposób pojawiły się gwiazdozbiory. I chyba każdy z nas kiedyś dopatrywał się zarysów twarzy w chmurach, skałach czy też płomieniach. Niemniej jednak uważam, iż pogląd, że prawa przyrody miałyby stanowić takie właśnie projekcje ludzkiego umysłu, jest absurdalny. Występowanie regularności w przyrodzie jest obiektywnym faktem matematycznym. Z drugiej strony, zdania, nazywane prawami, które możemy znaleźć w podręcznikach, s ą bez wątpienia dziełem ludzkiego umysłu, lecz takim, które ma za zadanie odzwierciedlać, choćby w niedoskonały sposób, faktycznie istniejące własności przyrody. Bez założenia, że regularności te są czymś realnym, nauka byłaby tylko czczym rozwiązywaniem szarad.
Innym powodem, dla którego nie uważam, że prawa przyrody są wytworem ludzkim, jest to, iż pomagają nam one dowiedzieć się czegoś nowego o świecie; niekiedy są to rzeczy całkiem nieoczekiwane. Cechą mocnego prawa jest to, że wykracza ono poza wierny opis zjawiska, w związku z którym zostało sformułowane, i dostarcza również uzasadnienia innych zjawisk. Na przykład prawo ciążenia Newtona wyjaśnia dokładnie ruchy planet, ale opisuje jednocześnie pływy oceanów, kształt Ziemi, poruszanie się statków kosmicznych i wiele innych zjawisk. Teoria elektromagnetyzmu Maxwella nie ograniczała się do opisu elektryczności i magnetyzmu, lecz potrafiła także wyjaśnić naturę fal świetlnych i przewidzieć istnienie fal radiowych. Zatem prawa przyrody o naprawdę podstawowym charakterze ukazują głębokie związki zachodzące pomiędzy procesami fizycznymi różnego typu. Dzieje nauki pokazują, że gdy tylko zostanie przyjęte nowe prawo, poszukuje się wszystkich możliwych jego konsekwencji, testując je w innych kontekstach, co często prowadzi do odkrycia nowych, nieoczekiwanych, istotnych zjawisk. To skłania mnie do poglądu, że uprawiając naukę, odkrywamy rzeczywiste regularności i związki, że odczytujemy te regularności, a nie wpisujemy ich do przyrody.
Nawet jeżeli nie wiemy, czym są prawa przyrody, ani skąd się one wzięły, jesteśmy w stanie wymienić ich własności. Co ciekawe, prawa zostały obdarzone wieloma atrybutami poprzednio formalnie przypisywanymi Bogu, od którego miałyby one pochodzić.
Przede wszystkim, prawa mają charakter uniwersalny. Prawo, które jest słuszne jedynie czasem, czy też w tym, a nie w innym, miejscu, to nie jest żadne prawo. Zakłada się, że prawa przyrody obowiązują bez wyjątku w całym Wszechświecie i na wszystkich etapach jego historii, nie dopuszczając żadnych wyjątków. W tym sensie prawa są także doskonałe.
Po drugie, prawa są absolutne. Nie zależą od niczego poza sobą. W szczególności nie zależą od tego, kto dokonuje obserwacji świata, czy też od jego stanu. To prawa wpływają na stan Wszechświata, a nie odwrotnie. W istocie, zasadniczym elementem naukowej wizji świata jest rozdzielenie praw rządzących jakimś układem od stanu tego układu. Gdy naukowiec mówi o “stanie” układu, ma na myśli faktyczny fizyczny stan, w jakim układ ten znajduje się w danym momencie. W celu opisania tego stanu trzeba podać wartości wszystkich parametrów fizycznych charakteryzujących układ. Stan gazu, na przykład, można określić podając jego temperaturę, ciśnienie, skład chemiczny itd., jeśli interesują nas wyłącznie jego własności globalne. Zupełna specyfikacja stanu gazu wymagałaby podania szczegółowych pozycji i pędów wszystkich cząsteczek wchodzących w jego skład. Stan ten nie jest czymś na zawsze ustalonym, danym od Boga; na ogół zmienia się z czasem. W przeciwieństwie do niego, prawa, pozwalające powiązać z sobą stan gazu w kolejnych momentach, pozostają niezmienne w czasie.
W ten sposób doszliśmy do trzeciej i najważniejszej własności praw przyrody: są one wieczne. Ponadczasowy, wieczny charakter tych praw znajduje swój wyraz w strukturach matematycznych używanych do opisu świata fizycznego. W mechanice klasycznej, na przykład, prawa dynamiki opisane są za pomocą tworu matematycznego zwanego “hamiltonianem”, który rozpatrywany jest w przestrzeni zwanej “przestrzenią fazową”. Dokładne definicje tych konstrukcji matematycznych nie są tu dla naszych rozważań istotne. Ważne jest to, iż zarówno hamiltonian, jak i przestrzeń fazowa są niezmienne. Z drugiej strony, stan układu reprezentowany jest przez punkt w przestrzeni fazowej i punkt ten porusza się, co odpowiada zmianom, jakim podlega układ w trakcie swojej ewolucji. Zasadniczym faktem jest, że sam hamiltonian i przestrzeń fazowa nie zależą w żaden sposób od ruchu tego punktu.
Po czwarte, prawa są wszechwładne. Rozumiem przez to, że nic nie jest w stanie ujść spod ich władzy: są wszechmocne. Można również w pewnym sensie powiedzieć, iż są wszechwiedzące, ponieważ, jeżeli już trzymamy się metafory, że prawa “rządzą” układami fizycznymi, układy te nie muszą “powiadamiać” praw o stanie, w jakim się znajdują, aby prawa “wydały odpowiednie instrukcje”, właściwe dla tego właśnie stanu.
W stosunku do tego, co powiedzieliśmy do tej pory o prawach przyrody, na ogół wszyscy są zgodni. Różnice pojawiają się jednak, gdy przychodzi do rozważania statusu tych praw. Czy odkrywamy jedynie realnie istniejące prawa, czy też są one genialnym wytworem uczonych umysłów? Czy prawo powszechnego ciążenia Newtona jest obiektywną rzeczywistością, którą przypadkowo odkrył właśnie Newton, czy też zostało ono wynalezione przez Newtona w celu opisania obserwowanych w świecie regularności? Ujmując to w odmienny sposób, czy Newton odkrył coś obiektywnego w świecie, czy też po prostu wymyślił model matematyczny pewnego aspektu świata, który okazał się niezwykle użyteczny do jego opisu.
Język, jakim posługują się naukowcy w odniesieniu do praw Newtona, zdradza silną preferencję dla pierwszej z wymienionych możliwości. Fizycy mówią, że planety “są posłuszne” prawom Newtona, jak gdyby planeta sama z siebie miała naturę buntowniczą i zaczęłaby sobie hulać, gdyby nie była “podległa” tym prawom. W ten sposób powstaje wrażenie, że prawa czają się “gdzieś tam”, gotowe ingerować w ruch planet, gdziekolwiek i kiedykolwiek miałby on miejsce. Ulegając temu sposobowi opisu, łatwo przypisać prawom istnienie niezależne. Jeśli nada im się taki status, mówi się, że prawa są transcendentne, ponieważ wykraczają poza sferę zjawisk fizycznych, lecz czy jest to faktycznie uzasadnione?
W jaki sposób prawa mogłyby uzyskać odrębny, trancendentny byt? Przecież jeżeli przejawiają się one jedynie za pośrednictwem układów fizycznych poprzez sposób, w jaki się te układy zachowują, nie możemy nigdy wyjść “poza” sferę zjawisk, do praw jako takich. Prawa kryją się wewnątrz zjawisk fizycznych, a my obserwujemy zjawiska, a nie prawa. Jeżeli jedynym sposobem dotarcia do praw jest śledzenie ich przejawów w sferze zjawisk fizycznych, jakież mamy prawo przypisywać im byt niezależny?
Z pomocą może nam tu przyjść analogia ze stosunkiem sprzętu i oprogramowania w technice komputerowej. Prawa fizyki odpowiadają oprogramowaniu, a świat fizyczny konkretnemu sprzętowi. (Prawdą jest, że słowo “konkretny” jest tu nieco naciągnięte, gdyż pod mianem świata fizycznego rozumiemy obiekty tak niedookreślone jak pola kwantowe, a nawet sama czasoprzestrzeń). Podstawowe pytanie może być zatem sformułowane w ten sposób: czy mamy do czynienia z niezależnie istniejącym “kosmicznym oprogramowaniem” - czymś w rodzaju programu komputerowego - dla Wszechświata, które obejmowałoby wszystkie niezbędne prawa? Czy to “oprogramowanie” może istnieć bez “sprzętu”?
Wyraziłem już swoje przekonanie, że prawa przyrody są czymś rzeczywistym, są obiektywnymi prawdami o Wszechświecie, i że odkrywamy je, a nie wymyślamy. Lecz wszystkie znane fundamentalne prawa okazują się mieć formę matematyczną. Dlaczego tak właśnie jest, to ważny i trudny problem, który wymaga przyjrzenia się temu, czym jest matematyka. Zajmę się tym w następnych rozdziałach.
Jeżeli świat fizyczny opiera się na prawach fizyki, to te prawa w jakimś sensie muszą istnieć niezależnie. Jaką formę istnienia można przypisać bytowi tak abstrakcyjnemu i mglistemu jak prawo przyrody?
Zacznijmy od czegoś bardziej uchwytnego, powiedzmy, od kamienia. Wiemy, że kamień istnieje, ponieważ (zgodnie ze słynnym sformułowaniem Samuela Johnsona) możemy go kopnąć. Możemy go również zobaczyć i powąchać: kamień oddziałuje bezpośrednio na nasze zmysły. Jednak istnienie kamienia polega na czymś więcej niż na dotknięciu, obejrzeniu i powąchaniu. Można przyjąć, że istnienie kamienia nie zależy od naszych zmysłów. Istnieje on realnie i będzie istniał nadal, nawet jeżeli nie będziemy go mogli dotknąć, zobaczyć czy powąchać. Jest to oczywiście hipoteza, jednakże hipoteza w pełni racjonalna. Jedno jest pewne, przy powtórnym oglądzie nasze dane zmysłowe będą zbliżone do poprzednich. Korelacja pomiędzy danymi otrzymywanymi przy kolejnych okazjach pozwala nam rozpoznawać, że jest to kamień i że za każdym razem mamy do czynienia z tym samym kamieniem. Zatem prościej jest przyjąć taki model rzeczywistości, w którym kamień obdarzony jest istnieniem niezależnym od naszych zmysłów, niż zakładać, iż znika on za każdym razem, gdy odwracamy wzrok, i posłusznie pojawia się znów w tym samym miejscu, gdy spoglądamy nań ponownie.
W przypadku kamienia wszystko to wydaje się bezsporne. Jednak nie wszystkie obiekty, o których twierdzimy, że istnieją, są równie konkretne jak kamień. Co na przykład z atomami? Są one zbyt małe, aby można je było zobaczyć, dotknąć czy też w jakikolwiek inny sposób percypować bezpośrednio. Nasza wiedza dotycząca atomów uzyskiwana jest na drodze pośredniej, za pomocą przyrządów pomiarowych, których dane muszą być dopiero poddane obróbce i interpretacji. Mechanika kwantowa pogarsza jeszcze bardziej sytuację. Okazuje się, że nie jest na przykład możliwe przypisanie atomowi jednocześnie określonego położenia i prędkości. Atomy i subatomowe cząstki elementarne tworzą jak gdyby na wpół istniejący świat cieni.
Mamy też dość abstrakcyjne byty, takie jak pola. Pole grawitacyjne wytwarzane przez dane ciało bez wątpienia istnieje, jednak nie można go kopnąć, nie mówiąc już o zobaczeniu czy powąchaniu. Czymś jeszcze bardziej nieuchwytnym są pola kwantowe, niewidzialne rozedrgane struktury przestrzenne, niosące w sobie energię.
Mało konkretne istnienie nie jest jednak wyłącznie domeną fizyki. Takich pojęć jak obywatelstwo czy bankructwo, z którymi mamy do czynienia na co dzień, też nie można dotknąć ani zobaczyć, niemniej są one realne. Kolejnym przykładem jest informacja. Fakt, iż informacji jako takiej nie da się percypować bezpośrednio, w niczym nie umniejsza rzeczywistego znaczenia w naszym życiu “technologii informacyjnych”, pozwalających na przechowywanie i przetwarzanie informacji. To samo dotyczy pojęcia oprogramowania i inżynierii oprogramowania w informatyce. Oczywiście, jesteśmy w stanie zobaczyć i dotknąć elementów służących do przechowywania informacji, takich jak dysk komputerowy czy kostka pamięci, lecz nie możemy z nich bezpośrednio percypować informacji jako takiej.
Następnie mamy całą sferę zjawisk subiektywnych, jak sny. Obiekty występujące w marzeniach sennych niezaprzeczalnie istnieją (przynajmniej dla tego, kto je śni), lecz w sposób daleko mniej konkretny niż kamienie. Podobnie ma się sprawa z myślami, emocjami, wspomnieniami i odczuciami: nie da się ich odrzucić jako nieistniejących, chociaż charakter ich istnienia jest zupełnie odmienny niż istnienie elementów “obiektywnego” świata. Tak jak programy komputerowe, umysł lub dusza mogą wymagać dla swego przejawiania się jakiegoś konkretnego podłoża - w tym przypadku mózgu - lecz to nie czyni ich samych bardziej konkretnymi.
Istnieje także kategoria rzeczy, które określa się ogólnym mianem kultury, na przykład muzyka lub literatura. Istnienia symfonii Beethovena czy powieści Dickensa nie da się sprowadzić po prostu do istnienia papieru, na którym zostały one napisane. Także religii i polityki nie można utożsamić z ludźmi, którzy je uprawiają.
Wszystkie te rzeczy “istnieją” w niezbyt konkretnym, niemniej istotnym, sensie.
I w końcu mamy dziedzinę matematyki i logiki, o zasadniczym znaczeniu dla nauki. Jaki jest charakter ich istnienia? Kiedy mówimy, że istnieje jakieś twierdzenie, na przykład dotyczące liczb pierwszych, nie chodzi nam o to, iż twierdzenie to można kopnąć tak jak kamień. Jednak obiekty matematyczne obdarzone są jakimś, jakkolwiek abstrakcyjnym, rodzajem istnienia.
Stajemy przed pytaniem, czy prawa fizyki są bytami transcendentnymi. Wielu fizyków uważa, że tak. Mówią o “odkrywaniu” praw fizyki, jak gdyby istniały one już poprzednio przez cały czas. Oczywiście, na ogół zakłada się, że to, co dzisiaj nazywamy prawami fizyki, stanowi jedynie próbę przybliżenia do pewnego zupełnego zbioru “prawdziwych” praw, wierząc jednak, iż w miarę postępu nauki przybliżenie to staje się coraz lepsze i pewnego dnia będziemy znali “właściwe” prawa. Kiedy to nastąpi, fizyka teoretyczna osiągnie swój cel. Właśnie nadzieja, że takie ukoronowanie fizyki czeka nas już niedługo, skłoniła Stephena Hawkinga do nadania swemu wykładowi inauguracyjnemu przy obejmowaniu Katedry Lukasjańskiej w Cambridge tytułu “Czy widać już koniec fizyki teoretycznej?”
Jednak nie wszystkim fizykom równie odpowiada idea transcendentnych praw. James Hartle, zauważając, iż “naukowcy w naukach przyrodniczych, podobnie jak matematycy, postępują tak, jak gdyby prawdy w dziedzinach, którymi się zajmują, miały byt niezależny (...), jak gdyby mieli do czynienia z jedynym zbiorem praw, którymi rządzi się Wszechświat, przy czym prawa te są w istocie od niego niezależne”, dowodzi, że dzieje nauki obfitują w przykłady “niepodważalnych prawd uniwersalnych”, które okazywały się później możliwymi do obalenia przypadkami szczególnymi. To, że Ziemia stanowi centrum Wszechświata, było nie-kwestiowaną prawdą przez stulecia, dopóki ludzie nie stwierdzili, iż się im to tylko tak wydaje wskutek położenia, jakie zajmują na jej powierzchni. To, że linie i kąty w trójwymiarowej przestrzeni spełniają aksjomaty geometrii euklidesowej, również przyjmowano jako prawdę fundamentalną i niepodważalną, a później okazało się, iż jest tak wyłącznie dlatego, że żyjemy w obszarze czasoprzestrzeni, w którym grawitacja jest stosunkowo słaba, tak że krzywizna przestrzeni była dotąd niezauważalna. Jak wiele jeszcze własności świata, zastanawia się Hartle, jest podobnie wynikiem szczególnej perspektywy, z jakiej go oglądamy, a nie głębokiej, trancendentalnej prawdy? Samo rozróżnienie “świata” od “praw” również może do nich należeć.
Zgodnie z tym poglądem, nauka nie zmierza ku odkryciu jednego, ostatecznego zbioru praw. Naszych teorii i zawartych w nich praw nie sposób oddzielić, twierdzi Hartle, od okoliczności, w jakich one powstały. Okoliczności te obejmują naszą kulturę, ewolucję naszego gatunku i konkretną wiedzę, jaką posiadamy o świecie. Obca cywilizacja, inaczej ukształtowana na drodze ewolucji, z inną kulturą i nauką, być może doszłaby do odmiennych praw. Hartle wskazuje na fakt, że do jednego zbioru danych można dopasować szereg odmiennych praw i nigdy nie możemy być pewni, że prawa, które wybraliśmy, są tymi właściwymi.
Istotne jest, by zdawać sobie sprawę, że same prawa nie dostarczają pełnego opisu świata. W istocie, naszym celem przy formułowaniu praw jest powiązanie ze sobą różnych zjawisk fizycznych. Jedno z prostych praw na przykład głosi, że piłka wyrzucona ku górze porusza się po torze parabolicznym. Parabole mogą być jednak różne; jedne są wysokie i krótkie, inne niskie i długie. Po jakiej parabli będzie poruszała się dana piłka, zależy od prędkości i kąta, pod jakim została ona wyrzucona. Paramery te określa się mianem “warunków początkowych”. Prawo o ruchu po paraboli plus warunki początkowe pozwalają na jednoznaczne wyznaczenie toru ruchu piłki.
Prawa zatem są wypowiedziami o klasach zjawisk, natomiast warunki początkowe dotyczą konkretnych układów fizycznych. Prowadzenie badań naukowych przez fizyka-eksperymentatora polega często na doborze, lub wynajdywaniu, pewnych warunków początkowych. Na przykład, Galileusz w swym słynnym doświadczeniu ze spadaniem ciał upuszczał jednocześnie przedmioty o różnych masach, aby dowieść, że wszystkie one uderzą w ziemię w tej samej chwili. W przeciwieństwie do warunków początkowych prawa nie mogą być dobierane przez badacza; są one “dane od Boga”. Powoduje to, że prawa uzyskują o wiele wyższą rangę i uważane są za fundamentalne, wieczne i absolutne, podczas gdy warunki początkowe traktuje się jako przypadkowe szczegóły, dające się dowolnie kształtować.
W świecie rzeczywistym jednak, poza zasięgiem możliwości eksperymentatora, warunków początkowych dostarcza sama przyroda. Spadające na ziemię ziarno gradu nie zostało upuszczone przez Galileusza w zamierzony sposób, lecz jest wytworem procesów fizycznych zachodzących w górnych warstwach atmosfery. Podobnie, gdy do Układu Słonecznego wleci z zewnątrz kometa poruszająca się po określonym torze, jej orbita zależy od procesów fizycznych, jakie zaszły w miejscu, gdzie powstała. Innymi słowy, warunki początkowe odnoszące się do jakiegoś interesującego nas układu kształtowane są przez otoczenie, w jakim się ten układ znajduje. Można sobie z kolei zadać pytanie o warunki początkowe tego szerszego układu. Dlaczego ziarno gradu uformowało się w danym miejscu atmosfery? Dlaczego chmury utworzyły się tam, a nie gdzie indziej? Ten ciąg pytań nie ma końca.
Łatwo się przekonać, że sieć takich przyczynowych powiązań rośnie bardzo szybko i wkrótce obejmuje cały Wszechświat. I co wtedy? Pytanie o kosmiczne warunki początkowe prowadzi nas z powrotem do Wielkiego Wybuchu i problemu pochodzenia Wszechświata. Tutaj mamy do czynienia z diametralnie odmienną sytuacją. Podczas gdy dla poszczególnych układów fizycznych warunki początkowe były czymś przypadkowym, co można było uzasadnić przez odwołanie się do szerszego kontekstu we wcześniejszej chwili, w przypadku warunków początkowych Wszechświata nie mamy szerszego kontekstu ani wcześniejszej chwili. Kosmiczne warunki początkowe są czymś “danym”, podobnie jak prawa fizyki.
Wielu naukowców uważa, że problem warunków początkowych leży całkowicie poza zakresem nauki i, podobnie jak prawa, trzeba je po prostu przyjąć jako pierwotny fakt. Ci o bardziej religijnym nastawieniu umysłu dla ich uzasadnienia odwołują się do Boga, natomiast ateiści uważają je za przypadkowe lub arbitralne. Zadaniem naukowca jest poszukiwanie uzasadnień nie polegających na żadnym szczególnym doborze warunków początkowych. Jeśli jakiś element świata może być uzasadniony jedynie przez założenie, iż Wszechświat zaczął się w określony sposób, to nie stanowi to faktycznie żadnego uzasadnienia. Po prostu stwierdza się jedynie, że świat jest, jaki jest, ponieważ kiedyś był, jaki był. Rodzi to tendencję do konstruowania teorii Wszechświata, które nie zależą w zasadniczy sposób od doboru warunków początkowych.
Pomysłu, jak tego można dokonać, dostarcza termodynamika. Jeżeli dostanę szklankę gorącej wody, wiem, że jutro będzie ona zimna. Natomiast, jeśli dostanę szklankę zimnej wody, nie jestem w stanie stwierdzić, czy była ona gorąca wczoraj lub przedwczoraj, jak bardzo gorąca, i czy w ogóle kiedykolwiek była gorąca. Można powiedzieć, że szczegóły termicznej historii tej wody, w tym jej stan początkowy, zostały zatarte przez procesy termodynamiczne, które doprowadziły ją do równowagi termodynamicznej z otoczeniem. Kosmologowie twierdzą, że analogiczne procesy doprowadziły do zatarcia śladów warunków początkowych Wszechświata, a zatem jest niemożliwe wywnioskowanie, nawet w najogólniejszy sposób, jaki był Wszechświat na początku, jedynie na podstawie znajomości jego stanu dzisiejszego.
Pozwolę sobie przytoczyć przykład. Wszechświat rozszerza się obecnie z tą samą prędkością we wszystkich kierunkach. Czy oznacza to, że Wielki Wybuch był izotropowy? Niekoniecznie. Mogło być tak, że ekspansja na początku miała charakter chaotyczny, odbywając się z różnymi prędkościami w różnych kierunkach, i dopiero później uległa uporządkowaniu w wyniku różnych procesów fizycznych. Na przykład ruch w kierunkach, w których ekspansja była najszybsza, mógł być spowalniany przez siły tarcia. Albo też, zgodnie z modnym obecnie modelem Wszechświata inflacyjnego, omówionym pokrótce w rozdziale 2, we wczesnym Wszechświecie wystąpiła faza gwałtownej ekspansji, podczas której wszelkie istniejące początkowo nieregularności zostały wyeliminowane. W wyniku tego powstał Wszechświat przestrzennie jednorodny i ekspandujący izotropowo.
Hipoteza, że obserwowany obecnie stan Wszechświata jest w znacznym stopniu niezależny od warunków początkowych Wielkiego Wybuchu, jest chętnie przyjmowana przez wielu naukowców. Niewątpliwie po części jako wyraz sprzeciwu wobec religijnych koncepcji zakładających stworzenie nadprzyrodzone, ale także dlatego, że usuwa ona potrzebę zajmowania się stanem Wszechświata w fazie początkowej, gdy panowały w nim ekstremalne warunki. Z drugiej strony, jest oczywiste, iż warunków początkowych nie można całkowicie pominąć. Możemy sobie wyobrazić Wszechświat na tym samym etapie ewolucji, co nasz, lecz zupełnie odmienny, a następnie na podstawie praw fizyki prześledzić jego ewolucję wstecz w czasie aż po początek Wielkiego Wybuchu. Znaleźlibyśmy wówczas jakiś stan początkowy, który byłby odpowiedzialny za odmienny przebieg ewolucji tamtego Wszechświata.
Jakiekolwiek były warunki początkowe powstania naszego Wszechświata, możemy zawsze zapytać: dlaczego właśnie takie? Biorąc pod uwagę, że liczba możliwości była nieskończona, dlaczego zaczął się właśnie w ten sposób? Czy te konkretne warunki początkowe były w jakiś sposób wyróżnione? Pojawia się pokusa, by zakładać, że warunki początkowe nie miały charakteru arbitralnego, lecz były wynikiem działania jakiejś głębszej zasady. W końcu, powszechnie przyjmuje się, iż prawa fizyki nie są arbitralne, lecz mogą być z sobą powiązane matematycznie w zgrabną całość. Czy nie mogłoby istnieć również jakieś dające się zgrabnie wyrazić matematycznie “prawo warunków początkowych”?
Takie przypuszczenie było wysuwane przez wielu teoretyków. Przykładem może być Roger Penrose, który dowodził, że przy przypadkowym wyborze warunków początkowych jest wielce prawdopodobne, iż powstałby Wszechświat wysoce nieregularny, wypełniony straszliwymi czarnymi dziurami, a nie względnie jednorodnie rozłożoną materią. Wszechświat tak jednorodny jak nasz wymaga niewiarygodnie dokładnego doboru warunków swego powstania, tak, aby ekspansja w obrębie wszystkich jego obszarów była ze sobą dokładnie uzgodniona. Posługując się metaforą Stwórcy dysponującego nieskończonym “inwentarzem” możliwych warunków początkowych, Penrose twierdzi, że Stwórca musiałby bardzo dokładnie przeglądać swój spis, zanim znalazłby zestaw dający Wszechświat taki jak nasz. Gdyby wyboru dokonywał na ślepo, na pewno by mu się to nie udało. “Nie mając bynajmniej zamiaru ujmować Stwórcy zdolności w tym względzie - zauważa Penrose - z całym przekonaniem twierdzę, że jednym z obowiązków nauki jest poszukiwanie praw fizycznych, które pozwoliłyby na uzasadnienie, lub przynajmniej dostarczały sensownego opisu, skąd wzięło się to fenomenalne dopasowanie, z którym tak często mamy do czynienia w przyrodzie (...). Potrzebujemy prawa fizyki, które wyjaśniałoby szczególny charakter stanu początkowego”. Istotą prawa zaproponowanego przez Penrose'a jest nałożenie na pierwotny stan Wszechświata wymogu jednorodności od samego początku, bez potrzeby odwoływania się do inflacji czy też jakiegoś innego procesu ujednolicającego. Nie będziemy się tutaj zagłębiać w jego szczegóły matematyczne.
Inną propozycję dyskutowali Hartle i Hawking w kontekście swojej teorii kwantowo-kosmologicznej. Jak wspominałem w rozdziale 2, w teorii tej nie występuje wyraźnie wyróżniony “pierwszy moment”, zaistnienie świata nie ma charakteru pojedynczego zdarzenia. Zatem problem warunków początkowych zostaje usunięty przez wyeliminowanie samego momentu początkowego. Jednakże, aby to było możliwe, na kwantowy stan Wszechświata muszą być nałożone poważne ograniczenia, obowiązujące nie tylko na początku, lecz przez cały czas. Hartle i Hawking podali dokładną postać matematyczną tych ograniczeń, które w ten sposób w istocie odgrywają rolę “prawa warunków początkowych”.
Należy zdawać sobie sprawę, że prawa warunków początkowych nie można zweryfikować ani wyprowadzić z istniejących praw fizyki. Wartość takiego prawa, podobnie jak wszystkich hipotez naukowych, polega na jego zdolności przewidywania konsekwencji obserwacyjnych. Wprawdzie częstokroć pewne hipotezy cieszą się powodzeniem u teoretyków ze względu na swoją elegancję matematyczną i “naturalność”, lecz takie argumenty trudno uznać za zadowalające uzasadnienie. Hipoteza Hartle'a-Hawkinga, na przykład, doskonale pasuje do formalizmu kwantowej teorii grawitacji, w jej kontekście wydaje się bardzo prawdopodobna i naturalna, lecz gdyby rozwój naszej nauki przebiegał innymi drogami, prawo Hartle'a-Hawkinga być może wyglądałoby na wysoce arbitralne i wydumane.
Tak się nieszczęśliwie składa, że prześledzenie obserwacyjnych konsekwencji teorii Hartle'a-Hawkinga nie jest łatwe. Jej twórcy utrzymują, że przewiduje ona fazę inflacyjną w ewolucji Wszechświata, co niewątpliwie odpowiada najnowszym trendom w kosmologii, a ponadto może kiedyś będzie mogła coś powiedzieć o wielkoskalowej strukturze Wszechświata, na przykład uzasadnić sposób grupowania się galaktyk. Jednakże nie wygląda na to, żeby kiedykolwiek udało się jednoznacznie wybrać takie prawo na drodze obserwacyjnej. Hartle dowodzi wręcz że takie jedno prawo nie istnieje. W każdym razie, nawet gdybyśmy mieli prawo wyznaczające stan kwantowy Wszechświata jako całości, nie można by na jego podstawie powiedzieć niczego o elementach jego szczegółowej struktury, na przykład stwierdzić istnienie konkretnej planety, nie mówiąc już o istnieniu konkretnej osoby. Z samego kwantowego charakteru teorii wynika (na skutek zasady nieoznaczoności Heisenberga), że takie szczegóły pozostałyby nieokreślone.
Być może jest tak, że odróżnienie praw od warunków początkowych, które leżało u podłoża wszystkich dotychczasowych prób badania układów dynamicznych, jest w większym stopniu historycznym wytworem sposobu, w jaki następował rozwój nauki, aniżeli fundamentalną własnością przyrody. W podręcznikach czytamy, że typowy eksperyment polega na tym, że eksperymentator buduje dany układ fizyczny, nadając mu określony stan, a następnie obserwuje, co się dzieje, tzn. jak ten stan zmienia się w czasie. Powodzenie metody naukowej opiera się na powtarzalności wyników eksperymentu. Gdy eksperyment zostanie powtórzony, prawa fizyki pozostają te same, natomiast warunki początkowe dobiera eksperymentator. W ten sposób kstałtuje się wyraźny, operacyjny podział na prawa i warunki początkowe. Jednakże w kosmologii sytuacja wygląda inaczej. Wszechświat jest tylko jeden, zatem nie ma mowy o zastosowaniu pojęcia powtarzalnego eksperymentu. Ponadto nie jesteśmy w stanie zmienić warunków początkowych, tak samo jak nie możemy zmienić praw fizyki. Zatem ostry podział na prawa fizyki i warunki początkowe ulega zatarciu. “Czyż nie byłoby możliwe - snuje przypuszczenia Hartle - że na wyższym poziomie działają bardziej ogólne zasady wyznaczające zarówno warunki początkowe, jak i dynamikę?”.
Moim zdaniem, hipotezy o prawie warunków początkowych silnie potwierdzają platońską koncepcję, że prawa są bytem rzeczywistym, trancendentalnym względem świata fizycznego. Czasem spotyka się twierdzenie, że prawa fizyki zaistniały wraz z Wszechświatem. Gdyby tak było, prawa te nie mogłyby wyjaśnić początku Wszechświata, ponieważ działałyby dopiero po jego powstaniu. Widać to szczególnie wyraźnie w przypadku prawa warunków początkowych, ponieważ prawo to z założenia ma uzasadniać, dlaczego Wszechświat zaistniał właśnie w takiej konkretnej postaci. W koncepcji Hartle'a-Hawkinga nie występuje moment narodzin Wszechświata, w którym miałoby się stosować ich prawo, niemniej ma ono stanowić uzasadnienie faktycznej postaci świata. Jeżeli prawa nie mają charakteru transcendentnego, zmuszeni jesteśmy przyjąć po prostu jako fakt, że Wszechświat jest taki, jaki jest, a pewne jego własności wyrażane są jako wbudowane weń prawa. Natomiast, gdy prawa są trancendentne, mamy podstawy poszukiwania uzasadnienia, dlaczego Wszechświat jest właśnie taki.
Teza o transcendentalnym charakterze praw fizyki jest współczesnym odpowiednikiem platońskiej dziedziny form doskonałych, których kopiami miałyby być ulotne obiekty-cienie ze świata naszych doznań zmysłowych. W praktyce prawa fizyki formułowane są w postaci zależności matematycznych, a zatem w naszym poszukiwaniu niewzruszonych podstaw rzeczywistości musimy się teraz zająć istotą matematyki i odwiecznym problemem, czy obiekty matematyczne istnieją jako samodzielne byty w sensie platońskim.
Nic nie uwidacznia w większym stopniu przepaści, jaka istnieje miedzy dwiema sferami - humanistyką a naukami ścisłymi - niż matematyka. Dla niematematyków matematyka jest obcym, przeraźliwie skomplikowanym światem abstrakcji, pełnym dziwacznych symboli i technicznych procedur, niemożliwym do opanowania jeżykiem czarnej magii. Dla naukowca matematyka stanowi gwarancję precyzji i obiektywności; okazuje się także być językiem samej przyrody. Nikt, kto nie ma do czynienia z matematyką, nie może w pełni pojąć istoty wewnętrznego porządku wpisanego głęboko w naturę świata fizycznego.
Właśnie z powodu tej niezastąpionej roli, jaką matematyka pełni w nauce, wielu naukowców, zwłaszcza fizyków, upatruje w niej podstawową rzeczywistość przyrody. Jeden z moich współpracowników powiedział mi kiedyś, że jego zdaniem świat to nic innego jak różne obiekty matematyczne. Dla zwykłego człowieka, który postrzega rzeczywistość jako składającą się z obiektów fizycznych, a matematykę jako ezoteryczne igraszki umysłu, brzmi to bez wątpienia zdumiewająco. Jednakowoż pogląd, że matematyka jest kluczem do tajemnic kosmosu, jest równie stary jak ona sama.
Większości ludzi starożytna Grecja kojarzy się w pierwszym rzędzie z geometrią. W naszych czasach uczniowie w szkole uczą się twierdzenia Pitagorasa i innych elementów geometrii euklidesowej jako wprawki w matematycznym i logicznym myśleniu. Niemniej dla filozofów greckich ich geometria była czymś więcej niż tylko ćwiczeniem umysłu. Pojęcia liczby i formy fascynowały ich tak bardzo, że oparli na nich całą teorię Wszechświata. Jak to ujął Pitagoras: “Liczba jest miarą wszechrzeczy”.
Sam Pitagoras żył w szóstym stuleciu przed naszą erą i był założycielem szkoły filozofów zwanych potem pitagorejczykami. Byli oni przekonani, że porządek kosmosu zasadza się na stosunkach liczb, i przypisywali pewnym liczbom i kształtom znaczenie mistyczne. Szczególną estymą darzyli na przykład tak zwane “doskonałe” liczby, jak 6 i 28, które są sumą swoich podzielników (na przykład 6=1+2+3). Największym poważaniem cieszyła się liczba 10, zwana boskim tetraktusem, jako suma pierwszych czterech liczb całkowitych. Poprzez układanie punktów w różne konfiguracje Grecy tworzyli liczby trójkątne (jak 3, 6 i 10), kwadratowe (4, 9, 16, ...) i tak dalej. Kwadratową liczbę 4 uczyniono symbolem sprawiedliwości i wzajemności, czego dalekie echo pobrzmiewa do dziś w angielskich wyrażeniach a square deal [sprawiedliwy układ] i being all square [w zgodzie ze wszystkimi]. Trójkątne przedstawienie liczby 10 uważane było za święty symbol, na który przysięgano przy obrzędach inicjacyjnych.
Wiara pitagorejczyków w potęgę numerologii została jeszcze bardziej podbudowana po odkryciu roli liczby w muzyce przez Pitagorasa, który stwierdził, że długości strun wytwarzających harmonicznie powiązane tony pozostają ze sobą w prostych stosunkach liczbowych. Na przykład, oktawa odpowiada stosunkowi 2:1. Samo słowo “racjonalny” bierze swój początek z wielkiego heurystycznego znaczenia, jakie pitagorejczycy przypisywali stosunkom (“racjom”) liczb całkowitych, takim jak 3/4 i 2/3. Zresztą matematycy do dziś nazywają takie ułamkowe liczby racjonalnymi (wymiernymi). Dlatego duży szok stanowiło dla Greków odkrycie, że pierwiastka z liczby 2 nie można przedstawić w postaci stosunku liczb całkowitych. Co to znaczy? Wyobraźmy sobie kwadrat o boku jednego metra. Zgodnie z twierdzeniem podanym właśnie przez Pitagorasa długość przekątnej wyrażona w metrach równa się pierwiastkowi kwadratowemu z dwóch. Wynosi to w przybliżeniu 7/5 metra; lepszym przybliżeniem będzie 707/500 metra, lecz w rzeczywistości niema ułamka, który wyrażałby ten stosunek dokładnie, niezależnie od tego, jak wielki wzięlibyśmy licznik i mianownik. Liczby tego rodzaju noszą nazwę “niewymiernych” (irrational).
Pitagorejczycy stosowali swoją numerologię również w astronomii. Wymyślili oni system dziewięciu koncentrycznych sfer unoszących znane ciała niebieskie podczas ich obrotu wokół Ziemi oraz mityczną “Przeciwziemię”, aby otrzymać tetraktyczną liczbę 10. Powiązanie pomiędzy harmonią w muzyce a harmonią sfer niebieskich wyrażane było jako przypuszczenie, że ich obrotowi towarzyszy muzyka - muzyka sfer niebieskich. Idee pitagorejskie zostały przejęte przez Platona, który w dialogu Timaios rozwijał dalej model kosmosu oparty na elementach muzycznych i numerycznych. Zastosował on również numerologię do czterech żywiołów - ziemi, powietrza, ognia i wody - oraz badał kosmiczne znaczenie regularnych form geometrycznych.
Pitagorejskie i platońskie modele świata uderzają nas dzisiaj swym prymitywnym i ekscentrycznym charakterem, jakkolwiek od czasu do czasu otrzymuję pocztą prace, których autorzy próbują uzasadniać własności jąder atomowych lub cząstek elementarnych w oparciu o numerologię starożytnych Greków, a więc ewidentnie jej mistyka nadal w jakimś stopniu do niektórych przemawia. Zasadnicza wartość tych numerologicznych i geometrycznych koncepcji nie polega jednak na ich prawdopodobności, lecz na tym, że traktują one fizyczną rzeczywistość jako przejaw ukrytej harmonii matematycznej. Ta podstawowa idea przetrwała aż do początków ery naukowej. Kepler, na przykład, wyobrażał sobie Boga jako geometrę i w swych badaniach Układu Słonecznego kierował się w znacznym stopniu tym, co uważał za mistyczne znaczenie występujących w nim wartości liczbowych. A współczesna fizyka matematyczna, jakkolwiek odżegnuje się od podtekstów mistycznych, nadal w gruncie rzeczy podziela przekonanie starożytnych Greków, że we Wszechświecie mamy do czynienia z racjonalnym ładem, możliwym do wyrażenia za pomocą zależności matematycznych.
Koncepcje numerologiczne występowały również w wielu innych kulturach i ich pozostałości odnaleźć możemy zarówno w nauce, jak i sztuce. Na starożytnym Bliskim Wschodzie liczba l - Jedność - utożsamiana była często z Bogiem jako Pierwszą Przyczyną. Asyryjczycy i Babilończycy przypisywali ubóstwione liczby ciałom niebieskim: Wenus, na przykład, utożsamiana była z liczbą 15, a Księżyc z liczbą 30. Hebrajczycy nadawali szczególne znaczenie liczbie 40, która wielokrotnie pojawia się w Biblii. Szatan wiązany jest z liczbą 666, której złowróżbne znaczenie zachowało się nawet do dziś dnia, jeśli faktycznie, jak podała pewna gazeta, Ronald Reagan zmienił adres swego domu w Kalifornii, aby jej uniknąć. W istocie rzeczy numerologia w Biblii ujawnia się wielokrotnie, zarówno w samej treści, jak i jej układzie. Niektóre z późniejszych sekt kabalistycznych, takich jak gnostycy czy też kabaliści, zajmowały się konstruowaniem wymyślnych, ezoterycznych systemów numerologicznych na bazie Biblii. Tego rodzaju teorie nie były obce także samemu Kościołowi. W szczególności św. Augustyn nawoływał do studiów numerologicznych nad Biblią w ramach kształcenia chrześcijańskiego i praktyki te utrzymały się aż do późnego średniowiecza. Również obecnie w wielu kulturach przypisuje się nadprzyrodzoną moc pewnym liczbom lub figurom geometrycznym, a szczególne sposoby obliczania stanowią istotny składnik rytuałów magicznych w wielu częściach świata. Nawet w naszym tak bardzo sceptycznym społeczeństwie Zachodu wielu ludzi utrzymuje, że są liczby przynoszące szczęście lub nieszczęście, jak 7 lub 13.
Te magiczne odniesienia zaciemniają fakt, że arytmetyka i geometria zrodziły się pod naciskiem potrzeb czysto praktycznych. Konstruowaniu formalnych twierdzeń geometrycznych w starożytnej Grecji towarzyszyło wynalezienie linijki i kompasu oraz rozwój technik geodezyjnych, które stosowano w budownictwie i architekturze. Te proste techniki dały początek olbrzymiemu systemowi myślowemu. Potęga liczb i geometrii tak bardzo przemawiała do wyobraźni, że stały się one podstawą nowej wizji świata, w której Bogowi przypisano rolę Wielkiego Geometry, co zostało tak dobrze oddane w znanej rycinie Williama Blake'a The Ancient of Days [U zarania dni] przedstawiającej Boga schylającego się z niebios, by zmierzyć świat za pomocą cyrkla.
Z historii wynika, że każda epoka wykorzystuje swe najbardziej imponujące zdobycze techniki jako metaforę kosmosu, czy nawet Boga. I tak w siedemnastym wieku nie rozważano już Wszechświata w kategoriach muzycznej lub geometrycznej harmonii, nad którą czuwa kosmiczny Geometra, lecz w zupełnie nowy sposób. Naczelnym zadaniem techniki stało się w tym czasie zapewnienie dokładnych przyrządów nawigacyjnych, szczególnie dla celów kolonizacji Ameryki. Określanie szerokości geograficznej nie sprawiało żeglarzom żadnego problemu, ponieważ można ją było wyznaczyć na podstawie, na przykład, wysokości Gwiazdy Polarnej nad horyzontem. Inaczej przedstawiała się sprawa z długością geograficzną, gdyż wskutek obrotu Ziemi sfera niebieska obraca się. W tej sytuacji pomiar położenia związany jest z pomiarem czasu. Przy żeglowaniu ze wschodu na zachód, dla przepłynięcia Atlantyku, niezbędne było posiadanie dokładnych zegarów. A zatem, pod naciskiem kupców i polityków, wiele wysiłku poświęcano na konstruowanie precyzyjnych czasomierzy dla celów żeglarskich.
Poszukiwanie metod dokładnego pomiaru czasu w praktyce znalazło swój wyraz teoretyczny w pracach Galileusza i Newtona.
Galileusz wykorzystał czas jako parametr przy formułowaniu swego prawa spadania ciał. Przypisuje się mu także odkrycie, że okres wahadła nie zależy od amplitudy jego wahań, co podobno miało miejsce w kościele, gdzie zmierzył okres wahającej się lampy za pomocą własnego pulsu. Newton, świadom zasadniczej roli, jaką czas pełni w fizyce, stwierdził w swych Principiach, że “absolutny, prawdziwy, matematyczny czas, sam z siebie, na mocy swej własnej natury, płynie równomiernie bez odniesienia do czegokolwiek zewnętrznego”. Zatem czas, tak jak odległość, został uznany za własność świata fizycznego, którą można mierzyć, w zasadzie z dowolną dokładnością.
Dalsze rozważanie roli upływu czasu w fizyce doprowadziło Newtona do rozwinięcia matematycznej teorii “fluksji”, znanej dzisiaj jako rachunek różniczkowy. Podstawowym elementem tego formalizmu jest pojęcie ciągłej zmiany. Newton uczynił je podstawą swojej mechaniki, w której zawarł prawa ruchu ciał materialnych. Najbardziej spektakularnym skutecznym zastosowaniem mechaniki Newtona był ruch planet w układzie słonecznym. W ten sposób muzyka sfer została zastąpiona modelem Wszechświata jako mechanizmu zegara. Model ten został w największym stopniu rozwinięty w drugiej połowie osiemnastego wieku w pracach Pierre'a Laplace'a, który potraktował każdy atom we Wszechświecie jako element kosmicznego mechanizmu zegarowego o niewiarygodnej precyzji. Bóg-Geometra stał się Bogiem-Zegarmistrzem.
W bieżącym stuleciu również mieliśmy do czynienia z rewolucją techniczną, która już zdążyła ukształtować całą naszą wizję świata. Chodzi mi o powstanie komputera, co wywołało głębokie zmiany w sposobie pojmowania świata zarówno w przypadku naukowców, jak i nienaukowców. Podobnie jak w poprzednich wiekach i obecnie pojawiają się propozycje, aby te najnowsze zdobycze techniki posłużyły jako model działania kosmosu. I tak niektórzy naukowcy wysuwali tezę, abyśmy pojmowali przyrodę jako proces obliczeniowy. Muzyka sfer niebieskich i Wszechświat jako mechanizm zegarowy zostały zastąpione metaforą “kosmicznego komputera”, w której cały Wszechświat uważany jest za gigantyczny proces przetwarzania informacji. W ramach tego poglądu prawa przyrody można utożsamić z programem tego komputera, a rozwój wydarzeń w świecie stanowiłby rezultat jego działania. Warunki początkowe panujące u narodzin Wszechświata odgrywałyby tu rolę danych wejściowych.
Historycy uznają obecnie, że współczesna koncepcja komputera miała swój początek w pionierskich pracach ekscentrycznego angielskiego wynalazcy, Charlesa Babbage'a. Babbage urodził się w 1791 roku pod Londynem jako syn bogatego bankiera, którego rodzina pochodziła z miejscowości Totnes w hrabstwie Devonshire. Już w dzieciństwie mały Babbage wykazywał duże zainteresowanie urządzeniami mechanicznymi. Nauczył się samodzielnie matematyki z książek, jakie wpadły mu w ręce, i w 1810 roku, gdy rozpoczął studia w Cambridge, miał już wyrobione własne podejście do tego przedmiotu i zamierzał rzucić wyzwanie ortodoksyjnemu systemowi jego nauczania w Wielkiej Brytanii. Wraz ze swym długoletnim przyjacielem Johnem Herschelem, synem znanego astronoma Williama Herschela (który w 1781 roku odkrył planetę Uran), Babbage założył Analytical Society. Członkowie tego towarzystwa, pozostając pod wielkim wrażeniem potęgi francuskiej nauki i techniki, uważali, że wprowadzenie w Cambridge nauczania matematyki na sposób praktykowany we Francji będzie pierwszym krokiem w rewolucji techniczno-przemysłowej w Wielkiej Brytanii. Towarzystwo popadło w konflikt z działaczami politycznymi w Cambridge, którzy uważali Babbage'a i jego kolegów za niebezpiecznych radykałów.
Po opuszczeniu Cambridge Babbage ożenił się i zamieszkał w Londynie, utrzymując się z własnego majątku. Nadal był pełen podziwu dla osiągnięć Francji w matematyce i naukach przyrodniczych, do czego przyczyniła się także jego osobista znajomość z rodziną Bonaparte; miał też wiele kontaktów z naukowcami z kontynentu. W tym czasie zaczęły go interesować eksperymenty z maszynami liczącymi; udało mu się otrzymać od rządu fundusze na budowę urządzenia, któremu nadał nazwę Maszyny Różnicowej (Difference Engine), był to rodzaj arytmometru. Miała ona służyć do wyliczania tablic matematycznych, astronomicznych i nawigacyjnych przy mniejszym nakładzie pracy i bez popełnianych przez człowieka błędów. Babbage skonstruował pomniejszony, działający model Maszyny Różnicowej, lecz rząd angielski wstrzymał finansowanie w 1833 roku i pełny projekt nie został zrealizowany. Był to bodajże jeden z pierwszych przykładów niedostrzegania przez rząd celowości długoterminowego wspierania działalności badawczej. (Muszę w tym miejscu przyznać, że, przynajmniej w Wielkiej Brytanii, od lat trzydziestych ubiegłego wieku niewiele się zmieniło). Ostatecznie Maszyna Różnicowa oparta na pomyśle Babbage'a została zbudowana w Szwecji, skąd następnie zakupił ją rząd angielski.
Niezrażony tym niepowodzeniem Babbage wymyślił o wiele potężniejsze urządzenie obliczeniowe, uniwersalny komputer, nazwany przez niego Maszyną Analityczną, która jest obecnie uznawana za protoplastę współczesnych komputerów pod względem struktury i zasady działania. Babbage poświęcił znaczną część swego majątku na konstruowanie kolejnych wersji tej Maszyny, lecz żadnej nie udało mu się zrealizować do końca.
Babbage był porywczym, kłótliwym, wzbudzającym liczne kontrowersje człowiekiem i wielu mu współczesnych uważało go za wariata. Niemniej jednak przypisuje mu się wynalezienie między innymi szybkościomierza, oftalmoskopu, przedniego zderzaka dla lokomotyw, podwieszonego podajnika pieniędzy dla sklepów i systemu kodowania światła w latarniach morskich. Jego zainteresowania obejmowały politykę, ekonomię, filozofię i astronomię. Rozważania nad istotą procesów obliczeniowych doprowadziły Babbage'a do idei, że Wszechświat może być także uważany za rodzaj komputera, przy czym prawa przyrody odgrywałyby rolę programu, co, jak zobaczymy, było wyjątkowo dalekosiężną wizją.
Mimo jego ekscentryczności, talenty Babbage'a zostały uznane poprzez powierzenie mu katedry matematyki w Cambridge, którą niegdyś piastował Newton. W charakterze historycznego przyczynku warto wspomnieć, że dwaj synowie Babbage'a wyemigrowali do Adelaide w południowej Australii, zabierając ze sobą egzemplarze jego maszyn. Natomiast w Muzeum Nauki w Londynie zrekonstruowano naturalnej wielkości Maszynę Różnicową według oryginalnego projektu Babbage'a, aby dowieść, że jest ona w stanie wykonywać obliczenia zgodnie ze swym przeznaczeniem. A w 1991 roku dwusetna rocznica urodzin Babbage'a (która nota bene przypadała jednocześnie z rocznicą urodzin Faradaya i rocznicą śmierci Mozarta) została uczczona przez rząd Jej Królewskiej Mości wydaniem okolicznościowych znaczków pocztowych.
Po śmierci Babbage'a w 1871 roku jego prace uległy zapomnieniu i dopiero w latach trzydziestych naszego wieku, dzięki wyobraźni innego niezwykłego Anglika, Alana Turinga, dokonał się na tym polu dalszy postęp. Turingowi i amerykańskiemu matematykowi Johnowi von Neumannowi przypisuje się stworzenie teoretycznych podstaw działania współczesnego komputera. Zasadnicze znaczenie w ich pracach miało pojęcie “uniwersalnego komputera”, automatu zdolnego do wykonania każdej obliczalnej funkcji matematycznej. Aby wyjaśnić znaczenie pojęcia uniwersalnej obliczalności, należy cofnąć się do roku 1900 do słynnego referatu matematyka Davida Hilberta, w którym przedstawił on to, co uważał za dwadzieścia trzy najistotniejsze problemy matematyczne do rozwiązania. Jednym z nich było pytanie, czy możliwe jest znalezienie ogólnej procedury dowodzenia twierdzeń matematycznych.
Hilbert był świadom, że dziewiętnasty wiek przyniósł szereg niepokojących odkryć matematycznych, a niektóre z nich wydawały się zagrażać niesprzeczności samej matematyki. Były to problemy związane z pojęciem nieskończoności i rozmaite logiczne paradoksy oparte na samoreferencji, które później krótko omówię. W odpowiedzi na te wątpliwości Hilbert wezwał matematyków do znalezienia systematycznej procedury pozwalającej w skończonej liczbie kroków stwierdzić, czy dane twierdzenie matematyczne jest prawdziwe czy fałszywe. Nikt w owym czasie nie wydawał się wątpić, że taka procedura istnieje, jakkolwiek praktyczne jej podanie mogło nastręczać trudności. Niemniej jednak można sobie było wyobrazić, że jakiś pojedynczy człowiek lub grupa ludzi jest w stanie zweryfikować każdą matematyczną hipotezę poprzez ślepe wykonywanie ustalonego ciągu operacji aż do skutku. W istocie, można by się obyć nawet bez ludzi, gdyż taką procedurę dałoby się zautomatyzować i cały ciąg operacji realizowany byłby przez maszynę, która po jego zakończeniu drukowałaby otrzymany wynik - “prawda” lub “fałsz”.
Widziana w ten sposób matematyka staje się dyscypliną całkowicie formalną, czymś w rodzaju gry polegającej na manipulowaniu symbolami według wcześniej ustalonych reguł i znajdowaniu związków tautologicznych. Nie potrzebuje ona żadnych odniesień do świata fizycznego. Prześledźmy to na przykładzie. Gdy wykonujemy działanie matematyczne, takie jak (5 x 8) 6 = 34, postępując według prostych reguł otrzymujemy wynik 34. Aby otrzymać prawidłowy wynik, nie musimy rozumieć samych reguł, ani wiedzieć, skąd się one wzięły. W istocie, nie musimy nawet wiedzieć, co symbole, którymi się posługujemy, takie jak 5 czy xs naprawdę znaczą. Jeśli tylko rozróżniamy poszczególne symbole i trzymamy się reguł, otrzymamy prawidłowy wynik. Fakt, że obliczenie możemy przeprowadzić na kieszonkowym kalkulatorze, świadczy o tym, iż procedura ta da się wykonać całkowicie na ślepo.
Kiedy dzieci zaczynają naukę arytmetyki, potrzebują odnosić poznawane symbole do konkretnych obiektów otaczającego ich świata, więc początkowo liczą na palcach lub liczydłach. W późniejszych latach jednak dzieci na ogół potrafią już przeprowadzać operacje matematyczne w sposób całkowicie abstrakcyjny, do tego stopnia, że używają x i y zamiast konkretnych liczb. Ci, którzy podejmują naukę na wyższym poziomie, poznają inne rodzaje liczb (np. zespolone) i działań matematycznych (np. mnożenie macierzy), które w żaden oczywisty sposób nie wiążą się z tym, co znamy z rzeczywistego świata. Mimo to studenci bez trudu uczą się manipulowania abstrakcyjnymi symbolami oznaczającymi te niezwyczajne obiekty i działania, nie zastanawiając się nawet nad tym, co one naprawdę, jeśli w ogóle, znaczą. W ten sposób matematyka w coraz większym stopniu staje się czysto formalnym manipulowaniem symbolami. Może się wręcz wydawać, że matematyka to nic innego, jak manipulowanie symbolami. Taki pogląd zwany jest “formalizmem”.
Mimo jej pozornej możliwości formalistycznej interpretacji matematyki został zadany w 1931 roku poważny cios. Tego roku austriacki logik i matematyk Kurt Godeł dowiódł zdumiewającego twierdzenia, że w matematyce istnieją zdania, których prawdziwości lub fałszywości nie da się udowodnić poprzez żadną systematyczną procedurę. Było to zaiste twierdzenie nie do przejścia, ponieważ wykazywało nieodwołalnie, że czegoś w matematyce naprawdę nie da się zrobić, nawet w zasadzie. Fakt, że w matematyce istnieją zdania nierozstrzygalne, stanowił wielki szok, gdyż wydawał się podważać całe logiczne podstawy tej dyscypliny.
Twierdzenie Godła wpisuje się w całą konstelację paradoksów związanych z pojęciem samoreferencji. Jako proste wprowadzenie w tę zawikłaną tematykę rozważmy niepokojące zdanie: “To zdanie jest kłamstwem”. Jeżeli wypowiedź ta jest prawdziwa, to jest ona fałszywa; a jeżeli jest fałszywa, to jest prawdziwa. Takich paradoksalnych wypowiedzi odnoszących się do samych siebie można z łatwością przytoczyć wiele; są one niezwykle intrygujące i zastanawiały ludzi od stuleci. Na przykład w średniowieczu formułowano tę antynomię w następujący sposób:
Sokrates: “To, co Platon zaraz powie, jest kłamstwem”.
Platon: “Sokrates właśnie powiedział prawdę”.
Wielki matematyk i filozof Bertrand Russel wykazał, że istnienie tego typu paradoksów uderza w samą istotę logiki i podważa wszelkie uczciwe próby oparcia matematyki w sposób ścisły na podstawach logicznych. Godeł poszedł jeszcze dalej i w niezwykle genialny sposób zastosował samozwrotność w oniesieniu do całej matematyki, rozważając związki między opisem matematyki a samą matematyką. Jest to łatwo powiedzieć, lecz w rzeczywistości rozumowanie Godła było długie i bardzo zawiłe. Aby wyrobić sobie jednak pojęcie, na czym ono polegało, wyobraźmy sobie, że wypisujemy zdania matematyczne opatrując je kolejnymi liczbami naturalnymi: l, 2, 3, ... Tworzeniu ciągu zdań stanowiącego twierdzenie matematyczne odpowiadałoby w takim przypadku połączenie przypisanych im liczb. W ten sposób operacjom logicznym przeprowadzanym na zdaniach matematyki odpowiadają działania samej matematyki. Stanowi to istotę samozwrotności, na której opiera się dowód twierdzenia Godła. Poprzez utożsamienie opisu z tym, co jest opisywane, tj. ustanowienie odpowiedniości zdań opisujących matematykę ze zdaniami samej matematyki, Godeł odkrył antynomialną pętlę typu russelowskiego, która w nieunikniony sposób prowadziła do istnienia zdań nierozstrzygalnych. John Barrow zauważył ironicznie, że jeśli przez religię rozumieć będziemy system myślowy wymagający wiary w niedowodliwe prawdy, to matematyka jest jedyną religią, która jest w stanie dowieść, iż jest religią!
Aby wyjaśnić kluczową ideę, na której zasadza się twierdzenie Godła, posłużę się krótką historyjką. W pewnym dalekim kraju grupa matematyków, która nie słyszała nigdy o Godłu, doszła do wniosku, że możliwa jest jednak systematyczna procedura pozwalająca na nieomylne stwierdzenie prawdziwości lub fałszywości każdego sensownego zdania matematycznego, i zabrała się do wykazania tego. Procedura ta mogła być wykonywana przez człowieka, grupę łudzi, maszynę, czy też jakąkolwiek kombinację tych elementów. Nikt nie wiedział, na co zdecydowali się matematycy, gdyż ich system umieszczony był wewnątrz olbrzymiego budynku uniwersytetu przypominającego świątynię, do którego wejście osobom postronnym było wzbronione. W każdym razie system nazywał się Tom. By wypróbować możliwości Toma, wprowadzano do niego kolejno najróżniejsze skomplikowane zdania logiczne i matematyczne i po krótkiej chwili otrzymywano odpowiedź: prawda, prawda, fałsz, prawda, fałsz, ... W krótkim czasie sława Toma rozeszła się po całym kraju. Do laboratorium zjeżdżało coraz więcej ludzi, którzy na wszelkie sposoby starali się wynaleźć problem na tyle trudny, aby zapędzić Toma w kozi róg. Nikomu się to nie udawało. Twórcy Toma nabrali takiego przekonania o jego nieomylności, że namówili króla, aby ufundował nagrodę dla tego, komu udałoby się pokonać Toma w jego niewiarygodnych zdolnościach analitycznych. Pewnego dnia na uniwersytecie zjawił się jakiś przybysz z innego kraju z dużą kopertą i poprosił, aby pozwolono mu zmierzyć się z Tomem o przyobiecaną nagrodę. Wewnątrz koperty była kartka papieru z wypisanym na niej zdaniem dla Toma. Zdanie to, które oznaczymy tutaj literą Z (od “zdanie”) brzmiało po prostu: “Tom nie może uznać tego zdania za prawdziwe”.
Zdanie Z zostało jak zwykle przekazane Tomowi. Nie upłynęło kilka sekund, jak Tom zaczął się zachowywać dziwnie. Po pół minuty z budynku wybiegł ktoś z obsługi i oznajmił, że Toma trzeba było wyłączyć z przyczyn technicznych. Cóż takiego się stało? Załóżmy, że Tom miałby roztrzygnąć, iż Z jest prawdziwe. Oznaczałoby to, że zdanie “Tom nie może uznać tego zdania za prawdziwe” zostałoby sfalsyfikowane, ponieważ Tom to właśnie zrobił. Lecz skoro Z zostało sfalsyfikowane, nie może być prawdą. Zatem jeśli Tom orzeknie “prawda” o zdaniu Z, wniosek ten będzie fałszywy, co przeczy jego głoszonej nieomylności. Toteż Tom nie może uznać tego zdania za prawdziwe. W ten sposób doszliśmy do wniosku, że Z jest jednak prawdziwe. Jednak dochodząc do tego wniosku wykazaliśmy, że Tom nie może dojść do tego samego wniosku. Oznacza to, że wiemy, że coś jest prawdziwe, lecz Tom nie może tego uznać za prawdziwe. W tym tkwi istota dowodu Godła, że zawsze będą istniały pewne zdania, których prawdziwości nie można udowodnić. Ów podróżny, wiedząc o tym, z łatwością skonstruował takie zdanie i zgarnął nagrodę.
Należy jednak pamiętać, że odkrycie Godła dotyczyło ograniczeń związanych z aksjomatyczną metodą dowodzenia twierdzeń, a nie samych zdań, których miałoby się dowodzić. Zdanie, którego prawdziwości nie da się dowieść w danym systemie aksjomatów, zawsze może być samo uznane za aksjomat i dołączone do systemu. W tak powiększonym systemie będą z kolei istnieć inne zdania niedowodliwe i tak dalej.
Twierdzenie Godła stanowiło druzgocący cios dla programu formalistów, niemniej idea czysto mechanicznego rozstrzygania prawdziwości zdań matematycznych nie została całkowicie zarzucona. Może niedowodliwe zdania są tylko rzadkimi wynaturzeniami, które dałyby się oddzielić od reszty logiki i matematyki? Gdyby udało się znaleźć jakąś metodę odróżnienia zdań niedowodliwych od dowodliwych, w przypadku tych ostatnich stwierdzanie ich prawdziwości lub fałszywości nadal byłoby zawsze możliwe. Jednakże, czy możliwe jest podanie systematycznej procedury pozwalającej na nieomylne rozpoznawanie i odrzucanie zdań niedowodliwych? Zadanie to zostało podjęte w połowie lat trzydziestych przez Alonzo Churcha, współpracownika von Neumanna z Princeton, który rychło stwierdził, że nawet ten skromniej wyznaczony cel jest nieosiągalny, przynajmniej w skończonej liczbie kroków. Innymi słowy, możemy formułować zdania matematyczne, które są potencjalnie prawdziwe lub fałszywe, i możemy wdrożyć systematyczną procedurę rozstrzygającą o ich prawdziwości, lecz nie jesteśmy w stanie poznać wyników tej procedury, gdyż nigdy się ona nie skończy.
Nieobliczalność
Problem ten został również podjęty, zupełnie niezależnie i z całkowicie innej strony, przez Alana Turinga, gdy był jeszcze studentem w Cambridge. Matematycy często mówią o “mechanicznej” procedurze rozwiązywania problemów matematycznych, “za naciśnięciem guzika”. Turinga fascynowało, czy można by naprawdę zbudować maszynę, która by to robiła. Taka maszyna byłaby w stanie rozstrzygać o prawdziwości zdań matematycznych w sposób całkowicie automatyczny, bez udziału człowieka, poprzez niewolnicze trzymanie się deterministycznego ciągu instrukcji. Lecz jak zbudować takie urządzenie? Na jakiej zasadzie miałoby ono działać? Turing wyobraził je sobie na kształt maszyny do pisania, wypisującej symbole na kartce, lecz ponadto będącej w stanie odczytywać napisane znaki i w razie potrzeby je wymazywać. Ostatecznie doszedł do koncepcji nieskończenie długiej taśmy, podzielonej na kwadratowe pola, przy czym w każdym polu znajduje się jeden znak. Maszyna miałaby przesuwać taśmę o jedno pole, czytać zawartość pola i w zależności od tego, co przeczytała, pozostawać w tym samym stanie albo przechodzić w nowy stan. W każdym wypadku jej reakcja byłaby czysto automatyczna, wyznaczona przez jej konstrukcję. Maszyna bądź zostawiałaby przeczytany symbol bez zmian, bądź wymazywałaby go i wpisywała inny, a następnie przesuwałaby taśmę o jedno pole i cały proces powtarzałby się od nowa.
W istocie maszyna Turinga jest tylko urządzeniem pozwalającym na przekształcanie jednego ciągu symboli w inny ciąg na podstawie ustalonych wcześniej zasad. W razie potrzeby zasady te można by przedstawić w postaci tabelki, z której dałoby się odczytać, jak zachowa się maszyna w kolejnym kroku. Tak więc w gruncie rzeczy nie trzeba budować prawdziwej maszyny z metalu i papierowej taśmy, aby przekonać się, jak ona działa. Łatwo, na przykład, wypisać tabelkę odpowiadającą maszynie realizującej dodawanie liczb. Jednakże Turing stawiał sobie bardziej ambitne cele. Czyż jego maszyna nie mogłaby urzeczywistnić zamierzonego przez Hil-berta programu mechanizacji matematyki?
Jak już wspominałem, rozwiązywanie zadań matematycznych na drodze stosowania czysto mechanicznej procedury znane jest doskonale już uczniom w szkole. Typowym przykładem może być przekształcanie ułamka na postać dziesiętną czy też wyciąganie pierwiastka kwadratowego z jakiejś liczby. Każdy skończony ciąg czynności prowadzący do rozwiązania jakiegoś problemu, mającego na przykład postać liczby, niekoniecznie całkowitej, może być w oczywisty sposób zrealizowany poprzez maszynę Turinga. Ale co z procedurami o nieskończonej liczbie kroków? Na przykład, rozwinięcie dziesiętne liczby n stanowi nieskończony, na pozór zupełnie przypadkowy ciąg cyfr. Niemniej jednak n można wyliczyć z dowolną liczbą miejsc po przecinku na podstawie prostej, skończonej procedury. Turing nazywał daną liczbę “obliczalną”, jeżeli przy stosowaniu się do skończonego zestawu instrukcji można wyliczyć tę liczbę z dowolnie wielką dokładnością, nawet jeżeli sama liczba jest nieskończenie długa.
Turing wyobraził sobie, że sporządzona została lista wszystkich liczb obliczalnych. Lista ta oczywiście miałaby nieskończenie wiele pozycji i na pierwszy rzut oka mogłoby się wydawać, że każda możliwa do pomyślenia liczba powinna być w niej zawarta. A jednak tak nie jest. Turing pokazał, że zakładając istnienie takiej listy można udowodnić istnienie liczb, które z całą pewnością nie są w niej zawarte. Ponieważ lista ta zawierała wszystkie liczby obliczalne, te nowe liczby trzeba określić mianem nieobliczalnych. Co to znaczy, że jakaś liczba jest nieobliczalna? Z definicji jest to liczba, która nie może być otrzymana w wyniku skończonej mechanicznej procedury, nawet po wykonaniu nieskończonej liczby kroków. Turing pokazał również, w jaki sposób lista liczb obliczalnych może posłużyć do generowania liczb nieobliczalnych.
Oto schemat jego rozumowania. Wyobraźmy sobie, że zamiast liczb mamy nazwiska. Sporządzamy listę sześcioliterowych nazwisk; powiedzmy, Sayers, Atkins, Piąuet, Mather, Belamy, Panoff. Potem przeprowadzamy następującą prostą procedurę. Bierzemy pierwszą literę pierwszego nazwiska i zastępujemy ją następną literą alfabetu. W tym przypadku będzie to “T”. To samo robimy z drugą literą drugiego nazwiska, trzecią literą trzeciego, i tak dalej. Ostatecznie otrzymujemy w ten sposób nazwisko “Turing”. Możemy być absolutnie pewni, że nazwisko to nie występowało w naszej liście, gdyż z konieczności różni się od każdego zawartego w niej nazwiska o jedną literę. Nawet nie widząc wyjściowej listy, wiemy, że Turinga na niej nie było. W przypadku listy liczb obliczalnych Turing posłużył się analogicznym sposobem, polegającym na zmianie w każdej liczbie jednej cyfry na miejscu odpowiadającym pozycji tej liczby na liście, aby wykazać istnienie liczb nieobliczalnych. Naturalnie, lista Turinga zawierała nieskończenie wiele nieskończenie długich liczb, lecz istota przeprowadzonego rozumowania była taka sama.
Już z samego istnienia liczb nieobliczalnych wynika, że muszą istnieć także nierozstrzygalne twierdzenia matematyczne. Wyobraźmy sobie nieskończoną listę liczb obliczalnych. Każda z nich może być wygenerowana przez jakąś maszynę Turinga. Jedna maszyna obliczałaby pierwiastek kwadratowy, inna logarytmy, i tak dalej. Jak się przekonaliśmy, nawet mając do dyspozycji nieskończenie wiele takich maszyn, nie jesteśmy w stanie otrzymać w ten sposób wszystkich liczb, jako że istnieją także liczby nieobliczalne, które nie mogą być wygenerowane w wyniku mechanicznej procedury. Turing zauważył, że w zasadzie nie potrzeba nieskończenie wielu maszyn do wygenerowania takiej listy; wystarczy jedna. Pokazał, iż można zbudować uniwersalną maszynę Turinga, mogącą symulować działanie wszystkich innych maszyn. Możliwość istnienia takiej uniwersalnej maszyny jest dość oczywista. Każdą maszynę można określić przez podanie systematycznej procedury prowadzącej do jej zbudowania, czy to będą maszyny pralnicze, maszyny do szycia, maszyny liczące czy też maszyny Turinga. Podstawowe znaczenie ma tu fakt, że maszyna Turinga sama jest maszyną wykonującą określoną procedurę. Zatem uniwersalnej maszynie Turinga można polecić, aby wpierw odczytywała specyfikację danej maszyny, następnie rekonstruowała zasady jej działania, i ostatecznie wykonywała jej funkcję. Zatem oczywiste jest, że można skonstruować uniwersalną maszynę do wykonywania wszelkich operacji matematycznych. Nie trzeba mieć oddzielnie maszyny dodającej do dodawania, maszyny mnożącej do mnożenia, i tak dalej. Jedna maszyna może robić wszystko. Myśl ta była już zawarta w projekcie Maszyny Analitycznej Babbage'a, lecz trzeba było dopiero upływu prawie stu lat, geniuszu Alana Turinga i potrzeb zrodzonych podczas drugiej wojny światowej, aby koncepcja współczesnego komputera ostatecznie doczekała się realizacji.
Może się wydawać zdumiewające, że maszyna, której działanie sprowadza się wyłącznie do odczytywania i zapisywania symboli oraz przesuwania i zatrzymywania taśmy, jest w stanie realizować wszelkie możliwe procedury matematyczne, niezależnie od tego, jak bardzo są abstrakcyjne i skomplikowane. Niemniej jednak przekonanie to, zwane hipotezą Churcha-Turinga, podzielane jest przez większość matematyków. Wynika z niego, że niezależnie od tego, o jaki problem matematyczny chodzi, jeśli nie może on być rozwiązany przez maszynę Turinga, to nie może być rozwiązany w ogóle. Ważną implikacją hipotezy Churcha-Turinga jest to, że szczegóły konstrukcyjne konkretnego komputera są zupełnie nieistotne. Jeśli tylko logiczne zasady jego działania są te same, co w przypadku uniwersalnej maszyny Turinga, wyniki będą zawsze takie same. Innymi słowy, komputery są w stanie wzajemnie symulować swoje działanie. Prawdziwe komputery, którymi się dzisiaj posługujemy, wyposażone są w ekrany, drukarki, plotery, stacje dysków i inne wymyślne urządzenia, jednakże logiczna zasada ich działania nadal odpowiada idei uniwersalnej maszyny Turinga.
W połowie lat trzydziestych, gdy Turing prowadził swoje badania, wszystkie te ważne praktyczne zastosowania jego idei były jeszcze sprawą przyszłości. Jemu samemu chodziło przede wszystkim o program Hilberta mechanizacji matematyki, z którym zagadnienie liczb obliczalnych i nieobliczalnych ma bezpośredni związek. Rozważmy (nieskończoną) listę liczb obliczalnych, z których każda generowana jest przez jakąś maszynę Turinga. Wyobraźmy sobie uniwersalną maszynę Turinga, której powierzono zadanie sporządzenia tej samej listy poprzez kolejne symulowanie działania każdej z tych maszyn. Pierwszym krokiem takiej maszyny byłoby odczytanie szczegółów konstrukcyjnych danej maszyny. Rodzi się wtedy od razu pytanie: czy uniwersalna maszyna Turinga jest w stanie rozstrzygnąć na podstawie tych szczegółów, jeszcze przed przeprowadzeniem samych obliczeń, czy dana liczba zostanie faktycznie obliczona, czy też obliczenia zawieszą się w jakimś miejscu? Przez zawieszenie rozumiemy tu, że obliczenia zapętliły się i maszyna nie drukuje żadnego wyniku. Jest to tak zwany “problem zatrzymania” - czy można z góry przewidzieć, na podstawie znajomości szczegółów procedury obliczeniowej, czy maszyna obliczy po kolei wszystkie cyfry danej liczby i zatrzyma się, czy też wpadłszy w pętlę, nie zatrzyma się nigdy.
Turing wykazał, że na problem zatrzymania odpowiedź jest zdecydowanie negatywna. Posłużył się przy tym sprytnym rozumowaniem. Przypuśćmy, powiedział, że maszyna uniwersalna jest w stanie rozwiązać problem zatrzymania. Co zatem stanie się, gdy maszyna ta spróbuje symulować samą siebie? W ten sposób znów wróciliśmy do problemu samoreferencji. Jak można tego oczekiwać, rezultatem jest zawieszenie się obliczeń. Usiłując symulować samą siebie, maszyna wpada w stan permanentnej pętli. Tak więc Turing doszedł do niezwykłego wniosku, będącego wariantem twierdzenia Godła o zdaniach nierozstrzygalnych: oto maszyna, która ma sprawdzić, czy dana procedura obliczeniowa nie zawiesi się, sama się zawiesza! W tym przypadku nierozstrzygalność dotyczy samych zdań nieroztrzygalnych: nie ma systematycznego sposobu pozwalającego rozstrzygnąć, czy dane zdanie jest rozstrzygalne czy nierozstrzygalne. Stanowiło to oczywiste zaprzeczenie możliwości zamierzonej przez Hilberta mechanizacji matematyki: twierdzenie, którego prawdziwości ani fałszywości nie sposób udowodnić poprzez systematyczną, ogólną procedurę. Głębokie znaczenie wniosku Turinga zostało obrazowo przedstawione przez Douglasa Hofstadtera: “Matematyka przeniknięta jest na wskroś nierozstrzygalnymi zdaniami, jak kawałek mięsa na stek przerośnięty jest włóknami chrząstki, których nie da się wyciąć bez zniszczenia całego steku”.
Dlaczego możliwa jest arytmetyka?
Wnioski Turinga zazwyczaj przytacza się w odniesieniu do matematyki i logiki. Niemniej jednak mówią nam one też coś o naturze rzeczywistego świata. W końcu, idea maszyny Turinga oparta jest na naszym intuicyjnym pojmowaniu, czym w ogóle jest maszyna, a rzeczywiste maszyny działają tylko dlatego, że umożliwiają im to prawa fizyki. Ostatnio fizyk teoretyczny z Oxfordu David Deutsch ogłosił tezę, że obliczalność jest właściwie własnością empiryczną, to znaczy zależy w istocie od tego, jaki jest świat, a nie jest wynikiem jakiejś koniecznej prawdy logicznej. “Uzasadnienia, dlaczego możliwe jest - pisze Deutsch - zbudowanie, na przykład, kalkulatorów elektronicznych czy też w ogóle wykonywanie obliczeń w pamięci, nie znajdziemy w obrębie samej matematyki i logiki. Jest to możliwe tylko dlatego, że prawa fizyki są akurat takie, iż dopuszczają istnienie fizycznej realizacji działań arytmetycznych, takich jak dodawanie, odejmowanie i mnożenie. Gdyby tak nie było, te tak znane nam rachunki byłyby funkcjami nieobliczalnymi”.
Teza Deutscha jest zaiste frapująca. Operacje arytmetyczne, takie jak liczenie, wydają się nam tak wpisane w naturę rzeczy, że nie możemy wyobrazić sobie świata, w którym nie byłyby one możliwe. Dlaczego tak jest? Sądzę, że odpowiedzi należy doszukiwać się w historii i naturze matematyki. Arytmetyka dotyczyła początkowo czysto praktycznych aspektów życia codziennego, takich jak pilnowanie, by nie zginęły owce ze stada, czy też elementarne rachunki. Jednakże na bazie tych podstawowowych działań dodawania, odejmowania i mnożenia nastąpił tak gwałtowny rozwój idei matematycznych i stały się one tak wyrafinowane, że ludzie stracili z oczu ich skromny praktyczny rodowód. Innymi słowy, matematyka zaczęła żyć swoim własnym życiem. Już w czasach Platona niektórzy filozofowie utrzymywali, że matematyce przysługuje niezależne istnienie. A my tak bardzo przywykliśmy do wykonywania prostych działań arytmetycznych, że z łatwością przychodzi nam wierzyć, iż muszą być one wykonywalne. Lecz w rzeczywistości ich wykonywalność zależy w zasadniczy sposób od natury świata fizycznego. Przykładowo, czy liczenie miałoby dla nas jakikolwiek sens, gdyby nie istniały oddzielne przedmioty, jak monety lub owce?
Matematyk R.W. Hamming nie uznaje bynajmniej wykonywalności arytmetyki za rzecz oczywistą, uznając to za fakt dziwny i niewyjaśniony. “Próbowałem bez powodzenia - pisze - przekazać niektórym z moich przyjaciół moje zdumienie, że liczenie przy użyciu abstrakcyjnego pojęcia liczby jest w ogóle możliwe i tak użyteczne. Czyż nie jest czymś niezwykłym, że sześć owiec plus siedem owiec daje trzynaście owiec, i sześć kamieni plus siedem kamieni daje trzynaście kamieni? Czyż to nie cud, że Wszechświat jest tak urządzony, iż tak proste pojęcia abstrakcyjne jak liczba są możliwe?”.
Fakt, że własności obliczeniowe arytmetyki znajdują swe odbicie w realnym świecie, ma głębokie implikacje. Oznacza, że w pewnym sensie świat fizyczny jest komputerem, tak jak sądził Babbage. Albo, co bardziej istotne, iż komputery są w stanie nie tylko symulować wzajemnie swoje działanie, lecz także symulować świat fizyczny. Oczywiście, jesteśmy przyzwyczajeni do tego, że komputerów używa się do symulowania układów fizycznych; stąd w istocie bierze się ich ogromna użyteczność. Jednak ta możliwość oparta jest na głębokiej i subtelnej własności świata. Mamy ewidentnie do czynienia z zasadniczą zgodnością pomiędzy prawami fizyki z jednej strony a obliczalnością funkcji matematycznych opisujących te właśnie prawa z drugiej strony. Nie jest to bynajmniej truizm. Natura praw fizyki pozwala na to, by pewne operacje matematyczne, takie jak dodawanie i mnożenie, były obliczalne. Stwierdzamy, że wśród tych obliczalnych operacji były takie, które opisują (przynajmniej w przybliżeniu) prawa fizyki.
Czy występowanie tego kręgu wzajemnych zależności jest czystym zbiegiem okoliczności, czy też ta spójność jest czymś koniecznym? Czy świadczy to o jakichś głębszych związkach pomiędzy matematyką a rzeczywistością? Wyobraźmy sobie świat, w którym prawa fizyki są całkowicie odmienne, do tego stopnia, że nie istnieją odrębne przedmioty. Niektóre z operacji matematycznych, które są obliczalne w naszym świecie, nie byłyby obliczalne w tamtym, i na odwrót. W tym drugim świecie mogą istnieć odpowiedniki maszyny Turinga, ale ich struktura i działanie byłyby na tyle odmienne, że nie potrafiłyby na przykład wykonywać podstawowych operacji arytmetycznych, choć być może mogłyby w tamtym świecie wykonywać operacje, których komputery w naszym świecie nie są w stanie wykonać (na przykład rozwiązywałyby Wielkie Twierdzenie Fermata).
Pojawia się teraz szereg interesujących dodatkowych pytań: czy prawa fizyki w tym hipotetycznym alternatywnym świecie dawałyby się wyrazić w kategoriach obliczalnych operacji tego świata, czy też taka wewnętrzna spójność przysługuje tylko pewnej ograniczonej liczbie światów? A może wyłącznie naszemu światu? Czy na pewno wszystkie aspekty naszego świata dają się wyrazić poprzez operacje obliczalne? Czy możliwe są w ogóle procesy fizyczne, których nie można symulować za pomocą maszyny Turinga? Tymi intrygującymi pytaniami dotyczącymi związku pomiędzy matematyką a światem realnym zajmę się następnym rozdziale.
Matrioszki i sztuczne życie
Fakt, że uniwersalne komputery są w stanie się wzajemnie symulować, ma istotne konsekwencje. W praktyce oznacza bowiem, że, przy odpowiednim zaprogramowaniu i zapewnieniu wystarczającej ilości pamięci, zwykły IBM PC może doskonale naśladować na przykład potężnego Craya pod względem wyników (a nie szybkości) obliczeń. Wszystko, co potrafi zrobić Cray, potrafi i komputer osobisty. W istocie uniwersalny komputer nie musi dorównywać stopniem skomplikowania nawet pecetowi; wystarczy, że składa się z szachownicy i kompletu pionków. Taki prosty system został po raz pierwszy rozpatrzony przez Stanisława Ulama i Johna von Neumanna w latach pięćdziesiątych jako przykład tak zwanej “teorii gier”.
Ulam i von Neumann pracowali w Los Alamos National Laboratory, gdzie prowadzono badania nad bombą atomową w ramach projektu Manhattan. Ulam uwielbiał grać w różne gry na komputerach, co było w tych czasach jeszcze wielką nowością. Jedna z takich gier polegała na tym, że pewne układy elementów zmieniane są według ustalonych reguł. Wyobraźmy sobie na przykład szachownicę z pionkami tworzącymi na niej pewien układ. Można wtedy rozważać różne reguły, według których ten układ może być zmieniany. Przykładowo: z każdym polem szachownicy sąsiaduje osiem innych pól (łącznie z polami po przekątnej). Stan danego pola (to znaczy to, czy stoi na nim pionek, czy nie) pozostawiamy bez zmian, jeżeli na sąsiednich polach stoją dokładnie dwa pionki. Jeśli pole, na którym stoi pionek, sąsiaduje z trzema zajętymi polami, to pionek pozostawiamy; we wszystkich innych przypadkach pole opróżnia się. Po wybraniu pewnego początkowego ułożenia pionków reguła ta zostaje zastosowana do każdego pola szachownicy, w wyniku czego otrzymujemy nieco odmienny układ pionków. Znowu stosujemy tę samą regułę i ułożenie pionków znowu się zmienia. Procedurę tę powtarza się wielokrotnie i obserwuje ewolucję struktury pionków na szachownicy.
Johna Conwaya, który w 1970 roku wynalazł podane powyżej reguły, z miejsca uderzyło bogactwo i różnorodność struktur, do jakich one prowadziły. Struktury pojawiały się i ginęły, ewoluowały, poruszały się po szachownicy, dzieliły i zlewały. Pod wrażeniem podobieństwa zachowania się tych układów do żywych organizmów Conway nazwał swą grę “ŻYCIE”. Wkrótce stała się ona ulubioną rozrywką fanów komputerowych z całego świata. Do śledzenia ewolucji struktur nie potrzebna im była wcale szachownica; o wiele łatwiej było zaprogramować komputer tak, aby wyświetlał je bezpośrednio na ekranie, przy czym pojedynczy piksel (świecący punkt na ekranie) odpowiadał pionkowi. Niezwykle przystępny opis tej gry można znaleźć w książce The Recursive Universe Williama Pounstone'a, zawierającej również tekst programu dla wszystkich, którzy chcieliby zagrać w ŻYCIE na swoim własnym komputerze. Tych, którzy mają komputer Amstrad PCW 8256, na jakim piszę właśnie tę książkę, będą zapewne zainteresowani tym, że program do gry w ŻYCIE został fabrycznie wprowadzony do tego typu komputerów i można go uruchomić za pomocą paru prostych poleceń.
Można potraktować przestrzeń, w której ewoluują układy punktów, jako model Wszechświata, przy czym reguły Conwaya odpowiadałyby prawom fizyki, a upływ czasu następuje skokowo. Wszystko, co wydarza się w tym świecie, ma charakter ściśle deterministyczny: każdy kolejny układ jest całkowicie wyznaczony przez układ go poprzedzający. Układ wyjściowy determinuje zatem wszystkie przyszłe układy, ad infinitum. Pod tym względem świat ŻYCIA odpowiada newtonowskiej wizji Wszechświata jako mechanizmu zegarowego. Faktycznie, mechanistyczny charakter gier tego typu zyskał im miano “automatów komórkowych”, przy czym przez komórki rozumie się tutaj odpowiednio pola lub punkty na ekranie.
Wśród nieskończonej różnorodności form występujących w ŻYCIU są takie, które poruszając się zachowują swoją postać. Należą do nich tak zwane “szybowce”, złożone z pięciu punktów, i większe obiekty, zwane “statkami kosmicznymi”. W wyniku zderzeń tych form powstają najróżniejsze struktury i formy odpadowe, w zależności od sytuacji. Szybowce mogą być wytwarzane przez “działo”, wyrzucające je kolejno jako strumień w regularnych odstępach czasu. Co ciekawe, działo może powstać w wyniku zderzenia trzynastu szybowców, tak więc szybowce rodzą szybowce. Innymi często spotykanymi formami są “bloki”, stacjonarne kwadraty złożone z czterech punktów, niszczące obiekty, które się z nimi zderzają. Dalej mamy bardziej destrukcyjne “pożeracze”, które rozbijają i pochłaniają przechodzące w pobliżu obiekty, a następnie odbudowują ewentualne ubytki, jakie spowodowało w nich takie spotkanie. Conway i jego współpracownicy odkryli, że w ŻYCIU występują niewiarygodnie bogate i złożone struktury, co niekiedy było sprawą przypadku, a niekiedy wymagało sporych umiejętności i dużej dozy intuicji. Niektóre z bardzo interesujących układów wymagają niezwykle dokładnego zgrania olbrzymiej liczby złożonych obiektów i pojawiają się dopiero po wielu tysiącach kroków. Śledzenie tych bardziej zaawansowanych struktur ŻYCIA wymaga już komputerów o bardzo dużej mocy obliczeniowej.
Świat ŻYCIA stanowi oczywiście jedynie blade odbicie rzeczywistości, a podobieństwo jego mieszkańców do istot żywych jest dość powierzchowne. Niemniej jednak struktura logiczna ŻYCIA kryje w sobie zdolność generowania struktur o dowolnym stopniu złożoności, w zasadzie nawet tak złożonych jak organizmy biologiczne. W istocie zainteresowanie von Neumanna automatami komórkowymi wzięło swój początek z jego dążenia do rozwikłania tajemnicy życia. Fascynowało go, czy można w ogóle zbudować maszynę, która byłaby zdolna do samoreprodukcji, a jeśli tak, to jaka powinna być jej struktura i zasada działania. Gdyby taka maszyna była możliwa, to bylibyśmy w stanie pojąć zasady, dzięki którym organizmy żywe mogą się samoreprodukować.
Rozumowanie von Neumanna opierało się na pojęciu “uniwersalnego konstruktora”, analogicznego do pojęcia uniwersalnego komputera. Miałaby to być maszyna, którą można by zaprogramować tak, by produkowała każdą zadaną rzecz, podobnie jak maszynę Turinga można zaprogramować tak, by wykonywała dowolną obliczalną operację matematyczną. Von Neumann rozważał, co będzie, gdy zaprogramuje się uniwersalnego konstruktora tak, aby produkował samego siebie. Oczywiście, aby można było mówić o pełnej samoreprodukcji, maszyna powinna nie tylko wykonywać kopię samej siebie, ale i kopię programu prowadzącego do wykonania takiej kopii; w przeciwnym przypadku maszyna pochodna byłaby “bezpłodna”. Pojawia się tu wyraźne niebezpieczeństwo postępowania w nieskończoność, lecz von Neumann wpadł na sprytny sposób obejścia tego problemu: uniwersalny konstruktor powinien być wyposażony w specjalny mechanizm regulujący. Gdy konstruktor wyprodukuje już kopię samego siebie (zawierającą oczywiście także kopię mechanizmu regulującego), mechanizm ten wyłącza program i pozwala go traktować jako jeszcze jedną część urządzenia. Maszyna von Neumanna wykonuje zatem także kopię programu i umieszcza go w nowej maszynie, która w ten sposób nie różni się już niczym od maszyny macierzystej i może uruchomić swój własny program reprodukcji.
Początkowo von Neumann zamierzał zbudować prawdziwą maszynę o takich własnościach, “z drucików i śrubek”, lecz Ulam przekonał go, że lepiej będzie zbadać teoretycznie zachowanie automatów komórkowych pod względem występowania struktur samoreprodukujących. W ten sposób maszyna von Neumanna miałaby być jedynie układem punktów świetlnych na ekranie czy też pionków na szachownicy, lecz nic to nie szkodzi, gdyż ważna jest jedynie logiczna i systemowa struktura takiej maszyny, a nie konkretny sposób jej realizacji. Po żmudnych badaniach von Neumannowi i jego współpracownikom udało się wykazać, że zdolność samoreprodukowania się faktycznie pojawia się w układach powyżej pewnego stopnia złożoności; wymaga to jednak rozważania automatów komórkowych o regułach o wiele bardziej skomplikowanych niż w przypadku ŻYCIA. Zamiast przypisywania każdej komórce zaledwie jednego z dwóch stanów - pusta lub pełna - automat von Neumanna dopuszczał co najmniej dwadzieścia jeden możliwości. Rzeczywiste zbudowanie automatu samoreprodukującego było zadaniem beznadziejnym - uniwersalny konstruktor wraz z mechanizmem regulującym i pamięcią musiałby zajmować co najmniej dwieście tysięcy komórek - lecz ważne było to, że oto w zasadzie czysto mechaniczny system zdolny jest do samoreprodukcji. W jakiś czas po tych matematycznych badaniach von Neumanna nastąpił rozkwit biologii molekularnej: odkrycie struktury DNA w kształcie podwójnej helisy, odczytanie kodu genetycznego i wyjaśnienie podstawowych zasad reprodukcji organizmów na poziomie molekularnym. Wkrótce stało się jasne, że przyroda stosuje się właśnie do logicznych zasad odkrytych przez von Neumanna. Biolodzy istotnie znaleźli wewnątrz komórek organicznych rzeczywiste molekuły będące odpowiednikami elementów maszyny von Neumanna.
Conwayowi udało się również pokazać, że w grze ŻYCIE również mogą wystąpić struktury samoreprodukujące się. Względnie prosty schemat produkowania szybowców przez szybowce nie podpada jednak pod tę kategorię, gdyż nie zachodzi w nim powielanie uniwersalnego programu samoreprodukcji. Potrzeba czegoś o wiele bardziej skomplikowanego. Conway rozważył najpierw zagadnienie pokrewne: czy w świecie ŻYCIA możliwe jest zbudowanie maszyny Turinga (tj. uniwersalnego komputera)? Działanie każdego komputera uniwersalnego opiera się na logicznych operacjach koniunkcji (“I”), alternatywy (“LUB”) i negacji (“NIE”). W zwykłym elektronicznym komputerze operacje te są realizowane poprzez proste układy przełącznikowe, zwane bramkami logicznymi. Na przykład bramka “I” ma dwa przewody wejściowe i jeden przewód wyjściowy. Jeżeli w obu przewodach wejściowych pojawi się impuls elektryczny, to generowany jest impuls w przewodzie wyjściowym. Gdy brak sygnału na wejściu lub jest on podany tylko w jednym przewodzie, na wyjściu nie otrzymujemy żadnego impulsu. Komputer składa się z olbrzymiej liczby połączonych ze sobą elementów tego typu. Obliczenia wykonywane są poprzez przedstawienie liczb w postaci dwójkowej, jako ciągi jedynek i zer. Fizycznie jedynka odpowiada impulsowi prądu, a zero brakowi impulsu. Nie jest jednak wcale konieczne, aby obliczenia realizowane były poprzez układy obwodów elektrycznych. Każde urządzenie pozwalające na wykonanie tych samych operacji logicznych będzie również odpowiednie do tego celu. Mogą to być równie dobrze kółka zębate (jak w Maszynie Analitycznej Charlesa Babbage'a), wiązki światła laserowego czy też świetlne punkty na ekranie komputera.
Po wielu eksperymentach i rozważaniach teoretycznych Conway był w stanie wykazać, że odpowiednie układy logiczne mogą być rzeczywiście zbudowane w świecie ŻYCIA. Zasadnicza idea polegała na wykorzystaniu ciągów szybowców do reprezentowania liczb w postaci dwójkowej. Na przykład, liczba 1011010010 może być przedstawiona poprzez zastąpienie każdej z jedynek szybowcem i pozostawienie miejsc wolnych zamiast zer. Bramki logiczne można wtedy zrealizować jako strumienie szybowców krzyżujące się w określony sposób. Tak zatem bramka “I” będzie generowała szybowiec tylko wtedy, gdy dojdą do niej równocześnie szybowce z obu strumieni wejściowych (co odpowiada operacji l + l -» 1). Aby to wykonać i zapewnić wystarczającą ilość pamięci dla przechowania informacji, Conwayowi potrzeba było tylko czterech rodzajów występujących w ŻYCIU struktur: szybowców, dział, pożeraczy i bloków.
Potrzeba było dużej dozy sprytnych chwytów, aby odpowiednio rozmieścić wszystkie elementy i zgrać ich ewolucję. Tak czy owak okazało się, że wszystkie niezbędne elementy logiczne można w ten sposób utworzyć, i świetlne kropki w świecie ŻYCIA całkiem dobrze, choć może nieco zbyt wolno, są w stanie spełniać rolę uniwersalnego komputera. Rezultat ten ma fascynujące implikacje. Występują tu dwa poziomy. Po pierwsze, mamy komputer z odpowiednim programem realizujący na swym ekranie grę w ŻYCIE, po drugie struktury ŻYCIA same z kolei funkcjonują na wyższym poziomie jako komputer. Teoretycznie hierarchia ta może obejmować dowolnie wiele poziomów: komputer ŻYCIA można zaprogramować tak, by sam grał w ŻYCIE produkując kolejny poziom struktur... Niedawno uczestniczyłem w konferencji poświęconej badaniom układów złożonych, na której dwaj informatycy z Massachusetts Institute of Technology, Tom Toffoli i Norman Margolus, zademonstrowali działanie logicznej bramki “I” w postaci struktury na ekranie komputera. Pokazowi przyglądał się również Charles Bennett z IBM, ekspert w dziedzinie matematycznych podstaw informatyki i teorii układów złożonych. Zwróciłem Bennettowi uwagę, że właśnie widzimy elektroniczny komputer symulujący komórkowy automat symulujący komputer. Bennett odpowiedział, że ta hierarchia poziomów obliczeniowych przywodzi mu na myśl rosyjskie lalki-matrioszki.
Fakt, że za pomocą struktur ŻYCIA możemy zrealizować koncepcję uniwersalnego komputera, oznacza, iż wszystkie wnioski z analiz Turinga mogą być przetransponowane w świat ŻYCIA. Na przykład będziemy tu również mieli do czynienia z operacjami nieobliczalnymi. Pamiętajmy, że nie ma systematycznego sposobu na sprawdzenie z góry, czy dany problem jest możliwy do rozstrzygnięcia przez maszynę Turinga; końcowego stanu maszyny Turinga nie da się poznać wcześniej. A zatem nie jesteśmy również w stanie poznać, co stanie się z odpowiadającymi jej strukturami ŻYCIA, pomimo iż struktury te powstają w sposób ściśle deterministyczny. Sądzę, że jest wniosek niezwykle doniosły, mający daleko idące konsekwencje dla całej rzeczywistości. Okazuje się bowiem, że w świecie ŻYCIA zawarty jest element przypadkowości czy też niepewności (nie bardzo śmiem nazwać to “wolną wolą”), zupełnie jak w świecie rzeczywistym, i wynika on z ograniczeń narzucanych przez samą logikę, o ile tylko rozpatrywane układy osiągną wystarczający stopień złożoności, by możliwa była samoreferencja.
Samoreferencja i samoreprodukowanie się stanowią pojęcia ściśle ze sobą związane; skoro wiec udało się udowodnić istnienie uniwersalnych komputerów na bazie struktur ŻYCIA, otworzyła się przed Conwayem możliwość wykazania istnienia również uniwersalnych konstruktorów, a zatem w pełni samoreprodukujących się struktur ŻYCIA. I w tym przypadku nie chodziło o znalezienie konkretnej struktury tego typu, gdyż byłaby ona naprawdę ogromna. Niemniej Conway rozumował, że w nieskończonym świecie ŻYCIA z punktami rozmieszczonymi w sposób przypadkowy struktury samore-produkujące się musiałyby gdzieś powstać na mocy czystego przypadku. Jakkolwiek prawdopodobieństwo samoistnego utworzenia tak złożonych i ściśle dobranych struktur jest astronomicznie małe, w naprawdę nieskończonym świecie wszystko, co w ogóle może się zdarzyć, na pewno się wydarzy. Można nawet sobie wyobrazić coś na kształt ewolucji typu darwinowskiego, prowadzącej do wyłonienia struktur samoreprodukujących się o jeszcze wyższym stopniu komplikacji.
Niektórzy entuzjaści ŻYCIA utrzymują, że takie samoreprodukujące się struktury byłyby naprawdę żywe, ponieważ posiadałyby wszystkie atrybuty, jakie przysługują organizmom żywym w naszym Wszechświecie. Jeśli życie zdefiniujemy jako energię zorganizowaną w struktury o odpowiednio wysokim stopniu złożoności, będą oni mieli rację. Faktem jest, że istnieje obecnie nawet odrębna dyscyplina naukowa, “studia nad sztucznym życiem”, zajmująca się generowanymi komputerowo strukturami obdarzonymi zdolnością samoorganizacji i przystosowywania się. Stawia ona sobie za cel odróżnienie istoty tego, co to znaczy “być żywym”, od przypadkowych elementów rzeczywistych istot żyjących. Na jednej z ostatnich konferencji na temat sztucznego życia informatyk Chris Langdon wyjaśniał: “Jesteśmy przekonani, że uda nam się urzeczywistnić na komputerach światy wystarczająco złożone, by możliwe były w nich procesy, które w odniesieniu do danego świata należałoby uznać za formy życia. Ale w takim przypadku mielibyśmy do czynienia z życiem na zupełnie odmiennym podłożu. (...) Rodzi się zatrważająca możliwość, że to właśnie my stworzymy następną generację istot żywych we Wszechświecie”6. Poundstone zgadza się z tym poglądem: “Jeżeli za kryterium życia uznamy nietrywialne samoreprodukowanie się, to samoreplikujące się struktury ŻYCIA należałoby uważać za istoty żywe. Nie znaczyłoby to bynajmniej, że symulują one zachowanie istot żywych, jak w przypadku obrazu telewizyjnego, lecz że są naprawdę żywe, gdyż obdarzone są zdolnością kodowania i przetwarzania informacji genetycznej. Przy takim rozumieniu życia nawet najprostsze samoreprodukujące się struktury ŻYCIA są istotami żywymi, i to w większym stopniu niż wirusy”7.
John Conway posuwa się jeszcze dalej, utrzymując, że bardziej zaawansowane struktury ŻYCIA mogłyby być obdarzone świadomością: “Jest prawdopodobne, o ile tylko, początkowo chaotyczna, populacja ŻYCIA będzie wystarczająco duża, że po odpowiednio długim czasie powstaną samoreplikujące się istoty inteligentne, które osiądą w jakimś miejscu kosmosu”8. Idee tego typu wzbudzają jednak naturalny opór. W końcu świat ŻYCIA to tylko komputerowa symulacja. Przecież nie jest on światem prawdziwym. Struktury poruszające się po ekranie zaledwie imitują istoty żywe. Ich zachowanie nie ma charakteru spontanicznego; to tylko realizacja komputerowego programu do gry w ŻYCIE. Jednakowoż, odpowiadają na to entuzjaści ŻYCIA, zachowanie się struktur świata fizycznego również jest “zaprogramowane” w postaci praw fizyki i zadanych warunków początkowych. Chaotyczny rozkład punktów, z którego może się zrodzić samoreprodukująca się struktura ŻYCIA, odpowiada bezpośrednio równie chaotycznej pierwotnej zupie molekularnej, z której miały powstać pierwsze organizmy żywe na Ziemi.
A więc, w jaki sposób możliwe jest odróżnienie świata rzeczywistego od jego imitacji? Będzie to tematem następnego rozdziału.
Rozdział piąty
Sny fascynują każdego z nas. Ludzie, którzy tak jak ja mają sny bardzo barwne, często doświadczają sytuacji, że są “uwięzieni” we śnie, który wydaje się im rzeczywistością. Ogromne uczucie ulgi, jakie towarzyszy potem przebudzeniu, jest naprawdę niekłamane. Jednak po wielekroć zastanawiałem się, dlaczego, zważywszy, że sen jest jednak również pewną rzeczywistością, czynimy tak ostre rozróżnienie między tym, czego doświadczamy śpiąc i po przebudzeniu. Czy możemy być absolutnie pewni, że “świat snu” jest zaledwie ułudą, a “świat jawy” czymś realnym? A może jest właśnie na odwrót, albo też obydwa są równie realne, albo żaden z nich? Jakie kryteria realności należałoby zastosować, aby tę kwestię rozstrzygnąć?
Zazwyczaj w takim przypadku słyszymy odpowiedź, że sny stanowią doświadczenie jednostkowe, podczas gdy doświadczenie świata, który jawi się nam po przebudzeniu, jest spójne z doświadczeniem innych ludzi. Ale niewiele nam to pomoże. We śnie wiele razy spotykałem różne osoby, które zapewniały mnie, że są jak najbardziej rzeczywiste i że doświadczają tego samego co ja. Na jawie muszę wierzyć innym ludziom na słowo, że świat, jaki oni widzą, jest podobny do mojego, ponieważ nie jestem w stanie uczestniczyć bezpośrednio w ich doświadczeniu. W jaki zatem sposób mam poznać, że twierdzenia te są prawdziwe, a nie wygłaszane przez postać ze snu, albo też odpowiednio skomplikowany, lecz pozbawiony świadomości automat? Nie na wiele zda się tu wskazywanie faktu, że sny są na ogół niespójne, fragmentaryczne i absurdalne. Tak zwany świat realny często też nam się taki wydaje po wypiciu kilku kieliszków wina lub też po przebudzeniu z narkozy.
Powyższe uwagi dotyczące snów miały przygotować czytelnika do rozważań nad rzeczywistością symulowaną za pomocą komputerów. W poprzednim rozdziale dowodziłem, że komputer jest w stanie symulować procesy fizyczne zachodzące w świecie rzeczywistym, potencjalnie nawet tak złożone, z jakimi mamy do czynienia w biologii. Z drugiej strony, widzieliśmy, że w gruncie rzeczy komputer jest niczym innym jak procedurą przekształcania jednego ciągu symboli na inny według pewnych zadanych reguł. Zazwyczaj symbolami tymi są liczby, a konkretnie ciągi jedynek i zer, które stanowią formę liczb najbardziej nadającą się do przetwarzania przez maszyny. Każda jedynka lub zero odpowiada jednemu bitowi informacji, tak wiec komputer jest urządzeniem, które pobiera ciąg bitów na wejściu i generuje inny ciąg bitów na wyjściu. W jaki sposób ten pozornie trywialny zespół abstrakcyjnych operacji miałby być w stanie uchwycić istotę fizycznego świata?
Porównajmy działanie komputera z jakimś układem fizycznym występującym w przyrodzie, na przykład planetą krążącą wokół Słońca. Stan tego układu w dowolnej chwili może być określony przez podanie położenia i prędkości planety. To są dane wejściowe. Odpowiednie liczby mogą być podane w postaci dwójkowej, jako ciąg jedynek i zer. W jakiś czas później planeta będzie miała inne położenie i prędkość, które mogą być wyrażone jako odpowiedni ciąg bitów. To są dane wyjściowe. Planecie udało się przekształcić jeden ciąg bitów w inny i dlatego w pewnym sensie możemy ją uważać za komputer. “Program”, który posłużył do tej konwersji, stanowią właściwe prawa fizyki (w tym przypadku prawa dynamiki i powszechnego ciążenia Newtona).
Naukowcy w coraz większym stopniu zdają sobie sprawę z podobieństw, jakie zachodzą pomiędzy procesami fizycznymi a komputerami, i często uznają za korzystne myślenie o świecie w kategoriach komputerowych. “Prawa nauki pełnią obecnie rolę algorytmów - twierdzi Stephen Wolfram z Institute for Advanced Study w Princeton. - Układy fizyczne uważa się za systemy obliczeniowe, przetwarzające informację tak, jak czynią to komputery”. Weźmy na przykład gaz. Stan gazu można określić przez podanie położenia i prędkości wszystkich jego cząsteczek w określonej chwili (z określoną dokładnością). Stanowiłoby to ogromnie długi ciąg bitów. Stan gazu w jakiejś późniejszej chwili będzie wyznaczony przez inny równie długi ciąg bitów. A zatem w wyniku dynamicznej ewolucji gazu nastąpiło przekształcenie danych wejściowych w wyjściowe.
Związek pomiędzy procesami w przyrodzie a operacjami obliczeniowymi jest jeszcze bardziej umocniony przez teorię kwantów, która ujawnia, że wiele wielkości fizycznych, dotąd uważanych za ciągłe, ma naprawdę charakter dyskretny. Tak więc atomy odznaczają się oddzielnymi poziomami energii. Gdy atom zmienia swoją energię, następuje przejście pomiędzy poziomami. Jeśli każdemu poziomowi przypiszemy jakąś liczbę, takie przejście można traktować jako przekształcenie jednej liczby w drugą.
W ten sposób dotarliśmy do samej istoty przydatności komputerów we współczesnej nauce. Ponieważ komputery potrafią symulować się wzajemnie, elektroniczny komputer jest w stanie symulować każdy układ, który sam zachowuje się jak komputer. Stanowi to podstawę komputerowego modelowania świata realnego. Planety, naczynia z gazem i różne inne rzeczy zachowują się jak komputery, a zatem można je modelować. Lecz czy zachowanie każdego fizycznego układu da się symulować w ten sposób? Wolfram uważa, że tak: “Oczekuje się, że komputery są równie potężne pod względem swej mocy obliczeniowej, co jakikolwiek fizycznie możliwy do zrealizowania układ, a zatem są one w stanie symulować dowolny układ fizyczny”. Jeśli jest to prawdą, wynika stąd, że za pomocą odpowiednio złożonego systemu obliczeniowego dałoby się w zasadzie symulować zachowanie całego fizycznego Wszechświata.
W poprzednim rozdziale wyjaśniałem, w jaki sposób automaty komórkowe, takie jak gra ŻYCIE, są w stanie generować miniaturowe światy, w których również możliwe są obliczenia. Nasuwa się nieodparty wniosek, iż świat ŻYCIA posiada wszystkie cechy świata rzeczywistego. “Automaty komórkowe, które potrafią działać jako uniwersalny komputer, są w stanie imitować działanie każdego możliwego komputera” - wyjaśnia Wolfram. I dalej: “skoro każdy proces fizyczny może być przedstawiony jako proces obliczeniowy, mogą one również imitować zachowanie każdego możliwego układu fizycznego”. Czyż więc miniaturowy świat automatu komórkowego, taki jak świat ŻYCIA, można, przynajmniej w zasadzie, uczynić tak “rzeczywistym”, że mógłby stanowić wierną replikę świata rzeczywistego? Wygląda na to, że tak. Ale to rodzi następne kłopotliwe pytanie. Jeśli wszystkie układy fizyczne można traktować jako komputery, natomiast komputery są w stanie doskonale imitować wszelkie układy fizyczne, to czymże w końcu różni się świat rzeczywisty od symulacji?
Nasuwa się odpowiedź, że symulacje są zaledwie niedokładnymi przybliżeniami świata rzeczywistego. Kiedy na przykład dokonuje się obliczenia orbity planety, dokładność danych wejściowych jest ograniczona przez błędy obserwacji. Ponadto realistyczne programy komputerowe w znacznym stopniu upraszczają opisywaną sytuację przez pominięcie zakłóceń pochodzących od mniejszych ciał kosmicznych i tym podobnych. Niemniej jednak można sobie z pewnością wyobrazić, że programy zostają coraz bardziej ulepszane, a dane zbierane są z coraz większą dokładnością, aż symulacja staje się praktycznie nieodróżnialna od rzeczywistości.
Ale czy symulacja nie musi się załamać na pewnym poziomie dokładności? Przez długi czas uważano, że na pytanie to należy odpowiedzieć twierdząco, wskutek tego, co uważano za fundamentalną różnicę pomiędzy realnym światem fizycznym a jego cyfrową symulacją. Różnica ta wiąże się z kwestią odwracalności w czasie. Jak wyjaśniałem już w rozdziale l, prawa fizyki są odwracalne w tym sensie, że pozostają niezmienione, gdy zamienimy miejscami przyszłość i przeszłość, tj. nie mają wbudowanego wyróżnionego kierunku upływu czasu. Otóż wszystkie maszyny cyfrowe podczas swego działania wydzielają energię. Ta stracona energia wydziela się wewnątrz urządzenia w postaci ciepła i trzeba ją odprowadzać. Gromadzenie się ciepła nakłada istotne praktyczne ograniczenia na możliwości obliczeniowe komputerów, toteż wiele wysiłków badawczych poświęca się problemowi jego minimalizacji. Problem ten dotyczy już elementarnych obwodów logicznych komputera. Za każdym razem, gdy następuje przełączenie, wydziela się dodatkowa ilość ciepła. Znamy to dobrze z życia codziennego. Trzask, który słyszymy przy zapalaniu światła w pokoju, oznacza, że część energii, jaką zużyliśmy na uruchomienie przełącznika, rozeszła się w postaci fal dźwiękowych; pozostała część przekształca się na ciepło wewnątrz przełącznika. Ten wydatek energii jest celowo założony przy projektowaniu przełącznika, aby oba stany, w jakich może się on znajdować - włączony i wyłączony - odznaczały się stabilnością. Gdyby przełączanie stanów nie wiązało się z wydatkowaniem energii, groziłoby to tym, że przełącznik będzie przechodził samoczynnie ze stanu do stanu.
Rozproszenie energii przy przełączaniu jest procesem nieodwracalnym. Ciepło rozchodzi się w otoczeniu i jest bezpowrotnie stracone. Nie jest możliwe skupienie w jakiś sposób rozproszonej energii cieplnej i wykorzystanie jej do jakichkolwiek użytecznych celów bez dalszej utraty równie wielkiej ilości energii w tym procesie. Jest to przykład działania drugiego prawa termodynamiki, które zabrania takiego “darmowego” spożytkowywania rozproszonej energii cieplnej. Niektórzy informatycy zwrócili jednak uwagę na to, że drugie prawo termodynamiki jest prawem statystycznym obowiązującym w układach o wielu stopniach swobody. W istocie same pojęcia ciepła i entropii związane są z chaotycznym ruchem cząsteczek, toteż mają sens jedynie dla dużej liczby cząsteczek. Gdyby komputery udało się zminiaturyzować do tego stopnia, że elementarne obwody logiczne składałyby się z kilku cząsteczek, czyż nie dałoby się całkowicie wyeliminować wydzielania ciepła?
Jednakże wydawało się, że istnieją pewne przeszkody natury ogólnej nie pozwalające na zrealizowanie tej idei. Weźmy na przykład pod uwagę opisaną w poprzednim rozdziale bramkę “I”. Na wejściu mamy dwa kanały (przewody), na wyjściu tylko jeden. Cały cel operacji koniunkcji sprowadza się do zamiany dwóch sygnałów na wejściu w jeden sygnał na wyjściu. Od razu widać, że nie może to być proces odwracamy, gdyż nie ma możliwości odróżnienia, czy brak impulsu na wyjściu spowodowany był brakiem impulsu w jednym przewodzie na wejściu, w drugim czy też w obydwu. To zasadnicze ograniczenie stanowi odzwierciedlenie oczywistego faktu, że w zwykłych działaniach arytmetycznych możemy podać odpowiedzi znając pytanie, lecz nie na odwrót: w ogólnym przypadku nie jest możliwe wywnioskowanie pytań ze znanych odpowiedzi. Jeżeli ktoś nam powie, że wynikiem pewnego sumowania jest liczba 4, składnikami tej sumy mogły być 2 + 2, 3 + l lub 4 + 0. Mogłoby się zatem wydawać, że żaden komputer nie może być puszczony do tyłu z przyczyn czysto logicznych.
W rozumowaniu tym jest jednak pewna luka, którą niedawno odkryli Rolf Landauer i Charles Bennett z IBM. Przyjrzeli się oni bliżej nieodwracalności jako rzekomo nieodłącznej własności procesu obliczeniowego i stwierdzili, że bierze się ona z odrzucania informacji. Obliczając sumę 1+2 + 2, można najpierw dodać 2 i 2 otrzymując 4, a następnie dodać 4 do l, aby otrzymać wynik końcowy 5. W tym ciągu operacji ma miejsce etap pośredni,z którego pozostaje tylko liczba 4: występujące początkowo 2 + 2 zostały odrzucone jako niepotrzebne do pozostałych obliczeń. Ale informacja nie musi być wcale odrzucana; możemy ją zachować. Oczywiście potrzebna jest wtedy większa pojemność pamięci, aby pomieścić tę dodatkową informację, jednak pozwoli to nam “odwracać” każdy proces obliczeniowy na dowolnym etapie i przechodzić od odpowiedzi do pytań.
Jednak czy możliwe jest zbudowanie odpowiednich obwodów przełączających, realizujących tę odwracalną logikę? Ed Fredkin z MIT odkrył, że tak. Przełącznik Fredkina miał dwa kanały wejściowe i dwa kanały wyjściowe oraz dodatkowy “kanał kontrolny”. Dokonuje on operacji logicznych w normalny sposób, ale zachowując pełną informację wejściową na wyjściu. Proces obliczeniowy może być przeprowadzony w odwracalny sposób nawet na maszynie z dyssypacją, tj. takiej, w której nieuchronnie część energii ulega rozproszeniu. (Przy jakiejkolwiek praktycznej realizacji odwracalnego procesu obliczeniowego nie da się wyeliminować bezpowrotnego rozpraszania ciepła). Niemniej na poziomie teoretycznym można rozważać wyidealizowany układ, w którym zarówno procesy fizyczne, jak i obliczeniowe, przebiegałyby w sposób odwracalny. Fredkin podał przykład wyimaginowanego zespołu sprężystych kulek odbijających się w ściśle kontrolowany sposób od nieruchomych przegródek. Układ taki zdolny byłby do wykonywania odwracalnych operacji logicznych. Ostatnio przedstawiono również inne koncepcje komputerów odwracalnych.
Interesujące zagadnienie pojawia się przy rozważeniu statusu automatów komórkowych jako komputerów. Komputery generowane przez grę ŻYCIE nie są odwracalne, gdyż reguły gry, które doprowadziły do ich powstania, nie są odwracalne (następstwa pojawiających się struktur me można odwrócić). Jednakże Norman Margolus skonstruował automat komórkowy innego typu, który jest w stanie modelować odwracalny układ Fredkina z kulkami i przegródkami. Na poziomie tego automatu jest to rzeczywiście odwracalny komputer, zarówno pod względem obliczeniowym, jak i “fizycznym” (jakkolwiek nadal mamy do czynienia z nieodwracalną dyssypacją energii na poziomie elektronicznego komputera, na którym zrealizowany został ten automat komórkowy).
Fakt, że proces obliczeniowy może być przeprowadzony w sposób odwracalny, eliminuje zasadniczą różnicę pomiędzy symulacją komputerową a rzeczywistym procesem fizycznym, który jest przedmiotem tej symulacji. W istocie można odwrócić to porównanie i zapytać, w jakim stopniu rzeczywiste procesy fizyczne są procesami obliczeniowymi. Jeżeli proces obliczeniowy nie wymaga nieodwracalnych przełączników, czy zwykły ruch ciał fizycznych może być uznany za część składową takiego procesu? Kilka lat temu udowodniono, że pewne układy nieodwracalne, na przykład maszyny Turinga i automaty komórkowe oparte na regułach nieodwracalnych, jak ŻYCIE, można zaprogramować, aby wykonywały każdy zadany cyfrowy proces obliczeniowy, poprzez odpowiedni dobór ich stanu początkowego. Własność ta zwana jest “uniwersalnością obliczeniową”. W przypadku ŻYCIA oznacza to, że można dobrać taką strukturę wyjściową, która będzie umieszczała punkt w danym położeniu, jeżeli, na przykład, pewna liczba jest liczbą pierwszą. Inna struktura będzie to czynić, jeżeli pewne równanie posiada rozwiązanie, i tak dalej. W ten sposób ŻYCIE może być użyte do badania nierozwiązanych problemów matematycznych, takich jak Wielkie Twierdzenie Fermata.
Zupełnie niedawno wykazano, że pewne odwracalne układy deterministyczne, takie jak komputer Fredkina z kulkami i przegródkami, posiadają również własność uniwersalności obliczeniowej, oraz że przysługuje ona nawet niektórym układom niedeterministycznym. Wydaje się zatem, że uniwersalność obliczeniowa jest dosyć często spotykaną własnością układów fizycznych. Jeśli jakiś układ posiada już tę własność, to na mocy definicji mogą w nim zachodzić procesy o dowolnym dużym stopniu złożoności, jakie tylko mogą być symulowane za pomocą maszyn cyfrowych. Można pokazać, że nawet układ tak prosty, jak układ trzech ciał poruszających się w swym polu grawitacyjnym (np. dwie planety okrążające gwiazdę), obdarzony jest uniwersalnością obliczeniową, a zatem odpowiednio dobierając położenia i prędkości tych planet w pewnej chwili, można sprawić, że układ ten będzie obliczać na przykład kolejne miejsca dziesiętne liczby n, trylionową liczbę pierwszą, czy też wynik kolizji miliarda szybowców w świecie ŻYCIA. Być może ten pozornie trywialny układ trzech elementów byłby w stanie symulować nawet zachowanie całego Wszechświata, jeśli, jak utrzymują niektórzy entuzjaści, Wszechświat da się modelować za pomocą maszyny cyfrowej.
Zwykliśmy myśleć o komputerach jako o bardzo szczególnych układach, które wymagają dużego wkładu myśli technicznej przy ich konstruowaniu. Nie da się zaprzeczyć, że elektroniczne maszyny cyfrowe są skomplikowane, ale jest to związane z ich wszechstronnością. Znaczna część niezbędnego programowania jest już zapewniona przez samą konstrukcję komputera i nie trzeba go za każdym razem powtarzać przez odpowiedni dobór warunków początkowych. Mimo to zdolność wykonywania obliczeń jest czymś, co, jak się wydaje, przysługuje wielu układom fizycznym, w tym niektórym nawet bardzo prostym. Rodzi to pytanie, czy jest możliwe przeprowadzanie obliczeń za pomocą układów pojedynczych atomów czy wręcz cząstek elementarnych. Kwestią tą zajmował się fizyk Richard Feynman, który wykazał, że zgodnie z prawami mechaniki kwantowej istnieje realna możliwość działania odwracalnego komputera na poziomie cząstek elementarnych. Czy zatem możemy uważać, że niezliczone procesy kwantowe zachodzące w przyrodzie przez cały czas - wewnątrz nas samych, we wnętrzu gwiazd, w gazie międzygwiezdnym, w odległych galaktykach - stanowią część jakiegoś gigantycznego kosmicznego procesu obliczeniowego? Gdyby tak było, procesy fizyczne i obliczeniowe byłyby tym samym, i mielibyśmy prawo wyciągnąć zdumiewający wniosek, że Wszechświat symuluje sam siebie.
Czy Wszechświat jest komputerem?
Osobą, która z naciskiem odpowiada twierdząco na to pytanie, jest Ed Fredkin. Uznając świat fizyczny za gigantyczny automat komórkowy, uważa on, że badania nad automatami komórkowymi wykazują, iż jest możliwe symulowanie realistycznych procesów fizycznych, w tym nawet tak wyrafinowanych jak relatywistyczne. Przekonanie to podziela też współpracownik Fredkina Tom Toffoli, który kiedyś w żartach wyraził się, że Wszechświat jest wprawdzie komputerem, wszakże problem polega na tym, iż ktoś inny się nim posługuje. A my, no cóż, jesteśmy zaledwie pchłami w tej wielkiej kosmicznej maszynie! “Pozostaje nam tylko - twierdzi Toffoli - »załapać się« na ten olbrzymi proces obliczeniowy, próbując stwierdzić, czy jakieś jego elementy nie podążają mniej więcej w kierunku, który by nam odpowiadał”.
Fredkinowi i Toffolemu nie brakuje wspólników w tych zdumiewających, można by nawet rzec dziwacznych, poglądach. Fizyk Frank Tipler również opowiada się silnie za ideą utożsamienia Wszechświata ze swoją własną symulacją. Co więcej, symulacja ta wcale nie musi być przeprowadzana na prawdziwym komputerze, utrzymuje Tipler. Ostatecznie program komputerowy to tylko przekształcenie (czy też odwzorowanie) jednego zbioru abstrakcyjnych symboli w inny zgodnie z pewną regułą podającą zależność między wejściem a wyjściem. Fizyczny komputer stanowi konkretną reprezentacje tego odwzorowania, podobnie jak rzymska liczba III jest reprezentacją abstrakcyjnej liczby 3. Samo istnienie takiego odwzorowania - nawet o charakterze abstrakcyjnym, w obszarze czystej matematyki - jest dla Tiplera wystarczające.
Należy zaznaczyć, że nasze współczesne teorie fizyczne nie przypominają na ogół algorytmów komputerowych, gdyż wielkości w nich występujące zmieniają się w sposób ciągły. W szczególności za ciągłe uznawane są przestrzeń i czas. “Możliwość, aby istniała wierna symulacja, aby komputer robił to samo, co przyroda - wyjaśnia Richard Feynman - wymaga, by wszystko, co zachodzi w skończonym obszarze przestrzeni i czasu, dało się dokładnie przeanalizować za pomocą skończonej liczby operacji logicznych. Obecne teorie fizyczne nie spełniają tego warunku. Przestrzeń traktowana jest w nich jako nieskończenie podzielna”5. Z drugiej strony, ciągłość zarówno przestrzeni, jak i czasu, stanowią tylko postulaty dotyczące świata. Nie można ich dowieść, bo nigdy nie będziemy pewni, czy w jakiejś jeszcze mniejszej skali, daleko poniżej możliwości obserwacyjnych, przestrzeń i czas nie mają jednak charakteru dyskretnego. Co to miałoby znaczyć? Po pierwsze, znaczyłoby, że czas upływa nie jednostajnie, lecz małymi skokami. Sytuacja przypominałaby film wyświetlany w kinie, który posuwa się do przodu zawsze o jedną klatkę. Film wydaje się nam czymś ciągłym, ponieważ nasze zmysły nie rejestrują krótkich odstępów czasu pomiędzy klatkami. Podobnie w fizyce, aktualna technika eksperymentalna pozwala na pomiar przedziałów czasu do 1028 sekundy; przy tych wartościach nie obserwuje się żadnych skoków. Jednakże niezależnie od tego, jak krótkie czasy będziemy w stanie mierzyć, zawsze trzeba liczyć się z możliwością, że te małe przeskoki czasu są jeszcze krótsze. To samo odnosi się do postulatu ciągłości przestrzeni, a zatem ta przeszkoda w dokładnym symulowaniu rzeczywistości być może nie jest tak poważna.
Nadal jednak skłonni bylibyśmy uważać, że mapa jest czymś innym od terenu, który przedstawia. Nawet gdyby mógł istnieć kosmiczny komputer tak niewiarygodnie potężny, że byłby w stanie dokładnie symulować zachowanie każdego atomu we Wszechświecie, to przecież komputer ten nie zawierałby w sobie Ziemi krążącej wokół Słońca, podobnie jak Biblia nie zawiera Adama i Ewy. Symulacja komputerowa jest zazwyczaj traktowana jako reprezentacja, czyli obraz rzeczywistości. Jak mógłby ktoś twierdzić, że procesy zachodzące we wnętrzu komputera mogłyby stworzyć rzeczywisty świat?
Tipler replikuje, że zarzut ten może być słuszny jedynie z punktu widzenia zewnętrznego wobec komputera. Gdyby istniał komputer na tyle potężny, że mógłby symulować świadomość, a w konsekwencji i całą społeczność istot rozumnych, to z punktu widzenia tych istot wewnątrz komputera świat symulacji byłby światem rzeczywistym:
“Zasadniczym pytaniem jest: czy symulowani ludzie są realni? Z ich własnego punktu widzenia, z pewnością tak. Z założenia, jakiekolwiek działanie czy procedurę, które rzeczywiści ludzie byliby w stanie przeprowadzić, aby dowieść, że naprawdę istnieją - związane z tym, że myślą, oddziaływają z otoczeniem - zdolni są wykonać także ludzie symulowani, i faktycznie wykonują. Nie ma wprost żadnego sposobu, by symulowani ludzie byli w stanie stwierdzić, że »tak naprawdę« to są we wnętrzu komputera, że nie są istotami realnymi, lecz tylko symulowanymi. Prawdziwa rzeczywistość, fizycznie istniejący komputer, jest dla nich stamtąd, gdzie się znajdują, z wnętrza komputerowego programu, całkowicie niedostępna. (...) Nie ma żadnej metody pozwalającej symulowanym ludziom na odróżnienie, że są zaledwie symulacją, ciągami cyfr krążących po obwodach komputera, że nie są realni”.
Oczywiście cały wywód Tiplera opiera się na założeniu, że komputery są w stanie symulować świadomość. Czy można to uznać za założenie rozsądne? Wyobraźmy sobie komputer symulujący człowieka. Jeśli mamy do czynienia z symulacją doskonałą, obserwator zewnętrzny nie wtajemniczony w sytuację nie byłby w stanie na podstawie rozmowy odróżnić, czy ma do czynienia z symulacją komputerową czy też z rzeczywistą osobą należącą do naszego świata. Obserwator taki mógłby zadawać symulowanej istocie różne pytania, otrzymując w pełni sensowne, jak u człowieka, odpowiedzi; w wyniku czego byłby skłonny uznać, że ma do czynienia z ludzką inteligencją. W istocie sam Alan Turing podjął to zagadnienie w swym słynnym artykule zatytułowanym Czy maszyny myślą?, w którym przytoczył nawet przykładowe pytania dla takiego testu. Jakkolwiek większość ludzi uważa przypuszczenie, że maszyny mogą być obdarzone świadomością, za dziwaczne, jeśli nie wręcz absurdalne, szereg wybitnych naukowców i filozofów wyznających tak zwaną silną zasadę sztucznej inteligenci przyjmowało na tej podstawie, że w przypadku takiej symulacji komputerowej mielibyśmy do czynienia z rzeczywistą świadomością.
Tym, którzy oswoili się z myślą, iż komputer o odpowiedniej mocy obliczeniowej może być obdarzony świadomością, nie sprawi już większych trudności zaakceptowanie tezy, że komputer może w zasadzie stworzyć całą społeczność istot inteligentnych. Członkowie tej społeczności myśleliby i odczuwali, żyli i umierali, w obrębie swego symulowanego świata, zupełnie nie zdając sobie sprawy z faktu, że zdani są na łaskę nieznanego operatora, który może przecież w każdej chwili wyłączyć komputer! Taki byłby właśnie status inteligentnych istot Conwaya bytujących w świecie ŻYCIA.
W wyniku całej tej dyskusji nasuwa się nieodparcie pytanie: skąd wiemy, że my sami jesteśmy “realni”, a nie stanowimy zaledwie symulacji w ramach jakiegoś gigantycznego komputera? “Jest oczywiste, że nie możemy mieć takiej pewności” - odpowiada Tipler. Lecz czy ma to w ogóle jakieś znaczenie? Tipler jest zdania, że nie jest ważne, czy taki komputer naprawdę istnieje, skoro i tak inteligentne istoty w jego wnętrzu nie mają żadnej możliwości, by się o tym przekonać. Wystarczy przyjąć, że istnieje odpowiedni abstrakcyjny program (nawet jeśli ma on tylko postać abstrakcyjnej tabelki), pozwalający zrealizować symulację świata. Z tego samego powodu nie jest istotne, czy fizyczny świat naprawdę istnieje: “Taki fizycznie realny świat byłby równoważny rzeczy-samej-w-sobie u Kanta. Jako empirycy zmuszeni jesteśmy odrzucić taki z zasady niepoznawalny byt: istnienie świata sprowadza się do istnienia abstrakcyjnego programu”7.
Niedogodnością tego stanowiska (niezależnie od tego, że zakrawa ono na reductio ad absurdum) jest to, iż liczba możliwych abstrakcyjnych programów jest nieskończona. Dlaczego zatem przedmiotem naszego doświadczenia jest ten właśnie Wszechświat? Tipler sądzi, że wszystkie możliwe Wszechświaty, które dopuszczają istnienie świadomości, są przez kogoś doświadczane. Nasz nie jest jedyny. Naturalnie, z definicji postrzegamy właśnie ten. Niemniej istnieją inne Wszechświaty, z których wiele jest podobnych do naszego, mające swych własnych mieszkańców, dla których ich Wszechświat jest pod każdym względem równie realny jak nasz dla nas. (Jest to jedna z wersji kwantowomechanicznej hipotezy “wielu światów”, przyjmowanej przez wielu wybitnych fizyków, którą opisywałem szczegółowo w mojej książce Other Worlds [Inne światy]. Powrócę jeszcze do tego tematu w rozdziale 8). Programy realizujące światy, w których nie ma istot inteligentnych, nie są przez nikogo poznawane, i być może z tego powodu mogą być w pewnym sensie uważane za mniej realne. Zbiór programów zdolnych generować światy poznawane stanowi zaledwie niewielki podzbiór zbioru wszystkich możliwych programów. Nasz może tu uchodzić za typowy.
Jeżeli Wszechświat stanowi “wyjście” jakiegoś procesu obliczeniowego, to z definicji musi być obliczalny. Wyrażając się dokładniej, musi istnieć program albo algorytm, pozwalający na otrzymanie właściwego opisu świata w skończonej liczbie kroków. Gdybyśmy znali ten algorytm, dysponowalibyśmy pełną teorią Wszechświata, zawierającą również wartości numeryczne wszystkich mierzalnych wielkości fizycznych. Co możemy powiedzieć o tych liczbach? Jeżeli mają być one wynikiem obliczenia, muszą to być liczby obliczalne. Powszechnie przyjmowano, że wartości wszystkich mierzalnych wielkości w teorii fizycznej są liczbami policzalnymi, lecz ostatnio przypuszczenie to zostało zakwestionowane przez fizyków Roberta Gerocha i Jamesa Hartle'a. Pokazują oni, że istnieją teorie fizyczne dopuszczające wielkości mierzalne będące liczbami niepoliczalnymi. Wprawdzie są to teorie związane z bardzo technicznymi aspektami czasoprzestrzeni, ale chodzi o samą zasadę.
Przypuśćmy, że z naszej wspaniałej teorii wynika, że jakaś wielkość, na przykład stosunek mas dwóch cząstek elementarnych, wyraża się niepoliczalną liczbą x. Czy taka teoria może być zweryfikowana? Sprawdzenie jakiegoś przewidywania wymaga porównania wartości teoretycznej z wartością otrzymaną na podstawie eksperymentów. Oczywiście, jest to możliwe tylko z określoną dokładnością. Załóżmy, że błąd oczekiwany wartości eksperymentalnej wynosi 10 procent. Zatem trzeba, abyśmy znali wartość x z dokładnością 10 procent. Jednak, jakkolwiek wartość x istnieje, nie mamy żadnego skończonego algorytmu, żadnej systematycznej procedury pozwalającej ją wyznaczyć. Z drugiej strony, potrzebujemy znać wartość x jedynie z dokładnością 10 procent i niewątpliwie można znaleźć algorytm dający w wyniku ciąg coraz lepszych przybliżeń x, których błąd będzie w końcu mniejszy niż 10 procent. Cały problem w tym, że skoro nie znamy x, nie jesteśmy w stanie określić, kiedy znajdziemy się w granicach dopuszczalnego błędu.
Mimo tych trudności, niewykluczone, że dziesięcioprocentowe przybliżenie może być wyznaczone metodami niealgorytmicznymi. Konstruując algorytm musimy z góry określić skończony ciąg standardowych instrukcji, aby potem otrzymywać żądany wynik stosując je w czysto mechaniczny sposób. W przypadku liczby obliczalnej, takiej jak n, możemy sobie wyobrazić komputer pracowicie wyliczający ciąg coraz to lepszych przybliżeń i określający za każdym razem, jaka jest dokładność otrzymanego przybliżenia. Jednakże, jak się przekonaliśmy, ta ogólna strategia zawodzi w przypadku liczb niepoliczalnych. Teoretyk będzie musiał traktować każdy poziom dokładności jako odrębny problem, który należy rozwiązywać w specyficzny sposób. Nawet jeżeli za pomocą jakiejś przemyślnej metody uda mu się wyznaczyć x z dokładnością 10 procent, nie jest wcale powiedziane, że ta sama metoda pozwoli mu osiągnąć dokładność jednoprocentową, toteż teoretyk będzie musiał się chwytać jakichś nowych, zupełnie odmiennych sposobów. Każde zwiększenie dokładności wartości otrzymanych eksperymentalnie zmuszać będzie naszego biednego teoretyka do coraz większego wysiłku, aby wyznaczyć daną wartość teoretycznie z równą dokładnością.
Geroch i Hartle wskazują na fakt, że na ogół najtrudniejszym zadaniem jest skontruowanie właściwej teorii; jej późniejsze zastosowanie jest już zazwyczaj procedurą czysto mechaniczną. Trzeba było geniuszu Newtona, by stworzyć prawa dynamiki i powszechnego ciążenia, natomiast wystarczy odpowiednio zaprogramować komputer, aby stosując tę teorię “na ślepo”, przewidział datę najbliższego zaćmienia Słońca. W przypadku teorii, w której występują wartości nieobliczalne, stosowanie teorii może być równie trudne, jak jej wcześniejsze stworzenie. W istocie te dwie czynności nie będą się od siebie wyraźnie różniły.
Bez wątpienia teoretyk życzyłby sobie, żeby nasze teorie fizyczne takie nie były. Jednakowoż nie możemy być pewni, że tak zawsze będzie. Mogą istnieć silne przesłanki za przyjęciem konkretnej teorii, która, jak się potem okaże, przewiduje jakieś wielkości nieobliczalne. Geroch i Hartle sugerują, że to właśnie ma miejsce w przypadku kwantowego opisu czasoprzestrzeni. Czy należałoby odrzucić teorię wyłącznie z tego powodu? Czy są jakieś przesłanki, by zakładać, że Wszechświat musi być opisywany tylko teoriami dającymi się zastosować w sposób algorytmiczny? Tego nie wiemy, ale jednej rzeczy możemy być pewni. Jeśli odpowiedź na to pytanie jest negatywna, cała, pod innymi względami tak bliska, analogia pomiędzy przyrodą a komputerem zupełnie się załamuje.
Mając na uwadze powiedzenie Einsteina, iż Pan Bóg jest wyrafinowany, lecz nie perfidny, załóżmy, że rzeczywiście żyjemy w “obliczalnym” Wszechświecie. Cóż zatem jesteśmy w stanie wywnioskować o naturze programu, który, jak chcieliby nas przekonać Fredkin, Tipler i im podobni, jest podłożem naszej rzeczywistości?
Niepoznawalne
Zajmijmy się przez chwilę konkretnym przypadkiem programu używanego w maszynie cyfrowej, służącego na przykład do mnożenia ciągu liczb. Założeniem całej koncepcji jest, że napisanie programu powinno być w jakimś sensie prostsze niż wykonanie operacji, do których jest on przeznaczony. Gdyby tak nie było, nikt nie zawracałby sobie głowy komputerem, lecz po prostu przeprowadził rachunki bezpośrednio. Można to wyrazić w ten sposób, że użyteczny program komputerowy jest w stanie generować więcej informacji (w tym przypadku, przeprowadzić bardzo wiele mnożeń), niż sam zawiera. Jest to nic innego, jak nieco udziwniony sposób powiedzenia, że w matematyce poszukujemy prostych reguł, które mogą być stosowane wielokrotnie, nawet przy bardzo skomplikowanych obliczeniach. Jednakże nie wszystkie operacje w matematyce da się wykonać za pośrednictwem programu znacznie mniej złożonego niż sama ta operacja. W istocie, z faktu istnienia liczb nieobliczalnych wynika, że dla pewnych operacji nie istnieje żaden program. Zatem niektóre procesy matematyczne cechuje taka złożoność wewnętrzna, że nie mogą być one ujęte w ramy zwięzłego programu.
W przyrodzie również mamy do czynienia z procesami o ogromnej złożoności, a zatem rodzi się pytanie, czy można je zawrzeć w ramach zwięzłego opisu. Ujmując rzecz inaczej, czy “program Wszechświata” jest znacząco prostszy niż sam Wszechświat? Stanowi to bardzo głębokie pytanie dotyczące natury rzeczywistości fizycznej. Jeśli program komputerowy lub algorytm jest prostszy niż układ, którego dotyczy, mówimy, że układ ten jest “algorytmicznie upraszczalny”. Zatem mamy znaleźć odpowiedź na pytanie, czy Wszechświat jest algorytmicznie upraszczalny.
Zanim zajmiemy się tym pytaniem, nie od rzeczy będzie rozważenie pojęcia algorytmicznej upraszczalności nieco bardziej szczegółowo. Dziedzina, zwana algorytmiczną teorią informacji, została stworzona w latach sześćdziesiątych w Związku Radzieckim przez Andrieja Kołmogorowa oraz w Stanach Zjednoczonych przez Gregory Chaitina z IBM. U jej podstaw leżało bardzo proste pytanie: jaki najkrótszy komunikat pozwala wyrazić układ o pewnym stopniu złożoności? Jest oczywiste, że prosty układ da się wyrazić krótko, lecz złożony układ już nie (spróbujcie opisać strukturę rafy koralowej za pomocą tej samej liczby słów, co w przypadku opisu kostki lodu). Chaitin i Kołmogorow zaproponowali definicję złożoności układu jako długości najkrótszego możliwego jego opisu.
Przyjrzyjmy się, jak to działa w przypadku liczb. Istnieją liczby proste, takie jak 2 lub n, i liczby złożone, jak ciąg jedynek i zer otrzymany poprzez rzuty monetą (orzeł = 0, reszka = 1). Czy możemy podać typ opisu pozwalający na jednoznaczne wyrażanie tych liczb? Jedną z możliwości jest wypisywanie ich w postaci dziesiętnej lub dwójkowej (n można tak wyrazić tylko jako konkretne przybliżenie, gdyż jej rozwinięcie dziesiętne ma długość nieskończoną). Jednakże jest oczywiste, że nie jest to najkrótszy sposób ich opisu. Na przykład liczbę rt możemy wyrazić krócej, podając wzór pozwalający na obliczenie jej z zadaną dokładnością. Jeżeli przyjmiemy, że rozważane liczby otrzymujemy na wyjściu komputera, to najkrótszym opisem danej liczby będzie najkrótszy program pozwalający komputerowi obliczyć tę liczbę. W ten sposób za proste liczby będziemy uważać te, które są generowane przez krótkie programy, a za złożone te, które wymagają długiego programu.
Następnym etapem jest porównanie długości danej liczby z długością programu, który ją oblicza. Czy jest on krótszy? Czy faktycznie udało nam się w ten sposób osiągnąć uproszczenie? Aby wyrazić to w sposób bardziej ścisły, przypuśćmy, że na wyjściu komputera otrzymujemy ciąg jedynek i zer, taki jak ten:
101101011100010100110101001... (gdzie kropki “...” oznaczają “i tak dalej, nawet w nieskończoność”). Ciąg ten będzie zawierał pewną ilość informacji, mierzoną w “bitach”. Następnie chcemy porównać tę zawartość informacyjną z ilością informacji, jaką zawiera sam program. By podać tu prosty przykład, załóżmy, że na wyjściu komputera otrzymaliśmy:
101010101010101010101010101010
Ten ciąg moży być wygenerowany za pomocą prostego algorytmu “Wydrukuj piętnaście razy 10”. O wiele dłuższy ciąg otrzymamy za pomocą programu “Wydrukuj milion razy 10”. Ten drugi program nie jest wcale bardziej skomplikowany niż pierwszy, a wynikiem jego działania jest o wiele dłuższy ciąg informacyjny. Wynika stąd, że gdy ciąg wynikowy zawiera jakiekolwiek struktury, to mogą być one wyrażone za pomocą prostego algorytmu, który może być o wiele krótszy (przyjmując za jednostki bity informacji) niż pierwotnie otrzymany ciąg. Mówimy wtedy, że ciąg jest algorytmicznie upraszczamy. Natomiast jeżeli, na odwrót, dla danego ciągu nie da się podać algorytmu istotnie krótszego niż on sam, jest on algorytmicznie nieupraszczalny. W tym przypadku ciąg nie będzie zawierał żadnych regularności ani struktur; będzie to po prostu chaotyczny ciąg jedynek i zer. W ten sposób stopień możliwego do osiągnięcia uproszczenia algorytmicznego może być uznany za praktyczną miarę złożoności ciągu wynikowego, przy czym niska upraszczalność oznaczałaby większą złożoność. Ciągi regularne da się znacznie uprościć, podczas gdy nie można tego uczynić dla ciągów, w których nie występują żadne struktury.
Pojęcie algorytmicznej upraszczalności pozwala na ścisłe zdefiniowanie przypadkowości: ciągiem przypadkowym będzie ciąg, który nie może być algorytmicznie uproszczony. Może nie być łatwo stwierdzić na drodze czysto wizualnej, czy dany ciąg jest upraszczalny, gdyż występujące w nim struktury mogą być bardzo wyrafinowane i głęboko ukryte. Każdy, kto kiedykolwiek zajmował się łamaniem szyfrów, wie, że to, co na pierwszy rzut oka wydaje się bezładnym zbiorowiskiem liter, może w rzeczywistości zawierać strukturę komunikatu; trzeba jedynie znać klucz do szyfru. Nieskończone rozwinięcie dziesiętne (i jego dwójkowy odpowiednik) liczby n nie wykazuje żadnych regularności, nawet w skali tysięcy cyfr, i cyfry te według wszystkich standardowych testów statystycznych ułożone są czysto losowo. Na podstawie znajomości pierwszego tysiąca cyfr tego rozwinięcia nie mamy żadnej możliwości przewidzieć tysiąc pierwszej cyfry. A mimo to ti jest algorytmicznie upraszczalna, bowiem dysponujemy prostym algorytmem pozwalającym na wyliczanie kolejnych miejsc po przecinku tej liczby.
Chaitin wykazuje, że takie pojęcie matematycznej złożoności może być sensownie zastosowane także do układów fizycznych: złożonością układu fizycznego jest minimalna długość algorytmu pozwalającego go opisać lub symulować jego działanie. Na pierwszy rzut oka definicja ta wydaje się dość arbitralna, ponieważ nie zostało określone, jakiego będziemy używać komputera. Okazuje się jednak, że nie ma to większego znaczenia w sytuacji, gdy wszytkie komputery uniwersalne są w stanie się nawzajem symulować. Podobnie nieistotne jest, jakim językiem programowania - LISP, BASIC, FORTRAN - się posłużymy, gdyż napisanie ciągu instrukcji tłumaczącego jeden język na drugi jest sprawą prostą. Zazwyczaj wydłużenie programu, spowodowane dołączeniem do niego instrukcji konwertujących go na inny język i pozwalających go uruchomić na innym komputerze, w porównaniu z jego pierwotną długością jest niewielkie, a więc nie jest ważne, jakiego komputera faktycznie używamy. Jest to wniosek bardzo istotny. Fakt, że definicja złożoności nie zależy od konkretnego komputera, świadczy o tym, iż udało się w niej uchwycić jakąś realną cechę, niezależną od tego, w jaki sposób się ją opisuje.
Więcej trudności przysparza pytanie, czy konkretny wybrany algorytm jest rzeczywiście najkrótszym z możliwych. Jeśli uda się znaleźć jeszcze krótszy, odpowiedź jest oczywiście negatywna. Natomiast w ogólnym przypadku okazuje się niemożliwe udzielenie definitywnej odpowiedzi pozytywnej. Powody tego stanu rzeczy sięgają twierdzenia Godła o nierozstrzygalności. Jak pamiętamy, punktem wyjściowym tego twierdzenia była matematyczna wersja “antynomii kłamcy”, czyli paradoksalnych wypowiedzi samoreferencjalnych (“To zdanie jest fałszywe”). Chaitin zastosował tę ideę do programów komputerowych. Rozważmy przypadek, w którym komputer otrzymuje polecenie wykonania następującej operagi: “Szukaj ciągu cyfr, który może być wygenerowany tylko przez program dłuższy niż ten”. Jeśli operacja ta się powiedzie, szukany ciąg cyfr zostanie wygenerowany właśnie przez dany program, a więc na pewno nie może “być tylko generowany przez program dłuższy niż ten”. Jedyną możliwą konkluzją jest, że poszukiwania zakończą się niepowodzeniem, nawet jeśli będą trwały nieskończenie długo. Co z tego wynika dla naszych rozważań? Program poszukujący miał znaleźć ciąg cyfr, który mógł być wygenerowany tylko przez program co najmniej równie długi, jak on sam, co oznacza, że wszystkie krótsze programy były z góry wykluczone. Jednak w sytuacji, gdy poszukiwania zakończyły się niepowodzeniem, nie możemy wykluczyć krótszego programu. Po prostu w ogólnym przypadku nie jesteśmy w stanie stwierdzić, czy dany ciąg cyfr może być wynikiem działania programu krótszego niż ten, którym akurat dysponujemy.
Twierdzenie Chaitina ma interesujące konsekwencje w dziedzinie liczb losowych, tzn. przypadkowych ciągów cyfr. Jak już wyjaśniałem, za ciąg losowy uważamy ciąg, który nie może być algorytmicznie uproszczony. Jednak właśnie się przekonaliśmy, że nie da się stwierdzić, czy istnieje krótszy program generujący dany ciąg. Nigdy nie można uzyskać pewności, że nie istnieją jeszcze jakieś inne sprytne możliwości skrócenia opisu, a więc nie jest w ogólnym przypadku możliwe udowodnienie, że dany ciąg jest losowy, jakkolwiek można wykazać, że tak nie jest, poprzez faktyczne znalezienie sposobu uproszczenia. Wynik ten jest tym bardziej zadziwiający, iż można dowieść, że prawie wszystkie możliwe ciągi cyfr mają charakter losowy. A my nie jesteśmy w stanie o żadnym konkretnym ciągu tego definitywnie orzec!
Fascynującym może być przypuszczenie, że wobec tej definicji niektóre z występujących w przyrodzie pozornie przypadkowych zjawisk mogą nie mieć charakteru losowego. Kto wie na przykład, czy nie dotyczy to indeterminizmu, z jakim mamy do czynienia w mechanice kwantowej. W końcu z twierdzenia Chaitina wynika, że nigdy nie jesteśmy w stanie wykazać, iż ciąg wartości otrzymanych w wyniku kolejnych pomiarów kwantowomechanicznych jest naprawdę losowy. Niewątpliwie wygląda on na losowy, ale to samo dotyczy rozwinięcia liczby tc. Dopóki nie mamy “klucza do kodu”, czyli algorytmu wyrażającego ukryty porządek, uprawnione jest założenie, że mamy do czynienia z czymś naprawdę przypadkowym. Czyż nie może być tak, że istnieje jakiś wyrafinowany “kosmiczny kod”, algorytm generujący wartości wielkości kwantowych w przyrodzie, a obserwowany indeterminizm kwantowy jest tylko złudzeniem? Może kod ten kryje w sobie “przesłanie”, które mogłoby nam wyjawić najgłębsze tajemnice Wszechświata? Pomysł ten został już podchwycony przez niektórych teologów, którzy zauważyli, że indeterminizm kwantowy pozwala Bogu działać w świecie, “rzucając kwantową kostką” na poziomie atomów, bez naruszania klasycznych (tzn. niekwantowych) praw fizyki. W ten sposób istniałby podatny grunt do urzeczywistniania boskich celów w świecie bez sprawiania zbyt dużego kłopotu fizykom. W rozdziale 9 zajmę się pewną konkretną hipotezą tego typu.
Uzbrojony w swoją algorytmiczną definicję Chaitin był w stanie wykazać, że przypadkowością przeniknięta jest cała matematyka, w tym także arytmetyka. W tym celu posłużył się wynalezionym przez siebie monstrualnych rozmiarów równaniem, zawierającym siedemnaście tysięcy zmiennych (ten typ równania określany jest w matematyce jako równanie diofantyńskie). W równaniu tym występuje parametr K, przybierający kolejne wartości całkowite l, 2, 3, i tak dalej. Chaitin postawił pytanie, czy przy danej wartości parametru K to olbrzymie równanie ma skończoną czy nieskończoną liczbę rozwiązań. Można sobie wyobrazić, że pracowicie rozwiązujemy je dla kolejnych wartości K, zapisując za każdym razem odpowiedź: “skończona”, “skończona”, “nieskończona”, “skończona”, “nieskończona”, “nieskończona”... Czy w tym ciągu odpowiedzi będzie występowała jakaś regularność? Chaitin udowodnił, że nie. Jeżeli przypiszemy przypadkowi skończonej liczby rozwiązań cyfrę O, a nieskończonej l, to powstały w ten sposób ciąg 001011... nie da się algorytmicznie uprościć; będzie zatem ciągiem losowym.
Wniosek ten ma daleko idące konsekwencje. Oznacza bowiem, że nie ma ogólnego sposobu stwierdzenia dla wybranej wartości K bez bezpośrednich przeliczeń, czy to konkretne równanie diofantyńskie posiada skończoną czy nieskończoną liczbę rozwiązań. Innymi słowy, w przypadku tym nie istnieje systematyczna procedura pozwalająca z góry przewidzieć odpowiedzi na doskonale pod względem matematycznym postawiony problem: odpowiedzi mają charakter losowy. Niewielkim pocieszeniem może być fakt, że równanie diofantyńskie z siedemnastoma tysiącami zmiennych to w gruncie rzeczy dość osobliwy twór matematyczny. Skoro raz przypadkowość dostała się do matematyki, została ona nią do głębi skażona. Rozpowszechniona wizja matematyki jako zbioru precyzyjnych twierdzeń, spojonego doskonale określonymi związkami logicznymi, okazuje się nie odpowiadać prawdzie. W matematyce mamy do czynienia z przypadkowością, a tym samym niepewnością, w równym stopniu, co w fizyce. Według Chaitina, Bóg gra w kości nie tylko w mechanice kwantowej, ale nawet w przypadku arytmetyki liczb całkowitych. Uważa on zatem, że matematykę należy traktować na równi z naukami przyrodniczymi, w których poznanie rzeczywistości odbywa się na drodze połączenia rozumowania logicznego i odkryć eksperymentalnych. Oczyma wyobraźni można już widzieć uniwersyteckie katedry matematyki eksperymentalnej.
Dość zabawne zastosowanie koncepcji algorytmicznej informacji związane jest z pewną liczbą nieobliczalną, zwaną omega, którą Chaitin definiuje jako prawdopodobieństwo, że program komputerowy zatrzyma się po wprowadzeniu na wejście czysto losowego ciągu binarnego. Prawdopodobieństwo czegokolwiek jest wyrażane liczbą rzeczywistą z przedziału między 0 a 1; przy czym 0 odpowiada zdarzeniu niemożliwemu, a l zdarzeniu koniecznemu. Jest oczywiste, że liczba omega będzie bliska jedności, ponieważ przytłaczającą większość możliwych ciągów na wejściu komputer potraktuje jako losowe i natychmiast zatrzyma się, generując odpowiedni komunikat o błędzie. Można wszakże udowodnić, że omega jest algorytmicznie nieupraszczalna i jej rozwinięcia, zarówno w postaci dwójkowej, jak i dziesiętnej, mają już po pierwszych kilku cyfrach charakter czysto losowy. Ponieważ omega jest zdefiniowana poprzez odniesienia do problemu zatrzymania się, ciągi cyfr w jej rozwinięciu kodują poszczególne rozwiązania tego pro blemu. Tak zatem pierwszych n cyfr dwójkowego rozwinięcia tej liczby zawiera odpowiedź na pytanie, które z n-bitowych programów zatrzymają się, a które będą wykonywane w nieskończoność.
Charles Bennett zauważył, że wiele słynnych nierozwiązanych problemów matematycznych, takich jak Wielkie Twierdzenie Fermata, może być sformułowane jako problem zatrzymania się, gdyż zawierają stwierdzenia, iż coś nie istnieje (w tym przypadku zbiór liczb spełniających równanie Fermata). Wystarczy zaprogramować komputer, aby poszukiwał kontrprzykładu. Gdy uda mu się go znaleźć, zatrzyma się; w przeciwnym przypadku będzie międlił swe poszukiwania w nieskończoność. Ponadto, większość interesujących problemów da się wyrazić w postaci programów zawierających nie więcej niż kilka tysięcy bitów, a zatem znając już pierwszych kilka tysięcy cyfr rozwinięcia binarnego liczby omega, dysponowalibyśmy rozwiązaniem wszystkich słynnych problemów matematycznych tego typu, jak również wszelkich innych problemów o porównywalnej złożoności, które mogą być sformułowane w przyszłości! ,,W ten sposób ogromna ilość informacji zostaje zgromadzona w bardzo niewielkiej przestrzeni pisze Bennett — albowiem kilka tysięcy cyfr, które bez trudu można wypisać na kartce papieru, zawiera odpowiedzi na więcej problemów matematycznych, niż dałoby się zapisać w całym Wszechświecie”8.
Niestety, omegi jako liczby nieobliczalnej z założenia nigdy nie da się efektywnie wyznaczyć, niezależnie od tego, jak długo byśmy to próbowali zrobić. Zatem, poza mistycznym objawieniem, nie ma sposobu, byśmy mogli ją kiedykolwiek poznać. A gdyby nawet została nam ona przekazana w sposób nadprzyrodzony, i tak byśmy jej nie rozpoznali, gdyż jako liczba losowa nie wyróżniałaby się niczym szczególnym. Mielibyśmy przed sobą tylko pozbawiony wszelkich regularności ciąg jedynek i zer. Można by ją co najwyżej zapisać w jakimś podręczniku.
Informacja zawarta w liczbie omega jest czymś rzeczywistym, a jednak na zawsze ukrytym przed nami poprzez prawa logiki i paradoksy samoreferencji. Niepoznawalna Omega stanowi być może współczesny odpowiednik “magicznych liczb” u starożytnych Greków. Bennet okazuje się prawdziwie poetycki w opisywaniu jej mistycznego znaczenia:
Na przestrzeni dziejów filozofowie i mistycy poszukiwali klucza do uniwersalnej mądrości skończonej formuły lub tekstu, który poznany i właściwie zrozumiany, pozwoliłby uzyskać odpowiedź na każde pytanie. Do roli tej pretendowały Biblia, Koran, mityczne tajemne księgi Hermesa Trismegistosa i średniowieczna żydowska Kabała. Źródła uniwersalnej mądrości są zazwyczaj chronione przed ich nieuprawnionym użyciem przez to, że trudno do nich dotrzeć, ciężko je zrozumieć, gdy się je znajdzie, a ponadto są niebezpieczne w użyciu, gdyż często udzielają odpowiedzi na inne, głębsze pytania, niż człowiek im zadaje. Na podobieństwo Boga, księgi ezoteryczne są proste, lecz niemożliwe do opisania, wszechwiedzące i przemieniające wewnętrznie każdego, kto je pozna. (...) Omega jest pod wieloma względami liczbą kabalistyczną. Ludzkim rozumem możemy poznać, że ona istnieje, lecz nie ją samą. Poznając ją bliżej, musielibyśmy przyjąć wyrażający ją nieobliczalny ciąg cyfr na zasadzie wiary, jak słowa świętych ksiąg9.
Kosmiczny program
Algorytmiczna teoria informacji dostarcza nam ścisłej definicji złożoności w oparciu o pojęcie obliczalności. Gdy kontynuujemy nasz wątek Wszechświata jako komputera czy też, ściślej mówiąc,procesu obliczeniowego, rodzi się pytanie, czy Wszechświat w swej ogromnej złożoności jest algorytmicznie upraszczalny. Czy istnieje zwięzły program zdolny do “wygenerowania” Wszechświata ze wszystkimi jego misternymi szczegółami?
Mimo swej złożoności Wszechświat wyraźnie nie jest strukturą przypadkową, lecz obserwujemy w nim regularności. Słońce wschodzi codziennie bez wyjątku, światło porusza się zawsze z tą samą prędkością, zbiór mionów rozpada się zawsze z czasem połowicznego rozpadu dwóch milionowych sekundy, i tak dalej. Regularności te systematyzujemy w postaci, którą nazywamy prawami przyrody. Jak już podkreślałem, prawa fizyki mają charakter analogiczny do programów komputerowych. Dla danego stanu początkowego układu (wejście) możemy za pomocą praw obliczyć jego stan późniejszy (wyjście).
Prawa wraz z warunkami początkowymi zawierają w ogólnym przypadku znacznie mniej informacji niż potencjalne stany wyjściowe. Oczywiście, nawet jeżeli prawo fizyki zapisane na kartce wygląda prosto, zwykle wyrażane jest ono za pomocą abstrakcyjnej matematyki, która sama w sobie zawiera dość skomplikowaną strukturę. Niemniej jednak, informacje potrzebne do zrozumienia sensu symboli matematycznych można zawrzeć w kilku podręcznikach, podczas gdy liczba faktów opisywanych przy ich pomocy jest nieograniczona. Klasycznym przykładem jest tu przewidywanie zaćmień. Znajomość pozycji i ruchu Ziemi, Słońca i Księżyca w określonym czasie pozwala na obliczenie dat przyszłych (i przeszłych) zaćmień Słońca i Księżyca. W ten sposób jeden zbiór danych wejściowych generuje wiele zbiorów danych wyjściowych. Posługując się żargonem informatycznym możemy powiedzieć, że zbiór wszystkich danych dotyczących zaćmień został algorytmicznie uproszczony do postaci praw wraz z odpowiednimi warunkami początkowymi. Zatem regularności obserwowane we Wszechświecie są przykładem jego algorytmicznej upraszczalności. Pod złożonością przyrody kryje się prostota fizyki.
Co interesujące, Ray Solomonoff, jeden z twórców algorytmicznej teorii informacji, zajmował się właśnie zagadnieniami tego rodzaju. Chciał on znaleźć sposób określenia względnej prawdopodobności konkurujących hipotez naukowych. Jeśli dany zbiór faktów dotyczących świata może być uzasadniony poprzez więcej niż jedną teorię, w jaki sposób możemy rozstrzygnąć, która z nich jest bardziej prawdopodobna? Czy możemy przypisać konkurencyjnym teoriom jakieś “wartości”, które można by ze sobą porównywać?
Najprościej jest posłużyć się brzytwą Ockhama i wybrać teorię o najmniejszej liczbie niezależnych założeń. Z kolei, jeżeli traktujemy teorię jako program komputerowy, a fakty przyrodnicze jako wynik działania tego programu, to brzytwa Ockhama każe nam wybrać najprostszy program zdolny wygenerować dany wynik. Znaczy to, że powinniśmy wybierać teorię, czy też program, pozwalające na możliwie największe algorytmiczne uproszczenie faktów.
Z tego punktu widzenia całą naukę można uważać za poszukiwanie sposobów algorytmicznego uproszczenia danych obserwacyjnych. Ostatecznie jej celem jest wytworzenie zwięzłego opisu świata w oparciu o pewne zasady unifikujące, które nazywamy prawami. “Gdyby nie algorytmiczne upraszczanie danych - pisze Barrow - cała nauka stałaby się czymś w rodzaju bezmyślnego kolekcjonowania znaczków - ślepym gromadzeniem wszystkich możliwych faktów. Nauka zasadza się na przekonaniu, że Wszechświat jest algorytmicznie upraszczalny, a współczesne poszukiwania Teorii Wszystkiego stanowią najwyższy wyraz tej wiary, wiary, że Wszechświat w swej różnorodności opiera się na kilku prostych, skończonych zasadach, które mogą być poznane przez człowieka”10.
Czy możemy więc wyciągnąć wniosek, że cała złożoność Wszechświata możliwa jest do ujęcia w postaci bardzo krótkiego “kosmicznego programu”, podobnie jak świat skomplikowanych struktur ŻYCIA sprowadza się do paru prostych reguł, powtarzanych wielokrotnie? Jakkolwiek w przyrodzie mamy do czynienia z wieloma spektakularnymi przypadkami uproszczenia algorytmicznego, nie każdy układ da się w ten sposób uprościć. Istnieje klasa procesów, zwanych “chaotycznymi”, których znaczenie doceniono dopiero niedawno. Procesy te nie wykazują żadnych regularności, przebiegając najwyraźniej w sposób czysto losowy, toteż nie dają się algorytmicznie uprościć. Do tej pory sądzono, że chaos występuje tylko wyjątkowo, lecz obecnie naukowcy w coraz większym stopniu uznają, iż bardzo wiele układów, z jakimi mamy do czynienia w przyrodzie, ma charakter chaotyczny lub łatwo taki przybiera w określonych warunkach. Najbardziej znanymi przykładami są tu przepływy turbulentne, kapiące krany, migotanie przedsionków serca i ruch wahadła ze wspomaganiem.
Mimo iż chaos występuje tak powszechnie, nie ulega wątpliwości, że Wszechświat jako całość nie jest bynajmniej przypadkowy. Znajdujemy w nim wiele regularności, które następnie kodyfikujemy w prawa, pozwalające realnie przewidywać przyszły rozwój zjawisk. Jednakże Wszechświat iiie jest też całkiem prosty. Charakteryzuje się on subtelną złożonością, będącą czymś pośrednim pomiędzy prostotą z jednej strony a zupełną chaotycznością z drugiej. Można to wyrazić, mówiąc, że Wszechświat odznacza się “złożonością strukturalną”, co omówiłem wyczerpująco w mojej książce The Cosmic Blueprint [Projekt kosmosu]. Wielokrotnie próbowano uchwycić tę ulotną własność w sposób matematyczny. Jedną z takich prób podjął Charles Bennet, wprowadzając pojęcie “głębokości logicznej”. Skupił on uwagę nie tyle na stopniu złożoności układu czy też ilości informacji niezbędnej do jego wyspecyfikowania, a bardziej na jej jakości czy też “wartości”. Bennet wyjaśnia to następująco:
“Typowy ciąg rzutów monetą zawiera dużą ilość informacji, lecz niczego nie komunikuje; w efemerydach podających położenia Księżyca i planet na każdy dzień w ciągu stu lat nie ma więcej informacji niż w równaniach ruchu i warunkach początkowych, które posłużyły do ich obliczenia, lecz oszczędzają one użytkownikowi trudu ponownego wyliczania tych pozycji. Wartość informacji dla odbiorcy wydaje się zatem polegać (...) na tym, co można by określić jako włożoną w nią redundancje - rzeczy przewidywalne jedynie z trudnością, coś, do czego odbiorca w zasadzie byłby w stanie dojść na własną rękę, lecz jedynie znacznym nakładem czasu, pieniędzy i obliczeń. Innymi słowy, wartość informacji wyznaczona jest przez ilość pracy, obliczeniowej lub innego rodzaju, wykonanej przez jej nadawcę, której odbiorca nie musi już powtarzać”11.
Bennett zachęca nas, abyśmy myśleli o danym stanie świata jako zawierającym w sobie ukrytą informację, przede wszystkim informację o tym, w jaki sposób stan ten został osiągnięty. Możemy wtedy postawić pytanie, ile “pracy” musiał wykonać układ, tzn. ile musiał przetworzyć informacji, aby dojść do tego stanu. To właśnie określa on mianem głębokości logicznej. Ilość włożonej pracy można w sposób ścisły zdefiniować jako czas potrzebny na wyliczenie danego komunikatu przez najkrótszy program będący w stanie go wygenerować. Podczas gdy pojęcie algorytmicznej złożoności związane jest z długością najkrótszego programu pozwalającego otrzymać dany wynik, pojęcie głębokości logicznej opiera się na ilości czasu, jakiej potrzebuje ów minimalny program, aby wyprodukować tenże wynik.
Oczywiście nie można określić na podstawie samego wyglądu otrzymanego wyniku, w jaki sposób został on wytworzony. Nawet bardzo szczegółowy, sensowny komunikat mógi powstać na drodze czysto losowej. W dość wyświechtanym przykładzie mamy małpę, która dysponując odpowiednią ilością czasu jest w stanie wystukać na maszynie dzieła Szekspira. Niemniej zgodnie z duchem algorytmicznej teorii informacji (i brzytwą Ockńama) należy przypisać ten wynik działaniu minimalnego programu, ponieważ wymaga to najmniejszej liczby założeń ad hoc.
Postawmy się w położenie radioastronoma, który odebrał tajemniczy sygnał. Poszczególne jego impulsy ułożone w ciąg odpowiadają pierwszemu milionowi miejsc binarnego rozwinięcia liczby tc, Co mamy o tym sądzić? Wniosek, ze sygnał ten powstał przypadkowo, wymaga założeń ad hoc odpowiadających milionowi bitów, podczas gdy alternatywne wyjaśnienie, ze sygnał został wyemitowany przez jakiś układ zdolny wyliczyć liczbę n, jest o wieie bardziej przekonujące. Podobny przypadek miał rzeczywiście mielce w latach sześćdziesiątych, gdy Jocelyn Bell, doktorantka z Cambridge wykonująca z Anthonym Hewishem obserwacje radioastronomiczne, odebrała regularny sygnał niewiadomego pochodzenia. Jednakże Bell i Hewish szybko odrzucili hipotezę o sztucznym charakterze zarejestrowanego sygnału, W odróżnieniu od binarnego rozwinięcia liczby k, szereg powtarzających się z dużą regularnością impulsów ma niewielką głębokość logiczną - można powiedzieć, że jest logicznie płytki. Taką regularność można wyjaśnić na różne sposoby bez posługiwania się zbyt wieloma założeniami ad hoc. jako że okresowość jest cecha dość rozpowszechniona w przyrodzie. W tym przypadku jako źródło sygnału rozpoznano wkrótce rotującą gwiazdę neutronową, czyli pulsar.
Struktury regularne są logicznie płytkie, ponieważ mogą być łatwo generowane przez proste, krótkie programy. Struktury przypadkowe są również logicznie płytkie gdyż ich program minimalny jest z definicji nie krótszy niż sama struktura, a zatem sam program jest trywialny i sprowadza się do polecenia “Drukuj taką strukturę”. Natomiast struktury o dużym stopniu organizacji wewnętrznej są logicznie głębokie, gdyż wygenerowanie ich wymaga wykonania szeregu skomplikowanych działań.
Jedną z oczywistych dziedzin zastosowania pojęcia głębokości logicznej są układy biologiczne, będące najbardziej spektakularnymi przykładami wewnętrznej organizacji. Organizmy żywe odznaczają się dużą głębokością logiczną, ponieważ nie mogły one powstać inaczej niż w wyniku bardzo długiego i złożonego łańcucha procesów ewolucyjnych. Innym przykładem głębokiego logicznie układu mogą być złożone struktury generowane przez automaty komórkowe, takie jak ŻYCIE. Struktury te powstają w oparciu o bardzo proste reguły, tak więc z algorytmicznego punktu widzenia ich złożoność jest niewielka. Istota złożoności struktur ŻYCIA nie polega zatem na regułach, lecz na ich wielokrotnym zastosowaniu. Komputer musi włożyć wiele pracy, powtarzając daną regułę wiele razy, zanim utworzy istotnie złożone struktury z prostych struktur początkowych.
Świat obfituje w przykłady głębokich logicznie układów, w których widać ogrom “pracy” włożonej w ich ukształtowanie. Murray Gellmann powiedział mi kiedyś, że układy głębokie logicznie łatwo rozpoznajemy jako takie, gdyż są one tymi, które chcielibyśmy zachować. Rzeczy płytkie pod względem logicznym dają się łatwo odtworzyć. Cenimy sobie obrazy, teorie naukowe, dzieła muzyczne i literackie, rzadkie ptaki i diamenty, ponieważ niezwykle ciężko je wytworzyć. Samochody, kryształy soli i metalowe puszki nie są dla nas tak drogocenne, gdyż są znacznie płytsze logicznie.
Cóż zatem możemy ostatecznie powiedzieć o kosmicznym programie? Przez wieki uczeni określali mało ściśle Wszechświat jako “uporządkowany”, nie czyniąc rozróżnienia pomiędzy odmiennymi typami porządku: prostym i złożonym. Badania nad pojęciem obliczalności pozwoliły nam rozpoznać, że świat jest uporządkowany zarówno w tym sensie, iż jest algorytmicznie upraszczalny, jak i w tym, że jest głęboki logicznie. Ład kosmiczny nie polega jedynie na prostej powtarzalności, lecz również na wewnętrznej złożoności, i to właśnie ta złożoność sprawia, że Wszechświat ma charakter otwarty i dopuszcza istnienie obdarzonych wolną wolą ludzi. Natomiast przez ostatnie trzy stulecia nauka zajmowała się właśnie powtarzalnością: wyszukiwaniem regularności w przyrodzie. Dopiero ostatnio, wraz z nadejściem ery szybkich maszyn cyfrowych, dostrzeżono ten bardziej fundamentalny aspekt złożoności. Tak więc widzimy, że prawa fizyki odgrywają podwójną rolę. Nie tylko wyrażają proste regularności leżące u podłoża wszystkich zjawisk fizycznych, lecz także odpowiadają za wewnętrzną strukturę - głębię logiczną - świata. To, że prawa obowiązujące w naszym Wszechświecie są w stanie wypełnić to ważne podwójne zadanie, stanowi fakt o iście kosmicznym znaczeniu.
Rozdział szósty
Astronom James Jeans powiedział kiedyś, że Bóg jest matematykiem. W tym zwięzłym sformułowaniu wyraża się w metaforyczny sposób pogląd, który stał się obecnie dla omalże wszystkich naukowców wyznaniem wiary. Przekonanie, że podstawowy porządek świata da się ująć w postaci matematycznej, jest osią współczesnej nauki i mało kto podaje go w wątpliwość. Pogląd ten przyjął się tak głęboko, że żadnej dyscypliny wiedzy nie uważa się za należycie ugruntowaną, zanim riie uda się jej opisać w obiektywnym języku matematyki.
Jak widzieliśmy, przekonanie, że w świecie fizycznym przejawia się ład i harmonia matematyczna, zrodziło się już w starożytnej Grecji. Jego rozkwit nastąpił w Europie okresu Odrodzenia wraz z pracami Galileusza, Newtona, Kartezjusza i innych ówczesnych uczonych. “Księga przyrody napisana jest językiem matematyki” - głosił Galileusz. Dlaczego tak jest, jest jedną z wielkich zagadek Wszechświata. Fizyk Eugene Wigner pisał o “niepojętej skuteczności matematyki w naukach przyrodniczych”, cytując C.S. Pierce'a, że “być może kryje się w tym jakaś tajemnica, która czeka wciąż na swego odkrywcę”. W niedawno opublikowanej książce2 poświęconej temu zagadnieniu, zawierającej eseje dziewiętnastu uczonych (w tym i autora tej książki), nie udało się nie tylko zgłębić tej tajemnicy, lecz nawet osiągnąć jakiegokolwiek konsensusu. Wyrażone w niej opinie są zupełnie rozbieżne: jedni utrzymują, że ludzie po prostu wynaleźli matematykę w celu porządkowania doświadczanych faktów, inni są przekonani, iż pod matematycznym obliczem przyrody kryje się głęboka, istotna treść.
Czy matematyka istnieje obiektywnie?
Zanim zajmiemy się zagadnieniem jej “niepojętej skuteczności”, ważne jest, by ustalić, czym właściwie jest matematyka. Istnieją dwie, zasadniczo sprzeczne, szkoły myślenia w tej kwestii. Pierwsza z nich utrzymuje, że matematyka jest tworem czysto ludzkim, druga, że istnieje ona niezależnie od człowieka. Spotkaliśmy się już z jedną z wersji takiej “twórczej”, czyli formalistycznej, interpretacji w rozdziale 4 przy okazji dyskusji programu Hilberta mechanicznego dowodzenia twierdzeń matematycznych. Przed pracami Godła możliwy był pogląd, że matematyka jest działalnością czysto formalną, będącą w istocie niczym więcej jak olbrzymią kolekcją logicznych reguł pozwalających przekształcać jedne ciągi symboli w inne. Uważano, że stanowi ona zamkniętą, samowystarczalną całość. Wszelkie związki ze światem zewnętrznym uznawano za przypadkowe, nie mające żadnego znaczenia dla uprawiania samej matematyki, które miało polegać na wynajdywaniu formalnych reguł i wszechstronnym badaniu ich konsekwencji. Jak już wspominałem w jednym z poprzednich rozdziałów, twierdzenie Godła o niezupełności matematyki położyło kres takiemu ściśle formalistycznemu stanowisku. Mimo to część matematyków nadal uważa, że matematyka jest wyłącznie tworem ludzkiego umysłu i nie ma innego znaczenia niż to, które przypisują jej matematycy.
Przeciwny kierunek myślenia znany jest pod nazwą platonizmu. Przypomnijmy sobie, że Platon wyznawał dualistyczną wizję rzeczywistości, na jednym krańcu umieszczając świat fizyczny, stworzony przez Demiurga, zmienny i przemijający, natomiast na drugim świat wiecznych i niezmiennych Idei, będących czymś w rodzaju abstrakcyjnych wzorców dla elementów świata fizycznego. Obiekty matematyczne zaliczał on do świata idealnego. Zdaniem platoników prawdy matematyczne nie są przez nas tworzone, lecz odkrywane. Obiekty i twierdzenia matematyki istnieją obiektywnie, transcendując fizyczną rzeczywistość będącą przedmiotem naszej percepcji.
Aby uzmysłowić sobie w pełni sens tej dychotomii, przyjrzyjmy się jej na konkretnym przykładzie. Rozważmy twierdzenie: “Dwadzieścia trzy jest najmniejszą liczbą pierwszą większą od dwudziestu. Z logicznego punktu widzenia zdanie to może być albo prawdziwe, albo fałszywe. W istocie jest ono prawdziwe. Pytaniem, jakie sobie stawiamy, jest, czy jest ono prawdziwe w bezczasowym, absolutnym sensie. Czy było prawdziwe, zanim w ogóle wynaleziono (czy też odkryto) liczby pierwsze? Platonicy odpowiadają na to twierdząco, gdyż uważają, że liczby pierwsze istnieją abstrakcyjnie, niezależnie od tego, czy ludzie o nich wiedzą czy nie. Formaliści natomiast odrzuciliby takie pytanie jako absurdalne.
Co sądzą na ten temat zawodowi matematycy? Powiada się niekiedy, że matematycy są platonikami w godzinach pracy, a formalistami w czasie wolnym. Zajmując się bezpośrednio matematyką trudno oprzeć się wrażeniu, że odkrywa się coś realnie istniejącego, tak jak w naukach przyrodniczych. Obiekty matematyczne żyją własnym życiem, często wykazując zupełnie nieoczekiwane własności. Z drugiej strony, koncepcja transcendentnej dziedziny, w której miałyby bytować obiekty matematyczne, wielu matematykom wydaje się nazbyt mistyczna, aby się do niej przyznawać, i jeśli się ich o to zapyta, zwykli twierdzić, że uprawianie matematyki polega wyłącznie na żonglerce symbolami i formułami.
Niemniej jednak istnieli prominentni matematycy przyznający się otwarcie do platonizmu. Należał do nich Kurt Godeł. Jak można było tego oczekiwać, Godeł oparł swą filozofię matematyki na wynikach swych badań nad rozstrzygalnością twierdzeń, rozumując, że zawsze będą istnieć twierdzenia matematyczne, które są prawdziwe, lecz nie mogą być udowodnione na podstawie istniejących aksjomatów. Wyobrażał sobie zatem, iż owe prawdziwe twierdzenia bytują “gdzieś tam” poza naszą Jaskinią”, w dziedzinie platońskich idei. Innym znanym platonikiem jest matematyk z Oxfordu, Roger Penrose. “Prawda matematyczna przekracza ramy czystego formalizmu” - pisze on. “Często odnosimy wrażenie, że pod pojęciami matematycznymi kryje się jakaś głębsza rzeczywistość, wykraczająca daleko poza deliberacje jakiegokolwiek konkretnego matematyka. Wygląda to, jak gdyby myśl człowieka kierowana była ku jakiejś zewnętrznej wobec niej, odwiecznie istniejącej prawdzie - prawdzie, która stanowi niezależną od nas rzeczywistość i ukazuje się nam jedynie w niewielkiej części”. Przytaczając jako przykład liczby zespolone, Penrose uważa, że mają one “głęboką, pozaczasową realność”.
Innym przykładem, który skłonił Penrose'a do przyjęcia platonizmu, jest coś, co nazwano “zbiorem Mandelbrota”, na cześć Benoita Mandelbrota, naukowca z firmy komputerowej IBM. Zbiór ten, którego postać geometryczna zwie się “fraktalem”, związany jest blisko z teorią chaosu i dostarcza kolejnego wspaniałego przykładu, że w wyniku prostej procedury rekurencyjnej otrzymujemy obiekt o niewiarygodnym bogactwie formy i złożoności. Generowany jest on poprzez wielokrotne stosowanie reguły (czy też odwzorowania) z -» z2 + c, gdzie z jest zmienną zespoloną, a c jest pewną stałą o wartości zespolonej. Regułę tę należy rozumieć następująco: weź pewną liczbę zespoloną z i zastąp ją przez z2 + c, następnie podstaw ją za z i wykonaj tę samą operację, i tak dalej, i tak dalej. Otrzymywane kolejno liczby zespolone można przedstawić na płaszczyźnie, na przykład na kartce papieru lub ekranie komputerowym, przy czym każda liczba stanowi jeden punkt. Można stwierdzić, że dla jednych wartości c punkt ten szybko wędruje poza ekran, podczas gdy dla innych wartości porusza się przez cały czas wewnątrz pewnego ograniczonego obszaru. Z kolei dane c jako liczba zespolona również odpowiada pewnemu punktowi na płaszczyźnie i właśnie zbiór wszystkich takich punktów c stanowi zbiór Mandelbrota. Zbiór ten ma tak niezwykle skomplikowaną strukturę, że nie sposób wprost opisać w słowach jego zadziwiającego piękna. Niejednokrotnie fragmenty tego zbioru były wystawiane jako dzieła sztuki na wystawach. Charakterystyczną cechą zbioru Mandelbrota jest to, że każda jego część może być powiększana bez końca i każdy kolejny poziom rozdzielczości ujawnia nowe bogactwo jego struktury.
Penrose zauważa, że Mandelbrot przystępując do badania własności tego zbioru zupełnie nie wyobrażał sobie z góry zawartej w nim wyrafinowanej struktury:
Struktura zbioru Mandelbrota nie może być przez nikogo z nas poznana w pełni swej złożoności; nie może też jej zrealizować żaden komputer. Wydaje się, jak gdyby nie była ona częścią naszego umysłu, lecz istniała niezależnie od nas. (...) Komputer wykorzystywany jest w tym przypadku zasadniczo w ten sam sposób, jak fizyk-eksperymentator wykorzystuje swą aparaturę doświadczalną do zgłębiania budowy świata fizycznego. Zbiór Mandelbrota nie został wymyślony, lecz odkryty. Tak jak Mount Everest, zbiór Mandelbrota po prostu jest!
Martin Gardner, matematyk i znany popularyzator nauki, zgadza się z tą opinią: “Penrose nie rozumie (ja również), jak ktoś mógłby przypuścić, że ta egzotyczna struktura jest mniej realna od Mount Everestu; może być ona penetrowana przez badaczy na podobieństwo dżungli”.
“Czy matematykę tworzymy, czy odkrywamy?” - pyta Penrose. Czyżby matematycy byli na tyle zafascynowani swoimi wynalazkami, iż mniemają, że istnieją one naprawdę? “Czy też odkrywają oni prawdy, które istniały już wcześniej, prawdy, których istnienie w żadnym stopniu nie zależy od tego, czy są one poznawane przez matematyków?” Opowiadając się wyraźnie za tym drugim poglądem, Penrose wskazuje, że w przypadkach takich, jak zbiór Mandelbrota, “struktura zawiera o wiele więcej, niż się do niej pierwotnie włożyło. Można powiedzieć, że w tych przypadkach matematycy natykają się na »dzieło Boga«“. W samej rzeczy dostrzega on analogię pomiędzy matematyką a natchnionymi dziełami sztuki: “Wśród artystów dość często spotykane jest przekonanie, że w swych najwspanialszych dziełach odkrywają prawdy wieczne, które istniały już wcześniej jakimś eterycznym rodzajem istnienia. (...) Nie mogę oprzeć się poczuciu, że w przypadku matematyki argumenty za tym, by wierzyć w jakiś typ eterycznego, wiecznego bytowania (...) są o wiele silniejsze”.
Łatwo wyrobić sobie wrażenie, że gdzieś tam istnieje rozległa kraina struktur matematycznych, a matematycy niczym podróżnicy badają to przedziwne, choć inspirujące terytorium, orientując się niekiedy według drogowskazów własnych doświadczeń lub kamieni milowych wcześniejszych odkryć. Posuwając się do przodu, napotykają coraz to nowe formuły i twierdzenia, które były już tam wcześniej. Matematyk Rudi Rucker uważa, że obiekty matematyki bytują w swego rodzaju przestrzeni duchowej, którą nazywa “Krainą Myśli”, tak jak obiekty fizyczne bytują w przestrzeni fizycznej. “Ten, kto uprawia matematykę - pisze on - jest odkrywcą badającym Krainę Myśli, tak jak Armstrong, Livingstone czy Cousteau badali nowe, nieznane obszary świata fizycznego”. Zdarza się, że różni badacze wędrują po tym samym terytorium i potem niezależnie ogłaszają, co tam znaleźli. “Podobnie jak istnieje jeden dla wszystkich Wszechświat, tak i istnieje jedna dla wszystkich Kraina Myśli” - uważa Rucker. John Barrow również przytacza przypadki dokonywania niezależnych odkryć w matematyce jako dowód “pewnego rodzaju jej obiektywności”, która niezależna jest od psychiki poszczególnych badaczy.
Penrose stawia tezę, że sposób, w jaki matematycy dokonują odkryć i komunikują sobie wzajemnie wyniki swoich badań, świadczy o faktycznym istnieniu dziedziny platońskich idei, czyli Krainy Myśli:
Wyobrażam sobie, że postrzegając pojęcia matematyczne umysł sięga platońskiego świata idealnego. (...) “Widzenie” prawd matematycznych przez człowieka polega na tym, że jego świadomość wdziera się do owego świata idei i wchodzi z tymi prawdami w bezpośredni kontakt. (...) Intersubiektywność dyskursu matematyków jest możliwa tylko dlatego, że każdy z osobna ma bezpośredni dostęp do prawdy - ich świadomość percypuje prawdy matematyczne bezpośrednio, w tym procesie “widzenia”. Ponieważ każdy z nich ma bezpośredni dostęp do świata platońskiego, łatwiej się im porozumieć ze sobą, niż można by tego oczekiwać. Obrazy, jakie tworzą się w ich umysłach podczas tych wypadów w dziedzinę idei, są prawdopodobnie w poszczególnych przypadkach zupełnie odmienne, lecz mimo to matematycy rozumieją się nawzajem, ponieważ każdy z nich ma do czynienia z tym samym platońskim światem bytów wiecznych!
Niekiedy to “wdzieranie się” następuje w sposób nagły i gwałtowny; określa się je wtedy mianem matematycznego olśnienia. Francuski matematyk Jacąues Hadamard, który badał to zjawisko, przytacza przykład Carla Gaussa, który przez całe lata zmagał się z pewnym problemem dotyczącym liczb całkowitych: “Jak gdyby w nagłym blasku błyskawicy, stanęło przede mną rozwiązanie problemu. Nie jestem sam w stanie powiedzieć, co było nicią łączącą to, co wiedziałem poprzednio, z tym, co pozwoliło mi znaleźć rozwiązanie”. Hadamard podaje również znany przypadek Henri Poincarego, który podobnie przez długi czas bezowocnie próbował rozwiązać problem dotyczący pewnych funkcji matematycznych. Pewnego dnia wyruszając na wyprawę geologiczną wsiadał do autobusu. “Gdy tylko postawiłem nogę na stopniu, zaświtała mi idea rozwiązania, przy czym nic w moich wcześniejszych myślach w żaden sposób tego nie zapowiadało” - relacjonował później. Był tak pewny, że znalazł właściwe rozwiązanie, iż nie myślał w tym momencie o tym więcej i prowadził dalej rozmowy ze współtowarzyszami podróży. Po powrocie z wycieczki spokojnie, bez wysiłku, zapisał cały dowód.
Penrose wspomina podobne zdarzenie, jakie przytrafiło mu się podczas pracy nad czarnymi dziurami i osobliwościami czasoprzestrzeni. Rozmawiał właśnie z kimś na ruchliwej londyńskiej ulicy i miał właśnie przejść przez jezdnię, gdy przyszła mu do głowy zasadnicza idea, jakkolwiek na tak krótki moment, że kiedy podjął ponownie rozmowę po drugiej stronie ulicy, zupełnie o niej zapomniał. W jakiś czas potem ogarnął go dziwny nastrój podniecenia i starał sobie uzmysłowić, co wydarzyło się tego dnia. W końcu przypomniał sobie o owym przebłysku natchnienia i od razu wiedział, że ma w ręku klucz do rozwiązania problemu, którym zajmował się od dłuższego czasu. Dopiero później udało mu się przeprowadzić ścisły dowód, że idea ta rzeczywiście była słuszna.
Wielu fizyków podziela tę platońską wizję matematyki. Na przykład, Heinrich Hertz, uczony, który pierwszy w warunkach laboratoryjnych wytworzył i odebrał fale radiowe, powiedział kiedyś: “Nie można uwolnić się od poczucia, że te formuły matematyczne istnieją niezależnie od nas i są nawet mądrzejsze od tych, co je odkryli, gdyż otrzymujemy z nich więcej, niż zostało w nie pierwotnie włożone”.
Zapytałem raz Richarda Feynmana, czyjego zdaniem matematyka, a tym samym i prawa fizyki, istnieją obiektywnie, a on mi odpowiedział:
Problem istnienia jest zarazem bardzo interesujący i trudny. Jeśli nawet uprawia się matematykę, wyciągając jedynie wnioski z przyjętych założeń, można odkryć ciekawą rzecz przy dodawaniu sześcianów liczb całkowitych. Jeden do sześcianu jest jeden; dwa do sześcianu jest dwa razy dwa razy dwa, co daje osiem; trzy do sześcianu jest trzy razy trzy razy trzy, co daje dwadzieścia siedem. Jeśli dodamy do siebie te trzy sześciany, jeden plus osiem plus dwadzieścia siedem - na tym poprzestańmy - otrzymamy trzydzieści sześć, to jest kwadrat innej liczby, sześć, która jest sumą trzech tych samych liczb całkowitych: jeden plus dwa plus trzy. (...) Tego, co ci powiedziałem, mogłeś wcześniej nie wiedzieć. Mógłbyś zatem zapytać: “Skąd to jest, co to jest, gdzie to się znajduje, w jaki sposób to istnieje?” A przecież do tego doszedłeś. Kiedy odkrywa się coś takiego, ma się wrażenie, że było to prawdą, jeszcze zanim się o tym dowiedzieliśmy. Tak więc rodzi się myśl, że to musiało jakoś gdzieś istnieć, ale nie ma miejsca, gdzie mogłoby to istnieć. To tylko takie wrażenie. (...) A w przypadku fizyki kłopot jest podwójny. Odkrywamy te matematyczne zależności, lecz one odnoszą się do świata, więc problem, gdzie one istnieją, jest jeszcze bardziej pogmatwany. (...) Są to pytania filozoficzne, na które nie umiem odpowiedzieć.
Kosmiczny komputer
W ostatnich latach na rozważania o naturze matematyki coraz większy wpływ wywierają informatycy, którzy mają na tę dziedzinę swój własny pogląd. Nie powinno raczej nikogo dziwić, że większość informatyków uważa komputer za zasadniczy element każdego systemu myślowego, który miałby nadawać sens matematyce. W skrajnej postaci naczelną tezą tej filozofii jest: “To, czego nie można obliczyć, nie ma żadnego sensu”. W szczególności, każdy opis świata fizycznego musi być oparty jedynie o operacje matematyczne, które da się faktycznie przeprowadzić, przynajmniej w zasadzie, za pomocą komputera. Wyklucza to oczywiście z miejsca teorie, jakie opisywałem w rozdziale 5, w których wielkości fizyczne mogą przyjmować wartości nieobliczalne. Nie są dopuszczalne także operacje matematyczne obejmujące nieskończoną liczbę kroków. To z kolei wyklucza olbrzymie obszary matematyki, z których część była już z powodzeniem stosowana do opisu układów fizycznych. Co jeszcze poważniejsze, nawet wyniki matematyczne wymagające skończonej, lecz bardzo dużej liczby kroków są podejrzane, gdy weźmie się pod uwagę, że moc obliczeniowa całego Wszechświata jest ograniczona. Wyznawcą tego poglądu jest Rolf Landauer: “Nie tylko fizyka określa, co są w stanie zrobić komputery, lecz to, co są w stanie zrobić komputery, wyznacza z kolei fundamentalną naturę praw fizyki. W końcu prawa fizyki są algorytmami przetwarzania informacji i nie miałyby sensu, gdyby nie dało się ich zrealizować w naszym Wszechświecie przy użyciu jego praw i zasobów”.
Jeżeli sensowność matematyki zależy od dostępnych zasobów Wszechświata, ma to bardzo daleko idące konsekwencje. Zgodnie ze standardowym modelem Wszechświata, od jego momentu początkowego światło mogło przebyć jedynie skończony odcinek drogi, ponieważ wiek Wszechświata jest skończony. Żaden fizyczny obiekt ani oddziaływanie, w szczególności żadna informacja, nie mogą się przenosić z prędkością większą od prędkości światła. Wynika stąd, że obszar Wszechświata, z którym jesteśmy przyczynowo powiązani, zawiera jedynie skończoną liczbę cząstek. Zewnętrzna granica tego obszaru znana jest pod nazwą horyzontu czasowego. Jest to najdalsza płaszczyzna w przestrzeni, do której światło wyemitowane w pobliżu nas krótko po Wielkim Wybuchu było w stanie dotrzeć do chwili obecnej. Jeśli chodzi o obliczenia, w oczywisty sposób jedynie te obszary Wszechświata, pomiędzy którymi możliwa jest wymiana informacji, mogą być uznane za wchodzące w skład tego samego układu obliczeniowego; w tym przypadku będzie to obszar zawarty wewnątrz naszego horyzontu. Wyobraźmy sobie, że każdą cząstkę w tym obszarze dało się zaprząc do obliczeń, tworząc gigantyczny kosmiczny komputer. Jednak nawet ta, przerażająca wręcz swym ogromem, maszyna miałaby wciąż skończoną moc obliczeniową, ponieważ zawiera skończoną liczbę cząstek (w tym przypadku około 1080). Nie mogłaby, na przykład, nawet obliczyć liczby n z nieskończoną dokładnością. Landauer twierdzi, że skoro Wszechświat jako całość nie może czegoś obliczyć, należy o tym zapomnieć. Tak więc nawet “zwykłe n” nie byłoby dobrze określoną wielkością. Oznaczałoby to, że nie można by już uważać, że stosunek obwodu koła do jego średnicy wyraża się dokładnie konkretną liczbą nawet w wyidealizowanym przypadku doskonałych linii geometrycznych, lecz jest nieoznaczony.
Jeszcze trudniejszy do przyjęcia jest fakt, że w sytuacji, gdy horyzont rozszerza się z czasem, w miarę jak światło porusza się w głąb kosmosu, zasoby zawarte w obszarze leżącym wewnątrz horyzontu były w przeszłości mniejsze. Wynika stąd, że matematyka jest zależna od czasu - wniosek stojący w całkowitej sprzeczności z platońskimi poglądami, że prawdy matematyki są pozaczasowe, transcendentne i wieczne. Na przykład, w sekundę po Wielkim Wybuchu w objętości zawartej wewnątrz horyzontu mieściłaby się jedynie niewielka część obecnej liczby cząstek elementarnych. W tak zwanym czasie Plancka (104a s) wewnątrz horyzontu mogła znajdować się tylko jedna cząstka. Zatem moc obliczeniowa Wszechświata w czasie Plancka była zasadniczo zerowa. Wyciągając z tez Landauera logiczne wnioski, oznacza to, że w tej epoce cała matematyka pozbawiona była wszelkiego sensu. Gdyby tak miało być, to próby zastosowania fizyki matematycznej do opisu wczesnego Wszechświata, w szczególności cały program kwantowej kosmologii i problem początku Wszechświata opisany w rozdziale 2 również straciłyby sens.
Dlaczego my?
Jedyną niezrozumiałą rzeczą we Wszechświecie jest to, że jest on zrozumiały.
Albert Einstein
Sukcesy współczesnej nauki często przysłaniają nam zdumiewający fakt, że nauka jest w ogóle możliwa. Jakkolwiek większość ludzi przyjmuje to za rzecz oczywistą, jest to fakt zarówno niezmiernie szczęśliwy, jak i niezmiernie tajemniczy, że jesteśmy w stanie zgłębiać tajniki przyrody za pomocą metody naukowej. Jak już wyjaśniałem, istotą nauki jest odkrywanie struktur i regularności w przyrodzie poprzez wynajdywanie sposobów algorytmicznego upraszczania danych obserwacyjnych. W surowych danych obserwacyjnych rzadko da się dostrzec bezpośrednio jakieś regularności. Przyroda ukrywa przed nami swój ład, głęboko go kodując. Postęp w nauce dokonuje się poprzez łamanie tego kosmicznego kodu, wnikanie pod powierzchnię surowych danych w poszukiwaniu ukrytego porządku. Przyrównywałem nieraz badania podstawowe do rozwiązywania krzyżówki. Eksperymenty i obserwacje dostarczają nam wskazówek do poszczególnych “haseł”, lecz są one wyrażone nie wprost i wymagają znacznych umiejętności, aby je odpowiednio rozszyfrować. Wraz z odgadnięciem kolejnego “hasła” ukazuje się nam następny fragment ogólnej struktury przyrody. Zarówno w przypadku krzyżówki, jak i świata fizycznego, widzimy, że niezależne “hasła” łączą się w spójną całość, zazębiając się wzajemnie, tak więc im więcej haseł odgadniemy, tym łatwiej znaleźć brakujące ogniwa.
Zadziwiające w tym wszystkim jest to, że ludziom rzeczywiście udaje się złamać ten kod, że umysł człowieka jest wystarczająco wyposażony intelektualnie, by móc “odsłaniać tajemnice przyrody” i pokusić się o rozwiązanie jej “tajemnej krzyżówki”. Łatwo wyobrazić sobie świat, w którym regularności przyrody nie byłyby ukryte, lecz widoczne dla każdego na pierwszy rzut oka. Możemy sobie także wyobrazić inny świat, w którym bądź to nie ma żadnych regularności, bądź są one tak ukryte, tak wyrafinowane, że rozwiązanie kosmicznego kodu przekraczałoby możliwości umysłu człowieka. My natomiast doświadczamy sytuacji, w której trudność kosmicznego kodu jest, jak się wydaje, dokładnie dostosowana do możliwości intelektualnych człowieka. Co prawda, rozszyfrowywanie zagadek przyrody sprawia nam wiele trudności, mimo to odnosimy na tym polu wiele sukcesów. Uprawianie nauki jest na tyle wymagającym zadaniem, że przyciąga najlepsze umysły, lecz nie na tyle ciężkim, by ich wysiłki poszły na marne, co mogłoby zniechęcić do dalszego ich podejmowania.
Tajemnicą pozostaje to, że, jak się uważa, zdolności ludzkiego umysłu rozwinęły się na drodze ewolucji biologicznej, która nie rna bezpośrednio żadnego związku z uprawianiem nauki. Nasze mózgi ukształtowały się pod wpływem wymogów reagowania i dostosowania do środowiska, takich jak konieczność polowania na zwierzynę, ucieczki przed drapieżnikami, unikania spadających przedmiotów itp. Co to ma wspólnego z odkrywaniem praw elektromagnetyzmu czy też poznawaniem struktury atomu? Intryguje to również Johna Barrowa: “Dlaczegóż nasze procesy poznawcze dostosowały się do podejmowania takich ekstrawaganckich celów, jak zrozumienie całego Wszechświata? - pyta on. - Dlaczego akurat my? Żadna z wyrafinowanych koncepcji naukowych nie daje jakiejkolwiek przewagi, która mogłaby wpłynąć na selekcję w procesie ewolucji. (...) Jakże szczęśliwym zbiegiem okoliczności jest, że nasze umysły (przynajmniej niektóre) wykształciły się tak, by zgłębiać tajemnice Przyrody”.
Tajemnica naszego niesamowitego powodzenia w rozwijaniu nauki pogłębi się jeszcze bardziej, gdy uświadomimy sobie, jak bardzo ograniczone są możliwości uczenia się u człowieka. Z jednej strony, ograniczona jest szybkość przyswajania nowych faktów i pojęć, szczególnie tych o bardziej abstrakcyjnym charakterze. Normalnie trzeba co najmniej piętnaście lat nauki, aby student opanował matematykę i inne dyscypliny nauki w stopniu wystarczającym, by móc próbować wnieść własny wkład w badania podstawowe. Jednakże jest faktem ogólnie znanym, że, dotyczy to zwłaszcza fizyki teoretycznej, największe sukcesy w nauce odnoszą ludzie mający po dwadzieścia kilka, najwyżej trzydzieści kilka lat. Newton, na przykład, miał zaledwie cztery lata, gdy odkrył prawo powszechnego ciążenia. Dirac jeszcze jako doktorant sformułował swe relatywistyczne równanie falowe, które doprowadziło do odkrycia antymaterii. Einstein miał dwadzieścia sześć lat, gdy opracował szczególną teorię względności, podstawy mechaniki statystycznej i teoretyczne podstawy zjawiska fotoelektrycznego w ciągu zaledwie kilku miesięcy wytężonej pracy twórczej. Jakkolwiek starsi naukowcy gotowi są temu przeczyć, istnieją przekonywające dowody, że prawdziwie nowatorska twórczość naukowa ustaje około czterdziestki. Już znaczny zasób wiedzy i jeszcze znaczne zdolności twórcze tworzą naukowca, dając mu krótki, lecz efektywny “przedział sposobności”, kiedy to może dokonać znaczących odkryć naukowych. Jednakże te ograniczenia intelektualne mają swe źródło w przyziemnych aspektach ewolucji biologicznej i związane są z długością życia, budową mózgu i strukturą społeczną u ludzi. Jakże dziwne zatem, że czynniki zestawione razem dopuszczają okres, w którym możliwe jest twórcze uprawianie nauki.
I w tym przypadku możemy sobie wyobrażać świat, w którym wszystkim ludziom dana jest wystarczająca ilość czasu na poznanie wszystkich faktów i koncepcji niezbędnych, by uprawiać badania podstawowe, albo też świat, w którym nauczenie się wszystkich niezbędnych rzeczy trwałoby tak długo, że nie stałoby na to życia u człowieka, a co najmniej okres twórczy minąłby na długo przed ukończeniem tej edukacji. A żaden aspekt tego niesamowitego “dostrojenia” człowieka do działalności poznawczej nie jest bardziej zadziwiający niż istnienie matematyki, wytworu ludzkiego umysłu zdolnego zgłębiać tajniki Wszechświata.
Dlaczego prawa przyrody mają charakter matematyczny?
Niewielu ludzi zajmujących się nauką zastanawia się, dlaczego podstawowe prawa przyrody mają postać matematyczną, uważając to za rzecz oczywistą. Jednak fakt, że matematyka jest skuteczna w odniesieniu do świata fizycznego, i to tak zdumiewająco skuteczna, wymaga uzasadnienia, gdyż nie wiadomo, dlaczego mielibyśmy prawo oczekiwać, że świat da się dobrze opisać za pomocą matematyki. Jakkolwiek większość naukowców przyjmuje, że tak musi być, dzieje nauki każą być tu ostrożnym. Wiele aspektów świata było długo uważanych za oczywiste, a potem okazywało się, że są one wynikiem szczególnych warunków lub okoliczności. Klasycznym przykładem może tu być newtonowska koncepcja absolutnego uniwersalnego czasu. W życiu codziennym koncepcja ta w pełni się potwierdza, ale, jak się okazuje, tylko dlatego, że poruszamy się o wiele wolniej niż światło. Może więc i matematyka jest skuteczna tylko ze względu na jakieś szczególne okoliczności?
Jedna z postaw wobec tego problemu polega na przyjęciu, że owa “niepojęta skuteczność matematyki”, by posłużyć się tu znanym sformułowaniem Wignera, jest uwarunkowana kulturowo jako wynik sposobu, w jaki ludzie zdecydowali się poznawać świat. Już Kant ostrzegał, że jeżeli patrzymy na świat przez różowe okulary, nic dziwnego, że widzimy go na różowo. Mamy skłonność - twierdził - przenosić na świat naszą własną preferencję do matematyki. Innymi słowy, to my narzucamy przyrodzie ład matematyczny, a nie przyroda nam. Jest to dość poważny argument. Nie ulega wątpliwości, że naukowcy badając przyrodę chętnie posługują się matematyką i skłonni są w większym stopniu podejmować te zagadnienia, które można wyrazić w sposób matematyczny. Aspektom przyrody, których nie da się łatwo ująć w ramy matematyki (np. dotyczących układów biologicznych i społecznych), zwykle przypisuje się mniejszą wagę, określając jako fundamentalne jedynie aspekty spełniające kryteria matematyzowalności. Zatem w przypadku pytania: “Dlaczego fundamentalne prawa przyrody mają charakter matematyczny”, narzuca się trywialna odpowiedź: “Ponieważ za fundamentalne uznajemy tylko te prawa, które są matematyczne”.
Sposób, w jaki postrzegamy świat, w oczywisty sposób determinowany jest częściowo przez budowę naszego mózgu. W procesie ewolucji biologicznej, z nie znanych nam bliżej powodów, mózg człowieka ukształtował się w ten sposób, że łatwo wyszukuje i skupia uwagę właśnie na matematycznych aspektach przyrody. Jak już mówiłem w rozdziale l, można sobie wyobrazić, że gdzieś w kosmosie żyją inteligentne istoty, u których ewolucja przebiegała zupełnie odmiennie i ich mózgi nie są podobne do naszych. Istoty te mogłyby nie podzielać naszych kategorii myślenia, w szczególności naszego upodobania do matematyki, stosując w poznaniu świata kategorie zupełnie dla nas niezrozumiałe.
Czyż zatem skuteczność matematyki w naukach przyrodniczych jest jedynie uwarunkowanym kulturowo wybrykiem, przypadkowym wytworem ewolucji biologicznej i społecznej człowieka? Niektórzy uczeni i filozofowie utrzymują, że tak jest rzeczywiście, ale przyznaję, że twierdzenie to, z wielu powodów, wydaje mi się nazbyt pochopne. Po pierwsze, znaczna część matematyki, która wykazała tak spektakularną skuteczność w fizyce, powstała w wyniku czysto abstrakcyjnych rozważań matematyków na długo przed zastosowaniem do opisu rzeczywistego świata. Nie brali zupełnie pod uwagę możliwości ich zastosowania. Ten “niezależny świat, stworzony mocą czystego rozumu”, jak określił go James Jeans, dopiero później okazał się użyteczny w badaniach naukowych. Angielski matematyk G.H. Hardy napisał, że matematykę uprawia się dla jej piękna, a nie zastosowań praktycznych, szczycąc się wręcz, iż zupełnie nie wyobraża sobie, by jego prace znalazły kiedykolwiek jakieś zastosowanie. A jednak odkrywamy, czasem w wiele lat później, że przyroda postępuje według reguł matematycznych, które już dawno zostały sformułowane przez czystych matematyków. (Jak na ironię, dotyczy to również znacznej części dorobku Hardy'ego). Jeans zwrócił uwagę, że matematyka jest tylko jedną z wielu konstrukcji intelektualnych. Podejmowane były próby skontruowania modelu świata jako, na przykład, żywego organizmu, czy też jako mechanizmu, które ostatecznie nie powiodły się. Dlaczego metoda matematyczna miałaby być tak płodna, gdyby nie związana była z jakąś realną własnością w przyrodzie?
Penrose, który również podejmuje to zagadnienie, zdecydowanie odrzuca tezę o uwarunkowaniu kulturowym matematyki. Nawiązując do zdumiewającego sukcesu teorii takich jak ogólna teoria względności, pisze on:
Trudno mi przypuścić, jak utrzymują niektórzy, że tak DOSKONAŁE teorie miałyby powstać w wyniku czysto przypadkowej selekcji naturalnej spośród różnych koncepcji intelektualnych, w której przetrwałyby tylko te najlepsze. Ich doskonałość jest zbyt duża, by mogły być jedynie zbiorem przypadkowo dobranych idei. Musi zachodzić jakiś głęboko ukryty powód tak znacznej zgodności między matematyką a fizyką, tj. między platońskim światem idealnym a światem fizycznym.
Penrose przyznaje się do przekonania, które, jak stwierdziłem, jest dość rozpowszechnione wśród naukowców, że najnowsze dokonania w dziedzinie fizyki teoretycznej stanowią faktycznie odkrycie nowych aspektów rzeczywistości, a nie tylko nadanie danym eksperymentalnym postaci bardziej strawnej dla możliwości poznawczych człowieka.
Wysuwano także argument, że to nasz mózg przystosował się ewolucyjnie w ten sposób, że odzwierciedla własności fizycznego świata, w tym także jego własności matematyczne, nic zatem dziwnego, iż odkrywamy matematykę w przyrodzie. Ale jak już wspominałem, to właśnie jest wielką zagadką, że w ludzkim mózgu rozwinęły się tak nadzwyczajne zdolności do uprawiania matematyki, gdyż nie widać, by abstrakcyjna matematyka mogła mieć jakąkolwiek wartość dla przetrwania gatunku. To samo można odnieść do uzdolnień muzycznych.
Wiedzę o świecie uzyskujemy na dwa odrębne sposoby. Pierwszym z nich jest bezpośrednia percepcja, drugim zastosowanie logicznego myślenia i wyższych funkcji intelektualnych. Rozważmy przypadek, że obserwujemy spadający kamień. Zjawisko fizyczne zachodzące w zewnętrznym świecie odzwierciedla się w naszym umyśle, ponieważ mózg konstruuje wewnętrzny model świata, w którym coś, co odpowiada fizycznemu przedmiotowi, “kamieniowi”, porusza się w trójwymiarowej przestrzeni: widzimy spadający kamień. Z drugiej strony, upadek kamienia można rozpatrywać w zupełnie odmienny, znacznie głębszy sposób. Na podstawie praw Newtona, uzupełnionych odpowiednią matematyką, można utworzyć sobie innego rodzaju model spadającego kamienia. Nie jest to model umysłowy, tak jak w przypadku percepcji, niemniej jednak stanowi on konstrukcję umysłu, w której pojmuje się dany spadający kamień jako konkretny przypadek pewnej szerszej kategorii procesów fizycznych. Model matematyczny oparty na prawach fizyki nie jest czymś, co naprawdę widzimy, niemniej dostarcza on, na swój abstrakcyjny sposób, pewnego typu wiedzy o świecie, i to wiedzy wyższego rzędu.
Wszystko wskazuje na to, że ewolucja typu darwinowskiego przystosowała nas do poznawania świata poprzez bezpośrednią percepcję. Zapewniało to bez wątpienia przewagę w procesie doboru naturalnego, jednakże nie ma żadnych oczywistych związków pomiędzy poznawaniem zmysłowym tego typu a poznaniem intelektualnym. Studenci często zmagają się z pewnymi działami fizyki, jak mechanika kwantowa i teoria względności, ponieważ starają się je zrozumieć poprzez wizualizację. Próbują “zobaczyć” zakrzywioną przestrzeń czy też ruch elektronu w atomie oczyma duszy i zupełnie im się to nie udaje. Nie jest to bynajmniej ich wina - nie sądzę, by jakikolwiek człowiek był w stanie przedstawić sobie wiernie te rzeczy w sposób obrazowy. Nic też w tym dziwnego - efekty kwantowe i relatywistyczne nie uwidaczniają się zasadniczo w życiu codziennym i ich uwzględnienie w tworzonym przez umysł modelu świata nie dawałoby naszym mózgom żadnej wyraźnej przewagi ewolucyjnej. Pomimo to fizycy są w stanie zgłębiać świat fizyki kwantowej i relatywistycznej za pomocą matematyki, odpowiednio dobranych eksperymentów, abstrakcyjnego rozumowania i innych racjonalnych procedur. Zagadką pozostaje, dlaczego dysponujemy takimi podwójnymi zdolnościami poznawania świata? Nie ma żadnych przesłanek, by uznać tę drugą metodę za udoskonalenie pierwszej. Są to zupełnie od siebie niezależne drogi poznania rzeczywistości. Jednakże, podczas gdy pierwsza w widoczny sposób zaspokaja potrzeby biologiczne, druga z punktu widzenia biologii nie przynosi żadnego zauważalnego pożytku.
Zagadka ta staje się jeszcze głębsza, gdy weźmiemy pod uwagę występowanie ludzi genialnie uzdolnionych matematycznie lub muzycznie, których biegłość w tych dziedzinach przewyższa o całe rzędy wielkości poziom średni dla całej populacji. Zdumiewająca intuicja takich matematyków jak Gauss i Riemann uwidaczniała się nie tylko w ich niezwykłych dokonaniach w dziedzinie matematyki (Gauss już w dzieciństwie uchodził za geniusza; miał także fotograficzną pamięć), lecz także w tym, że wiele twierdzeń zapisywali bez dowodu, pozostawiając następnym pokoleniom trud formalnego wykazania ich prawdziwości. W jaki sposób ci matematycy byli w stanie otrzymać od razu w gotowej postaci wyniki, których dowody, jak się później okazywało, wymagały przeprowadzenia długich i niezwykle złożonych rozumowań, naprawdę nie wiemy.
Prawdopodobnie najsłynniejszym przykładem jest tu przypadek hinduskiego matematyka S. Ramanujana. Ramanujan, urodzony pod koniec dziewiętnastego wieku w Indiach, pochodził z bardzo biednej rodziny i otrzymał zaledwie elementarne wykształcenie. Matematyki nauczył się praktycznie samodzielnie, przy czym, będąc izolowanym od głównego nurtu życia akademickiego, podchodził do niej w sposób dość niekonwencjonalny. Ramanujan zapisał całą masę twierdzeń bez dowodu, niektóre z nich o bardzo szczególnym charakterze, które nie przyszłyby do głowy bardziej konwencjonalnie nastawionemu matematykowi. W końcu o pracach Ramanujana dowiedział się Hardy i wprawiły go one w zdumienie. “Nigdy przedtem nie widziałem nic podobnego - twierdził. - Wystarczyło na nie raz popatrzeć, by być pewnym, że mogły one wyjść spod pióra tylko matematyka najwyższej klasy”. Hardy'emu udało się przeprowadzić dowód niektórych z twierdzeń Ramanujana, lecz jedynie z największą trudnością, stosując pełny zakres swoich własnych, wcale niemałych, umiejętności matematycznych. Udowodnienie pozostałych przerastało już jego możliwości, jednakże czuł, że muszą być one prawdziwe, gdyż “nikomu nie stałoby wyobraźni, by je wymyśleć”. Hardy'emu udało się sprowadzić Ramanujana do Cambridge i zamierzał pracować z nim wspólnie. Niestety, Ramanujan, który nie mógł przystosować się do innego środowiska kulturowego i miał poważne problemy ze zdrowiem, zmarł przedwcześnie w wieku zaledwie trzydziestu trzech lat, pozostawiając olbrzymi zasób matematycznych hipotez dla potomności.
Do dziś dnia nie wiadomo, w jaki sposób mógł on osiągnąć tak niezwykłe wyniki. Jeden z matematyków wyraził się, że twierdzenia wprost “wypływały z jego głowy”, bez zauważalnego wysiłku. Byłaby to rzecz godna uwagi u każdego matematyka, lecz w przypadku człowieka, który nie studiował matematyki w konwencjonalny sposób, była doprawdy czymś nadzwyczajnym. Narzuca się przypuszczenie, że Ramanujan obdarzony był szczególną zdolnością bezpośredniego oglądu matematycznej Krainy Myśli, skąd mógł czerpać gotowe twierdzenia, jakie tylko chciał.
Równie tajemnicze są przedziwne przypadki tak zwanych błyskawicznych rachmistrzów - ludzi potrafiących wykonywać prawie natychmiastowo niewiarygodnie złożone rachunki w pamięci, nie mając przy tym najmniejszego pojęcia, w jaki sposób otrzymują odpowiedź. Shakuntala Devi, mieszkająca w indyjskim mieście Bangalore, objeżdża świat zadziwiając publiczność na pokazach swymi umiejętnościami rachunkowymi. Podczas jednego z pokazów w Teksasie obliczyła prawidłowo w pamięci pierwiastek dwudziestego trzeciego stopnia z dwustucyfrowej liczby w ciągu zaledwie pięćdziesięciu sekund!
Jeszcze bardziej szczególne są być może przypadki “autystycznych mędrców”, upośledzonych umysłowo ludzi, którzy niejednokrotnie nie umieją wykonać najbardziej elementarnych działań arytmetycznych, a pomimo to wykazują niesamowitą umiejętność prawidłowego rozwiązywania zadań matematycznych, które zwykłym ludziom wydają się nieprawdopodobnie trudne. Na przykład w Stanach Zjednoczonych żyje dwóch opóźnionych umysłowo braci, którzy szybciej niż komputer potrafią znajdować liczby pierwsze. W innym przypadku, w programie pokazywanym w angielskiej telewizji upośledzony mężczyzna prawie bez namysłu określał właściwie dzień tygodnia, gdy podawano mu jakąś datę, nawet spoza naszego stulecia.
Jesteśmy oczywiście przyzwyczajeni do tego, że poszczególni ludzie są bardzo zróżnicowani pod względem zdolności fizycznych i umysłowych. Jedni potrafią skoczyć wzwyż powyżej dwóch metrów, podczas gdy innym sprawia trudność przeskoczenie jednego metra. Jednakże wyobraźmy sobie, że oto ktoś nagle skacze na wysokość dwudziestu lub dwustu metrów! A przecież skala wyczynów intelektualnych prezentowanych przez umysły uzdolnione matematycznie jest znacznie większa niż zróżnicowanie uzdolnień fizycznych.
Naukowcy są wciąż dalecy od poznania, w jaki sposób zdolności intelektualne są determinowane genetycznie. Być może tylko bardzo rzadko pojawia się u ludzi zestaw genów powodujący nadzwyczajne zdolności matematyczne. A może nie zdarza się to tak rzadko, lecz geny te nie zawsze zostają uaktywnione. Niemniej jednak w obu przypadkach odpowiednie geny występują w puli genetycznej człowieka. Fakt, że genialni matematycy pojawiają się w każdym pokoleniu, świadczy o tym, iż rozkład tej cechy w puli genetycznej jest dość stabilny. Jeżeli cecha ta wykształciła się przypadkowo, a nie pod wpływem czynników otoczenia, to jest prawdziwie zadziwiającym zbiegiem okoliczności, że matematyka da się bezpośrednio stosować do świata fizycznego. Z drugiej strony, jeśli nawet zdolności matematyczne w jakiś, bliżej nie znany, sposób sprzyjają przetrwaniu i rozwinęły się w wyniku doboru naturalnego, nadal stoimy przed zagadką, dlaczego prawa przyrody mają charakter matematyczny. Przecież przetrwanie “w dżungli” nie wymaga znajomości praw przyrody, lecz wyłącznie ich przejawów. Jak się przekonaliśmy, same prawa są zakodowane w przyrodzie i nie mają wcale prostego odniesienia do rzeczywistych zjawisk fizycznych, które im podlegają. Dla przetrwania istotna jest prawidłowa ocena, jaki świat jest, a nie znajomość jego ukrytego fundamentalnego porządku. A już na pewno nie jest ono uwarunkowane wiedzą o budowie jądra atomu, czarnych dziurach czy też cząstkach elementarnych, które na Ziemi powstają tylko w wielkich akceleratorach.
Można by sądzić, że gdy uchylamy się przed rzuconym kamieniem lub szacujemy, jak bardzo musimy się rozpędzić, by przeskoczyć strumień, czynimy użytek ze znajomości praw mechaniki, ale tak nie jest. Korzystamy wtedy jedynie z doświadczenia zdobytego w analogicznych sytuacjach. Nasz mózg reaguje na takie wyzwania automatycznie, nie dokonując całkowania newtonowskich równań ruchu, jak fizyk analizujący tę samą sytuagę od strony naukowej. Aby dokonywać oceny ruchu ciał w trójwymiarowej przestrzeni, nasz mózg musi się odznaczać pewnymi szczególnymi własnościami. Uprawianie matematyki (na przykład rachunku różniczkowego i całkowego, przydatnego przy naukowym opisie tego ruchu) również wymaga posiadania przez mózg określonych własności. Nie widzę żadnych przesłanek, by zakładać, że te dwa w zasadzie odmienne zestawy własności miałyby sobie odpowiadać lub że jeden z nich miałby być (nawet czysto przypadkowym) wytworem drugiego.
W istocie, fakty przemawiają za tezą przeciwną. Zwierzęta, tak jak my, potrafią uchylać się przed rzuconym kamieniem i skutecznie przeskakiwać przez przeszkody, lecz nie przejawiają żadnych zdolności matematycznych. Ptaki, na przykład, w o wiele większym stopniu niż ludzie wykorzystują bezpośrednio prawa mechaniki i ich mózgi są odpowiednio do tego ewolucyjnie przystosowane. Jednakże, jak wykazały eksperymenty z jajami ptaków, nie potrafią one liczyć więcej niż do trzech. Znajomość pewnych regularności w przyrodzie, takich jakie występują w mechanice, jest dla przetrwania bardzo istotna, toteż została wbudowana w mózgi ludzi i zwierząt już na bardzo pierwotnym poziomie. W przeciwieństwie do tego, matematyka stanowi wyższą funkcję umysłu, najwyraźniej spotykaną tylko u człowieka (przynajmniej, gdy bierzemy pod uwagę tylko życie na Ziemi). Jest ona wytworem najbardziej złożonego ze znanych układów w przyrodzie, a jednak jej najbardziej spektakularne sukcesy dotyczą najbardziej elementarnych procesów przyrody: oddziaływań cząstek w atomie. Jak to się dzieje, że najbardziej złożony układ połączony łączy się w ten sposób bezpośrednio z procesami najprostszymi?
Można by twierdzić, że skoro mózg jest wytworem procesów fizycznych, nie ma nic dziwnego w tym, że odzwierciedla istotę tych procesów, w tym także ich matematyczność. Jednak w rzeczywistości nie zachodzi żaden bezpośredni związek pomiędzy prawami fizyki a budową mózgu. Tym, co odróżnia mózg od kilograma zwykłej materii, jest jego wewnętrzna złożoność, w szczególności niezwykle skomplikowany system połączeń między neuronami. Struktury tej nie da się uzasadnić wyłącznie w kategoriach praw fizyki. Zależy ona od szeregu innych czynników, w tym całego mnóstwa wydarzeń przypadkowych, jakie towarzyszyły procesowi ewolucyjnemu. Prawa, które miały decydujący udział w kształtowaniu struktury mózgu (takie jak prawa genetyki Mendla), nie mają bezpośredniego związku z prawami fizyki.
Jak możemy wiedzieć cokolwiek, nie wiedząc wszystkiego?
Pytanie to, postawione wiele lat temu przez matematyka Hermanna Bondiego, jest obecnie jeszcze bardziej aktualne, wobec postępu, jaki dokonał się w teorii zjawisk kwantowych. Mówi się często, że świat jest jednością, że przyroda połączona jest wewnętrznie w jedną wielką całość. W pewnym sensie jest to prawda. Niemniej prawdą jest też, że jesteśmy w stanie zdobyć nawet bardzo szczegółową wiedzę o poszczególnych jej elementach, nie wiedząc wszystkiego. W istocie, nauka nie byłaby w ogóle możliwa, gdybyśmy nie mogli zdobywać wiedzy “po kawałku”. Galileusz odkrywając prawo spadku swobodnego ciał nie musiał znać rozkładu wszystkich mas we Wszechświecie; własności elektronów w atomie mogły być odkryte, zanim poznano budowę jądra, i tak dalej. Nietrudno wyobrazić sobie świat, w którym zjawiska związane z jednym miejscem, bądź też jedną skalą rozmiarów lub energii, są na tyle ściśle związane z wszystkimi innymi, że nie można ich ująć osobno w postać prostych praw. Odwołując się do analogii z krzyżówką: zamiast krzyżującej się siatki odzielnych słów, mielibyśmy do odgadnięcia jedno niezwykle skomplikowane słowo. Poznanie Wszechświata odbywałoby się na zasadzie “wszystko-albo-nic”.
Całą zagadkę pogłębia fakt, że tak naprawdę owa rozdzielność przyrody ma charakter jedynie przybliżony. W rzeczywistości Wszechświat jest jedną całością. Pozycja Księżyca ma wpływ na spadające na Ziemi jabłko, i na odwrót. Na ruch elektronów w atomie wpływają także siły jądrowe. Jednakże w obydwu przypadkach efekty tych oddziaływań są na tyle małe, że praktycznie prawie zawsze możemy je zaniedbać. Niemniej nie dotyczy to wszystkich układów. Wspominałem już o istnieniu układów chaotycznych, które są niezmiernie wrażliwe na najdrobniejsze zewnętrzne zaburzenia. Sprawia to, że układy chaotyczne zachowują się w sposób nieprzewidywalny. Jednakże, pomimo iż żyjemy w świecie pełnym układów chaotycznych, potrafimy wydzielić zeń znaczną liczbę układów fizycznych, których zachowanie da się przewidzieć i opisywać za pomocą matematyki.
Można to przypisać po części dwóm ciekawym własnościom, zwanym “liniowością” i “lokalnością”. Układ liniowy spełnia dość szczególne matematyczne warunki rozdzielności mnożenia względem dodawania, związane z wykresami w postaci linii prostych - stąd nazwa “liniowy”, których nie będę tu bliżej omawiał (przedstawiłem je bardziej szczegółowo w mojej książce The Matter Myth [Mit materii]). Na przykład prawa elektromagnetyzmu, opisujące pola magnetyczne i elektryczne, są w bardzo dużym stopniu dokładności liniowe. Układy liniowe nie mają charakteru chaotycznego i nie są zbyt czułe na drobne zaburzenia zewnętrzne.
Żaden układ nie jest jednak dokładnie liniowy, zatem problem separowalności sprowadza się do kwestii, dlaczego efekty nieliniowe są na ogół w praktyce tak małe. Zazwyczaj bierze się to stąd, że wchodzące w grę odziaływania nieliniowe są same w sobie niezwykle słabe bądź mają bardzo krótki zasięg, albo i to, i to. Nie wiemy na razie, dlaczego siła i zasięg poszczególnych oddziaływań w przyrodzie są takie, jakie są: być może kiedyś uda się je wyliczyć z jakiejś ogólnej teorii. Inną możliwością jest, że są to “stałe przyrody”, których nie sposób wyprowadzić z samych praw. Istnieje jeszcze trzecia możliwość, że te “stałe” nie są wcale stałymi, których wartości są raz na zawsze ustalone, “dane od Boga”, lecz uwarunkowane są przez faktyczny stan Wszechświata; innymi słowy, wyznaczone są przez kosmiczne warunki początkowe.
Własność lokalności odnosi się do faktu, że, jak to ma miejsce w większości przypadków, zachowanie się układu fizycznego wyznaczone jest całkowicie przez siły i oddziaływania występujące w jego bezpośrednim otoczeniu. Tak więc przyśpieszenie spadającego swobodnie jabłka w danym punkcie przestrzeni zależy od natężenia pola grawitacyjnego tylko w tym punkcie. Ta sama reguła stosuje się do wielu innych oddziaływań i okoliczności. Istnieją wszakże sytuacje, w których mamy do czynienia ze zjawiskami nielokalnymi. Weźmy na przykład dwie cząstki elementarne, które oddziaływają ze sobą lokalnie, a następnie oddalają się od siebie. Z zasad mechaniki kwantowej wynika, że nawet gdy cząstki te znajdą się na przeciwległych krańcach Wszechświata, nadal muszą być uważane za niepodzielną całość; to znaczy, wynik pomiaru przeprowadzonego na jednej z cząstek będzie częściowo zależał od stanu drugiej cząstki. Einstein określał tę nielokalność jako “widmowe oddziaływanie na odległość”, nie wierząc zupełnie w jej realny charakter. Tymczasem przeprowadzone ostatnio eksperymenty potwierdziły ponad wszelką wątpliwość, że takie efekty nielokalne faktycznie występują. Uogólniając, należy stwierdzić, że na poziomie subatomowym, opisywanym przez mechanikę kwantową, zespół wielu cząstek musi być traktowany holistycznie, gdyż zachowanie jednej cząstki jest nieodłącznie związane z zachowaniem pozostałych, niezależnie od tego, jak wielkie będą ich wzajemne odległości.
Fakt ten ma istotne znaczenie dla Wszechświata jako całości. Gdybyśmy chcieli arbitralnie określić stan kwantowy całego kosmosu, odpowiadałby on prawdopodobnie gigantycznemu zespołowi wzajemnie oddziałujących wszystkich cząstek we Wszechświecie. W rozdziale 2 wspominałem o najnowszych ideach Hartle'a i Hawkinga dotyczących kwantowego opisu Wszechświata jako całości, czyli kosmologii kwantowej. Jednym z wielkich wyzwań stojących przed kosmologami kwantowymi jest wyjaśnienie, w jaki sposób świat, który znamy z naszego doświadczenia, wyłonił się z mglistego stanu początkowego. Przypomnijmy, że mechanika kwantowa zawiera zasadę nieoznaczoności Heisenberga, która przewiduje rozmycie wartości wszystkich wielkości obserwowalnych w nieprzewidywalny sposób. Zgodnie z tym nie można przyjmować, że elektron wewnątrz atomu posiada w każdej chwili określoną pozycję w przestrzeni. Nie powinno się wręcz wyobrażać sobie, że krąży on wokół jądra atomu po konkretnej orbicie, lecz że jest on w bliżej nie określony sposób rozmyty wokół jądra.
Chociaż tak to wygląda w przypadku elektronów w atomie, dla obiektów makroskopowych takiego rozmycia nie obserwujemy. Zatem planeta Mars ma w każdej chwili dokładną pozyq'ę w przestrzeni i porusza się po dobrze określonej orbicie wokół Słońca. Pomimo to Mars także podlega prawom mechaniki kwantowej. Można więc zapytać, jak to uczynił kiedyś Enrico Fermi, dlaczego Mars nie jest rozmyty wokół Słońca, tak jak elektron wokół jądra atomu. Innymi słowy, założywszy, że narodziny Wszechświata były procesem kwantowym, jak to się stało, że powstał świat zasadniczo niekwantowy? Początkowo, gdy rozmiary Wszechświata były jeszcze bardzo małe, dominowała w nim nieokreśloność kwantowa, lecz obecnie dla ciał makroskopowych nie obserwujemy żadnych jej przejawów.
Większość naukowców czyni milczące założenie, że w przybliżeniu niekwantowy (czyli “klasyczny”, by użyć przyjmowanego określenia) świat jest koniecznym rezultatem Wielkiego Wybuchu, nawet zdominowanego początkowo przez efekty kwantowe. Niedawno jednak Hartle i Gell-Mann zakwestionowali ten pogląd, dowodząc, że istnienie świata w przybliżeniu klasycznego, w którym dobrze określone obiekty materialne znajdują się w określonych miejscach przestrzeni i w którym obowiązuje dobrze określone pojęcie czasu, jest możliwe tylko dla pewnych szczególnych warunków początkowych. Z ich obliczeń wynika, że dla większości możliwych warunków początkowych taki klasyczny świat by nie powstał i podział świata na odrębne obiekty, zajmujące konkretne położenie w dobrze określonej czasoprzestrzeni, nie byłby możliwy. Zasada lokalności nie obowiązywałaby. Wydaje się prawdopodobne, że w takim rozmytym świecie nie byłoby możliwe poznanie czegokolwiek bez poznania wszystkiego. W istocie Hartle i Gell-Mann twierdzą, że sama koncepcja praw fizyki klasycznej, takich jak prawa mechaniki Newtona, nie może być uznana za fundamentalną cechę rzeczywistości, lecz jest pozostałością Wielkiego Wybuchu i konsekwencją szczególnego kwantowego stanu początkowego Wszechświata.
Jeżeli jest także prawdą, jak wspominałem powyżej, że siła i zasięg oddziaływań w przyrodzie również zależy od kwantowego stanu Wszechświata, to możemy dojść do istotnego wniosku. Zarówno liniowość, jak i lokalność większości układów fizycznych nie wynika wcale z jakichś praw fundamentalnych, lecz ze szczególnego stanu kwantowego u początków Wszechświata. Racjonalność świata, fakt, że możemy poznawać go stopniowo, odkrywając kolejne prawa, to znaczy, że nauka jest w ogóle możliwa, nie jest czymś koniecznym, absolutnie obowiązującym, lecz należy ją przypisać szczególnym, może nawet bardzo szczególnym, kosmicznym warunkom początkowym. “Niepojęta skuteczność” matematyki w odniesieniu do świata rzeczywistego byłaby zatem skutkiem “niepojęcie skutecznych” warunków początkowych.
Einstein nadmienił kiedyś, iż najbardziej go ciekawi, czy Bóg stwarzając świat miał jakąś możliwość wyboru. Einstein nie był człowiekiem wierzącym w tradycyjnym sensie, niemniej chętnie posługiwał się pojęciem Boga jako metaforą przydatną przy wyrażaniu najbardziej zasadniczych kwestii egzystencjalnych. To konkretne pytanie dręczyło całe pokolenia uczonych, filozofów i teologów. Czy świat z konieczności jest taki, jaki jest, czy też mógłby równie dobrze być zupełnie inny? a jeśli mógłby być inny, w jaki sposób moglibyśmy uzasadnić, dlaczego jednak jest właśnie taki?
Podejmując kwestię, czy Bóg mógł stworzyć świat tak, jak chciał, Einstein nawiązywał do idei siedemnastowiecznego filozofa Benedykta Spinozy. Spinoza był panteistą i uważał obiekty świata fizycznego za atrybuty Boga, a nie rzeczy przez niego stworzone. Utożsamiając Boga z przyrodą, Spinoza odrzucał chrześcijańską koncepcję transcendentnego Boga, który stworzył świat jako akt swej wolnej woli. Z drugiej strony, Spinoza nie był bynajmniej ateistą, był przekonany, że potrafi udowodnić na gruncie logiki, że Bóg musi istnieć. Ponieważ uznał tożsamość Boga ze światem fizycznym, oznaczało to, że potrafi udowodnić, iż nasz konkretny świat również istnieje z konieczności. U Spinozy Bóg nie miał żadnej możliwości wyboru: “Świat nie mógłby być powołany do istnienia przez Boga w jakikolwiek inny sposób ani w jakiejkolwiek innej postaci niż ta, którą faktycznie otrzymał” - pisał on.
Ten trend myślowy - że rzeczywistość w tej postaci jest logicznie konieczna i nie mogłaby być inna - jest obecnie dość powszechny wśród naukowców. Na ogół jednak wolą oni nie wprowadzać do niej Boga. Gdyby mieli rację, oznaczałoby to, że świat jest układem zupełnym i zamkniętym pod względem poznawczym, w którym wszystko da się uzasadnić i nie ma miejsca na żadną tajemnicę, a także, iż w zasadzie nie potrzebujemy obserwować świata, aby poznać, co i jak w obrębie niego istnieje, ponieważ wszystko, co istnieje, jest logicznie konieczne, istotę Wszechświata można zgłębić mocą samego rozumu. “Jestem głęboko przekonany - pisał Einstein, do którego przemawiała ta idea - że czystą myślą możemy dosięgnąć rzeczywistości, tak jak marzyli o tym starożytni. (...) Za pomocą czystej matematyki jesteśmy w stanie odkryć koncepcje oraz spajające je w jedną całość prawa, które stanowią klucz do zrozumienia zjawisk przyrody”. Oczywiście, możemy nie okazać się wystarczająco inteligentni, aby faktycznie otrzymać właściwe koncepcje i prawa wyłącznie na drodze dedukcji matematycznej, ale nie w tym rzecz. Gdyby taka zamknięta pod względem poznawczym struktura była w ogóle możliwa, zmieniłoby to zasadniczo nasze myślenie o Wszechświecie i miejscu, jakie w nim zajmujemy. Jednakże, czy te aspiracje do zupełnego i jednolitego systemu są w jakikolwiek sposób uzasadnione, czy też są jedynie próżną mrzonką?
Poznawalność Wszechświata
U podłoża tych wszystkich pytań kryje się podstawowe założenie: że świat jest zarówno racjonalny, jak i poznawalny. Często wyraża się to w postaci tzw. “zasady racji dostatecznej”, stwierdzającej, że zawsze istnieje powód, dlaczego coś jest takie, jakie jest. Dlaczego niebo jest koloru niebieskiego? Dlaczego jabłka spadają z drzewa na ziemię? Dlaczego Układ Słoneczny liczy dziewięć planet? Nie zadowalamy się zwykle odpowiedzią: “Bo tak już jest”, wierząc, że zawsze jest jakaś racja, aby coś było właśnie takie. Gdyby istniały na świecie jakieś fakty, których z założenia nie moglibyśmy uzasadnić (tak zwane luźne fakty), to świat zostałby pozbawiony racjonalności i jawiłby się nam jako absurdalny.
Większość ludzi akceptuje zasadę racji dostatecznej bez pytania. Cała nauka wręcz oparta jest na założeniu, że przyroda jest racjonalna. Zasada ta podzielana jest także przez większość teologów, gdyż wierzą oni, że Bóg także jest racjonalny. Czyż jednak możemy być absolutnie pewni, że zasady tej nie można kwestionować? Czy dysponujemy dostateczną racją, by wierzyć, że zasada racji dostatecznej jest bezwzględnie słuszna? Prawdą jest, że zasada ta zazwyczaj się potwierdza: jabłka spadają na ziemię pod wpływem siły ciążenia; niebo jest niebieskie, gdyż promienie świetlne o małej długości fali ulegają rozproszeniu na cząsteczkach powietrza, i tak dalej. Ale z tego nie wynika, że sprawdzi się ona zawsze. Oczywiście, gdyby okazała się fałszywa, to poszukiwanie ostatecznego uzasadnienia straciłoby wszelki sens. W każdym razie, niezależnie od tego, czy zasada racji dostatecznej jest prawdziwa czy też nie, warto przyjąć ją jako hipotezę roboczą, by przekonać się, gdzie nas ona doprowadzi.
Przystępując do rozważania fundamentalnych problemów związanych z istnieniem świata, musimy rozróżnić dwie kategorie.
Do pierwszej należą fakty dotyczące świata fizycznego, takie jak liczba planet w Układzie Słonecznym. W samej rzeczy planet jest dziewięć, lecz nie widać żadnych powodów, by przypuszczać, że musi ich być dziewięć. Przeciwnie, możemy sobie bez trudu wyobrazić, że jest ich osiem albo dziesięć. Aby uzasadnić, dlaczego jest ich dziewięć, musielibyśmy rozpatrzeć, w jaki sposób Układ Słoneczny uformował się z obłoku gazowego, względną obfitość pierwiastków w tym obłoku, i tak dalej. Jako że uzasadnienie własności Układu Słonecznego wymaga odwołania się do czegoś poza nim, własności określane są mianem “przygodnych”. Coś jest przygodne, jeżeli mogłoby być inne, i uzasadnienie, dlaczego jest właśnie takie, wymaga odwołania się do czegoś zewnętrznego, czegoś poza tą rzeczą.
Druga kategoria obejmuje fakty, obiekty i zdarzenia, które nie są przygodne, określane mianem “koniecznych”. Coś jest konieczne, jeżeli jest, jakie jest, niezależnie od czegokolwiek innego. Rzecz konieczna zawiera w sobie rację swego istnienia i nie ulega nigdy zmianie, nawet gdyby zmieniło się wszystko poza nią.
Ciężko jest przekonać się, czy w przyrodzie istnieje cokolwiek koniecznego. Niewątpliwie wszystkie ciała fizyczne, jakie napotykamy wokół nas, i związane z nimi wydarzenia zależą w jakiś sposób od reszty świata, więc muszą być uznane za przygodne. Ponadto, jeżeli coś jest w sposób konieczny tym, czym jest, to musi takie pozostać na zawsze; nie może ulec żadnej zmianie. Rzecz konieczna nie może zawierać żadnego odniesienia do czasu. Stan świata ustawicznie się zmienia w czasie, a zatem wszystkie ciała fizyczne współuczestniczące w tych zmianach są przygodne.
Co z Wszechświatem jako całością, skoro definiując go odwołujemy się do czasu? Miałby on być bytem koniecznym? Tak uważał Spinoza i jego następcy. Na pierwszy rzut oka nie wydaje się, aby mogli oni mieć rację, gdyż z łatwością możemy sobie wyobrazić, że Wszechświat jest inny. Oczywiście, możliwość wyobrażenia sobie czegokolwiek nie jest żadną gwarancją, że jest to możliwe, a nawet że jest logicznie dopuszczalne. Niemniej jestem przekonany, że są dostateczne powody, by przyjmować, iż Wszechświat mógłby być inny, i krótko je tutaj omówię.
A co z prawami fizyki? Czy mają one charakter konieczny, czy przygodny? W tym przypadku sytuacja jest mniej jasna. Zazwyczaj prawa te uznawane są za pozaczasowe i wieczne, a więc można by argumentować, że są one konieczne. Z drugiej strony, doświadczenie pokazuje, iż w miarę postępu fizyki prawa niegdyś uważane za niezależne okazują się być ze sobą powiązane. Dobrym przykładem może tu być niedawne odkrycie, że słabe oddziaływania jądrowe i oddziaływania elektromagnetyczne stanowią faktycznie dwa przejawy jednego oddziaływania zwanego elektrosłabym i opisywane są tymi samymi równaniami. A zatem te dwa odziaływania z osobna okazują się być zależne od innych oddziaływań. Ale może jest tak, że istnieje jednak jakieś superoddziaływanie, czy też najwyższe prawo jednoczące w sobie wszystkie oddziaływania, które jest konieczne? Wielu fizyków sądzi, że tak. Niektórzy współcześni naukowcy, jak na przykład chemik z Oxfordu Peter Atkins, wskazują na występujące w fizyce teoretycznej dążenie do znalezienia jednego najwyższego prawa, twierdząc, że dowodzi to, iż świat fizyczny w znanej nam postaci nie jest przygodny, lecz konieczny. Utrzymują oni, że nie ma potrzeby poszukiwania dalszych uzasadnień w metafizyce. Naukowcy ci sądzą, że nadejdzie czas, kiedy wszystkie prawa fizyki zostaną ujęte w ramy jednolitej teorii, której matematyczna struktura będzie jedyną możliwą pod względem logicznym.
Są jednak i tacy, którzy zwracając uwagę na tę samą postępującą unifikację, wyciągają całkowicie odmienne wnioski. Przykładem może być tu papież Jan Paweł II, który pozostając pod głębokim wrażeniem spektakularnych sukcesów unifikacji różnych cząstek elementarnych i czterech fundamentalnych oddziaływań przyrody, uznał niedawno za stosowne zwrócić się do uczestników konferencji naukowej z komentarzem na temat szeroko pojmowanych konsekwencji tych odkryć:
Fizycy zdobyli szczegółową, choć niepełną i tymczasową, wiedzę o cząstkach elementarnych i o fundamentalnych siłach, którymi oddziaływają one ze sobą przy małych i średnich energiach. Dysponują oni obecnie dobrą teorią unifikacji słabych oddziaływań jądrowych z elektromagnetycznymi oraz mniej pewnymi, aczkolwiek obiecującymi, teoriami Wielkiej Unifikacji, które próbują uwzględnić również silne oddziaływania jądrowe. W dalszej perspektywie tego rozwoju pojawiają się już dość szczegółowe propozycje ostatniego stadium superunifikacji, to znaczy unifikacji wszystkich czterech oddziaływań przyrody, w tym grawitacji. Czyż nie jest wart uwagi fakt, że w dziedzinie o tak daleko posuniętej specjalizacji, jak współczesna fizyka, występuje tak wyraźnie zaznaczona tendencja do jednoczenia?
Istotną cechą tego procesu jest sposób, w jaki ogarnia on stopniowo znane prawa fizyki. Każdy krok ukazuje nowe wzajemne zależności i wewnętrzną spójność pomiędzy prawami uważanymi dotąd za całkowicie niezależne. Na przykład, sam wymóg, by wszystkie teorie zgodne były z mechaniką kwantową i teorią względności, nakłada silne ograniczenia na postać matematyczną występujących w nich praw. Rodzi to oczekiwanie, że pewnego dnia, może już niedługo, ten proces jednoczenia osiągnie swój cel: opis wszystkich praw przyrody w ramach jednej teorii. Jest to idea tak zwanej Teorii Wszystkiego, o której wspominałem już w rozdziale 1.
Czy Teoria Wszystkiego jest w ogóle możliwa? Wielu naukowców sądzi, że tak. Niektórzy z nich uważają nawet, że już prawie dysponujemy taką teorią, podając modną obecnie teorię superstrun jako poważną próbę ujęcia wszystkich znanych w fizyce fundamentalnych oddziaływań i cząstek elementarnych, jak również struktury przestrzeni i czasu, w ramy jednej, uniwersalnej struktury matematycznej. W istocie, pogląd ten nie jest niczym nowym. Próby znalezienia całkowicie jednolitego opisu świata mają już długą historię. W swej książce Theories of Everything: The Quest for Ultimate Explanation [Teorie Wszystkiego: w poszukiwaniu ostatecznego uzasadnienia] John Barrow przypisuje popularność poszukiwania teorii tego typu głęboko zakorzenionemu u ludzi przekonaniu o racjonalności świata, przekonaniu, że pod powłoką zjawisk kryją się jednolite zasady logiczne, które dają się ująć w zrozumiałej, zwięzłej formie.
Rodzi się wtedy pytanie, czy przy tym dążeniu do globalnej unifikacji teoria zostaje poddana tak ścisłym wymogom matematycznej spójności, że staje się ona jedyną możliwą. Gdyby tak było, mielibyśmy w fizyce do czynienia tylko z jedną uniwersalną teorią, przy czym poszczególne jej prawa wyznaczone byłyby jednoznacznie jako logiczna konieczność. Powiada się, że świat byłby wtedy w pełni uzasadniony: prawa Newtona, równania Maxwella dla pola elektromagnetycznego, i wszystko inne, wynikałoby nieuchronnie z wymogu logicznej niesprzeczności teorii, podobnie jak twierdzenie Pitagorasa wynika z aksjomatów geometrii euklidesowej. Posuwając się tą drogą rozumowania do końca, naukowcy nie potrzebowaliby dłużej zaprzątać sobie głowy żadnymi obserwacjami ani eksperymentami. Nauki przyrodnicze utraciłyby charakter nauk empirycznych, stając się gałęzią logiki dedukcyjnej, przy czym prawa przyrody zyskałyby status twierdzeń matematycznych, a własności świata można by poznawać wyłącznie na drodze rozumowania dedukcyjnego.
Przekonanie, że naturę rzeczy istniejących w świecie można poznać mocą czystego rozumu, poprzez zastosowanie wnioskowania dedukcyjnego wychodzącego z oczywistych przesłanek, ma długą historię. Jego zaczątki możemy znaleźć już w pismach Platona i Arystotelesa. Pojawiło się ono ponownie w siedemnastym wieku u filozofów racjonalistycznych, jak Kartezjusz, który skonstruował system fizyki, z założenia oparty na zastosowaniu samego rozumu, a nie obserwacjach empirycznych. O wiele później, w latach trzydziestych naszego stulecia, fizyk E.A. Milne w podobny sposób próbował stworzyć dedukcyjny opis grawitacji i kosmologii. W ostanich latach idea, że całkowicie zunifikowana teoria fizyki mogłaby się okazać możliwa do wyprowadzenia w sposób dedukcyjny, znów zyskała na popularności, co skłoniło Stephena Hawkinga do nadania swemu wykładowi inauguracyjnemu przy obejmowaniu katedry fizyki w Cambridge prowokacyjnego tytułu “Czy zbliża się kres fizyki teoretycznej?”
Jednak jakie są podstawy, by przypuszczać, że może się tak zdarzyć? Nie wdając się w rozważania, czy teoria superstrun i podobne jej koncepcje rzeczywiście stanowią zalążek przyszłej unifikacji, jestem przekonany, że teza o jedyności teorii superunifikacji jest fałszywa i da się to wykazać. Do wniosku takiego doprowadziło mnie szereg przesłanek. Pierwszą z nich jest, że fizycy często rozważają niesprzeczne matematycznie “wszechświaty myślowe”, które bez wątpienia są różne od naszego Wszechświata. Powody tego wyjaśniałem w rozdziale l. Poznaliśmy już jeden taki wszechświat myślowy - automat komórkowy, a istnieje jeszcze wiele innych. Wydaje mi się, że dla zapewnienia jedyności teorii musimy postawić jej wymóg nie tylko tego, by była niesprzeczna wewnętrznie, lecz także aby spełniała szereg innych warunków różnego typu, takich jak zgodność z teorią względności, występowanie określonych symetrii, czy też istnienie trzech wymiarów przestrzennych i jednego czasowego.
Druga przesłanka dotyczy samego pojęcia jedyności w matematyce i logice. Matematyka opiera się na pewnym zbiorze aksjomatów. Wszystkie twierdzenia matematyki można wywieść dedukcyj-nie z tego zbioru aksjomatów, jednakże nie można wyprowadzić samych aksjomatów. Ich uzasadnienie wykracza poza ramy matematyki. Można sobie wyobrazić wiele różnych zestawów aksjomatów, prowadzących do różnych pod względem logicznym struktur. Poważne problemy stwarza także twierdzenie Godła. Pamiętajmy, że zgodnie z tym twierdzeniem w ogólnym przypadku niemożliwe jest dla danego systemu aksjomatów nawet udowodnienie nie-sprzeczności samych aksjomatów, a jeśli nawet uda się dowieść ich niesprzeczności, to i tak system aksjomatów będzie niezupełny w tym sensie, że będą istniały prawdziwe twierdzenia matematyczne, których prawdziwości nie da się udowodnić w ramach tego systemu. W jednym ze swych najnowszych artykułów Russell Stannard omawia, jakie to może mieć konsekwencje dla unifikacji fizyki:
Prawdziwa teoria wszystkiego musi uzasadnić nie tylko, jak powstał nasz Wszechświat, ale także, dlaczego jest to jedyny typ Wszechświata, jaki mógł zaistnieć - dlaczego mamy tylko jeden system praw fizyki.
Cel ten uważam za iluzoryczny. (...) Ten wrodzony, nieunikniony brak zupełności musi się odzwierciedlać w każdym matematycznym modelu naszego Wszechświata. Jako istoty stworzone, przynależące do świata fizycznego, musimy być również opisywani przez ten model. Wynika stąd, że nigdy nie będziemy w stanie uzasadnić wyboru przyjętych w tym modelu aksjomatów, a w konsekwencji i praw fizyki, którym odpowiadają te aksjomaty. Nie będziemy też mogli uzasadnić wszystkich prawdziwych zdań, jakie można wypowiedzieć o Wszechświecie.
John Barrow zajął się zbadaniem, jakie ograniczenia na Teorię Wszystkiego nakłada twierdzenie Godła, i dochodzi do wniosku, że taka teoria byłaby “dalece niewystarczająca, by rozwikłać zawiłości Wszechświata takiego jak nasz. (...) Nie istnieje pojedyncza formuła ujmująca cały Wszechświat, jego prawdę, harmonię i prostotę. Nie istnieje Teoria Wszystkiego pozwalająca wniknąć w całość istnienia, albowiem wniknąć we wszystko znaczy nie poznać konkretnie niczego”.
Zatem poszukiwania Teorii Wszystkiego, pozwalającej wyrugować ze świata wszelką przygodność i wykazać, że świat fizyczny w sposób konieczny jest tym, czym jest, wydają się skazane na niepowodzenie z racji czysto logicznych. Dla żadnego systemu racjonalnej wiedzy nie można dowieść, że jest on zarazem spójny i zupełny. Zawsze pozostanie pewna otwartość, pewien element tajemnicy, coś niewyjaśnionego. Filozof Thomas Torrance przygania tym, którzy ulegli pokusie uwierzenia, że Wszechświat jest “swego rodzaju perpetuum mobile, samoistnym, samowystarczalnym, samouzasadniającym się tworem, całkowicie spójnym i zupełnym, a tym samym uwięzionym w zaklętym kręgu nieuniknionych konieczności”. Ostrzega, że “Wszechświat nie zawiera w sobie racji, dlaczego w ogóle istnieje, ani dlaczego jest taki, jaki jest; dlatego oszukujemy samych siebie, jeżeli sądzimy, że potrafimy dowieść, iż poprzez naukę uda nam się dowieść, że Wszechświat nie mógłby być inny”.
Może być jednak tak, że prawa Wszechświata, choć nie są jedynymi możliwymi pod względem logicznym, są jedynymi dopuszczającymi powstanie struktur złożonych. A może nasz Wszechświat jest jedynym, w którym możliwa jest biologia, a zatem powstanie organizmów obdarzonych świadomością. Byłby to więc jedyny Wszechświat będący przedmiotem poznania. Wracając do postawionego przez Einsteina pytania, czy Bóg stwarzając Wszechświat miał jakąś swobodę wyboru, musimy na nie odpowiedzieć negatywnie, chyba że sam Bóg tak urządził świat, abyśmy o tym nie wiedzieli. Wspomina o tym Stephen Hawking w książce Krótka historia czasu: “Być może jest tylko jedna, lub co najwyżej kilka, teorii wielkiej unifikacji, takich jak teoria strun heterotycznych, które są spójne wewnętrznie i dopuszczają powstanie struktur tak skomplikowanych jak człowiek, będący w stanie zgłębiać prawa przyrody i stawiać pytania o naturę Boga”.
Może nawet nie ma żadnych logicznych przeszkód, by uznać tak postawioną tezę; tego nie wiem. Wiem jednak, że nie ma absolutnie niczego, co by za nią przemawiało. Można by jeszcze próbować argumentacji, że żyjemy w najprostszym z możliwych poznawalnych wszechświatów to znaczy, prawa fizyki są najprostszym logicznie spójnym zbiorem praw, który dopuszcza powstanie struktur samoreprodukujących się. Nie wydaje się jednak, aby nawet w tak bardzo osłabionej wersji dało się tego dowieść. Jak przekonaliśmy się w rozdziale 4, istnieją światy kreowane przez automaty komórkowe, w których możliwa jest samoreprodukcja struktur, przy czym reguły definiujące te światy są tak proste, że trudno wręcz sobie wyobrazić, aby prawa fizyki w ostatecznej teorii unifikacji mogły być prostsze.
Zajmijmy się teraz poważniejszym problemem dotyczącym tezy o jedyności Wszechświata, którego się na ogół nie zauważa. Nawet gdyby okazało się, że prawa fizyki mogą być tylko jedne, nie wynika z tego wcale, że wyznaczają one tylko jeden Wszechświat. Jak podawałem w rozdziale 2, prawa fizyki muszą być rozpatrywane wspólnie z kosmicznymi warunkami początkowymi. Jeden z możliwych układów warunków początkowych zaproponowany został przez Hartle'a i Hawkinga; omówimy je pod koniec tego rozdziału. Jakkolwiek może się on wydawać naturalny, jest to tylko jedna z nieskończenie wielu możliwości. W obecnej koncepcji “prawa warunków początkowych” nie ma nic, co mogłoby w najmniejszym stopniu sugerować, że tylko jakieś jedne konkretne warunki początkowe miałyby być spójne z prawami fizyki. Wręcz przeciwnie. Sam Hartle dowodzi, że istnieją głębokie zasadnicze powody, dlaczego prawa te nie mogą być wyznaczone jednoznacznie: “Konstruujemy nasze teorie w ramach Wszechświata, a nie poza nim, i wprowadza to w nieunikniony sposób pewne ograniczenia. Na przykład, warunki początkowe muszą być na tyle proste, aby dały się one wyrazić w ramach samego Wszechświata”. Uprawiając naukę, wprawiamy materię w ruch. Nawet samo myślenie wiąże się ze zmianami ruchu elektronów w naszym mózgu. Zmiany te, choć bardzo niewielkie, mają wpływ na stan innych elektronów i atomów we Wszechświecie. Hartle wyciąga stąd wniosek: “Wobec tego musi istnieć wiele układów warunków początkowych niemożliwych do odróżnienia poprzez sam fakt, że o nich myślimy”.
Inna łyżka dziegciu związana jest z tym, że świat na poziomie fundamentalnym ma naturę kwantową, wraz z nieodłącznym jej indetenninizmem. Każda teoria pretendująca do miana Teorii Wszystkiego musi to uwzględniać, co oznacza, że teoria taka mogłaby wyznaczać jednoznacznie co najwyżej świat najbardziej prawdopodobny, od którego świat rzeczywisty różniłby się na poziomie elementarnym na niezliczoną liczbę niemożliwych do przewidzenia sposobów. Mogłoby się to także uwidaczniać w skali makroskopowej; na przykład pojedyncze zderzenie cząstek może doprowadzić do powstania nowej mutacji jakiegoś gatunku, zmieniając bieg ewolucji.
Wydaje się zatem, że Wszechświat nie musi być taki, jaki jest: mógłby być inny. W ostatecznym rachunku to właśnie założenie, że Wszechświat jest zarówno przygodny, jak i poznawalny, jest motywacją dla badań empirycznych, bowiem gdyby nie był przygodny, bylibyśmy w stanie poznać go wyłącznie na drodze logicznej dedukcji; a gdyby nie był poznawalny, nauka w ogóle nie byłaby możliwa. “To właśnie połączenie przygodności i poznawalności - pisze filozof Ian Barbour - motywuje nas do poszukiwania nowych, nieoczekiwanych form racjonalnego porządku”. Barbour wskazuje, że przygodność świata ma poczwórny aspekt. Po pierwsze, same prawa fizyki, jak wszystko na to wskazuje, nie są konieczne. Po drugie, kosmologiczne warunki początkowe mogły być inne. Po trzecie, jak wiemy z mechaniki kwantowej, “Pan Bóg gra w kości” - to znaczy, zjawiska na poziomie fundamenalnym przyrody mają charakter statystyczny. I w końcu mamy fakt, że Wszechświat rzeczywiście istnieje. Ostatecznie, niezależnie od tego, jak znakomite teorie byśmy tworzyli, nie jest wcale powiedziane, że świat odpowiadający tym teoriom musi istnieć. Stephen Hawking zwraca szczególną uwagę właśnie na ten aspekt: “Czemu Wszechświat zadaje sobie w ogóle trud istnienia? - pyta. - Co wypełnia równania życiem, powołując do istnienia Wszechświat, który opisują?”.
Moim zdaniem jest jeszcze piąty typ przygodności, z którym mamy do czynienia w prawach “wyższego poziomu”, odnoszących się do własności samoorganizacji układów złożonych. Co rozumiem pod pojęciem takich praw, omówiłem wyczerpująco w książce The Cosmic Blueprint, więc ograniczę się tu do kilku przykładów. Wspominałem już o prawach genetyki Mendla, które, jakkolwiek w pełni zgodne z prawami fizyki, nie mogą być jednak wyprowadzone wyłącznie na ich podstawie. Podobnie różnego typu prawa i regularności, występujące w układach chaotycznych lub układach samoorganizujących się, uwarunkowane są nie tylko prawami fizyki, ale i konkretnym charakterem danego układu. W wielu przypadkach efektywne zachowanie się układu zależy od przypadkowych fluktuacji na poziomie mikroskopowym, a zatem praktycznie musimy taki układ uznać za indeterministyczny. A zatem te prawa i regularności wyższego poziomu zawierają istotne elementy przygodności niezależnie od praw fizyki.
Najbardziej tajemniczą stroną przygodności jest nie tyle to, że świat mógłby być inny, niż jest, lecz to, iż panuje w nim przygodny ład. Najsilniej uwidacznia się w dziedzinie biologii, gdzie konkretne formy organizmów żywych są bez wątpienia przygodne (łatwo mogłyby być inne), a jednak w biosferze mamy do czynienia z wyraźnym, wszechobecnym ładem. Gdyby elementy świata były bezładne, nieuporządkowane w żaden szczególny sposób, ich konkretny układ i tak byłby zagadkowy. Jednakże fakt, że przygodne przymioty świata układają się jednocześnie w pewne uporządkowane struktury, z pewnością kryje w sobie głęboki sens.
Kolejna niezwykle istotna cecha uporządkowanej przygodności świata związana jest z istotą tego porządku, który konstytuuje racjonalną jedność kosmosu. Ponadto ten całościowy porządek jest dla nas poznawalny. Czyni to całą zagadkę o wiele, wiele głębszą. Niemniej, niezależnie od tego, co się za tym kryje, na tych własnościach świata opiera się cała nauka. “To połączenie przygodności, racjonalności, wolności i stabilności Wszechświata - pisze Torrance - sprawia, że jest on tak niezwykły, i nie tylko umożliwia badanie go w sposób naukowy, ale czyni to wręcz naszym obowiązkiem. (...) Właśnie w oparciu o nierozerwalną więź pomiędzy przygodnością a porządkiem w świecie, w naukach przyrodniczych mogło rozwinąć się to charakterystyczne zespolenie teorii i empirii, które doprowadziło do największych postępów w zdobywaniu przez nas wiedzy o otaczającym nas świecie”.
Zatem moim wnioskiem jest, że faktyczny kształt świata nie jest w żadnym stopniu wymuszony; mógłby on równie dobrze być inny. W ten sposób ponownie stanęliśmy przed problemem, dlaczego jest on taki, jaki jest. Czym można by uzasadnić jego istnienie i niezwykłą postać?
Najpierw postaram się wykazać niesłuszność dość trywialnego uzasadnienia, jakie bywa niekiedy proponowane. Jest to pogląd, że każdy element Wszechświata da się uzasadnić za pomocą czegoś innego, a to z kolei z pomocą czegoś jeszcze innego, i tak dalej w nieskończoność. Jak nadmieniłem w rozdziale 2, takim nieskończonym łańcuchem rozumowania posługiwali się niektórzy zwolennicy teorii stanu stacjonarnego w oparciu o to, że w teorii tej Wszechświat nie miał początku w czasie. Jednakże nie da się przyjąć nieskończonego łańcucha, w którym każde ogniwo jest uzasadnieniem poprzedniego ogniwa, za rzeczywiste uzasadnienie czegokolwiek, gdyż nadal pozostanie zagadką, dlaczego istnieje właśnie dane ogniwo, czy też dlaczego istnieje w ogóle taki łańcuch. Leibniz przedstawił to dobitnie, zachęcając do wyobrażenia sobie nieskończonego ciągu książek, z których każda kolejna kopiowana jest z poprzedniej. Powiedzenie, że uzasadniliśmy w ten sposób pochodzenie ich treści, jest absurdalne. Nadal mamy pełne prawo zapytać, kto jest autorem.
Wydaje mi się, że jeżeli ktoś uparcie trzyma się zasady racji dostatecznej i żąda, aby świat miał racjonalne uzasadnienie, to nie ma innej możliwości, jak poszukiwać tego uzasadnienia gdzieś poza nim w sferze metafizyki, ponieważ, jak widzieliśmy, przygodny świat fizyczny nie może uzasadnić sam siebie. Jakiego typu metafizyczna siła sprawcza byłaby zdolna do stworzenia Wszechświata? Ważne jest, aby wystrzegać się naiwnego wyobrażania sobie Stwórcy tworzącego w jakiejś chwili świat swą nadprzyrodzoną mocą, niczym magik wyciągający królika z cylindra. Jak już wyczerpująco wyjaśniałem, stworzenie świata nie może polegać na samym spowodowaniu Wielkiego Wybuchu. Potrzebne jest bardziej wyrafinowane, bezczasowe rozumienie stworzenia, które, by użyć sformułowania Hawkinga, wypełnia równania życiem, przemieniając to, co tylko możliwe, w coś, co istnieje naprawdę, stworzenie w sensie kształtowania praw fizyki, które między innymi wyznaczają ewolucję czasoprzestrzeni.
Naturalnie teologowie twierdzą, że mocą sprawczą odpowiedzialną za istnienie świata jest Bóg. Ale w jaki sposób miałoby to nastąpić? Jeśli wyobrażać sobie Boga jako nadprzyrodzony umysł (czy też Myśl), zasadne jest określanie go jako osoby. Wszakże nie wszyscy teiści podzielają tę ideę. Niektórzy wolą myśleć o Bogu jako o Bycie-w-sobie, bądź jako o Mocy Stwórczej, aniżeli Myśli.
W istocie można jednak przyjmować, że czynnik stwórczy może mieć jeszcze inną postać. Filozof John Leslie utrzymuje, że mogłaby tu wchodzić w grę “powinność etyczna”, idea, która sięga swymi korzeniami jeszcze myśli Platona. Innymi słowy, Wszechświat istnieje, ponieważ jest to dobre. “Wiara w Boga - pisze Leslie - przeradza się w wiarę, iż świat istnieje, gdyż powinien istnieć”. Koncepcja ta wydaje się nieco dziwna. W jaki sposób “powinność etyczna” miałaby stworzyć świat? Pamiętajmy jednak, że nie mówimy tutaj o stwarzaniu w kauzalno-mechanicznym sensie, jak w przypadku budowniczego domu, lecz o “napełnianiu życiem równań” wyrażających prawa fizyki, przekształcaniu tego, co tylko możliwe, w rzeczywistość. Co mogłoby “napełniać życiem” w tym sensie? Z oczywistych względów nie może to być żaden ze znanych obiektów materialnych. Jeśli w ogóle istnieje odpowiedź na to pytanie, musiałoby to być coś bardzo abstrakcyjnego i niecodziennego. Nie ma żadnej logicznej sprzeczności w przypisywaniu zdolności stwórczych wartościom etycznym lub estetycznym, lecz nie ma też żadnej logicznej konieczności, aby to czynić. Leslie proponuje jednakowoż, iż może tu chodzić o słabszy, pozalogiczny, sens konieczności: że “dobro” może jakoś zmuszone stworzyć świat, ponieważ jest to dobre.
Jeżeli ktoś nie zamierza porzucić idei, że świat nie może istnieć bez uzasadnienia, i jeżeli dla wygody określimy to uzasadnienie mianem Boga (niezależnie od tego, czy mamy na myśli osobę, moc stwórczą, powinność etyczną, czy też jakąś inną nie wymienioną dotąd jej koncepcję), to pierwszym pytaniem, na jakie winien odpowiedzieć, jest: w jakim sensie można powiedzieć, że Bóg ukstałtował prawa fizyki (i inne przygodne elementy świata)? Albowiem, by określenie to mogło cokolwiek w ogóle znaczyć, Bóg musiał wybrać nasz świat spośród innych możliwości. Musiał tu być jakiś element wolnej decyzji, odrzucenia innych możliwych światów. Więc jaki to miałby być Bóg? Z założenia byłby On racjonalny. Nie miałoby sensu mówienie o irracjonalnym Bogu; równie dobrze możemy przyjmować, że irracjonalny jest sam Wszechświat. Powinien On być także wszechmocny. Gdyby Bóg nie był wszechmocny, to Jego moc musiałaby być czymś ograniczona. Ale co mogłoby ograniczać moc Boga? Chcielibyśmy z kolei wiedzieć, skąd wzięły się te ograniczenia i co określiło ich konkretną postać, mianowicie, co Bóg może i czego nie może. (Zauważmy, że nawet wszechmocny Bóg podlegałby ograniczeniom wynikającym z logiki; nie byłby w stanie stworzyć na przykład kwadratowego koła). Na mocy analogicznego rozumowania, Bóg musiałby być doskonały, bo cóż mogłoby spowodować w Nim jakieś niedoskonałości? Musiałby być również wszechwiedzący, to znaczy musiałby znać wszystkie dopuszczalne logicznie alternatywne możliwości, aby był w stanie dokonać racjonalnego wyboru.
Leibniz przeprowadził powyższe rozumowanie szczegółowo, starając się udowodnić na podstawie przesłanki o racjonalności kosmosu, że taki Bóg istnieje. Konkluzją jego rozumowania było, że byt racjonalny, wszechmocny, doskonały i wszechwiedzący musiał nieodwołalnie wybrać najlepszy z możliwych światów. Powód? Gdyby doskonały Bóg świadomie wybrał świat mniej doskonały, to postąpiłby irracjonalnie. Żądalibyśmy uzasadnienia tego szczególnego wyboru. Ależ jakież można by tu podać uzasadnienie?
Koncepcja, że nasz świat jest najlepszy z możliwych, do wielu ludzi nie przemawiała. Leibniz (pod postacią doktora Panglossa) został okrutnie wykpiony w tej kwestii przez Woltera: “O, doktorze Pangloss! Jeżeli to ma być najlepszy ze wszystkich możliwych światów, to jakżeż muszą wyglądać te pozostałe?” Zarzuty pod jej adresem koncentrują się zazwyczaj na problemie zła. Możemy sobie przecież wyobrazić świat, w którym, na przykład, nie ma zła ani cierpienia. Czyż ów świat nie byłby lepszy?
Pomijając rozważania etyczne, może być także pewien sens fizyczny, w którym nasz świat jest najlepszy z możliwych. Każdego uderza ogromne bogactwo i złożoność fizycznego świata. Niekiedy może się wydawać, że przyroda wprost “wyszła z siebie”, aby wytworzyć nietrywialny, wyrafinowany Wszechświat. Freeman Dyson próbował uchwycić tę właściwość w podanej przez siebie zasadzie maksymalnej komplikacji: prawa przyrody i warunki początkowe są takie, że dają w wyniku Wszechświat możliwie najbardziej zróżnicowany. “Najlepszy” rozumiane jest w tym przypadku jako “najbogatszy” w sensie największej różnorodności i złożoności układów fizycznych. Cała sztuka polega na tym, aby ująć to jakoś w ścisły, matematyczny sposób.
Ostatnio fizycy teoretyczni Lee Smolin i Julian Barbour podali wyimaginowany przykład, jak to można by osiągnąć. Założyli oni,że istnieje jakieś fundamentalne prawo przyrody, które powoduje, iż Wszechświat dąży do stanu maksymalnej różnorodności. Oznacza to, że jego elementy układają się tak, aby doprowadzić do możliwie największego zróżnicowania, które należałoby ściśle zdefiniować. Leibniz twierdził, że świat wykazuje największą różnorodność, gdy podlega największemu uporządkowaniu. Brzmi to ładnie, jednak znaczy niewiele, dopóki nie zdefiniuje się tego jasno w sposób matematyczny. Smolin i Barbour podejmują się to uczynić, aczkolwiek w skromnej skali, definiując “różnorodność” dla najprostszego z możliwych do pomyślenia systemów: układu kropek połączonych ze sobą liniami, przypominającego schemat połączeń lotniczych na mapie. Matematycy nazywają to “grafem”. Kropki i linie nie muszą odpowiadać żadnym rzeczywistym obiektom w rzeczywistej przestrzeni, po prostu reprezentują pewne abstrakcyjne związki, które mogą być rozpatrywane same w sobie. Jasne jest, że mogą być grafy proste i grafy skomplikowane, w zależności od tego, jak poprowadzimy linie wewnątrz nich. Możliwe jest znalezienie grafu, którego układ, widziany z wszystkich jego punktów (kropek), będzie, w dobrze określonym sensie, najbardziej skomplikowany. Cały chwyt polega na odniesieniu tego do rzeczywistego świata. Co miałoby odpowiadać kropkom i liniom grafu? Smolin i Barbour sugerują, by były one abstrakcyjnymi odpowiednikami cząstek w trójwymiarowej przestrzeni, a pojęcia takie, jak odległości wzajemne między cząstkami, wynikałyby w naturalny sposób ze stosunków wewnątrz grafu. Na tym etapie idea ta wydaje się dość mało konkretna, niemniej pokazuje to, jakimi drogami podążają teoretycy, aby poszerzyć swoje horyzonty przy zgłębianiu istoty praw fizyki.
Można też sobie wyobrazić odmienne formy optymalnego wyboru, inne sposoby, na jakie nasz świat mógłby być najlepszy z możliwych. Wspominałem już, że prawa fizyki można potraktować jako kosmiczny kod, zaszyfrowany “komunikat” ukryty pod powierzchnią danych obserwacyjnych. John Barrow snuł przypuszczenia, że konkretne prawa obowiązujące w naszym Wszechświecie mogą odpowiadać kodowaniu optymalnemu pod jakimś względem. Znaczna część tego, co naukowcom wiadomo w zakresie kodowania i przesyłania informacji, wywodzi się z pionierskich prac Claude'a Shannona prowadzonych podczas drugiej wojny światowej, którego książka o teorii informacji stała się pozycją klasyczną. Jednym z problemów, jakimi zajmował się Shannon, był wpływ szumów w kanale przesyłowym na przesyłany komunikat. Wszyscy wiemy, w jakim stopniu zakłócenia na linii telefonicznej mogą utrudnić prowadzenie rozmowy: ogólnie mówiąc, szumy powodują stratę informacji. Niemniej można obejść ten problem poprzez zakodowanie komunikatu z odpowiednią redundancją. Na tej zasadzie działają niektóre z nowoczesnych systemów telekomunikacyjnych. Barrow rozciąga tę ideę na prawa przyrody. W końcu, nauka jest swoistym dialogiem z przyrodą. Przeprowadzając eksperymenty, w pewnym sensie zadajemy przyrodzie pytania. Co więcej, w odpowiedzi nie otrzymujemy informacji w czystej postaci; zawiera ona przeróżne “szumy”, zwane błędami eksperymentalnymi, które powodowane są przez wiele czynników. Ale, jak podkreślałem, przyroda nie przekazuje nam informacji otwartym tekstem, lecz w postaci kodu. Teza Barrowa zasadza się w tym, że ten “kosmiczny kod” ma być może taką strukturę, by umożliwiać optymalny przekaz informacji zgodnie z teorią Shannona: “Aby zrealizować tę obietnicę dowolnie wysokiej wierności przekazywania sygnałów, informacja musi zostać zakodowana w szczególny sposób. (...) W przedziwny metaforyczny sposób Przyroda wydaje się być »zaszyfrowana« w takiej właśnie optymalnej postaci”. Mogłoby to wyjaśniać, dlaczego udaje nam się złamać ten kod przyrody i odkryć jej ogólne prawa.
Optymalnością innego typu, odnoszącą się do matematycznej postaci praw przyrody, jest ich często wymieniana prostota. Einstein podsumował to pisząc: “Dotychczasowe doświadczenia uzasadniają naszą wiarę, że przyroda realizuje najprostsze z możliwych do pomyślenia idei matematycznych”. Z pewnością jest to intrygujące. “Zagadkę stanowi już samo to, iż świat można opisać za pomocą matematyki - pisze Barrow - ale to, że jest to w miarę prosta matematyka, którą jesteśmy w stanie opanować w ciągu zaledwie kilku lat wytężonych studiów, jest doprawdy tajemnicą wewnątrz tej zagadki”. Czyżbyśmy więc naprawdę żyli w świecie najlepszym z możliwych w tym sensie, iż da się najprościej opisać matematycznie? Wcześniej w tym rozdziale podawałem powody, dlaczego sądzę, że nie. A może w najprostszym możliwym świecie, który dopuszcza istnienie złożonych układów biologicznych? I w tym przypadku, jak wyjaśniałem, odpowiedź, moim zdaniem, jest negatywna, jakkolwiek jest to przynajmniej hipoteza podatna na badanie w sposób naukowy. Możemy wypisać równania fizyki,a następnie pomajstrować trochę przy nich, by się przekonać, jaki to da efekt. W ten sposób teoretycy konstruują sztuczne modelowe światy, by sprawdzić matematycznie, czy możliwe byłoby w nich życie. Badaniom nad tym zagadnieniem poświęcono wiele wysiłku. Większość badaczy dochodzi do wniosku, że istnienie układów złożonych, zwłaszcza układów biologicznych, jest w znacznym stopniu zależne od kształtu praw fizyki i w niektórych przypadkach nawet ich minimalne zmiany są w stanie zniweczyć szansę powstania życia, przynajmniej w znanej nam postaci. Nosi to nazwę Zasady Antropicznej, ponieważ wiąże nasze istnienie jako obserwatorów Wszechświata z jego prawami i warunkami początkowymi. Powrócę do tego zagadnienia w rozdziale 8.
Oczywiście, żądanie, aby prawa dopuszczały powstanie świadomych form życia, jest w każdym razie dość szowinistyczne. Szczególność praw może być różnego rodzaju; mogą one na przykład posiadać rozmaite matematyczne własności, których dotychczas nie poznaliśmy. Może rzeczywiste prawa odpowiadają maksymalnym lub minimalnym wartościom jakichś nie znanych jeszcze wielkości. Tego po prostu nie wiemy.
Do tej pory zajmowałem się aspektami matematycznymi. Ale może nasze prawa wyróżniają się w jakiś inny, bardziej wyrafinowany sposób, na przykład pod względem estetycznym. Wśród naukowców rozpowszechnione jest przekonanie, że piękno może prowadzić do prawdy, i wiele odkryć w fizyce teoretycznej zostało dokonanych przez fizyków stawiających nowej teorii wymóg matematycznej elegancji. Niekiedy, gdy przeprowadzenie testów laboratoryjnych nastręcza nazbyt wielkie trudności, takie estetyczne kryteria mogą odgrywać nawet większą rolę niż eksperymenty. Gdy Einstein omawiał raz test eksperymentalny swojej ogólnej teorii względności, zapytano go, co by uczynił, gdyby eksperyment ten dał wyniki niezgodne z teorią. Możliwość ta bynajmniej nie zbiła go z tropu. “Tym gorzej dla eksperymentu - odparł. - Teoria jest słuszna!” Paul Dirac, fizyk-teoretyk, którego rozważania natury estetycznej doprowadziły do znalezienia bardziej eleganckiego pod względem matematycznym równania opisującego elektron, które później pozwoliło efektywnie przewidzieć istnienie antymaterii, podzielając ten pogląd wyraził się, że “ważniejsze, aby równania odznaczały się pięknem, niż by odpowiadały wynikom eksperymentów”.
Elegancja matematyczna jest pojęciem, które trudno wytłumaczyć komuś nie obeznanemu z matematyką, niemniej jednak wielce cenioną przez uczonych. Jednakże, jak wszelkie oceny wartości estetycznych, ma ona charakter wysoce subiektywny. Nikt dotąd nie wynalazł “wzorca piękna”, który pozwoliłby na mierzenie wartości estetycznych bez odwoływania się do człowieka oceniającego je. Czyż można rzeczywiście twierdzić, że pewne formy matematyczne są same w sobie piękniejsze od innych? Być może nie. Wtedy staje się bardzo dziwne, że piękno może decydować o wyborze teorii w nauce. Czemu prawa przyrody wydają się ludziom piękne? Nie ulega wątpliwości, że w kształtowaniu poczucia piękna u człowieka odgrywają rolę przeróżne czynniki biologiczne i psychologiczne. Nic zatem zaskakującego w tym, że na przykład wszystko, co przypomina kobietę, jest pociągające dla mężczyzn, a płynne linie wielu pięknych rzeźb, obrazów i budowli architektonicznych niewątpliwie rodzą takie skojarzenia. To, co przyjemne dla oka i ucha, może być podyktowane budową i sposobem funcjonowania mózgu. Być może muzyka w jakiś sposób odzwierciedla rytmy encefalograficzne. Tak czy owak, jest w tym jednak coś dziwnego. Jeżeli piękno jest pojęciem uwarunkowanym biologicznie, mającym znaczenie dla przetrwania gatunku ludzkiego, z tym większym zaskoczeniem przyjmujemy, że pojawia się ono w ezoterycznym świecie fundamentalnych praw fizyki, które nie mają żadnego bezpośredniego odniesienia do biologii. Z drugiej strony, jeżeli piękno to coś więcej niż czysta biologia, jeżeli kontemplacja piękna polega na docieraniu do czegoś głębszego, jakiejś istotnej warstwy rzeczywistości, to jest z pewnością faktem o dużym znaczeniu, iż to “coś” miałoby się odbijać w fundamentalnych prawach Wszechświata.
W rozdziale 6 opisywałem, jak wielu wybitnych uczonych wyrażało poczucie, że czerpią inspirację z jakiegoś myślowego kontaktu z platońską dziedziną form matematycznych i estetycznych. Szczególnie Roger Penrose wiarygodnie przedstawia owo “wtargnięcie” twórczego umysłu w dziedzinę idealną i bezpośredni ogląd form matematycznych, które są w jakimś sensie piękne. W istocie uważa on piękno za decydujący czynnik, którym kierował się w większości swoich badań matematycznych. Może to być zaskakujące dla czytelników, którzy mieli wizję matematyki jako bezosobowej, zimnej, oschłej i rygorystycznej dyscypliny. Lecz, jak wyjaśnia Penrose: “Ścisły dowód stanowi zwykle dopiero ostatni etap. Wcześniej prowadzi się poszukiwania na drodze intuicyjnej i względy estetyczne odgrywają wtedy niezmiernie ważną rolę”.
Dwoje oczu ma czlowiek
Jedno widzi rzeczy marne które czas pochłania
Drugie zaś
To co boskie i wieczne
Księga Angelusa Silesiusa
Odchodząc od pytania, czy i w jakim sensie możemy uznać, że żyjemy w najlepszym z możliwych światów, stajemy przed jeszcze głębszym problemem. Ujmując rzecz prosto: jeżeli świat ma swoje uzasadnienie i tym uzasadnieniem nie może być on sam, to musi nim być jakiś byt wobec świata zewnętrzny, np. Bóg. Lecz co z kolei stanowi uzasadnienie Boga? Ta stara zagadka “kto stworzył Boga” grozi popadnięciem w nieskończony ciąg uzasadniania. Jak się wydaje, można temu zapobiec jedynie przez przyjęcie, że Bóg “uzasadnia się sam”, co oznacza, iż jest On bytem koniecznym w sensie logicznym, co wyjaśniałem na początku tego rozdziału. Ściślej mówiąc, jeśli Bóg ma stanowić rację dostateczną świata, to wynika stąd, że sam musi być bytem koniecznym, ponieważ gdyby był bytem przygodnym, to ciąg uzasadnień trzeba by kontynuować, gdyż moglibyśmy postawić pytanie, jakie czynniki zewnętrzne determinują Boga i jego naturę. Jednak czy pojęcie bytu koniecznego, bytu zawierającego w sobie rację swego własnego istnienia, ma w ogóle sens? Wielu filozofów dowodziło, że idea ta jest sprzeczna lub bezsensowna. Z pewnością ludzie nie są w stanie pojąć natury takiego bytu, lecz to nie oznacza bynajmniej, że samo pojęcie bytu koniecznego jest wewnętrznie sprzeczne.
Zmagając się z pojęciem bytu koniecznego, można zacząć od postawienia pytania, czy w ogóle istnieje coś, co zachodzi w sposób konieczny. Aby zaostrzyć nasz apetyt, na początek rozważmy stwierdzenie: “Istnieje co najmniej jedno prawdziwe zdanie”. Nazwijmy je zdaniem A. Czy A jest prawdziwe w sposób konieczny? Przypuśćmy, że twierdzę, iż A jest fałszywe. Nazwijmy to zdaniem B: “A jest fałszywe”. Ale jeżeli A jest fałszywe, to B również, jako że B jest zdaniem, a jeżeli A jest fałszywe, nie istnieje żadne zdanie prawdziwe. Tak więc A musi być prawdziwe. Jest zatem logicznie niemożliwe, by nie istniały żadne zdania prawdziwe.
Jeżeli istnieją konieczne zdania, to pojecie bytu koniecznego nie jest już z góry absurdalne. Tradycyjna koncepcja Boga w teologii chrześcijańskiej, rozwinięta w znacznej części przez św. Tomasza z Akwinu w trzynastym wieku, określa Go jako byt konieczny, bezczasowy, doskonały i niezmienny, od którego świat jest całkowicie zależny w swym istnieniu, lecz który z kolei zupełnie nie zależy od istnienia świata. Jakkolwiek taka wizja Boga jako ostatecznego uzasadnienia świata zdaje się być wymuszona przez wymogi racjonalności, istnieją poważne trudności z pogodzeniem jej z ideą przygodnego, zmiennego świata, a zwłaszcza świata, w którym występują istoty obdarzone wolną wolą. Jak ujął to niegdyś ateistyczny filozof A.J. Ayer, ze zdań koniecznych wynikają tylko zdania konieczne.
Ta niepokojąca sprzeczność trapiła zasadniczo myśl teologiczną Zachodu już od czasów Platona. U Platona, jak widzieliśmy, samo pojęcie “racjonalności” związane było z istnieniem abstrakcyjnego świata wiecznych, niezmiennych i doskonałych Idei, który stanowił dla niego jedynie prawdziwą rzeczywistość. I w tej niezmiennej dziedzinie Platon umieścił najwyższy cel poznania, Dobro. W przeciwieństwie do niej, dostępny bezpośrednio zmysłom świat rzeczy materialnych nieustannie się zmienia. Powiązanie wiecznego świata Idei i przemijającego świata materii stwarza zatem znaczne problemy. Jak wyjaśniałem w rozdziale l, Platon postulował istnienie Demiurga, bytującego w czasie, który stara się kształtować materię jak najwierniej na wzór Idei, lecz to naiwne usiłowanie pogodzenia tego, co zmienne, z tym, co Niezmienne, jeszcze bardziej uzmysławia, jak poważny jest paradoks pojęciowy zawarty we wszelkich próbach uzasadnienia przygodnego świata.
Ważne jest, aby zrozumieć, że paradoks ten nie jest jedynie technicznym problemem pojawiającym się w dyskusjach teologicznych, lecz nieuchronną konsekwencją pewnych racjonalnych metod uzasadniania. Kartezjusz i jego zwolennicy starali się osadzić nasze doświadczenie świata na opoce intelektualnej pewności. Jeśli będziemy trzymać się tej tradycji, to w naszych poszukiwaniach wiedzy pewnej nieuniknienie dojdziemy do systemów pojęć bez-czasowych, takich jak matematyka i logika, ponieważ prawda rzeczywista z definicji nie zależy od czasu. Rzetelność tych abstrakcyjnych dziedzin jest zapewniona przez to, że ich elementy spojone są ze sobą pewnością koniecznego wynikania logicznego. Jednak sam świat doświadczenia, na którego uzasadnieniu nam zależy, jest przygodny i zależny od czasu.
Napięcia wywołane tą sprzecznością pojawiają się w nauce równie często, jak w religii. Widzimy je w nieustających trudnościach, w jakie wikłają się próby pogodzenia wiecznych praw fizyki z istnieniem we Wszechświecie “strzałki czasu”. Widzimy je w zażartych debatach, jak możliwy jest postęp w ewolucji biologicznej zachodzącej wskutek chaotycznych mutacji. I widzimy je w starciu paradygmatów, jakie towarzyszy najnowszym badaniom nad układami samoorganizującymi się, które spotykają się z taką wrogością, że wskazuje to na jakieś głęboko zakorzenione uprzedzenia kulturowe.
Oryginalnym wkładem myśli chrześcijańskiej w przezwyciężenie tego paradoksu jest doktryna stworzenia ex nihilo, którą przedstawiłem w rozdziale 2. Była to śmiała próba wyrwania się z logicznej pułapki przez zapostulowanie, aby pozaczasowy byt konieczny nadprzyrodzoną mocą powoływał do istnienia (nie w sensie czasowym) świat materialny w wyniku wolnej decyzji. Przez zadeklarowanie, że świat stworzony jest czymś innym niż Stwórca, czymś, czego Bóg nie musiał stwarzać, lecz zdecydował się stworzyć, myśliciele chrześcijańscy uniknęli zarzutów, na jakie narażona była alternatywna koncepcja świata jako emanacji Boga, w której świat fizyczny wyłania się bezpośrednio z istoty Boga, dziedzicząc w ten sposób Jego konieczny charakter. Zasadnicze znaczenie miało w tym przypadku wprowadzenie elementu boskiej Woli. Wolna wola z definicji zakłada przygodność, ponieważ o wolnym wyborze możemy mówić tylko wtedy, jeśli mógł on być inny. Zatem jeśli Bóg dysponował swobodą wyboru pomiędzy alternatywnymi możliwymi światami, przygodność rzeczywistego świata znajduje swoje uzasadnienie. Natomiast wymóg poznawalności jest spełniony poprzez przypisanie Bogu natury racjonalnej, na mocy której jego decyzje również są racjonalne.
Może się wydawać, że osiągnięto w ten sposób pewien rzeczywisty postęp. Na pierwszy rzut oka koncepcja stworzenia ex nihilo stanowi rozwiązanie paradoksu, w jaki sposób zmienny, przygodny świat może być uzasadniony przez pozaczasowy byt konieczny. Niestety, mimo iż całe pokolenia filozofów i teologów usiłowały nadać tej koncepcji spójny logicznie kształt, nie udało się tego osiągnąć. Zasadniczą przeszkodę stanowi trudność wytłumaczenia, dlaczego Bóg zdecydował się stworzyć ten, a nie inny, świat.
W przypadku wolnej woli u ludzi, ostateczny wybór zależy od ich wewnętrznej natury Coz więc możemy powiedzieć o naturze Boga? Można przypuszczać, ze jest ona wyznaczona przez to, ze Bóg jest bytem koniecznym Nie chcielibyśmy tu przywoływać możliwości, ze jest wiele rożnych typów Boga, gdyż wtedy wprowadzanie pojęcia Boga me prowadziłoby do niczego Zostalibyśmy z problemem, dlaczego istnieje ten konkretny Bóg, a me inny Cały sens powoływania się na Boga jako byt konieczny polega na tym, ze jest On jedyny możliwy jego natura me mogłaby być inna Lecz jeśli istota Boga wyznaczona jest przez jego konieczność, czy był on w stanie stworzyć świat innym, mz jest? Tak mogłoby być tylko wtedy, gdyby stworzenie nie było aktem racjonalnego wyboru, lecz jakimś kaprysem, boskim odpowiednikiem rzutu monetą Jednak w takim razie istnienie świata i tak ma charakter arbitralny, więc celowość wprowadzania Boga staje się problematyczna.
Filozof Keith Ward przeprowadził szczegółową analizę sprzeczności pomiędzy konieczną naturą Boga a przygodnym charakterem świata, streszczając jej istotę następująco:
Przede wszystkim, jeżeli Bóg jest naprawdę samoistny, jak wymaga tego aksjomat racjonalności, jak doszło do tego, ze wogóle stworzył świat. Wydaje się to czymś arbitralnym i bezcelowym. Z drugiej strony, jeżeli Bóg jest naprawdę bytem koniecznym i niezmiennym, w jaki sposób byłby w stanie podjąć wolną decyzję? Przecież wszystko, co czyni, czyni z konieczności i bez żadnej możliwości wyboru. Nieusuwalny dylemat - albo akty Boga są konieczne, a zatem nie wolne (nie mogłyby być inne), albo są one wolne, a zatem arbitralne (nic nie może ograniczać wolnej woli Boga) - zabijał klina olbrzymiej większości chrześcijańskich filozofów przez stulecia.
Problem polega na tym, ze cokolwiek byśmy zrobili, powracamy do tej samej podstawowej trudności, ze byt czysto przygodny nie może powstać z bytu w pełni koniecznego.
Jeżeli Bóg jest stwórcą lub przyczyną przygodnego świata, to sam musi być przygodny i istniejący w czasie, lecz jesli Bóg jest bytem koniecznym, to wszystko, co stwarza, musi być stwarzane w sposób konieczny i niezmienny. Na tej opoce zasadzają się obydwie wersje teizmu. Wymóg racjonalności pociąga za sobą istnienie bytu koniecznego, niezmiennego i wiecznego. Stworzenie zdaje się wymagać Boga przygodnego, istniejącego w czasie, który oddziaływa ze światem stworzonym, a zatem nie jest samoistnym bytem w sobie. Lecz jak to z sobą pogodzi?ć
I w innym miejscu:
Jak może byt, który jest konieczny i niezmienny, mieć zdolność uczynienia wszystkiego? Jako konieczny, me może uczynić nic innego, mz czyni, jako niezmienny, nie może uczynić niczego nowego ani oryginalnego. Nawet jeżeli stworzenie pojmować będziemy jako dokonujący się poza czasem akt Boga, rzeczywista trudność nadal pozostanie, gdyż jako że Bóg jest w pełni konieczny, będzie musiał to być akt konieczny, który pod żadnym względem nie mógłby być inny. Pogląd ten kłóci się z zasadniczym motywem tradycji chrześcijańskiej, mianowicie, ze Bóg nie musiał stwarzać świata i nie musiał stwarzać właśnie tego świata Jak może byt konieczny odznaczać się jakąkolwiek wolnością?
Taką samą tezę stawia Schubert Ogden.
Teologowie zazwyczaj mówią nam, ze Bóg stworzył świat w akcie wolnej woli, jak świadczy o tym przygodny, czyli wewnętrznie niekonieczny świat naszego doświadczenia. Jednocześnie, trzymając się utartych założeń klasycznej metafizyki, mówią, ze boski akt stworzenia wypływa z jego wiecznej istoty, która jest pod każdym względem konieczna i wyklucza wszelką przygodność. Zatem, gdybyśmy chcieli potraktować ich słowa poważnie, uznając obydwa twierdzenia za prawdziwe, popadniemy natychmiast w nierozwiązywalną sprzeczność, ze całkowicie przygodny świat powstał w wyniku całkowicie koniecznego aktu stworzenia.
Całe tomy zapisane zostały przez filozofów i teologów próbujących wydobyć się z tej jaskrawej, uporczywej sprzeczności Z braku miejsca omówię tu jedynie jeden konkretny, dość oczywisty sposób, w jaki można tego dokonać.
Jak widzieliśmy, Platon rozwiązał antagonizm konieczności i przygodności postulując istnienie dwóch istot boskich Dobra i Demiurga, z których pierwsza była konieczna, a druga przygodna. Być może da się spełnić wymogi monoteizmu przez pokazanie, że sytuację tę można właściwie opisać jako istnienie w rzeczywistości dwóch komplementarnych aspektów jednego, “dwubiegunowego”, Boga. Jest to stanowisko podzielane przez wyznawców kierunku znanego pod nazwą “teologu procesu”.
Filozofia procesu jest próbą przedstawiania sobie świata nie jako zbioru ciał materialnych, ani nawet zbioru zdarzeń, lecz procesu przebiegającego w określonym kierunku. Zasadniczą rolę odgrywa zatem w niej upływ czasu i uznaje ona wyższość stawania się nad byciem. W przeciwieństwie do sztywnego mechanistycznego obrazu świata, jaki wyłania się z prac Newtona i jego następców, w filozofii procesu kładzie się nacisk na otwarty i indeterministyczny charakter przyrody. Przyszłość nie zawiera się w teraźniejszości; zawsze możliwy jest alternatywny rozwój wypadków. W ten sposób przyrodzie przypisana została wewnętrzna wolność, jaka nie występowała w koncepcji świata-mechanizmu Laplace'a. Wolność ta zostaje osiągnięta za cenę odejścia od redukcjonizmu; świat staje się czymś więcej niż prostą sumą swoich elementów. Musimy porzucić pogląd, że układy fizyczne, takie jak kamienie, chmury czy ludzie, nie są wyłącznie zbiorowiskami atomów, i uznać, że struktura rzeczywistości ma wiele odrębnych poziomów. Człowieka, na przykład, bez wątpienia można rozpatrywać jako zbiorowisko atomów, lecz zawiera on także szereg wyższych poziomów strukturalnych, których ten prymitywny opis nie uwzględnia, a które odgrywają zasadniczą rolę w tym, co rozumiemy pod pojęciem “osoby”. Przy traktowaniu układów złożonych jako hierarchii poziomów strukturalnych proste widzenie przyczynowości jako dokonującej się wyłącznie “od dołu”, począwszy od cząstek elementarnych oddziaływających ze sobą wzajemnie, musi ustąpić miejsca bardziej wyrafinowanemu, wielopoziomowemu obrazowi, w którym wyższe poziomy mogą także oddziaływać na niższe poziomy. Pozwala to wprowadzić do biegu spraw w świecie elementy teleologii, czyli zachowań celowych. Filozofia prowadzi w naturalny sposób do ekologicznego pojmowania świata jako wielkiego organizmu, przypominającego poglądy kosmologiczne Arystotelesa, Ian Barbour uważa, że wizja rzeczywistości w filozofii procesu wyraża się w poglądzie, że świat jest w większym stopniu społecznością niezależnych istot aniżeli zbiorowiskiem trybików w maszynie.
Jakkolwiek motywy przewodnie filozofii procesu zajmują poczesne miejsce w historii filozofii, w nauce myślenie w kategoriach procesu stało się modne stosunkowo niedawno. Powstanie mechaniki kwantowej na przełomie lat trzydziestych naszego stulecia położyło definitywnie kres pojmowaniu świata na kształt deterministycznej maszyny, ale decydujący wpływ miały tu dopiero najnowsze badania dotyczące chaosu, samoorganizacji i teorii systemów. Zmusiły one badaczy do myślenia w coraz większym stopniu w kategoriach układów otwartych, które nie są ściśle wyznaczone przez swoje części składowe, ponieważ pozostają także pod wpływem swojego środowiska. Zazwyczaj układy otwarte o znacznym stopniu komplikacji są bardzo czułe na oddziaływania zewnętrzne, co czyni ich zachowanie nieprzewidywalnym, wprowadzając do nich w ten sposób pewien element wolności. Najbardziej zaskakujące było, że układy otwarte mogą także zachowywać się w sposób uporządkowany, według określonych prawidłowości, pomimo ich indeterministycznego charakteru i pozostawania na łasce wyraźnie przypadkowych zaburzeń zewnętrznych. Najwyraźniej istnieją jakieś ogólne prawa strukturalne, rządzące zachowaniem układów złożonych na wyższych poziomach organizacji, prawa, które istnieją niezależnie od praw fizyki (które działają na najniższym poziomie poszczególnych cząstek). Prawa te są niesprzeczne z prawami fizyki, lecz nie sprowadzają się do nich ani nie mogą być z nich wyprowadzone. W ten sposób naukowcy doszli do ważnego pojęcia porządku przygodnego. Bardziej wyczerpujące omówienie tej problematyki znajduje się w moich książkach The Cosmic Blueprint i The Matter Myth.
Myślenie w kategoriach procesu zostało wprowadzone do teologii przez Alfreda Northa Whiteheada, matematyka i filozofa, który wspólnie z Bertrandem Russellem napisał wpływowe dzieło Principia Mathematica. Whitehead wysunął tezę, że świat fizyczny stanowi wzajemnie połączony system tego, co nazwał “zaktualizowanymi możliwościami”. Są one czymś więcej niż po prostu zdarzeniami, gdyż cechuje je wolność i zdolność uczenia się, które nie występowały w mechanistycznej wizji świata. Rdzeniem filozofii Whiteheada jest to, że Bóg jest sprawcą porządku w świecie, lecz nie działając bezpośrednio, lecz poprzez stworzenie różnych możliwości, które świat fizyczny aktualizuje potem według własnego uznania. W ten sposób Bóg, nie naruszając zasadniczo otwartego i indeterministycznego charakteru świata, jest pomimo to w stanie sprawiać, by podążał on ku dobru. O istnieniu takiego subtelnego, pośredniego oddziaływania może świadczyć na przykład progresywny charakter ewolucji biologicznej oraz występująca w świecie tendencja do samoorganizowania się w coraz to bardziej różnorodne i złożone struktury. Whitehead zastępuje w ten sposób monarchistyczną wizję Boga jako wszechmocnego stwórcy władającego światem koncepcją Boga-współuczestnika procesów twórczych zachodzących w świecie. Nie jest on już niezależnym i niezmiennym bytem w sobie, lecz wpływa - i znajduje się pod wpływem - na rozwój wydarzeń postępujący w rzeczywistym świecie fizycznym. Z drugiej strony, Bóg nie jest przy tym w pełni poddany strumieniowi czasu. Zasadnicza natura i cele Boga pozostają niezmienne i wieczne. W ten sposób aspekty pozaczasowego bytowania i zmienności w czasie zostają ze sobą pogodzone w ramach jednej koncepcji.
Niektórzy utrzymują, ze pojęcie “dwubiegunowego” Boga również pozwala na pogodzenie konieczności z przygodnością. Jednakże wiąże się to w tym przypadku z porzuceniem wszelkiej nadziei, by Bóg mógł być prosty w swej boskiej doskonałości, jak zakładał Tomasz z Akwinu. Keith Ward, na przykład, zaproponował model złożonej natury Boga: niektóre jego elementy miałyby być konieczne, a inne przygodne. Taki Bóg, aczkolwiek istniejący w sposób konieczny, poddany jest jednak wpływom świata stworzonego i własnych działań stwórczych, przez co wprowadzony zostaje element otwartości czy tez wolności.
Przyznaję, ze sprawiło mi wielką trudność zrozumienie filozoficznych zawiłości niezbędnych przy uzasadnianiu koncepcji dwubiegunowego Boga. Pomoc przyszła jednakże z nieoczekiwanej strony od mechaniki kwantowej. Zrekapitulujmy raz jeszcze zasadnicze wnioski wypływające z kwantowej zasady nieoznaczoności. Cząstka, na przykład elektron, nie może mieć jednocześnie dokładnie wyznaczonego położenia i pędu. Można dokonać pomiaru położenia, otrzymując jego dokładną wartość, lecz wtedy wartość pędu będzie całkowicie nieokreślona, i na odwrót. W ogólnym przypadku dla danego układu kwantowego niemożliwe jest określenie z góry, jaki wynik otrzyma się po przeprowadzeniu pomiaru można tylko podać wartości prawdopodobieństwa otrzymania poszczególnych wartości. Zatem, jeżeli dokonuje się na takim układzie pomiaru położenia, mamy do dyspozycji szereg możliwych wyników. Układ ten posiada więc charakter niedeterministyczny - można powiedzieć, ze ma wolność wyboru spośród wielu możliwości - i rzeczywisty wynik pomiaru jest czysto przygodny. Z drugiej strony, to eksperymentator określa, czy pomiar będzie dotyczył położenia, czy pędu, a więc wybór alternatywnych zbiorów wartości (to znaczy, czy to będzie zbiór możliwych wartości położenia, czy wartości pędu) dokonywany jest przez czynnik zewnętrzny. Z punktu widzenia elektronu istniejące alternatywne możliwości są czymś koniecznym, a faktycznie zrealizowany wybór czymś przypadkowym.
Aby uczynić to bardziej jasnym, pozwolę sobie przytoczyć znaną historię, pochodzącą od Johna Wheelera. Pewnego dnia współpracownicy Wheelera zaproponowali mu grę w dwadzieścia pytań, nie wtajemniczając go bliżej, o co im chodzi. Przypomnijmy, ze tradycyjna gra polega na odgadnięciu przez jednego z grających uzgodnionego przez pozostałych uczestników słowa, przy czym może on zadać co najwyżej dwadzieścia pytań, na które można odpowiadać tylko tak-nie. Wheeler rozpoczął od standardowych pytań czy to jest duże? czy to jest coś żywego? Z początku odpowiedzi padały szybko, później coraz wolniej, z coraz większym wahaniem. W końcu spróbował zgadnąć “Czy to jest chmura?” Odpowiedź była twierdząca i wszyscy wkoło wybuchnęli śmiechem. Koledzy ujawnili następnie Wheelerowi, że chcąc mu spłatać figla, nie wybrali wcale żadnego słowa, lecz umówili się, iż będą udzielać odpowiedzi czysto przypadkowych, byle tylko nie były sprzeczne z poprzednimi odpowiedziami. Mimo to odpowiedzi te doprowadziły do rozwiązania. Rozwiązanie to oczywiście było przygodne, gdyż nikt go z góry nie ustalał, lecz nie było całkiem arbitralne, po części wyznaczone było przez pytania, które Wheeler zdecydował się zadać, a po części wynikało z czystego przypadku. W ten sam sposób rzeczywistość odkrywana w procesie pomiaru kwantowego jest częściowo zależna od tego, jakie pytania eksperymentator postawi przyrodzie (tzn czy będzie wyznaczał dokładne położenie, czy dokładny pęd), a częściowo przez przypadek (tzn prawdopodobieństwo otrzymania określonych wartości jako wyników pomiarów tych wielkości).
Powróćmy teraz do przykładu teologicznego. Z podobnym połączeniem przygodności i konieczności mamy do czynienia w przypadku Boga, który w sposób konieczny wyznacza alternatywne światy, jakie możliwe będą do realizacji, lecz pozostawia przyrodzie wolność co do wyboru którejś z tych możliwości. W teologii procesu czyii się założenie, że alternatywne możliwości są z konieczności ustalane tak, aby osiągnąć założony cel, tzn by kierowały czy też wspomagały (pod innymi względami wolny) świat w ewolucji ku jakiemuś dobru. Jednakże to ukierunkowywanie nie wyklucza otwartości. Dlatego świat nie jest ani całkowicie zdeterminowany ani w pełni arbitralny, lecz, tak jak “chmura Wheelera”, stanowi ścisły związek celowego wyboru i czystego przypadku.
Czy Bóg może nie istnieć?
Argumentacja, z której wnioski rozpatrywałem dotychczas w tym rozdziale, nosi nazwę kosmologicznego dowodu istnienia Boga. Dowód ten nie polega na wykazaniu, że istnienie Boga jest koniecznością logiczną. Można sobie przecież wyobrazić, iż nie istnieje ani Bóg, ani świat, albo że istnieje tylko świat, a nie Bóg. Na pierwszy rzut oka nie widać żadnej sprzeczności logicznej w obydwu przypadkach. Zatem, nawet gdyby dało się wykazać, że pojęcie bytu koniecznego ma sens, to nie wynikałoby z tego, że taki byt istnieje, a tym bardziej że musi istnieć.
Historia teologii zna jednak próby udowodnienia, że nieistnienie Boga jest logiczną niemożliwością. Argumentacja ta, znana jako “dowód ontologiczny”, pochodzi od św. Anzelma i wygląda mniej więcej w ten sposób: Bóg z definicji jest najbardziej doskonałą z możliwych do pomyślenia rzeczy. Z kolei coś, co realnie istnieje, jest z oczywistych względów bardziej doskonałe niż sama myśl o tej rzeczy. (Detektyw, który naprawdę istniał, słynny Fabian ze Scot-land Yardu, jest bardziej doskonały niż postać literacka, Sherlock Holmes). Dlatego też bóg realnie istniejący jest bardziej doskonały niż bóg fikcyjny. Ale Bóg jest najbardziej doskonałym z możliwych do pomyślenia bytów, więc wynika stąd, że musi istnieć.
Dowód ontologiczny sprawia wrażenie sztuczki logicznej i nie wygląda, aby był użyteczny filozoficznie. W istocie jednak wielu filozofów w różnych okresach traktowało go poważnie, w tym przez krótki czas nawet ateista Bertrand Russell. Niemniej jednak, ogólnie rzecz biorąc, nawet wśród teologów nie znalazłoby się zbyt wielu chętnych do jego obrony. Jeden problem z tym dowodem polega na traktowaniu istnienia jako własności przysługującej rzeczy, podobnie jak masa i kolor. Porównujemy ideę boga-realnie-istniejącego z ideą boga-który-nie-istnieje. Ale istnienie nie jest atrybutem, który można przypisać czemuś lub nie, jak zwykłe własności fizyczne. Ma sens powiedzenie, że mam w kieszeni pięć małych monet i sześć dużych, lecz cóż to miałoby znaczyć, gdybym powiedział, że mam tam pięć monet istniejących i sześć nieistniejących?
Kolejnym problemem w przypadku dowodu ontologicznego jest wymóg, by Bóg stanowił rację świata. Nie wystarczy, aby istniał byt logicznie konieczny, lecz nie posiadający żadnego odniesienia do świata. Trudno sobie wyobrazić, aby byt przynależący do sfery czystej logiki mógł uzasadniać przygodne własności świata. Dowód ontologiczny opiera się na tym, co filozofowie nazywają “zdaniami analitycznymi”. Zdanie analityczne to takie zdanie, którego prawdziwość (lub fałszywość) wynika wyłącznie ze znaczenia terminów w nim występujących. Zatem “Wszyscy kawalerowie są mężczyznami” jest zdaniem analitycznym. Zdania, które nie należą do klasy zdań analitycznych, nazywamy “syntetycznymi”, ponieważ ustalają one związki pomiędzy rzeczami nie powiązanymi na mocy samej definicji. I tak, w teoriach fizycznych występują zawsze zdania syntetyczne, gdyż stanowią one wypowiedzi o faktach w przyrodzie, które mogą być testowane empirycznie. Skuteczność matematyki w opisywaniu przyrody, a zwłaszcza rządzących nią praw, może sprawiać wrażenie, jak się przekonaliśmy, niektórzy faktycznie bronili takiej tezy), że w świecie nie istnieje nic oprócz matematyki, a matematyka z kolei nie zawiera nic poza definicjami i tautologiami, tzn. zdaniami analitycznymi. Uważam ten pogląd za duże nieporozumienie. Choćbyśmy nie wiem jak się starali, nie można wyprowadzić zdania syntetycznego ze zdań analitycznych.
Do przeciwników dowodu ontologicznego należał Immanuel Kant. Utrzymywał on, że jeśli mają istnieć sensowne twierdzenia metafizyczne, to muszą istnieć zdania, które są koniecznie prawdziwe nie tylko na mocy samej definicji. Jak wspominałem już w rozdziale l, Kant był przekonany, iż posiadamy jakąś wiedzę a priori. Tak więc Kant twierdził, że muszą istnieć prawdziwie syntetyczne zdania a priori w przypadku każdego procesu myślowego odnoszącego się do świata obiektywnego. Tego typu zdania aprioryczne byłyby z konieczności prawdziwe, niezależnie od przygodnej charakterystyki świata, to znaczy, byłyby one prawdziwe w każdym świecie. Niestety, filozofom do tej pory nie udało się znaleźć żadnych koniecznych zdań syntetycznych a priori.
Jeśli nawet nie istnieją zdania syntetyczne konieczne, to może istnieją takie, które są niemożliwe do zakwestionowania. Można sobie wyobrazić, że system takich zdań mógłby posłużyć do uzasadnienia przygodnych własności świata, takich jak konkretna postać praw fizyki. Niejednego by to zadowoliło. Fizyk David Deutsch twierdzi, że “zamiast próbować otrzymać »coś z niczego«, czyli zdanie syntetyczne z analitycznego”, powinniśmy wprowadzić na fundamentalnym poziomie fizyki zdania syntetyczne, “które trzeba i tak postulować, z powodów leżących poza samą fizyką”. Dalej podaje przykład: Rzeczą, którą zawsze milcząco zakładamy a priori przy konstruowaniu teorii fizycznych, jest to, ze teoria ta nie zabrania, by dane procesy fizyczne zostały poznane i opisane przez ludzi. Żadne prawo fizyki, które jesteśmy w stanie poznać, nie może samo w sobie zabraniać, abyśmy je poznali. Fakt, ze każde prawo fizyczne musi spełniać ten bardzo specyficzny warunek, jest syntetycznym zdaniem a priori, nie dlatego, iż jest koniecznie prawdziwe, lecz dlatego, że nie możemy nie uznawać go za prawdziwe, starając się poznać te prawa.
John Barrow również sugeruje, ze istnieją pewne prawdy konieczne dotyczące wszystkich światów, w których istnieje obserwator. Przytacza on jako przykład różne wersje Zasady Antropicznej, które starają się wykazać, ze organizmy biologiczne obdarzone świadomością mogą powstać tylko we Wszechświecie, w którym prawa fizyki mają określoną szczególną postać “Te »antropiczne« warunki wskazują na określone własności, jakie Wszechświat musi posiadać a priori, a które są na tyle nietrywialne, ze można je uznać za syntetyczne. Zatem syntetycznym a priori mógłby stać się konieczny wymóg, ze żadne poznawalne prawo fizyki, wchodzące w skład »Tajemmcy Wszechświata«, nie może nam samo zabraniać możliwości, abyśmy je poznali”.
Keith Ward uważa, ze pojęciu konieczności logicznej można by nadać szerszy sens Weźmy na przykład zdanie “Nic nie może być jednocześnie całe zielone i czerwone” Czy jest to zdanie koniecznie prawdziwe? Przypuśćmy, ze twierdzę, iż jest ono fałszywe. Moje stwierdzenie nie jest w żaden oczywisty sposób wewnętrznie sprzeczne. Niemniej jednak jest ono prawdopodobnie fałszywe we wszystkich możliwych światach, co nie jest równoważne, by było ono logicznie sprzeczne w formalnym sensie. Założenie, ze to pierwsze zdanie jest prawdziwe, jest, by użyć słów Deutscha, “czymś, co i tak założylibyśmy” Może stwierdzenie “Bóg nie istnieje” należy właśnie do tej kategorii zdań, które wprawdzie nie są sprzeczne z żadnymi aksjomatami jakiegoś systemu formalnej logiki zdań, lecz są fałszywe we wszystkich możliwych światach.
Na koniec należałoby wspomnieć o zastosowaniu przez Franka Tiplera dowodu ontologicznego do samego świata (a nie do Boga). Tipler próbuje ominąć zarzut, ze “istnienie” nie jest własnością, poprzez zdefiniowanie tego pojęcia w szczególny sposób. Widzieliśmy w rozdziale 5, jak Tipler utrzymywał, że światy symulacji komputerowych są dla istot bytujących w takim symulowanym świecie równie realne, jak dla nas nasz świat. Wskazuje on, że program komputerowy nie jest zasadniczo niczym innym, jak odwzorowaniem jednego zbioru znaków lub liczb na inny zbiór. Można by zakładać, ze wszystkie możliwe odwzorowania, a zatem i wszystkie możliwe programy komputerowe istnieją w jakimś abstrakcyjnym, platońskim sensie. Wśród tych programów będzie wiele (prawdopodobnie nieskończenie wiele) takich, które realizują symulowane światy. Pytanie brzmi, które z tych możliwych symulacji komputerowych odpowiadają “fizycznie istniejącym” światom. Używając sformułowania Hawkinga, które z nich są wypełnione życiem? Tipler stawia tezę, ze wyłącznie te symulacje, “które są wystarczająco złożone, by zawierać obserwatorów - istoty zdolne do myślenia i odczuwania - jako swoje podsymulacje”, są tymi, które istnieją realnie, przynajmniej z punktu widzenia symulowanych istot. Ponadto symulacje te istnieją w sposób konieczny jako konsekwencja logicznych warunków związanych z operacjami matematycznymi zawartymi w odwzorowaniach. Zatem, konkluduje Tipler, nasz Wszechświat (i wiele, wiele innych) musi istnieć w następstwie logicznej konieczności.
Alternatywne światy
Jakiż więc wniosek można wyciągnąć na zakończenie? Być może czytelnikowi kręci się w głowie po tym naszym wypadzie w dziedzinę filozofii, autorowi również. Wydaje mi się, że dowód ontologiczny jest próbą zmuszenia Boga do zaistnienia z niczego na mocy samej definicji, która w ściśle logicznym sensie skazana jest na niepowodzenie. W wyniku czysto dedukcyjnego rozumowania nie można otrzymać więcej, niż się doń włożyło. W najlepszym przypadku można wykazać, ze jeśli byt konieczny jest możliwy, to musi istnieć Bóg nie mógłby istnieć jedynie, gdyby pojęcie bytu koniecznego było sprzeczne wewnętrznie. Mogę się z tym zgodzić, lecz poprzez dowód ontologiczny nie daje się wykazać w ścisły, formalny sposób niemożliwości, by Bóg nie istniał. Z drugiej strony, gdyby dowód ontologiczny uzupełnić jednym lub kilkoma dodatkowymi założeniami, to może okazałby się on skuteczny. A co jeśli na owe dodatkowe założenia (które z konieczności byłyby zdaniami syntetycznymi) składały się jedynie warunki umożliwiające racjonalne myślenie? Moglibyśmy wtedy wyciągnąć wniosek, że wobec istnienia racjonalnego poznania bylibyśmy w stanie rzeczywiście udowodnić istnienie Boga mocą czystego rozumu. Jest to na razie jedynie spekulacja, lecz na przykład Keith Ward jest zdecydowany nie wykluczać takiej możliwości: “Nie jest absurdalnym przypuszczenie, że poprzez analizę pojęć »doskonałości«, »bytu«, »konieczności« i »istnienia« dojdziemy do przekonania, że możliwość ich sensownego zastosowania do świata może wymagać założenia istnienia określonego bytu”.
A co z dowodem kosmologicznym? Jeżeli przyjmujemy, że świat jest przygodny, to jednym z możliwych sposobów uzasadnienia jego istnienia jest postulowanie istnienia transcendentnego Boga. Stajemy wtedy przed problemem, czy Bóg jest bytem koniecznym, czy przygodnym. Gdyby Bóg był przygodny, czyż zyskalibyśmy cokolwiek na jego wprowadzeniu, skoro z kolei jego własne istnienie i przymioty wymagałyby uzasadnienia? Możliwe jednak, że tak. Mogłoby być tak, że hipoteza Boga pozwalałaby uprościć i ujednolicić opis rzeczywistości poprzez “łączne” uzasadnienie wszystkich praw i warunków początkowych. Prawa fizyki doprowadzałyby nas do pewnego punktu i poszukiwalibyśmy głębszego poziomu wyjaśnienia. Na przykład filozof Richard Swinburne argumentował, iż prościej jest zakładać istnienie nieskończonego umysłu, niż przyjmować jako goły fakt istnienie przygodnego Wszechświata. W tym przypadku wiara w Boga stanowi w znacznym stopniu przedmiot indywidualnej preferencji i przyjmowana jest z powodu większej zdolności uzasadniania, a nie logicznego przymusu. Osobiście również wolę, by istniał poziom uzasadniania głębszy niż prawa fizyki. To, czy na jego określenie należy używać terminu “Bóg”, może być oczywiście przedmiotem dyskusji.
Alternatywą jest trzymanie się klasycznego stanowiska teistycznego, które głosi, że Bóg jest bytem koniecznym, stwarzającym przygodny świat aktem swej wolnej woli. Znaczy to, iż Bóg nie miał żadnego wyboru co do swego istnienia i przymiotów, lecz ma wybór w przypadku stworzenia świata. Jak widzieliśmy, pogląd ten jest najeżony filozoficznymi trudnościami, które można wszakże próbować przezwyciężyć. Większość proponowanych rozwiązań popada jednak w labirynt lingwistycznych subtelności, jakimi różnią się poszczególne definicje “konieczności”, “prawdy” i tym podobnych pojęć, z którego pewne z nich wyrywają się poprzez szczere uznanie, że stoimy wobec tajemnicy. Ale dwubiegunowa koncepcja Boga, w której czyni się rozróżnienie miedzy konieczną naturą Boga a Jego przygodnym działaniem w świecie, jakkolwiek można jej zarzucić pewne skomplikowanie, jest najbliższa ominięcia tych problemów.
To, co wynika z takich analiz głośno i wyraźnie, to zasadnicza niemożliwość pogodzenia całkowicie pozaczasowego, niezmiennego, koniecznego Boga z twórczym charakterem przyrody, ze światem, który potrafi się zmieniać i ewoluować, tworząc coś rzeczywiście nowego, światem, w którym istnieje wolna wola. W istocie nie można mieć obydwu rzeczy na raz. Albo Bóg determinuje wszystko, łącznie ze swoim własnym postępowaniem, i wolna wola jest tylko złudzeniem - “Predestynacja nie dopuszcza żadnych wyjątków”, pisał Tomasz z Akwinu - albo istnieją rzeczy, nad którymi Bóg albo faktycznie nie ma władzy, albo się jej dobrowolnie zrzekł.
Zanim odejdziemy od problemu przygodności, należałoby coś powiedzieć o tak zwanej hipotezie wielu światów. Zgodnie z tą koncepcją, która obecnie cieszy się znaczną popularnością u pewnych fizyków, nie istnieje tylko jeden fizyczny świat, lecz ich nieskończona liczba. Wszystkie te światy współistnieją ze sobą “równolegle”, przy czym każdy różni się od pozostałych, choć niekiedy te różnice mogą być nieznaczne. Można sobie wyobrazić, że wszystko urządzone jest w ten sposób, iż każda pomyślana możliwość zaktualizowana jest w którymś ze światów spośród tej nieskończonej liczby. Jeżeli, na przykład, chcemy mieć świat, w którym siła ciążenia jest proporcjonalna do odwrotności sześcianu, a nie odwrotności kwadratu odległości, to znajdziemy i taki. Większość tych światów jest nie zamieszkana, ze względu na to, że warunki fizyczne w nich panujące nie sprzyjają powstaniu organizmów żywych. Tylko te światy, w których życie może się zrodzić i rozwinąć się w stopniu umożliwiającym powstanie istot obdarzonych inteligencją, zawierają obserwatora. Pozostałych nikt nigdy nie obserwuje. Dany obserwator ma możliwość obserwacji tylko jednego konkretnego świata i nie zdaje sobie bezpośrednio sprawy, że istnieją także inne światy. Dany konkretny świat byłby silnie przygodny. Niemniej pytanie “Dlaczego właśnie ten świat?” traci na znaczeniu, jako że istnieją wszystkie możliwe światy. Wszystkie światy wzięte razem nie miałyby już charakteru przygodnego.
Hipoteza wielu światów nie wszystkich zadowala. Postulowanie istnienia nieskończonej liczby nieobserwowanych i nieobserwowalnych światów tylko po to, by uzasadnić ten, który obserwujemy,wydaje się zbytnim balastem. Prościej już postulować istnienie jednego niewidzialnego Boga. Do tego wniosku dochodzi również Swinburn:
Postulując Boga postulujemy jeden byt o nieskomplikowanej naturze. (...) Postulując rzeczywiste istnienie nieskończonej liczby światów, wyczerpujących miedzy sobą wszystkie dopuszczalne logicznie możliwości (...) postulujemy złożoność i niezaaranżowany zbieg okoliczności na niebotyczną skalę, przekraczającą wszelkie możliwości racjonalnego uzasadnienia.
Hipoteza wielu światów nie spełnia kryteriów hipotezy naukowej, ponieważ nie można jej sfalsyfikować: jakiego typu odkrycia mogłyby skłonić zwolennika wielu światów do zmiany swych poglądów? W jaki sposób można by przekonać kogoś, kto zaprzecza że istnieją te inne światy? Co gorsza, za pomocą tej hipotezy można uzasadnić wszystko, co się chce. Nauka staje się zbędna. Nie potrzeba już więcej badać prawidłowości przyrody, ponieważ można je wyjaśnić po prostu efektem selekcji, dzięki któremy jesteśmy w stanie żyć w świecie i obserwować go. Ponadto jest coś głęboko niezadowalającego pod względem filozoficznym w tych wszystkich światach, które nie są obserwowane. Parafrazując Penrose'a, cóż to znaczy, że istnieje coś, co nie może być nigdy, nawet w zasadzie, obserwowane? Będę miał na ten temat więcej do powiedzenia w następnym rozdziale.
Bóg, który gra w kości
Przyznaję, że nie da się dowieść racjonalności świata. Z pewnością możliwe jest, że na najgłębszym poziomie jest on absurdalny i musimy przyjmować istnienie i własności świata jako gołe fakty, które mogłyby być równie dobrze zupełnie inne. Jednakże osiągnięcia metody naukowej co najmniej pośrednio przemawiają na rzecz racjonalności przyrody. W nauce, jeżeli jakieś rozumowanie okazuje się efektywne, stosujemy go tak długo, aż znajdziemy dla niego kontrprzykład.
W mym własnym umyśle nie żywię najmniejszych wątpliwości, że argumenty przemawiające za koniecznym charakterem świata są o wiele słabsze niż te, które przemawiają za istnieniem bytu koniecznego, toteż osobiście byłbym skłonny wybrać tę drugą możliwość. Niemniej jednak zdaję sobie także sprawę, że powiązanie tego pozaczasowego bytu koniecznego ze zmiennym, przygodnym światem doświadczenia z omówionych przeze mnie powodów nastręcza poważne trudności. Nie sądzę, aby trudności te były innej natury niż różne nie rozwiązane dotychczas problemy, które i tak istnieją, dotyczące istoty czasu, wolnej woli i pojęcia tożsamości osób. Nie jest też wcale dla mnie oczywiste, że postulowany w celu zapewnienia racjonalności świata byt ma coś wspólnego z Bogiem osobowym, a tym bardziej z Bogiem Biblii czy też Koranu.
Chociaż nie żywię żadnych wątpliwości, że przyroda jest racjonalna, jestem jednocześnie zwolennikiem kosmosu twórczego z powodów, które wyłożyłem w mojej książce The Cosmic Blueprint. I w tym przypadku nieuchronnie natykamy się na paradoksalną konieczność pogodzenia bycia i stawania się, tego, co zmienne, i tego, co wieczne. Może to być dokonane wyłącznie na drodze kompromisu, który nazywa się “stochastyczność”. Układ stochastyczny to, ogólnie mówiąc, taki układ, który podlega nieprzewidywalnym, przypadkowym fluktuacjom. We współczesnej fizyce stochastyczność stanowi zasadniczą cechę układów występujących w mechanice kwantowej. Pojawia się ona również nieuchronnie w przypadku układów otwartych, w których mamy do czynienia z chaotycznymi zaburzeniami zewnętrznymi.
We współczesnych teoriach fizycznych racjonalność przejawia się poprzez istnienie praw o ustalonej matematycznej postaci, a element twórczy w tym, że prawa te mają zasadniczo postać statystyczną. Używając raz jeszcze oklepanego powiedzenia Einsteina, Pan Bóg jednak gra w kości. Istotnie, statystyczny charakter zdarzeń na poziomie atomowym i niestabilność wielu układów fizycznych względem małych fluktuacji sprawiają, że przyszłość pozostaje otwarta i nie jest do końca wyznaczona przez teraźniejszość. W ten sposób możliwe staje się powstawanie nowych form i układów, tak że świat dysponuje czymś na kształt wolności, pozwalającej mu na rozwijanie się w nie spotykany dotąd sposób. Tak więc bliższy jest mi wewnętrznie duch opisanej wcześniej w tym rozdziale filozofii procesu.
Zdaję sobie sprawę, że wprowadzenie do przyrody na poziomie fundamentalnym stochastyczności oznacza częściowe odejście od zasady racji dostatecznej. Jeżeli przyroda odznacza się prawdziwą stochastycznością, to wynik konkretnego “rzutu kostką” naprawdę nie jest przez nic zdeterminowany, co równoważne jest przyznaniu,że w danym konkretnym przypadku nie istnieją żadnej racje, dlaczego otrzymaliśmy ten a nie inny wynik. Pozwolę sobie podać przykład. Wyobraźmy sobie elektron zderzający się z atomem. Mechanika kwantowa mówi nam, że jest, na przykład, równe prawdopodobieństwo, że elektron ten odchyli się na lewo, jak i na prawo. Jeżeli statystyczna natura zdarzeń na poziomie kwantowym jest rzeczywiście czymś fundamentalnym, a nie wynika wyłącznie z naszej niewiedzy, to w przypadku, gdy elektron faktycznie odchylił się na lewo, a nie na prawo, nie istnieje żaden powód, żeby tak się stało.
Czy nie wprowadza się przez to do świata elementu irracjonalności? Einstein uważał, że tak właśnie jest (“Pan Bóg nie gra w kości!”). Dlatego nie pogodził się nigdy z myślą, iż mechanika kwantowa miałaby stanowić pełny opis rzeczywistości. Ale co dla jednych jest irracjonalnością, inni nazywają twórczością. A stochastyczność i anarchia to bynajmniej nie to samo. Rozwój nowych form i układów podlega ogólnym zasadom powstawania struktur, które wytyczają kierunek i skłaniają, a nie zmuszają, materię i energię, by rozwijały się na jeden z wielu wyznaczonych z góry sposobów ewolucji. W mojej książce The Cosmic Blueprint użyłem na określenie tych ogólnych tendencji terminu “predestynacja” dla odróżnienia od “determinizmu” (w sensie, jaki nadawał mu Tomasz z Akwinu). Dla tych, którzy, tak jak zwolennicy teologii procesu, chcą widzieć w twórczym rozwoju świata ukierunkowującą rękę Boga w miejsce czystej spontaniczności, stochastyczność stanowi praktyczny środek do urzeczywistniania boskich zamiarów. I nie ma żadnej potrzeby, by taki Bóg interweniował bezpośrednio w przebieg ewolucji poprzez “zbieranie rozrzuconych kwantowych kości”, o czym wspomniałem przelotnie w rozdziale 5. Wytyczanie kierunku może się dokonywać poprzez (bezczasowe) prawa samoorganizowania się struktur i przepływu informacji.
Można tu postawić zarzut, że jeżeli odejdzie się od zasady racji dostatecznej w jednym miejscu, to można od niej odejść wszędzie. Jeżeli dany elektron “ot, tak sobie” ulega odchyleniu na lewo, czy nie może być tak, że prawo powszechnego ciążenia czy też kosmiczne warunki początkowe również zachodzą “ot, tak sobie”? Sądzę, że odpowiedź na to pytanie jest negatywna. Stochastyczność właściwa fizyce kwantowej jest pod tym względem zasadniczo odmienna. Warunek całkowitego nieuporządkowania lub czystej przypadkowości - “rzetelność” kwantowej kości - narzuca sam z siebie silne ograniczenia. Jakkolwiek poszczególnych zdarzeń kwantowych istotnie nie można przewidzieć, to zbiór wielu takich zdarzeń podlega prawom mechaniki statystycznej. Można by rzec, iż w tym nieporządku jest porządek. Fizyk John Wheeler podkreślał fakt wyłaniania się regularnego zachowania z pozornie całkowicie nieregularnych fluktuacji kwantowych, ponieważ nawet chaos podlega pewnym statystycznym prawidłowościom. Zasadnicze znaczenie ma to, że zdarzenia kwantowe tworzą zespół, który możemy obserwować, natomiast prawa fizyki i warunki początkowe nie. Czymś innym jest powiedzenie, że każde ze zbioru chaotycznych zdarzeń ma charakter czysto przypadkowy, a czymś innym byłoby przypisywanie tego samego procesowi uporządkowanemu, jak prawo fizyki. Dotychczas podczas tej naszej filozoficznej wyprawy zajmowałem się głównie rozumowaniami logicznymi, niewiele miejsca poświęcając faktom empirycznym dotyczącym świata. Dowód on-tologiczny i kosmologiczny same w sobie mogą jedynie wskazywać na istnienie bytu koniecznego, który pozostaje wciąż pojęciem mglistym i abstrakcyjnym. Jeśli taki byt istnieje, czy jesteśmy w stanie dowiedzieć się czegokolwiek o jego naturze na podstawie badań świata fizycznego? Pytanie to wprowadza nas w krąg problematyki planowego charakteru świata.
Ludzie zawsze byli pełni podziwu dla wyrafinowania, wspaniałości i misternej budowy świata fizycznego. Ciała niebieskie regularnie przemierzające firmament, rytm pór roku, struktura płatka śniegu, niezliczone rzesze żywych stworzeń tak doskonale przystosowanych do swego otoczenia - wszystko to wydawało się zbyt uporządkowane, aby mogło być wyłącznie wynikiem ślepego przypadku. Istnieje powszechna tendencja, by przypisywać obecność tego niezwykłego ładu w świecie celowemu działaniu jakiejś istoty nadprzyrodzonej.
Powstanie nauki przyczyniło się do odkrycia dalszych cudów przyrody, tak że obecnie poznaliśmy jej porządek od najgłębszych zakamarków atomu do najdalszych galaktyk. Nauka dostarcza jednak także racji dla tego porządku. Nie potrzebujemy już dla uzasadnienia struktury płatka śniegu czy też istnienia organizmów żywych odwoływać się do teologii. Prawa przyrody pozwalają na to, by materia i energia same z siebie organizowały się w złożone formy i układy, jakie widzimy wokół nas. Jakkolwiek przedwczesne byłoby twierdzenie, że naukowcy zrozumieli do końca istotę tej samoorganizacji, nie widać zasadniczych przeszkód, by, przy danych prawach fizyki, wszystkie znane układy fizyczne nie mogły być przekonywająco przedstawione jako wynik normalnych procesów fizycznych.
Niektórzy wyciągają stąd wniosek, że nauka obdarła Wszechświat z wszelkiej tajemnicy i celowości, a wewnętrzna złożoność świata fizycznego jest bądź to niezamierzonym przypadkiem, bądź nieuniknioną konsekwencją bezdusznych praw. “Im bardziej Wszechświat staje się zrozumiały, tym bardziej widać, że nie ma on sensu” - uważa fizyk Steven Weinberg. Biolog Jacques Monod wtóruje temu ponuremu stwierdzeniu: “Dawne przymierze rozpadło się; człowiek uświadomił sobie w końcu, iż stoi samotnie wobec nieprzyjaznego ogromu Wszechświata, z którego wyłonił się na zasadzie czystego przypadku. Jego przeznaczenie ani jego powinności nie są nigdzie określone”.
Jednak inni naukowcy wyciągają z tych samych faktów odmienne wnioski. Zgadzając się, że porządek przyrody da się wyjaśnić za pomocą praw fizyki wraz z odpowiednimi kosmicznymi warunkami początkowymi, uznają oni, że istnienie wielu z występujących we Wszechświecie złożonych struktur i układów uwarunkowane jest szczególną postacią tych praw i warunków początkowych. W niektórych przypadkach wiązało się to z tak dokładnym doborem, że nawet najmniejsza zmiana kształtu tych praw sprawiłaby, iż żadne struktury złożone by nie powstały. Dokładne badania wykazały, iż rzeczywiste prawa wyjątkowo sprzyjają ukształtowaniu się bogatych i zróżnicowanych struktur. Jeśli chodzi o organizmy żywe, to ich istnienie związane jest z tak wielką liczbą korzystnych zbiegów okoliczności, że w opinii niektórych naukowców i filozofów jest ona wręcz niewiarygodna.
Jedność Wszechświata
Opinia typu “zbyt piękne, aby mogło być prawdziwe” dotyczy kilku różnych faktów. Pierwszym z nich jest, że Wszechświat jest w ogóle uporządkowany. Równie dobrze mógłby być on przecież chaotyczny na nieskończenie wiele sposobów. Mogłyby w nim nie istnieć żadne prawa, bądź też mogłyby występować jedynie niespójne, luźne prawa, nie zapewniające żadnego porządku ani stabilności. Albo też Wszechświat mógłby być skrajnie prosty, wręcz bez wszelkich struktur, w którym na przykład nie występowałaby materia albo ruch. Można sobie także wyobrazić Wszechświat, w którym warunki zmieniają się nieustannie w skomplikowany lub chaotyczny sposób, bądź taki, w którym wszystko nagle przestaje istnieć. Wszystko wskazuje na to, że idea takich niesfornych wszechświatów jest w pełni logicznie dopuszczalna. Niemniej realny Wszechświat taki nie jest. Jest w znacznym stopniu uporządkowany i występują w nim dobrze określone prawa fizyki i wyraźne związki przyczynowo-skutkowe. Prawa te działają niezawodnie. By posłużyć się sformułowaniem Davida Hume'a, przyroda biegnie wciąż tym samym jednostajnym trybem. Ten porządek przyczynowy nie wynika z logicznej konieczności; stanowi on syntetyczną własność świata, i to taką, dla której możemy słusznie domagać się uzasadnienia.
Prawidłowości występujące w fizycznym świecie nie mają charakteru arbitralnego; w szczególny sposób układają się one w spójną całość. Jak wyjaśniałem w rozdziale 5, Wszechświat zawieszony jest pomiędzy dwiema skrajnościami: prostymi symetrycznymi strukturami (jak struktura kryształu) a chaotycznymi układami złożonymi (jak w przypadku cząsteczek gazu). Świat jest niewątpliwie złożony, lecz jest to złożoność uporządkowana. Posługując się technicznym określeniem, które wprowadziłem w rozdziale 5, można powiedzieć, że struktury Wszechświata mają “głębokość”. Ta głębokość nie występowała we Wszechświecie od samego początku, lecz kształtowała się później z pierwotnego chaosu w ciągu postępujących procesów samoorganizacji, w wyniku których powstawały coraz to bogatsze i bardziej złożone struktury. Nietrudno wyobrazić sobie świat, który, choć uporządkowany, nie zawierałby w sobie czynników i warunków umożliwiających rozbudowanie struktur w głąb.
O szczególności porządku fizycznego świata możemy mówić w jeszcze innym sensie. Chodzi o ogólną spójność i jedność przyrody oraz o sam fakt, że możemy w ogóle posługiwać się prawomocnie pojęciem “Wszechświata” jako obejmującym wszystko, co istnieje. W świecie występują wprawdzie pojedyncze elementy i układy, lecz ich struktura jest taka, że wszystkie razem tworzą jednolitą, spójną całość. Na przykład, oddziaływania w przyrodzie nie stanowią luźnego zbioru zasadniczo odmiennych sił, lecz wpasowują się w jeden, wzajemnie się wspomagający, system, nadający przyrodzie stabilność i harmonię, które trudno wyrazić matematycznie, lecz są one oczywiste dla każdego, kto zajmuje się nauką. Tę właśnie cechę świata starałem się uzmysłowić czytelnikowi poprzez analogię z krzyżówką.
Szczególnie zadziwiające jest, że parametry procesów zachodzących w skali mikroświata, powiedzmy w fizyce jądrowej, są tak dobrane, iż prowadzą do różnorodnych isotnych zjawisk w dużo większej skali, na przykład w astrofizyce. Tak więc przekonujemy się, że siła grawitacji wraz z termodynamicznymi i mechanicznymi własnościami wodoru pozwala na tworzenie się wiekiej liczby kuł gazowych. Kule te są wystarczająco duże, by w ich wnętrzu zostały zapoczątkowane reakcje termojądrowe, lecz nie na tyle duże, by skolapsować od razu do stanu czarnej dziury. Tak rodzą się stabilne gwiazdy. Wiele dużych gwiazd kończy swe życie w spektakularny sposób, wybuchając jako tak zwane supernowe. Siła wybuchu w znacznej mierze pochodzi od najbardziej nieuchwytnych cząstek elementarnych w przyrodzie - neutrin. Neutrina praktycznie nie oddziaływają fizycznie: przeciętne kosmiczne neutrino bez trudu przeniknęłoby przez warstwę ołowiu o grubości kilku lat świetlnych. A jednak te ulotne cząstki potrafią, w ekstremalnych warunkach panujących we wnętrzu umierającej gwiazdy, zebrać się w sobie na tyle, by być w stanie wyrzucić materię gwiazdową w przestrzeń. Szczątki te wykazują dużą zawartość ciężkich pierwiastków, takich, z jakich zbudowana jest Ziemia. Zatem istnienie planet podobnych do Ziemi, wraz z całym ich bogactwem form i układów, przypisać możemy własnościom cząstki elementarnej tak ulotnej, że mogłaby nigdy nie zostać odkryta. Cykl ewolucji gwiazd dostarcza jeszcze jednego przykładu przemyślnego, jak gdyby celowego, współdziałania zjawisk fizycznych w dużej i małej skali, zmierzającego do większej złożoności przyrody.
Oprócz takich ścisłych związków pomiędzy różnymi swymi aspektami, przyroda odznacza się zadziwiającą jednorodnością. Prawa fizyki odkryte w laboratorium stosują się równie dobrze do atomów w odległych galaktykach. Elektrony tworzące obraz na ekranie naszych telewizorów mają dokładnie tę samą masę, ładunek i moment magnetyczny, jak elektrony na Księżycu czy też na krańcu obserwowalnego Wszechświata. Ponadto własności te nie wykazują najmniejszych zmian w czasie. Na przykład, moment magnetyczny elektronu potrafimy zmierzyć z dokładnością do dziesięciu miejsc po przecinku i mimo tak fantastycznej dokładności nie stwierdzono żadnej zmienności. Wiele wskazuje na to, że podstawowe własności materii nie zmieniają się, nawet w skali istnienia Wszechświata.
Oprócz jednorodności praw fizyki mamy także jednorodność i izotropowość przestrzennego rozkładu Wszechświata. W dużej skali, materia i energia rozłożone są wyjątkowo równomiernie, a Wszechświat wydaje się rozszerzać z tą samą szybkością w każdym miejscu i we wszystkich kierunkach. Oznacza to, że obserwator żyjący w innej galaktyce widziałby w dużej skali ten sam obraz Wszechświata co my. Z innymi galaktykami łączy nas wspólna kosmografia i wspólna historia. Jak pisałem w rozdziale 2, kosmologowie próbowali wyjaśnić tę jednorodność poprzez wprowadzenie tak zwanej hipotezy Wszechświata inflacyjnego, zgodnie z którą Wszechświat gwałtownie zwiększył swoje rozmiary krótko po powstaniu. Spowodowałoby to wygładzenie wszelkich istniejących początkowo nieregularności. Warto jednak zdać sobie sprawę, że wyjaśnienie tej jednorodności za pomocą jakiegoś mechanizmu fizycznego w niczym nie umniejsza jej szczególnego charakteru, gdyż nadal możemy zadawać pytanie, dlaczego prawa przyrody są takie, iż ten mechanizm był możliwy. Ważne jest nie tyle to, w jaki sposób Wszechświat osiągnął swą szczególną postać, lecz to, że jest właśnie taki, iż ją osiągnął.
I w końcu mamy jeszcze tak szeroko omawianą prostotę praw. Rozumiem przez to, że prawa te wyrażają się funkcjami prostymi pod względem matematycznym (jak proporcjonalność do odwrotności kwadratu odległości). I w tym przypadku możemy sobie wyobrazić światy, w których występują wprawdzie regularności, lecz są one tak bardzo skomplikowane, że można je opisać jedynie zawiłą kombinacją różnych matematycznych pojęć. Zarzut, że rozwijamy naszą matematykę właśnie w taki sposób, by pozwalała na prosty opis świata, rozpatrzyłem w rozdziale 6. Osobiście uważam, że “niezrozumiała skuteczność” matematyki w opisywaniu rzeczywistości wskazuje na to, iż prawidłowości, z jakimi mamy do czynienia w przyrodzie, są bardzo szczególnego rodzaju.
Życie jest takie trudne
Próbowałem wykazać, że istnienie uporządkowanego, spójnego Wszechświata, zawierającego stabilne złożone struktury o wysokim stopniu wewnętrznej organizacji, wymaga praw i warunków bardzo szczególnego rodzaju. Wszystko wskazuje na to, że nasz Wszechświat jest nie tylko wszechświatem starym, lecz i takim, który jest specjalnie dostosowany, aby mogły w nim istnieć pewne obiekty o istotnym znaczeniu (np. stabilne gwiazdy). W rozdziale 7 pokazywałem, jak Freeman Dyson i inni badacze nadali temu przypuszczeniu bardziej formalną postać zasady maksymalnego zróżnicowania.
Sytuacja staje się jeszcze bardziej intrygująca, jeżeli weźmiemy pod uwagę istnienie organizmów żywych. Fakt, że układy biologiczne wymagają do swego rozwoju bardzo szczególnych warunków i warunki te są na szczęście spełnione w przyrodzie, był komentowany bodajże od siedemnastego stulecia. Jednakże dopiero w dwudziestym wieku, wraz z rozwojem biochemii, genetyki i biologii molekularnej, można było potwierdzić to szczegółowo. Już w 1913 roku wybitny biochemik z Harvardu Lawrence Ander-son pisał: “Własności materii i przebieg ewolucji kosmosu widziane są obecnie jako pozostające w bliskich związkach z budową organizmów żywych i ich funkcjonowaniem; (...) biolog ma teraz pełne prawo uważać, że Wszechświat w istocie swej jest biocentryczny”. Henderson doszedł do tego zaskakującego wniosku na podstawie swych prac nad regulacją kwasowości i alkaliczności w organizmach żywych, obserwując sposób, w jaki regulacja ta istotnie zależy od dość szczególnych własności pewnych związków chemicznych. Duże wrażenie wywarła też na nim rola wody, z jej szeregiem anomalnych własności, w powstaniu i podtrzymywaniu życia. Gdyby te substancje nie istniały lub gdyby nie miały tych szczególnych własności, to życie (przynajmniej w znanej nam postaci) nie mogłoby się rozwinąć. Henderson uważał, że to “przystosowanie środowiska” do rozwoju życia jest zbyt znaczne, by można uznać je za sprawę przypadku, i starał się odgadnąć, jakiego typu prawa mogłyby uzasadniać takie dopasowanie.
W latach sześćdziesiątych astronom Fred Hoyle zwrócił uwagę, że węgiel, pierwiastek, którego własności chemiczne sprawiają, że jest on podstawą życia na Ziemi, produkowany jest z helu we wnętrzu dużych gwiazd, a następnie ulega stamtąd wyrzuceniu podczas wybuchów supernowych, o których wspominałem w poprzednim podrozdziale. Gdy Hoyle badał reakcje jądrowe prowadzące do powstawania węgla w jądrach gwiazd, uderzył go fakt, że zasadnicza reakcja zachodzi jedynie dzięki wyjątkowo szczęśliwemu zbiegowi okoliczności. Jądra węgla tworzą się w wyniku dość skomplikowanego procesu wymagającego jednoczesnego zderzenia trzech szybkich jąder helu, które potem pozostają już złączone. Wskutek tego, iż zderzenia trzech jąder są zdarzeniem rzadkim, reakcja może zachodzić z zadowalającą szybkością jedynie przy pewnych określonych wartościach energii (zwanych “rezonansami”), przy których szybkość reakcji ulega znacznemu zwiększeniu wskutek efektów kwantowych. Tak się szczęśliwie składa, że jeden z tych rezonansów odpowiada mniej więcej wartościom energii, jakie mają jądra helu we wnętrzu dużych gwiazd. Co ciekawe, Hoyle nie wiedział wtedy jeszcze o tym, lecz przewidywał, że tak musi być, na podstawie faktu, iż węgiel jest w przyrodzie pierwiastkiem bardzo rozpowszechnionym. Eksperymenty wykazały potem, że miał rację. Dokładne badania ujawniły również inne “zbiegi okoliczności”, bez których ani produkcja, ani gromadzenie węgla wewnątrz gwiazd nie byłyby możliwe. Ten “monstrualny ciąg przypadków” wywarł na Hoyle'u takie wrażenie, że skłonił go do powiedzenia wręcz, że wygląda to tak, jak gdyby “prawa fizyki jądrowej zostały celowo zaprojektowane pod kątem konsekwencji, jakie wywołują we wnętrzach gwiazd”. W późniejszym okresie wielokrotnie wyjaśniał, że Wszechświat sprawia wrażenie “podrasowanego”, jak gdyby ktoś coś “majstrował” przy prawach fizyki.
Powyższe przykłady są tylko jednymi z wielu. Od tego czasu zgromadzono już długą listę dalszych “szczęśliwych przypadków” i “zbiegów okoliczności”. Jest ona w znacznej części dziełem astrofizyków, Brandona Cartera, Bernarda Carra i Martina Reesa. Lista ta dostarcza przekonującego dowodu, że życie w znanych nam formach zależy bardzo istotnie od konkretnej postaci praw fizyki i od szeregu pozornie zupełnie przypadkowych zbieżności obranych przez przyrodę wartości mas niektórych cząstek, siły oddziaływania, i tak dalej. Ponieważ przykłady te zostały już wyczerpująco omówione w innych książkach, nie będę ich tutaj wyliczał. Powiem tylko, że gdybyśmy wczuli się w rolę Boga i chcieli regulować wartości tych wielkości według naszego uznania, ręcznie obracając mnóstwem pokręteł, szybko stwierdzilibyśmy, że przy prawie wszystkich położeniach pokręteł otrzymalibyśmy Wszechświat, w którym życie nie byłoby możliwe. W niektórych przypadkach, jak się wydaje, wzajemne położenie pokręteł musiałoby zostać ustawione z ogromną dokładnością, aby doprowadzić do powstania życia. W swej książce Cosmic Coincidences [Kosmiczne przypadki] John Gribbin i Martin Rees konkludują: “Warunki panujące w naszym Wszechświecie naprawdę wydają się być jedynymi odpowiednimi dla rozwoju form życia takiego jak nasze”.
Truizmem jest stwierdzenie, że możemy obserwować jedynie Wszechświat pozwalający na istnienie nas samych. Jak już wspominałem, związek pomiędzy istnieniem ludzkiego obserwatora a prawami i warunkami Wszechświata stał się znany pod dość niefortunną nazwą Zasady Antropicznej. W trywialnej, podanej powyżej formie Zasada Antropiczna nie stwierdza, że prawa fizyki są w jakikolwiek sposób zmuszone przez nasze istnienie do przybrania formy, jaką posiadają, ani też nie wynika z niej, iżby prawa fizyki zostały celowo zaprojektowane pod kątem ludzi. Z drugiej strony, to, że nawet najmniejsze zmiany w porządku rzeczy pozbawiłyby Wszechświat obserwatora, jest niewątpliwie faktem o ogromnym znaczeniu.
Czy Wszechświat został zaprojektowany przez inteligentnego Stwórcę?
Już dawni filozofowie greccy uznawali, że ład i harmonia kosmosu wymaga uzasadnienia, lecz pogląd, że własności te są dziełem Stwórcy realizującego założony plan, ukształtował się w pełni dopiero z nadejściem ery chrześcijańskiej. W trzynastym wieku Tomasz z Akwinu przedstawił ideę, że ciała w przyrodzie zachowują się tak, jak gdyby były prowadzone ku określonemu celowi, “tak aby go jak najlepiej zrealizować”. Takie dopasowanie środków do celu zakłada - twierdził Akwinata - czyjąś intencję. Lecz skoro ciała nie są obdarzone świadomością, intencja ta nie może pochodzić od nich samych. “Zatem istnieje pewna inteligentna istota kierująca wszystkie rzeczy ku ich celom; istotę tę nazywamy Bogiem”.
Argument Tomasza z Akwinu upadł w siedemnastym stuleciu wraz z rozwojem mechaniki. Prawa Newtona dostarczają w pełni adekwatnego wyjaśnienia ruchu ciał materialnych w kategoriach ich bezwładności i działających na nie sił, bez potrzeby odwoływania się do nadprzyrodzonej intencji. W tym czysto mechanicznym obrazie świata nie było miejsca na teleologię (przyczyny celowe). Racji określonego zachowania się ciał należy upatrywać w bezpośrednich przyczynach fizycznych, tzn. siłach działających na nie lokalnie ze strony innych ciał. Jednakże ta zmiana poglądów nie położyła całkowitego kresu idei, że świat musiał być celowo zaprojektowany. Sam Newton, jak się przekonaliśmy, uważał, że Układ Słoneczny wygląda na zbyt wymyślny, by mógł powstać wyłącznie w wyniku działania ślepych sił przyrody: “Ten przepiękny układ, obejmujący Słońce, planety i komety, mógł powstać jedynie za sprawą i pod przewodnictwem potężnej i inteligentnej Istoty”. Zatem nawet pozostając w ramach mechanistycznego obrazu świata, można być zaintrygowanym porządkiem rzeczy materialnych we Wszechświecie. Wielu uczonym nadal trudno było przypuścić, by wyrafinowany i harmonijny porządek przyrody mógł być wynikiem czystego przypadku.
Pogląd ten został wyartykułowany przez Roberta Boyle'a, tego od prawa Boyle'a:
Niezwykła przemyślność wspaniałej konstrukcji świata, a zwłaszcza ciekawa budowa organizmów zwierzęcych, funkcjonowanie ich aparatu zmysłowego i innych części ciała, stanowiły podstawowe motywy skłaniające filozofów wszystkich epok i narodów do uznawania Istoty Boskiej za twórcę tych cudownych struktur.
Boyle wprowadził słynne porównanie świata do mechanizmu zegara, które najpełniej wyraził teolog William Paley w osiemnastym wieku. Wyobraźmy sobie, dowodził Paley, że “wędrujemy po pustkowiu” i nagle znajdujemy leżący na ziemi zegarek. Dokładnie go oglądając, stwierdzamy wymyślny charakter części jego mechanizmu i to, że są one ułożone tak, aby ze sobą współdziałając, służyły jakiemuś ogólnemu celowi. Nawet gdybyśmy nigdy w życiu nie widzieli zegarka i nie mieli pojęcia o jego działaniu, to na podstawie tego oglądu doszlibyśmy do wniosku, że jest to jakieś celowo zaprojektowane urządzenie. W dalszym ciągu swego wywodu Paley stwierdza, że kiedy widzimy jeszcze bardziej wymyślne konstrukcje przyrody, to wniosek ten powinien się nam narzucić tym bardziej.
Słabym punktem tego rozumowania jest, co pokazał Hume, to, że opiera się ono na analogii. Pojmowany mechanistycznie Wszechświat przypomina zegarek; zegarek został przez kogoś wykonany, a zatem Wszechświat też musiał mieć swego stwórcę. Można by równie dobrze utrzymywać, że Wszechświat przypomina organizm żywy, a zatem musiał się rozwinąć z zarodka w kosmicznym łonie! Oczywistym jest, że rozumując przez analogię nie można niczego dowieść. Co najwyżej analogia może służyć do poparcia jakiejś hipotezy. Stopień tego poparcia zależy od tego, na ile dana analogia zdolna jest kogoś przekonać. John Leslie pisał, że gdyby świat usłany był blokami granitu z wyrytym napisem MADE BY GOD, podobnie jak oznacza się producenta zegarka, to może nawet Hume'owie tego świata zostaliby przekonani. “Można zadać pytanie, czy każdy możliwy wyraźny ślad istnienia boskiego Stwórcy, w tym, na przykład, przesłanie wypisane w postaci struktur występujących w przyrodzie łańcuchów molekularnych (...) można lekką ręką odrzucać z komentarzem: Ależ nie ma w tym nic szczególnego”. Niewykluczone, że w przyrodzie obecny jest wyraźny ślad Stwórcy, lecz jest w jakiś sposób przed nami ukryty. Być może uda nam się rozpoznać “znak firmowy” boskiego architekta dopiero po osiągnięciu pewnego poziomu rozwoju nauki. Stanowi to motyw powieści fantastycznonaukowej Contact astronoma Carla Sagana, w której przesłanie to jest misternie zakodowane w ciągu cyfr rozwinięcia liczby n, liczby, która jest istotnym elementem samej struktury Wszechświata, i może być odczytane wyłącznie przy użyciu zaawansowanych metod komputerowych.
Prawdą jest także, że nawet najbardziej racjonalni ludzie posługują się rozumowaniem przez analogię w innych przypadkach. Jeden z nich dotyczy istnienia w ogóle świata obiektywnego. W bezpośrednim doświadczeniu dany jest nam świat subiektywny, świat naszych doznań zmysłowych. Zazwyczaj uważamy ten świat za dość wierną kopię czy model obiektywnie istniejącego świata fizycznego i potrafimy odróżnić sen od rzeczywistości. Jednak kopia lub model to także rodzaj analogii i w tym przypadku bez oporów ją akceptujemy. Jeszcze większy element wiary zawarty jest we wnioskowaniu o istnieniu umysłów inne niż nasz. W naszym doświadczeniu inni ludzie dani są nam wyłącznie poprzez swe ciała; nie mamy możliwości postrzegać bezpośrednio ich umysłów. Nie ulega wątliwości, że inni ludzie zachowują się, jak gdyby ich umysł funkcjonował podobnie jak nasz, lecz nie możemy tego wiedzieć na pewno. Przekonanie o istnieniu innych umysłów opiera się całkowicie na analogii z naszymi własnymi doznaniami i zachowaniami.
Argument planowego charakteru świata nie może być zaklasyfikowany jako prawdziwy lub fałszywy, lecz jedynie jako mniej lub bardziej przekonujący. W jakim stopniu więc jest on przekonujący? Nikt z ludzi nauki nie poparłby obecnie Newtona w jego twierdzeniu, że Układ Słoneczny jest zbyt uporządkowany, aby mógł był powstać w sposób naturalny. Jakkolwiek nie udało się jeszcze rozstrzygnąć definitywnie, w jaki sposób powstał, znane są mechanizmy zdolne do nadania mu porządku, jaki w nim obserwujemy. Tym niemniej pełna struktura Wszechświata jawi się wielu astronomom jako zawierająca element celowego zaprojektowania. I tak James Jeans twierdził, że “projekt Wszechświata jest najwyraźniej dziełem matematyka” oraz że “w coraz większym stopniu przypomina on wielką myśl niż wielką maszynę”, pisząc również:
Odkrywamy, że Wszechświat wykazuje ślady działalności jakiegoś czynnika projektującego czy też kierującego, który ma coś wspólnego z naszym ludzkim umysłem - nie, o ile nam na razie wiadomo, pod względem emocji, moralności lub poczucia piękna, lecz tendencji do myślenia w sposób, który, z braku lepszego słowa, można by określić jako matematyczny.
Odejdźmy na chwilę od astronomii. Najbardziej zdumiewające przykłady “przemyślności przyrody” można znaleźć w obrębie biologii, i to im właśnie Paley poświęcił najwięcej uwagi. Przystosowanie celowe w biologii jest wręcz legendarne. Weźmy, na przykład, oko. Doprawdy trudno sobie wyobrazić, aby miało ono być czymś innym niż narządem wzroku. Albo że skrzydła ptaka nie miały na celu funkcji latania. Dla Paleya i jemu podobnych takie misterne i skuteczne przystosowanie było wyrazem celowego działania inteligentnego Stwórcy. Niestety, jak wszystkim wiadomo, argument ten szybko stracił na znaczeniu. Teoria ewolucji Darwina wykazała definitywnie, że zorganizowane struktury efektywnie przystosowane do otoczenia mogą powstać w wyniku przypadkowych mutacji i doboru naturalnego. Nie jest potrzebny żaden stwórca, by powstało oko lub skrzydło. Narządy te rozwijają się w rezultacie zupełnie zwykłych procesów naturalnych. Triumfalistyczne nastroje, jakie wzbudziła ta rozstrzygająca koncepcja, przedstawione są znakomicie w książce The Blind Watchmaker [Ślepy zegarmistrz] pióra biologa z Oxfordu Richarda Dawkinsa.
Surowa krytyka, z jaką spotkał się argument planowego charakteru świata ze strony Hume'a, Darwina i innych, sprawiła, że został on prawie całkowicie porzucony przez teologów. Tym ciekawsze jest więc, że w ostatnich latach został on przywrócony do życia przez wielu naukowców. W swej nowej formie dotyczy nie tyle materialnej zawartości świata, lecz rządzących nim praw, wobec czego dotychczasowe krytyki się do niej nie odnoszą. By pokazać, dlaczego, pozwolę sobie najpierw wyjaśnić, na czym zasadniczo polega ewolucja typu darwinowskiego. W swym założeniu teoria Darwina wymaga istnienia kolektywu, czyli zespołu podobnych osobników, wśród których może się dokonywać dobór naturalny. Rozważmy na przykład, jak doszło do tego, że polarne niedźwiedzie są koloru białego, tak doskonale zlewającego się ze śniegiem. Wyobraźmy sobie stado brunatnych niedźwiedzi polujących na żer na pokrytym śniegiem terytorium. Ich potencjalne ofiary z łatwością dostrzegają zbliżającego się drapieżnika i biorą nogi za pas. Brunatne niedźwiedzie wiodą ciężki żywot. Wtem, w wyniku genetycznego przypadku, rodzi się biały niedźwiedź. Bez trudu przychodzi mu zdobywanie pożywienia, ponieważ może niezauważenie podkraść się do ofiary. Żyje on dłużej niż jego brunatni pobratymcy i wśród jego potomstwa jest więcej białych osobników. Im również wiedzie się lepiej, więc rodzi się jeszcze więcej białych niedźwiedzi. Wkrótce mają one przewagę liczebną, toteż przechwytują całą zwierzynę, doprowadzając brunatne niedźwiedzie do wyginięcia.
Trudno sobie wyobrazić, aby powyższa historyjka była daleka od prawdy. Ale weźmy pod uwagę, jak istotne było, aby na początku było wiele niedźwiedzi. Jeden niedźwiedź w stadzie rodzi się biały, co daje mu przewagę nad innymi. Cała koncepcja opiera się na tym, że przyroda może dokonywać wyboru z zespołu podobnych, konkurujących ze sobą, osobników. Jednakże w przypadku praw fizyki i kosmologicznych warunków początkowych nie mamy takiego zespołu. Prawa i warunki początkowe naszego Wszechświata są jedyne w swoim rodzaju. (Kwestią, czy może istnieć wiele wszechświatów o odmiennych prawach, będę się jeszcze zajmował). Jeżeli powstanie życia wymaga, aby prawa i warunki początkowe były dopasowane z dużą dokładnością, i takie dopasowanie faktycznie ma miejsce, to sugestia planowego początku wydaje się nieodparta.
Niemniej zanim wyciągniemy taki wniosek, rozpatrzmy wpierw kilka zarzutów. Po pierwsze, twierdzi się niekiedy, że gdyby przyrodzie nie udało się wytworzyć warunków, w których mogło powstać życie, nie byłoby nas i nie moglibyśmy o tym dyskutować. Jest to oczywiście prawda, lecz nie jest to żaden kontrargument. Faktem jest, że jesteśmy tu, i to za sprawą dość szczególnych warunków, lecz samo nasze istnienie nie uzasadnia wystąpienia tych warunków. Można próbować załatwić sprawę stwierdzeniem, iż z pewnością mamy olbrzymie szczęście, że we Wszechświecie przypadkowo panują warunki sprzyjające rozwojowi życia, ale jest to tylko uśmiech losu, bez głębszego znaczenia. I w tym przypadku jest to kwestia indywidualnej oceny. Przypuśćmy, że można wykazać, że życie nie byłoby możliwe, gdyby stosunek masy elektronu do masy protonu odpowiadał z dokładnością 0,00000000001 procenta jakiejś zupełnie niezależnej liczbie - powiedzmy, wielokrotności stosunku gęstości wody i rtęci przy 18 stopniach Celsjusza. Nawet najbardziej zatwardziały sceptyk zmuszony byłby wtedy przyznać, że “coś w tym jest”.
Ale jak ocenić, w jakim stopniu coś jest “nienaturalne”? Problem polega na tym, że nie znamy sposobu, w jaki można by wyznaczyć wartości prawdopodobieństwa znanych nam “zbiegów okoliczności”. Z jakiego zakresu może pochodzić, powiedzmy, wartość siły oddziaływań jądrowych (od której zależą na przykład wartości energii odpowiadające rezonansom Hoyle'a)? Jeśli zakres ten jest nieskończony, to prawdopodobieństwo wybrania każdego skończonego zbioru wartości równa się zeru. Ale wtedy trudno byłoby mówić, iż wymogi powstania życia w jakimkolwiek stopniu tę wartość zmieniają. Stanowi to niewątpliwe reductio ad absurdum całego rozumowania. Potrzebna jest tu jakaś metateoria, teoria teorii, która pozwalałaby na wyznaczenie wartości prawdopodobieństwa dla danego zakresu wartości parametrów. Taka metateoria nie istnieje, a przynajmniej, o ile mi wiadomo, nikt jej dotychczas nie stworzył. Dopóki jej nie będzie, ocena stopnia “nienaturalności” danego stanu Wszechświata pozostaje sprawą czysto subiektywną. Niemniej jednak czujemy, że jest on nienaturalny!
Innym podnoszonym niekiedy zarzutem jest to, że w procesie ewolucji organizmy żywe dostosowują się do panujących warunków, nic więc dziwnego, że życie tak dobrze odpowiada tym warunkom. Może to być prawdą jedynie w odniesieniu do ogólnych parametrów środowiska, na przykład umiarkowanych zmian klimatycznych. Z pewnością byłoby błędem wskazanie na Ziemię i powiedzenie: “Spójrzcie, jak warunki sprzyjają tu życiu! Klimat jest właściwy, jest dużo tlenu i wody, a siła ciężkości odpowiada akurat długości kończyn, itd. itd. Co za niezwykła seria przypadków!” Ziemia jest tylko jedną spośród wielkiej liczby planet położonych w naszej Galaktyce i poza nią. Życie może powstać tylko na tych planetach, gdzie są odpowiednie warunki. Gdyby Ziemia się do nich nie zaliczała, być może ta książka napisana zostałaby w jakiejś innej galaktyce. Ale nie chodzi nam teraz o coś tak zaściankowego, jak życie na Ziemi. Pytanie brzmi: jakie muszą być spełnione warunki, aby powstało w ogóle życie gdzieś we Wszechświecie. Jeśli już ono powstanie, to w nieunikniony sposób będzie się rozwijało w miejscu, gdzie są po temu warunki.
Szczególny charakter, o jakim mówiłem, nie dotyczy tej czy innej niszy ekologicznej, lecz samych praw fizyki. Gdyby prawa te nie spełniały pewnych warunków, życie nie mogłoby w ogóle powstać. Z oczywistych względów nie istniałoby życie oparte na związkach węgla, gdyby nie było węgla. Lecz co z alternatywnymi formami życia, tak ulubionymi przez autorów fantastyki naukowej? I w tym przypadku, musimy przyznać, że po prostu nie wiemy. Gdyby prawa fizyki były nieco inne, może powstałyby inne możliwości rozwoju życia zamiast tych, które znamy. Sprzeciwia się temu ogólny pogląd, że organizmy biologiczne są tak szczególnymi układami, że nie mogłyby się pojawić w wyniku dowolnych praw i warunków. Jednakże, dopóki nie poznaliśmy należycie pochodzenia życia i nie są nam znane żadne jego alternatywne formy istniejące gdzieś we Wszechświecie, kwestia ta musi pozostać nie rozstrzygnięta.
Powróćmy znów do słynnego powiedzenia Einsteina, że “Pan Bóg jest wyrafinowany, lecz nie perfidny” - pozwoli nam ono dostrzec jeszcze jeden intrygujący aspekt porządku świata. Einstein miał na myśli to, że poznanie przyrody wymaga wprawdzie znacznych umiejętności matematycznych, intuicji fizycznej i dużej pomysłowości, mimo to cel ten jest dla nas możliwy do osiągnięcia. Problematykę tę dyskutowałem w nieco innym ujęciu w rozdziale 6, gdzie wskazałem na fakt, że świat wydaje się być zbudowany w ten sposób, że jego opis matematyczny, choć wcale nietrywialny, pozostaje w zasięgu umysłu człowieka.
Jak już raz czy dwa wspominałem, niezwykle trudno przekazać, na czym polega wyrafinowanie matematycznego opisu przyrody, komuś nie obeznanemu z fizyką teoretyczną, jednakże naukowcy, którzy mieli do czynienia z tą dziedziną, doskonale wiedzą, o co chodzi. Jest ono być może najbardziej uderzające w fizyce cząstek elementarnych i teorii pola, które wymagają jednoczesnego stosowania kilku działów matematyki wyższej. Wyrażając rzecz możliwie najprościej: stosując matematykę w zwykły sposób dochodzimy do pewnego punktu i nagle opis się załamuje: pojawia się jakaś wewnętrzna sprzeczność lub też teoria daje wyniki drastycznie nie odpowiadające rzeczywistości. Wtedy przychodzi ktoś sprytniejszy od nas i wynajduje jakiś trik; znajduje, być może, jakąś ukrytą lukę w twierdzeniu albo elegancki sposób wyrażenia danego problemu w języku całkiem odmiennych pojęć matematycznych i proszę bardzo, wszystko pasuje! Trudno oprzeć się pokusie przypisania przyrodzie co najmniej równie wielkiej dozy sprytu, skoro potrafiła “zauważyć” to rozwiązanie i je wykorzystać. Często słyszy się fizyków teoretycznych, którzy we właściwy im nieformalny, bezceremonialny sposób zachwalają swoją teorię przy użyciu powiedzonka, iż jest ona tak sprytna/wyrafinowana/elegancka, że trudno przypuścić, aby przyroda nie chciała jej wykorzystać!
Pozwolę sobie zwięźle naszkicować jeden przykład. W rozdziale 7 omawiałem najnowsze próby unifikacji czterech podstawowych oddziaływań przyrody. Dlaczegóż przyroda miałaby się posługiwać aż czterema odrębnymi siłami? Czyż nie byłoby prostszym, efektywniejszym i bardziej eleganckim rozwiązaniem, gdybyśmy mieli trzy, dwie, a może nawet tylko jedną siłę, przejawiającą się pod czterema różnymi postaciami? Tak przynajmniej sądzili zaangażowani w te badania fizycy, poszukujący podobieństw pomiędzy poszczególnymi oddziaływaniami, które pozwoliłyby na znalezienie jednego wspólnego opisu matematycznego. W latach sześćdziesiątych okazało się, że można to będzie osiągnąć w przypadku elektromagnetyzmu i słabych oddziaływań jądrowych. Wiedziano, że oddziaływania elektromagnetyczne polegają na wymianie cząstek zwanych “fotonami”. Fotony te, śmigając tam i z powrotem pomiędzy naładowanymi elektrycznie cząstkami, na przykład elektronami, powodują powstanie działających na nie sił. Gdy widzimy przywieranie potartego balonu do sufitu czy też wzajemne przyciąganie i odpychanie magnesów, to obserwujemy właśnie skutki niewidzialnej pracy tych niestrudzonych cząstek. Możemy sobie wyobrażać, że fotony te pełnią jak gdyby rolę posłańców, które powiadamiają jedne cząstki o sile działającej na nie ze strony innych cząstek, a te z kolei w ten sam sposób odpowiadają.
Otóż teoretycy doszli do przekonania, że coś podobnego zachodzi w przypadku oddziaływań słabych w jądrach atomowych. Wynaleziono hipotetyczną cząstkę, nazwana dość tajemniczo cząstką W, która miałaby odgrywać rolę pośrednika, analogicznie jak fotony. Jednakże, w przeciwieństwie do fotonów, które były dobrze znane w laboratorium, nikt nigdy nie widział cząstki W, więc można było opierać się wyłącznie na matematyce. Teorię oddziaływań słabych przeformułowano tak, aby uwydatnić jej zasadnicze podobieństwo do elektromagnetyzmu. Idea była taka, że jeżeli mamy dwa zbliżone opisy matematyczne, to można je ze sobą połączyć w jeden jednolity opis. Przeformułowanie to obejmowało wprowadzenie jeszcze jednej cząstki pośredniczącej, nazwanej cząstką Z, która przypomina foton w jeszcze większym stopniu niż cząstka W. Problem polegał na tym, że nawet w tym nowym sformułowaniu oba opisy - teoria elektromagnetyzmu i oddziaływań słabych - nadal cechowała pewna zasadnicza różnica. Mimo wielu podobieństw cząstek Z do fotonów ich masy były krańcowo odmienne. Powodem było to, że masa cząstki pośredniczącej wiąże się bezpośrednio z zasięgiem danego oddziaływania: im krótszy zasięg, tym większa masa cząstek. Zasięg sił elektromagnetycznych jest nieskończony, co wymaga, aby pośrednicząca w nich cząstka miała masę równą zeru, podczas gdy zasięg oddziaływań słabych nie przekracza rozmiarów jądra, wskutek czego pośredniczące cząstki muszą mieć masę bardzo dużą, rzędu mas całych atomów.
Kilka słów trzeba poświęcić faktowi zerowej masy fotonu. Masa cząstki wiąże się z jej bezwładnością. Im mniejsza masa, tym mniejsza bezwładność cząstki i tym większego przyśpieszenia doznaje ona pod wpływem działającej na nią siły. Gdy dane ciało ma bardzo małą masę, to dany impuls siły nada mu bardzo dużą prędkość. Jeśli wyobrazimy sobie cząstki o coraz to mniejszej masie, to prędkość ta będzie coraz większa. Można by sądzić, że cząstka o zerowej masie będzie poruszać się nieskończenie szybko, ale tak nie jest. Teoria względności zabrania, by cokolwiek poruszało się z prędkością przewyższającą prędkość światła, a zatem cząstki o masie zerowej poruszają się z prędkością światła. Fotony, jako “cząstki światła”, są tu oczywistym przykładem. Natomiast z obliczeń wynikało, że cząstki W i Z powinny mieć masy równe odpowiednio osiemdziesięciu i dziewięćdziesięciu masom protonu, najcięższej ze znanych trwałych cząstek.
Problem, przed jakim stanęli teoretycy w latach sześćdziesiątych, polegał na tym, w jaki sposób połączyć z sobą eleganckie pod względem matematycznym opisy oddziaływań elektromagnetycznych i słabych, skoro różnią się one od siebie jednym tak istotnym szczegółem. Przełom nastąpił w roku 1967. W oparciu o aparat matematyczny, rozwinięty wcześniej przez Sheldona Glashowa, dwaj fizycy teoretyczni, Abdus Salam i Steven Weinberg, niezależnie od siebie, znaleźli wyjście z syluacji. Zasadnicza myśl była następująca. Przypuśćmy, że duże wartości masy cząstek W i Z nie są ich własnością pierwotną, lecz zostały nabyte w wyniku jakiegoś oddziaływania zewnętrznego; to znaczy, przypuśćmy, że cząstki te nie posiadają, że się tak wyrażę, masy wrodzonej, lecz “niosą” ją ze sobą. Ta różnica, choć może wydawać się drobna, jest niezwykle istotna. Oznacza bowiem, że masa nie jest kwestią teorii fizycznej, lecz konkretnego stanu, w jakim normalnie się te cząstki znajdują. Posłużę się analogią, aby to bliżej wyjaśnić. Gdy ustawimy ołówek pionowo na ostrym końcu i puścimy, przewróci się on, układając w pewnym kierunku. Powiedzmy, że będzie wskazywał na północny wschód. Stan ten został osiągnięty pod wpływem sił ciążenia ziemskiego, lecz “północny wschód” nie jest bynajmniej wewnętrzną cechą grawitacji. Siły ciążenia niewątpliwie wyróżniają kierunek góra-dół, ale nie północ-południe, wschód-zachód, ani żaden kierunek pośredni. Z punktu widzenia grawitacji wszystkie kierunki w poziomie są równoważne. Zatem ułożenie ołówka na północny wschód jest jedynie przypadkową cechą układu ołówek + siła ciężkości, związaną ze szczególnym stanem, w jakim akurat znalazł się ołówek.
W przypadku cząstek W i Z rolę grawitacji odgrywa hipotetyczne nowe pole, zwane polem Higgsa, od nazwiska Petera Higgsa z University of Edinburgh. Pole Higgsa działając na W i Z powoduje ich “przewrócenie” w sensie symbolicznym. W wyniku tego nie otrzymujemy “północnego wschodu”, lecz masę, i to dużą. Zostaje w ten sposób otwarta droga do unifikacji z elektromagnetyzmem, jako że cząstki W i Z teraz “naprawdę” nie posiadają masy, podobnie jak foton. Dwa matematyczne opisy można teraz z sobą połączyć, otrzymując jednolitą teorię, w której występuje tylko jedno “elektrosłabe” oddziaływanie.
Reszta, jak to się mówi, jest historią. Na początku lat osiemdziesiątych w akceleratorach Europejskiego Ośrodka Badań Jądrowych (CERN) pod Genewą udało się w końcu otrzymać cząstki W, a następnie Z. Teoria zyskała w ten sposób wspaniałe potwierdzenie. Dwa z występujących w przyrodzie oddziaływań okazały się być naprawdę dwoma obliczami tego samego oddziaływania. Najwidoczniej przyroda dostrzegła także lukę w rozumowaniu, że nie można utożsamić cząstek o masie zerowej i niezerowej - jest to możliwe, gdy wykorzysta się mechanizm Higgsa.
Historia ta ma jeszcze ciąg dalszy. Z polem Higgsa, które odgrywa tu tak znaczącą rolę, stowarzyszona jest z kolei cząstka nazwana “bozonem Higgsa”. Posiada ona przypuszczalnie bardzo dużą masę, co oznacza, że do jej wytworzenia potrzebna jest bardzo duża energia. Do tej pory nikomu nie udało się zaobserwować bozonu Higgsa, lecz jest on na czele listy cząstek oczekujących na odkrycie. Jej wytworzenie będzie jednym z podstawowych zadań planowanego nowego gigantycznego akceleratora, który ma być zbudowany na pustkowiach Teksasu w drugiej połowie lat dziewięćdziesiątych. Znane pod nazwą SSC (Superconducting Supercollider) to monstrualne urządzenie o obwodzie około osiemdziesięciu kilometrów umożliwi przyśpieszanie protonów i antyprotonów do nieosiągalnych dotąd energii. Przeciwbieżne strumienie cząstek będą zderzać się ze sobą, przez co uzyska się zderzenia o niespotykanej gwałtowności. Istnieje nadzieja, że SSC pozwoli na skumulowanie energii wystarczającej na wytworzenie bozonu Hig-gsa. Lecz w wyścigu tym oprócz Amerykanów biorą udział także Europejczycy, którzy spodziewają się, że uda im się uzyskać bozon Higgsa w którymś z akceleratorów w CERN. Dopóki się go nie odkryje, nie możemy być pewni, czy przyroda faktycznie korzysta z mechanizmu Higgsa. Być może znalazła jakiś jeszcze sprytniejszy sposób. Pozostaje w napięciu oczekiwać na finał tej historii.
Gdy naukowcy mówią o czymś: “dlaczego przyroda miałaby sobie zadawać tyle trudu?”, czy też: “po co to jest?”, zdają się przypisywać przyrodzie inteligencję. Jakkolwiek zwykle pytania takie wypowiadane są nieco żartobliwie, mają one również podtekst poważny. Doświadczenie wykazało, że przyroda podziela nasze pojęcia oszczędności, efektywności, piękna i wyrafinowania matematycznego, a zatem kierowanie się nimi w badaniach naukowych daje bardzo dobre wyniki (jak w przypadku unifikacji oddziaływań słabych i elektromagnetycznych). Większość fizyków uważa, że pod zewnętrzną złożonością ich dyscypliny kryje się elegancka wszechogarniająca jedność i że postęp w fizyce polega na wykrywaniu matematycznych “sztuczek”, które pozwoliły przyrodzie wygenerować nietrywialnie zróżnicowany i złożony Wszechświat z tej fundamentalnej prostoty.
Istnieje na przykład wśród fizyków niewyrażane, lecz dość powszechne przekonanie, że wszystko, co istnieje w przyrodzie, musi mieć “miejsce”, czy też rolę, w ramach pewnej ogólniejszej całości, że przyroda nie pozwala sobie na rozrzutność poprzez tworzenie bytów przypadkowych; że nie jest ona arbitralna. Każdy element rzeczywistości fizycznej powinien łączyć się z innymi w “naturalny” i logiczny sposób. Zatem, kiedy w 1937 roku odkryto cząstkę elementarną nazwaną potem mionem, fizyk Isidor Rabi wykrzyknął ze zdumienia: “Czy ktoś to zamawiał?” Mion jest cząstką praktycznie identyczną z elektronem pod wszystkimi względami, lecz o 206,8 razy większej masie. Ten większy brat elektronu jest nietrwały i w ciągu jednej lub dwóch mikrosekund ulega rozpadowi, nie stanowi zatem stałego składnika materii. Tym niemniej, wszystko wskazuje na to, ze jest on samodzielną cząstką elementarną, a nie złożeniem innych cząstek. Reakcja Rabiego jest charakterystyczna. Po co istnieje taki mion'? Do czego przyrodzie potrzebny jest jeszcze jeden gatunek elektronów, i to tak nietrwały? Jaką sprawiłoby różnicę, gdyby mion wogóle me istniał?
Od tego czasu cały problem się jeszcze bardziej skomplikował. Wiemy teraz, że większych braci jest dwóch. Drugi z nich, odkryty w 1974 roku, nazwany został “taonem”. Co gorsza, okazuje się, ze inne cząstki również mają niestabilnych większych braci. Każdy z tak zwanych kwarków - cegiełek składowych materii jądrowej, jak protony i neutrony - występuje w dwóch cięższych wariantach. Mamy także trzy rodzaje neutrin. Sytuacja przedstawiona jest schematycznie w Tabeli l. Wydaje się, ze wszystkie znane cząstki elementarne można podzielić na trzy “generacje” Do pierwszej generacji zaliczają się elektron, neutrino elektronowe i dwa kwarki, zwane “górnym” i “dolnym”, z których składają się protony i neutrony Cząstki pierwszej generacji są zasadniczo trwałe i stanowią podstawowy składnik widzialnego Wszechświata Zarówno atomy naszego ciała, jak i te wchodzące w skład Słońca i gwiazd, zbudowane są z cząstek pierwszej generacji.
TABELA l
Leptony Kwarki
Pierwsza generacja elektron “dolny”
neutrino elektronowe “górny”
Druga generacja mion , dziwny”
neutrino mionowe “powabny”
Trzecia generacja taon “piękny”
neutrino taonowe ,,top”
Materia zbudowana jest z dwunastu podstawowych typów cząstek Sześć z nich, zwanych “leptonami” , jest dość lekka i uczestniczy jedynie w oddziaływaniach słabych. Pozostałych sześć zwanych “kwarkami” , ma dużą masę i wchodzi w oddziaływania silne tworząc cząstki składowe jąder atomowych. Wszystkie te cząstki można uporządkować w trzy generacje o zbliżonych własnościach.
Druga generacja wydaje się mniej więcej powtórzeniem pierwszej. Znajdujemy tutaj mion, który tak zdumiał Rabiego. Cząstki te (być może z wyjątkiem neutrino) są nietrwałe i rozpadają się po krótkim czasie na cząstki pierwszej generacji. I oto, ni stąd m zowąd, przyroda jeszcze raz powtarza to wszystko w postaci trzeciej generacji. Można się zastanawiać, czy na tym już koniec. Być może liczba generacji jest nieskończona i mamy do czynienia z jakąś prostą strukturą powtarzalną. Fizycy w większości są odmiennego zdania. W 1989 roku w CERN użyto nowego akceleratora cząstek do dokładnego prześledzenia rozpadu cząstki Z. Otóż Z rozpada się na neutrina, a szybkość tego procesu wyznaczona jest przez liczbę odrębnych rodzajów neutrin występujących w przyrodzie, a zatem dokładny pomiar tej szybkości może służyć do określenia tej liczby. Otrzymano liczbę trzy, co oznaczałoby, ze mamy do czynienia jedynie z trzema generacjami cząstek.
Stajemy zatem przed zagadką dlaczego trzy? Jedna lub nieskończenie wiele byłoby “naturalne”, lecz trzy wydaje się czystą perwersją. Owa “zagadka generacji” dostarczyła impulsu do wielu istotnych prac teoretycznych. Największego postępu w fizyce cząstek elementarnych dokonano dzięki zastosowaniu działu matematyki zwanego “teorią grup”. Wiąże się to silnie z zagadnieniem symetrii, jednej z “ulubionych” własności przyrody. Teoria grup pozwala na połączenie pozornie odrębnych cząstek w jednolite rodziny. Istnieją określone reguły matematyczne przedstawiania grup i łączenia ich ze sobą, a także określające, ile cząstek każdego typu może wchodzić w skład grupy. Naukowcy mają nadzieję na uzyskanie opisu teonogrupowego uzasadnionego niezależnie, który również zawierałby trzy generacje cząstek. Pozorna rozrzutność przyrody okazałaby się wtedy konieczną konsekwencją jakiejś głębszej symetrii.
Oczywiście, dopóki nie uda się dokonać takiej unifikacji, istnienie trzech generacji stanowi kontrprzykład dla tezy, ze przyrodę cechuje wyrafinowana oszczędność, a nie złośliwa arbitralność. Jestem jednak tak pewny, ze przyroda podziela nasze poczucie oszczędności, iż chętnie ręczę własną głową, że problem ten zostanie rozwiązany w najbliższych dziesięcioleciach i że rozwiązanie to będzie stanowiło kolejny dobitny dowód, iż przyroda stosuje się jednak do zasady “Miejsce na wszystko i wszystko na swoim miejscu”.
Cała sprawa z generacjami cząstek ma jeszcze jeden interesujący aspekt, który potwierdza moją tezę. Przyznaję, ze Tabela l nie jest do końca prawdziwa. Gdy piszę tę książkę, istnienie kwarka “top” nie zostało jeszcze ostatecznie potwierdzone. Kilka razy był on już wprawdzie “odkrywany”, lecz wiadomość ta była potem dementowana. Otóż można by się zastanawiać, skąd fizycy czerpią taką pewność, że kwark “top” istnieje, iż skłonni są poświęcać znaczną część skąpych środków na badania, jakie mają do dyspozycji, na jego poszukiwania. A jeśli on w ogóle nie istnieje? Może jednak w tabeli (która w końcu została tylko wymyślona przez ludzi) jest puste miejsce, i tak naprawdę to nie mamy wcale trzech generacji cząstek, lecz dwie i trzy czwarte? Cóż, ciężko byłoby znaleźć fizyka, który sądziłby, iż przyroda mogłaby być tak złośliwa, i kiedy kwark “top” zostanie odkryty (a nie mam żadnych wątpliwości, że to prędzej czy później nastąpi), będzie on kolejnym przykładem, że przyroda nie dopuszcza nieporządku.
Problem generacji stanowi w istocie część szerszego problemu unifikacji, o którym wspominałem, a z którym potyka się cała armia teoretyków. John Polkinghorne, który zanim wstąpił do stanu duchownego, zajmował się teorią cząstek elementarnych, opisuje pewność, jaką fizycy pokładają w następnym etapie programu unifikacji:
Moi niegdysiejsi koledzy zadają sobie wiele trudu, usiłując stworzyć teorię jeszcze bardziej ogólną. (...) Rzekłbym, iż obecnie ich wyniki mają w sobie element sztuczności, bądź wręcz desperacji. Jakiś podstawowy fakt, czy też idea, ciągle nie jest dostrzegany. Niemniej jednak nie wątpię, że w swoim czasie uda się wniknąć w głąb rzeczy i odkryć głębszą strukturę leżącą u podstaw fizycznej rzeczywistości.
Jak już wspominałem, aktualnie modna jest tak zwana teoria superstrun, lecz niewątpliwie wkrótce pojawi się coś innego. Jakkolwiek przed fizykami piętrzą się olbrzymie trudności, w pełni zgadzam się z Polkinghornem. Nie mogę uwierzyć, że problemy te miałyby być z natury nierozwiązywalne i że unifikacja fizyki cząstek jest celem niemożliwym do osiągnięcia. Wszystkie znaki na niebie i ziemi wskazują, że pod powierzchnią zjawisk kryje się jedność, a nie arbitralność, niezależnie od tego, ile jeszcze będziemy musieli drapać się po głowie, aby ją odkryć.
Na zakończenie rozważań, czy faktycznie “potrzeba” tylu rodzajów cząstek, przychodzi mi do głowy ciekawa myśl. Miony, jakkolwiek nie wchodzą w skład normalnej materii, odgrywają jednak w przyrodzie dość istotną rolę. Znaczna część promieniowania kosmicznego, które dociera do powierzchni Ziemi, to właśnie miony. Stanowią one część normalnego tła promieniowania, przyczyniając się do powstawania mutacji, które są siłą napędową ewolucji biologicznej. Zatem, przynajmniej do pewnego stopnia, miony znajdują zastosowanie w biologii. Stanowi to kolejny przykład tak szczęśliwego dla nas dopasowania elementów Wszechświata w dużej i małej skali, o którym wspominałem wcześniej w tym rozdziale.
Czy potrzebny jest Stwórca?
Mam nadzieję, że niniejsza dyskusja pozwoli przekonać czytelnika, że świat nie jest bezładną zbieraniną obiektów i sił, lecz niezwykle pomysłową, jednolitą strukturą matematyczną. Słowa takie jak “pomysłowy” lub “sprytny” niezaprzeczalnie odnoszą się do działalności człowieka, a pomimo to nieodparcie nasuwają się w odniesieniu do przyrody. Czy jest to tylko jeszcze jeden przykład narzucania przyrodzie naszych własnych kategorii myślowych, czy też odzwierciedla się w tym jakaś istotna głęboka właściwość świata?
Odeszliśmy już dość daleko od paleyowskiej wizji świata jako zegarka. Posługując się raz jeszcze moją ulubioną analogią, można powiedzieć, że świat fizyki cząstek elementarnych przypomina bardziej krzyżówkę niż mechanizm zegarka. Każde nowe odkrycie stanowi wskazówkę pozwalającą odkryć jakieś nowe elementy matematycznej struktury. W miarę gromadzenia się odkryć, coraz więcej tych krzyżujących się powiązań “wypełnia się” i zaczynają wyłaniać się zarysy całej struktury. W chwili obecnej w “krzyżówce” tej pozostaje jeszcze wiele pustych miejsc, niemniej da się już zauważyć, jak bardzo jest ona misterna i spójna. W odróżnieniu od mechanizmu, który może jedynie powoli z czasem zmierzać w kierunku form o większym stopniu złożoności i organizacji, “krzyżówka” fizyki cząstek jest gotowa od razu w całości. Powiązania nie powstają, lecz istnieją przez cały czas, ukryte w prawach. Musimy je po prostu bądź przyjąć jako zdumiewające nagie fakty, bądź też poszukiwać dla nich głębszego uzasadnienia.
Zgodnie z myślą chrześcijańską tym głębszym uzasadnieniem jest Bóg, który stworzył świat w całym jego bogactwie i złożoności, a zadaniem fizyki jest odkrywanie szczegółów tego Bożego zamysłu. Gdybyśmy się na to zgodzili, następnym pytaniem jest: jaki cel miał Bóg stwarzając świat w ten sposób? Aby odpowiedzień na to pytanie, musimy wziąć pod uwagę wszystkie “zbiegi okoliczności” wspomniane wcześniej w związku z zasadą antropiczną i warunkami występowania organizmów żywych. Wyraźne “dopasowanie” praw przyrody, niezbędne, aby we Wszechświecie mogły zrodzić się i przetrwać istoty żywe obdarzone świadomością, stwarza wyraźną sugestię, iż to właśnie Bóg tak zaprojektował Wszechświat, by możliwe było powstanie życia i świadomości. Oznaczałoby to, że istnienie nas samych we Wszechświecie stanowi zasadniczą część stwórczego planu Boga.
Lecz czy istnienie planu w konieczny sposób zakłada istnienie jego twórcy? John Leslie argumentuje, że tak nie jest. Jak pamiętamy, w jego teorii stworzenia świat powstał w wyniku “wymogu etycznego”. Pisze on: “Świat istniejący w wyniku etycznej potrzeby mógłby być dokładnie taki sam, równie obfitujący w dowody działalności planowej, niezależnie od tego, czy potrzeba ta wymagała do swego urzeczywistnienia stwórczych aktów ukierunkowanej na dobro inteligentnej istoty, czy też nie”. Krótko mówiąc, świat zrodzony przez dobro może jawić się nam jako planowy, nawet jeżeli faktycznie taki nie jest.
W książce The Cosmic Blueprint pisałem, że świat wygląda, jak gdyby rozwijał się według jakiegoś planu lub projektu. Idea ta jest (fragmentarycznie) wyrażona w schematyczny sposób na rysunku 12, gdzie rolę projektu (czy też kosmicznego programu komputerowego, jak kto woli) odgrywają prawa fizyki, wyobrażone w postaci maszynki do mięsa. Na wejściu mamy kosmiczne warunki początkowe, a na wyjściu zorganizowane struktury złożone, czyli rozbudowanie w głąb. Inna wersja tego schematu pokazana jest na rysunku 13, gdzie na wejściu mamy materię, a na wyjściu umysł. Zasadniczą myślą jest, że coś wartościowego powstaje w wyniku przetwarzania według pewnego z góry określonego zbioru reguł. Reguły te wyglądają, jak gdyby były dziełem istoty inteligentnej. Nie widzę, jak ktoś mógłby temu przeczyć. To, czy się wierzy, że zostały one naprawdę zaplanowane celowo, a jeśli tak, to przez kogo, musi pozostać już sprawą indywidualnych preferencji. Osobiście skłaniam się do przypuszczenia, że własności takie, jak przemyślność, oszczędność środków, piękno itp., mają naprawdę charakter trancendentny - nie są one wyłącznie wytworem ludzkim - i że własności te odzwierciedlają się w strukturze świata. Czy te własności są w stanie same z siebie powołać świat do istnienia, tego nie wiem. Gdyby tak było, można by uważać Boga wyłącznie za mityczną personifikację tych własności stwórczych, a nie niezależny czynnik sprawczy. Jasne jest, że nie zadowoliłoby to nikogo, kto uważa, że Bóg jest stroną relacji międzyosobowej.
Wielokrotna rzeczywistość
Niewątpliwie najpoważniejszym wyzwaniem dla tezy o planowym charakterze świata jest alternatywna hipoteza wielu światów, czyli wielokrotnej rzeczywistości. Mówiłem już o tej teorii w rozdziale 7 przy okazji omawiania kosmologicznego dowodu istnienia Boga. Zasadnicza jej idea polega na tym, że świat, jaki widzimy, jest tylko jednym z wielkiej liczby światów, a przyczyną tego, że nasz konkretny świat wygląda na zaplanowany, jest to, iż tylko w światach o stosunkowo wymyślnej postaci może dojść do powstania życia (a tym samym świadomości). Nic zatem dziwnego, że znajdujemy się w świecie tak sprzyjającym biologicznemu życiu. Został on po prostu “wybrany antropicznie”.
Musimy wpierw zadać pytanie, czy dysponujemy jakimikolwiek dowodami na istnienie tych innych światów. Filozof George Gale sporządził listę kilku teorii fizycznych, które w ten czy inny sposób sugerują istnienie wielości światów. Najczęściej koncepcja wielu światów pojawia się w kontekście interpretacji mechaniki kwantowej. Aby zobaczyć, w jaki sposób kwantowa nieoznaczoność prowadzi do możliwości, że istnieje więcej niż jeden świat, rozważmy prosty przykład. Wyobraźmy sobie pojedynczy elektron w polu magnetycznym. Posiada on wewnętrzny moment magnetyczny, zwany spinem. Możemy wyznaczyć energię oddziaływania spinu z zewnętrznym polem magnetycznym; energia ta będzie zależała od kąta pomiędzy kierunkiem przyłożonego pola magnetycznego a kierunkiem własnego pola magnetycznego elektronu. Jeśli kierunki te są zgodne, energia ta będzie niska; jeśli przeciwne - wysoka; a dla kątów pośrednich powinna przyjmować wartości pośrednie. Pomiar tej energii pozwala zatem na efektywne wyznaczenie orientacji spinu elektronu. Okazuje się, i jest to jeden z podstawowych faktów mechaniki kwantowej, że obserwuje się tylko dwie wartości energii, odpowiadające, mówiąc w uproszczeniu, orientacji spinu zgodnej z kierunkiem zewnętrznego pola magnetycznego oraz przeciwnej.
Pojawia się teraz interesujące pytanie, co się stanie, jeżeli celowo weźmiemy elektron, którego wewnętrzne pole magnetyczne jest ustawione prostopadle do pola zewnętrznego, to znaczy spin elektronu nie jest ustawiony ani zgodnie z kierunkiem pola, ani przeciwnie, lecz poprzecznie. Od strony matematycznej sytuacja ta opisana jest poprzez przyjęcie, że elektron znajduje się w stanie będącym “superpozycją” obydwu możliwości. Oznacza to, iż stan jest - znowu w pewnym uproszczeniu - złożeniem dwóch zachodzących na siebie rzeczywistości: jednej, w której spin skierowany jest do góry, i drugiej, w której spin skierowany jest w dół. Jeżeli teraz dokonamy pomiaru energii, to jego wynik będzie odpowiadał albo orientacji “w górę”, albo orientacji “w dół”, a nie żadnej przedziwnej kombinacji obydwu. Tymczasem właściwa mechanice kwantowej nieoznaczoność nie pozwala nam przewidzieć z góry, z którą z tych możliwości będziemy mieli do czynienia. Prawa mechaniki kwantowej pozwalają jednak na przypisanie alternatywnym stanom względnych wartości prawdopodobieństwa. W rozważanym przykładzie wartości te są równe. Zatem, według prymitywnej wersji hipotezy wielu światów, w momencie dokonywania pomiaru świat rozpada się na dwa “egzemplarze”: jeden, w którym spin zorientowany jest ku górze, i drugi, w którym zorientowany jest w dół.
Bardziej wyrafinowana wersja zakłada, że oba światy istnieją przez cały czas, lecz przed dokonaniem eksperymentu są one identyczne pod każdym względem. Dopiero sam pomiar powoduje ich zróżnicowanie pod względem orientacji spinu elektronu. W przypadku gdy wchodzą w grę nierówne wartości prawdopodobieństwa, można sobie zakładać więcej identycznych światów, odpowiednio do tych wartości. Na przykład, jeśli mamy wartości prawdopodobieństwa 2/3 dla orientacji “w górę” i dla orientacji “w dół”, to można sobie wyobrażać trzy początkowo identyczne światy, z których dwa pozostają identyczne i spin skierowany jest w nich “do góry”, a trzeci różni się od nich tym, że spin skierowany jest “w dół”. W ogólnym przypadku potrzeba nieskończonej liczby światów, aby uwzględnić wszystkie możliwości.
Wyobraźmy sobie teraz, że stosujemy tę ideę nie do pojedynczego elektronu, lecz do wszystkich cząstek we Wszechświecie. W całym kosmosie nieoznaczoności dotyczące każdej bez wyjątku cząstki elementarnej powodują rozszczepianie się rzeczywistości na coraz to więcej niezależnie istniejących światów. Z wizji tej wynika, że wszystko, co może się zdarzyć, zdarza się; to znaczy, każdy zespół warunków, który jest dopuszczalny fizycznie (aczkolwiek nie każdy dopuszczalny logicznie), zostaje gdzieś zrealizowany pośród tej nieskończonej liczby światów.
Poszczególne światy należy przy tym uważać za “równoległe”,czyli współistniejące rzeczywistości. Dany obserwator będzie, oczywiście, widział zawsze tylko jeden z nich, ale musimy zakładać, że świadomość obserwatora również podlega procesowi rozwarstwiania, a więc każdy z tej mnogości alternatywnych światów będzie zawierał również kopie umysłu obserwatora. Założeniem całej teorii jest, że nie uświadamiamy sobie tego “rozszczepienia” umysłu i każdy “egzemplarz” uważa się za jedyny, integralny umysł. Niemniej jednak zostajemy w ten sposób powieleni w nieskończonej liczbie egzemplarzy. Hipoteza, mimo całej swojej niecodzienności, znajduje uznanie, w tej czy innej wersji, u wielu zarówno fizyków, jak i filozofów. Szczególnie przemawia ona do badaczy zajmujących się kosmologią kwantową, gdzie alternatywne interpretacje mechaniki kwantowej stwarzają jeszcze większe trudności. Trzeba jednakże przyznać, że teoria ta ma też swoich krytyków, którzy (np. Roger Penrose) kwestionują między innymi pogląd, że nie da się dostrzec rozszczepienia.
Nie jest to bynajmniej jedyna istniejąca hipoteza wielości światów. Inną, nieco łatwiejszą do wizualizacji, możliwością jest, iż to, co nazywamy “Wszechświatem”, stanowi zaledwie niewielki wyrywek olbrzymiego układu rozciągającego się o wiele dalej w przestrzeni. Gdybyśmy byli w stanie zaglądnąć dalej niż te dziesięć miliardów z okładem lat świetlnych dostępnych naszym instrumentom obserwacyjnym, zobaczylibyśmy (tak przynajmniej twierdzi się w tej teorii) zupełnie odmienne obszary Wszechświata. Liczba możliwych obszarów z różnymi warunkami w nich panującymi jest nieograniczona, gdyż zakłada się, że Wszechświat jest nieskończenie wielki. Ściśle mówiąc, jeżeli definiuje się “Wszechświat” jako wszystko, co istnieje, to należałoby w tym przypadku mówić raczej o hipotezie wielu obszarów aniżeli wielu światów, ale dla naszych celów rozróżnienie to nie jest istotne.
Zagadnieniem, które musimy teraz rozważyć, jest, czy oznaki planowego charakteru świata mogą być jednocześnie traktowane jako oznaki przemawiające na rzecz istnienia wielości światów. W niektórych przypadkach odpowiedź musi być zdecydowanie pozytywna. Na przykład wielkoskalowy rozkład przestrzenny materii w kosmosie ma istotne znaczenie dla powstania życia. Gdyby Wszechświat był wysoce nieregularny, powstawałyby w nim czarne dziury lub też turbulencje gazowe, a nie uporządkowane galaktyki zawierające stabilne gwiazdy i planety, mogące stworzyć warunki dogodne dla życia. Jeżeli wyobrazimy sobie nieskończoną mnogość światów z przypadkowym rozkładem materii, to przeważałyby wśród nich światy całkowicie chaotyczne. Niemniej tu i ówdzie, na zasadzie czystego przypadku, powstawałyby oazy porządku, w których możliwe byłoby powstanie życia. Zmierzającą w tym kierunku wersję scenariusza kosmicznej inflacji przedstawił ostatnio rosyjski fizyk Andriej Linde. Chociaż owe oazy spokoju byłyby niewiarygodnie rzadkie, nie ma nic zaskakującego w tym, że znajdujemy się w takim miejscu, gdyż inaczej po prostu by nas nie było. W końcu nie dziwimy się temu, iż jesteśmy nietypowo usytuowani na powierzchni planety, podczas gdy przeważającą część Wszechświata stanowi praktycznie pusta przestrzeń. Tak więc obserwowany przez nas w kosmosie ład nie musi być wynikiem opatrznościowej preor-dynacji, lecz efektem selekcyjnym związanym z istnieniem nas samych.
Uzasadnienia tego typu mogą być również zastosowane w przypadku niektórych “zbiegów okoliczności” w fizyce cząstek elementarnych. Omawiałem już, w jaki sposób mechanizm Higgsa pozwala na wyjaśnienie, skąd bierze się masa cząstek W i Z. W bardziej zaawansowanych teoriach unifikacji wprowadza się dalsze pola Higgsa, by wygenerować masę wszystkich cząstek, a ponadto ustalić niektóre inne parametry teorii związane z natężeniem oddziaływania. Podobnie jak w przypadku podanej przeze mnie poprzednio analogii z ołówkiem, gdy układ-ołówek przewracając się przybiera jeden z wielu możliwych stanów (może wskazywać na północny wschód, południowy wschód, południowy zachód, itd.), w bardziej zaawansowanych wersjach mechanizmu Higgsa układ cząstek może poprzez złamanie symetrii znaleźć się w wielu różnych stanach. Wybór konkretnego stanu uwarunkowany jest w przypadkowy sposób fluktuacjami kwantowymi, tj. wewnętrzną nieoznaczonością właściwą wszystkim układom kwantowym. Teoria wielości światów wymaga, aby każdej możliwości odpowiadał odrębny zupełny Wszechświat; ewentualnie, aby były one realizowane w odrębnych obszarach przestrzeni. W obu przypadkach mamy do czynienia z mnogością układów kosmologicznych, w których występują różne wartości mas cząstek i odziaływań. Można wtedy utrzymywać, że tylko w układach, w których parametry te są sprzyjające, może pojawić się życie.
Mimo iż teoria wielości światów pozwala na wyjaśnienie tego, co w innym przypadku pozostawałoby zadziwiającymi szczególnymi faktami przyrody, natyka się ona na szereg poważnych trudności. Pierwszą z nich, którą omawiałem już w rozdziale 7, jest, że stanowi ona policzek wymierzony brzytwie Ockhama poprzez wprowadzenie ogromnej (faktycznie nieskończonej) złożoności po to, by uzasadnić prawidłowości tylko jednego Wszechświata. Osobiście uważam, że taka metoda “strzelania z grubej rury” przy wyjaśnianiu szczególnego charakteru naszego Wszechświata jest wątpliwa pod względem naukowym. Pojawia się także problem, że teoria ta jest w stanie wyjaśnić jedynie te aspekty przyrody, które mają jakieś znaczenie dla zaistnienia życia i świadomości; w innych przypadkach nie istnieje żaden mechanizm selekcji. Część z podawanych przeze mnie przykładów planowego charakteru świata, jak wyrafinowanie i jedność fizyki cząstek elementarnych, nie ma żadnych wyraźnych związków z biologią. A należy mieć na uwadze, że nie wystarczy, by dana cecha była z jakichś względów istotna biologicznie; powinna ona odgrywać zasadniczą rolę przy powstawaniu życia w takiej formie, jaka faktycznie istnieje.
Innym momentem, nad którym na ogół przechodzi się do porządku dziennego, jest to. że we wszystkich teoriach wielości światów, które wywodzą się z fizyki (w przeciwieństwie do czystego fantazjowania na temat istnienia innych światów), prawa fizyki są takie same we wszystkich światach. Selekcja dokonuje się wyłącznie wśród światów fizycznie dopuszczalnych, a nie wszystkich, jakie można sobie wyobrazić. Mogą być światy niesprzeczne logicznie, lecz sprzeczne z prawami fizyki. W podanym przykładzie z elektronem, który może mieć spin skierowany w górę lub w dół, w obu światach elektron ma ten sam ładunek elektryczny, podlega tym samym prawom elektromagnetyzmu, itd. Tak więc teorie wielości światów pozwalają na selekcję spośród różnych stanów świata, lecz nie spośród praw. Prawdą jest, że rozróżnienie między cechami przyrody, które zawdzięczają swe istnienie jakiemuś prawu, a tymi, które są tylko wyrazem określonego jej stanu, nie zawsze jest możliwe. Widzieliśmy już, że pewne parametry, jak masy niektórych cząstek, które poprzednio wchodziły do teorii jako część zakładanych praw fizyki, są teraz uważane za stany, których wybór dokonuje się poprzez mechanizm Higgsa. Jednak mechanizm ten działa w ramach teorii, kióra zawiera swoje własne prawa, i je także należałoby jakoś uzasadnić. Ponadto, jakkolwiek wskutek fluktuacji kwantowych mechanizm Higgsa może działać odmiennie w różnych światach, na podstawie dotychczasowych teorii nie wynika wcale, że można w ten sposób uzyskać wszystkie możliwe wartości mas cząstek, natężenia pól, itp. Mechanizm Higgsa i inne podobne mechanizmy tak zwanego łamania symetrii prowadzą na ogół do dyskretnego, i to skończonego, zbioru alternatywnych wartości.
Dlatego nie jest możliwe, jak sugerowali niektórzy fizycy, wyjaśnienie na tej drodze faktu istnienia praw, którym podlega przyroda. Czy nie można by jednak rozszerzyć koncepcji wielości światów tak, by obejmowała także wybór spośród różnych praw? Nie istnieją żadne przeszkody logiczne, by tego dokonać, lecz nie ma jednocześnie po temu żadnych podstaw naukowych. Przypuśćmy wszakże, że dopuszczamy wśród alternatywnych rzeczywistości również ogromną klasę takich, w których nie występuje żaden porządek, prawa czy regularności, tzn. panuje w nich totalny chaos. Światy te zachowywałyby się w sposób całkowicie przypadkowy. I tak jak małpa waląca w klawisze maszyny do pisania może w końcu napisać dzieła Szekspira, wśród tej ogromnej liczby światów znajdą się takie, w których, na zasadzie czystego przypadku, pojawi się jakiś porządek. Argumenty typu antropicznego prowadzą nas wtedy do stwierdzenia, że każdy obserwator będzie z konieczności widział świat uporządkowany, choćby był on nie wiem jak rzadki pośród swych chaotycznych pobratymców. Czy można by to uznać za wyjaśnienie naszego świata?
Moim zdaniem, odpowiedź na to pytanie jest negatywna. Pozwolę sobie przypomnieć, że argumenty natury antropicznej mają sens jedynie w odniesieniu do tych aspektów przyrody, które mają istotne znaczenie dla życia biologicznego. W przypadku wyboru spośród światów nie podlegających w ogólnym przypadku żadnym prawom, przeważająca liczba wybranych przypadkowo zamieszkałych światów będzie uporządkowana tylko pod względami, które odgrywają zasadniczą rolę w powstawaniu i zachowaniu życia. Nie ma na przykład żadnego powodu, dlaczego ładunek elektronu miałby pozostawać absolutnie niezmienny w czasie lub dlaczego wszystkie elektrony mają dokładnie taki sam ładunek. Drobne fluktuacje wartości tego ładunku nie zagrażałyby istnieniu życia. Cóż innego mogłoby powodować, że ładunek ten jest stały, i to stały z tak zdumiewającą dokładnością, jeśli nie prawa fizyki? Można sobie wyobrazić mnogość światów, w której w każdym świecie są inne, choć ustalone, prawa. Być może da się wtedy za pomocą argumentów antropicznych uzasadnić, dlaczego przynajmniej niektóre z praw, jakie obserwujemy, mają daną postać. Niemniej hipoteza ta musi zakładać pojęcie samego prawa, pozostaje więc otwarte pytanie, skąd wzięły się same prawa i w jaki sposób “umocowują” się one w świecie “na zawsze”.
Moją konkluzją jest, że hipoteza wielu światów jest w stanie uzasadnić co najwyżej cześć cech rzeczywistego świata, i to pod warunkiem przyjęcia pewnych metafizycznych założeń, które są równie nieoczywiste jak planowy charakter świata. Ostatecznie brzytwa Ockhama skłania mnie do postawienia na planowość świata, lecz jak zwykle w kwestiach metafizycznych, wybór ten jest bardziej sprawą osobistych preferencji niż osądu naukowego. Warto jednak zauważyć, że uznawanie hipotezy wielu światów w żadnym stopniu nie kłóci się z wiarą w Boga jako autora planu świata. W istocie, jak zaznaczałem, wiarygodne wersje tej hipotezy nadal pozostawiają miejsce dla poszukiwania dalszego uzasadnienia faktów takich, jak uporządkowany charakter światów i skąd w ogóle wzięła się sama mnogość światów. Wspomnę także, że wszelkie dyskusje, w których w oparciu o obserwacje jednego tylko Wszechświata wyciąga się wnioski co do nieprawdopodobności tej czy innej cechy, rodzą poważne kwestie związane z istotą samego prawdopodobieństwa. Sądzę, że zostały one zadowalająco rozpatrzone przez Johna Leslie, niemniej jednak niektórzy autorzy upierają się, że wszelkie argumentowanie wstecz “po fakcie” - w tym przypadku faktem tym jest zaistnienie nas samych -jest niedopuszczalne.
Ostatnio Lee Smolin przedstawił interesującą wersję hipotezy wielu światów, która unika pewnych zarzutów poprzez ukazanie nietrywialnego związku pomiędzy wymogami istnienia istot żywych a wielością różnych światów. W rozdziale 2 ukazywałem, że, jak wynika z badań w dziedzinie kosmologii kwantowej, w wyniku fluktuacji kwantowych mogą powstawać “wszechświaty niemowlęce” i w ten sposób “wszechświat macierzysty” może ulec rozmnożeniu. Te nowe wszechświaty powstają w czarnych dziurach. Zgodnie z klasyczną (niekwantową) teorią grawitacji, czarna dziura zawiera w sobie osobliwość, którą można uważać za coś w rodzaju brzegu czasoprzestrzeni. W wersji kwantowej osobliwość ta ulega pewnemu rozciągnięciu. Nie wiemy dokładnie, jak to się dzieje, w każdym razie wyraźny brzeg czasoprzestrzeni przemienia się w coś w rodzaju tunelu, gardzieli czy też pępowiny, łączącej nasz Wszechświat z nowym, niemowlęcym wszechświatem. Jak podawałem w rozdziale 2, czarna dziura w wyniku efektów kwantowych może ostatecznie “wyparować”, zrywając “pępowinę” i pozostawiając wszechświat niemowlęcy jako niezależnie istniejący.
Smolin rozwinął tę myśl zauważając, że w ekstremalnych warunkach panujących w pobliżu osobliwości może dochodzić do drobnych przypadkowych zmian w prawach fizyki. W szczególności wartości niektórych stałych przyrody, takich jak masy cząstek, ładunki, itp., we wszechświecie pochodnym mogą się nieznacznie różnić od tych, jakie występowały we wszechświecie macierzystym. Ewolucja wszechświata pochodnego będzie zatem przebiegała nieco odmiennie. Przy odpowiednio dużej liczbie “pokoleń” różnice pomiędzy poszczególnymi wszechświatami mogą być już dość znaczne. Prawdopodobnie jednak we wszechświatach, które różnią się znacznie od naszego, nie powstaną gwiazdy (jak pamiętamy, warunki umożliwiające narodziny gwiazd są dość szczególne). Ponieważ czarne dziury powstają przede wszystkim z gwiazd, które zakończyły swoją ewolucję, we wszechświatach takich nie byłoby wiele czarnych dziur i nie mogłyby one rodzić wielu wszechświatów niemowlęcych. Natomiast we wszechświatach, których fizyczne parametry pozwalają na powstawanie dużej liczby gwiazd, tworzyłoby się także wiele czarnych dziur, a tym samym i więcej wszechświatów niemowlęcych posiadających zbliżone wartości tych parametrów. Owo zróżnicowanie kosmicznej “płodności” prowadzi do czegoś w rodzaju darwinowskiego doboru naturalnego. Chociaż wszechświaty nie konkurują bezpośrednio ze sobą o przeżycie, powstaje podział na “skuteczne” i “mniej skuteczne”, i udział “skutecznych” wszechświatów - w tym przypadku takich, w których procesy powstawania gwiazd są najbardziej wydajne - w całej populacji stale się powiększa. Smolin wskazuje następnie, że istnienie gwiazd stanowi także warunek konieczny do powstania życia. Zatem te same warunki, które sprzyjają życiu, sprzyjają także narodzinom innych wszechświatów, w których możliwe jest życie. W koncepcji Smolina życie nie stanowi więc zdarzenia skrajnie rzadkiego, jak w innych teoriach wielu światów, lecz będzie ono występowało w większości wszechświatów.
Mimo jej atrakcyjności, nie jest oczywiste, czy teoria Smolina stanowi istotny krok naprzód w wyjaśnianiu szczególnego charakteru naszego Wszechświata. Ukazanie możliwych powiązań pomiędzy ewolucją biologiczną a kosmologiczną jest niewątpliwie ciekawe, niemniej nadal można zadawać pytanie, dlaczego prawa przyrody są takie, że umożliwiają te powiązania. W końcu fakt, że warunki powstawania życia odpowiadają warunkom narodzin nowych wszechświatów, jest także bardzo szczęśliwym zbiegiem okoliczności Ponadto, by teoria ta miała w ogolę sens, nadal konieczne jest, aby zasadnicza struktura praw we wszystkich wszechświatach była taka sama To, ze ta właśnie wspólna struktura sprzyja powstaniu życia, pozostaje faktem niewyjaśnionym.
Zawsze uważałem za dziwne że mimo iż większość naukowców odżegnuje się od religii to faktycznie zajmuje ona w ich myślach więcej miejsca niż u duchownych.
Fred Hoyle w książce tej postawiłem sobie za cel prześledzenie racjonalnych przesłanek naukowych, na ile się tylko dało, w poszukiwaniu ostatecznych odpowiedzi w kwestiach egzystencjalnych Idea, ze możliwe jest wyjaśnienie wszystkiego do końca - całego świata przyrodzonego i nadprzyrodzonego w ramach jednego spójnego systemu wiedzy -jest niezwykle pociągająca Jednakże jakąż możemy mieć pewność, ze tak określony cel naszych dążeń poznawczych nie jest tylko mrzonką?
Stephen Hawkmg rozpoczyna swą słynną książkę Krótka historia czasu od przytoczenia anegdotki o starszej pani, która wysłuchawszy popularnego odczytu o Wszechświecie wstała i powiedziała, ze ona i tak wie swoje. Świat, jej zdaniem, naprawdę jest płaski i opiera się na grzbiecie ogromnego żółwia. Zapytana przez prelegenta, na czym z kolei opiera się ów żółw, odparła “Żółw stoi na żółwiu, i tak dalej, bez końca”.
Anegdotka ta unaocznia podstawowy problem, jaki staje przed wszystkimi, którzy poszukują ostatecznych odpowiedzi w kwestiach istnienia świata. Staramy się uzasadnić ten świat odwołując się do czegoś bardziej fundamentalnego, jakiegoś zespołu przyczyn, który z kolei uwarunkowany jest jakimiś prawami czy też podstawowymi zasadami, lecz następnie poszukujemy uzasadnienia również dla tego bardziej fundamentalnego poziomu, i tak dalej. Czy ten ciąg rozumowania ma gdzieś swój kres? Trudno pogodzie się z myślą, ze mógłby on iść w nieskończoność “Nie ma piramidy żółwi - utrzymuje John Wheeler - Nie jest tak, ze każda struktura, porządek, teoria, opierają się na strukturach niższego poziomu, te z kolei na następnym, potem jeszcze niższym, i tak ad infinitum, aż w bezdenną otchłań”
Ale jakąż mamy alternatywę? Czy jest jakiś “superzółw”, który nie wymagając podparcia, stanowi podstawę całej piramidy”? A może ten “superzółw” w jakiś sposób “podpiera sam siebie”? Pogląd ten ma długą historię. Widzieliśmy już, iż filozof Spinoza dowodził, ze świat nie mógłby być inny, że Bóg nie miał żadnego wyboru. Superżółwiem w świecie Spinozy jest czysto logiczna konieczność. Nawet ci, którzy uważają, ze świat jest przygodny, odwołują się do tego samego argumentu, twierdząc, ze uzasadnieniem dla świata jest Bóg, który jest bytem logicznie koniecznym. W rozdziale 7 przedstawiłem problemy, jakie pojawiają się, gdy próbujemy wyjaśniać przygodność poprzez konieczność Wcale me mniejsze trudności mają ci, którzy odrzucając Boga poszukują jakiejś Teorii Wszystkiego, która dostarczałaby uzasadnienia Wszechświata i była zarazem wyznaczona jednoznacznie na gruncie logicznej konieczności
Mogłoby się wydawać, ze jedyną alternatywą jest bądź nieskończona piramida żółwi, bądź tez istnienie ostatecznego superzołwia, który stanowi uzasadnienie samego siebie Tymczasem jest jeszcze trzecia możliwość zamknięta pętla W przepięknej książeczce Vicious Circles and Infinity [Błędne koła i nieskończoność] znajduje się ilustracja przedstawiająca pierścień z ludzi (zamiast żółwi), z których każdy siedzi na kolanach poprzedniego, trzymając z kolei sam kogoś na kolanach. Ta zamknięta pętla wzajemnie podtrzymujących się ludzi ma symbolizować koncepcję Wszechświata Johna Wheelera “Fizyka rodzi współuczestniczącego obserwatora, obserwator rodzi informację, informacja rodzi fizykę”. To dość niejasne stwierdzenie bierze swój początek z idei kwantowomechanicznych, gdzie nie ma wyraźnego podziału na obserwatora i obserwowany świat, stąd “współuczestniczący obserwator” Wheeler interpretuje mechanikę kwantową w ten sposób, iż rzeczywisty świat aktualizuje się poprzez akt obserwacji, jednak ten sam fizyczny świat rodzi obserwatora, który powoduje aktualizację jego istnienia. Ponadto aktualizacja ta dotyczy również samych praw fizyki, ponieważ Wheeler odrzuca całkowicie pojęcie praw wiecznych. “Prawa fizyki nie mogą istnieć z wieczności w wieczność. Musiały one również zaistnieć podczas Wielkiego Wybuchu”. Zatem, miast odwoływać się do pozaczasowych, transcendentnych praw powołujących świat do istnienia, Wheeler preferuje wizję “obwodu samowzbudzającego się”, czyli Wszechświata, który powoduje zaistnienie samego siebie, wraz z prawami fizyki i wszystkim innym. Jakkolwiek taki “samosprzężony” układ może wydawać się pociągający, bynajmniej nie jest on w stanie stanowić ostatecznego wyjaśnienia, gdyż zawsze można zapytać “,Skąd się wzięło to sprzężenie?” czy też “Dlaczego w ogóle istnieje jakiekolwiek sprzężenie?” Nawet zamknięta pętla wzajemnie podpierających się żółwi rodzić będzie zawsze pytanie “A dlaczego właśnie żółwie?”
Wszystkie trzy z podanych powyżej schematów oparte są na założeniu, ze człowiek jest istotą racjonalną, ze zasadne jest poszukiwanie “racji” dla wszystkiego i ze naprawdę rozumiemy coś dopiero wtedy, gdy znamy “uzasadnienie” tego Jednakże trzeba przyznać, że pojęcie racjonalnego uzasadniania bierze się prawdopodobnie z naszych obserwacji świata i naszego dziedzictwa ewolucyjnego. Czy możemy być pewni, że prowadzi nas ono we właściwym kierunku, gdy wikłamy się w rozwiązywanie podstawowych kwestii istnienia? Czyż nie może być tak, że racja istnienia świata nie stanowi jego uzasadnienia w normalnym sensie tego słowa? Nie oznaczałoby to, że Wszechświat jest absurdalny lub pozbawiony sensu, lecz jedynie to, iż uzasadnienie jego istnienia i własności wykracza poza zwykłe kategorie racjonalnego myślenia człowieka. Widzieliśmy już, że nawet stosowanie racjonalnego myślenia w jego najbardziej wyrafinowanej i sformalizowanej postaci w matematyce nie jest wolne od paradoksów i niepewności. Twierdzenie Godła stanowi ostrzeżenie, iż aksjomatyczna metoda wyciągania wniosków z danych założeń na drodze dedukcyjnej nie pozwala w ogólnym przypadku na stworzenie systemu, o którym dałoby się dowieść, że jest zupełny i spójny. Zawsze będzie jakaś prawda przekraczająca go, której nie można osiągnąć wychodząc ze skończonego zbioru aksjomatów. Poszukiwania zamkniętej teorii, która dostarczałaby pełnego i spójnego opisu wszystkiego, co istnieje, skazane są na niepowodzenie. Podobnie jak kabalistyczna liczba u Chaitina, taka teoria może istnieć i my możemy o tym wiedzieć, a nawet poznać jej niewielkie fragmenty, lecz nigdy nie będziemy w stanie poznać jej w całości na drodze racjonalnego poznania.
Wydaje mi się, że jak długo utożsamiamy “poznanie” z “racjonalnym uzasadnieniem”, takim, jakie występuje w naukach przyrodniczych, nieuchronnie popadamy w “problem żółwi”: albo niekończący się ciąg, albo tajemniczy superżółw będący swoją własną podstawą, albo niewyjaśniona zamknięta pętla. U podstaw świata zawsze będzie kryć się tajemnica. Być może jednak istnieją jakieś inne formy poznania, które byłyby w stanie zaspokoić poszukujący umysł. Czy możemy poznać sens świata bez wikłania się w “problem żółwi”? Czy jest jakaś metoda osiągania wiedzy - być może nawet “wiedzy ostatecznej” - która wykracza poza normalny tryb racjonalnego poznania naukowego i wnioskowania logicznego? Wielu ludzi uważa, że tak. Nazywa się ona mistycyzmem.
Wiedza mistyczna
Ludzie nauki wykazują na ogół głęboką nieufność wobec mistycyzmu. Nie powinno to nikogo dziwić, jako że myślenie mistyczne jest krańcowym przeciwieństwem myślenia racjonalnego, na którym opiera się metoda naukowa. Ponadto, mistycyzm bywa często mylony z wiedzą tajemną, zjawiskami paranormalnymi i innymi podejrzanymi poglądami z obrzeża nauki. W istocie, wiele z najtęższych umysłów w dziejach nauki, w tym uczeni tacy jak Einstein, Pauli, Schródinger, Heisenberg, Eddington i Jeans, nie stroniło od mistycyzmu. Moim własnym poglądem w tej kwestii jest, że metodą naukową należy się posługiwać, gdzie tylko można. Mistycyzm nie może zastępować badań naukowych i racjonalnego myślenia tam, gdzie mogą być one prawomocnie zastosowane. Dopiero gdy przychodzi do podjęcia fundamentalnych kwestii związanych z istnieniem, nauka i logika zaczynają nas zawodzić. Nie chcę tu powiedzieć, że dają one niewłaściwe odpowiedzi, lecz że nie są w stanie odpowiedzieć na pytania typu “dlaczego” (w przeciwieństwie do “jak”), z którymi wtedy mamy do czynienia.
Terminem “doświadczenie mistyczne” posługują się często ludzie głęboko religijni lub uprawiający praktyki medytacyjne. Doświadczenia tego typu, które są bez wątpienia realne dla ludzi, którzy je przeżywają, są podobno bardzo trudne do oddania słowami. Mistycy mówią często o przemożnym poczuciu bycia jednością ze światem lub z Bogiem, przebłysku holistycznej wizji rzeczywistości czy też bliskości potężnej, miłującej istoty. Najbardziej istotne jest to, że utrzymują oni, że chwytają ostateczną rzeczywistość w ramach pojedynczego przeżycia, w przeciwieństwie do długich i żmudnych rozumowań dedukcyjnych (wikłających się ponadto w “problem żółwi”), nieodłącznie związanych z logiczno-naukową drogą poznania. Niekiedy przeżycia mistyczne sprowadzają do doznania wewnętrznego spokoju “współczujący, radosny spokój, dający wytchnienie od wytężonej pracy umysłu”, jak to opisywał mi kiedyś pewien znajomy fizyk. Einstein mówił o “kosmicznym przeżyciu religijnym” inspirującym go do rozważań nad porządkiem i harmonią przyrody. Niektórzy naukowcy, z których warto wymienić przede wszystkim Briana Josephsona i Davida Bohma, uważają, że regularne przeżycia mistyczne osiągane na drodze cichych praktyk medytacyjnych mogą pomóc w formułowanu teorii naukowych.
W innych przypadkach przeżycia mistyczne zdają się mieć bardziej bezpośredni i objawiający charakter. Russell Stannard pisze o doznanym wrażeniu stanięcia twarzą w twarz z przemożną nieznaną siłą, “która wzbudzała jednocześnie poczucie czci i bojaźni. (...) Było w tym coś niepokojąco naglącego; jak gdyby wzbierający wulkan mający właśnie wybuchnąć”. Autor książek o nauce David Peat opisuje “dziwne intensywne uczucie, które zdaje się zalewać cały otaczający nas świat, nadając mu w jednej chwili sens. (...) Mamy poczucie, iż dotykamy czegoś uniwersalnego, może nawet wiecznego, i że ta właśnie konkretna chwila zyskuje charakter numinotyczny i zdaje się trwać w nieskończoność. Czujemy, że znikają wszelkie granice między nami a światem zewnętrznym, ponieważ to, czego doświadczamy, wymyka się wszystkim kategoriom i wszelkim próbom logicznego pojmowania”.
Język używany do opisu przeżyć tego typu zwykle uwarunkowany jest kręgiem kulturowym, do którego należy dany człowiek. Mistycy Zachodu podkreślają osobowy charakter uobecniania, opisując, że obcują z kimś, zazwyczaj jest to Bóg, kto jest odrębny od nich samych, lecz czują z nim głęboką osobową więź. Tego typu doświadczenia mają długą tradycję w chrześcijaństwie i innych religiach Zachodu. Mistycy Wschodu kładą natomiast nacisk na poczucie bycia jedną całością ze wszystkim, co istnieje, i w większym stopniu utożsamiają się z tym, co uobecnia się w przeżyciu mistycznym. Pisarz Ken Wilber opisuje doświadczenia mistyczne Wschodu posługując się charakterystycznie niejasnym językiem:
Świadomość mistyczna pojmuje Rzeczywistość bezpośrednio i w jednorazowym akcie, to znaczy bez żadnych środków pośredniczących, żadnych symboli, pojęć czy też abstrakcji; podmiot i przedmiot poznania stają się jednym w dokonującym się poza czasem i przestrzenią akcie, który przekracza wszelkie możliwe formy wyrazu. Wszyscy mistycy mówią o dotykaniu rzeczywistości ,jaką ona jest”, w jej samej istocie, bez odwoływania się do słów, symboli, nazw, myśli, obrazów.
Istotą doświadczenia mistycznego jest zatem coś w rodzaju dochodzenia do prawdy na skróty, bezpośredni, jednorazowy kontakt pozwalający ujrzeć ostateczną rzeczywistość. Według Rudiego Ruckera: Podstawową tezą mistycyzmu jest: Rzeczywistość jest Jednością. Praktyka mistycyzmu polega na odnajdywaniu sposobów pozwalających na doświadczanie tej jedności bezpośrednio. Jedność ta bywa rozmaicie nazywana: Dobrem, Bogiem, Kosmosem, Myślą, Nicością, czy też (chyba najbardziej neutralnie) Absolutem. Żadne drzwi w zamku-labiryncie nauki nie otwierają się bezpośrednio na Absolut. Ale jeśli osiągnie się odpowiednio wysoki stopień poznania tego labiryntu, można wydostać się z niego i doświadczyć Absolutu jako takiego. (...) Jednakże, ostatecznie, poznanie mistyczne dokonuje się w jednorazowym akcie lub wcale. Nie ma tu żadnej drogi stopniowego dochodzenia do wiedzy.
W rozdziale 6 wspominałem, że niektórzy naukowcy i matematycy utrzymują, że doznali takich nagłych przebłysków, bardzo przypominających przeżycia mistyczne. Roger Penrose opisuje momenty natchnienia u matematyka jako nagłe “wdzieranie się” w platońską dziedzinę idei. Rucker zauważa, że Kurt Godeł również mówił o “innej relacji do rzeczywistości”, pozwalającej mu postrzegać bezpośrednio obiekty abstrakcyjne, jak nieskończoność. Inni naukowcy doznawali objawień nieoczekiwanie, pośród codziennych zajęć. Fred Hoyle opowiada o przypadku, jaki spotkał go, gdy jechał samochodem na północ Anglii. “Tak jak Paweł doznał objawienia w drodze do Damaszku, moje objawienie nastąpiło, gdy przejeżdżałem przez Bowes Moor”. W drugiej połowie lat sześćdziesiątych Hoyle wraz ze swoim współpracownikiem Jayantem Narlikarem pracował nad kosmologiczną teorią elektromagnetyzmu, która wymagała znacznej dozy trudnej matematyki. Pewnego dnia, zmagając się ze szczególnie skomplikowaną całką, Hoyle postanowił zrobić sobie parę dni odpoczynku i dołączyć do kolegów, którzy właśnie urządzili wędrówkę po górach Szkocji.
Gdy przemierzałem kolejne kilometry, ten kwantowomechaniczny problem (...) plątał mi się gdzieś po głowie w niejasny sposób, jak to bywa, kiedy myślę o matematyce w łóżku przed zaśnięciem. Zwykle muszę zapisywać wszystko na kartce, by potem grzebać się w równaniach i całkach na miarę moich umiejętności. Ale gdzieś koło Bowes Moor rozjaśniło mi się w głowie, nie odrobinę, nie w żaden zwykły sposób, lecz jak gdyby ktoś nagle włączył olbrzymi jaskrawy reflektor, w którego świetle ujrzałem wyraźną ideę. Ile to mogło trwać, zanim się przekonałem, że problem został w pełni rozwiązany? Chyba niecałe pięć sekund. Zanim doznanie to znikło, zdążyłem się jeszcze upewnić, że zapamiętałem wystarczająco dużo kroków rozwiązania, abym mógł je później odtworzyć. O stopniu mojej pewności świadczy fakt, że w ciągu następnych dni nie chciało mi się niczego zapisywać na papierze. Gdy po jakichś dziesięciu dniach wycieczki powróciłem do Cambridge, zapisanie całego toku rozumowania nie sprawiało trudności.
Hoyle wspomina również, jak rozmawiał na temat objawień z Richardem Feynmanem:
Kilka lat temu Dick Feynmann plastycznie opisywał, jak to jest w takim momencie natchnienia i że następuje potem ogromne poczucie euforii, trwające przez jakieś dwa, trzy dni. Gdy spytałem, ile razy mu się to przydarzyło, Feynman odparł: “cztery”; obaj zgodziliśmy się, że dwanaście dni euforii nie jest zbyt dużą zapłatą za życie wypełnione pracą naukową.
Opowiedziałem przeżycia Hoyle'a w tym miejscu, a nie w rozdziale 6, gdyż sam przyznaje, że miały one prawdziwie religijny (w przeciwieństwie do czysto platońskiego) charakter. Hoyle uważa, że za porządek kosmosu odpowiedzialna jest jakaś “superinteligencja”, która rządzi jego ewolucją poprzez procesy kwantowe; o koncepcji tej wspomniałem w rozdziale 7. Ponadto Bóg Hoyle'a jest Bogiem Ideologicznym (co przypomina Arystotelesa lub Teilharda de Chardin), ukierunkowywującym świat ku końcowemu stanowi w nieskończonej przyszłości. Hoyle uważa, że działając na poziomie kwantowym superinteligencja ta jest w stanie zaszczepiać w ludzkim umyśle w gotowej postaci myśli i idee pochodzące z przyszłości. Stąd, jego zdaniem, bierze się natchnienie zarówno w matematyce, jak i w muzyce.
Nieskończoność
W naszym poszukiwaniu odpowiedzi ostatecznych trudno nie natknąć się, w ten czy inny sposób, na nieskończoność. Czy to będzie nieskończona piramida żółwi, nieskończony zbiór twierdzeń matematycznych, czy też nieskończony Stwórca, nie wydaje nam się, aby świat fizyczny mógł wywodzić się z czegoś skończonego. W religiach Zachodu istnieje długa tradycja utożsamiania Nieskończoności z Bogiem, podczas gdy filozofia Wschodu stara się wyeliminować różnicę między Jednością a Wielościa i utożsamić Nicość z Nieskończonościa – zero i nieskonczoność.
Gdy pierwsi myśliciele chrześcijańscy, jak Platon, głosili nieskończoność Boga, chcieli przez to powiedzieć przede wszystkim, że nie podlega On żadnym ograniczeniom. Matematyczne pojęcie nieskończoności w owym czasie było jeszcze bardzo niejasne. Powszechnie uważano, że nieskończoność stanowi granicę, ku której zmierza proces liczenia, lecz której w rzeczywistości nigdy nie da się osiągnąć. Nawet Tomasz z Akwinu, który przyznawał Bogu nieskończoną naturę, nie był gotów uznać, że nieskończoność może być czymś więcej niż bytem potencjalnym, w przeciwieństwie do aktualnego. Wszechmocny Bóg “nie jest w stanie uczynić rzeczy nieograniczonej w sensie absolutnym” - twierdził.
Pogląd, że nieskończoność jest pojęciem paradoksalnym i wewnętrznie sprzecznym, utrzymał się aż do dziewiętnastego wieku. Wtedy to matematykowi Georgowi Cantorowi, przy okazji badania problemów trygonometrycznych, udało się ostatecznie przeprowadzić ścisły pod względem logicznym dowód, że pojęcie nieskończoności aktualnej nie jest wewnętrznie sprzeczne. Cantor miał ciężką przeprawę w środowisku naukowym; niektórzy wybitni matematycy uważali go wręcz za szaleńca. Faktem jest, że później naprawdę zapadł na chorobę umysłową. Niemniej w końcu zasady wolnego od sprzeczności posługiwania się liczbami nieskończonymi, mimo całej swojej niecodzienności i sprzeczności z intuicją, powszechnie się przyjęły. W istocie, znaczna część dwudziestowiecznej matematyki opiera się na pojęciu nieskończoności (bądź też wielkości nieskończenie małych).
Jeżeli nieskończoność daje się ująć i wykorzystać za pomocą racjonalnego rozumowania, czyż nie otwiera to drogi do poznania ostatecznego uzasadnienia wszechrzeczy bez odwoływania się do mistycyzmu? Bynajmniej. Aby przekonać się, dlaczego, musimy bliżej przyjrzeć się samemu pojęciu nieskończoności.
Jednym z zaskakujących wniosków Cantora było, że nie istnieje jedna nieskończoność, lecz cała mnogość nieskończoności. Na przykład, zbiór wszystkich liczb całkowitych i zbiór wszystkich ułamków są zbiorami nieskończonymi. Mogłoby się intuicyjnie wydawać, że ułamków jest więcej niż liczb całkowitych, ale to nieprawda. Z drugiej strony, zbiór wszystkich ułamków dziesiętnych jest większy niż zbiór wszystkich ułamków zwykłych i zbiór liczb całkowitych. Pojawia się zatem pytanie: czy istnieje “największa” nieskończoność? Co będzie, jeśli połączymy wszystkie zbiory nieskończone w jeden superwszechzbiór? Klasa wszystkich możliwych zbiorów faktycznie istnieje i nosi nazwę Absolutu Cantora.
Jest tylko jeden szkopuł. Twór ten nie jest zbiorem, ponieważ gdyby był, to na mocy definicji musiałby również zawierać sam siebie. Ale zbiory zawierające same siebie prowadzą w prostej linii do antynomii Russella.
W ten sposób jeszcze raz natykamy się na gódlowską granicę dla poznania racjonalnego - tajemnicę u podstaw świata. Nie możemy poznać Absolutu Cantora, ani żadnego innego Absolutu, na drodze racjonalnej, jako że każdy Absolut, będąc Jednością, a zatem bytem zupełnym, musi obejmować również siebie. Jak zauważył Rucker w kontekście Krainy Myśli, czyli klasy wszystkich zbiorów idei: “Jeżeli Kraina Myśli jest Jednością, to jest ona elementem samej siebie, a zatem może być poznana jedynie w przebłysku objawienia mistycznego. Żadna idea racjonalna nie obejmuje samej siebie, a zatem nie istnieje racjonalna idea pozwalająca pojąć Krainę Myśli jako Jedno”.
Czuję, że jestem w tym Wszechświecie u siebie.
Freeman Dyson
Czy szczere przyznanie, że nie ma dla nas żadnej nadziei na osiągnięcie poznania ostatecznego, oznacza, że wszelkie rozważania metafizyczne są bezwartościowe? Czy mamy przyjmować praktyczną postawę ateisty, który zadowala się przyjęciem, że Wszechświat jest mu dany jako taki, i zajmuje się katalogowaniem jego własności? Niewątpliwie wielu naukowców gwałtownie sprzeciwia się powoływaniu na argumenty metafizyczne, nie mówiąc już o mistycznych, w jakiejkolwiek postaci. Pogardliwie odnoszą się oni do przekonania, że mógłby istnieć Bóg, czy nawet jakiś nieosobowy czynnik stwórczy, czy też zasada bytu, pozwalająca na jakieś uzasadnienie rzeczywistości, by uczynić jej przygodne aspekty mniej arbitralnymi. Osobiście nie podzielam tej pogardy. Chociaż wiele metafizycznych i teistycznych teorii może się wydawać wydumanymi lub dziecinnymi, nie są one absurdalne bardziej niż przekonanie, że świat istnieje, i to istnieje właśnie w takiej postaci, bez żadnej racji. Wydaje się, że co najmniej warto spróbować zbudowania teorii metafizycznej, która w jakimś stopniu zmniejszałaby arbitralny charakter świata. Niemniej ostateczne racjonalne uzasadnienie świata w sensie stworzenia zupełnego zamkniętego systemu prawd logicznych jest prawie na pewno niemożliwe. Dostępu do wiedzy ostatecznej, do poznania ostatecznego uzasadnienia bronią nam te same reguły rozumowania, które wpierw skłaniają nas do poszukiwania takiego uzasadnienia. Jeżeli chcemy wyjść poza nie, musimy przyjąć inną koncepcję “poznania” niż poszukiwanie uzasadnienia na drodze racjonalnej. Możliwe, że poznanie takie da się osiągnąć poprzez mistykę. Sam nigdy nie miałem żadnych doświadczeń mistycznych, niemniej nie wzbraniam się przed uznaniem takich doświadczeń za wartościowe. Być może stanowią one jedyny sposób, by wykroczyć poza granice, do których doprowadza nas filozofia i nauki przyrodnicze, i jest to jedyna droga do Absolutu.
Zasadniczym wątkiem, którym zajmowałem się w tej książce, było to, że poprzez naukę my, ludzie, jesteśmy w stanie poznać przynajmniej niektóre sekrety przyrody. Udało nam się częściowo złamać kosmiczny szyfr. Dlaczego jest tak, że to właśnie Homo sapiens przypadła w udziale iskierka racjonalności, dająca klucz do świata, pozostaje niezgłębioną zagadką. My, którzy wyrośliśmy z tego Wszechświata jako ożywiony gwiezdny pył, jesteśmy pomimo to zdolni do refleksji nad jego naturą, aż po przebłyski poznania zasad, które nim rządzą. W jaki sposób zostaliśmy włączeni w ten kosmiczny wymiar, pozostaje tajemnicą. Jednak to, że tak się stało, jest faktem niezaprzeczalnym.
Co to oznacza? Kim jest Człowiek, skoro doznał takiego zaszczytu? Nie mogę uwierzyć, że nasze istnienie w tym Wszechświecie miałoby być jedynie kaprysem losu, przypadkiem w dziejach Wszechświata, malutkim omsknięciem w wielkim kosmicznym dramacie. W zbyt wielkim stopniu jesteśmy weń zaangażowani. Gatunek Homo sapiens jako taki może wiele nie znaczyć; jednak to, że na jakiejś planecie istnieją organizmy żywe wyposażone w umysł, jest bez wątpienia faktem o podstawowym znaczeniu. Oto, poprzez istoty świadome, Wszechświat wytworzył świadomość samego siebie. Świadomość ta nie może być nieistotnym szczegółem, bezwartościowym produktem ubocznym ślepych, bezmyślnych sił.
Naprawdę jesteśmy tu nieprzypadkowo.