Taylor G John Kiedy zaczął się czas

JOHN G. TAYLOR




Kiedy zaczął się czas


(When the Clock Struck Zero)


Przekład Marek Przygocki


Od Autora


Całe życie pracowałem jako naukowiec. Będąc chłopcem mieszkałem w domu, w którym nauka była uważana za podstawowe narzędzie poznawania świata. W miarę jak dorastałem, coraz bardziej zdawałem sobie sprawę, że nauka stanowi jedyny dostępny sposób badania tajemnicy wszech­świata i tylko ona może dostarczyć odpowiedzi na pytania o naturę istnienia. Aby samemu uczestniczyć w procesach prowadzących do poznania, usiłowałem zrozumieć i działać w wielu gałęziach nauki, takich jak: fizyka cząstek, kosmologia (szczególnie interesowały mnie zagadnienia związane z czarnymi dziu­rami), fizyka jądrowa, nieliniowa dynamika układów złożonych, w opracowy­waniu modeli neuronów i mózgu oraz sztucznych sieci neuronowych.

Dopiero niedawno narodziło się we mnie pragnienie zebrania wszystkich pew­ników, którymi rozporządza nauka w tym niepewnym świecie. W czym tkwi sedno istnienia i czy możemy oczekiwać, że podejście naukowe udzieli na to pytanie odpowiedzi? Aby się o tym przekonać, przed około dwu laty udałem się w po­dróż, podczas której przeprowadziłem wiele dyskusji z wybitnymi kolegami na­ukowcami o tym, gdzie owego sedna szukać. W wyniku tego wyostrzeniu uległy moje poglądy oraz pogłębiło się zrozumienie, co doprowadziło do powstania książ­ki będącej kulminacją moich blisko czterdziestu lat pracy naukowej.

Uściśliłem swoje poszukiwania i skoncentrowałem się na czterech podsta­wowych pytaniach: Jak zaczął się wszechświat? Dlaczego istnieje coś zamiast niczego? Dlaczego jakaś konkretna teoria wszystkiego? Co wiemy o naturze świadomości? Niektórzy uważają, że na tak sformułowane pytania nie można w ogóle udzielić odpowiedzi. A jednak, jeżeli chcemy przydać życiu sensu, wykorzystując w tym celu możliwie jak najwięcej z osiągnięć nauki, to musimy przekonać się, jak daleko potrafimy dotrzeć, mierząc się z tego typu kwestiami. Celem tej książki jest zatem próba odpowiedzi na te pytania zgodnie z duchem nauki. Chociaż niektórzy naukowcy utrzymują, że teoria wszystkiego znajduje się w zasięgu ręki, zagadnienia powyższe prowadzą do przekonania, że w rze­czywistości musiałaby podlegać pewnym ograniczeniom. Można by ją stoso­wać jedynie w pewnej klasie problemów. Nie wydaje się, by mogła nam pomóc pojąć wszechświat w tym sensie, w jakim rozumiemy nasze w nim miejsce oraz cały porządek istnienia. Musimy więc spróbować odpowiedzieć na pytania, które jak sądzimy nie mają odpowiedzi i które leżą poza obrębem rzeczywistości ob­jętej standardową teorią wszystkiego. Wskazuje na to tytuł tej książki. Czy ze­gar może wybijać godzinę zero? Zegary wybijają pierwszą lub dwunastą albo nawet, wyjątkowo, trzynastą. Któż słyszał o zegarze obwieszczającym zero? Któż byłby na tyle zmyślny, by budować podobne cudo? A czy w godzinie zero czas w ogóle istniał?

Przedmiotem tej książki jest próba analizy, czy nauka jest w stanie zajmo­wać się zagadnieniami tego typu, a jeśli nie, to jakiego rodzaju ograniczenia to uniemożliwiają. Stopniowo dojdziemy do przekonania, że fanatycy teorii wszyst­kiego, w rodzaju Stephena Hawkinga, prawdopodobnie mylą się (i to kolejny raz - Hawking w l979 roku prorokował, że jedna z teorii taką się stanie, lecz po trzech latach okazało się, że jest ona błędna). Przekonamy się również, że przy­puszczalny umysł Boga, który już dostrzegano w pewnych niedawnych osią­gnięciach naukowych, jest iluzją. Pomimo wszystko umysł nie może być tak tajemniczym fenomenem. Nauka jak sądzę będzie zdolna dostarczyć wyjaśnie­nia świata duchowego i będzie prawdopodobnie przebiegać wzdłuż dróg suge­rowanych w tej książce, związanych z relacyjną teorią umysłu. Co więcej, z punk­tu widzenia nauki może okazać się, że nie istnieje w ogóle żadna teoria wszyst­kiego i być może nie było żadnego początku wszechświata. Na kartach tej książki spróbuję wyjaśnić ograniczenia, z którymi nauka się styka, z czego będzie wy­nikać wniosek, że nigdy nie będzie zdolna przydać naszemu życiu sensu i zna­czenia. Poznamy następstwa tego dla nas samych, w szczególności wyzwanie, jakie to nam stawia odnośnie do poszukiwania sensu życia.

Muszę podkreślić, że ponoszę całkowitą odpowiedzialność za przedstawiane tu tezy oraz za rozumowanie, w wyniku którego powstały. Wszystkie ewentualne błędy są moimi błędami. Muszę jednakże wyrazić wdzięczność wszystkim moim wybitnym kolegom, którzy wykazali tak wiele cierpliwości i wyrozumiałości dla moich, często nieudolnych, prób zrozumienia wszechświata w całym jego boga­tym rynsztunku. Chciałbym również podziękować mojej żonie Pam oraz mojej córce Elizabeth za ich celne i wnikliwe uwagi dotyczące pierwszych wersji książ­ki. Chociaż nie zgodziły się z moimi głównymi tezami, to jednak bez ich pomocy wiele z moich myśli pozostałoby wyrażonych w sposób niezbyt jasny. Muszę rów­nież podziękować żonie za jej wspaniałą pracę przy przepisywaniu książki.










CZĘŚĆ PIERWSZA


WPROWADZENIE


1. Jak to wszystko zrozumieć?


Wszechświat mnie przeraża - jest o tyle większy ode mnie


Od czasu do czasu każdego z nas nachodzi usilne pragnienie zrozumie­nia wszechświata i naszego w nim miejsca. Kiedy dociera do nas informacja o śmierci kogoś bliskiego z rodziny lub jednego z przyja­ciół, nieuchronnie zaczynają nurtować nas pytania w rodzaju: Kim jestem w istocie? Czy faktycznie istnieje życie po śmierci? Jak to wszystko zrozu­mieć? i tym podobne. Innym razem możemy znaleźć się w środku gwałtow­nej, przerażającej burzy i poczuć się zupełnie bezradni wobec gry żywio­łów, gdy gwiżdżący wokół wiatr usiłuje zetrzeć nas z powierzchni ziemi. Możemy poczuć się podobnie spoglądając w usłane migającymi gwiazda­mi tajemnicze niebo. Wtedy dogłębnie czujemy ogrom przestrzeni, potęgę żywiołów oraz kruchość i wątłość naszego świata. Z drugiej strony każdy z nas posiada własne myśli oraz doznaje pewnych osobistych wrażeń. W na­szym wewnętrznym świecie wydajemy się całkowicie wolni i sądzimy, że ludzie obok nas doświadczają czegoś podobnego. Nasze umysły wydają się egzystować jak gdyby niezależnie od naszych ciał; możemy nawet pasjono­wać się szalejącą wokół burzą, choć ta zwala nas z nóg.

Niezwykły zakres dotychczasowych ludzkich doświadczeń doprowadził do wielu możliwych odpowiedzi na pytanie, jak możemy poradzić sobie z tajemnicą wszechświata. Wielu twierdzi, że istnienie naszego świata wewnętrz­nego oraz konieczność występowania jakiegoś stwórcy czy kreatora wszech-rzeczy świadczy ewidentnie o istnieniu kosmicznej inteligencji Boga. Za po­średnictwem naszej jaźni możemy, modląc się, kontaktować się osobiście z Bo­giem. Taka bezpośrednia zależność od boskiej wszechmocy może być wielką pomocą dla wierzących w chwilach boleści i cierpienia. Okręt społeczeństwa może dzięki wierze powrócić na właściwy kurs, a reszty dokonuje odpowiednie wychowanie. W rezultacie systemy wierzeń bywają niesłychanie pomoc­ne. Fundamentalizm islamski daje, na przykład, swoim wyznawcom pew­ność, że tylko ich sposób życia jest właściwy i jedyny, natomiast niewierzący są skazani na wieczne wątpliwości.

Istnieją również tacy, którzy próbują wieść życie bez tej odskoczni, jaką jest wiara. Ich stanowisko różni się jednakże od agnostyków próbujących jedynie rozumem ogarnąć naturę życia i wszechświata, lecz którzy pozostają otwarci na istnienie takiego czy innego Boga, jak również od ateistów negu­jących w ogóle istnienie Boga w jakiejkolwiek postaci. Dobrym przykładem rozumowania tych ostatnich jest biolog Medawar, który napisał kiedyś: Cena krwi i łez, które ludzkość musiała przez wieki przelać za komfort duchowy i spokój, jest zbyt wielka, by mogła usprawiedliwić nasz ufny duchowy ra­chunek, jaki należy zapłacić wierzeniom religijnym.

Podobny komentarz, lecz o nieco bardziej kosmicznym charakterze, był dziełem kosmologa Stephena Hawkinga: Jesteśmy nic nie znaczącymi istotami na pomniejszej planecie zupełnie przeciętnego słońca na obrzeżach jednej z se­tek miliardów galaktyk. Trudno jest więc uwierzyć w Boga, którego miałaby obchodzić nasza egzystencja lub który choćby miał zauważyć nasze istnienie. Gdy później często zdarzało się Hawkingowi używać sformułowania zamie­rzenie czy wola Boga, trudno jest uwierzyć, że istotnie powrócił do wiary.

Wszystkie tego typu próby można traktować jako racjonalne tak długo, dopóki stanowią próbę zrozumienia nas samych oraz wszechświata jedynie za pomocą rozumu, a nie poprzez akt wiary.

Istnieją również ludzie, którzy ciągle szukają jakiegokolwiek sensu ży­cia, lecz mimo to go nie znajdują. Albo mogą po prostu dryfować przez życie siłą przyzwyczajenia, akceptując zwyczaje swoich przodków, nie poświęca­jąc uwagi zarówno samym myślom, jak i działaniu. Są z gatunku tych, co to jeszcze nie wiedzą, zarówno w odniesieniu do religii, jak i rozumu.

Zarówno racjonaliści, jak i ludzie wciąż niezdecydowani nie są mądrzej­si w żadnej istotnej kwestii. Niektórzy, jak cytowany Medawar, mogą nawet utrzymywać, że nie ma naukowego sposobu rozstrzygnięcia tych istotnych kwestii, i mówią: „jest całkowicie logiczne, że kompetencją nauki nie są tego typu rozstrzygnięcia".

Trudno jednakże żyć z takim podejściem. W wielu istotach ludzkich nie­ustannie istnieje czeluść, która wynika z braku zrozumienia. Psychoanalityk Carl Jung napisał: „spośród wszystkich moich pacjentów, znajdujących się w drugiej połowie życia (po trzydziestce piątce), nie było żadnego, dla które­go brak przekonywających poglądów religijnych stanowiłby błahy problem". Patrząc z wyżyn kosmosu, nasze życie na ziemi może wydawać się faktycznie równie nikłe, co nic nie znaczące. Lecz nie jesteśmy z pewnością tacy nic nieważni, gdy obserwuje się nas z naszego własnego poziomu. Dla każdego my sami stanowimy cały świat. W jaki sposób moglibyśmy pogodzić te wy­raźnie sprzeczne egzystencje: ciepło wewnętrzne, które nas wypełnia i towa­rzyszy naszym potrzebom, emocjom i pragnieniom, w przeciwieństwie do obcego, materialistycznego świata zewnętrznego. Domagamy się wskazówek i przewodnictwa! Niezdolność nauki do udzielenia jakiejkolwiek odpowie­dzi na pytanie o sens życia doprowadziła ostatnimi czasy do frontalnych ata­ków na samą naukę. Jak niedawno stwierdził dziennikarz, syn fizyka Bryan Appleyard: nauka to nie neutralny i niewinny artykuł pierwszej potrzeby, który przez ludzi pragnących uczestniczyć w dobrobycie materialnym Zachodu może być wykorzystywany jedynie dla wygody... Jest ona niszcząca duchowo, wypalając do cna pradawne autorytety i tradycje. Nie jest w stanie współist­nieć doprawdy z niczym... Niszczy ona wszelkie konkurencyjne myśli, rodzi się pytanie: jaki sposób na życie oferuje ludziom w zamian? Co mówi o nas samych i o życiu, jakie powinniśmy prowadzić?

Nie wydaje się, aby można było oczekiwać odpowiedzi na tak postawio­ne pytania. Stajemy w ekstremalnej sytuacji: albo akceptujemy naukę, lecz wtedy musimy pogodzić się z jej ograniczeniami i z tym, że nigdy nie udzieli nam ostatecznej odpowiedzi, która pomogłaby pojąć, dlaczego taki wszech­świat i dlaczego takie nasze w nim miejsce, albo też możemy przystać na propozycję oferowaną nam przez jedną z wielu religii świata. W pierwszym przypadku żąda się od nas, abyśmy nauczyli się żyć w czymś, co jest w zasadzie światem mechanicznym. Nasz przytulny świat wewnętrzny jest po pro­stu zjawiskiem wtórnym, jako następstwo powstałe w wyniku złożoności na­szych mózgów. Żaden kaganek wiedzy nie oświetla zagadnień związanych z emocjami - miłością, nienawiścią, strachem czy gniewem. Świat staje się zimnym, nieludzkim miejscem. Ponadto nauka nigdy nie jest w stanie odpo­wiedzieć na pytania typu dlaczego, a jedynie na pytanie jak. Nigdy nie odkry­je powodu i przyczyny, dla których istniejemy; zawsze będziemy skazani na lepsze czy gorsze domysły. W drugim przypadku, ścieżki wiary odkrywają natychmiast wszystko, chociaż jeżeli zagłębimy się silniej w pytania jak, za­pewne również nie doczekamy się odpowiedzi. Jeżeli wymaga się zbyt wiele jasności, tworzy się jakby zasłona zarzucana na ołtarz zrozumienia obiecy­wanego przez każdą religię.

Każda próba posunięcia się choćby o krok do przodu ma swoje wady. Obydwie wydają się prowadzić do uszczuplenia informacji. Sądzę, że wszy­scy musimy pogodzić się z prawdą, iż religia zarzuca najgrubszą zasłonę na najgłębsze i najbardziej zasadnicze zrozumienie życia. Nauka jednak ma również swoje ograniczenia. Poza dostarczaniem coraz bardziej komfortowych warunków życia, co udowadnia na co dzień, wydaje się, że nie jest zdolna do udzielenia żadnych rozsądnych odpowiedzi w takich choćby dziedzinach, jak moralność czy estetyka. Na pytania o wszechświat nie odpowiedzą ani po­szturchiwanie Appleyarda, ani wcześniej cytowane opinie Medawara. Widać stąd, że musimy powstrzymać się całkowicie od zaciągania z powrotem ja­kichkolwiek zasłon na ołtarz zrozumienia. W jaki sposób możemy dokonać postępu stojąc przed tak deprymującymi wnioskami? Ostatnie radykalne osią­gnięcia wydają się wskazywać, że sytuacja nie musi być tak tragiczna, jak ją przed chwilą opisałem.


Teorie wszystkiego


Niedawno pojawiły się twierdzenia głoszone przez niektórych naukow­ców, że nauki podstawowe wydają się zmierzać do nieubłaganego koń­ca i że teoria wszystkiego, lub inaczej TW, znajduje się w zasięgu ręki. Na przykład Stephen Hawking na publicznym odczycie wygłoszonym w 1988 roku w Jerozolimie, stwierdził: Wygląda na to, że istnieją rozsądne nadzieje na po­wstanie jeszcze przed końcem tego stulecia kompletnej teorii opisującej wszech­świat. Inni naukowcy składali podobne deklaracje, twierdząc, że taką teorię można już obecnie naszkicować. Niezwykłe postępy osiągnięte w ostatnich latach przy próbach zunifikowania (połączenia i uproszczenia) większości sił występujących w naturze (obejmujące elektromagnetyzm, radioaktywność, gra­witację i silne oddziaływania jądrowe odpowiedzialne za utrzymanie neutro­nów i protonów wewnątrz jądra atomu) dają pewne podstawy do tak daleko posuniętego optymizmu. Świętym Graalem wielkiej teorii unifikacji wszyst­kich sił natury powinna być, zgodnie ze zdaniem jej zwolenników, teoria osta­teczna. Nic miałaby się już narodzić żadna lepsza teoria pod względem finezji, precyzji, wielkości i piękna.

Teoria wszystkiego miałaby, zgodnie z głoszonymi opiniami, zawierać w sobie odpowiedzi na wszystkie możliwe pytania, jakie ktokolwiek mógłby zadać na temat wszechświata. Miałaby nawet odpowiadać na wszystkie nie­prawdopodobne pytania, których nikt jeszcze nie zadał. Tak zasadnicze i pod­stawowe kwestie: w jaki sposób zaczął się wszechświat, czym się zakończy, jaka jest jego natura, istota rozumu i tym podobne mają znaleźć swoje odpo­wiedzi w teorii kończącej (lub lepiej wieńczącej) wszystkie teorie. Stwierdzo­no nawet, że po jej odkryciu sama idea Boga będzie już bezużyteczna. Chociaż szczegółowe odpowiedzi na wszystkie tego rodzaju pytania mają być dostępne nie od razu, ich podstawowe zarysy (takie jak natura zunifikowanych oddziały­wań i prawdziwie elementarne cząstki) mają być uzyskane prawie automatycz­nie. Wtedy nauka zdobędzie upragniony przez wieki klucz; według optymi­stów, nasze wcześniejsze zastrzeżenia o jej ograniczoności staną się iluzją. Praw­dziwy powód egzystencji człowieka stanie się oczywisty. Wszyscy staniemy się ateistami i wszelkie religie zanikną. Klasztory i kościoły same się rozwiążą. Jedynym fundamentalizmem pozostanie w końcu nauka. Nowy wspaniały świat - wizja Aldousa Huxleya przybliży się o parę kroków. Zniknie przeważająca obecnie opinia o wolnej woli. Wszystkie przestępstwa będą traktowane jako zaburzenie funkcjonowania mózgu, a więc przestępcy nie będą dłużej zamyka­ni w odosobnieniu (po to zresztą tylko, by po uwolnieniu kontynuować gwałty, grabieże i morderstwa), lecz hospitalizowani i leczeni. Terapia zachowawcza oraz chirurgia mózgu zastąpią więzienia. Rozkwitną doktryny hedonizmu. Twierdzi się poza tym, że w wyniku takiego wzrostu wiedzy naukowej nastąpi wiele, wiele innych znaczących zmian w całych społeczeństwach.

No właśnie, czyżby wszechświat miał być tak prosty? Racjonaliści chcie­liby, żeby tak było, a już szczególnie naukowcy formułujący nową falę na­ukowego fundamentalizmu. Pragną, by wszechświat dał się zredukować do pojedynczej wszechogarniającej teorii. Chcieliby gapić się z zachwytem w równanie, które udoskonaliłoby równanie Einsteina E = mc2 do postaci TW = ... (przy czym „coś" tu ma być wstawione). Rozwikłanie wszystkich następstw wynikających z równania TW może zająć stulecia, tak jak to już jest widoczne w przypadku ostatniego kandydata na TW, jakim jest teoria superstrun, których konsekwencji fizycznych nawet nie potrafimy jeszcze przewidzieć. Poza tym TW dostarczy tak zupełnej pewności i takiej prawdy absolutnej, że nie pozostanie już miejsca dla tych nie przygotowanych, któ­rzy zechcą ją kwestionować poprzez odwołanie do jakiejś konkretnej religii. Amerykański komik Milton Beurle powiedział: Wszechświat mnie przeraża jest o tyle większy ode mnie. Czy czasem twierdzenia o wyjątkowości TW nie przekroczyły granic rozsądku?

Być może optymizm naukowców oparty na nadziejach wynikających z TW nie jest nieuzasadniony. Pomijając już kategoryczność niektórych stwier­dzeń w odniesieniu do TW, to faktycznie - być może, że zaledwie po czte­rech stuleciach droga, po której podążała nauka, dobiega kresu. I to z uwzględnieniem faktu, że życie na Ziemi trwa już głupie trzy miliardy lat i nic nie wskazuje (pomijając nieprzewidywalne katastrofy), aby miało ulec zagła­dzie przed upływem równie długiego czasu. Jaką nową filozofię życia musiałaby wymyślić ludzkość, po rozwiązaniu wszelkich tajemnic egzystencji, mając przed sobą tak długą perspektywę? Czy zaniknie podstawowa wiedza, tak jak zwyczaj nauczania łaciny w szkołach, jako że wykształcenie stanie się kom­pletnie bezużyteczne?

Ostatnie jednakże uwagi, czynione zarówno przez samych naukowców, jak i dziennikarzy zajmujących się nauką, wydają się wskazywać, że straci­li oni częściowo swój pierwotny entuzjazm w odniesieniu do TW. Argu­mentują, że elegancka matematyczna postać niewyraźnie rysującej się jesz­cze TW jest na razie jedynie dowodem inteligencji badaczy. Mówi się o TW jako o części Woli Boga. Wygląda na to, że grupa ta pomimo wszystko poszukuje Boga i choć różni się w ocenie Jego doniosłej roli oraz stopniem chęci ucieczki w sferę wiary, jednak czyni to - wydaje się - nie zdając sobie z tego w pełni sprawy. Jeżeli takie wahania występują w tych dwóch ekstremalnych podejściach, naukowym i religijnym, to cóż dopiero ma po­cząć zwykły śmiertelnik, nie będący ekspertem w żadnej z tych dziedzin? Spektrum stanowisk obejmuje również takich, którzy akceptują TW i kry­jącego się poza nią Boga, co jest zrozumiałe uwzględniając fakt, że obecnie wielu ludzi jest wierzących.

Poruszane tu kwestie były roztrząsane przez ponad dwa tysiąclecia w tysią­cach książek, roszczących pretensje do jedynie prawdziwych opowieści. Już po­nad dwa i pół tysiąca lat temu greccy filozofowie twierdzili z całą pewnością, że stworzyli teorię wszystkiego. Na przykład, Tales głosił, że wszystko jest zbudo­wane z wody. Wynika stąd, że na wszystkich koszulkach zamiast przeróżnych sloganów winien być wydrukowany wzór H2O.

Przełomowym faktem, który zmienił całą sytuację, stał się zdumiewający postęp w nauce w ciągu ostatniego stulecia. Nasze społeczeństwo w pełni wykorzystuje zdobycze nowoczesnej nauki, poczynając nawet od zapisania każdego słowa w mojej książce za pomocą edytora tekstów i składu kompu­terowego. Osiągnięcia te są jeszcze spotęgowane fantastycznym postępem w odkrywaniu tajemnic natury. Dostrzeżono piękną symetrię w większości czą­stek elementarnych, a potężne i eleganckie narzędzia matematyczne powią­zały i rozwinęły te osiągnięcia.

W tej chwili świat fizyczny wydaje się zbudowany prawie wyłącznie według potężnych reguł matematyki. Co więcej, struktura matematyczna ja­kiejś zasadniczej teorii staje się w coraz większym stopniu świadectwem jej spójności i siły.

Postęp taki był możliwy jedynie w wyniku ścisłego przestrzegania meto­dyki naukowej. Nauka stykając się z faktami przyjmuje o nich pewne założe­nia, przypuszczenia i teorie, z których dedukuje przyszłe zjawiska oraz, co może najważniejsze, dokładnie je sprawdza i testuje, aż do momentu, w którym teoria wydaje się dobrze potwierdzona, albo dochodzi do przekonania, ze należy ją odrzucić. W tym ostatnim przypadku należy zacząć od punktu wyjścia i próbować zbudować nową teorię wstępną w nadziei, że okaże się lepsza. Procedura testowania teorii zmierzająca do jej odrzucenia (uznania jej za fałszywą) jest przedmiotem dyskusji pomiędzy naukowcami. Prowadzi to do zobiektywizowanej weryfikacji teorii potwierdzającej jej powszechną praw­dziwość, przy uwzględnieniu zjawisk jeszcze nie odkrytych, w czym uczest­niczy całe środowisko naukowców.

Czasem słyszy się opinię, że zbiór idei naukowych różni się w sposób zasadniczy od wszystkich idei, jakie ludzkość stworzyła dotąd w celu opisa­nia rzeczywistości. Na przykład, wzmiankowana wcześniej teoria Talesa, że wszystko jest zbudowane z wody, była w jego czasach przedmiotem dyskusji i sporów. To samo spotykało inne propozycje, by wspomnieć choćby o zie­mi, powietrzu, ogniu i wodzie. Rzeczywistość według jednych filozofów mia­łaby mieć w zasadzie naturę psychiczną (spirytualną), według innych całko­wicie fizyczną (materialną), a mieszaną według jeszcze innych. Obiektywny postęp nauki, konfrontowany nieustannie z rzeczywistością, którą nauka sta­ra się opisać i wyjaśnić, doprowadził w ciągu kilku ostatnich stuleci do obra­zu świata fizycznego, rządzonego kilkoma podstawowymi równaniami mate­matycznymi, opisującymi teorię wszystkiego i wyróżniającymi się pięknem i elegancją. Wydaje się, że właśnie teraz ma miejsce rzeczywisty postęp; twier­dzi się, że obecnie otrzymuje się wyjątkowej wagi odpowiedzi na pytania stawiane od stuleci. Słychać argumenty, że w końcu, po całkowitym rozwi­kłaniu TW i następstw z niej wynikających, ciekawość ludzkości zostanie za­spokojona. Okaże się wtedy, że nasz wcześniejszy sceptycyzm w odniesieniu do TW był całkowicie nieuzasadniony.


Pytania bez odpowiedzi?


Czy wobec nowej fali naukowego optymizmu nie znajdujemy się w nie­bezpieczeństwie wyprowadzenia na manowce? Istnieją przecież następ­ne, jeszcze bardziej głębokie pytania, na które musielibyśmy uzyskać wyczer­pujące odpowiedzi, zanim zostalibyśmy w pełni usatysfakcjonowani. Wszyst­ko to bardzo rozległe pojęcie. Czy teoria wszystkiego nie musiałaby precyzyj­nie określać położenia dowolnego obiektu w każdej możliwej chwili? I dlaczego ta właśnie teoria, a nie jakaś zupełnie inna? Czy nie musiałaby również od­powiedzieć, w jaki sposób wszechświat w ogóle może być właśnie tutaj? Inny­mi słowy, dlaczego w ogóle coś jest, a nie ma po prostu niczego? Istnieje także ta część rzeczywistości, która łączy się bezpośrednio ze światem psychicznym każdego z nas, to znaczy z doświadczeniem, doznaniami czy czystymi uczu­ciami. W jaki sposób one powstają? Albo czy świadomość ma być uważana za pojęcie pierwotne, za coś, co nie daje się już dalej badać, jak twierdzą niektórzy filozofowie? Każda teoria wszystkiego, która tę część rzeczywistości związaną z doświadczeniem pozostawi bez wyjaśnienia, nie będzie godna swojej nazwy. Jak dotąd entuzjaści TW nie poświęcają wielkiej uwagi rozumowi.

Podsumowując zatem, musimy przekonać się, jak dalece nauka potrafi zgłębić zagadnienia wyrażające się, wśród wielu innych, następującymi pyta­niami:


Jaki był początek wszechświata?

Dlaczego istnieje coś zamiast nic?

W jaki sposób można by wyjaśnić całą złożoność otaczającego nas świata?

Dlaczego właśnie ta konkretna teoria wszystkiego?

W jaki sposób daje się wyjaśnić fenomen świadomości?

2. Pytania nauki


Nigdy nie mów: niemożliwe


Być może w okresie dorastania wielu marzy o możliwościach supermana, stąd zapewne narodziła się wiara w supermana. Magia i czary wydają się drogą do osiągnięcia władzy nad naturą i innymi ludźmi. Sądzi się, że istnieją jakieś nadnaturalne siły, które można by wykorzystywać za pomocą specjalnych technik lub przez wyjątkowo poruszonych czymś lu­dzi, choćby przez duchy.

Jako że twierdzenia takie nie poddają się próbom szczegółowych badań naukowych, niektórzy ludzie mają ciągle nadzieję, że są one prawdziwe. Prze­konania o istnieniu magii, czarów, astrologii i innych nadnaturalnych zjawisk demonologicznych spotyka się we wszystkich warstwach społecznych. Wia­domo na przykład, że bardzo wielu ludzi rozpoczyna czytanie prasy codziennej od strony poświęconej astrologii. Widać na co dzień, jak powszechni są różne­go rodzaju uzdrawiacze i wróżbici. Brak jakiejkolwiek wiarygodności zjawisk nadnaturalnych nie ma żadnego związku z wiarą w zjawiska nadprzyrodzone bardziej ogólnej natury, tj. z wiarą w istnienie Boga.

Wiara w istnienie jakiegoś bóstwa (lub bóstw), które miałoby spełniać wielorakie funkcje jednocześnie wszechmocnego, wszechobecnego kreatora ziemi i nieba odpowiedzialnego za losy wszechświata, jest powszechna pra­wie we wszystkich cywilizacjach i kulturach. Bóg może być postrzegany jako Personifikacja tych wszystkich mocy, które sami chcielibyśmy posiadać. Modlimy się do Niego, aby wykorzystać Jego moc dla naszego dobra, lub aby oddalić od nas nieszczęścia. Chleba naszego powszedniego daj nam dzisiaj... ale nas zbaw ode złego to przecież powszechnie wymawiane słowa przez wielu ludzi na całym świecie. Jihad, czyli święta wojna w islamie, to także współczesna próba przeciągnięcia Boga na swoją stronę.

Wiara w Boga wydaje się również wymagać od wierzącego respektowania czegoś, czego moja matka wymagała ode mnie w młodości Nigdy nie mów: niemożliwe. W ten sposób chciała dodać mi odwagi, kiedy stawałem przed za­daniami wyraźnie przekraczającymi moje możliwości. Dla niej nie było rzeczy niemożliwych. Wydaje się, że to samo dotyczy wierzących, bo jakże inaczej mogliby pogodzić ze sobą sprzeczności przypisywane Bogu? Jest przecież z jed­nej strony wszechmocny, a wydaje się, że nie może zapobiec nieszczęściom spadającym na tych, którzy prowadzą żywot najwidoczniej bezgrzeszny. Jak Bóg może zezwolić na śmierć dziecka z powodu AIDS czy białaczki, skoro jest samą dobrocią i wszechmocą? Jak mógł dyktatorowi Iraku pozwolić na ludo­bójstwo w swoim kraju, okazując mu przy tym całkowitą bezkarność? Jak Bóg mógł zezwolić Hitlerowi na rzeź Żydów? Ból i cierpienie tak powszechne na całym świecie były czasami powodem utraty wiary wielu ludzi, ale nie wszyst­kich. Pomimo tych strasznych sprzeczności wierzący pozostają przy swojej wierze, i to właśnie jest powodem stwierdzenia nigdy nie mów: niemożliwe.

Zatem, czy tylko to wystarcza do pokonania każdej przeszkody - sprowadze­nia wszystkiego do zbioru prostych zasad, które mogą nawet ze sobą kolidować, i przymykania oczu na zakłamanie? Wszak w ten sposób wiara traci pierwotny sens. Ignorowanie niekonsekwencji nie rozwiązuje żadnego problemu, które one stwarzają. Pomimo to trzeba im stawić czoło. Co więcej, uchylanie się od jedno­znaczności może prowadzić do kolejnych trudnych kwestii, a następnie do niedo­strzegania dalszych sprzeczności. Doprawdy, w świecie materialnym istnieją za­gadnienia prowadzące do pytań, na które wydaje się, że prawie, jeśli nie całkowicie, nie da się odpowiedzieć. Musimy jednakże umieć odróżnić je od pytań, które były trudne już pierwotnie (natura umysłu, stworzenie wszechświata itp.) i o których mówiliśmy w rozdziale pierwszym. Nie możemy pozwolić, aby nowe pytania ze­pchnęły nasze myśli na boczny tor. Zastanawiając się nad nimi, szczególnie nad tymi, które nie są trywialne, tracimy jedynie czas. Wtedy jednakże może powstać niebezpieczeństwo, że pominiemy dużo głębsze zagadnienia dotyczące natury ży­cia, wszechświata i innych kluczowych idei. Spójrzmy teraz na kilka z tych trud­nych problemów stwarzających pozory kwestii o podstawowym znaczeniu.


Trudne problemy


Nauka stoi przed wieloma trudnymi zagadnieniami, odmiennymi od tych, które próbuje się rozwiązać i przebadać za pomocą którejkolwiek z jednolitych teorii przyrody. Tak zwana bariera ostateczna poznania nauko­wego powstaje przy docieraniu do obydwu krańców: bardzo wielkiej skali (ko­smologia, astrofizyka) oraz skali subatomowej (wysokie energie, fizyka czą­stek elementarnych). Jednakże w tym ogromnym obszarze wielkości, od roz­miaru jądra atomu aż do rozmiarów naszej Galaktyki czy nawet większym, istnieją również niezwykle trudne problemy, które dopiero teraz zaczynamy podejmować jako intelektualne wyzwanie. Dotyczy to układów wielce złożo­nych, z którymi mamy do czynienia wokół nas na co dzień, takich jak na przy­kład: fizyka ciała stałego, pewne szczególne właściwości (żeby wymienić choćby nadprzewodnictwo czy nadlepkość), dynamika przepływów turbulentnych czy ruchy obłoków pary wodnej nazywane zwykle pogodą. Ograniczymy się tutaj jedynie do tych trzech typów układów, by wykazać, jaką mnogość problemów stwarzają nauce. Tym samym chciałbym wykorzystać je jako przykłady typo­wych, spośród tysięcy kwestii naukowych, które rzucą nieco światła na istotę nauki i jej ograniczenia.

Nadprzewodnictwo, jak wskazuje sama nazwa, jest zdolnością pewnych materiałów do bezoporowego przewodzenia prądu elektrycznego. Występuje zwykle w metalach lub stopach (mieszaninie dwu lub więcej metali zwiększają­cych zwykle wytrzymałość) bardzo przechłodzonych. Tak więc opór elektryczny ołowiu zanika zupełnie w temperaturze minus 266°C i prąd elektryczny, raz wzbu­dzony, może płynąć w jakimś zwoju nie słabnąc całymi latami. Ponieważ opór zanika, w przewodniku o małym przekroju, wykonanym z takiego materiału, może płynąć prąd o bardzo dużym natężeniu. Dlatego można go używać na uzwojenia elektromagnesów wytwarzających ekstremalnie wysokie pola magnetyczne. Elek­tromagnesy tego rodzaju mogą być w najbliższej przyszłości wykorzystywane do kwitujących pociągów poruszających się absolutnie bez tarcia. Przewiduje się również bardzo ważne wykorzystanie tego zjawiska do wysoce sprawnego przesyłania energii wzdłuż linii energetycznych.

Zastosowanie takich materiałów nadprzewodzących jest ograniczone koniecz­nością chłodzenia ich do bardzo niskich temperatur, co jest kosztowne i wymaga specjalnych urządzeń. Poszukiwania materiałów nadprzewodzących w wyższych temperaturach, dochodzących do temperatur pokojowych, zakończyło w 1986 roku odkrycie dokonane przez George'a Bednorza i Alexa Mellera w Zurychu (za co uhonorowani zostali w ciągu niespełna roku Nagrodą Nobla) kompletnie nowego rodzaju materiału, który utrzymywał właściwości nadprzewodzące w tem­peraturze o około trzydziestu stopni wyższej niż ołów. Od tamtego czasu ukazało się ponad dwadzieścia tysięcy publikacji naukowych donoszących o substancjach nadprzewodzących w jeszcze wyższych temperaturach; rekord stanowi 120° po­wyżej punktu krytycznego ołowiu, co może prowadzić do przełomu w omówio­nych zastosowaniach.

Niezależnie od zalewu doniesień badaczy o substancjach wykazujących nadprzewodnictwo wysokotemperaturowe, nie pojawiła się dotąd żadna wią­żąca teoria wyjaśniająca to zjawisko (co czyni odkrycie Bednorza i Mellera jeszcze bardziej znaczącym, ponieważ okazało się typowym strzałem w ciem­no, który trafił). Stanowi ono jednocześnie wyzwanie nie tylko dla ustalenia podstawowych praw rządzących uporządkowaniem atomów w każdym mate­riale, ale również dla określenia, w jaki sposób prawa te warunkują nadprze­wodnictwo różnych rodzajów materiałów, co jest bardzo trudnym zadaniem, jako że w rachubę wchodzi złożoność poszczególnych zbiorów atomów. Pomi­mo że problem zalicza się do trudnych, to wcale nie oznacza, że należy do gatunku nierozwiązywalnych, ponieważ samo nadprzewodnictwo ołowiu wy­jaśniono już ponad trzydzieści lat temu.

Podobne trudności napotykamy w zrozumieniu zjawiska turbulencji, z którym mamy do czynienia, kiedy ciecz płynie w przewodzie z prędkościa­mi zbyt dużymi dla przepływu o charakterze linearnym. Przepływ burzy się i wydaje się mieć wysoki stopień nieprzewidywalności i złożoności, lecz po­mimo to zachowuje pewien stopień spójności. Podstawowe równanie ruchu jest znane. Rozpoczęte we wczesnych latach osiemdziesiątych symulacje kom­puterowe wykazały obecność wydłużonych włókien cieczy ułożonych w nie­zmiernym nieładzie. Takie same włókna zaobserwowano później w bada­niach przepływu cieczy pomiędzy obracającymi się w przeciwnym kierunku tarczami. Doprowadziło to do stworzenia zupełnie przyzwoitego modelu prze­pływu turbulentnego dwu cieczy, podczas którego jedna ciecz jest uformo­wana z wydłużonych włókien, a drugą tworzy silnie burzliwe środowisko.

Kolejnym trudnym problemem naukowym jest prognozowanie pogody. Kłopoty są zaostrzone tym rodzajem przypadkowości, który objawia się niepo­kojem, że możemy wyjść z domu bez parasola i mimo prognozy dobrej pogody wrócić przemoczeni do suchej nitki, co stanowi jednocześnie codzienny test zastosowania naukowej metody. Pamięć o porażce meteorologów, polegającej na nieprzewidzeniu huraganowych wiatrów we Francji i w Wielkiej Brytan! w październiku 1987 roku i spowodowanych nimi zniszczeniach, jest trudna do zatarcia. Brytyjskie Biuro Meteorologiczne przewidywało podobny huragan niszczący w hrabstwie Somerset na poniedziałek, 29 listopada 1991 roku, lecz piękny, słoneczny i spokojny poniedziałek oraz szydercze komentarze praso­we następnego ranka, opisujące tłumy lekko ubranych spacerowiczów na pla­żach, wprawiły jego pracowników w głębokie zakłopotanie. Prognozy opierają się na możliwie najbardziej ścisłych naukowych metodach z wykorzystaniem najnowszego superkomputera Cray YMR 8132 wykonującego 2000 milionów operacji na sekundę. W starszej, wolniejszej maszynie wprowadzano dane o warunkach meteorologicznych (zebranych z całego świata) 50 000 razy na dzień, co pozwalało w ciągu czterech minut opracować prognozę pogody z piętnasto­minutowym i dłuższym wyprzedzeniem; Cray pracuje podobnie.

Obecnie twierdzi się, że w ostatnich pięciu latach rzeczywista dokładność osiągnięta dzięki lepszemu modelowi klimatu, większym i szybszym kompute­rom oraz ulepszonym systemom obserwacji pogody umożliwiła prognozowanie na dwa do trzech dni naprzód; zastosowanie Craya wydłuża ten okres o kolejny dzień. Mogą jednak występować czynniki pomniejszające te osiągnięcia; wyli­czenie prognozy na jeden dodatkowy dzień naprzód zwiększa koszty dziesięcio­krotnie, a na dwa dni stokrotnie. Jednak jeżeli nawet nie istniałyby ograniczenia finansowe, to tak zwany efekt motyla, polegający na tym, że byle trzepotanie skrzydeł motyla w Tokio może wywołać huragan w Nowym Jorku, znacznie ha­muje dalszy postęp. Wynika to z ekstremalnej wrażliwości równań stosowanych w prognozowaniu na podstawie danych warunków początkowych, wynikających z rzeczywistych obserwacji meteorologicznych. Prowadzi to do wytwornego (fashionable) świata chaosu, po raz pierwszy odnotowanego przez amerykańskiego meteorologa, który zauważył, że bardzo nieznaczna zmiana stanu początkowego może wywoływać później gwałtowne i nieprzewidywalne fluktuacje.

Występowanie chaosu znacznie ogranicza stopień przewidywalności możliwy do uzyskania za pomocą czysto deterministycznych równań. Zwy­kło się sądzić, że cała historia wszechświata, jego przeszłość i przyszłość, dałaby się określić pod warunkiem, że w pewnej chwili znamy dokładnie położenie i pęd każdej cząsteczki. Przekonania objawiające się tak skrajnym determinizmem wyraża dziewiętnastowieczny francuski matematyk Łapiące w jednej ze swoich prac:


Jakiś umysł, który znałby w danym momencie wszystkie siły wy­stępujące w naturze oraz wzajemne usytuowanie wszystkich ciał, umysł na tyle wielki, by ogarnąć ogrom danych potrzebnych do analizy i który byłby w stanie skomasować je w postaci jednego wzoru pozwalającego wyznaczyć ruchy zarówno największych ciał, jak i pojedynczych naj­mniejszych atomów we wszechświecie; dla takiego umysłu nic nie po­zostałoby niepewne, zarówno przeszłość, jak i przyszłość jasno ryso­wałaby się przed jego oczyma.


Fatalistyczne twierdzenia Laplace'a mają w tej chwili spore kłopoty. Chaos skazuje, że co najmniej układy nieliniowe, w rodzaju pogody, nie będą mogły żyć poddane zbyt dokładnej analizie umożliwiającej trafne prognozy. Sugeruje się na przykład, że efekty chaotyczne umożliwią trafne przewidywanie pogody z co najwyżej dziesięciodniowym wyprzedzeniem. Nawet jeśliby prawa natury były całkowicie deterministyczne, to niezwykła wrażliwość na warunki początkowe (i na najmniejsze szumy powstające w komputerze) wyklucza prognozowanie z trafnością, która mogłaby wynikać z rozważań Laplace'a.

Kilku badaczy chaosu zasugerowało ostatnimi czasy, że przez minione trzysta lat nauka wprowadzała nas systematycznie w błąd; przekonujemy się obecnie, że przyszłość jest być może ustalona, lecz na pewno nie wyliczalna. Sugeruje się, że wolna wola może mieć swoje praźródło właśnie w nieprzewidywalności. W obec­nej chwili możemy jedynie stwierdzić, że granica możliwości przewidywania nie wynika z praw fizyki, lecz tylko z naszej zdolności (a właściwie jej braku) zrozu­mienia następstw sytuacji o wysokim stopniu złożoności. Chaos jest ważny dla dziedzin nauki zajmujących się układami złożonymi i jest czynnikiem lepszego zrozumienia takich układów. Nie ma on jednak, oczywiście, najmniejszego wpły­wu na podstawowe prawa fizyki, takie jak klasyczne prawa ruchu Newtona, me­chaniki kwantowej czy teorii względności Einsteina. Nie oznacza to wcale, że po­ziom bardziej złożony nie da się wydedukować z poziomów prostszych, lecz jedy­nie, że jest to o wiele bardziej skomplikowane, niż się spodziewaliśmy uprzednio. Układy chaotyczne znalezione w meteorologii i w przepływie turbulentnym są już obecnie przedmiotem analizy matematycznej i chaos w danych układach daje się przewidywać. Nie jest to nowa sytuacja w nauce. Odnotowano piękne wzory samoorganizacji w reakcjach chemicznych, lecz dopiero później zrozumiano je w ter­minach szczegółowych modeli dynamicznych podstawowych substancji składo­wych. Uwzględnienie chaosu dodało zrozumieniu naukowemu nowy wymiar, lecz nie był to zupełnie nowy kierunek. Nie daje się przy tym zauważyć żadnej granicy pomiędzy tymi dwoma poziomami - wszechświat nadal może być postrzegany w postaci ziaren piasku, jak to elokwentnie sugerował poeta William Blake:


Dostrzegać wszechświat w ziarnku piasku,

Niebo w dzikim kwiatostanie,

Nieskończoność w dłoni zacisku,

A wieczność pomieścić w godzinie.


Pytania bez odpowiedzi


We wprowadzeniu przedstawiłem wiele pozostających bez odpo­wiedzi pytań, które jak sądzę wydają się mieć podstawowe znaczenie, gdy przechodzimy do zagadnień dotyczących wszechświata. Uwzględniając w naszej dyskusji naturę systemów złożonych i chaotycznych omawianych w poprzedniej części, głównym zestawem zagadnień, którym pragnę zająć się w tej książce są:

W jaki sposób powstał wszechświat?

Dlaczego JTP jest właśnie tą konkretną teorią?

W jaki sposób da się wyjaśnić świadomość?

Dlaczego istnieje coś zamiast niczego?

Można do tego zestawu dodać kolejne pytania. W jaki sposób zakończy się byt wszechświata oraz jak zaczął się czas - to pytania dotyczące świata materialnego, podczas gdy: w jaki sposób zostało zapoczątkowane życie wydaje się tak trudne, jak kwestia ludzkiej świadomości. Załóżmy, że zna­my odpowiedzi na wszystkie pytania objęte pierwszym zestawem lub że dalszy rozwój nauki udzieli nam takiej odpowiedzi. Nie uda się wtedy zna­leźć odpowiedzi na żadne z kolejnych pytań. Postaram się uzasadnić to twier­dzenie. Jeżeli bylibyśmy w stanie zrozumieć, w jaki sposób ewoluuje wszechświat, wtedy moglibyśmy w zasadzie ekstrapolować prawa nauko­we na przyszłą ewolucję. Prowadząc taki proces w nieskończoność zdolni bylibyśmy przewidzieć scenariusz końca wszechświata. W praktyce mogli­byśmy napotkać silne ograniczenia wynikające z ewentualnej chaotycznej natury występującej w przyjętym modelu rozwoju wszechświata; na przy­kład efekt motyla, który trzepocząc skrzydłami w Tokio zmienia pogodę w Nowym Jorku, może stanowić podstawę takiego rozumowania. Niewiel­kie zmiany we wczesnych stadiach historii wszechświata mogą zostać tak bardzo wzmocnione, że jakiekolwiek precyzyjne przewidywania później­szych stanów mogą być wielce ryzykowne. Niezależnie od tego, pewne generalne czy ogólne tendencje rozwojowe dadzą się z pewnością przewi­dzieć, choćby takie, jak ciągłe rozszerzanie się wszechświata, w którym galaktyki będą się coraz bardziej od siebie oddalać (zakładając, że cała materia wszechświata ma tę samą temperaturę) i tym podobne.

Chciałbym tu podkreślić z całą mocą, że zdolność przewidywania za­głady wszechświata może bardzo zależeć od tego, w jaki sposób koniec taki pojmujemy. W zasadzie nie wydaje się również konieczne, jako waru­nek wstępny, natychmiastowe rozwiązanie zagadnienia początków czy kreacji wszechświata. Niewątpliwie uwiarygodniłoby to idee odnośnie do ewo­lucji wszechświata, jeżeli tłumaczyłoby inne trudne zjawiska, takie właśnie Jak, na przykład, początek wszechświata. Możliwe, że byłoby to korzystne, lecz tak naprawdę jest to tylko kwestia szczegółowości wyjaśnień. Zakładając, że wykorzystujemy idee i modele odpowiednie dla danego poziomu, ostateczny koniec wszechświata będzie wystarczająco opisany poprzez po­danie pewnych wielkości, powiedzmy ciśnienia i temperatury, o których wiemy lub spodziewamy się, że będą prawdziwe. Nie zadowoliwszy się jednymi wynikami należy przyjąć inny poziom szczegółowości.

Załóżmy na przykład, iż z naszego modelu wynika, że istniejący obecnie wszechświat będzie ulegał coraz większemu skupieniu przy nieskończonym wzroście temperatury. Zmusi to nas do przyjęcia jeszcze głębszego poziomu przemodelowania, uwzględniającego wzrost temperatury, aż do jakiegoś go­rejącego końca. Tego rodzaju problem powstałby, gdyby początkowe sta­dium rozszerzania się wszechświata miało przejść w fazę kurczenia. W ja­kimś momencie w przyszłości temperatura wzrosłaby na tyle, że klasyczne prawa fizyki straciłyby swą ważność i należałoby zastąpić je prawami fizyki kwantowej, co stanowi już wyraźną zmianę poziomu szczegółowości wyja­śnień. Jeszcze później również nowe prawa musiałyby ulec modyfikacji. Na zasadzie symetrii pomiędzy początkowym rozszerzaniem się a ostatecznym j gorejącym końcem, należy się spodziewać, że zrozumienie ostatecznego końca 1 wszechświata wymagałoby tego samego poziomu wyjaśnień, co dla jego po- j wstania. Możemy przypuszczać, że wyjaśnienie początku wszechświata zawiera w sobie wszystkie możliwe poziomy. Koniec byłby zatem uwzględniony w początku. Z drugiej strony, jeżeli wszechświat miałby rozszerzać się w nieskończoność, to opis jego zachowania w chwili obecnej dałby się rozciągnąć na całą przyszłość.

Inne pytania dotyczące świata materialnego, w rodzaju: W jaki sposób zaczął się czas?, wymienione wcześniej w tym rozdziale, są pytaniami, na które spodziewamy się uzyskać odpowiedź w ramach głównego zagadnienia | dotyczącego początku wszechświata. Wydaje się, że czas, przestrzeń i materia powstały jako jedno wydarzenie. Nazwanie czegoś początkowym wydarzeniem oznaczałoby, że zegar kosmiczny już wtedy tykał. Zarówno czas, jak i przestrzeń są uważane w nowoczesnej teorii względności za obiekty dyna­miczne. W żadnym przypadku nie możemy pozostawić tykającego zegara w tle, zanim rozpoczął się wszechświat, ponieważ natychmiast powstanie pytanie: Kto stworzył zegar?

Dokonania ostatnich lat wskazują, że powstanie życia nie jest zagad­nieniem nie do rozstrzygnięcia. Zaczęto formułować prawa budowy ukła­dów samoreplikujących się (lub inaczej samopowielających się), a symulacje komputerowe stwarzają możliwość badania takich układów. Kluczowe zagadnienie, jakim było badanie protein i DNA, zredukowało się do kwestii samoreplikacji ich katalizatora (zwanego RNA). Cząsteczka RNA ma możliwość zarówno odtwarzania siebie samej, jak i budowania następnych cząsteczek, które z kolei katalizują budowę dalszych i tak bez końca. Zbu­dowano już cząsteczki, które mogą produkować takie same, o wielkości rzędu jednej dziesiątej RNA. Ewolucja genetyczna jest również skompliko­wanym zagadnieniem, lecz w świetle dzisiejszej nauki nie wydaje się kwe­stią nie do rozwiązania.

Widać obecnie wyraźnie, że któreś z czterech podstawowych pytań, na które nie potrafimy udzielić odpowiedzi, ma kluczowe znaczenie znalezienia rozwiązania dla innych pytań bez odpowiedzi oraz dla kolejnych, na które odpowiedź trudno jest znaleźć. Rozważmy teraz krótko samą naturę czterech pytań bez odpowiedzi, które sformułowałem na wstępie. W szczególności zajmiemy się zagadnieniem, w jaki sposób -jeśli w ogóle - egzystują one poza nauką.

W 1928 roku amerykański astronom Edwin Hubble opublikował wyniki po­miarów przesunięcia dopplerowskiego odległych galaktyk, z których wynikało, że wszystkie galaktyki bardzo szybko oddalają się od siebie. Z ekstrapolacji ich ruchu wstecz w czasie wynikałoby, że jakieś piętnaście miliardów lat temu wszyst­kie były skupione w bardzo małym obszarze i odtąd uciekają od siebie z coraz większą prędkością. W 1964 roku odkryto powszechne we wszechświecie pro­mieniowanie reliktowe wczesnego, gorącego stadium. Te i podobne wyniki po­zwoliły zrozumieć wczesne fazy wszechświata, aż do momentu rzędu jednej set­nej sekundy od jego powstania. Co zatem było wcześniej? Wydaje się, że jest to również pytanie, które może stawiać sobie nauka, chociaż należy ono do kategorii trudnych, z uwagi na ograniczenia finansowe nie pozwalające na badanie materii w bardzo wysokich temperaturach i ciśnieniach, zarówno w ziemskich akcelera­torach cząstek wysokoenergetycznych, jaki w przestrzeni kosmicznej, ponieważ wtedy z kolei budowa większych i sprawniejszych teleskopów nastręczałaby poważne problemy.

Powstały nawet wstępne propozycje odpowiedzi na pytanie, jak zaczął się wszechświat. Opierają się one na bardzo ważnym czynniku składowym nowo­czesnej mechaniki kwantowej, zastępującym trzy sławne prawa ruchu Newto­na. Cechą zasadniczą mechaniki kwantowej jest to, że zdarzenia następują je­dynie z określonym prawdopodobieństwem, a nie z pewnością, która wynika­łaby z praw Newtona. Wynika z tego, że istnieje jakieś niezerowe prawdopo­dobieństwo, że cząsteczka, powiedzmy taka jak elektron, może powstać z niego, z próżni. W istocie, próżnia zawiera w sobie mnóstwo różnych możli­wości, z których jedną jest sam wszechświat. Zdarzyło się, że powstał z nicze­go. Jak to obrazowo napisał jeden z naukowców amerykańskich: Wszechświat Jest czymś w rodzaju darmowego obiadu. Szczegóły tego, w jaki sposób ten darmowy obiad mógł w ogóle zaistnieć, będą omawiane dalej, lecz już teraz można powiedzieć, że w zasadzie wyraźnie widać, w jaki sposób idee te mogą prowadzić do dających się przetestować przewidywań. Wydają się dlatego przy­należeć do nauki.

Następnym pytaniem jest, dlaczego właśnie ta konkretna teoria ma opisy­wać stworzenie wszechświata z niczego. To pytanie można by sformułować inaczej: Dlaczego właśnie JTP obejmuje najnowszą i najlepszą wiedzę nauko­wą? Na pierwszy rzut oka wydaje się, że nie ma to naukowego uzasadnienia. JTP ma zgodnie ze swą rolą odpowiedzieć na wszystkie pytania naukowe wy­nikające z natury wszechświata. Lecz wydaje się, że nie jest zdolna uzasadnić wyczerpująco samej siebie. W odpowiedzi na te zarzuty naukowi optymiści twierdzą, z pewną dozą usprawiedliwienia, że na wszystkie kwestie naukowe, to znaczy takie, które prowadzą do dających się naukowo potwierdzić przewi­dywań, teoria JTP powinna dostarczyć wyjaśnień. JTP można by w ten sposób zweryfikować zgodnie z metodyką naukową. Dlatego również można znaleźć podstawy naukowe uzasadniające wybór JTP. Pasuje ona bowiem do wszyst­kich znanych faktów naukowych. Więcej na ten temat powiemy w dalszych częściach, lecz już teraz wyraźnie widać, że pytanie leży w sferze zaintereso­wań nauki.

Jednym z istniejących faktów jest nasza świadomość i nasz własny świat psychiczny. Wydaje się, że jedną z cech, nie podlegającą szczegółowym wyja­śnieniom dokonywanym przez optymistów i zwolenników JTP, jest właśnie natura świadomości, bardzo trudno dająca się wyjaśnić na gruncie jakiejkol­wiek znanej dotychczas ogólnej teorii. Niezależnie od ogromnych wysiłków dokonywanych przez psychologów i neurologów, niektórzy twierdzą, że kwe­stia ta pozostanie na zawsze poza obszarem dostępu nauki. Wybitny brytyjski psycholog, Richard Gregory, powiedział na przykład niedawno w programie radiowym, że wewnętrzna natura świadomości wyjaśniająca tak zwane uczu­cia czyste, będące doświadczeniami naszego umysłu, pozostaje całkowitą za­gadką i nigdy nie da się wyjaśnić na podstawie naukowej. Może stanowić rów­nież tę część nauki, przysparzającą najwięcej niepokoju i przydającą jej nazwę Potwora Nauki, którą dostrzegł Appleyard i jego następcy, jak już o tym wspo­minaliśmy. Pomimo to, istnieje powiększająca się rzesza badaczy mózgu oraz naukowców zajmujących się zagadnieniami percepcji, którzy stopniowo roz­wijają idee pozwalające żywić nadzieję, że problem może być jednak rozwią­zany. Jeżeli poprosimy jakiegoś psychologa o uzasadnienie argumentacji Gregory'ego, usprawiedliwiającej ich twierdzenie, że mamy tu do czynienia z pewnikiem w rodzaju nie da się, wykluczającym, abyśmy kiedykolwiek byli w stanie naukowo zrozumieć świadomość, jedyną, zawsze powtarzaną odpo­wiedzią będzie, że to niemożliwe. Jeżelibyśmy zbudowali maszynę z wszystki­mi wewnętrznymi połączeniami, aż do najmniejszego szczegółu, odpowiadają­cymi złożoności mózgu ludzkiego, czy zdołalibyśmy stwierdzić, że ma ona świadomość? Tego rodzaju pytanie wydaje się mieć wartość naukową i będę się nim zajmował szczegółowo później. Już teraz jednak widać, że nauka ma przed sobą długą drogę, by dotrzeć do sedna zjawiska świadomości i kilku z nas próbuje właśnie zrobić na niej pierwsze kroki. Obecnie świadomość nie musi znajdować się poza obszarem zainteresowań nauki.

Powróćmy teraz do pytania, które wydaje się najtrudniejsze ze wszyst­kich - dlaczego istnieje coś zamiast niczego? Jest to pewna postać pierwsze­go i drugiego pytania o powstanie wszechświata i o to, dlaczego właśnie kon­kretna JTP ma to wyjaśniać. Faktycznie, jeśli przy wykorzystaniu wybranej JTP uzyska się odpowiedź na pierwsze pytanie, wtedy kwestia, czy coś ist­nieje, czy nie, redukuje się do drugiego pytania, przyjmując postać: Co zmu­sza nas do wybrania jakiejś konkretnej JTP, odpowiedzialnej za powstanie wszechświata? Istnieje jednakże różnica pomiędzy sformułowaniem, dlacze­go ta JTP lub dlaczego jakakolwiek JTP zamiast żadnej. Może być tak, że w odpowiedzi na pytanie, dlaczego ta, zawierać się będzie również odpo­wiedź na pytanie dlaczego jakakolwiek, ale wcale tak być nie musi. Możemy, na przykład, wybrać jakąś konkretną teorię spośród wielu konkurujących, na podstawie kryterium elegancji bądź symetrii (często wykorzystywane przez naukowców), lecz nie otrzymamy uzasadnienia, dlaczego w ogóle powinni­śmy wybrać jakąkolwiek JTP.

Trudno pogodzić się z faktem, że wszechświat po prostu zdarzył się. Można dlatego uważać, że odpowiedź na pytanie, dlaczego jakakolwiek JTP jest najistotniejsza, brzmi - ponieważ ustala całkowity układ wszechrzeczy. Pomimo że znacznie odbiega od naszej codziennej egzystencji, właściwa od­powiedź uporządkuje nasze życie. Nie oznacza to wcale, że nie powinniśmy dalej zabiegać o codzienne sprawy tylko dlatego, że musi kiedyś nadejść ko­niec życia, a krótkie istnienie, nawet urodzenie w czepku, musi zostać uspra­wiedliwione własnymi dokonaniami. Lecz ta istotna odpowiedź może pomóc zrozumieć, kto lub co będzie ostatecznie oceniał naszą egzystencję. Coś ta­kiego może stać się oczywiste, jeżeli poznamy powód naszego istnienia. Następstwa będą równie oczywiste, będziemy musieli także przyjrzeć się źród­łom nienaukowym (jeśli takie w ogóle istnieją), które mogłyby stanowić wska­zówkę przy podejmowaniu kluczowych decyzji naszego życia.

A zatem, czy można naukowo wyjaśnić podstawy istnienia? Na pierwszy rzut oka wydaje się to niemożliwe. Aby od czegoś zacząć, musimy przyjrzeć się wszystkim możliwym kandydatom na teorie wszystkiego, które ponadto w jakiś sposób tłumaczyłyby same siebie; tylko takie teorie bowiem można uważać za samopotwierdzające się; wszystkie inne ich rodzaje należy od same­go początku uznać za niszczące jakiekolwiek szansę usprawiedliwienia ich ist­nienia. Od takich JTP należy wymagać, aby wszystkie pewniki i założenia dały się wydedukować z samych siebie i to jedynie przy wykorzystaniu logiki. Bli­sko ćwierć wieku temu pewien amerykański fizyk zauważył, że takie teorie wszystkiego nie istnieją: Nie zdarzyło się dotychczas, aby wysiłki wyprowa­dzenia odpowiedniej teorii fizycznej, przy wykorzystaniu samej logiki, zakoń­czyły się choćby najmniejszym powodzeniem. Jeśli osiągnięto jakieś sukcesy, to według mnie takie teorie nie były pozbawione założeń nie wymagających żadnych uzasadnień. Wydaje się więc, że odpowiedź na pytanie postawione na wstępie akapitu brzmi: nie.

Jednakże nie wszystko jeszcze stracone. Bez wahania żonglujemy koncep­cjami w rodzaju: „Zestaw teorii kandydujących na teorię wszystkiego", jakby były one ściśle zdefiniowane. Grozi to uwikłaniem się w paradoksy dobrze znane nauce od czasów, gdy na przełomie wieków, a nawet wcześniej, brytyjski filo­zof Bertrand Russell przed nimi przestrzegał. Ponadto podchodzimy do zagad­nienia, jakbyśmy sami mieli jakąś nadnaturalną moc sporządzenia wykazu JTP i - przeglądając go - byli zdolni dokonać jakiegoś rozsądnego wyboru. Dlacze­go wszechświat w ogóle istnieje w takiej właśnie postaci? Musimy koniecznie głębiej zastanowić się nad naturą samej nauki i wszechświata, zanim przejdzie­my do jakichkolwiek konkluzji. Przekonamy się wtedy, że istnienie może być czymś znacznie subtelniejszym niż wskazywałaby na to dotychczas prowadzo­na dyskusja.


3. Optymiści


Eksplozja rozwoju nauki


Żyjemy w czasach gwałtownego rozwoju nauki, który rozpoczął się wraz z rewolucją naukową około trzystu pięćdziesięciu lat temu. Miała ona swoje źródło w mozolnym trudzie wcześniejszych myślicieli, poczynając od czasów starożytnej Grecji sprzed ponad trzech i pół tysiąca lat. Ponadto jednym z istotnych czynników, który umożliwił naukowcom swo­bodne i sprawne porozumiewanie się między sobą, stało się wynalezienie w piętnastym wieku przez Gutenberga i innych druku. Przed 1500 rokiem książki powstawały w Europie w tempie nie większym niż około tysiąca w cią­gu roku; w 1950 roku produkowano już około 120 000 tytułów rocznie. W po­łowie lat sześćdziesiątych produkcja jednego kwartału odpowiadała produk­cji całego stulecia wieków wcześniejszych. Wraz z pojawieniem się kompu­terów, faksów i poczty elektronicznej, porozumiewanie się naukowców stało się jeszcze łatwiejsze. Obecnie istnieje sieć elektroniczna łącząca tysiące użyt­kowników, umożliwiająca wymianę tekstów w ciągu ułamków sekundy. Naj­wolniejszym ogniwem tego łańcucha jest teraz istota ludzka!

Uderzającym faktem w dziedzinie nauki ostatnich trzystu pięćdziesięciu lat było to, że jej zasobność, mierzona liczbą czasopism i publikacji nauko­wych oraz liczbą samodzielnych pracowników naukowych, podwaja się co piętnaście lat (niekoniecznie musi to odpowiadać liczbie odkryć naukowych). Samo podwajanie się nikogo nie powinno zaskakiwać, jako że populacja lu­dzi na Ziemi również podwaja się co około pięćdziesięciu lat. Skala czasowa tych zmian mimo wszystko uderza. Samo przez się wskazuje, że musi kiedyś nastąpić chwila, kiedy rozwój nauki ulegnie spowolnieniu, z pewnością za­nim wszyscy mężczyźni, kobiety i dzieci staną się naukowcami! Może jed­nak tak się zdarzyć, że nowe sposoby komunikowania się, już teraz wykorzystywane, a w przyszłości wprowadzone do użytku, będą powodować dalszy rozwój nauki, mierzony jednak nie liczbą naukowców, lecz zwiększają się liczbą przekazywanych pomiędzy nimi informacji, która może się zwięk­szać w coraz to szybszym tempie. Uwypuklać to będzie tym bardziej znacze­nie nowoczesności w nauce. Oznacza to, że w każdym okresie podwajanie się nauki (doubling period) liczba naukowców może pozostawać na niezmien­nym poziomie. Przy okresie podwajania się liczby naukowców wynoszącym, jak obecnie, piętnaście lat, i przy przeciętnej długości okresu pracy naukowo--twórczej wynoszącym około czterdziestu pięciu lat, łatwo jest za pomocą zwykłej arytmetyki wykazać, że na każdych ośmiu naukowców żyjących kiedykolwiek przypada siedmiu żyjących współcześnie. Innymi słowy, większość naukowców żyjących kiedykolwiek, żyje właśnie teraz.

Wraz z gwałtownym rozwojem nauki nadeszły czasy Wielkiej Nauki. Obliczone na wielką skalę doświadczenia, z wykorzystaniem niesłychanie kosztownych urządzeń w rodzaju wielkiego akceleratora elektronowego (Large Electron Positron — LEP) w Conseil Europen pour la Recherche Nuclaire, (CERN) w Genewie, mogą wymagać współpracy ponad stu wysoko wykwalifikowanych naukowców. Aby wypisać tylko wszystkie nazwiska autorów,) oraz pozycje ich wszystkich publikacji naukowych, trzeba czasami całej gę­sto zadrukowanej strony. Stale zwiększający się koszt urządzeń rodzaju wymienionych, czy na przykład wielkich teleskopów, stanowi jeden z powodów dalszego ograniczenia rozwoju nauki. Amerykańscy naukowcy napotykają już teraz ogromne trudności w uzyskaniu funduszów potrzebnych na budowę, kolejnego wielkiego akceleratora cząstek, Superconducting Super Collider (SSC). Wielu obserwatorów sugeruje, że będzie to ostatnie tak wielkie urządzenie. Lecz zawsze prorocy przepowiadali klęskę za każdym razem, gdy przystępowano do budowy nowego wielkiego akceleratora cząstek, poczynając jeszcze od lat pięćdziesiątych. Głęboko jednak wierzę w pomysłowość! fizyków, którzy - jak sądzę - znajdą sposób konstrukcji nowych, sprawniejszych i tańszych urządzeń badawczych, pozwalających wejrzeć dużo głębiej! zarówno w świat jądra atomowego jak i kosmosu, nie widać jeszcze końca Wielkiej Nauki.

A jak wyglądają postępy w naukowym rozumieniu? Czy tutaj również odnotowuje się tak gwałtowny rozwój odpowiadający szybkości zwiększania się liczby naukowców? Trudno jest to oszacować, ponieważ zrozumienie nie daje się zmierzyć liczbą publikacji naukowych. Jedynym sposobem pozostaje ocena struktury wiedzy naukowej wyrażonej podstawowymi teoriami, na których wspiera się nauka w danej chwili. Patrząc z tego punktu widzenia, wyraźniej widać, że nauka zmierza do unifikacji i uproszczenia rozwijanych teorii oraz do łączenia ich z innymi. W ten właśnie sposób, w 1864 roku, brytyjski fizyk James Clark Maxwell połączył elektryczność i magnetyzm w jednej spójnej teorii elektromagnetyzmu (co doprowadziło do powstania tak ważnych środ­ków łączności jak radio i telewizja). Około 1974 roku dołączyła do tego pro­mieniotwórczość. W 1905 roku Albert Einstein zastąpił prawa ruchu odnoszą­ce się do cząstek, szczególną teorią względności oraz zunifikował ją z grawitacją, swoją potężną ogólną teorią względności, w 1916 roku. Prawa Newtona zostały również zastąpione, w odniesieniu do bardzo małych (o rozmiarach ato­mowych) cząstek, przez mechanikę kwantową, powstałą zasadniczo w roku 1926. Teoria ta jest teraz podstawą fizyki ciała stałego, na podstawie której są budowane, powszechne teraz w przemyśle, elementy elektroniczne. W 1982 roku wysunięto przypuszczenie, że wszystkie siły dadzą się zunifikować w obrębie jednej teorii tak zwanych superstrun. Nie posiadamy jeszcze potwier­dzenia tej ostatniej unifikacji, lecz dla wielu naukowców pracujących w tej dzie­dzinie wydaje się ona wielce obiecująca. Procesy unifikacji i symplifikacji zo­staną opisane bardziej szczegółowo w drugiej części książki.

Te ogromne postępy można było uzyskać jedynie na drodze uprzedniej mozolnej pracy niezliczonej rzeszy naukowców. Należy dodać, że zgodnie z oczekiwaniem ogólnemu rozwojowi nauki naszkicowanemu powyżej, to­warzyszył znacznie powolniejszy postęp w zrozumieniu. W kolejnych kro­kach na drodze do unifikacji oraz we wszystkich teoriach konstruowanych uprzednio opierano się w zasadzie na podejściu redukcjonistycznym i tłu­maczono właściwości obiektów złożonych za pomocą właściwości ich czę­ści składowych. Jeżeli na każdym poziomie natura realizuje mnóstwo ta­kich kombinacji składowych, to należy się spodziewać wielu rodzajów obiek­tów, które można opisywać jako złożone. Oznacza to, że przy przechodze­niu od obiektu do jego części, następuje znaczne skupienie wiedzy. Lecz kolejny krok do części jakiejś części wymaga zwykle ogromnej liczby da­nych, pozwalających na zebranie wystarczających ilości informacji opisu­jących szczegółowo właściwości tych mniejszych elementów. W ten spo­sób docieramy do konkluzji, że wielu ludzi musi dokonać ogromnego na­kładu pracy (zarówno przy zbieraniu danych, jak i przy budowaniu wstęp­nych teorii), aby niewielu mogło dokonać bardzo niewielkiego postępu na drodze do zrozumienia: Wielu się wzywa, lecz niewielu się wybiera.

Jeżeli jest to podstawowa natura modus operandi nauki z gwałtownym wzrostem aktywności i liczby uczonych wymaganych do wykonywania prac Podstawowych, a tylko niewielu z nich do dokonania przełomu, przy coraz wdziej zwiększającym się zakresie zjawisk, które trzeba uwzględnić w bada­niach podstawowych - to można oczekiwać wyraźnej granicy, jaką ma nauka przed sobą, ponieważ na Ziemi w pewnej chwili zabraknie naukowców utrzymania istniejącego tempa rozwoju nauki. Już przedtem zauważyliśmy że liczba naukowców podwaja się w tempie trzy razy szybszym niż populacja ludzi na Ziemi. Dlatego niepowstrzymany wzrost nauki musi ulec spowolnieniu i będzie należało bardziej selektywnie dobierać kierunki jego dalszego rozwoju. Z drugiej strony, jeżeli rzeczywiście JTP jest w zasięgu ręki to oznacza, że nauka może być samoograniczająca się: niewykluczone, że właśnie kopie sobie samej grób! Ograniczenia rozwoju nauki nie byłyby wtedy istotne, jako że nie będzie już potrzebny żaden nowy Einstein.


Naukowi optymiści


Naukowcy są obecnie wynoszeni na coraz wyższej fali nauki. Wykazano to na przykładzie opisanym w poprzednim podrozdziale. Nie zaskakuje więc, że niektórzy z nich stają się optymistami w kwestiach zrozumienia wszechświata jako całości. Problem, przed którym stoją, próbując otrzymać kompletny obraz wszystkiego, ujął wzniosie William Blake, jak to już cytowaliśmy:


Dostrzegać wszechświat w ziarnku piasku,

Niebo w dzikim kwiatostanie,

Nieskończoność w dłoni zacisku,

A wieczność pomieścić w godzinie.


Czy doprawdy naukowcy spodziewają się osiągnąć taką kompletną wiz i czy rzeczywiście nauka może opisać wszechświat in toto? Naukowi optymiści twierdzą, że tak. Jeden z nich, kosmolog Pauł Davies ujął to zwięźle podczas niedawnej dyskusji radiowej:


Naprawdę wydaje się, że po raz pierwszy posiadamy co najmniej zarys teorii unifikującej w obrębie jednorodnego układu wszystkie siły występujące w przyrodzie, wszystkie cząstki elementarne, czas i przestrzeń oraz początek wszechrzeczy, wszystko w ramach jednej pojedynczej teorii. Po raz pierwszy zaistniał taki przypadek i jeśli nawet my4 my się w poszczególnych punktach, to jednak przynajmniej wiemy, ja taka teoria powinna wyglądać.


Pomijając już fakt, że z pewnością nie pierwszy raz twierdzi się, iż odkryto właśnie teorię wszystkiego, na przykład Tales z jego ideą, że wszystko jest z wo­dy jak już mówiliśmy w pierwszym rozdziale, jest jednak interesujące, że ktoś ma odwagę głosić takie przekonania. Szczególnie wtedy, gdy rozporządza się jedynie zarysem, gdy - jak to ujął Davies - wiemy, jak taka teoria powinna wy­glądać. Ponadto nauka nieustannie rozwija się i złożone problemy w rodzaju tur­bulencji, prognozowania pogody czy nadprzewodnictwa zyskują coraz bardziej na znaczeniu. Nauki podstawowe również robią postępy, przy niewątpliwie nie­zwykłym skoku dokonanym w tym stuleciu. Co więcej, rozwój wszystkich dzie­dzin nauki nabiera coraz większego rozpędu. W jaki sposób rozwój nauk podsta­wowych miałby ulec raptownemu zatrzymaniu w wyniku nagłego odkrycia JTP? W swoich twierdzeniach Davies nie jest osamotniony. Od połowy lat siedem­dziesiątych panująca wśród naukowców opinia, że nauka zmierza do swojego końca, jest dość powszechna. Po osiągnięciu w 1974 roku znaczącej unifikacji sił elektromagnetycznych i odpowiedzialnych za promieniotwórczość, powstały pro­pozycje dalszej unifikacji, zwanej teorią wielkiej unifikacji, w skrócie TWU. W tym samym mniej więcej czasie zaproponowano nowy rodzaj symetrii pomiędzy materią a promieniowaniem, zwany supersymetrią. Idea symetrii jest w przyro­dzie wszechobecna, co widać w postaci płatków śniegu, kołowych fal rozprze­strzeniających się na powierzchni wody czy w pięknie kryształów. Wydaje się, że symetria przenika do najmniejszych wielkości do obszarów wewnątrzatomowych. W latach pięćdziesiątych i sześćdziesiątych dokonano znaczących postę­pów w fizyce cząstek elementarnych przyjmując model ósemkowy. Umożliwił on odkrycie w nowo zbudowanych akceleratorach wielu nowych cząstek, któ­rych masy i ładunki pozwoliły zgrupować je w zestawy po osiem (cząstki te dają się między sobą rozróżnić dopiero przy wykorzystaniu specjalnych metod). Po­dejście takie umożliwiło dalsze postępy w unifikacji sił.

Ostatni model wszystkich cząsteczek występujących w przyrodzie jest opar­ty na uaktualnionej wersji modelu ósemkowego mającego zamiast oktetów triplety, duble i single, stwarzające najbardziej korzystne uporządkowanie. Nazy­wa się go czasami modelem 3-2-1, odpowiadającym rozmiarom tych multipletów. Wszystko to może wyglądać jak jakaś dziwna numerologia, lecz o dziwo Prowadzi do zadziwiającej zgodności z większością faktów dostępnych dotych­czas, a dotyczących badań w akceleratorach cząstek. Przyroda na tyle, na ile możemy jak dotąd zaobserwować, wydaje się przestrzegać jakiejś podstawowej symetrii, z której wynika, że istnieją pewne trzy cząstki nierozróżnialne od siebie, obok innych dwu w dublecie. Fizycy wysokich energii wykazali duże poczucie humoru nazywając te trzy cząstki kwarkami (kwark - po niemiecku głupstwo, drobnostka albo twaróg), chociaż w rzeczywistości ich nazwa pochodzi z cytatu z Ulissesa Jamesa Joyce'a brzmiącego w oryginale: „Three quarks for Muster Mark". Kolejne nazwy ich właściwości brzmią również nieco humorystycznie: górny, dolny, dziwny, powabny oraz piękny. Wydaje się jednak, że fizycy posu­nęli się nieco za daleko, gdy kilka lat temu w oficjalnym przemówieniu otwiera­jącym konferencję międzynarodową określenie denny (bottom), dla właściwości odpowiadającej pięknu, brzmiało dla nich zbyt prymitywnie! Model 3-2-1 tak bardzo pasuje do wszystkich dostępnych faktów, że aż przysparza naukowcom kłopotu. Nie da się znaleźć żadnej szczeliny w pancerzu teorii, żadnej luki, przez którą udałoby się dojrzeć wyjaśnienie modelu 3-2-1. Wydaje się dziwne, że można uważać jakąś teorię za zbyt dobrą, gdy jest to wartość, której nauka zwykle z wielkim trudem poszukuje. Jest to obecnie odczucie powszechne, które ponadto wskazuje, że żadnej teorii nie można uważać za doskonałą, ponieważ zawsze występują w niej pewne nie dające się wytłumaczyć elementy.

Wspomniana wcześniej supersymetria była ważna w połowie lat siedem­dziesiątych, ponieważ zwiększała nadzieję na możliwość objęcia unifikacją również grawitacji; ta ujednolicona wersja została nazwana supergrawitacją. Z różnych przyczyn nadzieje nie spełniły się, przy czym jedną z nich było to, że grawitacja nie poddaje się symetrii 3-2-1, której podlegają inne siły. Jed­nak niektórzy naukowcy zwietrzyli już tu sukces. Pojawienie się w 1982 roku superstrun, które wydają się obejmować grawitację i tworzą bardzo prawdopodobnie model 3-2-1, było tuż-tuż. Znajdowały się już w zasięgu ręki, a przynajmniej tak utrzymywano.

Nasuwające się w świetle tego przypuszczenie, że nauki podstawowe kończą się, było na pozór całkowicie uzasadnione. Jeżeli wszystkie siły w przyrodzie - elektromagnetyzm, rozpad radioaktywny, siły jądrowe i grawitacja - miałyby być sprowadzone do jednej supersiły, to dlaczego miałaby istnieć jakakolwiek potrzeba występowania innych sił podstawowych czy oddziaływań nie objętych tą teorią? Złożoność natury, widoczną wokół nas, można by zredukować najpierw do zestawu sił działających w jakiś skomplikowany sposób pomiędzy plastrami materii. Następnie siły te sprowadzono by do jed­norodnej siły działającej pomiędzy jakimiś szczególnymi formami materii (reprezentowanymi przez kwarki i inne cząstki tego rodzaju). W końcu ta szczególna materia zostałaby sama zunifikowana z jednorodną siłą poprzez supersymetrię, a cały materialny wszechświat, zarówno materia, jak i pro­mieniowanie, tworzyłby jedną zunifikowaną wielkość fizyczną. Wewnętrzne oddziaływania byłyby opisane przez nową teorię superstrun. Nie istniałaby żadna potrzeba tworzenia jakiejś głębszej podstawowej teorii materii, a niek­tórzy uczeni twierdzili, że nie byłoby już miejsca na nic innego. Nowa superteoria byłaby już tak ściśle upakowana, że nie dałoby się już nic do niej do­dać. Sugerowano, że żadna inna teoria nie mogłaby już powtórzyć tej samej sztuczki z unifikacją wszystkich znanych elementów materialnego wszech­świata z ich wszystkimi znanymi właściwościami. Ta ostatnia cecha ma szcze­gólnie istotne znaczenie, ponieważ problem zunifikowania grawitacji z me­chaniką kwantową-powstanie grawitacji kwantowej-pozostaje nie rozwią­zany od lat trzydziestych. Okazał się na tyle trudny, że w zasadzie oczekiwa­no, iż tylko jedna teoria mogłaby pretendować do miana teorii obowiązującej w nauce. Za taką teorię okrzyknięto najpierw teorię supergrawitacji, a póź­niej teorię superstrun. To wyjaśnia, dlaczego Stephen Hawking mógł napisać o ewentualnych wyborach podstawowych praw przez jakieś bóstwo:


Miałoby ono oczywiście dalej możliwość wyboru praw obowiązu­jących w przyrodzie. Nie byłby to już jednakże wybór całkowicie swo­bodny. Istniałaby tylko jedna (lub bardzo niewiele) całkowicie zunifi­kowana teoria, w rodzaju złożonej teorii strun, która jest wewnętrznie spójna i dopuszcza istnienie układów tak skomplikowanych jak istota ludzka - zdolna badać prawa wszechświata i pytać nawet o naturę Boga.


W latach siedemdziesiątych uświadomiono sobie, a w latach osiemdzie­siątych myśl tę rozwinięto, że wszechświat może być fluktuacją próżni. Trudno to sobie wyobrazić, ale pomocny może tu być przykład kropli deszczu poja­wiającej się nagle, mimo bezchmurnego nieba (przy czym niebo byłoby wte­dy tą próżnią, a kropla wszechświatem). Dynamicznych podstaw do takiego rozumowania dostarcza tak zwana mechanika kwantowa, która niepewno­ścią zastąpiła pewność mechaniki Newtona. Uprzednio cząstki były trakto­wane jako solidne kule bilardowe; obecnie stały się czymś niewyraźnym i ta­jemniczym, nie dającym żadnej pewności, że możemy je znaleźć w jakimś konkretnym miejscu, w konkretnej chwili. Stały się również nieokreślone pod względem energii czy prędkości, a nawet samego swojego istnienia, bowiem wszystko podlega fluktuacjom. Lecz jeżeli cząstka może pojawiać się lub znikać, to może tak dziać się również z całym wszechświatem. W rzeczywi­stości można go uważać za wielką fluktuację, lecz zależy to jeszcze od skali, w jakiej rozpatrujemy ten problem, w odpowiednio dobranej fluktuacja nie musi być wcale taka duża.

Aby wyjaśnić istnienie wszechświata jako fluktuację kwantową próżni Jako kroplę wszechświata pojawiającą się na niebie niczego, należy wyjaśnić jedno­czesne powstanie przestrzeni i czasu, które istniej ą we wszechświecie. W tym celu potrzebujemy teorii, w której teoria kwantowa będzie w odpowiedni spo­sób skojarzona z grawitacją. Wtedy czas i przestrzeń pojawią się nagle wraz z materią wszechświata już w tej pierwotnej kropli. Powstanie teorii superstrun, dostarczyło nadziei, że teoria taka jest w ogóle możliwa i że kwantowa kreacja wszechświata z niczego może znaleźć naukowe uzasadnienie.

Tak w skrócie wygląda tło naukowego optymizmu ostatnich dwóch dzie­sięcioleci. Spróbujmy wyjaśnić, jak należy rozumieć wypowiedzi o tym, że nauki podstawowe mają się ku schyłkowi. Różnią się one zasadniczo od wy­powiedzi, z której wynikałoby, że cała nauka się kończy, ponieważ zdajemy sobie sprawę z niezwykle złożonego charakteru przyrody na poziomach znaj­dujących się powyżej, żeby tak powiedzieć, poziomu podstawowego. Na te skomplikowane pytania nie odpowiada się. Nauki podstawowe to jedynie część całej nauki. Ponadto na uboczu pozostaje cała sfera świata psychicznego. W jaki sposób w obrębie JTP można by wyjaśnić świadomość?

Pominięcie złożonej natury świadomości oraz - nazwijmy to - arogancja pojawiająca się w wypowiedziach optymistów obwieszczających koniec nauk podstawowych, doprowadziło do wytworzenia się silnej opozycji, która powątpiewa o JTP znajdującej się jakoby w zasięgu ręki. Sądzę, że możemy tutaj nie uwzględniać poglądów, wedle których świat jest zbyt złożony, by można było żywić jakąkolwiek nadzieję, że zostanie zrozumiany w całości, i Istnienie podstawowych praw rządzących oddziaływaniami oraz cząstek ele­mentarnych o eleganckiej symetrii (choćby symetrii 3-2-1 opisanej powyżej) nie jest kwestionowane nawet przez tych naukowców, którzy utrzymują, że złożoność świata stawia przed nauką zadania daleko sięgające w przyszłość. Na drodze od poziomu podstawowego, na którym symetria 3-2-1 staje się oczywista, do powiedzmy zjawisk związanych z pogodą, jest tyle przeszkód, że nie da się tego podważyć. Postęp osiągnięty w zrozumieniu teorii symetrii 3-2-1 mógł być dokonany jedynie na drodze badania natury materii w mniej­szych odległościach i przy większych energiach niż czyniliśmy to kiedykol­wiek dotychczas. Jest to typowe podejście redukcjonistyczne.

Moje krytyczne nastawienie do panującego optymizmu odnośnie do JTP, w zakresie superstrun czy jakiejkolwiek innej teorii zajmującej się samą ma­terią, wynika z tego, że żadna z nich ani teraz, ani w przyszłości nie podejmu­je i nie wyjaśnia zagadnień związanych ze świadomością. Natura świadomo­ści zdumiewała ludzkość przez tysiąclecia, lecz nie uczyniono żadnego po­stępu zbliżającego do rozwiązania problemu samym tylko stwierdzeniem, że teoria superstrun lub jakaś inna jest JTP. Faktycznie, od cząstek elementar­nych i superstrun do świadomego mózgu należy przebyć długą drogę. Mózg pracuje najlepiej w temperaturach pokojowych, a superstrun nie da się zaob­serwować, zanim nie osiągnie się niewyobrażalnie wysokich temperatur. Nie ma łatwego sposobu połączenia tych tak odległych od siebie zagadnień, cze­mu przeszkadza jeszcze powszechna ignorancja w zakresie budowy i działa­nia mózgu. Sam fakt, że ktoś dzisiaj może napisać: badania wykazują, że wielu z nas wykorzystuje zaledwie jeden procent pojemności, a tym samym możliwości, mózgu, i że można trenować w celu osiągnięcia znacznego wzro­stu możliwości psychicznych na drodze wykorzystania pewnego potężnego potencjału intelektualnego, który każdy posiada, dobitnie wskazuje na całko­wity brak zrozumienia funkcjonowania mózgu (jak również na łatwowier­ność, jeżeli nie autora, to przynajmniej niektórych czytelników). Cytowałem już psychologa Richarda Gregory'ego, który nie jest wcale osamotniony utrzy­mując, że świadomości nie daje się wytłumaczyć jedynie aktywnością móz­gu. W rozdziale 3 przedstawię argumenty wspierające czysto materialistyczną teorię mózgu, która jak to później się okaże będzie miała znaczący wpływ na sposób, w jaki pojmujemy wszechświat i jak postrzegamy w nim samych siebie. W szczególności doprowadzi to do stworzenia JTP oraz do wniosku, że istnienie Boga staje się dużo mniej prawdopodobne.

Używa się też innego argumentu przeciwko możliwości znalezienia kie­dykolwiek JTP. Jest oczywiste, że JTP, jaka by ona nie była, musi być wyra­żona w matematycznej formie. Pomyślmy, jak będzie się ona wydawać prze­starzała fizykom teoretycznym za tysiące lat. Do tego czasu matematyka uczyni prawdopodobnie ogromne postępy. Przyszłe teorie i idee matematyczne uczy­nią te dzisiejsze trywialnymi, podobnie jak dla współczesnych matematyków małe znaczenie ma wszystko przed wynalezieniem rachunku różniczkowego i całkowego. W samej matematyce rozwinęły się nowe obszerne dziedziny. Żadna z nich nie znajdzie zastosowania w najbliższych latach w jakiejkol­wiek JTP. Dotychczas teorie fizyczne były wyrażane matematyką ostatnich dni. Wszystko to przekonuje mnie, że przyszły nie kończący się rozwój mate­matyki umożliwi powstawanie modeli materialnego świata w coraz bardziej doskonałej z punktu widzenia naukowego wersji. Nie dostrzegając końca roz­woju matematyki, nie można również dostrzec kresu jej przydatności w wy­jaśnianiu coraz głębszych warstw rzeczywistości.


Pytania z przeszłości


Warto spojrzeć w przeszłość nie tylko na obszary zainteresowań na­uki, lecz również religii, by zobaczyć, czy naukowi optymiści - utrzymujący, że wkrótce wszystko już będzie wyjaśnione - mają jakieś uzasadnienie dla wygłaszania tego rodzaju kategorycznych twierdzeń. Czy naukowe: spodziewali się w przeszłości, że powstanie taka możliwość? W jaki sposób świat religii mógł reagować na tę fantastyczną ewentualność? Jednocześni powinniśmy zaliczyć, uwzględniając ich racje, pewne kwestie wynikające z religii do kategorii pytań bez odpowiedzi. Ten obszerny zestaw zagadnień wypełnia wiele bibliotek. Nie proponuję tutaj skondensowanej historii świa­towej nauki i religii, lecz jedynie wejrzenie w te obszary, które wydają mi się pouczające. Pewnym usprawiedliwieniem widocznego szkicowego podejścia jest moje dążenie, by rozwinąć współczesne, a nie minione idee.

Warto wykazać, dlaczego całkowite pominięcie minionych idei jest zu­pełnie usprawiedliwione. Szczególnie dlatego, że jesteśmy przyzwyczajeni do tworzenia nowych idei na podstawie intelektualnej tradycji. Idee uznane za właściwe, są dalej wyznawane, przynajmniej dopóki sprawdzaj ą się w ro­związywaniu nowych problemów. Postęp nauki został osiągnięty właśnie na takiej drodze. W wyniku faktu, że większość naukowców kiedykolwiek żyją­cych, żyje współcześnie - tak zwany efekt natychmiastowości opisany wcze­śniej w tym rozdziale - większość współczesnych twórczych idei, przynaj­mniej w naukach przyrodniczych, powstała stosunkowo niedawno. Pozostaje to również prawdą w odniesieniu do nauk społecznych. Wszystkie książki naukowe, w odróżnieniu od książek z dziedzin związanych ze sztuką (które nie starzeją się), podlegają ciągłej dezaktualizacji. Szekspir jest zawsze ak­tualny (sam wziąłem ze sobą jego Dzieła wszystkie, kiedy jechałem do CERN-u, do laboratorium fizyki cząstek w Genewie, podczas gdy z dziedziny nauki zabrałem jedynie najnowsze opracowania). Omawiane wcześniej trudne py­tania były przedmiotem zainteresowania ludzi od starożytności, co wcale nie oznacza, że musimy się teraz zajmować wszystkimi proponowanymi wtedy rozwiązaniami, ponieważ propozycje te nie przysporzyłyby nauce współczes­nej żadnych korzyści. Pomimo to pewne występujące w przeszłości stanowi­ska i postawy są warte poznania. Tematem tym zajmuje się przede wszyst­kim historia nauki, lecz jej zwykłym miejscem są na przykład wykłady na odpowiednich wydziałach uniwersytetu.

Filozofowie przyrody starożytnej Grecji zyskali rozgłos dzięki swoim teoriom wszystkiego. Wybór wody przez Talesa czy powietrza przez Anaksymandra, to pierwsze z takich wczesnych kandydatur. Atomy Demokryta stanowiły już jakby nowoczesne podejście, podczas gdy joński Anaksagoras wierzył, że materię można dzielić w nieskończoność i że umysł jest oddziel­ną substancją, która wnika do układów żywych i staje się źródłem wszelkie­go ruchu. Pitagoras stwierdził, że wszystkie rzeczy są liczbami i od niego biorą swój początek nowoczesne idee, że matematyka jest językiem podsta­wowym teorii naukowych. Faktycznie, poziom wykształcenia matematycz­nego wymagany do zrozumienia teorii superstrun jest tak wysoki, że wielu potrzebuje dodatkowych wykładów, by ją zrozumieć. Jednakże wydaje mi się, że zrozumienie - stosunkowo biorąc - nie jest teraz trudniejsze niż było w czasach Pitagorasa, kiedy należało pojąć jego słynne twierdzenie, którego - mam nadzieję - dotychczas uczą się dzieci na lekcjach geometrii.

Ostatnie teorie greckich filozofów, takie jak platońska, powstały na grun­cie przekonania, że matematyka jest źródłem prawdy zupełnym i idealnym; tak też powstały idee platońskie, które jak twierdzono kryją w swoim wnę­trzu prawdziwą rzeczywistość. Uważano, że na przykład sprawiedliwość czy piękno istniej ą niezależnie i pierwotnie w stosunku do działania czy istnienia ludzi obdarzonych tymi cechami. Późniejsi filozofowie również tworzyli mie­szaninę zasad moralnych i racjonalizmu, która oddziałuje do dzisiaj, co prze­jawia się nawet na kartach tej książki.

Musimy sobie jednak zdawać sprawę z tego, że zarówno Platon, jak i inny grecki filozof, Arystoteles (wybitny uczeń Platona), sprzeciwiali się bardziej nowocześnie wyglądającym materialistycznym poglądom Demokryta, który twierdził, że wszystko - życie, porządek, umysł, cywilizacja, sztuka itp. - da się sprowadzić do ruchu cząstek materii podlegającym pewnym prawom.

Idee Pitagorasa miały wielki wpływ na prace Isaaca Newtona. Jego trzy prawa ruchu oraz jego siła grawitacji, odwrotnie proporcjonalna do kwadra­tu, stworzyły ramy - w postaci równań matematycznych - dla zrozumienia obszernego zakresu zjawisk oraz umożliwiły przewidywanie innych. Wyra­żone w formie matematycznej teorie oraz ich doświadczalna weryfikacja sta­ły się normalną drogą rozwoju nauki, przy czym cała współczesna fizyka i astronomia wykorzystują idee z obszaru matematyki wyższej - macierze i wektory, równania różniczkowe i całkowe, teorię grup, topologię oraz inne dziedziny matematyki - do opisu coraz bardziej zrozumiałego świata przyro­dy. Matematyka słusznie bywa nazywana królową nauk. W tym przynajmniej względzie naukowi optymiści mają rację twierdząc, że JTP będzie wyrażona w języku matematyki.

Pomijanie zagadnień związanych z umysłem jest czymś, czego oczekują naukowcy z dziedzin związanych z fizyką. Szczegółowe badania mózgu i umysłu znajdują się ciągle w powijakach. Dopiero w 1865 roku dwóch nie­mieckich chirurgów przeprowadziło doświadczenia wykazujące, w jaki spo­sób stymulacja elektryczna pewnych rejonów mózgu powoduje różne ruchy. Odkrycie, że różne obszary mózgowia są odpowiedzialne za różne funkcje, nic narodziło się nagle. Dopiero teraz dysponujemy pewnymi wskazówkami, że rożne rejony kory czy śródwzgórza mogą mieć związek ze świadomością. Dopiero na przełomie stuleci Freud zaczął rozwijać swoją teorię podświadomości. Cała nasza wiedza na temat mózgu, skądinąd bardzo skomplikowanego ukła­du, ma zdecydowanie bardziej powierzchowny charakter niż nasze zrozumie­nie materii. Psychiczna rewolucja naukowa zaczęła się jakieś dwieście lat po materialistycznej rewolucji naukowej. Pierwsza ma w stosunku do drugiej znacz­ne zaległości do odrobienia. Powody tego opłakanego stanu rzeczy (wiemy dużo, dużo mniej o nas samych niż o naszych ciałach) można znaleźć zarówno w podejściu filozofów do spraw związanych z umysłem, jak i teologów prze­szłości oraz w istotnych problemach, które nastręczają się badaczom.

Stanowisko świata religii wobec naukowych optymistów jest oczywiste i wy­nika z faktu, że wierzący na wszystkie trudne pytania mają gotowe odpowiedzi, których im dostarcza wiara. Nie wynika z tego, że odpowiedzi te powinny być zrozumiane. Tak więc chrześcijaństwo naucza: rozumienie śmiertelników jest bezwartościowe, a wczesny myśliciel chrześcijański św. Anzelm stwierdził: Nie zrozumiem, dopóki nie uwierzę. Głównym elementem wiary teisty wydaje się to, że dusza jest niematerialna i że może mieć bezpośredni kontakt z Bogiem. Te podstawowe założenia przewijają się wyraźnie przez całą Biblię, poczynając od pierwszego wersetu Genesis. Silnie objawiają się również w tekstach teologów nowożytnych, jak na przykład w tekście pastora-fizyka Johna Polkinghorne'a, rektora Qeens College w Cambridge. Drugim powodem tego, że traktuję transcendentalność serio, są moje własne doświadczenia wyniesione z modlitwy i woj­ny. Niezależnie od tego, jak bardzo moje doznania związane z Bogiem wydawa­łyby się kapryśne i wyjątkowe, są one nie do podważenia.

Bardziej ogólnie można powiedzieć, że każda religia teistyczna (z jedynym osobowym Bogiem ponad światem) musi wykorzystywać swojego Boga jako źródło egzystencji istniejącej poza rzeczywistością, tj. transcendentne. Świat materialistyczny może stawać się coraz bardziej zrozumiały dla fizyków, lecz utrzymuje się, że umysł czy dusza znajdują się poza obszarem poznania. Nie można postawić znaku równości między umysłem a mózgiem; stare powiedze­nie: co to jest umysł? - nigdy materia; co to jest materia? - nigdy umysł, jest kluczem do zrozumienia podejścia teistów do życia. Stanowi podstawę chrze­ścijaństwa, islamu i judaizmu. Również w hinduizmie daje się odnaleźć ele­ment teistyczny. Z drugiej strony, jedna z gałęzi buddyzmu (linia Theravada) nie odwołuje się do żadnego teistycznego stanowiska, podczas gdy inna (gałąź Mahayana) uznaje, że Gautama jest ucieleśnionym Buddą-duchem. Ogólnie mówiąc, wydaje się, że każda wiara w reinkarnację (ponowne wcielenie) musi wymagać bezcielesnej, niematerialnej duszy lub jaźni, o której można mówić, że przechodzi na przykład z jednego życia w drugie w zależności od grzechów czy czynów karygodnych dokonanych w tym lub poprzednim życiu.

Odpowiedzią teisty na postulat, że superstruny są JTP, byłoby z pewnością podniesienie kwestii trudnych pytań. Na pierwsze - w jaki sposób powstał wszech­świat? - optymista naukowy odpowiedziałby chyba, że powstał z niczego jako fluktuacja kwantowa. Nie uczyniłoby to na teiście żadnego wrażenia, bowiem nie otrzymałby wtedy odpowiedzi na swoje pytanie - skąd się wzięła mechanika kwantowa? Na pytanie drugie - dlaczego właśnie ta JTP? - zwolennicy teorii kwantowej mogliby jedynie odpowiedzieć - ponieważ właśnie ona pasuje do wszystkich faktów, co zapewne nie zadowoliłoby teisty (a wydaje się - w zasa­dzie - równoważne wierze teisty w jego własną teologię i wynikające z niej od­powiedzi). Na trzecie pytanie - jak można wyjaśnić rozum? - można znaleźć naukowe twierdzenia, że świadomość powstała w wyniku złożonych procesów zachodzących w mózgu (przy czym wyjaśnieniu temu towarzyszyłoby zapewne wymachiwanie rękoma, ale nie wsparto by go absolutnie żadnymi szczegółami), na które teista mógłby odpowiedzieć — nie mogę ci uwierzyć, dopóki nie przed­stawisz szczegółów. Jeżeli nie zdobyłeś ich dotychczas, nie mam żadnego powo­du wierzyć, że potrafisz w ogóle tego dokonać. Końcowe pytanie - dlaczego istnieje coś zamiast niczego? - pozostawi naukowego optymistę albo z klinem tkwiącym w głowie, albo odwołującym się do zasady antropoidalnej. Przebiega ona wzdłuż linii wyznaczonych rozumowaniem - „istniejemy, a więc wszech­świat musi zezwalać na nasze istnienie i na to, byśmy mogli się zastanawiać nad jego istnieniem". Wydaje się, że jest to miernej wartości argument. Rzeczywi­ście, jesteśmy tu: lecz argumentowanie w ten sposób sprowadza się do powiedze­nia - .Jesteśmy tutaj, ponieważ jesteśmy". Teiści mieliby pełne prawo utrzymy­wać, że Bóg daje lepsze powody do istnienia niż takie stanowisko.

Teiści balansują na linie wtedy, gdy stają przed zagadnieniem. Załóżmy, że zbudowano sztuczny mózg, będący dokładnym odpowiednikiem naszego wła­snego. Czy mózg taki byłby świadomy? Pytanie to uwypukla zagadnienie „Boga z wadami" („God of the gaps"): Jak Bóg mógł pozwolić, aby prawa fizyki po­zostały niezmienne, co z kolei pozwala naszym (niematerialnym przecież) umy­słom mieć wpływ na nasze fizyczne ciała. Nigdy nie postulowano jakiegoś rzeczywistego mechanizmu umożliwiającego oddziaływanie umysłu na materię. Na pytanie to można by odpowiedzieć, traktując umysł i materię jako dwa aspekty jakiejś większej formy. Lecz jej natura wydaje się wielce tajemnicza. Ponadto, wtedy problemem staje się trwanie umysłu po śmierci, jako że ustaje aktywność komórek nerwowych - podstawy materialnej mózgu - a więc jak wożę przetrwać aspekt psychiczny? Jaki miałby to być rodzaj aktywności, jeśli nie brałaby w niej udziału żadna energia fizyczna? Jeżeli mózg miałby przyj­mować informację w Bogu (jak utrzymują niektórzy teologowie), to powstaje wtedy trudność opisania tej informacji, która obejmuje sobą również takie niematerialne elementy jak nieśmiertelny umysł i duszę. Tych form, jako znajdują­cych się poza obrębem czasu i przestrzeni, nie daje się określić ilościowo. Lecz informacja, którą ty i ja mamy w naszych mózgach, ma swój fizyczny odpo­wiednik w postaci pamięci. Jeżeli po śmierci pamięć zanika, to musi zanikać również wraz z nią i nasza informacja. Nie możemy dlatego utrzymać naszej osobistej tożsamości po śmierci. Problem ten nigdy nie znalazł rozwiązania i nie widzę sposobu, aby tego dokonać.

Ten moment wydaje się najwłaściwszy dla podniesienia kwestii, która stanowi podstawę powyższego problemu. W jaki sposób można by rozsądnie dyskutować o wielkościach niematerialnych? Próbując opisywać coś komuś drugiemu, próbujemy nadać sens naszemu opisowi, powiedzmy, zachodu słoń­ca, który widzieliśmy poprzedniego wieczoru, używając przymiotników w ro­dzaju piękny, promienny itp., lecz nie jesteśmy pewni, czy osiągnęliśmy co­kolwiek oprócz zaledwie ogólnego obrazu sceny i naszej na nią reakcji. Jeże­li podałbym wartości liczbowe długości fali każdego koloru w każdym mo­mencie zdarzenia, mógłbym wtedy podać dużo dokładniejszy opis, który sta­nowiłby pomoc w wyobrażeniu sobie sceny przez kogoś drugiego. Wydaje się, że jest to przykład wspierający zasadę: Tylko wtedy, gdy można ilościo­wo określić to, co się opisuje, można przekazać komuś informację, która na­daje się do zweryfikowania przez innych. Niemal z definicji wynika, że nie­materialne jest również nieokreślone ilościowo (jaki jest ciężar, długość czy kolor umysłu lub Boga?). W jaki więc sposób można by opisać innym (a tym samym sobie samemu) jakąś niematerialną formę?

Podsumowując zatem, możemy stwierdzić, że nauka przeszłości w sposób naturalny doprowadziła do poszukiwania dzisiaj takiej JTP, którą dałoby się wyrazić jako układ równań matematycznych. Teista będzie prawdopodobnie ostro krytykował każdą taką teorię za jej brak możliwości dostarczenia odpo­wiedzi na co najmniej dwa lub nawet trzy trudne pytania; każda teologia warta swej nazwy jest zdolna odpowiedzieć na nie wszystkie. Jednakże odpowiedzi udzielone przez religie nie wydają się ani zbyt jasne, ani doprawdy zbyt udane.


Pułapki przewidywania


Optymistów naukowych można zaatakować ze względu na ich dumę, która pozwala im wygłaszać twierdzenia daleko wykraczające poza ich wiedzę. Powinni dostrzec liczne przykłady prognoz, które nie wytrzymały najkrótszej nawet próby czasu. Lord Rutherford, ojciec jądra atomu (nazwany tak z uwagi na swoje odkrycie istnienia w każdym atomie jądra, w którym koncentruje się prawie cała masa atomu), w 1932 roku powie­dział: Nigdy me pokonamy sił jądrowych. Zaledwie po upływie kilku lat w Nowym Meksyku eksplodowała pierwsza bomba atomowa, a wkrótce potem zrzucono dwie inne, niszcząc dwa miasta w Japonii. Był również prezes poczty brytyjskiej, który po odkryciu telefonu przez Aleksandra Gra­hama Bella, miał powiedzieć: Nie potrzebujemy telefonów; mamy do dys­pozycji mnóstwo posłańców. Na przełomie stulecia pewien wybitny nauko­wiec stwierdził, że już nic nie pozostało do odkrycia. W tym samym mniej więcej czasie inny wybitny naukowiec powiedział: Nauka osiągnęła swój kres. Pozostaje jedynie kwestia uzupełnienia dalszych miejsc po przecinku.

Jeżeli zastanowimy się nad wzlotami i upadkami teorii wszystkiego, od początków racjonalizmu w starożytnej Grecji aż do dzisiaj, dojdziemy do wniosku, że szansę aa to, by właśnie teraz teoria JTP stała się teorią osta­teczną, wydają się niewielkie. Jakby na to nie patrzeć, JTP będzie musiała odpowiedzieć na większość trudnych pytań postawionych w przeszłości. Rozpocznę teraz przedstawianie moich własnych odpowiedzi na te pytania.

4. Rozwiązania naukowe


Kreacja z niczego


Trudno sobie wyobrazić powstanie czegoś z niczego. W pierwszym wer­secie Genesis napisano: Na początku stworzył Bóg niebo i ziemię. Jed­nakże nie podaje się tam szczegółowych wyjaśnień, jakiego materiału użył Bóg w tym procesie; co ważniejsze, nie mówi się, skąd taka substancja miałaby - w razie potrzeby - pochodzić. Bóg stworzył to wszystko z niczego czy też z czegoś już istniejącego? Pomimo to możemy akceptować opisane przez Biblię wyjaśnienie, ponieważ podświadomie uważamy Boga za posia­dającego pod ręką wszystkie wymagane atrybuty. Można by nawet powie­dzieć, że Bóg jest Wielkim Konserwatystą, jako że dał możliwość przejrzenia ksiąg bilansowych największego aktu stworzenia wszechczasów. Nie uczy­nił istnień ułomnymi, zainicjował jedynie cykl istnienia rzeczy. Skąd się wzięły materia i energia potrzebne do zbudowania wszechświata? Był to Bóg - można by powiedzieć część Niego samego. W jakiej przestrzeni i czasie dokonywał się ów akt kreacji? Znów można by odpowiedzieć, że stanowiły one część osoby Boga.

Ostatnie osiągnięcia nauki pozwoliły roić o takim scenariuszu aktu stwo­rzenia, który wymagałby interwencji boskiej w coraz to mniejszym stop­niu. Niektórzy naukowcy utrzymuj ą nawet, że obecność lub działanie Boga podczas tej najwcześniejszej fazy można by uznać za mało znaczącą i jako taką - pominąć. Ujęcie takie odpowiadałoby temu, co w koncepcjach laic­kich ujmowane jest jako powstanie porządku z chaosu. Jednakże, zanim zajmiemy się cudownym wyłonieniem się konkretnej struktury z jakiejś formy bezpostaciowej, musimy uzyskać kryształową jasność, ile dokładnie trzeba zbudować tej struktury, by można było mówić o powstaniu czegoś z pustki.

Energia we wszechświecie jest magazynowana w postaci albo energii przyciągania grawitacyjnego galaktyk, albo w postaci energii kinetycznej ich ruchu (energia „mc2" Einsteina) (Przyp. tłum. W tym miejscu autor jest co najmniej nieprecyzyjny, pomijając już fakt, że w oryginale brak jest wykładnika potęgi 2 w słynnym wzorze Einsteina). Grawitacja, z uwagi na to, że ma charakter przyciągania, może być pomocna w zmniejszeniu problemu z rów­nowagą energetyczną w chwili stworzenia. Przyciąganie grawitacyjne pomię­dzy masywnymi ciałami oznacza, że energia ma wartość ujemną (aby oddzielić ciała od siebie, należy dostarczyć energii z zewnątrz), a więc może zrów­noważyć energię kinetyczną ciał. Wyobraźmy sobie siłę grawitacyjną pomiędzy dwoma cząstkami jako rozciągnięty pomiędzy nimi sprężysty sznurek i że w pewnym momencie, gdy cząstki najbardziej oddalą się od siebie, pusz­czamy je swobodnie. Zaczną się wtedy do siebie zbliżać, przyspieszane ener­gia sprężystości zmagazynowaną w sznurku. Energia sprężystości (grawitacji) zamienia się w energię ruchu (kinetyczną). Nabywając energii cząstki będą nabywać masy (energia=mc2). Mogą stać się wtedy tak ciężkie, że mogą rozpaść się na mniejsze cząstki. Na tej drodze mogłaby powstawać nowa materia wywodząca się nie z pustki, lecz z przekształcenia się energii grawi­tacyjnej w masę.

Można dokonać obliczeń wykazujących, że jeżeli do całej ujemnej energii grawitacyjnej galaktyk dodamy energię mc2 tych galaktyk, to suma będzie łowna zeru. Ten zadziwiający fakt nie ma żadnego rzeczywistego wytłuma­czenia, jest jedynie oczywistym następstwem. Konto bankowe energii całko­witej pozostanie puste. Dlatego, jako całość, wszechświat nie kosztowałby nic; dodatni koszt wytworzenia nowej materii byłby zrównoważony na kon­cie po stronie energii grawitacyjnej. Doświadczenie przekonuje nas, że cał­kowita energia, równa sumie energii grawitacyjnej i kinetycznej, pozostaje niezmienna. Jeżeli miałby nastąpić kiedyś Wielki Zgniot (Przyp. tłum. Ana­logia do Wielkiego Wybuchu), to wszystkie galaktyki przestaną się w pew­nym momencie od siebie oddalać i zaczną na siebie nawzajem spadać, by w końcu zlać się, przy czym spodziewamy się, że obydwie postacie energii (ujemna energia grawitacyjna i dodatnia energia kinetyczna) dokładnie się zrównoważą. Po Wielkim Zgniocie nie pozostanie nic. Konto całkowitej energii zostanie zamknięte. Wszechświat przestanie istnieć jako obiekt posiadają­cy jakąkolwiek postać energii. Nic nie będzie na stole w restauracji końca wszechświata Douglasa Adamsa. Wszystko będzie mrokiem.

Scenariusz ten wymaga paru dodatkowych wyjaśnień. Po pierwsze: musimy dowiedzieć się, w jaki sposób obiekty, które nas otaczają, planety, gwiazdy galaktyki, mogły powstać z bezpostaciowego nieładu. Nie musi być to tak trudne, ponieważ staje się jasne, że z chaosu może narodzić się porządek. Zdarza się to w nas samych, w wyniku wzrostu naszych ciał, które absorbują energię z otoczenia i przekształcają ją w konkretną tkankę. Zaczynamy rów­nież rozumieć, w jaki sposób mogłoby się to zdarzać na różnych poziomach materii, nawet w tak małej skali jak cząstki elementarne. Idea przypomina w pewnym stopniu sławne uszy bajkowego przechwalacza, niemieckiego barona Münchausena. Utrzymywał on mianowicie, że kiedyś zdarzyło mu się uratować od utonięcia w bagnie, tylko dlatego, że wyciągnął sam siebie za uszy. Sugeruje się, jakoby cząsteczki elementarne oddziałując wzajemnie na siebie, stwarzały jedynie pewien szczególny zestaw samych siebie (i żadnych innych), tak jakby mógł zachodzić proces wyciągania się za uszy. Tak jakby te cząstki mogły się wzajemnie ciągnąć za uszy (co w tym przypadku byłoby odpowiednikiem sił pomiędzy nimi) i stwarzać się w ten sposób z niczego, na podobieństwo barona Münchausena, który uratował się bez żadnej wi­docznej pomocy z zewnątrz. Proponuje się uznany teraz przez naukę scena­riusz stworzenia wysoce wyspecjalizowanego wszechświata z niczego, na drodze procesu podobnego do ciągnięcia siebie samego za uszy, skojarzone­go z lokowaniem na koncie materii energii pobieranej z ujemnego konta gra­witacji (pamiętamy, że suma kont energii materii i grawitacji pozostaje nie­zmienna i przyjmujemy, że jest równa zeru). Drugim problemem wymagają­cym wyjaśnienia jest czas, w którym akt stworzenia miał miejsce. Zauważmy przy tym, że mówimy tu o czasie, tak jakby on już istniał w postaci jakiegoś wiecznego zegara, określającego, kiedy i jak długo zdarzenie to miało miejs­ce. W następnej części dokładniej rozpatrzymy, jak ominąć ten problem. Za­kładając teraz, że taki niezależny czas istnieje, w jaki sposób i kiedy wszech­świat mógłby się w nim narodzić?

Wydaje się, że łatwiej odpowiedzieć, w jaki sposób niż kiedy. Aby odpo­wiedzieć kiedy, nie wystarczą idee fizyki klasycznej, według których cząstka w określonym czasie znajduje się w określonym miejscu i ma określoną pręd­kość. Pewność taka nie pozwala na nagłe powstawanie i znikanie cząstek i dla­tego musimy przejść do mechaniki kwantowej, gdzie jest możliwa przypad­kowa ich kreacja. W wielu akceleratorach, choćby w Genewie, dostrze­żono zjawisko kreacji cząstek. Wiemy więc, że takie przypadkowe wydarze­nia mają miejsce pod warunkiem, że dostarczymy energii odpowiadającej tworzącej się masie.

Sugeruje się zatem, że wszechświat powstał jako fluktuacja kwantowa próżni. Można by po prostu powiedzieć, że wystrzelił w istnienie. Zauważy­liśmy przedtem, że pozostał po tym znaczny dług grawitacyjny, który musi zostać zwrócony podczas Wielkiego Zgniotu. Powstaje teraz poważny pro­blem czasu, w którym pojawił się wszechświat. Ponieważ założyliśmy, że czas płynął niezależnie i niezmiennie od zawsze, nie da się odróżnić żadnej chwili od innej. Wydaje się więc niemożliwe wybranie spośród innych jakie­goś konkretnego czasu, kiedy miał miejsce akt kreacji wszechświata. Wszyst­ko, co ewentualnie moglibyśmy na ten temat powiedzieć, to jedynie określić prawdopodobieństwo powstania wszechświata w jakimś konkretnym prze­dziale czasowym. Jeżeli nasz wszechświat powstał w jednym przedziale cza­sowym, to inne wszechświaty mogłyby powstać w innych przedziałach. Ponieważ podchodząc do problemu w ten sposób zakładamy, że czas pły­nie od zawsze (nie czas powstaje, a wszechświat), to możemy spodziewać się istnienia nieskończonej liczby wszechświatów. Każdy z nich mógł powstać inaczej. Jednakże nie widać żadnego śladu kolizji pomiędzy nimi. Rozkład materii w naszym wszechświecie wydaje się doskonale gładki i jednorodny. Nie widać żadnych oznak tarcia czy napięć, które musiałyby powstawać, gdyby zdarzały się takie kolizje. A więc idea wszechświata jako fluktuacji kwanto­wej, w płynącym od nieskończoności strumieniu czasu, jest trudna do obro­ny. Jakby na to nie patrzeć, przy założeniu, że czas (i przestrzeń) jest sam przez się zrozumiały, można, jak widzieliśmy, wyobrazić sobie powstanie wszechświata bez konieczności rujnowania całkowitego bilansu energetycz­nego, jednakże nie da się zbudować samego czasu i przestrzeni. Nie wystar­czy to dla nowoczesnych rozważań.


Bez początku


Następnym krokiem jest próba zbudowania teorii przestrzeni i czasu, które byłyby ściśle skojarzone z materią, której kreacji towarzyszyłoby jednoczesne powstanie samej przestrzeni i czasu. Wymaga to rezygnacji z koncepcji transcendentalnej przestrzeni i czasu, w której nie ma miejsca na chaos dynamicznego istnienia. Isaac Newton wierzył jeszcze w poje­dynczą przestrzeń i niezależny od niej czas, w obszarach których poruszają , się planety, łącznie z Ziemią. Albert Einstein w 1905 roku wykazał w swo­jej szczególnej teorii względności, że czas i przestrzeń są zależne od sposo­bu, w jaki są obserwowane. Jego sławne powiedzenie, że poruszające się zegary chodzą wolno, które będzie wyjaśnione później, wyraźnie wskazu­je, że tempo, w jakim zegar chodzi, zależy od jego ruchu. Einstein wykazał również, że linijka pomiarowa poruszająca się w kierunku ruchu, kurczy się w stosunku do takiej samej linijki będącej w spoczynku. Lecz przestrzeń i czas w szczególnej teorii względności pozostają nadal zewnętrznymi wiel­kościami, poza tym że są one uzależnione od sposobu poruszania się kogoś, kto je mierzy. Nawet we wszechświecie pozbawionym zupełnie materii, taka przestrzeń i czas istniałyby nadal. Tak wyglądał stan nauki dopóki Ein­stein, w 1916 roku, nie ogłosił swojej ogólnej teorii względności, która umożliwiła ścisłe powiązanie czasoprzestrzeni z materią. Osiągnął to po­przez ujrzenie w materii źródła struktury czasoprzestrzeni, w której ta ma­teria się porusza. Struktura ta jest szczegółowo określona za pomocą odle­głości pomiędzy parami zdarzeń. Zbiór takich odległości zdarzeń umożli­wia triangulację czasoprzestrzeni w taki sam sposób, jak można wykonać mapę geodezyjną działki budowlanej. Jeżeli rozkład materii jest znany, można wyliczyć odpowiadającą mu mapę geodezyjną odległości, a po po­równaniu obydwu okazuje się, że doskonale zgadzają się ze sobą, choćby w przypadku ruchu planet.

W ogólnej teorii względności Einsteina czas nie jest już całkowicie zde­finiowany, lecz może być określony, na przykład, zegarami poruszającymi się z różnymi prędkościami, z których żadna nie jest uprzywilejowana. Jest to na pozór ta sama sytuacja co w szczególnej teorii względności (gdzie, obserwatorowi będącemu w spoczynku, poruszające się zegary wydawały się chodzić wolno). Jednakże jest ona teraz bardziej krytyczna, ponieważ nie można już sobie wyobrazić, jakiego by użyć czasu, aby pomierzyć po­stęp wydarzeń. Załóżmy, że takiego wyboru można jednak dokonać (nic ma ku temu żadnych zasadniczych przeszkód). Natkniemy się wtedy na dużo trudniejszy problem: powiązania teorii Einsteina z fluktuacjami po­wstającymi w obrębie mechaniki kwantowej, tak aby wytłumaczyć powsta­nie zarówno przestrzeni i czasu, jak i materii w jednym akcie kosmicznej kreacji. Pozostaje jedynie żywić nadzieję, że uda się pokonać problem po­legający na uniknięciu kreacji nadmiarowych wszechświatów (których ist­nieniu przeczy rzeczywistość) oraz na wyjściu poza obręb tego wszech­świata, aby wytworzyć przestrzeń i czas całego kosmosu.

Istnieją liczne przeszkody w skonsumowaniu mariażu mechaniki kwan­towej z grawitacją, z czego miałaby się narodzić grawitacja kwantowa. O barierach tych wspomniano w rozdziale 3, a do szczegółów wrócimy później. Niezależnie od formy, jaką przyjmie ostatecznie ta teoria, mc należy się spodziewać, że uda się w jej obrębie umieścić czas. W jakikol­wiek sposób wyobrażalibyśmy sobie czas, to musi on wynikać ze sposobu modyfikacji wszechświata, tak by zmianę tę można było opisać w najbar­dziej prawidłowy sposób. Jakiekolwiek by były wyniki badań, to prowa­dzą do nowego problemu, zwanego problemem wartości początkowej: w jakim stanie znajdował się wszechświat w chwili stworzenia? Wyda­wać by się mogło, że samo użycie słowa „stworzenie" implikuje stwarza­nie w czasie. Zwróciliśmy już uwagę, że spodziewamy się odkryć kandy­dujące czasy na drodze skrupulatnej analizy takiego układu. Doprowadza to do kolejnej kwestii: wybrania jednego specjalnego stanu wszechświata ze wszystkich innych możliwych. Oznacza to, że musimy poznać powody wielości galaktyk pewnego rodzaju i tak wielu cząstek obdarzonych pew­nymi właściwościami oraz dlaczego nie jest odwrotnie.

Spróbujmy ominąć konieczność odkrycia tego specjalnego stanu poprzez wydzielenie mechaniki kwantowej. Jeżeli po prostu zastosujemy ogólną teo­rię względności Einsteina, to dojdziemy do równań, w których materia i gra­witacja działają w czasie. Lecz aby dowiedzieć się, jaki rodzaj działalności odbywa się w danej chwili, musimy znać jej stan w bezpośrednio poprzedza­jącej chwili. Możemy cofać się w tym procesie coraz dalej w przeszłość, lecz zawsze będziemy stali przed problemem określenia działalności, która miała miejsce we wcześniejszej chwili. Wydaje się, że nie uda się uniknąć proble­mu wartości początkowej: jaki był pierwotny stan materii we wszechświecie, tuż po kreacji?

Jednym ze sposobów jest cofanie czasu coraz bardziej, by wreszcie stwierdzić, że wszechświat istniał zawsze. Jest to idea, do której na krót­ko powrócimy, lecz już teraz widzimy, że nie można w jej ramach umie­ścić równań Einsteina, praw fizyki klasycznej odnoszących się do materii oraz obserwowanych faktów ucieczki galaktyk. Jak już wcześniej zauwa­żyliśmy, jeżeli śledzimy ruch galaktyk wstecz w czasie, to musimy dojść do wniosku, że około piętnastu miliardów lat temu wszystkie były skupio­ne w jednym punkcie. Przed tą chwilą materia wszechświata znika i dla­tego przestają funkcjonować prawa fizyki klasycznej, ponieważ nie są zdolne opisać kreacji czy anihilacji materii. I tak wprowadzenie mechani­ki kwantowej stałoby się w końcu konieczne, a wtedy, jak już mówiłem, nie daje się w naszym opisie wyraźnie uwzględnić czasu.

Alternatywnym podejściem byłoby założenie, że wszechświat oscy­luje bez końca rozszerzając się-skupiając-rozszerzając-skupiając. Napo­tykamy wtedy trudność wyjaśnienia odskoku (tuż po maksymalnym sku­pieniu), którego nie da się wytłumaczyć za pomocą jedynie fizyki klasycznej (włączając ogólną teorię względności). W ten sposób jesteśmy Zmuszeni rozstrzygnąć, w jaki sposób grawitacja kwantowa mogłaby opisać początek wszechświata, a szczególnie dlaczego stan z wyłonionym z niczego wszechświatem jest bardziej prawdopodobny niż jakiś inny.

Wiele było prób znalezienia szczegółowego opisu wyjątkowego stanu kwantowego wszechświata, lecz jak dotychczas żaden z nich nie uzyskał cał­kowitej aprobaty. Żaden z nich nie znalazł również potwierdzenia doświad­czalnego. Jedna z takich prób, podjęta przez Stephena Hawkinga i jego ame­rykańskiego kolegę Jamesa Hartle'a, polega na przyjęciu możliwości cztero-wymiarowej czasoprzestrzeni, w której mogłaby ewoluować trójwymiarowa przestrzeń. Podstawowym trikiem, który wykorzystali w swoim modelu, było założenie, że czas ma charakter urojony (i należy mnożyć go przez pierwiastek z -1). W ten sposób czas i przestrzeń upodabniają się; czas urojony może biec wkoło, dokładnie tak jak można poruszać się w przestrzeni. Trudności związane z przesuwaniem się wstecz w czasie znikają. Można to sobie wyobrazić tak, jak byśmy żyli na obwodzie koła. Idąc dalej, czas można wyobrazić sobie jako dwuwymiarową powierzchnię podobną do bańki mydlanej, wydmucha­nej z kołowego metalowego pierścienia, który ją podtrzymuje. Czterowymiarowe czasoprzestrzenie, w których żyjemy, są podobne do powierzchni ba­niek mydlanych; ich trójwymiarowe granice (z których ewoluują) są podob­ne do pierścienia podtrzymującego. Takie podejście prowadzi do wyjątkowe­go stanu i do interesujących właściwości uproszczonych modeli.

Inne modele zakładają takie warunki początkowe na stan trójwymiaro­wej przestrzeni, że stają się one nieskończenie małe, na podobieństwo czar­nych dziur (ponieważ w kwantowym stanie wszechświata uwzględnia się możliwość występowania różnych trójwymiarowych geometrii, włączają w to tak nieprzyzwoite, jak czarne dziury). To podejście prowadzi do intrygują­cych właściwości takich uproszczonych modeli. Podczas gdy takie idee są dopiero możliwymi scenariuszami ciągle rozwijanych modeli roboczych, to możliwości te wskazują, że może uda się znaleźć pewien rodzaj więzów, któ­re spowodują powstanie stanu wszechświata zgodnego z jego późniejszym rozwojem i naszymi obecnymi obserwacjami. Czy zatem można dojść do wniosku, że takie podejście skojarzone z JTP umożliwiającą wyliczenie sta­nu wszechświata może doprowadzić do końca fizyki teoretycznej?


Dlaczego właśnie ta JTP?


Możliwość końca fizyki teoretycznej bierze pod uwagę wielu naukow­ców i niektóre z tych wypowiedzi omówiłem wcześniej. Opinie te wspieraj ą się na widocznym dążeniu do szybkiego znalezienia teorii wszystkie­go co objawia się sformułowaniem najpierw teorii supergrawitacji, a później superstrun, które miałyby stanowić rozwiązanie problemu zbudowania do­brej teorii grawitacji kwantowej. Poczuciu euforii, wywołanym tymi postę­pami, towarzyszyły trafiające do wyobraźni scenariusze kwantowej kreacji wszechświata, naszkicowane poprzednio.

Czy zbliżywszy się już tak bardzo do świętego Graala, odważny opty­mizm dałby się dobrze uzasadnić? Aby rozpoznać niebezpieczeństwo zala­nia potokiem słów pojawiających się ostatnio na ten temat w popularnej prasie, włączając popularne (lecz niekoniecznie zrozumiałe) wypowiedzi zwolenników, co może wyprowadzić na manowce, musimy przyjrzeć się, co znajduje się pod powierzchnią tych atrakcyjnych form nowoczesnego żargonu naukowego. Ważnym pytaniem, na które musimy odpowiedzieć, jest to, jakiego rodzaju teorię należy zastosować, aby wyjaśnić kreację ko­smosu. Dostarczyłaby ona z pewnością klucza do zrozumienia natury ja­kiejś głębszej JTP. Doszliśmy poprzednio do wniosku, że rozsądny scena­riusz mógłby wynikać z kwantowego podejścia do kreacji. Lecz opierałby się on na dwóch teoriach, mechaniki kwantowej i grawitacji, które same, do ich unifikacji, wymagają jakiejś podstawowej teorii w rodzaju superstrun. Musimy dlatego rozważyć naturę JTP na przykładzie prób wykorzystania superstrun do wyjaśnienia kreacji wszechświata.

Przedstawione uprzednio scenariusze (umieszczone w pracy Hawkinga i innych) oraz wiele innych przemawiają do wyobraźni, lecz ich podbudowa wydaje się niekompletna. W granicznych stanach wszechświata wyróżniają grawitację jako wielkość o kluczowym znaczeniu. Nie powinniśmy zatem akceptować twierdzeń wyjaśniających jakoby powstanie wszechświata, jako mających związek ze statusem JTP. Rozpatrzmy status istnienia JTP w spo­sób bardziej bezpośredni.

Pytanie, dlaczego właśnie ta JTP? zakwalifikowaliśmy przedtem do ka­tegorii pytań, na które brak odpowiedzi. Stwierdziliśmy, że odpowiedź na­ukową można by otrzymać jedynie po zapewnieniu, że wszystkie przewidy­wania wynikające z wybranej JTP pasują do wszystkich możliwych obser­wowanych faktów. Taka weryfikacja może być prowadzona dotąd, dopóki zezwala na to wybrana metoda naukowa. W przeszłości istniało wiele teorii tego typu, poczynając od talesowskiej wszystko jest wodą, lecz obecnie tylko niewiele z nich ma jakieś znaczenie. Wśród tych ostatnich można by wykorzystywać argumenty antropoficzne, przekonywające, że tylko z tej konkretj JTP wynika powstanie życia, a inne teorie kandydujące do statusu JTP nigdy nie stwarzają w ramach ewolucji wszechświata odpowiednich warun­ków do powstania życia, a więc i możliwości dyskutowania o samym pytaniu. Takie podejście nadal nie wydaje się zadowalające, tak jak nie było wcze­śniej. Prawdą jest, że nasze świadome istnienie musi wynikać z JTP i z prze­widywanej przez nią ewolucji wszechświata, lecz nasze istnienie i jego natu­ra stanowi jedynie jedno z wielu rzeczywistych ograniczeń nałożonych na JTP. Nie ma powodu, by wynosić to do dogmatu religijnego.

Innym popularnym stanowiskiem jest twierdzenie, że istnieje jakiś me­chanizm selekcyjny dokonujący wyboru konkretnej JTP z całego zbioru wszystkich dostępnych kandydatek. Dokładna natura tego zbioru jest oczy­wiście dyskusyjna, a więc również kryterium, które można by zastosować. Aby uniknąć sprowadzenia całej dyskusji do osobistych preferencji, zasu­gerowano, że istnieje jakiś inteligentny generalny wybierający, który doko­nuje tego wyboru poza naszą wiedzą. W ten sposób powracamy do jakiegoś rodzaju Boga, który ma się za tym wszystkim kryć, co stanowi rozwiązanie, którego próbuję uniknąć, odkąd ustaliłem, że nie wnosi ono żadnych no­wych szczegółów. Ponadto, jeśli wierzymy, że Bóg jest najlepszym mate­matykiem ze wszystkich, to poziom wiedzy matematycznej wymagany, by określić JTP, może pozostać na zawsze poza naszym zasięgiem.

Wspomniano przedtem o samoistnym mechanizmie odpowiedzialnym za powstawanie porządku z chaosu, a w szczególności za powstawanie obser­wowanych cząstek elementarnych. Czy nie moglibyśmy wykorzystać podob­nego mechanizmu do wyprowadzenia teorii, żeby tak powiedzieć z siebie samej, i w ten sposób wybrać tę jedyną JTP, którą jak się utrzymuje jeszcze niezbyt wyraźnie teraz dostrzegamy? Niestety, pomijając już brak elegancji takiego pomysłu, wydaje się, że podobny mechanizm nie funkcjonowałby w tym przypadku. Jak już powiedziałem wcześniej, nie można budować teorii opierając się na jej własnych przesłankach. Stwierdzenie to jest równoważne zdaniu, że teoria nie może powstać w wyniku zadziałania jakiegoś samoist­nego mechanizmu.

Podsumowując, wydaje się, że nie jesteśmy zdolni do znalezienia jakie­goś sensownego sposobu weryfikacji JTP, a na dodatek czujemy się oszukani będąc niezdolni do udzielenia odpowiedzi na pytanie dlaczego właśnie ta JTP? Ponadto może się wydawać, że doprowadzono do kwestii istnienia w ogóle jakiejś JTP, jako że kolejne teorie powstałe od czasów rewolucji naukowej nie dostarczaj ą żadnych przesłanek, że zbliżamy się do jakiegoś końca. Zaj­mijmy się tym aspektem zagadnienia nieco bliżej.

Na każdym szczeblu rozwoju nauki następuje krytyczny moment powsta­nia i weryfikacji nowej teorii, która ma zastąpić dotychczasową i która jak się utrzymuje lepiej tłumaczy starą. W ten sposób klasyczne prawa mechaniki (słyn­ne prawa ruchu Newtona) można wyprowadzić z podstawowej mechaniki kwan­towej pod warunkiem, że każda cząstka podlegająca badaniom jest na tyle ciężka by można przyjąć, że prawdopodobieństwo znalezienia jej w jakimś punk­cie w przestrzeni sprowadza się do pewności, jaką daje analiza położenia kuli bilardowej. Istnienie całego łańcucha teorii tłumaczących się nawzajem, w ten czy inny sposób, jest cechą charakterystyczną świata, w którym żyjemy. Jeżeli szereg teorii byłby nieskończony, to wszystko, włączając każdą teorię, miałoby swoją przyczynę. Łańcuch ten nie skończy się jednakże nigdy, ponieważ jeśli­by to miało nastąpić, końcowym ogniwem byłaby JTP powstała bez pierwotnej przyczyny, co jak już wspomniałem jest niemożliwe. Pozbawiłoby to nas jakiej­kolwiek szansy na dający się zawsze podać związek przyczynowy każdej teorii łańcucha za pomocą następnej teorii.

Można by w tym momencie powiedzieć, że ten cały gmach nieskończo­nego szeregu teorii sam nie ma swojej pierwotnej przyczyny. Patrząc na to w ten sposób, rzeczywiście mamy poważny kłopot, lecz musimy pamiętać, że łańcuch teorii jeszcze me odkrytych nie jest jeszcze teorią. Wszystko, co możemy zdziałać w nauce, to zbadać teorię w obrębie jej granic. Jeżeli ja­kaś teoria już istnieje, to chcąc wprowadzić inną, która by ją zastąpiła, mu­simy wyjaśnić poprzednią wzdłuż linii zakreślonych wyżej. Nie wydaje się, aby istniał jakiś sposób naukowej weryfikacji szeregu teorii, które tworzy­my w naukowej odysei. Faktycznie, za każdym razem, gdy mamy do czy­nienia z nową teorią (lub teoriami), myślimy o jej ważności w danej chwili, a nie o teoriach uprzednio odrzuconych. Ponadto, natura łańcucha teorii ni­gdy nie ukaże się w całej pełni, ponieważ przy takim podejściu zawsze po­zostanie nieskończona liczba teorii jeszcze nie odkrytych, z których każda zastępuje poprzednią. Możemy domniemywać, jakie są następne szczeble i to może pomóc w ciągu nie kończących się zagadek, lecz natura jakichś samopowstających teorii z innych teorii pozostanie na zawsze nieuchwyt­na. Miałaby ona bowiem sama charakter JTP i jeżeli wymagamy, by za­wsze istniało przyczynowe wyjaśnienie każdej teorii naukowej, to musimy pogodzić się z tym, że teoria taka jest ułudą.

Dlaczego, dążąc do zrozumienia wszechświata, pokładamy tyle ufności W nauce? Dlaczego nie odwołać się do Boga, zamiast podążać do jakiegoś wyimaginowanego kresu. Jednym z powodów jest to, że jak już wspominali­by tylko za pośrednictwem nauki możemy uzyskać pewność, czym tak na-Prawdę jesteśmy. Tylko wtedy możemy wykorzystać tę pewność do dowie­dzenia się, czym jest wszechświat. Jedynie na drodze kwantyfikacji, szcze­gólnie poprzez opisanie rzeczywistości równaniami matematycznymi, wszech­świat da się wyjaśnić. Odnosi się to nie tylko do naszego zrozumienia, lecz również do naszej zdolności do współistnienia. Wygląda na to, że nie będziemy potrafili połączyć różnych elementów wszechświata, dopóki przyszłe dzia­łania nie staną się wyznaczalne liczbowo. Jest to lekcja, której dotąd powin­niśmy się nauczyć; wszystkie teorie, które okazały się przydatne od czasów rewolucji naukowej, były wyrażone właściwie w języku matematyki. Dlate­go wszystkie teorie dotyczące wszechświata powinny mieć matematyczną postać i powinny być uzupełnione najwyżej zbiorem pewników odnoszących się do pewnych podstawowych wielkości (cząstki, pola itp.). Jedynie w ten sposób ewolucja wszechświata będzie opisana na podstawie dobrze zdefinio­wanych podstaw i kierowana przez precyzyjne prawa matematyki.

Dochodzimy więc do obrazu wszechświata jako nieskończonego zbio­ru różnych poziomów. Każdy z nich jest opisany i rządzony przez dobrze określony zbiór teorii wyrażonych w postaci matematycznej. Teoria z każ­dego poziomu jest wyjaśniona teorią z poziomu niższego. Na przykład me­chanika klasyczna Newtona może być wyjaśniona poprzez wyprowadzenie jej z podstawowej mechaniki kwantowej. Tę ostatnią można wyprowadzić z bardziej kompletnej teorii pól kwantowych itd. Tak więc na pytanie dla­czego właśnie ta JTP?, trzeba odpowiedzieć w terminach naukowych do­piero po zastąpieniu JTP inną współczesną teorią naukową.

Prowadzi to mnie do przekonania, że nie ma żadnej ostatecznej JTP, lecz tylko łańcuch teorii naukowych objaśniających wszechświat z coraz większą dokładnością. Każda nowa teoria zastępuje poprzednią i odpowiada na pyta­nie dlaczego, formułowane w odniesieniu do starej teorii; nowa będzie mieć większą moc wyjaśnienia, co umożliwi dopasowanie faktów, które opierały się poprzedniej, odrzuconej teraz teorii. Wydaje się, że jedynie w ten sposób nigdy nie pogwałcimy zasady przyczynowości. Wszechświat nie tylko jest tajemniczy, ale zawsze taki będzie.


Świadomość


Mózg kręgowców ewoluował przez ponad pięćset milionów lat ich historii. Ślady szczegółów tej ewolucji zachowały się w skamieniało­ściach. Ptaki i ssaki uważa się za kręgowce wyższe, ponieważ są wyposa­żone w większy mózg niż inne, niższe kręgowce. Można nawet wyrazić tę różnicę ilościowo jako stosunek całkowitego rozmiaru mózgu do rozmiaru ciała podniesionego do potęgi dwie trzecie (taki wykładnik potęgi sprowa­dza sprawnie objętość ciała zwierzęcia do jego powierzchni, co stanowi wymagany współczynnik liczbowy). Stosunek ten, nazywany współczyn­nikiem encefalizacji, ma mniej więcej taką samą wartość dla wszystkich gadów, zarówno żyjących współcześnie, jak i wymarłych. Ptaki i ssaki wyewoluowały z dwóch różnych podklas gadów. Wzrost mózgu ssaków nie nastąpił skokowo, lecz postępował w stałym tempie (z rozwojem mózgu czterokrotnie szybszym niż u innych kręgowców), poczynając od chwili sprzed stu siedemdziesięciu milionów lat, przez następne sto milionów lat. W ciągu ostatnich sześćdziesięciu pięciu milionów lat miała miejsce szyb­sza, lecz wciąż stała, ewolucja mózgu, aż do jego obecnej wielkości, dla takich ssaków jak: drapieżniki, małpy, a w szczególności małpy bezogonowe. Człowiek pasuje do tego schematu rozwoju mózgu, przy czym, jako przybysz bardzo niedawny, osiągnął rozmiary mózgu w ciągu zaledwie ostat­niego miliona lat; w tym czasie rozmiar tego narządu podwoił się.

Było to prawdopodobnie spowodowane tym, że osobniki obdarzone więk­szym mózgiem miały zdecydowanie większe szansę na przeżycie. Należy przy­puszczać, że ewolucyjny wzrost mózgu powodował wzrost zdolności psychicz­nych. W szczególności większy mózg umożliwił pojawienie się pamięci, w której były przechowywane obrazy zewnętrznych zdarzeń oraz środowiska. W miarę jak rozmiar mózgu powiększał się, to zapamiętywane informacje stawały się coraz bardziej użyteczne w planowaniu przyszłych działań (przez odwołanie się do doświadczeń przeszłości). Można było przywoływać obrazy wewnętrz­ne i wykorzystywać je do sprawnego planowania przyszłości, co rozwijało wy­obraźnię. Zgodnie z zasadą, że przeżywają najlepiej przystosowani, coraz więk­sze możliwości ludzkiego mózgu dawały jego właścicielowi przewagę nad mniej rozgarniętymi. Był to początek przewagi umysłu nad materią.

Gdzie w procesie ewolucji znaleźć miejsce, w którym można byłoby do­strzec umysł i materię oddzielone od siebie albo w którym umysł jest w jakiś sposób przyłączany z zewnątrz. Na przykład kreacjoniści kwestionują cią­głość procesu ewolucji. Teiści utrzymują, że umysł musi być czymś więcej niż jedynie właściwością fizyczną. Lecz okazuje się, że bardzo trudno jest powiedzieć: to właśnie w tym momencie, w tej właśnie chwili, nie wcześniej, narodził się umysł w procesie ewolucji albo odtąd umysł podlegał Bogu. Wspomniane wyżej badania paleoneurologiczne wydają się potwierdzać prost­sze przypuszczenie, że umysł rozwinął się samodzielnie w wyniku wzrostu złożoności mózgu i że mający ogromne znaczenie proces powstawania świa­domości był jedynie wynikiem subtelnej aktywności miliardów złożonych komórek nerwowych mózgu, które w połączeniu stworzyły geniusz naukowy Alberta Einsteina, twórczość muzyczną Ludwika van Beethovena czy wyobraźnię literacką Williama Szekspira. Patrząc na to w ten sposób, dostrzegamy kontinuum poziomów świadomości, poczynając od najniższych kręgow­ców poprzez stadia pośrednie, coraz doskonalsze w miarę rozwoju mózgu, aż do najwyższego poziomu człowieka.

Koncepcja, że świadomość narodziła się sama w wyniku aktywności mózgu, jest prosta i pociągająca oraz ma wielu zwolenników wśród naukow­ców, szczególnie neurologów. Ludzie z tego środowiska są również jej prze­ciwnikami. Należy przyznać, że w ostatnich latach nie dokonano wielkiego postępu w rozwiązywaniu problemu, w jaki sposób z aktywności mózgu narodziła się świadomość. Wybitny neuropsycholog kilka lat temu napisał: Nawet pobieżne przeczytanie literatury omawiającej kliniczne i doświad­czalne badania neurologiczne obejmujące całe stulecie prowadzi do wnio­sku, że ich wkład dotychczas był raczej skromny. Niedostatek wysiłków, jak również postępu, wynika częściowo z silnej opozycji wyrosłej przez dziesięciolecia ze szkoły psychologii behawioralnej. A także z tego, że na­ukowcy są przyzwyczajeni pracować tylko nad zagadnieniami, które dają się rozwiązać. Krótko ujął to węgierski naukowiec Poly'a: Nauka jest sztu­ką w obszarze możliwego. Badania umysłu i świadomości nie wydają się należeć do obszaru możliwego. Ufano introspekcji oraz utrzymywano, że nie ma żadnych możliwości udowodnienia istnienia świadomości innych, w tym także zwierząt. Aż do niedawna argumentowano, że wyjaśnienie świadomości jest problemem, który nie ma żadnych szans na rozwiązanie. Dopiero teraz zaczęła się tworzyć precyzyjna baza neurologiczna. Nowe narzędzia, w rodzaju tych, które umożliwiają pomiar subtelnych pól ma­gnetycznych wytwarzanych aktywnością mózgu lub które mierzą zużycie energii w aktywnych obszarach mózgowia, pozwoliły w końcu na lokaliza­cję pewnych procesów odpowiedzialnych za koncentrację, którą uważa się za punkt wyjściowy do świadomości. Dokładniejsze badania pacjentów z uszkodzeniami mózgu, powodującymi zmniejszenie koncentracji, dopro­wadziły do lepszego zrozumienia tych zagadnień. Zbliża się moment zde­cydowanego ataku na problem zbudowania naukowego modelu świadomo­ści, opartego na aktywności mózgu. Jakikolwiek by nie powstał, nie będzie zaakceptowany, dopóki nie podda się go wszechstronnej weryfikacji eks­perymentalnej, lecz nie podejmując tych wysiłków, nauka ugnie się przed ogromnym wyzwaniem, jakie stawia umysł.

Postać rozwiązania, którą tu proponuję, opiera się na badaniach tego zagadnienia prowadzonych przeze mnie w ostatnich dwudziestu latach. Podstawowa koncepcja natury umysłu jest prosta i została już określona (lecz w sposób daleko odbiegający od ścisłości wymaganej przez neurofi­zjologów) w ramach asocjacyjnej szkoły filozofów i psychologów. Nowym pomysłem asocjacjonizmu było to, że myśli daje się wyprowadzać jedne z drugich na zasadzie skojarzenia, i że istnieją pewne prawa asocja­cji (takie jak bliskość znaczeniowa, podobieństwo czy intensywność do­znań), które rozwinęły się w teorię nauczania. Zamiast przyjmować myśli jako pojęcia pierwotne nie wymagające wyjaśnień i dopiero później pytać się o sposób, w jaki się ze sobą łączą i rozwijają, chciałbym zapropono­wać, że myśli i doznania psychiczne powstają w danym osobniku jako zbiór odniesień pomiędzy informacją napływającą z zewnątrz a pozosta­łymi w mózgu wspomnieniami o minionych zdarzeniach. Takie podejście nazywam relacyjną teorią umysłu. Wynika z niej, że barwa czy też treść Świadomego doznania jakiegoś zdarzenia jest określona nie tylko przez informację zewnętrzną o tym zdarzeniu, w postaci wizualnych obrazów, dźwięków, zapachów czy wrażeń dotykowych, lecz również przez za­pamiętane wspomnienia o podobnych zdarzeniach w przeszłości. Cała świadomość psychiczna opiera się na takich wzajemnych relacjach, a więc niemowlę ma dużo mniejszą świadomość niż dojrzały osobnik, ponieważ posiada ono mniej takich relacji czy skojarzeń. Relacyjna teoria tworzy jedynie ogólne ramy; nie wydaje się, by można było poddać ją weryfika­cji doświadczalnej. Należy ją uwiarygodnić poprzez stworzenie takiego modelu tkanki mózgu, w którym byłyby widoczne podstawowe cechy świadomości. Oznacza to, że koniecznie należy zaproponować i przete­stować mechanizm powstawania samej struktury relacyjnej. Ponadto z przypuszczalnego układu strukturalnego mózgu musi wynikać nieuchron­nie jedyny w swoim rodzaju ciągły strumień świadomości. Możemy w pewnej chwili poświęcić całą uwagę jednej tylko rzeczy, lecz po prze­budzeniu nasza świadomość płynie dalej bez żadnej luki.

W śródmózgowiu i korze (zewnętrznej warstwie mózgu) występują obszary, a szczególnie w tak zwanym jądrze siatkowym {Nucleus reticularis) w obrębie wzgórza, gdzie jest uformowany ciągły dobrze połączony płat, przylegający do pnia nerwowego wchodzącego do wzgórza (będącego w pewnym sensie stacją przekaźnikową wszystkich doznań docierających do kory), które wydają się funkcjonować jako wzornik czy maska korelują­ca całą aktywność wchodzącą i wychodzącą z kory. Sama aktywność koro­na może być podtrzymywana przez dłuższe okresy dzięki obwodom sprzę­żenia zwrotnego, co pozwala na ciągłość strumienia świadomości, objawia­jącą się w chwili przebudzenia. Jednorodność tego strumienia jest zapew­niona przez płat jądra siatkowego, zezwalający w danej chwili tylko na jedną czynność (która w ten sposób wygrywa konkurencję z innymi czynnościami, które znajdują się na wejściu do tego płata), tak jakby był zbudowany ze zbioru masek zmieniających się w czasie, lecz tylko w ograniczonym stopniu. Sterowanie aktywnością kory przez struktury mózgowia wydaje się coraz skuteczniejsze wraz z wiekiem, tak że starszy osobnik ma mniej­szą elastyczność myśli wynikających z procesów korowych, ale jego ak­tywność jest lepiej sterowana (kontrolowana) przez mózgowie; pacjent z cho­robą Alzheimera wykazuje jeszcze mniejszą aktywność korową, a więc również mniejszą świadomość. Te i inne aspekty podstaw neurologicznych będą później omawiane bardziej szczegółowo.

Relacyjna teoria mózgu dostarcza wyjaśnień wyraźnie widocznej, niefizycznej natury świadomych doznań i ewentualnych źródeł powstawania wol­nej woli. Dla układu relacji pomiędzy poszczególnymi czynnościami mózgu (tak obecnymi jak i zapamiętanymi z przeszłości), stanowiącymi istotę racjo­nalnej teorii, nie istnieje taka fizyczna wielkość jak aktywność mózgu. Jest ona czymś bardziej subtelnym i nieporównanie bardziej złożonym, powstałym w wy­niku niezliczonej liczby wzajemnych relacji, które utworzyły się na podsta­wie doznań osobnika w przeszłości. Z uwagi na taką subtelność zbioru skoja­rzeń powstających w każdej chwili, dany osobnik z wielką trudnością, jeśli w ogóle, jest w stanie uświadomić sobie tę relacyjną aktywność przebiegającą wewnątrz jego mózgu. Będzie ona stwarzać wrażenie niefizycznego procesu przebiegającego w postaci strumienia świadomości bez wyraźnych reguł kon­troli. Patrząc w ten sposób można stwierdzić, że swoboda podejmowania decyzji - wolna wola - da się odczuć jako cecha, którą posiadamy w stanie świado­mym. Jest to jednak złudzenie.


Dlaczego raczej istnieje coś zamiast niczego?


Dla niektórych ludzi pytanie powyższe wydaje się nie mieć wielkiego znaczenia. Chociaż ktoś może być bardziej poruszony istnieniem czar­nych dziur niż na przykład kamienia (biorąc pod uwagę większą niezwykłość takiej dziury), samo zwyczajne istnienie tego czy tamtego niekoniecznie musi przemawiać do wyobraźni. Dlaczego uważa się nic za rzecz naturalną, pod­czas gdy czymś wyjątkowym miałoby być istnienie czegokolwiek? Filozof Bergson wyraził ten niepokój zwięźle: Wstępne założenie, że de jurę nie po­winno być niczego, wymagające tłumaczenia, dlaczego de facto coś istnieje, jest czystą iluzją. Idea absolutnej nicości nie ma ani trochę większego znacze­nia niż kwadratura koła.

Pomimo to ciągle jednak stoi przed nami problem, który domaga się wy­jaśnień. Wcześniej w tym rozdziale przyglądaliśmy się bowiem innym trud­nym pytaniom i w końcu dotarliśmy do odpowiedzi, które pomijając już ich prawdziwość są oparte na przypuszczeniu, że każdy skutek ma swoją przy­czynę: powstanie wszechświata jako kwantowa fluktuacja próżni, ciągłość czasu, jedna JTP wyjaśniająca kolejną, świadomość powstała w wyniku ak­tywności mózgu. Przyznać trzeba, że pewne z tych wyjaśnień wymagają nie­skończonego cofnięcia się w czasie, przy czym każdy krok wstecz utwierdza nas w przekonaniu, że przyczynowość jest podstawową cechą natury wszech­świata. Byłoby czymś zaskakującym, gdybyśmy po wymuszonym wielokrot­nie przechodzeniu aż w nieskończoność, by bronić zasady przyczynowości, porzucili ją teraz, gdy napotykamy coś, co wygląda jak najtrudniejsze pytanie ze wszystkich, które do tej pory sobie stawialiśmy: Dlaczego raczej istnieje coś zamiast niczego? Spójrzmy głębiej i przekonajmy się, czy przyczyno­wość oprze się temu niezwykłemu wyzwaniu.

Aby w ogóle odpowiedzieć na to pytanie, najpierw musimy wyjaśnić sobie, co rozumiemy pod pojęciami nic i coś. Pod pojęciem coś można ro­zumieć jakiś obiekt czujący podobnie jak my, albo też obiekt nieożywiony w rodzaju krzesła czy stołu. Można też odnieść je do gwiazd wraz z towa­rzyszącymi im planetami lub do galaktyk różnego typu i w różnym stadium ewolucji. Pomimo to wszystkie kandydatury na coś opisuje się niezbyt pre­cyzyjnie. Nie możemy spodziewać się podania usprawiedliwienia dla ist­nienia jakiegokolwiek obiektu. Dlatego pytamy o istnienie konkretnych obiektów w rodzaju talerzy czy innych przedmiotów z mojej kuchni.

Jeżeli myślimy o znalezieniu uzasadnienia dla istnienia poszczególnych obiektów we wszechświecie, to najpierw musimy zmierzyć się z proble­mem ich opisu. Dopiero po powstaniu definicji można przystąpić do wy­szczególnienia obiektów, którymi się zajmiemy. Na jakim poziomie należy sporządzić taki opis? Czy mamy wykorzystać w tym celu zdjęcie zrobione zwykłym aparatem fotograficznym, czy też powinniśmy użyć fotografii zro­bionej pod mikroskopem elektronowym dającym tysiąckrotne czy większe powiększenie? Czy mamy wykorzystać opis klasyczny czy kwantowy? Czy powinniśmy dotrzeć do kwarków, z których składa się obiekt, czy też po­winniśmy zagłębić się jeszcze bardziej, aż do postulowanych superstrun? Jeżeli naprawdę istnieje nieskończony zbiór teorii naukowych, z których każda burzy poprzednią, lecz sam łańcuch, jak już mówiliśmy, nie kończy s!? nigdy, to na którym poziomie, jeżeli w ogóle, powinniśmy się zatrzymać? Pytamy więc, na jakim poziomie dokładności powinniśmy opisywać Obiekty, aby było można spodziewać się wyjaśnienia konieczności ich istnienia. Pytanie to przewija się również w komedii Eugene'a lonesco „Łysa śpiewaczka", gdzie spotykamy państwa Smith, którzy odkrywają, że miesz­kają w tym samym domu, śpią w tym samym łóżku i, jak sądzą mają to samo dziecko. Jednakże pod koniec dramatu służąca mówi publiczności, że para myli się odnośnie do charakteru łączącego ich związek, ponieważ dziec­ko każdego z nich ma co prawda jedno oko niebieskie i jedno brązowe, lecz jedno dziecko ma oko niebieskie lewe, podczas gdy drugie ma niebieskie oko prawe. Na tym poziomie dokładności niezbędne ustalenie tożsamości dziecka pani i pana Smith okazało się błędne.

Problem, przed którym stoimy, jest poważniejszy niż ten, który mieli pań­stwo Smith. Jeżeli każda teoria naukowa jest zastępowana przez następną z łańcucha, oznacza to, że poprzednia jest postrzegana jako zupełnie niepra­widłowa. Dostarcza ona odpowiedzi, które zadowalają nas w takim obszarze zjawisk, dla którego była uprzednio akceptowana, lecz nawet wówczas były one jedynie przybliżeniem. Teraz uznaje się ją jako nieważną. Lecz przecież powstanie następna teoria, która zastąpi z kolei tę obowiązującą teraz. Wyni­ka z tego, że nie możemy tolerować żadnej niedokładności na każdym pozio­mie łańcucha teorii naukowych, ponieważ musimy być zdolni do dyskusji nad opisem obiektów na arbitralnie ustalonym wysokim poziomie precyzji. W przeciwnym razie nie będziemy mieli pewności, czy naprawdę rzeczywi­ste obiekty, istniejące gdzieś tam, nie zostały czasem opisane w sposób nie­prawidłowy, na niewystarczająco głębokim poziomie bytu.

Wygląda na to, że weszliśmy w ślepą uliczkę. Ponieważ jest wymagana nieskończona dokładność opisu czegokolwiek (jak również niczego), wszystko wskazuje na to, że nigdy nie będziemy w stanie tego dokonać w świetle nie­skończonego czasu i nieskończonej liczby różnych możliwości. Innymi sło­wy, nigdy nie poznamy ostatecznej natury wszechrzeczy; opis taki nawet może nie istnieć, ponieważ nie należy się spodziewać, aby nieskończony szereg teorii wszystkiego dążył do jakiejś wielkiej i ostatecznej teorii, lecz wydaje się, że wije się on bez końca. Tego typu redukcjonistyczne podejście było konieczne, aby uzyskać odpowiedź na pytanie: Dlaczego właśnie ta JTP?, lecz to doprowadziło pod zimny prysznic, ponieważ teraz powinniśmy rów­nież odpowiedzieć na pytania w rodzaju: Dlaczego właśnie ta filiżanka, ten talerz, ten garnek itp.?, a dlaczego nie nic? Ponieważ nigdy nie będziemy po­trafili opisać jakiegoś obiektu na wszystkich poziomach precyzji, bowiem nigdy nie będziemy mieli wystarczająco dokładnych danych odnośnie do czasu i energii, to nie możemy być pewni istnienia żadnego obiektu!

Nacisk położony na odpowiedź na pytanie o istnienie czegoś zamiast niczego, wynika po części z ciągle aktualnego scenariusza wyłonienia się bytu z pustki. Ponieważ jak to ujął Arystoteles, jak mogłoby coś się zmie­nić, gdyby nie istniała rzeczywista przyczyna? Powiedziałbym, że takie podejście wyjaśnia nieco problem. W ten sam sposób, w jaki nieskończony degresywny ciąg teorii czyni, jak stwierdziłem to już wcześniej, nieaktualne pytanie, dlaczego właśnie ta JTP?, regresja i odpowiadający jej szereg co­raz dokładniejszych poziomów opisu czyni nieistotne pytanie o istnienie czegoś zamiast niczego. Dzieje się tak dlatego, że nie potrafimy przedrzeć się przez kwestie dotyczące coraz dokładniejszego opisu obiektów we wszechświecie, jak również samego wszechświata. Na różnych poziomach precyzji opisu mogą występować te same cechy, podobne, na przykład, do wzajemnego znoszenia się (zanikania) energii grawitacyjnej i kinetycznej wszechświata, jak to omawialiśmy wcześniej (cień możliwości, że wszyst­ko może być niczym?). Nie możemy jednak posunąć się ani na krok na­przód dopóki nie zakończymy opisywania. Lecz nic możemy również od­wołać się do Boga, którego rękę byłoby można dostrzec w pięknie podsta­wowych równań matematycznych opisujących przyrodę. Nie znajdziemy nigdy tej fundamentalnej JTP, jest ona chimerą nie do ogarnięcia umysłem. Bóg jest niepotrzebny do doznać psychicznych, które powstają w wyniku subtelnej aktywności mózgu. Nie można się do Niego odwołać ani za po­średnictwem modlitwy, ani medytacji, ani żadnych doświadczeń mistycz­nych czy wywołanych środkami narkotycznymi (takimi jak na przykład ja­kieś święte grzyby). Wszystkie te doznania powstają wewnątrz mózgu i ci wszyscy, którzy twierdzą, że doświadczyli za ich pośrednictwem Boga lub że zrozumieli wszechświat w sposób niemożliwy do poznania na drodze mozolnego, lecz obiektywnego podejścia naukowego, są w błędzie. Chcie­libyśmy, aby nasze zrozumienie nie wynikało z wiary czy iluzji, z fantazji czy halucynacji. Musimy opierać się na nauce, a nie wydaje się, aby prowa­dziła do coraz lepszego zrozumienia ostatecznego początku wszechrzeczy. Możemy robić postępy, lecz nigdy nie dotrzemy do ostatecznego rozwiąza­nia. Jeżeli taka jest natura rzeczywistości, to musimy się z tym pogodzić. Powinniśmy się przynajmniej przekonać, jak daleko mogą zaprowadzić oparte na nauce procesy myślowe. Ograniczenia nie tkwią jednakże w nas samych, lecz w naturze rzeczywistości.

Podsumowując, odpowiedź na trudne pytanie, dlaczego istnieje coś za­miast niczego?, brzmi, że opierając się na przypuszczalnej regresywnej naturze szeregu ciągu teorii materii nigdy nie będziemy mogli odpowiedzieć na to pytanie, ponieważ nigdy nie będziemy znali dokładnie natury tego czegoś, co przypuszczalnie nas otacza. To naprawdę jest pytanie bez odpowiedzi; z zasady nigdy nie będziemy zdolni jej udzielić.











CZĘŚĆ DRUGA


WSZECHSWIAT MATERII


5. Natura materii


Dociekanie


Poczynione dotychczas postępy na drodze ku zrozumieniu materii zdają się być jednym wielkim pasmem sukcesów nowoczesnej nauki. Naiwne podejście redukcjonistyczne wyjaśniania właściwości obiektu za pomocą zachowania się jego części składowych, które rozkładano dalej na elementy składowe itd., przynosiło stosunkowo dobre wyniki. Uzyskany w wyniku tego szereg części, podczęści itp. wydawał się mieć coraz większy stopień prostoty i elegancji. W miarę zagłębiania się coraz bardziej w materię potrzeba było coraz mniej elementów składowych, zdolnych wyjaśnić coraz większe zakresy zjawisk obejmujących obiekty materialne. Ten niezwykły postęp doprowadził nawet niektórych naukow­ców do przekonania, że nauka podstawowa dotrze wkrótce do krańca oraz że wyłonią się jakieś części ostateczne, naprawdę podstawowe cząstki elementarne, odznaczające się ostateczną elegancją. Cząstki te będą spełniać pewne prawa oddziaływań, które zostaną w tym czasie również odkryte. Wszystko to razem - cząstki i siły - doprowadzi do zbudowania wymyka­ją się dotąd teorii wszystkiego lub JTP, jak to przedstawiono w poprzednich rozdziałach. Święty Graal popędził na poszukiwania fundamen­talnej prostoty.

Pomimo wszystko naiwny redukcjonizm nie obiecywał gruszek na wierzbie. Doprowadził przecież do takiego rozwoju techniki, że nasze życie stało się dużo wygodniejsze, oparte na prawach elektromagnetyzmu, powstały takie wynalazki jak światło elektryczne, telefon, radio i telewizja; a zrozumienie budowy jądra atomu doprowadziło do wykorzystania energii rozpadu i (w najbliższej przyszłości) fuzji atomu; loty kosmiczne były możliwe dopiero po zrozumieniu grawitacji i hydrodynamiki i można by podać wiele innych przy­kładów. Bez powstania redukcjonizmu nasze życie byłoby zdecydowanie mniej wygodne.

Pomimo że redukcjonizm umożliwił poznanie widocznej prostoty natu­ry, odkryto jednocześnie wiele bardzo złożonych właściwości występujących w przyrodzie. Istotną częścią nowoczesnej nauki stało się badanie złożonych układów dynamicznych (szczególnie tych, które zawierają w sobie chaos). W rozdziale 1 opisałem pewne aspekty tego zagadnienia. Lecz wydaje się, że badania te nie odbiegają od linii wyznaczonej przez redukcjonizm i znaj­dują się ciągle w dobrze umotywowanym obszarze. Powstaje jedynie koniecz­ność równoległego rozwoju nowej dziedziny nauki samej złożoności oraz złożonej dynamiki, która obecnie znajduje się dopiero w powijakach. W tym sensie redukcjonizm można postrzegać jako naukę dla leniwych, ponieważ w miarę jak drąży podstawowe właściwości materii w poszukiwaniu prosto­ty, pozostawia za sobą nie rozwiązane, złożone problemy. Jak daleko posu­nął się redukcjonizm na drodze unikania w przyrodzie złożoności, koncen­trując się jedynie na prostocie?

Formalnie rzecz biorąc, cząsteczka jest najmniejszą rozpoznawalną cząstką związku chemicznego czy pierwiastka znajdującego się w stanie nie związa­nym. Większość normalnej materii jest zbudowana z cząsteczek, które zwią­zane ze sobą siłami kohezji składają się na przeważającą liczbę dostrzega­nych wokół nas obiektów. Różnorodność obiektów występująca w przyro­dzie jest możliwa jedynie dlatego, że cząsteczki mają bardzo małe rozmiary. Cząsteczka wody, na przykład, jest około stu milionów razy mniejsza od roz­miarów zlewki, w której ta woda się znajduje. Istnieją jednakże również cząs­teczki dużo większe od wody, na przykład DNA czy polimery.

Ponieważ istnieje niepoliczalna liczba różnych cząsteczek, to z uwagi na złożoność problemu ich usystematyzowanie i zrozumienie jest zadaniem niewy­konalnym. Problemem tym zajmuje się teoria atomu, która zagłębia się dalej, do następnego poziomu rozmiarów podstawowych obiektów:


MATERIA

­

CZĄSTECZKI

­

ATOMY


Oszałamiająca różnorodność cząsteczek daje się teraz wyjaśnić ich budo­wą, składają się one bowiem z mniejszych atomów.

Już w starożytności myśl o tym, że materia jest zbudowana z atomów po raz pierwszy wysunął grecki filozof Demokryt, ale dopiero teraz, w ostatnim stuleciu, wyjaśnienie niezwykłej różnorodności kombinacji atomowej czą­steczek stało się możliwe dzięki powstaniu układu okresowego pierwiastków. W ramach tego układu uporządkowano różne znane atomy w grupy, w zależ­ności od ich podobnych zdolności do łączenia się z atomami innych pier­wiastków. Uporządkowano również atomy ze względu na ich masę. Układ okresowy obejmował początkowo dziewięćdziesiąt dwa różne atomy tak zwanych pierwiastków; kilka dalszych, nie występujących w sposób natural­ny na Ziemi, naukowcy wytworzyli sztucznie. Co dziwniejsze, aż do niedaw­na niektórzy naukowcy kwestionowali istnienie atomów; dopiero w 1960 roku za pomocą odpowiednio czułego mikroskopu, dającego powiększenie rzędu milionów, udało się sfotografować pojedynczy atom.

Nastąpił wtedy krytyczny moment: okazało się, że cała materia jest zbudo­wana zaledwie z dziewięćdziesięciu dwóch pierwiastków. Jednakże pierwiast­ki te nie były jeszcze strukturami elementarnymi, miały wewnętrzną budowę. W 1914 roku Rutherford wykazał, że sam atom składa się z centralnego, dużo mniejszego jądra, w którym jest skoncentrowana prawie cała masa, oraz z chmury ujemnie naładowanych cząsteczek (nazwanych elektronami) otacza­jących jądro. Przeciwnie naładowane jądro i elektrony powodują, że cały atom jest elektrycznie obojętny. W ten sposób dotarliśmy do następnego poziomu.


MATERIA

­

CZĄSTECZKI

­

ATOMY

­

JĄDRO + ELEKTRON


Elektron, jako kolejny składnik materii, odkryto na przełomie stuleci, a swoje podstawowe miejsce w atomie zawdzięcza rezultatom otrzymanym przez Rutherforda. Doprowadziło to do opisu ilościowego modelu, tak zwa­nego atomu nuklearnego, wyjaśniającego pewne szczegóły zjawisk towarzy­szących promieniowaniu, które ma miejsce przy podgrzewaniu materii. Mo­del ten opierał się na założeniu, że elektrony na orbitach mogą stabilnie ist­nieć jedynie w pewnych dyskretnych (nieciągłych) stanach (z pewnymi pręd­kościami). Pojęcie takich szczególnych stanów powstało ad hoc i nie było zgodne z prawami materii znanymi w tym czasie, lecz okazało się, że spraw­dza się ono znakomicie. Konieczność istnienia takich stanów w rzeczywisto­ści wywołała prawdziwą rewolucję, która wkrótce miała zdezaktualizować prawa fizyki klasycznej, powstałe w wyniku prac Newtona ponad trzysta lat wcześniej.


Wątpliwe odpowiedzi


Rewolucja, która zmiotła klasyczne prawa Newtona trwa do dzisiaj, a interpretacja nowych struktur opisujących materię w obszarze fizyki kwantowej jest nadal przedmiotem gorących dyskusji. Ponieważ zagadnienia te stanowią istotę wysiłków mających doprowadzić do zrozumienia kreacji wszechświata, jak również są podstawą zrozumienia bieżących, niezwykle szyb­kich postępów na drodze do zbudowania JTP, musimy poświęcić im nieco cza­su. Przy przejściu od fizyki Newtona do fizyki kwantowej zmianie uległy dwa podstawowe paradygmaty. Według Newtona materia była zbudowana z kuł bilardowych poruszających się w przewidywalny sposób po liniach prostych, aż do zderzenia się z innymi kulami. Zgodnie z fizyką kwantową, powstałą w połowie lat dwudziestych, kule bilardowe poruszają się wzdłuż torów kla­sycznych, które jednak dają się wyznaczyć jedynie z pewnym prawdopodo­bieństwem. Czym cięższa jest dana cząstka, tym jest pewniejsze, że będzie po­ruszać się wzdłuż ściśle sprecyzowanego toru, lecz cząstki tak lekkie jak elek­tron rozprzestrzeniają się w swoim ruchu na podobieństwo fal na wodzie po wrzuceniu do niej kamienia. Dlatego właśnie mechanika kwantowa jest czasa­mi nazywana mechaniką falową. Tak więc w fizyce kwantowej materia zacho­wuje się jak fala, przy czym sama fala określa prawdopodobieństwo znalezie­nia cząstki w jakimś konkretnym miejscu. Materia może interferować, gdy prze­chodzi przez bardzo wąską szczelinę (dokładnie tak jak fale świetlne) i już w latach dwudziestych zaobserwowano zjawiska, które dotychczas zostały wie­lokrotnie potwierdzone. Nieokreślona z całą pewnością natura materii jest z psychologicznego punktu widzenia niepokojąca. Nie podobała się ona na przykład Albertowi Einsteinowi, który zwykł mawiać: Bóg nie gra w kości z wszech­światem. Wydaje się to tak sprzeczne z obserwowaną wokół rzeczywistością, jest nadal podmiotem gorących sporów.

Opisałem, w jaki sposób zmienił się pierwszy paradygmat, a kule bilar­dowe poruszające się w sposób ściśle określony przeistoczyły w fale materii kreślone jedyne z pewnym prawdopodobieństwem. Przy przejściu od fizy­ki klasycznej do mechaniki kwantowej drugi paradygmat zmienia się zaska­kująco. W świecie opisanym fizyką klasyczną kule bilardowe poruszają się w sposób ciągły. Wszystkie tory są krzywymi ciągłymi. Nie obserwuje się żadnych skoków, w których cząstka znajdująca się w jednym punkcie przeskakuje nagle do drugiego. W fizyce kwantowej natomiast nieciągłość i prze­skoki kwantowe są zasadniczymi czynnikami. Energia istnieje w postaci pa­czek kwantów w poprzedniej części wspomniano już, że elektrony w ato­mie mogą zajmować wokół jądra stany z nieciągłego zbioru. Nowoczesna mechanika kantowa wspiera takie stanowisko, lecz równocześnie prowadzi do problemu przeskoków kwantowych. Powstaje on wtedy, gdy elektron prze­skakuje z jednego stanu do drugiego. Jeżeli w nowym stanie elektron ma mniej energii, to ta ilość, którą utracił, jest emitowana w postaci światła czy innego promieniowana o podobnej naturze. Lecz mechanika kwantowa nie dostar­cza żadnych wyjaśnień, co dzieje się z elektronem podczas tego przeskoku z jednego do drugiego konkretnego stanu.

W istocie nie ma żadnego problemu, jeśli ściśle trzymamy się opisów kwan­towych i nie myślimy o układach w sposób opisywany starymi teoriami. Wy­daje się, ze liczne paradoksy wynikłe z powstania mechaniki kwantowej mają W rzeczywistości miejsce. Tak więc faza przejścia podczas przeskoku wydaje się nie istnieć; elektron z poprzedniego paragrafu istniałby jedynie w początko­wym i końcowym stanie, nie istniałby natomiast pomiędzy. Można postrzegać te trudności jako problemy powstałe głównie dlatego, że nasze umysły nie są w stanie wyobrazić sobie sposobu, w jaki faktycznie jest zbudowany świat jako całość. Przywiązani jesteśmy do myśli, że daje się go ze stuprocentową pewno­ścią opisać za pomocą zbioru kuł bilardowych poruszających się wzdłuż swo­ich torów. Trudności dotknęły nawet Alberta Einsteina, który w 1905 odkrył nieciągłość energii, w postaci tzw. zjawiska fotoelektrycznego. Dokładny charakter emisji, jaka ma miejsce wtedy, gdy światło pada na metalową powierzchnie, można wyjaśnić jedynie opierając się na posuńcie, że energia światła jest absorbowana przez metal w nieciągłych paczkach, zwanych fotonami. Pomimo że Einstein był jednym z pierwszych twórców mechaniki kwantowej, to nigdy nie zaakceptował probabilistycznych opisów poszczególnych układów podobnych do pojedynczego fotonu i w latach trzydziestych stoczył całą serię gorących sporów na temat tej właściwości materii i paradoksów, które ona stwa­rza. Jego sprzeciw w stosunku do probabilistycznego aspektu mechaniki kwan­towej doprowadził go w ostatnich latach życia do całkowitej izolacji od świata uczonych, a jego uporczywe poszukiwania zunifikowanej teorii pola, obejmu­jącej wszystkie postacie materii oraz grawitację, zakończyły się w świetle dzi­siejszej wiedzy niepowodzeniem, wynikłym z ciągłego pomijania osiągnięć na polu rozwijającej się wtedy wspaniale fizyki kwantowej.

Jak należało się tego spodziewać, proponowano wiele różnych teorii, które były bliższe wyobrażeniom o ustalonym świecie kuł bilardowych. Doświad­czenia prowadzone w 1982 roku, polegające na badaniu promieniowania po­wstałego przy rozpadzie pojedynczych atomów, wykluczyły najsilniejszą teo­rię kandydującą do zastąpienia mechaniki kwantowej. Niezależnie od otrzyma­nych już rezultatów, nadal trwaj ą badania i wydaje się, że nie ma obecnie żad­nej alternatywy dla drogi kwantowej. Szczególnie dlatego, że droga ta, na dłuż­szą metę, doprowadziła do wielu sukcesów, jak się o tym wkrótce przekonamy.

Poza niepokojem powstałym na tle pozbawionego pewności obrazu świata, który obejmuje coraz głębsze obszary wyraźnie bezpiecznego i pewnego świata klasycznego, istnieją również pewne paradoksy prowadzące do wielu dysku­sji toczonych na przestrzeni ostatnich dziesięcioleci. Jedna z nich, związana z nazwiskami Einsteina i dwóch jego kolegów Podolskiego i Rosena, została nazwana zwięźle paradoksem EPR. Dotyczy ona możliwości komunikowa­nia się z szybkościami szybszymi od światła. Ponieważ kłóci się to z najsta­ranniej przeprowadzonymi doświadczeniami (które zostaną opisane później), jest więc wielce problematyczna. Z takim samym dziwacznym przypadkiem mamy do czynienia w paradoksie zwanym kotem Schrödingera. W (hipote­tycznym) doświadczeniu umieszcza się kota w zamkniętym pomieszczeniu razem z butelką cyjanku i czeka się aż rozpad atomu spowoduje rozbicie bu­telki. Za każdym razem, gdy zajrzymy do pomieszczenia, będziemy widzieć, że kot jest albo żywy, albo martwy. Jednakże zasady mechaniki kwantowej prowadzą do wniosku, że po czasie, w którym atom ma 50 procent szans na rozpad, układ powinien znajdować się w dziwnej mieszaninie stanów, w któ­rych kot jest półżywy i półmartwy. Nie wiadomo, która połówka jest rzeczy­wista, ani jak czuje się w tym stanie kot!

Takie i inne paradoksy powstają, jeżeli czasem nie do końca uświada­miamy sobie wymagania, by prawa mechaniki kwantowej dostarczały opisu ruchu poszczególnych cząstek, powiedzmy elektronów czy fotonów (cząstek światła wspomnianych uprzednio). Lecz w świetle doświadczalnych sukce­sów teorii wcale się tego nie wymaga. Bardziej prawidłowo postawiony warunek ogranicza się do wymagania, aby mechanika falowa identycznie opisy­wała właściwości układów mających tę samą wstępną konfigurację. Nazwa­no to całościową interpretacją mechaniki kwantowej (ang. ensemble interpretation of quantum mechanics). Przez takie podejście jest rozwiązywany paradoks kota, ponieważ istotnie spodziewamy się, jak już mówiliśmy, ujrzeć kota w 50 procentach przypadków jedynie albo martwego, albo żywego (je­żeli doświadczenie powtarzalibyśmy wielokrotnie, za każdym razem z innym kotem). To nie konkretny kot jest półżywy czy półmartwy. Taki wynik zga­dza się z przewidywaniami całościowej interpretacji mechaniki kwantowej. W podobny sposób można również poradzić sobie z innymi paradoksami, chociaż powstałe w wyniku tego interpretacje często mogą prowadzić do do­strzegania w nich zjawisk o dziwacznym charakterze, nawet wtedy, gdy nie ma już w nich nic paradoksalnego.


Nie szybciej niż światło


Innym ważnym krokiem na drodze do zrozumienia materii był ten, któ­rego w pierwszej połowie naszego wieku dokonał Albert Einstein. Szczególna teoria względności, nazwana tak przez niego samego, uwzględ­nia sposób, w jaki różni ludzie, najczęściej poruszający się względem siebie, mogą opisywać różnice pomiędzy obserwacjami tego samego układu. Wyraz szczególna w nazwie teorii wskazuje na ograniczenia nałożone na sposób po­ruszania się różnych obserwatorów jedynie z ustalonymi prędkościami wzglę­dem siebie. Wyraz względność oznacza, że obserwatorzy porównują wza­jemnie otrzymane przez siebie wyniki i że wszystko jest względne, żaden obserwator nie jest uprzywilejowany w stosunku do innych.

Szczególna teoria względności, tak jak i mechanika kwantowa, spowo­dowała zmianę paradygmatów. Wskazywały one sposób, w jaki należy skła­dać prędkości poruszających się obiektów. Jeżeli z jadącego pociągu wyrzucimy piłkę, to spodziewamy się, że będzie ona miała prędkość równą sumie (geometrycznej) prędkości pociągu i prędkości, jaką jej nadaliśmy w chwili rzutu. Jest to prawda jedynie wtedy, gdy mamy do czynienia z małymi pręd­kościami. Lecz jeżeli jakiś obiekt, poruszający się z prędkością bliską prędkości światła, wystrzeli do przodu inny obiekt również z prędkością zbliżoną do prędkości światła, to moglibyśmy się spodziewać, że wyrzucony obiekt będzie poruszał się z prędkością bliską podwójnej prędkości światła. Nie tak, jak stwierdził Einstein, że żaden obiekt nie może poruszać się szybciej od światła. Wniosek taki wypływał z założenia, że światło porusza się zawsze z tą samą prędkością, niezależną od tego, w jaki sposób powstało i w jaki spo­sób dokonuje się obserwacji. Twierdzenie to zostało poparte doświadczalnie w ogromnym zakresie długości fal i sposobów wytwarzania światła.

Zbadajmy teraz, w jaki sposób warunek stałej prędkości światła wpływa na pomiary czasu. Można tego dokonać za pomocą na przykład zegara świetl­nego. Składa się on z dwóch zwierciadeł umieszczonych naprzeciw siebie. Impuls świetlny odbija się pomiędzy nimi, przy czym przyjmujemy, że każde przejście stanowi jednostkę zegarową czasu, którą możemy nazwać tik-takiem. W każdym tik-taku światło odbija się tam i z powrotem. Załóżmy te­raz, że zegar porusza się w kierunku prostopadłym do biegu światła. Znajdu­jący się w spoczynku obserwator, patrząc z góry, widzi impuls poruszający się po zygzakowym torze. Długość tego nowo zakreślonego toru będzie więk­sza niż wtedy, gdy zegar znajdował się w spoczynku. Pamiętajmy jednakże o warunku Einsteina Wymagającym, aby światło biegło zawsze z tą samą pręd­kością. W następstwie takiego ograniczenia, impuls świetlny w zegarze po­ruszającym się będzie potrzebował więcej czasu niż w zegarze spoczywają­cym, by przebiec tam i z powrotem. Stacjonarny obserwator, patrząc na poru­szający się zegar, będzie widział, że zegar odmierza tiiiiiik-taaaaaaki, pod­czas gdy obserwator poruszający się razem z zegarem będzie dostrzegał zwy­kłe tik-taki. Innymi słowy, poruszający się zegar będzie postrzegany jako chodzący wolniej w porównaniu do zegara stacjonarnego. Stąd powiedzenie Einsteina: Poruszające się zegary chodzą wolniej.

Ten nowy paradygmat prowadzi do niespodziewanych rezultatów w obszarze mechaniki kwantowej. Dobrze znany jest paradoks bliźniaków, z których jeden, podróżując do odległej gwiazdy i z powrotem z prędkością bliską prędkości światła, zestarzał się mniej od bliźniaka, który pozostał w domu i nigdy nie opuszczał Ziemi. Jest wiele takich dziwnych konsekwen­cji wynikających ze szczególnej teorii względności, lecz wszystkie z wiel­ką dokładnością zostały potwierdzone doświadczalnie. W szczególności powszechnie zaakceptowano pogląd, że prędkość światła stanowi nieprzek­raczalną barierę prędkości; nic nie może poruszać się szybciej od światła. Stwarza to poważne następstwa dla ewentualnych podróży kosmicznych, ponieważ ogranicza prędkość, z jaką możemy podróżować do bliższych i dal­szych gwiazd, a nie znamy żadnej luki, która podważyłaby dotychczasowe wyniki. Innym istotnym wnioskiem, wypływającym ze szczególnej teorii względności, jest tożsamość energii i masy, wynikająca z równania E=mc2, które doprowadziło do ery atomowej, w jakiej nadal żyjemy. Istotną konsekwencją naszej odysei do głębszych warstw materii jest to, że im mniejsze i lżejsze cząstki odkrywamy w naszych poszukiwaniach, tym ważniejsza staje się właśnie szczególna teoria względności. Dzieje się tak dlatego, że lżejsze cząstki łatwiej jest przyspieszać do wysokich prędkości. Pomimo że przyspieszono elektrony do prędkości bliskiej prędkości światła, to w żad­nym przypadku nie stwierdzono naruszenia tej granicy. I na szczęście, jeże­li podróże z prędkością światła byłyby możliwe, to prawdą mógłby stać się poniższy limeryk:


Pewna młoda damulka o imieniu Gienia

Podróżowała szybciej od światła promienia.

Tak dumna z tej zdolności była,

Na ścieżkę Einsteina wkroczyła.

Wróciwszy byłej nocy, marzenia spełniła.


Problemy tego rodzaju zajmowały uwagę pisarzy science fiction i stały się tematem takich zajmujących filmów jak na przykład „Back to the Future" (Powrót do przyszłości), w którym bohater podejmując pewne dzia­łanie w przeszłym życiu swojego rodzeństwa, powoduje, że zaczynają zni­kać. Rzeczywiście, dla nauki byłoby to wielce kłopotliwe, jeżeli można by­łoby cofać się w czasie i zmieniać czyjąś przeszłość (na przykład uniemoż­liwiając spotkanie czyjegoś ojca i matki!). Mimo dokładnych poszukiwań tachionów (tachys po grecku oznacza szybki), hipotetycznych cząstek szyb­szych od światła, dotychczas nie natrafiono na żaden ich ślad. Nie zaobser­wowano również nigdy złamania zasady przyczynowości (mówiącej, że skutek musi być zawsze poprzedzony przyczyną), aż do obszarów sięgają­cych najmniejszych rozmiarów wewnątrz cząstek elementarnych.


Coraz wnikliwsze badania


Zjawisko promieniotwórczości było znane od czasów skrupulatnych ba­dań prowadzonych przez panią Curie i jej kolegów pod koniec zeszłego stulecia. Odkryto różne typy promieniowania (określane jako alfa, beta i gamma) emitowane z atomów ciężkich pierwiastków, przy czym pozostała substancja przemienia się w lżejsze pierwiastki, na przykład ołów. Pewien rodzaj promie­niowania składa się z wiązki jąder atomowych helu (co oznacza, że jego źródłem są jądra atomowe), z czego możemy tylko wyciągnąć wniosek, że chociaż jądro jest nienaruszalne, to jednakże może rozpadać się, gdy jest zbyt duże. Odkryto również, że jądra atomów są prawie o dokładnie całkowitą liczbę razy cięższe od protonu. Na przykład jądro atomu helu jest około czterech razy cięższe od proto­nu. Pomimo to ma tylko dwa razy większy ładunek elektryczny niż proton, co oznacza, że nie może być zbudowane z czterech protonów. Może natomiast skła­dać się z dwóch protonów i z dwóch obojętnych elektrycznie cząstek, których masa jest równa masie protonu. Nowo odkryte cząstki stały się niesłychanie przy­datne do wyjaśnienia mas i ładunków wszystkich innych jąder. Doprowadziło to do powstania modelu jądra atomu, jako złożonego z protonów i z prawie iden­tycznych, lecz pozbawionych ładunku elektrycznego cząstek nazwanych neutro­nami (odkryto je w 1932 roku). Zjawisko promieniotwórczości wyjaśniono rów­nież pod kątem emisji albo jądra atomu helu (promienie alfa), albo elektronów i neutralnych pozbawionych masy ich towarzyszy, zwanych neutrinami (promie­nie beta), czy też światła (promienie gamma). Postulowane od lat trzydziestych istnienie neutrin, które miałoby wyjaśniać szczegóły energetyczne emisji promie­ni beta, zostało potwierdzone obserwacjami dopiero kilkadziesiąt lat później. W ten sposób otrzymujemy nowy obraz redukcjonistyczny:


MATERIA

­

CZĄSTECZKI

­

ATOMY

­

DRA + ELEKTRONY

­ ­

PROTONY+NEUTRONY ELEKTRONY+NEUTRINA


Niektórzy naukowcy chcieliby się na tym zatrzymać. Istniały cztery cząstki elementarne (proton, neutron, elektron i neutrino), które wraz z kwantem światła (fotonem) były postrzegane z nadzieją jako te, które wyjaśnią wszyst­kie zjawiska materialne. Nadzieje jednak nie spełniły się. Uzbrojenie potrzebne podczas drugiej wojny światowej miało wpływ na powstanie nowych techno­logii, które wraz z wysoko czułymi czujnikami mikrofalowymi oraz z silny­mi magnesami umożliwiły po wojnie budowę nowego rodzaju akceleratorów cząstek, za pomocą których można było badać materię przy coraz wyższych energiach i na coraz mniejszych odległościach. Nowe urządzenia pozwalały rozpędzać wiązki protonów do prędkości bliskich prędkości światła oraz kierować je na tarcze wodoru lub innego materiału. W ten sposób odkryto całą chmarę nowych cząstek, które okazały się albo krótko żyjącymi towarzyszami protonów lub neutronów, albo cięższymi, lecz również krótko żyjącymi, towarzyszami fotonu. Odkrycie nowych cząstek nie było czymś zaskakują­cym. W latach trzydziestych japoński fizyk przekonywał w sposób jak naj­bardziej twórczy, że jeżeli fotony są czymś w rodzaju kleju stanowiącego siłę Utrzymującą elektrony w pobliżu jądra, to analogicznie muszą istnieć podob­ne cząstki sklejające razem neutrony i protony wewnątrz jądra atomu. Klej taki nazwał on mezonem, i okazało się, że istotnie pewne nowo odkryte cząstki pasuj ą dokładnie do opisu, który on podał. Lecz inne bardzo różniły się.

Aby zrozumieć różnice, jakie wy stępuj ą pomiędzy dobrymi a złymi cząst­kami, należy zwrócić uwagę na fakt, że cząstki, które dotychczas poznali­śmy, mają bardzo istotną własność - swój spin, czyli obracają się. Są one wirującymi bąkami. Niektóre z tych podobnych do bąków cząstek wirują wokół osi zwróconej w dół, a niektóre wokół osi skierowanej w górę, a więc mają dwa możliwe stany spinowe. Inne mają tylko jeden stan spinowy, jesz­cze inne trzy orientacje spinu (w górę, w dół oraz w bok). Po odkryciu trzech stanów spinowych fotonu uświadomiono sobie, że klejem utrzymującym ra­zem nukleony muszą być cząstki podobne do fotonów, z jednym lub trzema stanami spinowymi. Lecz w niektórych nowo odkrytych cząstkach dało się zaobserwować jedynie dwa stany spinowe. Ich właściwości były zbliżone bardziej do właściwości elektronu czy neutrina, mających również dwa stany spinowe; a więc mogły oddziaływać jedynie jako sama materia a nie klej.

Po wielu trudnych i starannie przeprowadzonych doświadczeniach zaob­serwowano, zew akceleratorach tworzą się nowe cząstki dwóch rodzajów. Najpierw odkryto dwóch nowych towarzyszy elektronu i neutrina, których te­raz nazywamy mezonami miu (albo mionami czy neutrinami miu) oraz mezo­nami tau (albo neutrinami tau). Znaleziono również znacznie cięższe cząstki, które można by uważać za towarzyszy protonu i neutronu, przy czym niektóre z nich ulegały ostatecznemu rozpadowi na protony. Te spośród towarzyszą­cych cząstek, które miały taką samą masę, można było pogrupować w oktety (po osiem) i decuplety (po dziesięć). Tam, gdzie w oktetach lub decupletach była luka, starano się przewidzieć naturę brakujących cząstek. Później cząstki mające szukane właściwości odkrywano w produktach rozpadu pozostałych po zderzeniach pomiędzy wiązką protonów a tarczą w akceleratorze.

Uprzywilejowana pozycja ósemek i dziesiątek doprowadziła do powstania układu ósemkowego oraz spowodowała, że niektórzy fizycy schowali się w mistycyzmie wschodu (który również faworyzuje ósemkę jako drogę do zbawie­nia). Pokazali się później twierdząc, że dawno już o tym wiedzieli mędrcy Wschodu, którym teraz zaczęli oddawać prawie boską cześć. Zdrowie psychiczne zostało w ten sposób uratowane, szczególnie po sformułowaniu w roku 1964 hipotezy kwarków, postulującej triplety kwarków, które mogą wprowadzić ja­kiś ład w tę mnogość nowych cząstek, na wzór zestawu kostek lego. Wykorzy­stano przy tym magiczną formułę:


3x3=1+8

3x3x3=1+10+8+8


która miałaby stanowić uzasadnienie układu ósemkowego oraz tego, w jaki sposób są zbudowane z kwarków protony i ich towarzysze. Wydaje się, że w końcu to trójka okazała się szczęśliwą liczbą zarówno w przyrodzie, jak i dla moich wierzących w zabobony kolegów!

Formułę powyższą należy rozumieć w ten sposób, że dwa kwarki wy­stępujące razem w jakiejś cząstce (kombinacja 3x3 po lewej stronie równo­ści) mogą tworzyć oktet cząstek (ósemka po prawej stronie równości), a trzy kwarki (kombinacja 3x3x3 w drugiej równości) w cząstkach podobnych powiedzmy do protonu mogą tworzyć ósemki lub dziesiątki (zgodnie z pra­wą stroną). Doskonale zgadzało się to ze sposobem, w jaki grupowały się nowo odkryte cząstki. Na podstawie takiego modelu i po przyjęciu, że cząstki są zbudowane z kwarków, można było również wyjaśniać szczegóły, w jaki sposób cząstki rozpadają się. Sukces ten doprowadził do powszechnej w nauce akceptacji kwarkowego modelu cząstek. Mrowie nowo odkrytych cząstek dało się wytłumaczyć za pomocą bardzo niewielu składników. W końcu musiało istnieć jakieś spoiwo utrzymujące kwarki wewnątrz czą­stek. Nazwano je gluonami i przewidywano, że będzie ich aż osiem róż­nych rodzajów. W ostatnim dziesięcioleciu uzyskano potwierdzenie tych prognoz.

Próbowaliśmy dotąd przedstawić najprostszy z możliwych obrazów czą­stek elementarnych. Jednak w celu zwiększenia wyrazistości obrazu musimy poświęcić mu nieco więcej uwagi. Okazuje się więc, że aby dopasować ła­dunki obserwowanych cząstek muszą istnieć co najmniej dwa różne triplety, z których jeden składa się z dwóch kwarków górnych u z ładunkiem +2/3 i jednego kwarka dolnego d z ładunkiem -1/3, a drugi z dwóch kwarków dol­nych (-1/3) i jednego kwarka górnego (+2/3). Obdarzony jednostkowym ładunkiem elektrycznym proton oraz obojętny neutron można wtedy przedsta­wić jako kombinację kwarków:


proton = (u u d)

neutron = (u d d)


Siła pomiędzy tymi kwarkami przejawiająca się w postaci materialnej jako gluony byłaby odpowiedzialna za uformowanie się takich kombinacji. Aby wyrazić właściwości wszystkich nowo odkrytych towarzyszy protonu w układzie ósemek i dziesiątek, wspomnianych przedtem, należy wprowadzić cztery inne triplety składające się dodatkowo z czterech kolejnych kwarków powabnego (c), dziwnego (s), dziwnego albo pięknego (b) i wierzchołkowego (t). Jak dotąd jedy­nie kwark t nie został zaobserwowany, zapewne dlatego, że jest zbyt ciężki na to, ty można go było otrzymać w dzisiejszych akceleratorach. Wszystkie cząstki można pogrupować w trzy rodziny składające się z:


(u, d, e, ne), (c, s, m, nm), (t, b, t, nt)


gdzie pozostałe symbole oznaczają:

e - elektron

m - mion

ne - neutrino elektronowe

nm - neutrino mionowe

nt - neutrino tau


przy czym uważa się, że wraz z fotonem (g) i ośmioma gluonami (gl) dostar­czą wytłumaczenia struktury prawie wszystkich cząstek obserwowanych w przyrodzie.

W końcu, wydłużamy drabinę schodzenia redukcjonizmu do obszarów tak małych jak:


MATERIA

­

CZĄSTECZKI

­

ATOMY

­

JĄDRA + ELEKTRONY

­ ­

PROTONY + NEUTRONY ELEKTRONY + NEUTRINA

­ ­

KWARKI (u,d,c,s,t,b) (e, ve, m, vm, t, vt)


Zbieranie w całość


Podczas gdy skoncentrowaliśmy się na cząstkach, to jedynie okazjonal­nie, jak gdyby przez przypadek, wspomnieliśmy o siłach występujących pomiędzy nimi. Należy również wyjaśnić te siły oraz dostarczyć dalszych istotnych wskazówek odnośnie do natury materii.

Wyobraź sobie, że jesteś Marsjaninem krążącym po całej naszej planecie w swoim UFO. Przelatując nad Wimbledonem, podczas gdy odbywa się tam właśnie dwutygodniowy turniej tenisowy, postanawiasz zatrzymać się ponad jednym z kortów (tak, aby nie przeszkadzać graczom i widzom) i przyjrzeć się uważnie. Dostrzegasz loty w tę i z powrotem małego, białego (lub żółte­go), okrągłego obiektu. Podczas gdy na korcie akcja rozwija się, wiele po­dobnych do robotów obiektów pozostaje na swoich miejscach, nie wykonu­jąc żadnych ruchów oprócz obracania swoich górnych części raz w jedną, raz w drugą stronę, tak jakby śledziły lot małych, białych kuł (czynisz roztropną uwagę, że układ postrzegania, wykorzystywany przez te maszyny, musi być kiepski, ponieważ wymaga do śledzenia toru lotu tak obszernych ruchów i tak znacznej ilości energii). Po ustaniu ruchów białych obiektów roboty porusza­ją się wreszcie same i opuszczają wspólnie region, który zajmowały. Doj­dziesz do wniosku, że wszystko to razem jest bardzo interesującym zjawi­skiem i po powrocie na Marsa zameldujesz swojemu zwierzchnikowi, że sama wymiana białych obiektów stwarza siłę przyciągającą, która zanika wraz z u-staniem ich ruchów.

Fizycy cząstek postrzegaj ą siły natury w podobny sposób jako wywołane wymianą cząstek lub kwantów. Tak więc siły elektromagnetyczne występu­jące pomiędzy cząstkami wynikają z wymiany fotonów. Podobnie, w proto­nie czy w neutronie, kwarki są ze sobą związane cząstkami pola sił jądro­wych, i cząstki te nazwano gluonami. Jest jeszcze jedna siła, o której już wspo­minaliśmy, siła odpowiedzialna za promieniotwórczość. Zastanawiano się nad jej naturą już w latach trzydziestych, lecz nie zrozumiano jej prawidłowo w ra­mach języka wymieniających się kwantów, i dopiero w późnych latach sześć­dziesiątych, po powstaniu teorii unifikującej elektromagnetyzm i promienio­twórczość, osiągnięto pewne zrozumienie. Zasugerowano wtedy, że dla sił odpowiedzialnych za promieniotwórczość muszą istnieć jakieś powiązane z nimi cząstki, które można uważać za promieniotwórczych towarzyszy foto­nów. Okazało się, że były to mezony (tak jak fotony mające trzy stany spino­we) nazwane W i Z. Przewidywano, że ich masa musi być około dwustu razy większa niż masa protonu. W celu ich znalezienia wybudowano w Genewie linowy akcelerator LEP (large electron positron machine, wielki akcelerator pozytronowy), za pomocą którego udało sieje znaleźć, przy czym okazało się, że ich właściwości dokładnie zgadzają się z przewidywaniami. Dotych­czas odnaleziono już tysiące mezonów Z i W. Znaczenie ostatniego stwier­dzenia jest ogromne, ponieważ dzięki niemu można dowiedzieć się, jak to daje się wykazać poprzez dopasowanie właściwości tych mezonów do róż­nych modeli innych cząstek, jaka jest liczba rodzin, które zawierają w sobie lekkie neutrina; odpowiedź brzmi: trzy. Wynika z tego, że nie istnieją już żadne inne rodziny, których musielibyśmy dalej szukać, co ogranicza silnie liczbę możliwych, ostatecznych postaci materii.

Nasza opowieść o materii dobiega niemal końca. Drabina redukcjonizmu jawi się teraz w postaci:

MATERIA

­

CZĄSTECZKI

­

ATOMY

­

JĄDRA FOTONY ELEKTRONY

­


[PROTONY + NEUTRONY ] FOTONY [ELEKTRONY +NEUTRINA]

­


(u, d)

(c, s)

(b, t)

KWARKI + GLUONY + FOTONY +

(ELEKTRONY + NEUTRINA)

(MIONY + NEUTRINA) (TAONY+NEUTRINA)

+ (W,Z)

MEZONY


Kwanty oddziaływań wydają się wyglądać następująco:


SIŁA

KWANTY

Elektromagnetyczna

Jądrowa

Promieniotwórczość

Fotony

Gluony

Mezony W i Z


Redukcjonistyczna drabina oraz tabela kwantów oddziaływań jest przedstawiona na podstawie najbardziej aktualnej wiedzy, osiągalnej w chwili pisania tej książki. Być może przy końcu stulecia nowe wyniki, otrzymane za pomocą właśnie budowanych akceleratorów, dodadzą do tej drabiny nowych szczebli. Możliwe, że zostaną odkryte nowe pozycje w tabeli oddziaływań. Powiększyłoby to jedynie obszary sukcesu programu redukcjonistycznego; nie ma szans, by drabina wydłużyła się w górę. Może ona wydłużać się jedy­nie w głąb, do niższych warstw materialnego świata.

Pozostał do opisania jeszcze jeden aspekt. Jest nim, wyczuwalny we wszyst­kich dotychczasowych opracowaniach, nacisk położony na unifikację. Zaczęło się to od momentu, kiedy jeszcze w 1984 roku James Clark Maxwell zunifikował elektryczność i magnetyzm. Dołączyły do tego oddziaływania chemiczne, co doprowadziło do lepszego zrozumienia układu okresowego pierwiastków. Dal­sza unifikacja nastąpiła po uwzględnieniu mezonów W i Z. Doprowadziło to do pojęcia tak zwanych oddziaływań elektrosłabych (przy czym określenie słaba oznacza, że jest to najsłabsza ze wszystkich niegrawitacyjnych sił). Próbuje się teraz włączyć do unifikacji siły jądrowe, lecz powstała w ten sposób teoria, zwa­na w analogii do elektrodynamiki chromodynamiką, nie doprowadziła jeszcze do zbudowania żadnego zadowalającego modelu. Całą historię unifikacji można by przedstawić następująco:



Ważną ideą, która była wielce pomocna przy dojściu do zrozumienia sił występujących w przyrodzie, jest idea zwana zasadą niezależnych pomiarów. Zezwala ona na wielką redukcję wszystkich możliwych oddziaływań, które trzeba analizować. Powróćmy do obrazu Marsjanina zawieszonego nad Wimbledonem oraz do piłki, którą wymieniają między sobą roboty. Niezależnie od tego, co widać na zewnątrz, inteligentny Marsjanin uwzględniłby, zgodnie z zasadą niezależnych pomiarów, że grające w tenisa roboty mają jakieś kół­ka na głowie oraz podobną do tarczy rękę. Widać, że położenie tej ręki-tarczy zmienia się gwałtownie w chwili odbijania piłki. Wydawać by się mogło, że .położenie to jest uzależnione od sił występujących pomiędzy robotami. Dokładniejsza jednakże obserwacja wskazuje, że siła pomiędzy robotami, wywołana wymianą piłek, nie zależy od pozycji tarczy (wiemy już, że chodzi o rakietę tenisowa. Niezależność siły od pozycji tarczy-ręki tworzy bliską analogię do zasady niezależności przyrządów. Dokładna analiza wskazuje, że ta zasada ma ogromny wpływ na ograniczenie liczby różnych form, które mogłyby przyjąć jakieś oddziaływania. Teoria oddziaływań elektrosłabych oraz chromodynamika były zbudowane głównie na podstawie tej idei. Ewen­tualne teorie wielkiej unifikacji (łączące obydwie), sugerowane również w ra­mach zasady niezależności przyrządów, nadal są sprawdzane.

Obecnie próbujemy włączyć do zunifikowanego obrazu grawitację, któ­ra stałaby się czwartą siłą w przyrodzie objętą tą kombinacją z pozostałymi dwoma. Zasygnalizowano to na diagramie poprzez umieszczenie znaku za­pytania. Jeżeli udałoby się osiągnąć taką całkowitą unifikację wszystkich sił przyrody, to czy możliwe, byśmy w końcu nie odkryli JTP?6. Coraz ważniejsze problemy


Grawitacja jako geometria


Grawitacja jest siłą, której człowiek doświadcza stosunkowo najdłu­żej ze wszystkich sił przyrody, lecz mimo to stwarza ona najwięcej trudności w zrozumieniu i odmodelowaniu. Człowiek prymitywny musiał uwzględniać grawitację, aby nie spaść w przepaść lub wykorzystując strome wzgórza, aby uzyskać przewagę nad wrogiem. Upolowanie ptaka czy innego zwierzęcia wymagało zrozumienia wpływu grawitacji na lot pocisku mającego dosięgnąć zdobycz. Dawni budowniczowie musieli nauczyć się tak układać masywne elementy budowlane, aby powstałe siedziby były zdolne wytrzymać tę wszechobecną siłę.

Poszukiwania zrozumienia siły grawitacyjnej dobrze się zaczęły. W tym samym bowiem czasie, gdy Newton odkrył swoje trzy prawa ruchu, podał również prawo powszechnego przyciągania grawitacyjnego ciał, nazwane prawem odwrotnego kwadratu (z którego wynika, że jeśli ciała zwiększą od­ległość między sobą dwukrotnie, to siła przyciągania zmniejszy się cztero­krotnie). Jednocześnie prawa ruchu oraz prawo powszechnego ciążenia do­prowadziły do dobrze zdefiniowanego modelu ruchu planet wokół Słońca oraz umożliwiły stosunkowo dokładne wyznaczenie ich orbit, a nawet po­zwoliły na podstawie zakłóceń występujących w ruchu Urana przewidzieć istnienie kolejnej planety poza jego orbitą. Poszukiwania zakończyły się suk­cesem; znaleziono Plutona, dziewiątą planetę.

Na przełomie naszego stulecia prawo powszechnego ciążenia zaczęło się wydawać sprzeczne z innymi prawami fizyki. Powstała idea, że istnieje jakaś granica prędkości, z jaką mogą rozprzestrzeniać się jakiekolwiek oddziały­wania. Albert Einstein uczynił z tego główny postulat swojej szczególnej teorii względności, którą omówiliśmy w poprzednim rozdziale. podstawową przesłanką było to, że światło biegnie zawsze z tą samą prędkością, z czego wynikało, iż ta prędkość jest graniczną prędkością, jaką może osiągnąć jakikolwiek obiekt. Jednakże wydawało się, że grawitacja oddziałuje pomiędzy dwoma ciałami obdarzonymi masą w sposób natychmiastowy, a więc w grzeczności ze szczególną teorią względności.

Einstein doszedł do wniosku, że musi rozszerzyć szczególną teorię na przypadki, kiedy dwóch obserwatorów nie porusza się w stosunku do sie­bie ruchem jednostajnym (jak to ma miejsce w szczególnej teorii), a ruchem przyspieszonym. Rozważał przypadek kogoś znajdującego się w windzie wysokiego budynku. Jeżeli winda pozostaje w spoczynku, to dana osoba odczuwa wpływ grawitacji w ten sam sposób jak inni. Jeżeli urwie się lina podtrzymująca, winda zaczyna swobodnie spadać i osobnik staje się nieważki. Gdy porusza się ruchem przyspieszonym w kierunku dna szybu windy, siła ciężkości zostaje całkowicie zniesiona. Prawdziwej nieważkości już doświadczyło wielu astronautów, lecz we wczesnych latach naszego stulecia był to czysty eksperyment myślowy, bez wątpienia bardzo twórczy. oprowadził bowiem Einsteina do wniosku, że grawitacja jest równoważna przyspieszeniu. Oznacza to, że przynajmniej w małych obszarach efekty grawitacyjne można znieść odpowiednim przyspieszeniem, tak dzieje się na przykład podczas swobodnego spadku. Jednakże odwrotna sytuacja będzie również prawdziwa: jeżeli można by rozszerzyć szczególną teorię względności na przypadek, kiedy obserwatorzy oddalają się od siebie ruchem przyspieszonym, to należy się spodziewać, że będą oni doświadczać czegoś, co mogliby zinterpretować jako siłę grawitacyjną (jako że przy­spieszenie i grawitacja są sobie równoważne).

Jednym z najbardziej istotnych następstw natury filozoficznej stał się fakt, że czas podobnie jak przestrzeń nie jest absolutny, lecz zależy od obserwato­ria Podobieństwo tej cechy w obydwu wielkościach pozwoliło na wprowa­dzenie tak zwanego kontinuum czasoprzestrzennego, mającego trzy wymiary przestrzenne i jeden czasowy. Kontinuum to miałoby być wypełnione, według szczególnej teorii względności Einsteina, obserwatorami poruszającymi się ruchem jednostajnym. Żaden z nich nie byłby przy tym uprzywilejowany w stosunku do innych, więc dlatego używa się terminu względność; określenie szczególna oznacza, że ogranicza się obserwatorów tylko do takich, którzy poruszają się ze stałą szybkością. Wraz z nowym sposobem pojmowania grawitacji jako przyspieszenia uświadomiono sobie, że należy uwzględnić w swoich rozważaniach również obserwatorów poruszających się dowolnie. Pojęcie względności pozostaje ciągle w mocy, lecz teraz rozszerzono je o obserwatorów poruszających się w sposób dowolny.

W tym momencie Einstein wprowadził idee, które zmieniły całą fizykę oraz sposób, w jaki patrzymy na świat. Zaproponował bowiem, że współrzędne w czasoprzestrzeni, jakie przyporządkowujemy zdarzeniom, nie maj ą żadne­go związku z przebiegiem podstawowych zjawisk. A więc jakiś człowiek znajdujący się czy to w stojącej, czy też spadającej swobodnie windzie, nie będzie w stanie wykryć żadnych zmian podstawowych sil przyrody, jeżeli nie będzie mógł wyjrzeć przez okno. Mógłby jedynie zaobserwować rzeczy­wiste efekty grawitacyjne wynikłe z zakrzywienia powierzchni Ziemi, pole­gające na subtelnej różnicy kierunku swobodnego spadku po jednej i po dru­giej stronie kabiny windy.

Współrzędne nie mają znaczenia, to główne założenie nowej ogólnej teo­rii względności. Jeżeli tak miałoby być w istocie, to w jaki sposób oddziałuje grawitacja? Einstein doszedł do wniosku, że jedynym sposobem, w jaki moż­na sobie poradzić z tym pytaniem, jest sformułowanie odpowiedzi za pomocą geometrii czasoprzestrzeni. Właściwości geometryczne obiektów nie zależą od współrzędnych określających, gdzie dany obiekt znajduje się w przestrze­ni. Geometria zajmuje się takimi obiektami jak punkt, prosta, płaszczyzna, powierzchnia itp. oraz bada ich właściwości, na przykład docieka, gdzie prze­cinają się trzy proste. Żadna z takich właściwości nie zależy od konkretnych współrzędnych przyporządkowanych danym punktom, prostym itd.

Nie ma żadnego powodu, aby czterowymiarowa czasoprzestrzeń (lub trzy kierunki w przestrzeni i czwarty w czasie) miała właściwości postulowane pierwotnie przez greckiego matematyka Euklidesa. W przestrzeni euklideso­wej, określanej często terminem płaskiej, dwie proste równoległe nigdy się nie przecinają. Suma wewnętrznych kątów trójkąta wynosi zawsze 180 stop­ni. Istnieje jednakże wiele przestrzeni, które nie są płaskie. Rozważmy prosty przykład powierzchni kuli. Analogią do prostej (która wyznacza najkrótszą drogę pomiędzy dwoma punktami) jest na powierzchni kuli wielkie koło. Ja­kiekolwiek dwa takie koła zawsze się przecinają, podczas gdy proste równo­ległe leżące na płaszczyźnie nie przecinają się nigdy. Inną różnicą jest to, że suma wewnętrznych kątów trójkąta leżącego na powierzchni kuli jest zawsze większa od 180 stopni. Wielu matematyków poprzedniego stulecia sugero­wało, że nasza fizyczna przestrzeń może również nie być płaska i próbowano nawet wyznaczyć doświadczalnie, ile faktycznie wynosi suma kątów w trój­kącie, powstałym po połączeniu trzech wierzchołków gór. Próby tego rodza­ju nie potwierdziły wtedy przypuszczeń i dopiero wielki twórczy skok doko­nany przez Einsteina doprowadził do uznania zakrzywienia przestrzeni fizycznej za rzeczywistość. Założył on, że nasza czterowymiarowa czasoprzestrzeń jest zakrzywiona, przy czym sama krzywizna (zdefiniowana zgodnie ze wszystkimi regułami geometrii) jest siłą grawitacyjną oddziałującą na lekkie ciała poruszające się swobodnie w czasoprzestrzeni.

Jeden z powodów, dlaczego możliwe było podanie takiego prostego opisu sposobu, w jaki lekkie ciała poruszają się pod wpływem grawitacji, był konse­kwencją wspomnianego uprzednio swobodnego spadku. W stanie nieważkości masa nie wpływa na ruch ciał pod wpływem grawitacji. Cechę tę nazywamy zasadą rówoważności, którą można wyrazić słowami: pod wpływem ciążenia wszystkie ciała spadają z jednakowym przyspieszeniem. Wydaje się, że obowią­zuje ona na wszystkich poziomach materii, włączając nawet tak małe cząstki jak protony, neutrony i elektrony, co potwierdzają doświadczenia przeprowadzone dokładnością do jednej miliardowej części.

Grawitacja, traktowana jako zakrzywienie czasoprzestrzeni, może być bardziej zrozumiała przy porównaniu jej do gumowego snookera. Stół bilar­dowy byłby wtedy pokryty powłoką gumową, zamiast suknem. Sprytnym Sposobem prowadzącym do wygranej, jest użycie ołowianych kuł. Odkształ­całyby one powierzchnię stołu w pobliżu kuł. Nie podejrzewający niczego przeciwnik, używający lżejszych bil, wykona uderzenie, które będzie chybione, ponieważ jego bila, przyciągnięta krzywizną wywołaną cięższą bilą kolorową, trafi w nią, pomimo tego, że zamiarem przeciwnika było ją minąć. Oczywiście, jeśli byłby on na tyle sprytny, aby grać również ołowianymi bi­lami, to trudno byłoby przewidzieć, jak na rezultat wpłynie odkształcenie powierzchni, spowodowane ciężkimi bilami kolorowymi. Odpowiada to sy­tuacji, kiedy pierwotna krzywizna czasoprzestrzeni jest dalej zmieniana przez cząstki testujące, które się w niej poruszają.

Aby umożliwić obliczenie rzeczywistej krzywizny czasoprzestrzeni, wy­wołanej masą jakiegoś ciała, Einstein w 1915 roku wyprowadził równania ogólnej teorii względności. Przyrównał w nich geometryczną krzywiznę (a w rzeczywistości siłę wywołaną grawitacją) czasoprzestrzeni do rozkładu energii i jej przepływu przez czasoprzestrzeń wypełnioną materią. Innymi sło­wy równania ogólnej teorii względności mają postać:


Krzywizna geometrii = Energia rozkładu mas


Dla bardzo masywnych ciał, podobnych do Słońca, równania dają się rozwiązać, a jedno ze szczególnych rozwiązań dostarcza odpowiedzi, jaki jest wpływ efektu Newtona na większych odległościach. Przy bliższym jednak przyjrzeniu się wynikom otrzymanym na podstawie praw Newtona, a z drugiej strony teorii Einsteina, okazało się, że różnią się one miedzy sobą. W szczególności ponieważ foton ma energię, a więc i masę (z równania E=mc2), to powinien być odchylany przy przejściu w pobliżu Słońca. Podczas całkowitego zaćmienia Słońca, jakie miało miejsce w 1919r., zespół naukowców obser­wował gwiazdę, której światło przechodziło bardzo blisko Słońca. Znając jej prawidłową pozycję oraz mierząc widoczne położenie (zaobserwowane na brzegu tarczy przesłoniętego prawie całkowicie Słońca), można było wyliczyć, o ile wiązka światła przesunęła się w kierunku Słońca, muskając jego brzeg. Pomierzona wartość zgadzała się dokładnie z przewidywaniami Einsteina. Późniejsze doświadczenia potwierdziły tę zgodność z jeszcze większą dokładnością. Nadchodzą relacje o zwielokrotnionych obrazach bardzo odległych kwazarów (zwartych galaktyk emitujących ogromne ilo­ści energii w postaci promieniowania), powstałych w wyniku oddziaływa­nia bliżej położonych galaktyk, które działały jak soczewki grawitacyjne, Dotychczas przeprowadzono wiele testów ogólnej teorii względności, ta­kich jak: tempo spowalniania się ruchu orbitalnego Merkurego wokół Słoń­ca czy odchyłki w opóźnieniu sygnałów radarowych przechodzących w obrębie Układu Słonecznego po odbiciu się od powierzchni planet. We wszystkich tych badaniach potwierdzono zgodność ogólnej teorii względ­ności z wynikami doświadczeń w granicach błędu pomiaru. Uważa się, że stopień zgodności osiąga obecnie wartość jednej dziesiątej procent. Prawo powszechnego ciążenia Newtona odeszło w przeszłość; wszechświat nie jest płaską, trójwymiarową przestrzenią euklidesową (przestrzenią absolutną), z czasem absolutnym biegnącym gładko i niezależnie, lecz zakrzywionym kontinuum czasoprzestrzennym, w którym czas i przestrzeń są względne oraz nierozdzielnie ze sobą przemieszane, a grawitacja jest krzywizną wyznaczoną przez rozkład masy we wszechświecie.


Czarne dziury


Jeżeli zamierzamy kupić samochód, to zwykle chcemy go najpierw sprawdzić podczas krótkiej przejażdżki. Czym trudniejsza próba, tym więk­sza nasza ufność, że samochód jest sprawny. Jeżeli pragniemy zaakceptować jakąś teorię naukową, to najpierw powinniśmy poddać j ą krytycznej weryfi­kacji. Najpierw wylicza się wartości przewidywanych przez teorię zjawisk i porównuje się otrzymane wyniki z wartościami rzeczywistymi, pomierzo­nymi podczas odpowiednio dobranych eksperymentów. I także tutaj im trud­niejsze warunki stawiane podczas doświadczeń, tym więcej ufności w teorię, oczywiście jeżeli wyniki doświadczeń potwierdzą jej przewidywania. Grawitacja jest krzywizną czasoprzestrzeni. To jest wniosek wypływający z tez Einsteina przedstawionych w 1915 roku. Od tego czasu zawładnął on wyobraźnią całych pokoleń. Jest to eleganckie rozwiązanie problemu natury grawitacji, prowadzące do ogromnie ważnych implikacji kosmologicznych, które omówimy w następnym rozdziale. Stwarza ono jednak również możliwość wystąpienia pewnych zaburzeń już w małej jak na skalę wszechświata skali: na przykład powstawanie tak zwanych czarnych dziur i ściskanie, a w konsek­wencji znikanie materii w ich centrum. Prowadzi to do paradoksu, który trze­ba kiedyś w końcu rozwiązać, jak można uniknąć znikania materii znajdują­cej się pod wpływem silnych pól grawitacyjnych? Takie warunki wydają się najostrzejszym testem ogólnej teorii względności. Ponieważ jej przewidywa­nia nie zgadzają się natychmiast z podstawowym modelem (w którym materia nie może po prostu znikać) materii zbudowanym na podstawie teorii Einsteina, to wydaje się, że model ten nie zdał egzaminu.

Przyjrzyjmy się teraz dokładniej, co znajduje się w puli. Istnienie czar­nych dziur nie jest nową ideą. Pierwsze przypuszczenia pojawiły się w końcu (dziewiętnastego stulecia. Opierając się na korpuskularnej teorii światła suge­rowano, że wielka i wystarczająco skoncentrowana masa uniemożliwi ucieczkę światła ze swojej powierzchni, a każda odrobina światła, która do niej dotrze, będzie schwytana na zawsze. Z wielu różnych teorii wyciągnięto wtedy jedy­nie ten wniosek. Inne właściwości czarnych dziur nie były jednak jeszcze przez długi czas dyskutowane. Tego rodzaju fantazje stały się bardziej rze­czywiste dopiero po tym, jak Einstein przedstawił swoje poglądy o naturze grawitacji i światła, jak również po osiągnięciu lepszego zrozumienia ewolu­cji gwiazd. W szczególności uświadomiono sobie, że źródłem energii gwiazd jest fuzja jądrowa, która zachodzi z coraz mniejszym prawdopodobieństwem w miarę zużywania się paliwa nuklearnego. Początkowo energia powstaje w wyniku fuzji atomów wodoru w atom helu; później atomy helu łączą się wytwarzając atomy węgla i towarzyszącą temu procesowi energię. Proces taki trwa do chwili powstania żelaza. Fuzja atomów żelaza nie powoduje już wy­twarzania się energii. Ostatecznie zatem, każda gwiazda musi umrzeć, kiedy przekształci znaczną część swojego pierwotnego wodoru w żelazo. Jej koniec może mieć charakter dość katastroficzny biorąc pod uwagę ogromne ciśnienie wytwarzane przez promieniowanie elektromagnetyczne (w tym światło), które próbuje wydostać się z wnętrza gwiazdy na powierzchnię. Kiedy w wyniku ustania procesów syntezy i związanego z tym wydzielania się energii spadnie ciśnienie, to gwiazda zapadnie się na siebie samą i będzie to miało charakter katastrofy, podczas której zewnętrzne części gwiazdy zostaną gwałtownie odrzucone. Na przestrzeni minionych tysiącleci ludzie mieli oka­zję obserwować wybuchy supernowych na niebie. Na przykład Chińczycy dostrzegli pojawienie się w 1054 roku supernowej w konstelacji Kraba. Osta­teczny los umierającej gwiazdy rysuje się stosunkowo łagodnie, jeśli traci sporo swojej masy tak, że siły grawitacji w jej wnętrzu nie są zbyt wielkie. Obliczono, że jeżeli utrzyma masę nie większą niż jedną i jedną czwartą masy Słońca, to skurczy się do takiego stopnia, iż jej gęstość zwiększy się około stu milionów razy. Będzie z wolna zamierać, stając się najpierw białym, a póź­niej niewidocznym czarnym karłem (zwanym tak dlatego, że będzie zaledwie rozmiarów Ziemi). Pozostanie w takim stanie, w którym staje się już niemoż­liwa emisja energii świetlnej, ponieważ elektrony są zbyt gęsto upakowane i nie mogą przechodzić na niższe stany energetyczne, co jest konieczne do wysłania fotonu. Jeżeli pozostała po wybuchu masa równa się około trzech mas Słońca, to elektrony nie mogą już powstrzymać dalszego zapadania się gwiazdy. Będzie się ona kurczyć coraz bardziej, aż jej gęstość stanie się mi­lion razy większa od gęstości czarnego karła, a jej stan będzie utrzymywany poprzez oddziaływania pomiędzy neutronami, z których będzie zbudowana. Ma teraz średnicę zaledwie kilku kilometrów i nazywa się ją całkiem trafnie gwiazdą neutronową. Początkowo będzie miała silne pole magnetyczne i wi­rując z wielką szybkością będzie wysyłać oscylujące promieniowanie, co odpowiada dokładnie obrazowi pulsarów, odkrytych po raz pierwszy w 1973 roku w Cambridge.

Jeżeli wszystkie straty masy nie są wystarczające (ponieważ początkowo gwiazda była zbyt wielka), to wnętrze gwiazdy nie ma możliwości powstrzy­mania procesu dalszego kurczenia się. Następuje katastrofa! W miarę jak gwiazda się kurczy coraz bardziej, zwiększa się również pole grawitacyjne. Powoduje to zwiększanie się prędkości ucieczki z jej powierzchni (jest to prędkość, z którą obiekt znajdujący się na powierzchni, może wydostać się na orbitę lub jeszcze dalej). Prędkość ucieczki z powierzchni Ziemi wynosi około 13 kilometrów na sekundę, podczas gdy z białego karła około 1000 km/s, a z gwiazdy neutronowej 10 000 km/s. Zapadająca się gwiazda osiąga w końcu taki rozmiar, że prędkość ucieczki równa się prędkości światła. W po­przednim rozdziale stwierdziliśmy, że nie można poruszać się z prędkością przekraczającą prędkość światła, a więc poczynając od tego rozmiaru, gwiazda staje się czarna. Żadna odrobina światła padającego lub emitowanego z gwiaz­dy nie jest w stanie pokonać sił przyciągania. Utworzy się czarna dziura.

Powierzchnię kulistą utworzoną w tym krytycznym stanie nazywamy ho­ryzontem zdarzeń. Jest to trafnie dobrana nazwa, ponieważ żadna informacja o zdarzeniach, które mają miejsce wewnątrz tej sfery, nigdy nie może wydostać się na zewnątrz. Istnienie takiej bariery komunikowania się stawia istotne pytania przed filozofią nauki. W jaki sposób można by formułować jakieś przewidywania odnośnie do zdarzeń wewnętrznych, jeśli nie ma szans na ich weryfikację? Zostałem na przykład zaproszony do udziału w jury konkursu na naj­lepsze opowiadanie na temat: Jak dostać się do wnętrza czarnej dziury i ocaleć? problemem stało się dli mnie rozstrzygnięcie wątpliwości, która z przedsta­wionych propozycji jest prawidłowa, a która błędna. W zasadzie nikt nigdy nie będzie znał odpowiedzi To znaczy, dopóki sam nie wpadnie do obszaru ogra­niczonego horyzontem zdarzeń. Lecz wtedy, w jaki sposób mógłby dotrzeć do zwyczajowych kanałów naukowych, które obejmuj ą publikacje w czasopismach oraz późniejszą weryfikację przez innych badaczy. Byłoby to niemożliwe, chy­ba że ci inni badacze, razem z wydawcami, wpadliby tam również. Jedynie wtedy, gdy wszyscy zainteresowani oraz związani z tematem naukowcy wzię­liby udział w masowym samobójstwie i wpadli do wnętrza horyzontu zdarzeń, można by uzyskać zweryfikowane potwierdzenie odpowiedzi. Jednakże samo takie poświadczenie nie przetrwałoby długo.

Jeżeli coś dostaje się do wnętrza czarnej dziury, to mimo nawet znacz­nych początkowych rozmiarów, będzie zgniatane coraz bardziej. Jeżeli czar­na dziura ma duże rozmiary (powiedzmy, że jej masa odpowiada masie na­szej galaktyki, która składa się z setek miliardów gwiazd podobnych do Słoń­ca), to można wyliczyć, że efekty ściskania i kurczenia się dadzą się dostrzec dopiero po upływie tygodnia po przekroczeniu horyzontu zdarzeń (następny tydzień jest potrzebny, by dotrzeć do środka). Czarna dziura o masie Słońca ma krytyczny rozmiar rzędu zaledwie trzech kilometrów, a nasza Ziemia, przy takiej gęstości, miałaby średnicę zaledwie rzędu jednego centymetra. W każ­dym jednakże przypału, silne efekty grawitacyjne dałoby się odczuć na dłu­go przed osiągnięciem horyzontu zdarzeń.

Przekroczywszy krytyczną sferę wszystko nieubłaganie jest zasysane do centrum, gdzie siła grawitacji staje się nieskończenie wielka. Ponadto, aby dotrzeć do środka potrzeba skończonego czasu. Musimy przy tym pamiętać o względności czasu i w tym przypadku, tak zwanym właściwym czasem, będzie czas związany z układem spadającego ciała. Zegarek, przypięty na przegubie swobodnie spadającego, wskazywałby właśnie taki czas. W czarnej dziurze o masie galaktyki potrzeba około dwóch tygodni na przebycie Odległości pomiędzy horyzontem zdarzeń a środkiem. Lecz gdy materia dotrze do centrum, to w pewnym sensie zniknie. Stwarza to wewnętrzną sprzecz­ność, o której wspomnieliśmy przedtem, ponieważ materia nie może po prostu tak sobie znikać, przynajmniej ta postać materii, którą znamy na Ziemi. Być może przeistacza się w inną postać, lecz przecież nie znika. Można mniemać, że w bardzo odległych regionach wszechświata materia zachowuje się w zupełnie odmienny sposób, lecz ponieważ nie mamy najmniejszej wska­zówki, która byłaby w tym przypadku pomocna, sugestia powyższa nie wy­daje się wnosić niczego pożytecznego.

Ponieważ zarówno w naszej galaktyce, jak i poza nią, znajduje się wiele obiektów pretendujących do miana czarnej dziury, to nie można pozbyć się paradoksu znikania materii twierdzeniem, że czarne dziury nie istnie­ją. W naszej galaktyce znajduje się obiekt o nazwie Cygnus X-l, który jest układem podwójnym, składającym się z niebieskiego superolbrzyma o ma­sie co najmniej dziesięciu mas Słońca oraz z niewidzialnego towarzysza (dostrzegalnego jedynie za pośrednictwem oddziaływania na ruch widzial­nej gwiazdy), obiegającego orbitę w ciągu pięciu dni i mającego również masę przynajmniej dziesięciu mas Słońca. Obiekt ten jest źródłem wyso­koenergetycznego promieniowania rentgenowskiego, które jak się sądzi pochodzi z materii podkradanej niebieskiemu olbrzymowi przez niewi­dzialnego partnera. Trudno sobie wyobrazić, aby to było coś innego niż czarna dziura. Innym kandydatem jest obiekt NGC4151 znajdujący się w galaktyce Seyferta, położonej w odległości pięćdziesięciu milionów lat świetlnych. Silna emisja w paśmie ultrafioletu wskazuje na obłoki gazo­we rozprzestrzeniające się z centralnych obszarów, które jak się powszech­nie sądzi mają rozmiary rzędu trzynastu dni świetlnych (dzień świetlny to droga, jaką światło przebywa w ciągu jednego dnia i równa się około 26 miliardów kilometrów). Szacuje się, że masa jądra równa się około pięć­dziesięciu masom słonecznym, z czego trudno nie wyciągnąć wniosku, iż centralne regiony tej galaktyki tworzą czarną dziurę. W końcu kwazary, które są bardzo odległymi punktowymi obiektami emitującymi ogromne ilości energii, można uważać za źródła energii, tylko po przyjęciu, że ich energia powstaje w wyniku kanibalizmu centralnej czarnej dziury, poże­rającej otaczające ją gwiazdy.

Jeżeli w końcu okazałoby się, że nie wszystkie wspomniane wyżej obiek­ty są czarnymi dziurami, to nawet samo doświadczenie myślowe zapadania się materii w czarną dziurę oraz obliczenia, z których wynika, że cała mate­ria wszechświata zniknie, wskazują, że ogólna teoria względności oraz kla­syczne pojmowanie materii zawierają zarodek swojej własnej destrukcji. Ponadto wszystko wskazuje, że żyjemy w rozszerzającym się wszechświecie, który jak się wydaje jakieś piętnaście miliardów lat temu musiał nagle powstać z niczego podczas Wielkiego Wybuchu. Cofając się w czasie do­chodzimy do momentu, kiedy cały wszechświat znika. Nie da się tego po­minąć stwierdzeniami, że znikanie materii w bardzo silnych polach grawi­tacyjnych nie występuje. Nasz wszechświat jest tego dowodem nie wprost. wynika z tego, że ogólna teoria względności, sformułowana w postaci


Krzywizna geometrii = Energia materii


musi zawierać gdzieś błędy, ponieważ prowadzi do absurdu znikającej materii. W następnej części zbadamy różne możliwości rozwiązania tego para­doksu.


Probabilistyczna grawitacja?


Wprowadzony w poprzedniej części wniosek, że materia znika w centrum czarnej dziury w skończonym czasie, niszczy piękny obraz na­kreślony w 1916roku przez Einsteina w jego ogólnej teorii względności. Opis materii podany powyżej wskazuje na lepsze jej zrozumienie oraz na koniecz­ność wprowadzenia modyfikacji do modelu zbudowanego w 1916 roku. Musimy przynajmniej uwzględnić w mechanice kwantowej cechy materii Opisane w rozdziale 5. Być może materia przyjmie wtedy jakąś rozmazaną postać, wynikającą z nieoznaczoności miejsca i czasu, co mogłoby prowa­dzić do nowych zjawisk.

Jeżeli rozpatrujemy zjawiska spoza horyzontu zdarzeń, a w szczególno­ści znajdujące się w bliskim jego sąsiedztwie, to dochodzimy do przekona­nia, że najbardziej interesujące jest zjawisko promieniowania czarnej dziury. Przewidywane w 1974 roku przez Hawkinga, odpowiada horyzontowi zda­rzeń czarnej dziury i sądzi się, że jest ono bardzo gorące. Jego temperatura wzrasta w miarę zmniejszania się masy, co wynika z faktu, że zmniejszanie się czarnej dziury prowadzi do gwałtownego wzrostu pola grawitacyjnego. Największa grawitacja będzie więc panować w otoczeniu miniczamych dziur. Podjęto próby wykrycia tego promieniowania, które wyemitowane przez pier­wotne miniczarne dziury powinno przenikać cały wszechświat, lecz jak do­tychczas nie znaleziono jego żadnych śladów.

Uwzględnienie faktu, że rozkład materii może wynikać z jakiej ś falowej funkcji prawdopodobieństwa, nie pomaga w rozwiązaniu paradoksu znikania materii w centrum czarnej dziury. Co gorsza, prowadzi do powstania nowego paradoksu. ogólna teoria względności Einsteina przyjmuje bowiem teraz postać


Krzywizna geometrii = Energia nieoznaczonego rozkładu materii


Po prawej stronie mamy nieoznaczoną wielkość, która może przyjmo­wać wyznaczone jakimś prawdopodobieństwem wartości zmieniające się w funkcji nieoznaczoności rozkładu materii. Po lewej stronie mamy ustaloną wielkość geometryczną. Pierwotną wersje teorii Einsteina można postrzegać jako przyrównanie marmuru (odpowiadającego sztywnej strukturze geome­trii) do drewna (kojarzonego z dowolnym, być może sękatym, rozkładem materii), podczas gdy nowa wyżej przedstawiona wersja odpowiada przy­równaniu marmuru do piany na powierzchni morza. Piana rozpływa się wszę­dzie, raz ukazując się tu, innym razem gdzie indziej. W takim razie, w jaki sposób marmur miałby przyjmować taką zmienną postać? (Pozostałoby jedy­nie przyjąć, że marmur staje się podobny do piany, a grawitacja jest określo­na prawdopodobieństwem, co dopiero pozwoliłoby przyrównać podobną do marmuru krzywiznę grawitacji z podobną do drewna energią materii). Nowa wersja modelu Einsteina wyglądałaby wtedy następująco:


Krzywizna nieoznaczonej geometrii = Energia nieoznaczonej materii


Obydwie strony równania mają tę samą kwantowo-mechaniczną postać. Teraz, po modyfikacji wersji Einsteina z 1916 roku, model jest gotowy do procedury weryfikacyjnej.

Aby przeprowadzić weryfikację jakiegoś modelu naukowego, należy sfor­mułować pewne przypuszczenia wynikające z przyjętego modelu i sprawdzić ich zgodność z faktami doświadczalnymi. W przypadku grawitacji mógłby to być, na przykład, ruch planet wokół Słońca czy rozpraszanie grawitacyjne dwóch cząstek elementarnych, takich jak neutrony, na sobie nawzajem. Pró­by tego rodzaju podejmowano już na przełomie lat dwudziestych i trzydzie­stych i odkryto, że nie można otrzymać żadnych sensownych wyników. Wszel­kie liczbowe przewidywania przyjmowały wartości nieskończone. Działo się tak również w przypadkach dotyczących samej tylko materii. Przypadek nie-grawitacyjny doprowadzano do wartości skończonych, poprzez eliminację wartości nieskończonych, na drodze zmiany masy czy ładunku oddziałujących ze sobą cząstek. Tak zwana renormalizacja doprowadziła do doskonałej zgod­ności z doświadczeniem. W przypadku procesów promieniotwórczych było koniecznością wykorzystanie zasady niezależnych pomiarów (o której była mowa w rozdziale 5.). Utorowało to drogę do unifikacji elektromagnetyzmu i promieniotwórczości, co opisano krótko w tymże rozdziale. Analogicznego podejścia próbuje się teraz w odniesieniu do sił nuklearnych i w ten sposób rodzi się chromodynamika, która jest obecnie intensywnie testowana. Proce­dury normalizacyjne, powstałe w latach pięćdziesiątych i sześćdziesiątych, doprowadziły do sukcesów osiągniętych na polu fizyki wysokich energii. Można teraz wyobrazić nawet równania teorii renormalizowane w taki sposób, że już nie napotyka się żadnych kłopotliwych nieskończoności.

Te procedury, tak skuteczne w fizyce cząstek, okazują się całkowicie nie­przydatne wypadkach nieoznaczonej (probabilistycznej, czyli inaczej kwantowej) grawitacji. Nie może być ona poddana podobnym procedurom normalizacyjnym. Próbując bowiem przewidywać wyniki eksperymentów tworzymy nieskończoną liczbę różnego rodzaju wartości nieskończonych, a rozporządzały jedynie skończoną liczbą mas i ładunków cząstek. Pomimo to wydaje się, nie ma żadnego innego sensownego sposobu, aby uporać się z tymi próbkami, jak tylko na drodze grawitacji kwantowej. Jaką więc dro­gą postępować dalej?

Pewnym wyjściem jest schowanie jak struś głowy w piasek i czekanie, aż problem zniknie. Niektórzy naukowcy tak właśnie postępują. Bardziej kon­struktywnym podejściem jest stanowisko, że obecne metody wyliczania prze­widywanych wyników doświadczeń są jeszcze zbyt niedoskonałe i że irytu­jące nieskończoności znikną po zastosowaniu silniejszych (jeszcze nie od­krytych) technik Ponieważ jednak nikt jak dotąd nie wie, jak one miałyby wyglądać, trakt ten wiedzie donikąd. Trzecią drogą mogłyby się stać próby znalezienia sposobu obłaskawienia nieskończoności występujących w teoriach fizyki cząstek, a następnie doprowadzenie ich do postaci użytecznej w teoriach obejmujących grawitację. Jest to droga, która w końcu doprowadziła do afinicznej teorii grawitacji kwantowej, wykorzystującej pojęcie tak zwanych superstrun. Obejmują one własność zwaną supersymetrią. Weźmy teraz głę­boki oddech i przejdźmy do następnego paragrafu.


Wszystko super


Polowanka pozbawione nieskończoności teorie, opisujące oddziały­wanie cząstek, rozpoczęło się we wczesnych latach osiemdziesiątych po wprowadzeniu pięknej symetrii do zbioru wszystkich cząstek występujących w przyrodzie. Manifestują one swe istnienie na dwa sposoby: jako materia właściwa (protony, neutrony, elektrony itp.) oraz jako promieniowanie (foto­ny, mezony W i Z, gluony). Supersymetrią transformuje te dwie klasy, z jednej w drugą:


Właściwa materia <—> Promieniowanie


Symetria taka jest zaiste bardzo rozległa i uważa się ją za największą, jaka może zaistnieć w fizyce cząstek; żadna inna forma symetrii nie pozwala na zestawienie cząstek materii (w układy ósemek) oddzielnie od cząstek pro­mieniowania lub na włączenie supersymetrii w celu zamknięcia luki powsta­łej na styku materii z promieniowaniem.

Dowolna teoria fizyki cząstek będzie miała supersymetrię wtedy, gdy umożliwi przewidywanie tych samych faktów, niezależnie od konkretnego wyboru cząstek czy promieniowania, ponieważ mogą być one sprzęgnięte ze sobą supersymetrią. Kombinacje takie (typu ósemek i dziesiątek) będą miały skończone rozmiary (a tak zwane supermultiplety zostaną dokładnie sklasy­fikowane). Wkrótce uświadomiono sobie, że chociaż istniejące teorie, obej­mujące wyłącznie materię, operują jedynie wielkościami skończonymi, to żadna z nich nie wydaje się opisywać przyrody zgodnie z rzeczywistością. Aby stworzyć teorię grawitacji, która miałaby być supersymetryczna, należa­łoby znaleźć superpartnerów samej grawitacji. Dokonano tego poprzez roz­szerzenie geometrii do supergeometrii. Jednakże powstała w wyniku tego teo­ria supergrawitacji, mimo znacznej redukcji niewygodnych wartości nieskoń­czonych, miała nadal nieskończoną liczbę takich, które nie poddają się proce­durom normalizacyjnym. Jedną z nich Stephen Hawking okrzyknął kilka lat temu jako JTP.

W tym momencie wątek opowiadania plącze się tak, jak plącze się liczba wymiarów wszechświata. Problemem, który przyciągał uwagę we wczesnych latach dwudziestych, był sposób, w jaki można by zunifiko­wać grawitację i inne siły przyrody bez uciekania się do konieczności uwzględnienia całej probabilistyki i mechaniki kwantowej. Jeżeli przyj­miemy, że grawitacja jest krzywizną geometrii w czterowymiarowej cza­soprzestrzeni, to w jakich wymiarach należy wyrazić krzywizny innych sił? Okazało się, że zakrzywienie w dodatkowym pojedynczym wymiarze przestrzennym jest odpowiednikiem oddziaływań elektromagnetycznych. Zdajemy sobie sprawę, że przy zwykle spotykanych energiach nie żyjemy w czterech wymiarach przestrzeni i jednym czasu, lecz nie mamy żadnej pewności, czy ten dodatkowy istniejący poza naszymi zwykłymi trzema wymiar przestrzenny nie mógłby się nam wyraźnie odsłonić wtedy, gdy­byśmy rozporządzali wystarczającymi energiami. W bardzo wczesnych fazach Wielkiego Wybuchu ten czwarty wymiar przestrzeni (odpowie­dzialny za oddziaływanie elektromagnetyczne, traktowane jako jego za­krzywienie) może być równie istotny jak inne. Przy energiach spotyka­nych we współczesnym wszechświecie mógłby on, na przykład, być zapętlony w obszarze bardzo małego okręgu i dałby się dopiero zaobserwo­wać w chwili Wielkiego Zgniotu (jeżeli taki nastąpi). Obecnie jedyną pozostałością po tym piątym ekstrawymiarze miałyby być same oddziały­wania elektromagnetyczne. Takie podejście do unifikacji przez dodanie zapętlony, wyższych wymiarów prowadzi również do supersymetrii i przez pewien czas nawet jedenastowymiarowa wersja teorii supergrawi­tacji zyskała na popularności (stwarzając przestrzeń o najwyższej możli­wej liczbie wymiarów). Lecz po zbudowaniu wersji kwantowej nie udało się na jej podstawie wysnuć żadnych sensownych przewidywań. We wcze­snych latach osiemdziesiątych wydawało się już, że dalszy postęp na tej drodze został zatrzymany.

Wtedy zamiast rozważać cząstki punktowe poczęto analizować struny i pętle poruszające się w czasoprzestrzeni. Teoria strun istnieje już od lat sześćdziesiątych, lecz dotychczas nie doprowadziła do żadnych postępów. Obecnie odkryto, w jaki sposób włączyć supersymetrię wokół każdej pętli, i tak narodziły się superstruny. Okazało się ponadto, że można było wyeli­minować wszystkie nieskończoności otrzymując ścisłe rozwiązanie, które mogło istnieć jedynie w jedenastu wymiarach (wersja niesuper wymagała aż 26 wymiarów!) Dlatego miałoby istnieć dodatkowe sześć wymiarów krzy­wizny powodującej powstawanie innych sił natury. Te cząstki miałyby po­wstawać w wyniku drgań struny na podobieństwo tonów, powstałych po uderzeniu w bęben. Można wykazać, że grawitacja i elektromagnetyzm są sprzężone z drganiami o najmniejszej częstotliwości.

Odkrycie to wzbudziło początkowo niezwykłe zainteresowanie, które później jednak nieco opadło z uwagi na dwie jego szczególne cechy. Po pierw­sze, okazało się, że na podstawie tej teorii bardzo trudno przewidzieć jakieś fakty doświadczalne, które umożliwiłyby włączenie w sposób prawidłowy innych sił przyrody. Problem ten nastręcza nawet więcej trudności, niż to ma miejsce w przypadku sił jądrowych, które same jak dotąd opierają się wszel­kim próbom rozwiązania. Po drugie, nie istnieje dotychczas żadne eleganckie sformułowanie hipotetycznych (obecnie jest ich wiele) teorii superstrun, któ­re pasowałoby do pięknego geometrycznego podejścia Einsteina. Naturalny­mi ramami takiej teorii byłaby geometria pętli umieszczonych w superprzestrzeni, lecz jak dotąd nie udało się takiej geometrii zbudować. Należałoby znaleźć bardzo wyrafinowane podejście (zwane kryterium stożka świetlne­go), które umożliwiłoby weryfikację przewidywań pod kątem ich fizycznego sensu (musiałyby; mieć wartości skończone), a jest to możliwe jedynie w przypadku szczególnej dziesięciowymiarowej struny, zwanej heterotyczną (będącą kombinacją dwóch rodzajów strun). Inne wersje superstrun są nadal anali­zowane i bez wątpienia znajdzie się wiele bardzo trudnych problemów matematycznych, które będą musiały czekać nadal na rozwiązanie. Trudności te spowodowały, że odwrócono się od samych strun, by przyjrzeć się innym związanym z nimi problemom.

Moim zdaniem, przynajmniej jedna superstruna wydaje się dawać sen­sowne z punktu widzenia fizyki rezultaty, lecz trzeba jeszcze znacznego nakładu pracy, by wykazać, że ta lub inna zbliżona teoria superstrun pasuje do faktów spotykanych w przyrodzie. Staje się oczywiste, co wynika choć­by z istnienia tej jednej sensownej kwantowej teorii grawitacji, już pomijając dziesięć wymiarów, że jedynym sposobem uzyskania probabilistycz­nej grawitacji jest wykorzystanie pętli przestrzennych występujących, we­dług wszelkiego prawdopodobieństwa, w wyższych wymiarach. Argumen­ty, oparte na zastosowaniu standardowych metod kwantyzacji bezpośred­nio do pierwotnej teorii Einsteina, nie są wiarygodne dla sensownego zro­zumienia wszechświata. W szczególności drgania poprzeczne superstruny, których najmniejsze mają częstotliwości odpowiadające kwarkom itp., co opisano w poprzednim rozdziale, staną się bardziej istotne w wyższych ener­giach w otoczeniu punktu początkowego Wielkiego Wybuchu lub wtedy, gdy materia zacznie znikać we wnętrzu czarnej dziury. Chociaż nadal nie posiadamy rozwiązania powyższego paradoksu, polegającego na pojawia­niu się czy znikaniu materii ex lub in nihilo, to jednak oczekujemy, że kon­strukcja superstrun umożliwi wyjaśnienie, czy probabilistyczna grawitacja zezwala na rozwiązanie tego paradoksu.

Gdzie jest więc w końcu ta JTP, tak radośnie zwiastowana przez nauko­wych optymistów? Najpierw była jedenastowymiarowa supergrawitacja. Gdy okazało się, że nie potrafi ona dostarczyć sensownych odpowiedzi, to jako najbardziej prawdopodobny kandydat pojawiła się heterotyczna superstruna. Utrzymywano z całkowitym przekonaniem, że właśnie ta superstruna jest JTP. Moim zdaniem, upłynie jeszcze wiele dziesięcioleci, zanim przekonamy się, czy superstruny mogą objąć choćby znane już oddziaływania występujące w przyrodzie, dostarczając przynajmniej wyjaśnienia osobliwości kosmolo­gicznych. Te ostatnie problemy będziemy rozważać w następnym rozdziale.

7. Początek wszechświata


Gorący Wielki Wybuch


Przez całe tysiąclecia usiany gwiazdami firmament był tematem zarów­no poetyckich opisów, jak i filozoficznych dysput. Dopiero niedawno dokonano naukowej analizy natury tego migocącego zbioru. Coraz .większe i coraz lepsze teleskopy pozwoliły na poznanie budowy Drogi Mlecz­nej, a również jej miejsca pośród niezliczonych podobnych galaktyk spiral­nych czy eliptycznych oraz umożliwiły weryfikację coraz bardziej zaawan­sowanych teorii naukowych wyjaśniających strukturę wszechświata. W ostat­nim dziesięcioleciu jesteśmy nawet świadkami wzajemnego przenikania się wiedzy z obszarów kosmosu i świata atomu. Fizycy cząstek elementarnych zwrócili uwagę na istotne znaczenie pewnych aspektów natury wszechświa­ta, co stało się nowym bodźcem do coraz intensywniejszych wysiłków w próbach unifikacji wszystkich sił przyrody.

Nowoczesna kosmologia opiera się, tak jak cała nauka, przede wszystkim na obserwacji. Badania Układu Słonecznego i Drogi Mlecznej zainicjował w 1609 roku Galileusz. Jego odkrycie czterech satelitów Jowisza zmniejszyło prawdopodobieństwo tego, że Ziemia stanowi centrum wszech­świata, oraz potwierdziło pośrednio ideę Kopernika głoszącą, że Ziemia obiega Słońce (za rozpowszechnianie tej herezji Giordano Bruno został przez Kościół katolicki żywcem spalony na stosie). Istnienie innych wszechświatów (które teraz są dla nas po prostu innymi galaktykami) poza Drogą Mleczną było rzeczą wątpliwą aż do chwili, kiedy zbudowano wielkie teleskopy, za pomocą których było można zobaczyć piękną wewnętrzną strukturę podobnych do obłoków obiektów i mgławic, wykrytych w drugiej połowie osiemnastego wieku. Dopiero na początku naszego stulecia zniknęły wątpliwości odnośnie do odległości tych mgławic od Układu Słonecznego.

Zagadnienie to rozstrzygnął ostatecznie amerykański astronom Edwin Hubble, o czym mówiliśmy krótko w rozdziale l. W niektórych pobliskich galaktykach można dostrzec gwiazdy zmienne (których jasność zmienia się cyklicznie). Znając ich pozorną jasność, tę z jąkamy je postrzegamy, może­my wyliczyć, jak daleko się one od nas znajdują. W ten właśnie sposób Hubble przekonywająco wykazał, że na przykład prozaicznie nazwane galaktyki M31, M33 czy NGC 6822 są osobnymi wyspami na oceanie wszechświata, leżącymi daleko poza krańcami naszej galaktyki.

Hubble kontynuował badania obejmując nimi inne galaktyki, przy czym usiłował jednocześnie wyznaczyć prędkości, z jakimi poruszają się w stosun­ku do naszej. W tym celu wykorzystał efekt Dopplera powodujący, że widmo światła emitowanego przez galaktyki oddalające się od nas jest przesunięte ku podczerwieni, a widmo galaktyk zbliżających się jest przesunięte ku bar­wie niebieskiej (z takim samym zjawiskiem spotykamy się, gdy mija nas sa­mochód lub pociąg z włączoną syreną czy innym sygnałem dźwiękowym). Hubble odkrył, że wszystkie galaktyki oddalają się ód nas; czyli wszechświat rozszerza się. Wszystkie późniejsze obserwacje, których dokonano dotych­czas mnóstwo, potwierdziły wynikający z tego zasadniczy wniosek, że wszech­świat najprawdopodobniej ulega ekspansji, poczynając od jakiegoś począt­kowego gęstego okruchu sprzed około piętnastu miliardów lat. Był to tak zwany Wielki Wybuch (chociaż nie mógł być słyszalny, bo nic nie było na zewnątrz). Galaktyki najbardziej oddalone uciekają od nas z prędkościami zbliżonymi do prędkości światła; a kiedy osiągną tę graniczną prędkość, nie będą już dla nas widoczne i przekroczą coś, co zostało trafnie nazwane hory­zontem zdarzeń. Jeżeli ekspansja wszechświata, odkryta przez Hubble'a, ma trwać w nieskończoność, to wszystkie gromady galaktyk, z wyjątkiem naszej lokalnej, osiągną w końcu prędkości tak wielkie, że staną się dla nas niedo­strzegalne. Z drugiej strony, po bardziej wnikliwych obserwacjach może oka­zać się, że gwałtowna ucieczka odległych galaktyk ulega spowolnieniu, co mogłoby oznaczać, iż sytuacja może w końcu odwrócić się i zapoczątkować proces kurczenia się wszechświata doprowadzając do Wielkiego Zgniotu, w którym wszystkie galaktyki będą spadać na siebie.

Ostateczny los wszechświata zależy więc od dalszego przebiegu zdarzeń. Jeżeli wszechświat będzie nadal rozszerzał się bez końca, to przyszłe podró­że kosmiczne ograniczą się do niewielu miejsc, ponieważ w obrębie naszego horyzontu zdarzeń będzie coraz mniej galaktyk, nigdy bowiem nie wydosta­niemy się poza te granice. Z drugiej strony, natura Wielkiego Zgniotu stawia problemy o takiej samej skali trudności jak te, z którymi zetknęliśmy się roz­patrując ekspandujący wszechświat czy znikanie materii w centrum czarnej dziury: w jaki sposób można je rozwiązać bez burzenia podstawowych praw fizyki, którym ufamy, oraz w jaki sposób naukowcy musieliby zmodyfiko­wać te prawa, aby otrzymać sensowne rezultaty? Wszystko wskazuje na to, ze ostateczny los wszechświata należy do takiego samego zestawu proble­mów, jaki mieliśmy; początkiem wszechświata i z centrami czarnych dziur.

Teoria Wielkie Wybuchu zakłada, że nagle z niczego, w jakimś mo­mencie w przeszłości, powstał wszechświat. Następnie zaczął rozszerzać się w sposób, który już może być przedmiotem szczegółowych badań. Lecz przed tą początkową chanie było wszechświata ani czasu! Jednym ze sposobów uniknięcia problem stwarzanych przez teorię Wielkiego Wybuchu jest przy­jęcie założenia, że nic takiego nie wydarzyło się. Takie podejście zaprezento­wali we wczesnych latach pięćdziesiątych astronomowie teoretycy zgrupo­wani wokół uniwersytetu w Cambridge. Stworzyli oni teorię ciągłej kreacji, według której malin miałaby powstawać nieustannie, wypełniając tym sa­mym lukę powstali wyniku ekspansji. Wszechświat mógłby dlatego ist­nieć przez całą wieczność (co usprawiedliwiałoby wtedy nazwę przyjętą dla teorii: teoria stanu stałego) i gładko pozbyto by się problemu cudownej kre­acji wszechświata. Jednakże odkrycie w latach sześćdziesiątych nowego zja­wiska mikrofalowego promieniowania tła wskazywało, że wszechświat w chwili powstawania był bardzo gorący. Samo zaś reliktowe promieniowanie powinno mieć temperaturę wynikającą z aktualnego stadium schłodzenia Wszechświata. W połowie lat sześćdziesiątych w Bell Laboratories (Stany Zjednoczone) poniżono tę temperaturę i okazało się, że wynosi ona około trzech stopni powyżej zera absolutnego, co całkowicie zgadza się z przewi­dywaniami wynikającymi z teorii Wielkiego Wybuchu.

Oprócz odkrycia mikrofalowego promieniowania tła (promieniowania re­liktowego), teoria Wielkiego Wybuchu zyskała silne argumenty w postaci wza­jemnej proporcji pierwiastków występujących we wszechświecie - wodoru, helu i litu obserwowanych we wszystkich galaktykach (pomiar opiera się na rozkładzie charakterystycznych linii w widmach promieniowania, które one emitują). Takie formy materii mogły powstać podczas reakcji jądrowych za­chodzących w bardzo wczesnych, gorących stadiach rozszerzającego się wszech­świata. Po raz pierwszy szczegółowe obliczenia przeprowadzono w latach sześćdziesiątych. Te i późniejsze, jeszcze bardziej dokładne, wykazały wspaniałą zgodność z obserwowanymi ilościami tych pierwiastków (na przykład, jest cztery razy mniej helu niż wodoru).

Wszystkie te wyniki obserwacji zebrano w ramach tak zwanego standartowego modelu wszechświata. W ten sposób do jednorodnego (izotropowego) rozkładu materii (zarówno tej, którą bezpośrednio obserwujemy, jak i promieniowania) dołącza się jednorodny rozkład galaktyk. Istnieją co prawda lokalne zgęszczenia materii i obszaru pustki, lecz nie da się wyróżnić jakie­goś szczególnego miejsca, o którym można by powiedzieć, że tu właśnie jest środek, tu jest punkt, w którym powstał wszechświat. Model standardowy wykorzystuje teorię grawitacji, szczególną teorię względności, w takiej for­mie, jaką w 1915 roku nadał jej Einstein, i którą omawialiśmy w poprzednim rozdziale. Materię uważa się jakby za równomiernie rozmieszczony pył. Gdy przyjmie się założenia o homogeniczności i izotropowości materii, to równa­nia teorii można wyrazić w stosunkowo prostej postaci. Zawierają w sobie pewien wszechogarniający czynnik skalujący, z którego wynika średnia od­ległość pomiędzy cząstkami tego pyłu. Czynnik ten determinuje również roz­miary wszechświata: jego podwojenie prowadzi do ich dwukrotnego zwięk­szenia się. Jego wartość w chwili Wielkiego Wybuchu wynosiła zero, co wynika z tego, że wszechświat nie miał wtedy żadnych rozmiarów, i zwięk­sza się zależnie od tego, czy wszechświat jest skończony (jak na przykład powierzchnia kuli ograniczona wyraźnie wyznaczonym obszarem) czy też nie (na podobieństwo rozciągającej się bez końca płaszczyzny). Czynnik ska­lujący pozwala również wyliczyć, jak schładza się wszechświat w miarę swojej ekspansji.

Powstały w wyniku tego scenariusz można poddać analizie teoretycznej, sięgającej wstecz do chwili niewyobrażalnie bliskiej Wielkiemu Wybuchowi, na przykład do momentu jednej miliardowo miliardowo miliardowo miliardo­wej sekundy po Wielkim Wybuchu. Można tego dokonać na podstawie opisu materii zawartego w różnych wersjach fizyki cząstek, przedstawionych w roz­dziale 5. Jedną z takich wersji jest standardowy model oddziaływań elektrosłabych i chromodynamicznych. Zgodnie z nim, materia miałaby się składać z trzech rodzin cząstek, opisanych w rozdziale 5. Teoretyczne rozważania pro­wadzą do wniosku, że w tym najgorętszym, wczesnym stadium Wielkiego Wybuchu oddziaływania były bardziej zunifikowane i symetryczne niż póź­niej, po częściowym ochłodzeniu. Wtedy, po jednej dziesięciomiliardowej se­kundy, przestanie istnieć unifikacja elektrosłaba, a oddziaływania elekromagnetyczne i związane z promieniotwórczością będą postrzegane jako oddzielne siły. Temperatura spadnie wtedy do około tryliarda (miliona miliardów) stopni Celsjusza. Po upływie około jednej milionowej sekundy kwarki skondensują się w protony i neutrony; obecnie tu na Ziemi czynimy próby zaobserwowania tych kwarków w doświadczeniach, podczas których w wyniku oddziaływania intensywnego, wysokoenergetycznego strumienia ciężkich jąder skupianych na specjalnych tarczach uzyskuje się bardzo gorącą materię. Odkrycie kwarków uzasadni oczekiwania naukowców, że im wszechświat był gorętszy, tym bardziej symetryczne i zunifikowane były siły nim rządzące. Po jednej setnej sekundy od początku wszechświata, takie cząstki jak proton połączą się ze swoimi partnerami, tak zwanymi anty cząstkami (które mają przeciwny ładunek elektryczny i inne cechy, lecz identyczną masę). Po upływie trzech czy czterech minut (w temperaturze miliardów stopni), w wyniku syntezy jądrowej, powstaną różne izotopy helu, o czyn mówiliśmy wcześniej. Ponadto, by zachować obserwowane obecnie proporcje, teoria w tym scenariuszu dopuszcza powsta­wanie jedynie trzech rodzin cząstek. Po upływie kilku milionów lat, w tempe­raturze około trzech tysięcy stopni Celsjusza, powstaną w końcu atomy, co bę­dzie możliwe dopiero wtedy, gdy elektrony oziębią się na tyle, by mogły prze­bywać w pobliżu przyciągających je jąder. Wszechświat stanie się odtąd prze­zroczysty dla światła; zanim to nastąpiło, wolne elektrony rozpraszały światło, co powodowało, że wszechświat był nieprzezroczysty. Wtedy również oddzie­liło się od materii mikrofalowe promieniowanie tła, które w końcu oziębiło się do temperatury 2,7 stopnia obserwowanej dzisiaj. Ostatecznie, po upływie około miliarda lat, zaczęły formować się galaktyki.

Standardowy model Wielkiego Wybuchu sprawdził się na tyle, że obecnie uważamy go za wydarzenie, które rzeczywiście kiedyś miało miejsce. Wyjaśnia on szeroki wachlarz zjawisk i zdarzeń, które miały miejsce w ogromnym przedziale czasu (od setnych części sekundy aż do piętnastu miliardów lat). Model ten zazębia się bez zgrzytów z ostatnimi osiągnięciami fizyki cząstek, a w szczególności jest zgodny z przekonaniem fizyków, że istnieją tylko trzy rodziny prawdziwie elementarnych cząstek. Czegóż można Więcej wymagać?


Inflacja


W poprzedniej części doszliśmy do wniosku, że kosmologia Wielkie-4;V T go Wybuchu jest dobrze osadzona w realiach. Wydawać by się mogło, że nie ma dla niej alternatywy. Pozostają jednakże pewne problemy, które powinny doczekać się rozwiązania. Najważniejszym z nich jest struktura wszechświata. Rozważając rozkład galaktyk napotykamy różne elementy tej struktury: gromady, supergromady, pustki, ściany, jak również cechy o mniejszej skali, takie jak: dokładna budowa samych galaktyk, gwiazd i planet. Na tym polu zdarzają się gorące spory sięgające kwestii, w jaki sposób takie struktury w ogóle powstały. Nie dotyczą one samych ram kosmologii gorącego Wielkiego Wybuchu, lecz konkretnego rozwiązania problemów związanych z budową wszechświata. Ponieważ ma to związek z ostatecznym losem wszechświata - albo Wielki Zgniot, albo wieczna ekspansja - uwa­żam, że jest istotne, aby spróbować udzielić odpowiedzi na te pytania, mimo że uzyskane odpowiedzi mogą być jeszcze bardzo nieprecyzyjne.

Jest faktem, że standardowy model kosmologiczny nie zawiera ani śladu koncepcji, która wyjaśniałaby strukturę wszechświata. Jeżeli cofniemy się w czasie aż do tych wczesnych chwil, kiedy materia i promieniowanie wza­jemnie na siebie nie wpływały, to samo promieniowanie mogło wtedy wy­dzielać się w różnych miejscach w przestrzeni, które w tym czasie znajdowa­ły się poza obszarem wzajemnych oddziaływań. Niewątpliwie, bardzo trudno jest wyjaśnić, w jaki sposób którekolwiek dwa z takich miejsc, tak wyraźnie nie związanych ze sobą, mogły utrzymywać jednocześnie prawie dokładnie tę samą temperaturę, co doprowadziło do wszechobecnego promieniowania tła i do jednorodnego rozkładu materii.

W poszukiwaniu rozwiązania tego i podobnych problemów wysunięto kilkadziesiąt lat temu koncepcję, że w tym bardzo wczesnym stadium wszech­świat ekspandował bardzo gwałtownie z szybkością zależną wykładniczo od czasu. Taka ekspansja przypomina inflację, gdzie na przykład stuprocentowa jej wartość powoduje podwojenie cen każdego roku.

Taka inflacyjna ekspansja łatwo rozwiązuje powyższe problemy, po­nieważ zwiększa gwałtownie obszary oddziaływań w różnych częściach wszechświata o bardzo duży czynnik (uzależniony oczywiście od wielko­ści inflacji). Tak więc jakiś obszar, który w chwili początkowej był o wiele mniejszy od protonu, jest po ułamku sekundy wielkości grejpfruta, a na­stępnie staje się całym naszym wszechświatem. Wyjaśnia to również, dla­czego wszechświat wydaje się płaski z prostymi równoległymi nigdy nie przecinającymi się, co miałoby wynikać z odpowiedniej ilości materii (tak zwanej gęstości krytycznej), która pozwala na balansowanie pomiędzy Wiel­kim Zgniotem a wykładniczą ekspansją. Scenariusz bez inflacji wydaje się raczej dość nieprawdopodobny, lecz daje się łatwo zrozumieć; przypomina pompowanie piłki plażowej do rozmiarów tysiąckrotnie większych, co po­woduje, że jej powierzchnia wydaje się bardziej płaska. Należy zauważyć, że taki rodzaj ekspansji (tak jakby grawitacja powodowała silne odpycha­nie) ma swoje naturalne odbicie w jednej z akceptowanych obecnie teorii fizyki cząstek, w teorii oddziaływań elektrosłabych, opisanej w rozdziale 5. Według niej, tego rodzaju ekspansja powstaje na skutek efektu uboczne­go, wywołanego specjalnym mechanizmem odpowiedzialnym za tworze­nie się mas wszystkich cząstek. Wykorzystywana jest przy tym energia cząstki której obecnie usilnie poszukuje się w największych akceleratorach; jej okrycie stałoby się w kosmologii Wielkiego Wybuchu silnym argumentem na rzecz scenariusza inflacyjnego.

Powróćmy teraz do problemu, który przedstawiłem na początku tej czę­ści: początkowej struktury wszechświata. Jak zauważyliśmy w rozdziale 5, rozkład energii na poziomie subatomowym będzie wykazywał ciągłe fluk­tuacje wynikające z efektów kwantowych, podobne do fal kołyszących się W górę i w dół na powierzchni jeziora. Piki (wartości szczytowe), wytwo­rzone przez te fluktuacje, będą po inflacji na tyle duże, że staną się zalążka­mi gwiazd i galaktyk. Dalsze zgęszczanie się materii będzie naturalnie odbywać się pod wpływem przyciągania grawitacyjnego pomiędzy pierwot­nymi skupiskami materii.

Wszystko to wygląda bardzo zachęcająco, z wyjątkiem jednej zasadni­czej kwestii. Model inflacyjny wymaga, aby wszechświat miał wystarczająco dużo materii, bo dopiero wtedy mógłby osiągnąć poziom krytyczny umożliwiający powstanie płaskiej przestrzeni. Niestety, w świetle widzialnym można dostrzec jedynie około jednego procentu wymaganej materii. Gdzie się podziała reszta? Badania ruchu gwiazd w galaktykach zdają się wskazywać, Że galaktyki te mogą zawierać dziesięć razy więcej materii niewidzialnej niż Widzialnej (być może w postaci czarnych karłów zmarłych gwiazd lub gwiazd neutronowych czy czarnych dziur). Podobne rezultaty otrzymuje się obser­wując ruchy galaktyk względem ich partnerów w gromadach galaktyk. Po­mimo to nadal brakuje 90 procent materii koniecznej do tego, aby potwier­dzić prawidłowość modelu inflacyjnego. Jednakże omówione wyżej obliczenia, dotyczące syntezy helu i cięższych jąder podczas wczesnych faz Wiel­kiego Wybuchu, również nie byłyby prawidłowe, jeżeli okazałoby się, że ilość protonów i neutronów jest większa od tej, którą się obecnie obserwuje. Tak Więc, jeśli nawet w galaktykach, poza zwykłą ciemną materią, istniałaby ja­kaś dodatkowa, szczególna materia, to musiałaby występować w postaci, której 'obecnie kompletnie nie znamy. Musiałaby to być jakaś nowa postać materii tworzącej około 90 procent całkowitej masy wszechświata. Dopiero wtedy można by uważać, że inflacja doprowadziła do takich właściwości wszech­świata, które aktualnie obserwujemy. Należy dodatkowo wymagać, aby ta materia bardzo słabo oddziaływała ze zwykłą materią, bo w przeciwnym razie we wczesnych fazach zakłóciłaby proces syntezy jąder. Naukowcy ukuli dla tej hipotetycznej nowej formy materii żartobliwy akronim WIMP, pod którym kryje się nazwa Weakly Interacting Massive Particles 1 (Słabo oddziałujące cząstki o wielkiej masie). Jak dotychczas nie udało się ich jeszcze zaobserwować.

Można zaproponować dwie zasadniczo różniące się między sobą posta­cie tej niewidzialnej materii - gorącą albo zimną. Gorąca postać, która obe­jmowałaby szybko poruszające się cząstki identyfikowane z neutrinami, przy­sparza dwóch kłopotów. Po pierwsze, neutrina mają tak małą masę albo w ogóle są jej pozbawione, że z pewnością sumaryczna ich masa nie jest w sta­nie przełamać ekspansji wszechświata. Po drugie, symulacje komputerowe wykazują, że szybkie neutrina potrzebowałyby zbyt dużo czasu, by związać się wewnątrz galaktyk. Alternatywna teoria zimnej, ciemnej materii (obejmu­jącej wolno poruszające się cząstki) spotyka się teraz z większym uznaniem^ chociaż również nastręcza wielu trudności. Podstawową jest ta, że nikt jak dotąd nie zaobserwował żadnej cząstki, która mogłaby mieć wymagane wła­ściwości. Nie stanowi to jednak przeszkody nic do pokonania; w teoriach unifikacji spotykamy różne hipotetyczne cząstki, które mają właściwości ści­śle odpowiadające założeniom (na przykład superpartnerzy fotonów czy supercząstki teorii wielkiej unifikacji). Poszukiwania tego rodzaju cząstek tutaj na Ziemi oraz twórcze podniecenie towarzyszące tym poszukiwaniom wska­zuje na wielce interesujący postęp, jaki się dokonał w nauce, która coraz bar­dziej wiąże ze sobą obszary bardzo małe (cząstki) z bardzo wielkimi (astro­nomia). Tego właśnie należy oczekiwać, gdy przechodzi się do analizy wcze­snych faz wszechświata, bowiem odległości, z jakimi mamy wtedy do czy­nienia, zmniejszają się do rozmiarów będących domeną fizyki cząstek.

Drugą trudnością było żądanie wynikające z koncepcji niewidzialnej materii skojarzonej z inflacją, aby promieniowanie reliktowe tła zawierało w sobie niewielkie, ale dające się wykryć fluktuacje. Właśnie niedawno, w ramach programu satelitarnego Cosmic Background Explorer, odkryto promieniowanie dokładnie odpowiadające przewidywaniom. Odkrycie to stało się ważnym eksperymentalnym świadectwem wspierającym tę teorię. Uważa się, że takie efekty mogły być spowodowane fluktuacjami kwanto­wymi, mającymi miejsce tuż po Wielkim Wybuchu, które wytworzyły za­burzenia w promieniowaniu tła, rozciągające się obecnie na obszary milio­nów lat świetlnych.

Trzecia (i chyba najpoważniejsza) trudność dotyczy struktury obiektów o pośredniej wielkości, odpowiadających gromadom galaktyk i wiąże się z obecnością pustek oraz ścian (czy płaszczyzn), które spotykamy analizując rozkład galaktyk. Problem ten wynurzył się w całej pełni po otrzymaniu w 1991 roku wyników z satelity 1RAS (Infrared Astronomical Satelitte, satelita do badań astronomicznych w podczerwieni), który odkrył zgrupowania galak­tyk na skalę tak olbrzymią, że nie daje się ona wytłumaczyć za pomocą zwykłego modelu obejmującego zimną, niewidzialną materię. Naukowcy utrzymują jednak, że pewne modyfikacje wprowadzone do tej teorii pozwolą wytłumaczyć obserwowane fakty.

Mamy jeszcze przed sobą wiele nie rozwiązanych zagadek dotyczących kosmologii. Zajmiemy się nimi teraz.


Na samym początku


W poprzednich dwóch częściach opisałem powolny, lecz stały rozwój teorii kosmologicznej mającej zastosowanie nawet do tak odległych czasów jak początek gorącego Wielkiego Wybuchu. Teraz są wymagane coraz bardziej skomplikowane obserwacje nieba, przy wykorzystaniu zarówno satelitów, jak i większych teleskopów, oraz coraz większe akceleratory do coraz wnikliwszej obserwacji materii, tutaj na Ziemi. Pozwoli to na rozstrzygnięcie, która z różnych (czasem nawzajem sprzecznych) teorii jest najwłaściwsza. Należy się spodziewać, że taki postęp będzie trwał w nieskończoność, chyba że środowiskom naukowym nie uda się już wycyganić więcej funduszy na budowę nowej generacji przyrządów badawczych. Jak by na to nie patrzeć, wszystkie badane obecnie modele mają tę samą zasadniczą postać. Wszystkie pozwalają snuć przypuszczenia, jak będzie wyglądał wszechświat w następnym stadium swojej ewolucji, pod warunkiem, że jest dokład­ce znany jego stan w chwili bezpośrednio poprzedzającej. Jeżeli natomiast cofamy się coraz dalej, to okazuje się, że jesteśmy w stanie wyobrazić sobie (warunki początkowe wszechświata w momencie, gdy on powstawał. Nigdy się będziemy potrafili zweryfikować wiedzy o tych warunkach żadną inną metodą jak tylko poprzez trafne przewidywanie dających się zaobserwować szczegółów dalszej ewolucji wszechświata,

Obraz nagle powstającego wszechświata w już uprzednio istniejącej czasoprzestrzeni nie zdał zupełnie egzaminu. Nie ma bowiem żadnego sposobu, by na podstawie jakiejkolwiek teorii było można wyselekcjonować jakąś konkretną chwilę, w której wszechświat miałby powstać. Nie można również wyróżnić żadnego konkretnego miejsca, gdzie miałby miejsce akt kreacji. Można jedynie określić pewne prawdopodobieństwo kreacji w danym czasie w jakimś obszarze. Lecz z tego wypływa możliwość wielokrotnych kreacji, które prowadziłyby do kolizji wszechświatów. Nie zaobserwowano niczego w tym rodzaju; musimy więc odrzucić model ustalonej czasoprzestrzeni. Można by co prawda próbować rozdymać czasoprzestrzeń w taki sposób, aby oddzielne wszechświaty nigdy ze sobą nie weszły w kolizję, lecz takie podejście ad hoc wydaje się niezbyt uzasadnione, a poza tym nie ma żadnych danych obserwacyjnych, które mogłoby je usprawiedliwiać. Czas i przestrzeń muszą być elementami kreowanymi w tym samym momencie co materia i nie mogą być przyjęte ab initio. W każdym razie, ramy ogólnej teorii względno­ści wyznaczają warunek, że materia oraz czasoprzestrzeń są wzajemnie nie­rozerwalnie sprzęgnięte i nie chcielibyśmy doprowadzić do rozerwania tych więzów przynajmniej na tym poziomie wiedzy.

Stajemy zatem przed decyzją, w jaki sposób dokonać wyboru warunków początkowych w chwili powstawania wszechświata odnośnie do pola grawi­tacyjnego i rozkładu materii, aby wynikająca z nich ewolucja doprowadziła do powstania takiej mnogości obserwowanych planet, gwiazd oraz galaktyk i ich gromad. Wielu naukowców podejmowało próby ustalenia takich właści­wych warunków, lecz obecnie zdajemy sobie sprawę, że jest to niemożliwe. Jednym z oczywistych powodów jest to, że natężenie pola grawitacyjnego musiało na początku mieć wartość nieskończenie dużą; wynika to z samej natury Wielkiego Wybuchu, który rozpoczął się wszechświatem nie mają­cym w ogóle żadnych rozmiarów. Należałoby szczegółowo opisać, jak pole grawitacyjne mogłoby wzrastać coraz bardziej w miarę przesuwania się wstecz, aż do zera, wskazówek zegara. Jest to bardzo trudny problem z dziedziny analizy numerycznej. Drugim źródłem trudności jest oczywisty problem, po­legający na próbie wyprowadzenia niezwykłej złożoności ewoluującego wszechświata poprzez ekstrapolację funkcji wyznaczonej warunkami począt­kowymi, odnoszącymi się do najwcześniejszego stadium. Wydaje się, że tego również nie uda się osiągnąć. Trzecim, mającym podstawowe znaczenie po­wodem jest to, że w każdym przypadku proste, klasyczne podejście do ko­smologii zawodzi, jak się wydaje, w bardzo wysokich temperaturach, a szczególnie w tych, z jakimi mamy do czynienia we wczesnych stadiach gorącego Wielkiego Wybuchu. Dzieje się tak dlatego, ponieważ w takich wa­runkach do decydującego głosu dochodzą efekty kwantowe. Polegamy wte­dy na obliczeniach opartych na mechanice kwantowej wszędzie tam, gdzie zachodzi synteza jądrowa, a więc również w dość wczesnym stadium ewolu­cji wszechświata, lecz przecież samo pole grawitacyjne nie zostało jeszcze skwantowane. Wydaje się jednak, że w najbliższym czasie kwantowa natura pola grawitacyjnego stanie się oczywista, bowiem samo pole grawitacyjne stanie się równie ważne jak inne siły, których kwantowa natura jest, jak to wynika z obserwacji, nie do podważenia. W tej sytuacji można się spodzie­wać całego zbioru możliwych pól grawitacyjnych i innych, z których każde będzie opisywane funkcją uzależnioną od prawdopodobieństwa.

W ten sposób warunki początkowe ustala się teraz w zależności od kryteriów doboru konkretnej wartości początkowego pola grawitacyjnego, zamiast od metody wyboru prawdopodobieństwa selekcji spośród wszystkich możliwych początkowych pól grawitacyjnych. Nie wydaje się, aby to wszystko doprowadziło do jakiegoś postępu. Ponieważ takie podejście jest bardziej złożone, to istnieje większa szansa, by można było wyjaśnić złożoną naturę obserwowanego wszechświata. Tym sposobem sytuacja może zmienić się na korzyść.


Kwantowa kreacja wszechświata


Omawiane tutaj zasadnicze problemy wymagają specjalnego podejścia. Wyznaczenie prawdopodobieństwa dla każdego możliwego położenia elektronu odpowiada określeniu jego tak zwanej funkcji falowej. Możemy ją porównać do krajobrazu obejmującego wszystkie wartości pozycji elektronu. Można w nim dostrzec góry i doliny, których wysokość czy głębokość wyznacza prawdopodobieństwo znalezienia elektronu w jakimś konkretnym miejscu. Tak więc, bardzo wysoki szczyt wskazuje na bardzo wysoką szansę, że właśnie tam znajduje się elektron. Podobnie możemy wprowadzić funkcję falową, która nie będzie uzależniona od położenia elektronu, a od początkowego kształtu (geometrii) wszechświata. Wyznaczy ona prawdopodobieństwo tego, że wszechświat miał jakiś konkretny kształt. Powstaje zatem kwestia określenia funkcji falowej możliwych kształtów lub mówiąc krótko funk­ii falowej wszechświata. Ponadto musimy w tym kontekście wyjaśnić pojęcie samego czasu. Jak już o tym wspomniałem, uważa się, że zarówno czas, jak i przestrzeń, powstały w ramach tego samego zdarzenia co i materia. Dlatego możemy mówić o warunkach doboru początkowej funkcji falowej wszechświata. Musimy więc próbować znaleźć warunek, na podstawie którego można by jednoznacznie wybrać funkcję falową wszechświata, a później spróbować zinterpretować jedną jego część, od którego ona zależy, jako czas mający odpowiednie właściwości. Jednym z warunków, mogłoby być żądanie, aby energia cząstek poruszających się w przyszłość miała dodatnią wartość, z czym zresztą spotykamy się obecnie na co dzień.

Na drodze tego rodzaju rozumowania usiłujemy znaleźć odpowiednie kryterium doboru funkcji falowej wszechświata. Wspomniałem już o jednym, którego autorami byli Stephen Hawking i jego amerykański kolega Jim Hartle. Polega ono na takim zdefiniowaniu funkcji falowej wyrażonej zmiennymi trójwymiarowej przestrzeni, że można ją bez trudu przekszta­łcić do postaci, która zależy od parametrów czterowymiarowej przestrzeni. Można tego dokonać precyzyjnymi metodami matematycznymi, ale pod warunkiem, że czwarty wymiar przyjmuje wartości urojone. Prowadzi to do tego, że zmienne przestrzeni i czasu stają się całkowicie równoważne. Dlatego warunek ten można uważać za żądanie, aby nie występował żaden punkt początkowy czasu, podobnie jak nie istnieje żaden punkt początkowy w przestrzeni. Rezultaty otrzymane w wyniku zastosowania tego kryterium, nie mogą być wykorzystane w żadnej rzeczywistej teorii grawitacji, choćby w teorii Einsteina, z uwagi na związane z nimi trudności z kwantyzacją (jak o tym wspomniano w rozdziale 5). Wydaje się jednak, że takie podejście umożliwia z pożytkiem wejrzeć w model, który co prawda ma jedynie teo­retyczną wartość, lecz prowadzi do zasadniczej redukcji zmiennych, istot­nych do opisu pola grawitacyjnego.

Alternatywne kryterium, również krótko opisane wcześniej, nie wykorzy­stujące postaci urojonej czasu, wymagało, aby funkcja falowa wszechświata znikała (w odpowiedni sposób), gdy kształty (pola grawitacyjne) dążą do nie­skończoności. Jest to oczywiście jakiś sposób na uniknięcie osobliwości grawi­tacyjnych, występujących w centrach czarnych dziur, tak trudno dających się wyjaśnić nawet na podstawie kompletnej grawitacji kwantowej. Ponadto takie podejście nie ma wielkiego sensu w przypadku teorii grawitacji Einsteina. Wydaje się sensowne jedynie dla bardzo uproszczonych modeli grawitacji i ma­terii modeli-zabawek, według określenia Hawkinga i Hartle'a. Trzeba również zdawać sobie sprawę z tego, że obydwa podejścia są jeszcze nieskończenie odległe od możliwości ich doświadczalnej weryfikacji. Dlatego więc jakiekol­wiek wypowiedzi o początku wszechświata nie mogą jeszcze uzyskać nauko­wej aprobaty. Co więcej, taki sposób rozumowania przysparza wielu trudności metodologicznych, wynikających ze złożonej natury czasu.

Można by skierować dyskusję na bardziej obiecujące tory wspomnianej uprzednio teorii superstrun. Oczekuje się, że grawitacja według tej teorii ma zupełnie inną strukturę niż według teorii Einsteina, ponieważ uwzględ­nia nieskończony szereg coraz masywniej szych cząstek (wibracje poprzeczne superstrun) sprzężonych z partnerami pola grawitacyjnego. Cofając się w czasie aż do samego Wielkiego Wybuchu, liczba cząstek tego szeregu miałaby rosnąć gwałtownie w miarę wzrostu temperatury. W zasadniczy sposób wpływa to na uzyskane rezultaty. Jakąkolwiek by się uzyskało w koń­cu strukturę, to byłaby ona w zasadniczy sposób odmienna od struktury gra­witacji zgodnej z teorią Einsteina. Funkcja falowa wszechświata byłaby wtedy dobrana na podstawie prawdopodobieństwa pewnego zbioru pól związa­nych ze strunami. To dopiero przed nami i wydaje się być ogromnym przedsięwzięciem. Jedynie po znalezieniu bardziej eleganckich postaci równań opisujących superstruny, zadanie może stać się prostsze. Aż do tego czasu idea kwantowej kreacji wszechświata pozostaje wielce interesującą możliwością, która jednak, należy to podkreślić, nie ma zupełnie żadnych dowodów na swoje poparcie.


Bez początku?


Problemy, których nastręcza kwantowa interpretacja kreacji wszechświata, omówione w poprzedniej części, mają wielkie znaczenie. Ponad­to zawsze pozostaje nie rozstrzygnięta kwestia, w jaki sposób wykorzystać jakąś konkretną teorię (tak jak na przykład mechanikę kwantową czy superstruny) w tym najbardziej początkowym momencie, nawet wtedy, gdy uda się opierając na tej teorii znaleźć kryterium prawidłowego doboru funkcji falowej wszechświata. Jest więc zrozumiałe, że w świetle trudności znalezienia odpowiedzi na pytania: dlaczego właśnie to kryterium? i dlaczego wła­śnie ta teoria?, należy poważnie rozważyć przypadek nieskończonej liczby zstępujących teorii i kryteriów funkcji falowej. W rzeczywistości modele z po­przedniej części można by uważać za próby odkrycia przybliżonych postaci funkcji falowych utworzonych na podstawie teorii, która jest dopiero w poło­wie drogi i nie będąc jeszcze kompletną teorią grawitacji kwantowej, ma już pewne jej cechy. Następnym krokiem byłoby stworzenie kompletnej teorii grawitacji kwantowej wraz z jej kryteriami doboru funkcji falowej wszech­świata. Lecz dlaczego mielibyśmy na tym poprzestać? Całe zatem to poszu­kiwanie warunków początkowych przybiera bardzo złożoną postać.

Należy nadmienić, że istnieje nieskończony szereg coraz bardziej precyzyjnych teorii opisujących rzeczywistość w sposób prawidłowy w pewnych zakresach energii, jednakże po ich przekroczeniu, teorie te załamują się. Dzieje się tak na przykład z fizyką klasyczną, kiedy rozpada się atom i należy uwzględniać jego wewnętrzną budowę. Pałeczkę przejmuje wtedy fizyka kwantowa, w której obszarach możemy znaleźć narzędzia opisujące właści­wości takiego układu. Spróbujmy wykorzystać ten tok rozumowania dla przypadku ekspansji wszechświata podczas gorącego Wielkiego Wybuchu. W miarę oziębiania się wszechświata, jedna teoria może być zastąpiona przez następną, bardziej odpowiednią przy niższych energiach. Należałoby się spodziewać, że warunki początkowe dla teorii niższych energii będą określone końcowym stanem wyznaczonym przez teorię wyższych energii. W obrębie tej teorii, końcowy stan będzie zdeterminowany stanem początkowym wynikającym z energii, przy której teoria staje się użyteczna. Dotyczy to każdej teorii, w każdym zakresie energii. Każda bowiem wyznacza zarówno strukturę następnej, jak i swój stan początkowy.

Proponowaliśmy wcześniej nieskończony szereg teorii jako sposób na rozwiązanie nie rozstrzygniętej kwestii dlaczego właśnie ta JTP?, lecz nadal chroniąc zasady przyczynowości. Teraz proponujemy rozszerzenie tego szeregu jako sposób na uniknięcie pytania: dlaczego właśnie to kryterium doboru funkcji falowej wszechświata? W poszukiwaniach właściwej funkcji falowej nie chcielibyśmy jednakże porzucić troski o elegancję. Nowe ramy, zakreślone przez taki nieskończony szereg teorii, uwalniają naukowca od prób odgrywania roli Boga. Ogranicza on teraz swoje poszukiwania jedynie do prób znalezienia lepszych teorii oraz ich funkcji falowych opisujących wszechświat, wypełniając tylko swoje naturalne funkcje polegające na badaniu, snuciu przypuszczeń, testowaniu, wysnuwaniu wniosków itp. Zawsze powinien traktować swoje odkrycia tylko jako małe kroki na nie kończącej się drodze do wiedzy doskonałej. Na żadnym etapie nie uzyskujemy ostatecznej pewności.

W obliczu nieskończonego szeregu musiałaby istnieć możliwość przeprowadzenia nieskończonej liczby eksperymentów. Każdy z nich burzyłby obowiązującą w danej chwili teorię i powodowałby konieczność zastąpienia jej lepszą i bardziej ogólną. Wydaje się niemożliwe opisać wyczerpująco powstanie wszechświata, zdeterminowanego nie kończącym się szeregiem praw naukowych, poprzez wyizolowanie na jakimś poziomie jednej konkretnej teorii naukowej. Jeżeli bowiem zdecydowalibyśmy się na to, wtedy wszechświat zostałby pozbawiony właściwych proporcji nieskończonego zbioru coraz wyższych poziomów. Tak więc, chociaż idea kwantowej kreacji wszechświata może być pomocna w lepszym zrozumieniu różnych poziomów, to jednakże nigdy nie wyjaśni nam istnienia samego wszechświata. Zgodnie z nieskończonym szeregiem teorii, wszechświat w miarę jak się rozszerza ewoluuje stopniowo na coraz niższe poziomy energetyczne. Lecz ponieważ nigdy nie uzyska się kompletnego opisu, więc nigdy nie może być mowy o kwantowej kreacji wszechświata. Można go uważać za coś niestwarzalnego, przynajmniej w naszym rozumieniu, ponieważ według wszelkiego prawdopodobieństwa jest nieskończenie złożony.











CZĘŚĆ TRZECIA


WSZECHŚWIAT UMYSŁU


8. Mechanika procesów myślowych


Ewolucja życia


W celu zachowania ciągłości pomiędzy różnymi poziomami istnienia materii we wszechświecie, występującej, jak się o tym przekonaliśmy, na przykład pomiędzy atomami a cząsteczkami czy elektronami i jądrami a atomami, musimy wykazać, że taka ciągłość występuje również na styku ziemskiej materii ożywionej i nieożywionej. To, że życie narodziło się z substancji nieożywionych zostało zaakceptowane przez społeczność naukową już kilkaset lat temu, ale ciągle trwają spory, jak dokładnie do tego doszło.

Daje się wyróżnić dwa skrajne stanowiska: albo że nastąpiło to spontanicznie, albo w wyniku złożonego procesu ewolucji. Zgodnie z pierwszym podejściem, takie żywe organizmy jak pasożyty jelitowe czy bakterie, miałyby powstać przez czysty przypadek, tym bardziej prawdopodobny, im bardziej sprzyjałyby temu warunki zewnętrzne. Stanowisko przeciwne, optujące za złożoną ewolucją, zostało zwięźle przedstawione w 1912 roku w przesłaniu do Brytyjskiego Towarzystwa Wspierania Postępu Nauk:


Tak jak dalecy jesteśmy od przypuszczenia, że przejście od sta­nu nieorganicznego (lub przynajmniej niezorganizowanego) do stanu organicznego (lub zorganizowanego), od substancji całko­wicie nieożywionej do w pełni żywej istoty, mogłoby nastąpić w wyniku jakiegoś nagłego przeskoku, tak nie spodziewamy się również, aby mógł zachodzić proces zmian prowadzących do powstania materii ożywionej z substancji nieorganicznych na drodze stopniowo zwiększającej się złożoności, aż do osiągnię­cia materii, którą można by określić jako żyjącą.


Mniej więcej od 1936 roku, tj. od publikacji książki rosyjskiego bioche­mika „Początki życia", koncepcja spontanicznej kreacji została całkowicie odrzucona przez naukowców. W książce tej położono nacisk na niesłychaną złożoność substancji żywych. Nieprawdopodobieństwem jest, aby w jakimś krótkim czasie, powiedzmy na naszych oczach, mogły się one pojawić w nie-zorganizowanym roztworze substancji organicznych.

Mamy dość dobre rozeznanie, jakie warunki, w sensie dostępnych sub­stancji oraz energii słonecznej, panowały na powierzchni Ziemi, gdy po­wstawały pierwsze prymitywne formy życia. Początkowo atmosfera ziem­ska była złożona głównie z wodoru i być może z niewielkich ilości metanu i amoniaku. Później dwutlenek węgla, pochodzący z erupcji wulkanów, zajął miejsce metanu. Trzecia faza nastąpiła, gdy w wyniku fotosyntezy pierw­szych komórek roślinnych zaczął powstawać tlen. Mamy wiele dowodów na to, że zanim te komórki osiągnęły stan wysoce zorganizowany i zanim mogły skutecznie bronić się przed oddziaływaniem środowiska, obecność wolnego tlenu w atmosferze była dla nich wybitnie niebezpieczna, ponie­waż reakcje utleniania zabiłyby każdy zalążek życia, uniemożliwiając Jego przetrwanie i dalszą ewolucję. Tlen ma szkodliwy wpływ na istniejące współ­cześnie jądra komórkowe, co wskazuje, że we wczesnych stadiach ewolucji komórki środowisko miało charakter raczej beztlenowy. Dopiero około dwóch miliardów lat temu, tempo produkcji tlenu w reakcjach fotosyntezy przekroczyło tempo utleniania gazów wulkanicznych, co doprowadziło do obecności tlenu w ziemskiej atmosferze. Uważa się, że promieniowanie ul­trafioletowe Słońca, łatwo wtedy przenikające do powierzchni Ziemi z uwagi na brak warstwy ozonowej, było najważniejszym źródłem energii oddziału­jącej na tę ciepłą sadzawkę, według określenia Karola Darwina, z rozpusz­czonymi solami fosforu i amoniaku. Innymi źródłami energii były wyłado­wania elektryczne oraz prawdopodobnie rozpad substancji radioaktywnych, występujących w skorupie ziemskiej.

Jedno z pierwszych doświadczeń naukowych wykazało, w jaki sposób z mieszaniny metanu, amoniaku, wody i wodoru mogą syntetyzować amino­kwasy, podstawowe cegiełki, z których są zbudowane białka. Wyładowania elektryczne wytwarzane w tej mieszaninie w ciągu około tygodnia doprowa­dziły do powstania różnych aminokwasów; utrzymywano, że w taki spo­sób udało się zsyntetyzować czternaście spośród dwudziestu, powszechna występujących w białkach. Później wiele zespołów badaczy zsyntetyzowało podstawowe pary składające się na DNA. Za pomocą wyładowań elektrycznych w metanie uzyskano również wiele kwasów tłuszczowych i węglowodorów, a wiele dużych cząsteczek organicznych wytworzono poprzez odwodnienie mieszaniny aminokwasów; podobne procesy mogły zachodzić w mule przybrzeżnym, ogrzewanym promieniami słońca.

Następnym i chyba najważniejszym etapem było odkrycie, w jaki sposób ostają aminokwasy, które później w bardzo szczególny sposób, obserwowany we wszystkich organizmach żywych, kontrolują syntezę białek. Obecnie są prowadzone na tym polu bardzo intensywne badania, lecz nie uzyskujemy jeszcze na ich podstawie ostatecznych odpowiedzi. Jeden z badaczy, zaangażowany na tym polu, napisał niedawno:


Pełni optymizmu sądzimy, że w najbliższym czasie w laborato­rium potrafimy prześledzić ścieżkę ewolucji chemicznej. Wie­dza z zakresu biochemii, zgromadzona w ostatnich latach, umoż­liwiła nam wgląd do wielu najbardziej tajemniczych procesów przyrody. Osiągnąwszy ten poziom zrozumienia, niewiele czasu potrzeba, byśmy rozwiązali wszystkie problemy.


Ślady życia znaleziono w skałach sprzed trzech i pół miliarda lat. Odnotowano, na przykład, że w skałach Australii Zachodniej oraz Afryki Południowej znaleziono stromatolity (skamieniałości wapienne zawdzięczające swoje powstanie mikroorganizmom, szczególnie sinicom) sprzed 3400-3500 milionów 1at. Donoszono o mikroskamieniałościach, w których można dostrzec błony komórkowe w fazie podziału, znalezionych w Suazi, w warstwach geologicznych osadzonych przed 3400 milionami lat. Toczą się obecnie spory, czy w najstarszych ziemskich skałach, liczących sobie około 3800 milionów lat, to znaczy zaledwie 800 milionów lat starszych od powszechnie zaakceptowanego wieku Ziemi, znajdują się rzeczywiście ślady materiału pochodzącego od organizmów żywych. Według pewnych opinii, życie mogło powstać nawet przed czterema miliardami lat.

Poczynając od tych najdawniejszych czasów, życie na Ziemi na drodze procesów ewolucyjnych, dostrzeżonych po raz pierwszy w 1858 roku przez Karola Darwina i Alfreda Wallace'a, wytworzyło, opierając się na różnicowaniu gatunków, wielką różnorodność form. Świadectwa ewolucji można dostrzec w wielu różnych dziedzinach, poczynając od paleontologii (badania skamieniałości), poprzez geograficzne rozmieszczenie gatunków, klasyfikację, badania sposobu rozmnażania się roślin i zwierząt oraz embriologię, aż do biochemii. Neodarwinowska teoria ewolucji, jak ją teraz nazywamy, opiera się na dowodach z bardzo szerokiego obszaru źródłowego oraz wspiera się na olbrzymiej liczbie obserwacji pośrednich. Ewolucja została powszechnie zaakceptowana w środowisku naukowców, lecz mimo to nadal wymaga wielu uzupełnień w samej teorii, jak i w jej zastosowaniach, co pozwoliłoby na jej wykorzystanie we wszystkich sytuacjach. Darwin, w końcowym rozdziale swojego magnum opus, „O pochodzeniu gatunków", opisał zwięźle perspektywy, ja)y teoria ewolucji przynosi całemu światu:


W takim obrazie świata, ze wszystkimi możliwościami, które on stwarza, widać całą wspaniałość, którą jedynie kilka form 1ub być może tylko jedną obdarzył Stwórca; i forma ta, w czasie gdy nasza planeta podążała niezmiennie po swoich drogach wyzna­czonych prawem powszechnego ciążenia, przekształciła się z początkowej prostej i bezkształtnej masy w nieskończenie piękne organizmy, które nadal ewoluują.


Zaczynamy sobie obecnie zdawać sprawę z mocy praw natury, doprowa­dzających od Wielkiego Wybuchu aż do czasów współczesnych do niesły­chanej różnorodności form życia na Ziemi. Któż może wiedzieć, jakie inne formy życia istnieją na innych planetach, krążących wokół innych gwiazd, w naszej lub innej galaktyce?

Powinniśmy teraz przejść do drugiego tematu książki do świata psychiki. Kiedy na Ziemi pojawił się rozum? Ze ściśle materialistycznego punktu wi­dzenia należałoby się spodziewać go w odpowiednim stadium ewolucji po powstaniu odpowiednio złożonych systemów żywych. Istotne jest, abyśmy podjęli próbę wydedukowania, w jakim konkretnie stadium można mówić o rozumie. Zajmę się tym zagadnieniem w następnej części.


Ewoluujący rozum


Mówi się, że na Ziemi żyje ponad milion różnych gatunków. Pomimo niezwykle szerokiego zakresu różniących się wzajemnie kształtem i rozmiarami gatunków, poczynając od prymitywnej ameby aż do wytworna żyrafy, od krwiopijczej pijawki do szybującego na niebie orła, ich różnorodność daje się wyjaśnić na podstawie teorii ewolucji Darwina i Wallace'a oraz teorii dziedziczenia i szczegółów budowy kwasów DNA i RNA, opisywanych kodem genetycznym, odkrytym w 1964 roku przez Cricka i Watson. Sposób, w jaki geny kontrolują powstawanie struktur cielesnych, jest obecnie dobrze poznanym elementem wiedzy naukowej, prowadzącym do powstania ambitnego i ważnego projektu polegającego na sporządzeniu mapy ludzkiego genomu, z wyszczególnieniem położenia każdego genu w komórce. Prace nad tym projektem prowadzą na całym świecie wyodrębnione zespoły naukowców i należy się spodziewać, że na ich zakończenie będziemy musieli czekać około dziesięciu lat. Inżynieria genetyczna, chociaż nieco kontrowersyjna, stworzyła nowe formy zwierzęce, a również umożliwiła leczenie pewnych specjalnych postaci ludzkich chorób.

Wraz z wielką, różnorodnością kształtów zwierząt spotykamy niezwykłą różnorodność wzorców zachowań. Ogrody zoologiczne fascynują nas, ponieważ dają nam możliwość zaobserwowania niektórych tych zachowań na własne oczy. Lecz to, co udaje nam się dostrzec, stanowi jedynie wierzchołek góry lodowej. Nie widzimy ameby poszukującej chemicznych substancji odżywczych oraz pijawki przechodzącej przez swoje cykle życiowe. Ukryty jest przed naszymi oczami proces budowania gniazda przez ciernika, który nabierając piasek w pyszczek przenosi go na inne miejsce, gdzie powstaje gniazdo. Zdolność szympansów do rozwiązywania prosach problemów, a być może nawet do używania pewnych prostych form językowych, również nie daje się zauważyć na pierwszy rzut oka.

Kilka lat temu do mego domu, w najbardziej dosłownym tego słowa znaczeniu, przyprowadzono dorosłą małpę człekokształtni. Zostałem bowiem zaangażowany do pewnego programu telewizyjnego dla dzieci, w którym po­kazywała się szympansica w wieku około czterech lat (prawie dojrzała). My wszyscy, nie wyłączając szympansicy, mieliśmy przerwę na obiad jedzony zwykle w bufecie obok studia. Siedziałem tam kiedy sną przeciwko małpy i jedząc moje danie prowadziłem zajmującą rozmowę z jej właścicielem. W pewnym momencie na moim talerzyku zacząłem obierać pomarańczę. Małpa natychmiast wyciągnęła dłoń i spojrzała na mnie błagalnie. Cóż mogłem zrobić? Dzieliłem z nią pomarańczę kawałek po kawałku. Jadła z apetytem, okazując przy tym wielką wdzięczność i wyciągane co chwilę dłoń po następny kawałek. Kiedy skończyłem, skoczyła zadowolona na kolana swojego pana i usadowiła się na dobrze zasłużony odpoczynek! Jest to oczywiście jedynie rozszerzenie zachowań małpy poza zwykłe jej reakcje, spotykane na przykład w klatkach ogrodów zoologicznych, gdzie ma do czynienia z odwiedzającymi i ich łakociami, ale ta małpa jednak była doprawdy człekopodobna w swoich reakcjach.

Wizyta w domku naczelnych w zoo wyraźnie przekonuje, że szympansy stanowią najbardziej inteligentny końcowy człon kontinuum orangutany, goryle, małpiatki i lemury. Idąc tropami ewolucji można wyraźnie zauważyć, że wszystkie gatunki wykazują stopniowy wzrost inteligencji. Jeżeli rozwa­żymy łańcuch ewolucyjny


ryby ® płazy ® gady ® ssaki


to wyraźnie dostrzeżemy tę zmianę reakcji behawioralnych na różnicowanie się środowiska, co stanowi istotną cechę inteligencji. Na najniższym końcu tego łańcucha zachowanie jest stereotypowe, chociaż może być dość złożo­ne. Tak więc aktywność przenoszenia piasku przez ciernika budującego swo­je gniazdo przekształca się w różne dziwaczne reakcje, kiedy w takim sa­mym stopniu doświadcza się uczuć agresji jak i strachu. To tylko jeden z wielu przykładów zbioru możliwych reakcji łączących się w zawiły sposób z wro­dzonymi reakcjami gatunku. Wspinając się na coraz wyższe szczeble dostrze­gamy coraz bogatsze wzorce zachowań, aż w końcu docieramy do człowie­ka, jawiącego się już jako ostateczny tryumf ewolucji w zakresie umiejętno­ści podejmowania przez osobnika działań złożonych.

Źródłem bogactwa zachowań, spotykanego już dużo niżej na drabinie ewolucji, mogą być jedynie możliwości, jakich dostarcza mózg. Bardzo praw­dopodobne, że szympansica, z którą jadłem obiad, miała jakieś skojarzenia myślowe, powstające w jej mózgu, które oddawały znaczenie pomarańczy. Bodziec wzrokowy na widok owocu musiał przywołać w jej mózgu pamięć przyjemności, jaką dawało jej jedzenie pomarańczy, co spowodowało, że wyciągnęła rękę, by tę przyjemność powtórzyć. Nakierowana była na jakiś cel, którym w tym przypadku było zjedzenie owocu, a postępowaniem, które mogło doprowadzić do osiągnięcia tego celu, było wyciągnięcie ręki i pro­szące spojrzenie skierowane na mnie w taki sposób, że nie byłem w stanic odmówić. Lecz tego typu skojarzenia myślowe pojawiają się już na niższych szczeblach ewolucji zwierząt. Sugerowano nawet, że szympansy mają swoją teorię rozumu. W przypadku szympansów, z którymi prowadzono doświad­czenia z wykorzystaniem języka migowego, odkryto, że mają one zdolność przewidywania zachowań swoich opiekunów w zależności od sposobu ich bycia. Mogłoby się wydawać, że w jakimś sensie mają teorię na temat umy­słu swoich opiekunów. Zaobserwowano, że tylko szympansy i orangutany mogą nauczyć się rozpoznawania swojego wyglądu na podstawie odbicia w zwierciadle. Goryle nie potrafiły już nauczyć się tego zadania, chociaż można podejrzewać, że inne problemy mogą być bardziej dopasowane do ich zdolności. Na niższych szczeblach drabiny ewolucji nie dostrzega się już zupełnie zdolności do świadomego postrzegania swoich własnych obrazów; na przykład nie obserwuje się tego u psa czy kota. Nie oznacza to wcale, że zwierzęta te nie mają jakiegoś, przechowywanego w swoich mózgach, wy­obrażenia o świecie zewnętrznym.

Kiedy piszę te słowa, rozprasza mnie szczekanie mojego psa. Usiłuje do­stać się do pokoju na piętrze, gdzie spodziewa się znaleźć moją żonę (do której jest bardzo przywiązany). W tym momencie wchodzi ona na górę i odzywa się do niego z drugiej stromy. Wygląd pyska psa oraz reakcja całego jego ciała wyraża niedowierzanie i zupełne zaskoczenie. Tak jakby chciał powiedzieć przecież jesteś w tym pokoju! Wyraźnie widać, iż w myśli wyobrażał sobie, że żona jest wewnątrz i dlatego szczekał, by się tam dostać.

Można zejść na jeszcze niższy szczebel ewolucji. Na przykład szczury są wspaniałymi zwierzętami laboratoryjnymi, ponieważ można je w ciągu kilku dni nauczyć, w jaki sposób pokonywać labirynt i odnaleźć ukrytą nagrodę. Okazało się, że mają zdolność przechowywania w pamięci obrazu labiryntu i nawet jeżeli obróci się drogi prowadzące do wejścia, obraz w ich mózgu również się obróci. Odkryto, że można wyróżnić pojedyncze komórki nerwo­we, zwane odpowiednio komórkami miejsca, reagujące jedynie wtedy, gdy szczur znajduje się w konkretnym miejscu w danym labiryncie. Owady, znaj­dujące się jeszcze niżej na drabinie ewolucji, uczą się znajdować pokarm według dostarczanych im wskazówek. Informację, gdzie można znaleźć po­karm, przekazują nawet innym, co wyraźnie daje się zaobserwować u psz­czół. Natomiast mrówka może nauczyć się ścieżek dojścia do źródeł poży­wienia, a jeżeli te ścieżki zostaną przesunięte, to straci orientację, aż do chwi­li, gdy nie odkryje nowych dróg. Jest doprawdy zdumiewające to, do czego są zdolne prymitywne zwierzęta, wyposażone w bardzo mały system nerwo­wy, zbudowany czasami z kilku zaledwie zwojów nerwowych działających autonomicznie.

Wszystkie wzorce zachowań powstają w wyniku procesów zachodzących narożnych poziomach układu nerwowego. Pozbawiony głowy kurczak może być nadal zdolny chodzić, kierowany uformowanymi uprzednio w mózgu odruchami, lecznic ma już zdolności do kierowania swoim postępowaniem. Dzieci z uszkodzeniami mózgu rosną, dorastając jako upośledzone umysło­wo, i wymagają specjalnego szkolenia, by mogły poradzić sobie z tak prostymi czynnościami jak fizjologia czy jedzenie. Zwiększająca się liczba osób z uszkodzeniami mózgu jest skutkiem ostatnich wojen, coraz większej liczby wypadków samochodowych oraz chorób, dotykających szczególnie ludzi w podeszłym wieku. Badania takich przypadków, chociaż tragicznych dla bliskich, doprowadziły do ogromnych postępów w rozumieniu misternych sposobów, jakimi mózg wyraźnie steruje wszystkimi aspektami zachowania. Zebrane wyniki połączono z rezultatami doświadczeń przeprowadzanych na zwierzętach, takich jak wspomniane wyżej szczury albo koty czy małpy. Lecz nie tylko te wyższe zwierzęta okazały się pomocne w rozumieniu fizycznych aspektów sterowania w obszarze świata psychicznego, pozwalając w ten spo­sób przynieść ulgę dotkniętym cierpieniem ludziom. Siatkówka oka złotej rybki (jeszcze lepiej do tego celu nadaje się karp, ale jest niestety droższy) jest na przykład bliskim analogiem naszej. Zespół badawczy ze szpitala w Am­sterdamie przeprowadza aktualnie eksperymenty ze złotą rybką, mające na celu zrozumienie natury kolorowego widzenia (które ona również ma), co może być pomocne w kuracji ludzi dotkniętych daltonizmem. W tym samym czasie prowadzi doświadczenia z szympansami, by lepiej zrozumieć sposób, w jaki ich reakcje odpowiadaj ą falom mózgowym rejestrowanym za pośred­nictwem elektrod umieszczonych na powierzchni głowy (EEG).

Jednym z możliwych sposobów śledzenia ewolucji rozumu jest ten, który omawialiśmy powyżej, a więc badanie ewolucji mózgu. Zakłada się przy tym, że odczucia psychiczne w przeważającej mierze, jeśli niecałkowicie, są uwarunkowane jego aktywnością. Jeżeli tak, to ewolucja rozumu umoż­liwia śledzenie szczegółów drogi, na której rozwijał się mózg zwierząt, w miarę jak wspinał się po drabinie ewolucji oraz wyjaśnienie, w jaki spo­sób rozszerzał się towarzyszący temu zakres wzorców zachowań. Tą meto­dą można zrozumieć, w jaki sposób konkretne reakcje lub nawet całe wzor­ce zachowań mogą byś modyfikowane poprzez rozwój poszczególnych ob­szarów mózgu. Nawet sposób, w jaki na przykład ciało jest wyobrażane w jego sensorycznych częściach, różni się u poszczególnych gatunków. Świ­nia ma bardzo obszerny region mózgu przyporządkowany ryjowi, podczas gdy człowiek ma wyolbrzymiony ponad miarę obszar tkanki mózgowej związanej z twarzą i rękoma. Można znaleźć wiele wzorców zwierzęcych zachowań, które wynikają ogólnie rzecz biorąc z konkretnej budowy mó­zgu. Poznawszy te mechanizmy możemy podjąć próbę wkroczenia do świata percepcji zwierząt. Istnieją na przykład ograniczenia wynikające z możli­wości układów odbiorczych. Tak więc z wykładu na temat: Co oko żaby przekazuje mózgowi, dowiadujemy się, że żaba może dostrzec albo bardzo duże wolno przesuwające się obiekty, albo przedmioty bardzo małe, lecz ruchliwe. Wynika to jedynie z budowy komórek w jej oku. Obydwa sposo­by postrzegania są dla niej niesłychanie istotne, jako że pierwszy ostrzega ją przed potencjalnymi groźnymi drapieżnikami, podczas gdy drugi umoż­liwia polowanie na małe owady, takie jak na przykład muchy. W podobny sposób, badając jego system echolokacyjny, możemy wkroczyć do świata nietoperza. Zaczynamy poznawać sposób, w jaki mózg nietoperza koduje położenie, które odbiera w postaci odbitych sygnałów dźwiękowych, na podstawie czego udaje się już sporządzać mapy obszarów korowych, odpowiedzialnych za przechowywanie różnych danych (odległości rozmiaru, prędkości itp.). Złożoność tych wszystkich układów u zwierząt, a szczegól­ne u ludzi, nadal oczywiście nastręcza wiele trudności. Pomimo to znaczenie związków pomiędzy budową mózgu a zachowaniem znacznie wzrosło w ostatnich dziesięcioleciach. Coraz bardziej wydaje się prawdopodobne, ewolucja rozumu jest tożsama z ewolucją mózgu.

Nie wydaje się, aby celem procesu ewolucji było tylko zwiększanie jego rozmiaru. Mózg słonia jest trzy czy cztery razy większy od naszego, a mózg wieloryba nawet sześć razy. Wielkość mózgu delfina jest porównywalna z rozmiarami naszego. Pomimo to żaden z tych mózgów nie wykazuje ani takiej złożonej struktury jak nasz, ani ich posiadacze nie wykazują takiej zróżnico­wanej aktywności. Nawet w obrębie naszego gatunku wielkość mózgu o niczym jeszcze nie świadczy. Największy mózg, jaki kiedykolwiek odnotowano w annałach nauki, miał na przykład kompletny idiota, natomiast mózg uznanego francuskiego pisarza Anatola France'a był o połowę mniejszy.

Jest jeszcze jedna metoda badania ewolucji rozumu. Polega ona na obserwacji i doświadczeniach przeprowadzanych z małymi dziećmi w różnym |wieku. Badania tego typu doprowadziły do generalnego wniosku, że w miarę jak dziecko dojrzewa fizycznie, następuje porównywalny rozwój jego zdol­ności umysłowych. Wspiera to opinię, że rozum identyfikuje się ze zdolno­ściami mózgu. Prowadzi to również do wielce interesującego pytania, czy istnieją w nim jakieś pierwotne struktury, niezależne od sposobu wychowa­nia, które umożliwiają rozwój potężnych wzorców zachowań, a w szczegól­ności rozwój mowy. Istnienie takich głębokich struktur postulował dziesięć lat temu, opierając się na swoich badaniach lingwistycznych, amerykański językoznawca Noam Chomsky. Wykazały one, że różne języki mają podobną budowę gramatyczną, co doprowadziło Chomsky'ego do postulatu o pier­wotnych strukturach mózgu (niezależnych od późniejszego procesu naucza­nia), zdolnych do stwarzania takich wspólnych rysów języka wśród wielu ludzkich społeczeństw.

Badania związane z procesem nauczania dzieci w wieku, powiedzmy, trzech, siedmiu czy dziesięciu miesięcy realizowano głównie za pomocą technik habituacyjnych. Dziecko siedzi w wygodnym wysokim fotelu i patrzy na obraz wyświetlany na umieszczonym przed nim ekranie. Po obejrzeniu kilku obrazów, na przykład zwierząt (dokonując przy tym pomiarów czasu, jaki poświęca dziecko każdemu z nich), pokazuje się dziecku powtórnie obraz jednego z tych zwierząt, a czas skupienia uwagi na obrazie może być wtedy już krótszy, ponieważ przyjmuje się, że dziecko nauczyło się obrazka. Może ono skupiać stosunkowo dłużej uwagę na obrazku przedstawiającym zupeł­nie nowe zwierzę. Jeżeli dobierze się prawidłowo obrazy, to czas, który dziecko poświęca na obserwacje podobnych lub bardzo różniących się zwierząt, może stać się wyznacznikiem tego, czy dziecko potrafi stworzyć sobie w mózgu pewne ich kategorie. Tak więc, na przykład, jeśli pokazuje się mu zwierzęta o coraz to innej długości nóg, to zwykle nie będzie skupiać zbyt długo uwagi na tych, które mają nogi o przeciętnej długości, natomiast widząc zwierzęta z bardzo długimi nogami (lub bardzo krótkimi), będzie patrzyło na nie stosun­kowo dłużej.

Dzięki tym badaniom odkryto, że dziecko trzymiesięczne potrafi zbu­dować sobie pewien wzorzec dotyczący wyglądu kończyn czy na przykład głowy; dziecko siedmiomiesięczne wzorzec całych zwierząt; a w wieku dzie­sięciu miesięcy jest w stanie wyraźnie wyróżnić i zapamiętać całą ich gru­pę. W podobny sposób można rozwijać zdolność do śledzenia przedmio­tów, które poruszają się w pewnej części swojej drogi ukryte za jakimiś przeszkodami, co doprowadza w ciągu mniej więcej tego samego czasu do wytworzenia się pojęcia ciągłości trwania przedmiotu. Umiejętność rozpo­znawania twarzy rozwija się nawet w ciągu jednego miesiąca. Wydaje się, że zdolność do rozróżniania sylab pojawia się już w pierwszych miesiącach życia, lecz później zanika, by powrócić znowu z większą siłą po upływie dalszych miesięcy, szczególnie w stosunku do tych sylab, które dziecko sły­szy w swoim otoczeniu.

Okazuje się więc, że ewolucja umysłu następująca bądź w ciągu epok trwania ewolucji, bądź w ciągu miesięcy czy lat rozwoju dziecka, jest ściśle skorelowana z ewolucją mózgu. Jakże trudno jednak wyjaśnić zdolności Mozarta, Szekspira czy Einsteina powołując się na te dwie garści kleiku, skła­dające się na mózg. Dopiero w ostatnim stuleciu uświadomiono sobie, że nie­słychanie złożone zachowania wynikają z odpowiadającej im złożoności bu­dowy mózgu.


Mózg


Mózg ludzki składa się z grudek szarej substancji, zwanej istotą szarą, połączonych nawzajem białymi włóknami. Same te zwoje są agrega­tami komórek nerwowych (ukształtowanych w postaci zwojów lub płatów); a białe włókna są w istocie wyrostkami z tych komórek. Te ziarna szarej substancji nazwano ośrodkami i przyporządkowano im różne nazwy łacińskie, podczas gdy najważniejszym płatem u ssaków jest kora, pokrywająca dwoma pofałdowanymi półkulami pień mózgu i ośrodki śródmózgowia. Okazuje się, że to właśnie kora mózgowa rozwinęła się najbardziej w procesie ewolucji, chociaż daje się również zauważyć generalny wzrost masy mózgu w porównaniu do masy ciała (nazywany encefalizacją). Przełom w objętości mózgu ssaków, w stosunku do mózgu gadów, nastąpił około stu pięćdziesięciu milionów lat temu, u prymatów w stosunku do innych ssaków około pięćdzie­sięciu milionów lat, a u hominidów przed mniej więcej pięcioma milionami lat. W wyniku ewolucji trwającej ponad dwa miliony lat mózg ludzki podwo­ił swój rozmiary.

Trzy części mózgu - pień, śródmózgowie i kora - powiększały się w różnych okresach ewolucji człowieka i stąd różne są ich funkcje. Pień mózgu jest najbardziej pierwotną strukturą. Oprócz tego, że spełnia rolę stacji przekaźnikowej dla bodźców czuciowych nadchodzących z całego ciała oraz dla sygnałów sterujących mięśniami wypływających z czaszki, znajdują się tam jeszcze ośrodki sterujące cyklem spania i czuwania oraz oddychania, a również prostymi odruchami, takimi jak chodzenie i utrzymywanie równowagi pionowej.

Na kolejnym poziomie złożoności znajduje się śródmózgowie. Wydaje się, że znajdują się tam co najmniej trzy główne centra. Pierwsze spełnia zadania przekaźnika przenoszącego sygnały zewnętrzne do kory mózgowej, gdzie są one dokładnie analizowane. Najważniejszym z nich jest wzgórze (thalamus), które składa się z dwu części (odpowiednio dla każdej półkuli mózgowej). Na przykład wszystkie bodźce wzrokowe, dotykowe i dźwiękowe przechodzą w drodze od receptorów (oczu, uszu i skóry) do dalszej analizy w korze przez różne ośrodki ulokowane we wzgórzach.

Następną klasą zwojów nerwowych szarej substancji mózgu, rozlokowanych w śródmózgowiu, są te, które przydają znaczenia różnym bodźcom. Najważniejszym z nich jest podwzgórze (hypothalamus), które jak to odkryto w 1954 roku jest ośrodkiem odczuwania bólu i przyjemności. W ramach jednego z eksperymentów, szczurowi zamocowano w pewnym rejonie mózgu elektrodę podłączoną w taki sposób, że szczur, naciskając pedał, mógł podrażniać komórki nerwowe słabym impulsem elektrycznym. Zaobserwowano, że szczur uparcie powtarzał takie autostymulacje nawet wtedy, gdy elektrodę podłączono do stosunkowo wysokiego napięcia. Odkryto, że jedne obszary podwzgórza były ośrodkami przyjemności, a drugie centra­mi bólu, co potwierdziło się w doświadczeniach, podczas których zwierzę usiłowało uciec z miejsca, gdzie mogło zetknąć się ze stymulacją tych ośrodków. Doświadczenia tego rodzaju stały się punktem zwrotnym w badaniach relacji pomiędzy mózgiem a zachowaniem. Uprzednio ograniczano się do badań takich związków poprzez redukowanie całych zespołów zachowań do zbioru pojedynczych zasad rządzących sposobem, w jaki warunki eks­perymentu wpływały na relacje bodziec-reakcja. Wszystkie teorie tego typu nic nie mówią o wewnętrznym świecie psychicznym konkretnego osobni­ka, pozostawiając te zagadnienia na uboczu dyskusji jako leżące poza gra­nicami nauki. Lecz wyniki otrzymane podczas doświadczeń z autostymulacją dały się łatwiej zrozumieć w kategoriach dostarczanych doznań związa­nych z przyjemnością. Przyjemność i ból zostały jeszcze raz uznane jako rzeczywiście istniejące wrażenia. Potwierdziło się to podczas podobnych doświadczeń przeprowadzanych z ludźmi. Uczestnicy badań twierdzili, że dostarczały im one prawdziwej przyjemności.

Oprócz tych ośrodków ściśle powiązanych z odczuwaniem przyjemności i bólu istnieją również inne, które wydają się również zdolne do przechowy­wania wrażeń z doznań przyjemnych lub związanych z bólem. Jeden z nich, tzw. hipokamp (hippocampus), którego nazwa pochodzi od konika morskie­go przypominającego go kształtem, jest niesłychanie ważny dla pamięci dłu­gotrwałej. Osobnik pozbawiony go, wydaje się niezdolny do zapamiętania niczego nowego — słów, nazwisk spotykanych ludzi czy drogi powrotnej do domu. Przy wypowiadaniu zdania traci nawet pamięć początkowej jego czę­ści. Inny obszar, ciało migdałowate (amygdala), wydaje się odpowiedzialny za przechowywanie wrażeń emocjonalnych doświadczonych w przeszłości. Utrata tego ciała prowadzi do trudności w nawiązywaniu kontaktów uczucio­wych z innymi ludźmi. Zwierzęta laboratoryjne z uszkodzonym ciałem mig­dałowatym wykazują osłabione reakcje na bodźce emocjonalne. Na przykład szczur ze zmianami patologicznymi w tym obszarze może nadal pić wodę mimo nieprzyjemnego smaku, wywołanego choćby dodatkiem chininy. Omó­wione dotychczas ośrodki, podwzgórze, wzgórze, ciało migdałowate, tworzą układ limbiczny (limbus znaczy skraj czy brzeg), ponieważ są rozmieszczone głównie na obrzeżach kory. Układ limbiczny stanowi w mózgu coś w rodza­ju magazynu doznań emocjonalnych.

Trzecią grupą, którą można wyróżnić w szarej substancji, są pęczki ner­wowe (basal ganglia). Ich znaczenie polega na sterowaniu odruchami motorycznymi oraz na tym, że wydają się przechowywać programy kontrolujące ruchy. Ich upośledzona czynność jest powiązana z chorobą Parkinsona i pląsawicą Huntingdona. Maj ą także wyraźne powiązania anatomiczne z móżdż­kiem (cerebellum). Jest to zwarta struktura z tyłu mózgu, która wydaje się konieczna do dokładnej kontroli wykonywanych ruchów.

Dochodzimy w końcu do kory mózgowej dwóch powierzchni lub opon tworzących pokrycie mózgu i mających podstawowe znaczenie dla doznań związanych ze świadomością. Zbudowane są z warstwy istoty szarej (składającej się z komórek nerwowych) położonej na wierzchu oraz z włóknistej istoty białej (z wypustek komórek nerwowych, tzw. aksonów) przebiegającej pod różnymi obszarami warstwy powierzchniowej. Kora jest silnie pofałdowana, tak, aby w danej pojemności czaszki mogła mieć jak największą powierzchnię. Taka budowa była między innymi powodem powstania bardziej rozwiniętego mózgu ludzkiego od mózgu na przykład delfina. Korę można z grubsza podzielić na trzy obszary. Pierwszy jest odpowiedzialny za odczuwanie doznań wzrokowych, słuchowych, zapachowych, dotykowych oraz za sterowanie ruchami. To jest właśnie ten obszar mózgu, do którego docierają różne sygnały (z wyjątkiem zapachowych) z zewnątrz po przejściu przez wzgórze. Po wstępnej analizie są one dalej obrabiane w regionach nazywanych obszarami kojarzeniowymi kory, które otaczają ośrodki pierwotne. Trzecim, najwyższym poziomem kory są płaty czołowe, które można by również nazwać trzeciorzędowymi regionami korowymi. Wydaje się, że właśnie tutaj zachodzą procesy związane planowaniem.

Te różne obszary kory - pierwotny, kojarzeniowy i trzeciorzędowy - mają odrobinę odmienną budowę, chociaż wszystkie są zbudowane z grubsza według tego samego schematu sześciu warstw komórek nerwowych, zebranych w kolumny po około tysiąca sztuk. W korze znajduje się około miliona takich kolumn. Pomimo ich dość podobnego wyglądu, różne obszary kory spełniają odmienne funkcje. Jak już wspomniano wyżej, spostrzeżenia tego typu zostały dokonane przy okazji leczenia coraz większej liczby ludzi z urazami głowy. Uszkodzenia w obszarach pierwotnych kory powodowały utratę odpo­wiadających im zdolności odczuwania. Ubytek kory w pierwotnym obszarze doznań wzrokowych, który jest nazywany płatem wzrokowym, prowadzi do ślepoty. Utrata komórek korowych w regionie kojarzeniowym, znajdującym się tuż przed płatem wzrokowym, w tzw. płacie ciemieniowym, może spo­wodować dziwne objawy pomijania. Oznacza to, że dany osobnik może nie być zdolny dostrzegać lewej strony swego, uprzednio normalnego, pola widzenia. Może to przybrać postać tak ekstremalną, że człowiek zaprzecza jakoby prawa strona należała do jego ciała, i może ją nawet atakować lewą ręką lub nogą twierdząc, że w jego łóżku znajduje się jakiś intruz. Ubytek płata skroniowego, po obu stronach kory, powoduje utratę pamięci o zdarzeniach w przeszłości, a utrata płata czołowego może prowadzić do zmiany osobowości i do braku umiejętności rozsądnego postępowania w realnych sytuacjach życiowych. Jako przykład, pochodzący z połowy ubiegłego wieku, można tutaj podać przypadek Phineasa Gage'a, który utracił znaczną część płata czo­łowego, gdy stalowy pręt uszkodził mu czaszkę podczas wykonywania obo­wiązków na kolei w USA. Odnotowano, że był zdolny z pełną świadomością odbywać kilkukilometrowe spacery do lekarza, ale znaczna zmiana jego oso­bowości doprowadziła do tego, że stał się bardzo kłótliwy. W rezultacie zgi­nął kilka lat później w jakiejś knajpianej bójce.

Mózg jest zatem organem rozumu. W następnym rozdziale zajmiemy się kwestią, na ile jesteśmy zdolni zrozumieć subtelności jego działania. W bada­niach na tym polu dokonano znacznych postępów; myśli się nawet o zbudo­waniu sztucznej inteligencji.

9. Programy operacyjne mózgu


Atomy mózgu


Można przyjąć, że rewolucja naukowa przebiegała w dwóch etapach. Pierwszy z nich, rewolucja materialna, zabrał nam trzy stulecia i doprowadził do gmatwaniny kwarków i gluonów. Na tej drodze weryfikowano dogłębnie tezy redukcjonizmu z największą jak dotąd precyzją. Drugim etapem była rozpoczęta przed ponad stu laty rewolucja umysłowa, która trwa faktycznie nadal. To właśnie może być powodem, dlaczego, jak już zauważyliśmy, istnieje taka rozbieżność pomiędzy stanem naszej obszernej wiedzy o świecie materialnym a prawie beznadziejnym stanem wiedzy o nas samych. Przekazanie ogromnego potencjału nauki ludziom dorosłym, w szczególności politykom i wojskowym, którzy, w rezultacie, okazali się dziećmi, było bardzo niebezpiecznym posunięciem. Nic więc dziwnego, że w naszym nowoczesnym społeczeństwie nie brakuje takich, którzy woleliby cofnąć zegar i powrócić do czasów powszechnej ignorancji. Mimo wszystko na świecie jest zbyt wiele żołądków do wyżywienia i zbyt wielkie oczekiwania odnośnie do standardów życia, aby można było teraz przyhamować tempo rewolucji naukowej.

Innym powodem tego, że tak długo musimy czekać na owoce rewolucji umysłowej jest to, że nasze zrozumienie umysłu nie wydaje się tak prostym problemem, by można było z nim zmierzyć się, tak jak powiedzmy z wodą. Podejście redukcjonistyczne jest oczywiście idealne w przypadku świata materialnego. Większość właściwości materii, opisywanych pojemnymi zmiennymi, takimi jak objętość, temperatura i ciśnienie, daje się wyjaśnić rozważając zbiory atomów i uśredniając ich parametry. Termodynamika statyczna, dziedzina nauki, powstała na tej drodze, pozwoliła naukowcom wypełnić lukę pomiędzy światem atomu i światem makroskopowym. W tym samym czasie okazało się, że większość obiektów materialnych latających wokół nas, czy byłyby to strzały, kule czy planety, porusza się zgodnie ze słynnymi trzema prawami ruchu odkrytymi w siedemnastym wieku przez Newtona. Mechanikę kwantową oraz inne, powstałe w tym stuleciu, nowsze teorie o większej precyzji, omówiliśmy wcześniej.

Mogliśmy żywić nadzieję, że rewolucja umysłowa będzie przebiegać równie gwałtownie. Lecz, aby to mogło nastąpić, musielibyśmy posiadać wiedzę o jakiś analogicznych do temperatury i ciśnienia właściwościach, którymi moglibyśmy charakteryzować stan mózgu. Poza tym, mamy szu­kać atomów mózgu oraz jakie zmienne statystyczne pozwoliłyby wyjaśnić wynikową aktywność mózgu, nawet jeżeli poznalibyśmy już właściwości tych atomów. Znamy już odpowiedzi na niektóre z tych pytań, lecz analo­giczne teorie nie osiągnęły jeszcze zadowalającego poziomu, by można było osiągnąć ten poziom zrozumienia, co w przypadku świata materialnego.

Aby od czegoś zacząć, można zgodnie z prawdą stwierdzić, że atoma­mi mózgu są w jakimś sensie komórki nerwowe czy neurony, o których już wspomnieliśmy, a mózg ludzki składa się z około dziesięciu miliardów ta­kich atomów. Aby mógł funkcjonować, należy mu dostarczyć energii, a znaczny procent pożywienia, które zjadamy, jest przeznaczony na pod­trzymywanie sprawnej pracy pomp sodowo-potasowych w naszych komór­kach nerwowych, produkujących i transmitujących impulsy elektryczne.

Komórki nerwowe przekazują sobie nawzajem sygnały w postaci bardzo krótkich impulsów elektrycznych, które płyną ciągle wzdłuż aksonów, na po­dobieństwo palącego się lontu. Każda komórka wysyła taki sygnał elektryczny, gdy zostaje wzbudzona potencjałem elektrycznym, docierającym od sąsiedniej komórki, przekraczającym pewną wartość progową. Komórka nerwowa funk­cjonuje więc podobnie do mikroskopijnego elementu decyzyjnego, reagując wtedy, gdy impuls elektryczny ma wartość większą od krytycznej, a w innym przypadku pozostaje w stanie niewzbudzonym. Każdy z tych elementów prze­twarza swoje dane wejściowe w tym samym mniej więcej czasie co i pozostałe elementy, a więc uzyskuje się równoległą obróbkę danych. Uświadomiono so­bie obecnie, że taka metoda jest dużo sprawniejsza od przetwarzania szerego­wego (w którym w tej samej chwili może pracować tylko jeden element), wy­korzystywanego nawet w najnowocześniejszych komputerach. Poznano więc sposób, w jaki funkcjonuje mózg, i teraz powstają komputery, w których setki procesorów przetwarzają dane równolegle. Jednakże wydaje się, że mózg, ze swoimi dziesiątkami miliardów procesorów (komórek nerwowych) pracujących równolegle, jest jak na razie ideałem niedoścignionym. To jeszcze nie wszystko, kiedy bowiem impuls nerwowy dociera do zakończenia aksonu (zwanego synapsą od greckiego łączyć, ponieważ zakończenie aksonu wydaje się łączyć z przyległą błoną komórkową), powoduje wydzielanie się aktywatora chemicz­no do wąskiej szczeliny pomiędzy aksonem a ścianą komórki. Właśnie ta substancja powoduje zmianę potencjału elektrycznego następnej komórki. Zmiana ta może mieć charakter wzmacniający, i wtedy działanie nazywamy wzbudzeniem, lub osłabiający potencjał elektryczny następnej komórki, i jest to proces hamujący. Synapsa stanowi również to ważne miejsce, gdzie różne substancje chemiczne, a w szczególności narkotyki, mogą oddziaływać na procesy zachodzące w mózgu, powodując depresje lub zmiany nastroju.

Podsumowując: komórki nerwowe są podstawowymi atomami mózgu. Pobudzone wystarczająco silnie (ponad wartość progową) przez inne komórki wysyłają identyczne impulsy nerwowe do wszystkich komórek połączonych z nią gonami. Można wyróżnić dwie klasy komórek nerwowych: wzmacniające i hamujące. Na końcu włókna nerwowego impuls elektryczny zmienia się na sygnał chemiczny (tym tłumaczy się wrażliwość na działanie wszelkiego rodzaju narkotyków). Okazuje się, że w mózgu występuje kilkanaście różnych rodzajów komórek nerwowych. W obliczu tego wydaje się, że statystyczne (uśrednione) po­dejście umożliwiłoby analizę zachowania się większej liczby takich komórek i doprowadziłoby do stworzenia użytecznego opisu aktywności mózgu, a w dalszej kolejności do zrozumienia psychiki. Wygląda jednakże na to, że mózg jest zbudowany z połączonych grup jąder, co omawialiśmy na zakończenie poprzedniego rozdziału. Budowa i działanie mózgu jest bardziej skomplikowane niż dałoby się to opisać za pomocą uśredniania aktywności coraz większego zbioru połączonych ze sobą komórek. Komplikacje te wynikają z pewnością ze złożoności samego zachowania, na które składają się różne komponenty - emocje, percepcja, zamiary, świadomość, podświadomość, skupienie uwagi itp. Nie można znaleźć jakichś ogólnych zmiennych, opisujących stan takiego złożonego układu, w postaci porównywalnej do ciśnienia czy temperatury materii. Wydaje się konieczne wydzielenie w mózgu pewnych modułów czy części, w obrębie których takie ogólne zmienne staną się bardziej widoczne.


Wstępna obróbka danych


Wstępne przetwarzanie danych, docierających w postaci sygnałów słuchowych i wzrokowych, dokonuje się w zewnętrznych stanowiskach obliczeniowych mózgu, odgrywających bardzo ważną rolę. Działają one jak filtry dla samego mózgu, tak że to, co oko żaby przekazuje jej mó­zgowi, jest już wstępnie odsiane, jak zaznaczyliśmy w poprzednim rozdziale. Już nawet siatkówka oka ssaków ogranicza zestaw danych docierających do mózgu. Jednakże w miarę jak wspinamy się po drabinie ewolucji, widzi. my, że coraz mniej danych zostaje odfiltrowywanych w siatkówce zwierząt, a coraz więcej pozostaje do przetwarzania w korze (co, jak już mówi­liśmy, jest konsekwencją zwiększających się wymagań). Musimy wiedzieć w jaki sposób dane są aktualnie przetwarzane. W przeciwnym razie nie je­steśmy w stanie właściwie ocenić problemu, stojącego przed pozostałą czę­ścią mózgu, która usiłuje nadać sensu docierającym informacjom, zgroma­dzić je i zmagazynować oraz podjąć na ich podstawie decyzję, pozwalającą osiągnąć właściwe cele. Istotne jest również, aby dowiedzieć się, co na­prawdę dzieje się w poszczególnych organach wstępnego przetwarzania, takich jak siatkówka, ślimak ucha czy układ nerwów węchowych. Siatków­ka oka stała się przedmiotem bardzo intensywnych badań, ponieważ, jak ją trafnie nazwano, stanowi w zasadzie łatwo dostępną część mózgu. Badając ją lub inny podobny zespół, możemy wyrobić sobie zdanie na temat tego, jakiego rodzaju metody przetwarzania danych są stosowane w innych ob­szarach mózgu. Skoncentrujmy się teraz na siatkówce.

Obraz jest często utworzony z obszarów o porównywalnej jasności, ograniczonych krawędziami i wierzchołkami. Obszary o stałej jasności i barwie zawierają niewiele informacji, więc nie muszą być przekazywa­ne do mózgu w celu dalszej analizy. Jest to zbyteczne. Aby uniknąć nad­miaru informacji, siatkówka może przesyłać do mózgu jedynie dane o róż­nicy pomiędzy jasnością w jakimś punkcie a przeciętną jasnością w ota­czającym obszarze. Jeżeli jasności te są takie same, to nie jest wysyłany żaden sygnał; nadmiar informacji zostaje wyeliminowany. Metoda ta jest wykorzystywana do przesyłania sygnałów telewizyjnych bardziej upako­wanych niż w tradycyjnych liniach przesyłowych. Nasza siatkówka wy­daje się wykorzystywać tę zasadę w sposób jak najbardziej efektywny, a wynika to z jej specyficznej budowy. Zewnętrzna warstwa komórek (zwa­na warstwą splotowatą) składa się z komórek nerwowych połączonych ze sobą bardzo licznymi odgałęzieniami, których liczba jest zwykle znacz­nie większa niż pomiędzy komórkami w mózgu. Połączeniami tymi przypływają sygnały elektryczne pomiędzy komórkami, przechodząc również przez bardzo wąskie złącza na styku dendrytów (włókna wyrastające z korpusu komórki) poszczególnych komórek. Układ taki nazywamy synapsami dendrytowymi. Zbudowana w ten sposób zewnętrzna warstwa splotowa przypomina do złudzenia siatkę połączonych oporników elektrycznych i została odmodelowana przez elektroników, wykorzystujących metody o wielkiej skali integracji, w postaci bardzo zwartego urządzenia nazwanego siatkówką krzemową. Wykorzystując rzeczywiste formy spo­tkane w przyrodzie, zbudowano również ucho krzemowe.

Interesującą cechą transformacji dokonywanych przez siatkówkę jest podkreślenie konturów. Przy zbliżaniu się do jakiejś krawędzi od ciemniejszej strony przeciętna jasność coraz bardziej się zwiększa w kierunku wartości dodatnich, które są odejmowane od danej wyjściowej z komórki, w której wartość wynosi zero; jako wynik otrzymujemy wartość ujemną. Przy zbliżaniu się do krawędzi konturu od jaśniejszej strony, procedura jest odwrotna, aż do punktu w którym nie ma już żadnej różnicy pomiędzy sygnałami wyjściowymi a otaczającą jasnością. Wtedy nie ma już żadnej reakcji komórki. W ten sposób kontur ulega uwypukleniu i ciemna strona wydaje się jeszcze ciemniejsza, a jasna jaśniejsza. Taki efekt wzmacniania konturów odkryto również w siatkówce bezkręgowców, wykorzystującej podobną zasadę budowy, określaną teraz jako tłumienie boczne, ponieważ komórki tłumią sygnały innych receptorów docierających z przeciwnej strony krawędzi. Siatkówka bezkręgowców składa się z mnóstwa oczek zwanych ommatidiami. Do wszystkich z nich dociera światło przetwarzane równolegle. Światło padające aa ommatidium siatkówki, powiedzmy kraba, powoduje osłabienie sygnału wysyłanego dalej z pobliskich ommatidii, co zachodzi na skutek sprzężenia z pierwszym ommatidium, usiłującym osłabić reakcje swoich sąsiadów. Łatwo daje się to zaobserwować, gdy monitorujemy pojedynczy receptor, na którego jest skierowana wąska smużka świa­tła. Skierowanie takiej samej smużki na sąsiednie ommatidium powoduje osłabienie sygnału pierwszego; kierując światło na dalsze receptory osłabiamy sygnał z drugiego elementu i w ten sposób zmniejszamy oddziaływania osłabiające na pierwsze ommatidium. Zasada tłumienia bocznego oraz osłabiania tego tłumienia jest wielce użyteczna do zrozumienia procesów zachodzących w wyższych obszarach mózgowia.

Po przejściu światła przez zewnętrzną warstwę splotowatą, opisaną wcześniej, w siatkówce oka kręgowców zachodzi dalszy proces przetwarzania da­nych. U niższych zwierząt, w rodzaju królika, znaleziono komórki, które są wrażliwe jedynie na ruch przedmiotów w jakimś konkretnym kierunku, więc nazwano je sensorami ruchu. Wydaje się, że nasza siatkówka nie jest wyposażona w takie komórki wykrywające ruch i analiza przemieszczania się przedmiotów jest dokonywana dopiero w korze mózgowej. Powoduje to, że nasz system wykazuje większą elastyczność i jest zdolny analizować o wiele więcej różnych rodzajów ruchu niż tylko dość stereotypowe ruchy wykrywane przez królika.


Rozpoznawanie przedmiotów


Badania procesu przetwarzania danych wzrokowych doprowadziły do powstania bardzo ważnego pojęcia, jakim jest pole postrzegania. Wy­obraźmy sobie umieszczony przed nami ekran o wymiarach metr na metr. Przyjmijmy, że w jakimś punkcie tego ekranu znajduje się plamka świetlna. Obszar na ekranie, który wywołuje reakcję w komórce siatkówki lub w ko­rze, nazywamy polem postrzegania tej komórki. Receptory siatkówki mają kołowe pola postrzegania, które zwykle odpowiadają kątowi bryłowemu wynoszącemu nieco mniej niż jeden stopień. Kiedy sygnał wejściowy docie­ra do płatów wzrokowych wzgórza, to wartość ta odrobinę zmienia się. Ob­szar ten, umieszczony w górnej części pnia mózgu, jest stacją przekaźnikową na drodze do półkuli mózgu. Na drodze do płatów wzrokowych kory, umiesz­czonych w tylnej części mózgowia, sygnał ten nie ulega już zasadniczym zmianom.

Na wejściu do obszarów wzrokowych istnieją jeszcze inne komórki, któ­re działają jak receptory podziału. To tak, jakby obraz, który widzimy, ulegał podziałowi na poszczególne krawędzie i kontury, i tylko one były postrzega­ne. Ta wrażliwość na orientację zmienia się stopniowo przy przesuwaniu się po powierzchni mózgu, tak że po przejściu jednego milimetra obraz obraca się o całe trzysta sześćdziesiąt stopni. Przy tym wszystkie te komórki mają z grubsza to samo pole postrzegania.

U człowieka mamy do czynienia z dodatkową komplikacją w postaci czu­łości na barwy. Wydaje się, że plamka świetlna każdej komórki ma rozmiary rzędu milimetra. Komórki te są wrażliwe na barwę w jakimś konkretnym punkcie oświetlonego ekranu, lecz nie odbierają sygnałów transmitujących dane o orientacji. Oznacza to, że dane o barwie i jasności są rozdzielane na dwa strumienie informacji. Sygnały wyjściowe z komórek siatkówki są dalej rozdzielane na strumienie niosące dane o ustalonej wartości oraz na te, które niosą dane krótkotrwałe, a każdy z tych strumieni jest odbierany przez inną warstwę kory, gdzie jest oddzielnie przetwarzany, w wyniku czego uzyskuje się dwa kanały przepływu informacji różne dla ruchu i jasności.

Podsumowując możemy stwierdzić, że we wczesnych stadiach przetwa­rzania danych w ośrodkach wzrokowych kory następuje rozdzielenie sygna­łów wejściowych na dwa strumienie, przenoszące informacje o barwie oraz ruchu i jasności oglądanego obrazu. Receptory podziału opisują jasność, dzie­ląc obraz na wejściu na poszczególne krawędzie. Każdy z tych strumieni informacji powstaje w różnych małych obszarach na wejściu. Takie rozwiązanie zapewnia nadzwyczajną elastyczność przetwarzanych zbiorów danych, lecz dostarcza wielu trudnych problemów.

Po pierwsze, różne cechy (krawędzie, barwy, ruchy) obiektu znajdujące się w polu widzenia ulegają podziałowi na cechy postrzegane w jakimś konkretnym punkcie. Obraz jest później dzielony w celu dalszej obróbki, ale kiedyś musi być przecież odtworzony znowu w całości. W przeciwnym razie nie zostałby rozpoznany. Rozpoznaję swojego psa, gdy na niego patrzę na podstawie obrazu utworzonego z mnóstwa oddzielnych plamek, mających swoje własne cechy. W jaki sposób mogę rozpoznać w nim całego psa? W jaki osób kolory i jasność poszczególnych plamek tak dobrze do siebie pasują? Jeżeli pies porusza się, to w jaki sposób informacje o tym ruchu oraz o kolorze pozwalają mi rozpoznać, że to właśnie mój pies biega po pokoju?

W następnych etapach przetwarzania danych w płatach wzrokowych kory podejmuje się dalsze czynności mające na celu stworzenie takich pełnych obrazów. Zaobserwowano, że poprzez kombinację sygnałów wejściowych z różnych zespołów komórek charakteryzujących pola postrzegania w różnych miejscach, na następnych etapach przetwarzania danych (w obszarach korowych) pola te odpowiednio się nakładają, prowadząc do wytworzenia całej przestrzeni widzenia. W tym procesie komórki rozpoznają coraz większe części obiektu, aż w końcu w korze powstaje cały obraz.

Jednakże prosta rekombinacja addytywna tego, co uprzednio zostało podzielone, nie rozwiązuje wszystkich problemów. Informacje o ruchu, barwie i o krawędziach zostały dokładnie rozdzielone. Muszą by ć teraz zebrane razem, abym patrząc na mojego psa widział, że jest on złocistobrązowy, a nie przybiera barwy trawy, na której właśnie przed chwilą się wylegiwał. W rzeczywistości uszkodzenia mózgu mogą powodować takie zniekształcenia obrazu, że czerwień sukienki może zachodzić na twarz noszącej ją kobiety. Problem przed którym stoimy, dotyczy segmentacji obrazu (wydzielenia poszczególnych cech obrazu z jego tła) i późniejszego połączenia cech (barwy, krawędzi i ruchu) różnych fragmentów z powrotem w jedną całość.

Ostatnie badania płatów wzrokowych kory przyniosły odkrycia, które wydają się zbliżać nas do rozwiązania tego problemu. Okazało się, że sygnały z krawędzi przedmiotu powodują synchronizację aktywności komórek płatów wzrokowych, pracujących jako sensory cech. Ta aktywność wykazuje oscylacje rzędu 30-50 cykli na sekundę. Synchronizacja reakcji komórek przebiega w innym rytmie dla różnych przedmiotów znajdujących się aktualnie polu widzenia. Tak więc dwa zbiory neuronów reagują w różny sposób na różne obiekty. Nie przedstawiono dotychczas jasnego rozwiązania problemu połączenia różnych cech danego przedmiotu. Sugeruje się, że istnieją różne sposoby etykietowania sygnałów docierających z poszczególnych zespołów komórek. Wydaje się, że należy wziąć pod uwagę jeszcze jeden bardzo waż­ny aspekt przetwarzania danych wzrokowych. Wszystko wskazuje na to, że uwaga, odgrywająca w całym procesie zasadniczą rolę, oddziałuje w sposób odmienny niż moglibyśmy oczekiwać.

Wspomniałem wcześniej, że jednym z najważniejszych dokonań w dzie­dzinie komputerowego przetwarzania danych było wprowadzenie procedur równoległych. Połączone równolegle procesory umożliwiają podział pracy i w ten sposób poszczególne zadania mogą być wykonywane równolegle, każde na innym procesorze. Komputer pracujący równolegle staje się siecią składającą się z neuronów. Każdy z nich wykonywałby zdecydowanie prostą operację na sygnale wejściowym. Neuron decyduje, czy suma sygnałów wej­ściowych przekracza aktualną wartość progową i w takim przypadku wysyła krótki sygnał: działam. W przeciwnym razie nie odpowiada. Sztuczna sieć neuronowa wykonana z prostych elementów stałaby się ostateczną formą rów­nolegle pracującego komputera. Wszystkie neurony pracują wtedy równole­gle me czekając na swoją kolej. Jest to jeden z powodów, dlaczego w ostat­nim dziesięcioleciu tak rozwijają się sztuczne sieci neuronowe. Unikają one szeregowego przetwarzania danych typu tylko jeden w tym samym czasie, znacznie spowalniającego standardowe obliczenia. Tego rodzaju sieci, o co­raz większej liczbie neuronów, są stosowane do wykonywania skomplikowanych zadań produkcyjnych i do sterowania robotami, jak również do sporzą­dzania prognoz, ruchomych obrazów oraz rozpoznawania mowy. Musimy pamiętać, że sztuczne neurony są zaledwie kiepską imitacją żywych komórek nerwowych i dlatego używając określenia sztuczny mózg musimy położyć nacisk raczej na wyraz sztuczny niż na mózg.

Jeżeli liczba kanałów wejściowych do naturalnej czy sztucznej sieci neu­ronowej zwiększa się w wyniku zwiększającej się złożoności sygnałów (wzro­kowych, słuchowych czy węchowych), to problem przyporządkowania da­nego sygnału do pewnej klasy staje się niezmiernie trudny. Szczególnie ma to miejsce wtedy, gdy w celu rozwiązania jakiegoś zadania należy zmodyfiko­wać wagi połączeń pomiędzy neuronami. Wagi te są liczbami wskazującymi, jak silnie dany neuron oddziałuje na dalsze w szeregu. Ponieważ należy zmie­niać coraz więcej wag, problem może stać się nierozwiązalny. Wydaje się, że moglibyśmy ominąć wiele z tych trudności wykorzystując procedury równo­ległego przetwarzania danych jednocześnie na kilku poziomach. Lecz w końcu do głosu dochodzi uwaga, która w sposób jeszcze nie do końca zrozumiały odfiltrowuje zbędne dane i znacznie zmniejsza złożoność problemu. Na bie­żąco kontroluje się jedynie niewielką część całkowitego pola widzenia. Na przykład, podczas poszukiwania filiżanki są analizowane jedynie sygnały ucierające z obszarów będących w pobliżu miejsca, gdzie spodziewamy się ją znaleźć. Osiąga się to przez skupienie uwagi na filiżance, zmniejszając tym samym pola postrzegania odpowiadające komórkom wstępnego przetwarzania danych wzrokowych w korze. Bardzo interesującym zagadnieniem jest sposób, w jaki koncentrujemy uwagę na poszczególnych obiektach, szczególnie dlatego, że przyswojenie sobie tych metod dla sztucznych sieci neuro­nowych może mieć istotne następstwa.

Rozporządzamy różnymi wskazówkami, które mogą doprowadzić do zrozumienia procesu koncentrowania uwagi, zachodzącego w ludzkim mózgu. Jeżeli na przykład poszukujemy litery P wśród innych, rozpraszających uwagę liter T, to cel w postaci P wyskakuje natychmiast, niezależnym od liczby T znajdujących się aktualnie w polu widzenia. Jeżeli natomiast uwagę rozpraszają litery R, to poszukiwania P trwają dłużej, ponieważ P i R wykazują podobne cechy. W rzeczywistości szukanie P wśród R pochłania czas proporcjonalny do liczebności R. To liniowe poszukiwanie celu, na podstawie pewnych konkretnych cech, wskazuje, że na wyższych poziomach sterowa­nia istnieje pewnego rodzaju konkurencja postrzeganych wyróżniających cech przedmiotu, które muszą być wyobrażeniem celu.

Jednocześnie badania ludzi z uszkodzeniami mózgu wskazują, że można wyrożnić trzy aspekty łączące się z koncentracją sterowaną przez różne obszary mózgowia. Pierwszym są czynności, sterowane przez obszary płata ciemieniowego w przedniej części kory, odwracające uwagę od obiektów w danym momencie nieistotnych. Tutaj w szczególności są przechowywane informacje o położeniu obiektu, a nie o jego dokładnym wyglądzie. Później następuje proces przesuwania uwagi, co wymaga już zaangażowania całego obszaru międzymózgowia, położonego obok wzgórza, nazywanego superior colliculus. W końcu musi nastąpić chwila skupienia uwagi na nowym obiekcie, co wymaga dokonania wyboru pomiędzy wieloma możliwymi znajdują­cymi się w polu widzenia. Ostatnie badania przepływu krwi w mózgu ochotników, poszukujących wybranych liter spośród innych rozpraszających uwagę wykazały, że proces przesuwania uwagi zachodzi w pewnych częściach wzgórza. Po dokonaniu wyboru jednego obiektu, sygnał wzrokowy przechodzi do sieci neuronowej płatów skroniowych (po obu stronach głowy) i dalej obszarów związanych z pamięcią w pobliżu hipokampa, o którym wspomnieliśmy jako o istotnym ośrodku odpowiedzialnym za procesy zapamiętywania. Jeżeli kiedyś zetknęliśmy się już z tym obiektem, dochodzi do jego rozpoznania i uwaga przesuwa się na inne cele. Jeżeli jednakże obiekt jest nieznany, następuje wnikliwsza analiza pozwalająca wyróżnić jego cechy. Nie jest do końca znany sposób kodowania informacji, zachodzący w tym obszarze, lecz wydaje się, że twarze są rozpoznawane na podstawie kontu­rów, natomiast inne przedmioty na podstawie zewnętrznych cech całych po­wierzchni czy nawet objętości. Dotychczas nadal nie wiadomo, czy obiekty są rozpoznawane za pomocą kojarzenia poszczególnych części (mój pies jako zbiór jego nóg, łba, sierści itp.), czy też inaczej.


Pamięć


Powiedziano już, że pamięć jest domeną specjalnego organu, jakim jest hipokamp, natomiast dane mogą być przechowywane w sąsiednich ob­szarach mózgu. Pamięć stanowi amalgamat różnego rodzaju wspomnień. Pa­cjenci z całkowitą amnezją, dotyczącą na przykład nowych twarzy, mogą mimo to wykazywać zdolność przypominania sobie niedawno poznanych ludzi nie poprzez świadomy proces rozpoznawania, lecz choćby przez zmianę oporu elektrycznego skóry ich dłoni. Badania mające na celu wykrycie, jakie umie­jętności pozostały ludziom pozbawionym hipokampa, doprowadziły do za­skakujących spostrzeżeń. Ludzie tacy nadal są zdolni nauczyć się takich skom­plikowanych czynności, jak na przykład pisanie odwrócone (zwierciadlane bądź do góry nogami). Chociaż nawet nie są w stanie przypomnieć sobie, że kiedyś uczyli się takich czynności, to jednak nadal zachowują umiejętność ich wykonywania. Dlatego wydaje się, że istnieją różne typy pamięci powią­zane z: umiejętnością wykonywania konkretnych czynności, rozpoznawaniem przedmiotów, wspomnieniami z przeszłości. Każda z nich funkcjonuje we­dług odmiennych, sobie tylko właściwych procedur, lecz tylko niewiele z nich wymaga włączenia świadomości. Ponadto jest widoczna ewidentna róż­nica pomiędzy pamięcią o pewnych epizodach, takich jak na przykład zabój­stwo prezydenta Johna F. Kennedy'ego a zdolnością do zapamiętywania słów czy znaczeń. Wydaje się, że pamięć związana z wydarzeniami wymaga udziału świadomości, podczas gdy zapamiętywanie znaczenia wyrazów jest proce­sem nieświadomym. Nie zdaję sobie sprawy ze znaczenia słów, które piszę i wypowiadam, aż do chwili, kiedy one się pojawią. Człowiek, któremu przez ułamek sekundy wyświetlano na stojącym przed nim ekranie jakieś słowo, zupełnie sobie tego nie uświadamia, ponieważ trwało to zbyt krótko, aby mogło dotrzeć do jego świadomości. Jednakże słowo to zostaje zapamiętane, co wi­dać wtedy, gdy osobę tę poprosi się później o dokonanie wyboru pomiędzy podobnymi wyrazami - wybierze zwykle te pokazywane. Wszystko wskazu­je na to, że ośrodki wzrokowego rozpoznawania wyrazów funkcjonuj ą po­dobnie jak receptory dzielące obraz na fragmenty bez udziału świadomości.

Podsumowując, wydaje się, że pamięć objawia się przynajmniej w dwu postaciach. Jedna wymaga świadomego przetwarzania danych w hipokampie. Przywołanie jej, przy wstępnej ocenie zjawisk, z którymi się spotykamy, jest procesem świadomym. Druga postać nie wiąże się z hipokampem i świa­domością i dotyczy takich odruchowych czynności, jak poruszanie się, roz­poznawanie wyrazów oraz innych podświadomych reakcji, choćby wspomniana uprzednio zdolność rozpoznawania twarzy.

W drugiej połowie lat czterdziestych przedmiotem dyskusji naukowych stał się sposób, w jaki komórki nerwowe modyfikują wzajemne połączenia w od­powiedzi na przekazywane im sygnały (w ten sposób magazynując dane w pa­mięci). Sugerowano, że rozmiary zmian tych połączeń są uzależnione od inten­sywności sygnału na wejściu do neuronu oraz od skojarzonego z nim sygnału wyjściowego do neuronów docelowych. Jeżeli zarówno komórki na wejściu oraz na wyjściu zostały pobudzone, to wzajemne ich oddziaływanie ulega wzmocnieniu poprzez rozbudowę istniejących pomiędzy nimi połączeń. Jeżeli natomiast jedne z nich uaktywnią się, podczas gdy drugie pozostają w stanie uśpienia, to brak wzajemnych oddziaływań powoduje zmniejszoną gęstość po­łączeń. Badania płatów wzrokowych kory wykazały, że wśród neuronów pa­nuje swego rodzaju rywalizacja, w wyniku której tylko w niektórych, wraz z otoczeniem, powstaje topograficzny odpowiednik docierających do mózgu informacji. Postrzegany obraz zostaje odwzorowany (z pewnymi zniekształce­niami) na powierzchni mózgu. Takie rozwiązanie wykorzystano przy budowie sztucznych sieci neuronowych w wielu zastosowaniach przemysłowych.

Sugerowano początkowo, że nie istnieje żaden organ nadzorujący proces uczenia się neuronów, by odpowiadały w z góry określony sposób na docierające do nich sygnały. Nauczanie takie nazwano nie nadzorowanymi. Póź­niej rozpatrywano również możliwość, że istnieje jakaś procedura nauczania, według której neurony reagujące prawidłowo zostają nagradzane, a te, któ­rych sygnał wyjściowy nie odpowiada dostarczonemu bodźcowi, są karane. Proces tak zwanego wzmożonego nauczania miałby prowadzić do wzrostu sieci połączeń w przypadku, gdy neurony są nagradzane, a do redukcji, gdy są karane. Odkryto, że opierając się na tej metodzie można zbudować sztuczne sieci neuronowe, przydatne do rozwiązywania konkretnych zadań \w pro­cesach sterujących robotami lub procesami technologicznymi. To samo może zachodzić podczas szkolenia zwierząt, występujących na przykład w cyrku, gdzie system nagradzania jest podstawowym narzędziem tresury.

Można w końcu postrzegać proces nauczania jako bieżący nadzór. Wte­dy organ uczący dokładnie określa, jakie powinny być reakcje sieci neurono­wej na docierające do niej sygnały. Takie rozwiązanie, uwzględniające bie­żący nadzór, stało się, szczególnie w ostatnim dziesięcioleciu, bardzo rozpo­wszechnione przy projektowaniu sztucznych sieci neuronowych (mimo że wydaje się mniej przydatne do wyjaśnienia procesów uczenia się zwierząt). Przyczyną popularności takiego podejścia było to, że dzięki niemu znalezio­no metodę szkolenia zamaskowanych elementów sieci. Nazwano je tak dlate­go, ponieważ oczekiwane reakcje nie uwidoczniają się w sposób jawny: wy­syłają bowiem swoje sygnały do innych neuronów w sieci bez pośrednictwa organu uczącego. Nauczono się odróżniać sygnały wiarygodne od wątpli­wych, niezależnie od tego czy pochodzą one od zamaskowanych elementów sieci, czy nie. Liczne techniki nauczania nadzorowanego w sztucznych sie­ciach neuronowych zdobywają sobie coraz większą popularność na całym świecie. Metody te wykorzystuje się do rozwiązywania w przemyśle wielu trudnych problemów technicznych i organizacyjnych. Sieci neuronowe już dotarły do takich dziedzin, jak na przykład prognozowanie przyszłych tren­dów na giełdzie. Obecnie dąży się do zbudowania sieci, które będą lepiej przewidywać ceny akcji, niż robił to do tej pory doradca giełdowy. Można sobie wyobrazić, że kiedyś w przyszłości rynek finansowy będzie kontrolo­wany przez współzawodniczące między sobą sieci neuronowe, udoskonalane na bieżąco przez specjalne zespoły badawczo-rozwojowe.


Cele i zamierzenia


Popędy i działania wynikające z kondycji człowieka (chociaż może rów­nież i innych naczelnych) mają swoje podłoże w chęci osiągnięcia upragnionych celów oraz podobania się innym. To ostatnie ma swoje przy­czyny psychologiczne i czasem może przerodzić się, na przykład, w choro­bliwy brak łaknienia {anorexia nervosa). Cele wynikają zatem z chęci zaspo­kojenia popędów, takich jak dla głodnego staje się dobry stek i frytki.

Popędy powstają w wyniku oddziaływania różnych substancji chemicz­nych, uaktywniających obszary limbiczne. Aktywności tej nie można wydat­nie zredukować bez zaspokojenia celu; trudno zapomnieć o głodzie, dopóki porządnie sienie najemy. Celami jednakże nie są tylko konkretne przedmioty pożądania, lecz również przechowywana w pamięci ich reprezentacja.

Wszystkie te procesy pociągają za sobą wykorzystywanie zapamiętanych skojarzeń, dotyczących pragnień (na przykład jedzenia), którym towarzyszy podniecenie wywołane odpowiadającymi popędami. Zbiór reakcji motorycznych musi również uwzględniać sposoby, w jakie te pragnienia będzie moż­na zaspokoić w przyszłości. Połączenia różnych przechowywanych w pamięci skojarzeń (popęd plus cel plus reakcja) rozwijają się prawdopodobnie na dro­dze nauki, w wyniku bardzo długich ludzkich doświadczeń. Należałoby się spodziewać, że popędy uaktywniają wiele możliwych pragnień, lecz tylko niewiele z nich, być może zaledwie jedno, można w danym momencie wy­brać jako najbardziej odpowiednie, w odpowiedzi na stymulację środowiska.

Proces podejmowania decyzji wydaje się wymagać udziału świadomo­ści, która podpowiada właściwy wybór. Niektórzy ludzie sporządzają sobie nawet listę możliwych czynności i klasyfikują je według tego, jaką mogą przy­nieść przyjemność. Planowanie przeprowadzane w mózgu odbywa się naj­prawdopodobniej w obszarach limbicznych, podczas gdy szczegółowa ocena konsekwencji może mieć miejsce w części płatów czołowych (co jest dość przykrym wnioskiem dla wspomnianego uprzednio Phineasa Gage'a, który dumny był ze swojej umiejętności planowania przyszłych zamierzeń). Wyda­je się więc, że wszystkie procesy w tym czy innym momencie wymagają udzia­łu świadomości. Omawiałem już wcześniej odkrycie ośrodków w obszarach limbicznych, odpowiedzialnych za doznania bólu czy przyjemności. Jednak­że nic nie wskazuje na to, że istniej ą podobne centra odpowiedzialne za świa­domość. Wydaje się, że ludzie z przeciętnym wiązadłem mózgowym mają dwie niezależne świadomości w rozdzielonych półkulach mózgowych. Czy świadomość powstaje w wyniku aktywności całego mózgu w taki sposób, że jest równomiernie rozłożona? Czy jest też czymś, co nigdy nie da się wyjaś­nić w terminach fizycznych?

10. Konstruowanie rozumu


Rozum a materia


Proste, ale dosadne odpowiedzi na pytania: Co to jest materia? - w żadnym przypadku rozum, co to jest rozum? - w żadnym wypadku materia!, są w wielu społecznościach udzielane bez zastanowienia. Francis Crick, jeden z odkrywców struktury DNA, opowiadał, jak pewnego razu wdał się w rozmowę z siedzącą obok niego w samolocie kobietą. Na jej pytanie, czym się zajmuje, odpowiedział, że usiłuje zrozumieć naturę rozu­mu. Próbował wyjaśniać, że zasadniczym pytaniem jest to, w jaki sposób jego interlokutorka jest zdolna rozumieć otaczającą rzeczywistość. Ależ to bardzo proste. To tak jakby w mojej głowie znajdował się telewizor, na którym prze­suwałyby się obrazy ze świata zewnętrznego. Ale któż je ogląda? zapytał Crick. W tym momencie dama ponoć uświadomiła sobie, że cała sprawa nic jest taka prosta.

Faktycznie, problem jest niezmiernie trudny. Przez całe tysiąclecia filo­zofowie napisali mnóstwo wielce uczonych tomów, które, jak mogłoby się wydawać, powinny zawierać wszystkie możliwe odpowiedzi. Zawierały się one w zakresie od granicznego idealizmu, według którego cały wszechświat stanowi jedynie wymysł rozumu, aż do innej skrajności, według której tak naprawdę istnieje tylko materia, a rozum jest zaledwie pewnym zjawiskiem wtórnym, mimo niezaprzeczalnie bardzo subtelnej aktywności mózgu. Suk­cesy rewolucji naukowej wskazują, że jest bardzo mało prawdopodobne, by materia, badana w pogoni za teorią wszystkiego z coraz większą precyzją i z coraz większym zrozumieniem, miała być tylko tworem naszej chorej wy­obraźni. Coraz trudniej jest przeciwstawiać się twierdzeniu, że naprawdę ist­nieje gdzieś tam jakaś fizyczna rzeczywistość, niezależna od nas samych. Cały rozwój nauki jest oparty na takim założeniu i nie pozostaje nic innego, jak dalej kroczyć wzdłuż tej drogi. Znając jednak wpływ narkotyków, ura­zów głowy, medytacji i wielu innych podobnych zjawisk, jest również oczy­wiste, że substancja, z której zbudowany jest mózg, wyznacza z całą rozcią­głością wrażenia psychiczne, jakie mogą powstawać w rozumie związanym z tymże mózgiem.

Z wzajemnego uzależnienia rozumu i materii można wyciągnąć dwa wnio­ski. Jednym mogłoby być uparte odrzucanie tej zależności, mimo wyraźnych śladów wskazujących na to, że rozum jest doprawdy jedynie pewnym przejawem materii. Zgodnie z takim stanowiskiem, rozum miałby być odrębną, niezależną całością połączoną z materią w jakiś nieznany jeszcze sposób. Ponadto należało­by jeszcze wyjaśnić cechy charakterystyczne rozumu. Poglądy tego rodzaju są określane terminem podejścia dualistycznego i miały do niedawna wielu zwolen­ników. Należał do nich wybitny badacz mózgu sir John Eccles, który jeszcze w 1977 roku napisał: Mówiąc krótko, istnieje hipoteza, że samoświadomy rozum jest niezależnym modułem, zabudowanym w dominującej półkuli w obszarach łączących transmisje danych i odczytującym informacje docierające z niezliczo­nej liczby centrów nerwowych. Tego typu dualizm postuluje, że nauka jest w sta­nie osiągnąć jedynie taki stan rozumienia umysłu. Eccles dodaje: Pytanie, gdzie dokładnie jest zlokalizowany samoświadomy rozum, jest w zasadzie nie do roz­strzygnięcia.

Alternatywny wniosek, który można wyciągnąć na podstawie potężnego wpływu, jaki materia wywiera na rozum, jest taki, że materia jest jego całko­witą i jedyną przyczyną. Konstrukcja stanów rozumnych z klocków materii, które są przecież w sposób oczywisty nie myślące i nie czujące, jest wyzywa­jącym zagadnieniem wymagającym choćby próby jego rozwiązania. Podej­mowanie tego wyzwania można obecnie dostrzec na wielu konferencjach, w niezliczonych czasopismach naukowych i książkach dotyczących badań mózgu. Nadchodzą pierwsze sygnały wskazujące na porażkę czysto behawioralnej szkoły psychologii, utrzymującej, że jest zdolna wyjaśnić wszyst­kie aspekty zachowania jedynie na płaszczyźnie opisu reakcji na bodziec i jej późniejszego wzmocnienia. Zwolennicy tej szkoły uważali za zbyteczne, a nawet wprowadzające w błąd, uwzględnianie wpływu wewnętrznej reprezentacji minionych doświadczeń. Na dodatek odmawianie zwierzętom kierowania się myśleniem przy podejmowaniu różnych czynności prowadziło do przekonania, że nie sposób wyjaśnić złożonych zachowań zwierząt ich stanami wewnętrznymi. Istnieją na przykład liczne wyniki doświadczeń wykazujące, że zwierzęta mogą przyswoić dość znaczny zasób wiedzy o środowisku bez dostrzegania jakiejkolwiek nagrody. Co więcej, szczur biega po labiryncie pozbawiony nagrody z tym mniejszą chęcią, im więcej się nauczy, ponieważ jego ciekawość zostaje zaspokojona; według ściśle pojmowanego behawioryzmu, w poszukiwaniu przynęty powinien biegać z coraz większym zapa­łem. Wydaje się, że potrzeba znacznie większej liczby doświadczeń, by zba­dać dokładnie procesy uczenia się oraz percepcję różnych zwierząt.

Ja sam podzielam to drugie stanowisko i przyjmuję, że rozum wynika ze stosownej aktywności materii. Jest ona bowiem podstawą wszelkiego istnienia. Ponadto takie podejście jest po prostu ekonomiczne, ponieważ eliminuje dwie różne formy istnienia, to jest rozum i materię, a wraz z tym dwa najoczywiściej nierozwiązywalne problemy: (a) naturę umysłu (co daje się zauważyć w cytowa­nej wypowiedzi Ecclesa) oraz (b) wzajemne oddziaływania pomiędzy rozumem a materią. Zamiast tego pozostajemy z miejmy nadzieję łatwiejszym do rozwią­zania zagadnieniem skonstruowania rozumu z materii. Chociaż wielu utrzymuje, że problem jest nadal nierozwiązywalny.

Przekonanie o zbyt wielkiej złożoności stanowi argument przeciw możli­wości skonstruowania fizycznego modelu rozumu i zagadnienie pozostaje zbyt trudne do rozwiązania także w przyszłości. Mózg jest zbudowany z miliar­dów neuronów, a wszystkie są niesłychanie skomplikowanymi strukturami z mnóstwem wzajemnych połączeń i funkcji, a więc twierdzi się, że nigdy nie będziemy potrafili przeprowadzić gruntownych badań. Jeżeli nawet uda się nam pojąć sposób funkcjonowania, powiedzmy, płatów wzrokowych czy węchowych kory, to i tak będą to bardzo iluzoryczne osiągnięcia, ponieważ całość mózgowia, ze wszystkimi obszarami pracującymi we wzajemnych powiązaniach, jest nieskończenie bardziej złożona. Jest to trudność, z której neurolodzy zdaj ą sobie sprawę. Reagowali na nią w przeszłości poprzez zwykle podejście redukcjonizmu, badając coraz głębsze struktury na coraz mniej­szych odległościach. Zaczęli zdobywać wiele nowych informacji o wpływie działania różnych substancji chemicznych oraz o zmianach aktywności pew­nych komórek nerwowych. Wydaje się jednak, że neurologia poczyna się rozmywać w podziale na coraz więcej specjalizacji. Nawet w neuroanatomii jeden kolega mówi do drugiego: Przykro mi, ale nie mam pojęcia o organie A, jestem od organu B. Wynika to z pogłębiającej się szczegółowości nauki; często cytowaną charakterystyką naukowca jest: Ktoś taki, kto wie coraz więcej o coraz mniejszym obszarze wiedzy. Jakże inna jest to sytuacja od czasów Miltona, kiedy za człowieka wykształconego uchodził dopiero ktoś, kto znał równie dobrze naukę jak i sztukę. Bez wątpienia postępująca specjalizacja czyni argument o złożoności wiedzy jeszcze silniejszym.

Doprawdy, komórki nerwowe są niezmiernie złożonymi urządzeniami, a ich agregaty są jeszcze bardziej skomplikowane. Ilość wchodzących w rachubę substancji chemicznych jest wprost przerażająca. Do tego dochodzi cały zbiór programów czy modułów działania całego mózgu, na podstawie których należałoby wyjaśnić jego funkcjonowanie. Wyjaśnienie to powinno uwzględniać, jako jedną z zasadniczych cech, pojawienie się świadomości.

Powiedziałem wcześniej, że tematom związanym ze świadomością po­święca się gwałtownie rosnącą liczbę publikacji oraz konferencji. Jak zauwa­żyłem, następuje coraz większa fragmentaryzacja neurologii; zwiększające się gwałtownie zainteresowanie świadomością wydaje się bardziej dotyczyć filozofów i psychologów. Pomimo całego zrozumienia dla tego rodzaju wni­kliwych przedsięwzięć nie wydaje się, aby zbliżyły nam rzeczywisty obraz całej machiny mózgu. W niedawno wydanej książce filozoficznej można zna­leźć następującą uwagę dotyczącą świadomości: ... nasz, z anatomiczną do­kładnością nie dający się określić, zakres rywalizacji pomiędzy koalicjami specjalistów ... a wypowiedzianą w kontekście dyskusji prowadzonej pośród specjalistów z dziedziny aktywności korowej związanej ze świadomością. W innej świeżo wydanej książce traktującej o świadomości znajdujemy zale­dwie jeden krótki rozdział o ewentualnym wykorzystaniu globalnego podej­ścia badawczego (w którym przetwarzane sygnały wejściowe są rozprzestrzeniane po całej korze, tak że wie o nich każda jej część) i na tym kończy się omawianie mózgu. Jednakże mimo powstrzymującego rozwój wpływu daleko posuniętej specjalizacji, należy się spodziewać, że neurologia zacznie i w końcu odnosić liczące się sukcesy. Według innego neurologa, ostatnie próby wyjaśnienia natury rozumu na podstawie zasad doboru naturalnego Dar-wina doprowadziły do koncepcji, że mózg nie zachowuje się jak mechanizm, a raczej jak małe zwierzę, być może leniwiec. Wydaje się, że żaden z neuro­logów nie zdaje sobie sprawy, jak naprawdę może funkcjonować realna ma-. szyna złożona.

Pomijanie oraz zaniedbywanie koncepcji mogących tłumaczyć, w jaki i Sposób mózg mógłby funkcjonować stając się umysłem, jest piętą achillesową materialistów. Nie dostarczono jeszcze żadnego rysunku technicznego, mogącego kogokolwiek przekonać, że może istnieć mechanizm, którego funkcjonowanie powodowałoby powstanie świadomości wynikającej z aktywności mózgu. Trudno jest przewidywać, jeśli w ogóle jest to możliwe, jakieś przyszłe istotne doświadczenia, które mogłyby obalić teorię materialistyczną. Przedsięwzięcie, zarówno z idealistycznego, jak materialistycznego punktu widzenia, wydaje się niezmiernie wrażliwe na reakcję w rodzaju „to mnie nie przekonuje". Tego typu reakcja spotkała niedawno wydaną książkę Rodneya Cotterilla „No Ghost in the Machine" (co w wolnym przekładzie znaczyłoby „Maszyna bez ducha"). Troszcząc się o prawdę naukową w tezach tam zawartych, autor skonkludował: Zdecydowałem się raczej całkowicie przejść na stronę zwolenników determinizmu. Determinizm jest ideą, według której doświadczenia psychiczne człowieka są całkowicie uwarunkowane aktywnością fizyczną mózgu i nie ma miejsca na wolną wolę. Chociaż silne przekonanie autora o wyższości materii nad rozumem było oparte na silnych podstawach, co znalazło swoje odbicie w tytule książki, mimo to nie można się w niej doszukać, w jaki sposób, z tak niewątpliwie delikatnej i subtelnej aktywności mózgu, mogła narodzić się świadomość, istniejąca przecież w rze­czywistości. Furtka nie została zatem domknięta.

Cały mój wysiłek w tym rozdziale ma na celu uniknięcie tego samego losu i próbę zamknięcia furtki dokładnie. Wymaga to dyskusji o tkankach mózgo­wia, co nie jest popularną metodą wśród tak zwanych funkcjonalistów. Uważa­ją oni funkcjonowanie mózgu za najistotniejsze, przywiązując mniejszą wagę do jego rzeczywistego mechanizmu. Takie podejście ma swoje poważne zale­ty, ale również jest obdarzone wyżej wzmiankowaną słabością, polegającą na tym, że jest nieprzekonywające, dopóki nie przedstawi się ostatecznego rysun­ku technicznego. Aby posunąć naprzód zagadnienie dotyczące możliwie szcze­gółowego mechanizmu świadomości, spróbuję wykorzystać charakterystykę przepływu informacji, obserwowaną w samym mózgu, pod wpływem różnych stanów psychicznych, na ile pozwolą na to wskazówki uzyskane na podstawie ogólnego schematu obwodów mózgowia. Można żywić nadzieję, że poprzez wyważoną równowagę pomiędzy funkcjonowaniem a wykorzystaniem zary­sów rysunku technicznego, doprowadzi się do powstania rozumnej maszyny. W taki interdyscyplinarny sposób może uda się zebrać razem poglądy oraz in­formacje filozofów i psychologów z jednej strony, a neuroanatomów i neurofizjologów z drugiej.


Czy z logicznego punktu widzenia myśląca maszyna jest możliwa?


Prawie przed trzydziestu laty, w wielce pobudzającym do myślenia ar­tykule, stwierdzono, że maszyna nie mogłaby być istotą ludzką. Opierano się tam na fundamentalnych pracach dokonanych w latach trzydziestych, od­noszących się do kwestii istnienia bezspornych wypowiedzi. Chodzi o sformułowania powstałe na drodze dedukcji, podobne do twierdzeń w mate­matyce, o których nie można nigdy zdecydować czy są prawdziwe, czy też fałszywe. Wykazano wtedy, że takie wypowiedzi można skonstruować w dowolnym języku, oby tylko miał wystarczającą strukturę gramatyczną. Później­sze badania wykazały, że niezależnie od bezsporności takich wypowiedzi, my, jako ludzie, potrafimy ocenić, czy dane stwierdzenie jest prawdziwe. To tak, jakbyśmy potrafili wykorzystywać jakiś język nadrzędny w stosunku do tych, w których można formułować twierdzenia o wątpliwej, lub nie dającej się udo­wodnić, prawdziwości. Oznacza to, że każda maszyna, skonstruowana nawet z umiejętnością logicznego argumentowania w którymkolwiek z nawet bar­dzo rozwiniętych języków, pozostanie zawsze ograniczona w porównaniu z na­mi. Ponieważ każda maszyna jest konstruowana tak, by posługiwać się tym lub innym językiem (choćby językiem oprogramowania), to nigdy nie będzie zdol­na argumentować czy myśleć tak skutecznie jak my. Dlatego maszyny nie są istotami ludzkimi. C.b.d.u.

Oparta rzekomo na logice teza, że maszyny nie mogą stać się ludźmi, czy też, że ludzie nie są maszynami, zrobiła w swoim czasie furorę i doprowadziła do frontalnych kontrataków we wszystkich publikacjach naukowych. Przed­stawiono liczne kontrargumenty, którym nadawano tytuły w rodzaju: Lucas przeniósł się w końcu na tamten świat (John Lucas był twórcą omawianej tezy). Jednakże, pomimo ich erudycji, żaden nie osiągnął celu. Wszystkie próbowały wyszukiwać słabe punkty teorii, lecz Lucas kontrował, argumentując skutecz­nie, i pozostał całkowicie niepokonany.

Problem, jaki postawił przed zwolennikami czysto materialistycznego podej­ścia do myśli (czasem zwanego silniej jako A[rtificial] I[ntelligence] sztuczna inteligencja, z tej racji, że wielu członków społeczności AI wierzy dotychczas, jakoby myśl można było przedstawić wyłącznie w postaci łańcucha argumen­tów), brzmi następująco. Weźmy jakiś język L i wypowiedzmy w nim: To zdanie nie da się udowodnić w L. Czy jest to sformułowanie fałszywe, czy nie? Istnieją cztery możliwości. Zdanie to jest prawdziwe (lub fałszywe) i daje się udowodnić (lub nie). Nie ma innych możliwości. Lecz nie może być jednakże jednocześnie prawdziwe i dające się udowodnić (ponieważ, jeżeli byłoby prawdziwe, to nie dałoby się udowodnić) ani nie może być również jednocześnie nieprawdziwe i dające się udowodnić (ponieważ jeżeliby było udawadnialne, wtedy byłoby, ipso facto, prawdziwe i dopuszczałoby istnienie dowodu, a tym samym prowadziłoby do sprzeczności). A w końcu nie może być jednocześnie nieprawdziwe i nie dające się udowodnić (w takim przypadku byłoby w sposób najoczywistszy prawdziwe). Stąd pozostaje jedyna możliwość: jest prawdziwe i faktycznie nieudowadnialne. Możemy zatem dostrzec jego prawdziwość, lecz w języku formalnym nie sposób tego udowodnić.

Taki rezultat wyraźnie prowadź do bardzo silnych ograniczeń ewentualności istnienia AI. Nie można sobie na przykład wyobrazić zbudowania maszyny zdolnej do rozwiązania istotnych problemów matematyki. Matematycy, by konstruować nietrywialne struktury matematyczne i udowadniać poważ­ne twierdzenia, są zmuszeni podchodzić do problemu w sposób niealgorytmiczny lub wręcz twórczo stosować przeróżne triki. Kwestia ta odżyła na nowo stosunkowo niedawno, gdy pojawiły się twierdzenia, że musimy jako­by zmodyfikować prawa fizyki stosowane do opisu struktur mózgu, uwzględ­niając aspekty mechaniki kwantowej, a szczególnie grawitacji kwantowej. Lecz wydaje się to wielce nieprawdopodobne, jako że energie wymagane do tego, by wejść na obszary mechaniki kwantowej, są kilka rzędów wielkości wyższe niż te, z którymi mamy do czynienia w mózgu (mają one wartość kilku elektronowoltów) i nie osiągnięto ich jeszcze nawet w najnowszym ogromnym akceleratorze CERN-u ani w USA. Niealgorytmiczne myślenie występujące w naszym mózgu musi mieć jakieś prostsze wytłumaczenie, bez konieczności uciekania się do szybkości bliskich światłu, uzyskiwanych w ak­celeratorach w celu osiągnięcia wymaganych energii. Byłbym zdania, że za­miast modyfikować prawa fizyki, powinniśmy spróbować zrozumieć szcze­gółowo mechanizm świadomości, a tym samym wyrobić sobie pojęcie o nie­świadomych procesach zachodzących w mózgu. Jedynie wtedy możemy ocze­kiwać zbliżenia się do zrozumienia procesów twórczych czy to w matematy­ce i sztuce, czy też w fizyce i literaturze, bądź w biologii lub muzyce.


Zasadnicze tropy


Jak wspomniałem wcześniej, neurologia poczyniła znaczące postępy w analizie mózgu, badając coraz mniejsze jego fragmenty. Nie pomogło to jednakże wiele w zrozumieniu, w jaki sposób mózg funkcjonuje jako całość. Potrzebowalibyśmy teraz diagramu przepływu informacji wykazującego, jaką drogą sygnał wejściowy przechodzi z jednego obszaru do innego i jak w końcu jest uruchamiana aktywność motoryczna. Pomiędzy tym wszystkim musimy prześledzić powstawanie ocen emocjonalnych, uaktywnienie pamięci, podej­mowanie decyzji itp. Bardzo trudno to osiągnąć, pomimo przebadania niezli­czonej liczby przypadków organicznych uszkodzeń mózgowia, powodujących ułomne przetwarzanie danych oraz pomimo wielkiej liczby doświadczeń ze zwierzętami, których celem było szczegółowe zbadanie funkcji poszczegól­nych obszarów mózgowia. Badania osób z urazami czaszki są oczywiście ogra­niczone przede wszystkim tym, że dotyczą tylko pewnych określonych obszarów mózgu, a poza tym nie wszystkie mózgi są przecież identyczne pod wzglę­dem fizycznym. Prace ze zwierzętami doświadczalnymi są głównie pomocne , do zrozumienia zachowań ich samych, lecz niekoniecznie muszą być dokładnie analogiczne do ludzi z odmiennymi przecież mózgami. Gdyby zresztą zwie­rzęta miały podobne mózgi, to równie dobrze mogłyby przeprowadzać doświad­czenia na nas!

Pomimo wszystko w minionych dziesięcioleciach, a w szczególności w ostatnim, dokonano znaczącego postępu w dziedzinie technik badawczych, zwiększając ich czułość na tyle, że można było mierzyć aktywność w obsza­rze całego mózgowia podczas różnych stanów emocjonalnych, podczas stanu czuwania z rozproszona uwagą, w czasie snu itp. Techniki te nie wymagają wkraczania chirurgii, lecz wykorzystują, na przykład, implantowane na stałe elektrody, umieszczane w tkance mózgu poprzez niewielkie otwory wywier­cane w czaszce (takie, jakie wykonuje się rutynowo przy epilepsji, by dowie­dzieć się, który region mózgu wywołuje napady, co umożliwia jego ewentu­alną resekcję). Elektrody tego typu nazywa się nieinwazyjnymi i mogą być zastosowane u każdego człowieka przy małym lub wręcz żadnym poczuciu dyskomfortu. Techniki te uwzględniają również pomiary małych prądów krą­żących na powierzchni czaszki (metoda znana pod nazwą elektroencefalo­grafii lub EEG) oraz pól magnetycznych o bardzo małym natężeniu, wytwa­rzanych aktywnością mózgu (magnetoencefalografia lub MEG). Istnieją rów­nież inne możliwości, w rodzaju monitorowania przepływu krwi w pewnych regionach mózgowia za pomocą zwiększonej emisji cząstek rozpadu radio­aktywnego substancji podanej pacjentowi dożylnie czy badania wpływu pól magnetycznych na tkankę mózgowia. Tę ostatnią technikę zastosowano do badania tych obszarów mózgu, które są zaangażowane przy rozpoznawaniu obiektów, tematu omawianego wyżej.

Pomiarów EEG dokonuje się poprzez małe elektrody umieszczone na czaszce badanej osoby. Drobne wahnięcia przepływu prądu elektrycznego, później silnie wzmacniane, stanowią oznakę aktywności mózgowia leżącego bezpośrednio poniżej. Pierwszych takich pomiarów dokonano w 1928 roku, lecz przez następne lata były lekceważone. Interpretacja aktywności mózgu oparta na oscylacjach prądów, nadal graniczy z kuglarstwem, lecz bez wąt­pienia dzięki temu jest możliwe odkrywanie ognisk epileptycznych, jak rów­nież stwierdzenie zgonu. Jednak nawet te niewątpliwe oznaki są dyskusyjne, ponieważ za pomocą EEG nie jesteśmy w stanie pomierzyć aktywności głę­boko umieszczonych struktur mózgowia, a właśnie tam może również znaj­dować się siedlisko ataków epileptycznych, których wpływ dopiero później sięga warstw powierzchniowych. Płaska krzywa EEG, zwykle poczytywana jako niezbita oznaka śmierci, może jednakże zdarzyć się u ludzi silnie wy­chłodzonych, silnie zatrutych, a także u niektórych dzieci: w żadnym z ta­kich przypadków osobnik w rzeczywistości nie zmarł, o czym mógłby świad­czyć zapis EEG.

W dalszym ciągu odnotowuje się jednak stałe postępy analizy EEG. Daje się zaobserwować pewne charakterystyczne cechy synchronizacji i prędko­ści zmian fal mózgowych w zależności od stanu psychicznego, w jakim znaj­duje się osoba poddana badaniom. Można wyróżnić cztery zasadnicze rodza­je różnych rytmów: Alfa (8-13 Hz, występujące, gdy rozum wypoczywa). Beta (ponad 13 Hz, gdy jest aktywny), Theta (4-8 Hz, gdy jest senny) oraz Delta (poniżej 4Hz, gdy śpi). Piąty rytm, Gamma (25-60Hz, występujący w stanie aktywności) budzi największe zainteresowanie i stanowi źródło wiadomości o tym, czy pacjent w narkozie zachowuje jeszcze świadomość.

Rozważmy następujący raport pacjenta, który został uśpiony w celu ope­racji chirurgicznej:


Poczucie bezsilności było przerażające. Próbowałem powiado­mić zespół operujący, że zachowuję świadomość, lecz nie mo­głem ruszyć ani palcem, ani nawet powieką. Czułem się jak w imadle i stopniowo zacząłem zdawać sobie sprawę, że znaj­duję się w sytuacji bez wyjścia. Poczułem, że nie mogę nawet oddychać i pogodziłem się już ze śmiercią.

Kiedy wyszedłem z narkozy, nie mogłem pojąć, jakim cudem jeszcze żyję i znajduję się na stole operacyjnym. Byłem w stanie obserwować chirurgów w drugim końcu stołu i myślałem: Boże, nie tnijcie mnie, jestem w pełni świadomy. Próbowałem im to powiedzieć, lecz nie mogłem wypowiedzieć ani słowa, nie by­łem w stanie poruszyć się, to było najgorsze doświadczenie mo­jego życia.


Widzimy więc, że pacjent w pełni zachował świadomość, lecz nie był w stanie tego przekazać. Oczywiście, tego typu przeżycia zdarzają się mniej niż jednej dziesiątej procent pacjentów poddanych znieczuleniu ogólnemu (narkozie), ale jeśli uwzględni się około trzydziestu milionów operacji prze­prowadzanych corocznie w samych Stanach Zjednoczonych, to możemy mieć do czynienia z tysiącami takich przypadków. Ostatnie badania wykazały, ze kluczowym wskaźnikiem świadomości mogłaby stać się specyficzna odpo­wiedź, w rytmie gamma, pnia słuchowego na krótki dźwięk. Tego rodzaju wzór EEG został zaobserwowany u większości pacjentów, będących w pełni świadomych. Odpowiedź ta występuje setne części sekundy po usłyszeniu kliknięcia i trwa przez około dziesiątej części sekundy. W stanie narkozy te typowe oscylacje gamma nie występują. Co więcej, istnieją świadectwa, opo­wiadane przez chirurgów praktyków, że jeśli pacjent wykonuje jakieś sponta­niczne ruchy, w odpowiedzi na wydawane między sobą polecenia, znajduje to natychmiast odbicie również na zapisie gamma EEG. Doprowadziło to do przekonania, że dopóki występują oscylacje gamma, pacjent jest wciąż do jakiegoś stopnia świadomy. Podobne oscylacje gamma zaobserwowano w po­jedynczych neuronach płatów wzrokowych lekko uśpionego kota, gdy znala­zł się w oświetlonym obszarze. W istocie, odkryto, że nawet para komórek nerwowych oscyluje bardzo podobnie nawet wtedy, gdy komórki znajdują się w różnych półkulach. Podobne oscylacje znaleziono w komórkach nerwowych międzymózgowia, a w szczególności w stacji przekaźnikowej wzgórza, omawianego wcześniej. Te efekty mogą mieć istotne znaczenie dla świa­domości.

Inna technika, MEG, dostarczyła ekscytujących odkryć, które mogą stać się zaczątkiem zrozumienia wzajemnych powiązań pomiędzy aktywnością .kory i międzywzgórza (a w szczególności wzgórza). Było to możliwe dzięki temu, że pola magnetyczne mogą penetrować głębsze obszary mózgu. Jeżeli doświadczenie jest prowadzone z należytą dbałością, można ustalić położenie tych komórek nerwowych, których aktywność (pobudzenie) po­woduje powstawanie najmniejszych pól magnetycznych. Zestaw przyrzą­dów do takiego doświadczenia musi obejmować wiele detektorów pola magnetycznego (w ostatnich doświadczeniach było ich aż trzydzieści siedem), podobnie jak w przypadku pomiarów EEG, w których wykorzystuje się do szesnastu elektrod rozmieszczonych wokół czaszki. Detektory pola magnetycznego, o bardzo wysokiej czułości, zdolne rejestrować bardzo subtelne pola magnetyczne (o kilka rzędów wielkości mniejsze od ziemskiego pola magnetycznego), rozmieszcza się we właściwy sposób wokół głowy badanego. Wykorzystywane są w nich urządzenia nadprzewodzące typu SQUID, o których wspomniano w poprzednich rozdziałach. Jednak same doświadczenia muszą być przeprowadzane w specjalnie zaprojektowanym pomieszczeniu, z osłonami magnetycznymi, co pozwala dopiero wyelimi­nować możliwe zakłócenia, powstałe na skutek zmian ziemskiego pola czy też wpływu przejeżdżających samochodów itp.

Najważniejszym odkryciem, chociaż ciągle kontrowersyjnym, było to, że kiedy pojawia się stan wzmożonej uwagi, następuje gwałtowny wzrost intensywności rytmu gamma. Rozpoczyna się on na przedzie głowy, a następnie przesuwa się szybko do tylnych regionów czaszki. Co najważniejsze, wydaje się, ze cała aktywność rozpoczyna się w obszarze międzywzgórza, prawdopodobnie we wzgórzu, i wyprzedza aktywność korową o trzy milisekundy. Jest to bardzo krót­ki okres i odpowiada przejściu impulsu nerwowego ze wzgórza do kory. Dodat­kowo, względna moc aktywności kory i wzgórza podczas takiego wzbudzenia wydaje się największa u młodych ludzi, powiedzmy dwudziestoletnich, i zmniej­sza się wraz z wiekiem. Szczególnie daje się to zaobserwować u ludzi dotknię­tych chorobą Alzheimera.

Występowanie wzmożonej aktywności rytmu gamma oraz jego uzależnie­nie od wieku i aktywności kory i wzgórza wyjaśnia wiele koncepcji i cech funk­cjonowania mózgu jako całości. Już w latach sześćdziesiątych różni neurolo­dzy przewidywali, że aktywność mózgu rozpoczyna się od płatów czołowych, gdzie docierają sygnały wejściowe i gdzie są formułowane spostrzeżenia. Ta teoria wyładowania korowego manifestuje się obecnie jako przesuwanie rytmu gamma od przodu do tyłu mózgowia. Przetworzone w mózgowiu sygnały wra­cają na zasadzie sprzężenia zwrotnego do płatów czołowych, gdzie jest doko­nywana analiza porównawcza. Należy przeprowadzić jeszcze wiele doświad­czeń, które uwiarygodniłyby tę teorię, lecz możliwość tego rodzaju trybu prze­twarzania jest bardzo sugestywna. Kolejną interesującą cechą jest zwiększają­ca się dominacja wzgórza nad korą w miarę starzenia się ludzi. Może to mieć związek ze zmniejszającą się z wiekiem elastycznością psychiczną, a co dotąd zwykliśmy przypisywać jedynie stwardnieniu tętnic, czyli postępującej sklero­zie. Jak widać, coraz większa dominacja wzgórza nad korą (wynikająca z coraz słabszych połączeń korowych lub z innych względów) może odgrywać rów­nież istotną rolę.


Umysł relacyjny


Od najmłodszych lat pasjonowała mnie zagadka natury rozumu. Przy­pominam sobie spacery z moim ojcem po wrzosowiskach wokół Lancashire, kiedy miałem dwanaście czy trzynaście lat i kiedy ojciec opowiadał mi o poglądach różnych filozofów na naturę rozumu oraz przedstawiał swoje koncepcje. Rozpocząłem podróż przez życie stając się fizykiem teoretycz­nym, chcąc najpierw dowiedzieć się jak najwięcej o świecie materialnym-Obraz tego, co zrozumiałem, starałem się przekazać w drugiej części tej książki-Jednak na zawsze pozostałem zafascynowany naturą umysłu. W analizie świata

fizycznego doszedłem najdalej jak tylko mogłem, analizując przed kilku laty teonę superstrun. Wtedy również uświadomiłem sobie, że prawdopodobnie nie istnieje żadna teoria wszystkiego, a fizyka wysokich energii będzie bez końca badać naturę wszechświata. W tym samym mniej więcej czasie nastą­pił gwałtowny postęp w badaniach sieci neuronowych mózgu oraz powsta­wały komputery o coraz większej mocy obliczeniowej i wtedy uświadomi­łem sobie, że nadszedł czas dla teoretyków podobnych do mnie, którzy zaan­gażują się w kwestie zrozumienia mózgu i umysłu.

Z aktualnymi osiągnięciami dotyczącymi budowy mózgu zetknąłem się już we wczesnych latach siedemdziesiątych, gdy byłem związany z badaniami sieci neuronowych. Kiedy niedawno powróciłem do tego samego obszaru ba­dań oraz w sposób wyczerpujący przestudiowałem dostępną literaturę, dosze­dłem do przekonania, że kwestia wyjaśnienia jaźni czy subiektywnej natury doznań psychicznych ciągle nie jest rozwiązana. Zacząłem znowu pracować nad moją teorią umysłu relacyjnego i wykorzystywać ją jako swego rodzaju przewodnik rozwoju świadomego ja. Spróbuję w następnej części omówić naj­pierw Relacyjną Teorię Umysłu (którą stworzyłem dwadzieścia lat temu, lecz dopiero niedawno opublikowałem) i rozwinąć temat świadomego ja.

Istotą koncepcji umysłu relacyjnego jest założenie, że stany psychiczne powstają w wyniku porównania bodźców napływających aktualnie z bodź­cami przechowywanymi w pamięci, z którymi zetknęliśmy się w przeszłości, oraz ze stanami, które one wtedy wywołały (i w tym samym czasie również zostały najprawdopodobniej zapamiętane). Miniona reakcja zmysłowa na doświadczane wtedy bodźce leży u źródeł głębokiego znaczenia, jakie nada­jemy wszystkim nadchodzącym sygnałom z otoczenia. Błękit nieba, który widzę podnosząc wzrok znad mojego biurka, ma dla mnie znaczenie nie tyl­ko dlatego, że ma tak intensywny i sobie właściwy kolor, lecz również dlate­go, że przywołuje w mojej pamięci wspomnienie błękitnego nieba, które do­świadczałem w przeszłości leżąc na wzgórzu i wpatrując się w wydawałoby się nieskończoną głębię nade mną czy też opalając się w piekącym słońcu na plaży w Bretanii albo siedząc na leżaku w ogrodzie jednego z domów, w którym przyszło mi kiedyś mieszkać itp. Wszystko to tworzy cały zestaw relacyjnych odniesień pamięciowych, dających każdemu z nas poczucie świata wewnętrznego, który w sobie nosimy. Dla każdego jest to świat jedyny w swo­im rodzaju, ponieważ wszystkie moje doświadczenia z przeszłości, kojarzące się z błękitem nieba czy innym bodźcem, różnią się całkowicie od tych, które miał ktoś inny. Mój świat jest również bardzo osobisty i prywatny, ponieważ bardzo trudno odsłonić minione przeżycia moje czy kogokolwiek innego. Można by pomyśleć, że rejestrując obrazy na wideo dałoby się tego dokonać, lecz jest to zupełnie niemożliwe, ponieważ istnieją przecież doznania we­wnętrzne, które są niemal całkowicie niedostępne. Można by próbować od­słonić naturę przechowywanych w pamięci doświadczeń, usiłując zmierzyć przepływy sygnałów w sieci neuronowej w odpowiadających obszarach pa­mięci mózgu danego osobnika. To znowu jest skrajnie niepraktyczne; nawet jeżeli znalibyśmy poszczególne wartości, to nie znalibyśmy żadnych cech przechowywanej pamięci, ani też w jaki sposób są kodowane. Mój osobisty świat psychiczny, własny i każdego innego, pozostanie prywatny jeszcze przez długi czas.

Mimo prawie całkowitej niemożliwości dokładnego zbadania w ten spo­sób czyjegoś umysłu z zewnątrz, nie ma żadnych powodów, by nie próbować pojąć tego nieuchwytnego i wymykającego się rozumu. Mówiąc ogólnie, wy­jaśnienia typu relacyjnego pozwalają przynajmniej wyobrazić sobie, w jaki spo­sób umysł mógł narodzić się z całkowicie fizycznej aktywności. Porównanie (relacje) bieżących doświadczeń z minionymi, zbieranymi w miarę dorastania, a później starzenia się, prowadzi do wzrastającej świadomości rozumu. Co dla niemowlęcia jest jedynie nic nie znaczącymi krawędziami i narożami czy pla­mami świetlnymi, to dla dziecka stanie się już pudełkiem, które przy dotykaniu i kręceniu w pewien określony sposób gałkami, wyświetla na swoim jednym boku przyciągające uwagę ruchome obrazki. Młodzieniec może dostrzec w pu­dle wytwór nowoczesnej technologii, wypełniony tranzystorami i obwodami scalonymi, o których uczył się w technikum. Dla dorosłego telewizor może być niczym więcej, jak tylko powodem irytacji czy narzędziem do zabijania czasu, przy całkowitym braku zainteresowania dla jego budowy wewnętrznej, stano­wiąc jedynie jeszcze jeden mniej czy bardziej przydatny wynalazek współcze­snej nauki i techniki. Tak więc, świadome wrażenia towarzyszące oglądaniu telewizji, odbierane przez ludzi w różnym wieku, mogą się zasadniczo różnić. Będą one silnie ubarwione minionymi wrażeniami, których dostarczyła telewi­zja. Twierdzę, że w istocie na całą ludzką psychikę składają się relacje pomię­dzy minionymi a obecnymi odczuciami.

Takie podejście umożliwiło mi rozwinąć teorię znaczenia i sensu no­wego przeżywanego doświadczenia. Dopiero odpowiednia liczba zebra­nych w przeszłości doświadczeń nadaje mu znaczenia. Trudno doprawdy określić, ile tych doświadczeń powinno być, lecz prawdopodobnie wyko­rzystanie przez odpowiednio długi czas pobudzanych komórek nerwowych prowadzi do powstawania skojarzeń. Jeżeli tak zwany stopień pokrycia jest wystarczająco wysoki, wtedy bieżące doświadczenie będzie miało duże znaczenie i osiągnie się pełny stan świadomości. Z drugiej strony, niski stopień pokrycia będzie odpowiadać słabemu stanowi świadomości, wy­stępującemu na przykład u niemowlęcia (lub osoby upośledzonej umysłowo). Wysoki odpowiadałby komuś w kwiecie wieku.

Naturę znaczenia oddaje następujące zdanie, które wydaje się jasne: Ten kawałek ciasta jest chory. Wypowiedzenie czegoś takiego wywołuje uśmiech na twarzy czytającego czy słuchającego, z czym zetknąłem się wielokrotnie, wygłaszając moje odczyty na temat rozumu. Znaczenie bo­wiem tego zdania jest, co najmniej, problematyczne. Bez wątpienia słowa kawałek ciasta przywołują pamięć o jedzonym wcześniej w ciągu dnia lub w minioną sobotę cieście, o wspaniałym smaku ciasta jedzonego w dzie­ciństwie, o swoich upodobaniach w tym względzie itp. Z drugiej strony .jest chory" przypomina o wstrętnych lekarstwach czy o konieczności bezczyn­nego leżenia w łóżku, o ubranych w wykrochmalone fartuchy pielęgniar­kach, o lekarzach z przewieszonymi przez szyję stetoskopami itp. W tym przypadku stopień pokrycia pomiędzy dwoma zestawami wspomnień jest równy zeru. Po prostu nie mają ze sobą nic wspólnego.

Są dwa sposoby wyjaśnienia mimowolnego uśmiechu pojawiającego się na twarzy słuchającego. Jeden odpowiada wyzwoleniu napięcia, jakie towarzyszy sprzecznym skojarzeniom. Wolę jednak drugie wyjaśnienie, które zakłada, że uśmiech wywołuje fala skojarzeń, powstałych w płatach czołowych, na dźwięk pierwszej części zdania: kawałek ciasta. Można by się spodziewać, że zakończenie będzie brzmiało: jest ładny, jest smaczny, jest już gotowy, został zjedzony itp. Nikt się jednak nie spodziewa, że jest chory. Jest to niespodziewana sprzeczność z falą skojarzeń, która prowa­dzi do wyzwolenia się poczucia humoru. Istnieje jeszcze dodatkowe źró­dło humoru w postaci wyrazu „ten", który oddaje przekonanie wypowia­dającego zdanie o chorobie tylko jednego na świecie kawałka ciasta, a ca­łe pozostałe na Ziemi ciasto jest już zdrowe i normalne!

Podsumowując, umysł relacyjny pracuje porównując sygnały wejściowe z przywołanymi wspomnieniami o minionych doświadczeniach. Proces ten powoduje również szybką ocenę bodźca. Wydaje się, że stanowi to zdecydo­waną przewagę nad zwierzętami, które nie potrafią wykorzystywać w ten sposób doświadczeń z przeszłości. Mają zaledwie stereotypowy zestaw reak­cji i nie są zdolne do korzystania ze zwiększającego się z wiekiem doświad­czenia, które mogłoby kierować ich postępowaniem w kontakcie z otaczają­cym środowiskiem. Nawet te, które miałyby w pamięci pewien zasób wspo­mnień o minionych zdarzeniach, nie mając takiego mechanizmu porównaw­czego jak my, są zbyt powolne, by je skutecznie wykorzystać. Świadomość ma zatem ogromną wartość w doborze naturalnym ewolucji.


Świadome Ja


W tym miejscu rozumowania uświadomiłem sobie, że umysł relacyj­ny stanowi już pewną koncepcję, ale jeszcze nie teorię. Jest co prawda obietnicą teorii, lecz zanim można by go weryfikować, należy wbudować go jeszcze w ramy neurologii. Poszukiwałem strukturalnego ośrodka wśród międzywzgórza i płatów korowych, opisanych krótko w rozdziale 8. W tym cza­sie usłyszałem o badaniach za pomocą technik MEG i związałem się ściśle z wieloma problemami technicznymi, na które w nich natrafiono. Dzięki temu mogłem docenić wagę sieci neuronowej, zwanej Nucleus Reticularis Thalami (jądro tworu siatkowego) lub w skrócie NRT, która obejmuje przednie i boczne partie wzgórza. Na drodze do kory wszystkie sygnały wejściowe przechodzą przez NRT. Sygnał wyjściowy oraz sygnał sprzężenia zwrotnego również przechodzi przez NRT, a wszystkie włókna nerwowe mają boczne odgałęzienia, które do niej prowadzą.

Neurolodzy badający NRT w ciągu ostatnich trzydziestu lat byli przekona­ni, że stanowi ono furtkę przepuszczającą sygnały wejściowe i wyjściowe z kory. Ponad dziesięć lat temu jeden z nich, specjalizujący się w NRT, powiedział:


Usytuowana na podobieństwo cienkiej siatki rozpiętej ponad bocznymi i tylnymi partiami wzgórza, ma cechy siatki sterują­cej, umieszczonej pomiędzy anodą a katodą lampy elektrono­wej.


Od tego czasu uzyskaliśmy znacznie więcej informacji o szczegółowej budowie NRT. Odkryto, że ma połączenia pomiędzy pobliskimi komórkami, podobne do analogicznej sieci siatkówki oka, opisanej w poprzednim roz­dziale. Podobieństwo to było przyczyną nazwy, jaką nadano części tego two­ru NRT, wygląda jak oko patrzące w głąb mózgowia. Jednak NRT składa się z innych niż siatkówka komórek, które mają działanie wzajemnie hamujące. Dzięki temu NRT może odgrywać, w sposób najbardziej efektywny, rolę re­gulatora aktywności poszczególnych obszarów kory. Wyobraźmy sobie dwa leżące w pobliżu regiony aktywności NRT. Każdy z nich będzie usiłował stłu­mić aktywność innego obszaru kory poprzez boczne wyhamowywanie po­między nimi; wygra ten, który okaże się silniejszy. Wykazano to za pomocą symulacji na uproszczonych modelach. Tego rodzaju pojedynki mają charak­ter globalny, dając całkowicie połączoną strukturę NRT, i dlatego są zwane synapsami dendro-dendrycznymi, które występują również (jak uprzednio wspomniano) w siatkówce oka. Takie specjalne synapsy zdają się nie wystę­pować u zwierząt bardziej prymitywnych, w rodzaju szczura, natomiast ist­nieją u zwierząt wyższych poczynając, na przykład od kotów, małp, no i nas samych. Wtedy zaproponowałem teorię, według której NRT miałaby stano­wić pewnego rodzaju płytkę przekaźnikową czy furtkę na wejściu do kory. Podczas skupiania uwagi regulacja jest nadzorowana przez płaty czołowe i hipokamp. Uczynnią się przez nagłe pojawienie się niespodziewanego bodźca. Może on spowodować wyhamowanie aktualnej czynności NRT. Analiza od­powiednich równań matematycznych oraz symulacja komputerowa potwier­dziły, że regulacja wielu rodzajów aktywności kory odbywa się za pomocą NRT. Ponadto siatka ta może przyczyniać się do powstawania reakcji odpo­wiedzi przy założeniu, że wszystkie połączenia funkcjonuj ą prawidłowo. Ta oraz inne liczne cechy uświadomiły mi, że NRT wraz z leżącymi w pobliżu obszarami korowymi i jądrem wzgórza może spełniać funkcję globalnej sieci sterującej aktywnością kory. Tu może rodzić się poczucie świadomego ja, będącego tak istotnym składnikiem świadomości.

Jedną z istotnych cech systemu jest jego zdolność do porównywania bieżą­cej aktywności z przechowywanymi w pamięci wspomnieniami. Okazuje się, że przednie części NRT wy daj ą się posiadać płaty połączone w sposób umożli­wiający przechowywanie w nich pamięci. Obwód limbiczny, wspomniany w po­przednim rozdziale, pamięta o zdarzeniach o dużym znaczeniu emocjonalnym i przesyła sygnały wyjściowe bezpośrednio przez przednie części NRT do wzgó­rza. Nie wydaje się, by zwracało ono tę informację, tak więc nie może stanowić ośrodka natychmiastowego sterowania (i świadomości) wspomnieniami albo czynnościami uzależnionymi od uczuć czy popędów. Świadomość pojawi się z wiadomym skutkiem w centrach wspomnień i uczuć dopiero po pewnej obrób­ce danych w korze. Świadomość jawi się zatem jako struktura relacyjna po­wstała na zwielokrotnionych bramkach NRT, które są całkowicie skorelowane za pomocą hamowania bocznego, będącego cechą płatów NRT, z odpowiada­jącą aktywnością kory i wzgórza. Sygnał wejściowy z kory przenika do cen­trów pamięci i uczuć, które dodają barwy i treści do fali sygnałów powrotnych powstałych w wyniku aktywności przednich części płata NRT, oraz pomaga określić krytyczną aktywność kory. Jest to źródło fali sygnałów związanych z oczekiwaniami. Spotyka się z sygnałem czynnościowym, a wzajemny stosu­nek pomiędzy nimi określa przyszłe stany świadomości.

Jeszcze jedna ważna cecha tego modelu wymaga uwypuklenia. Według teorii relacyjnego umysłu, pamięć związana ze wspomnieniami odpowiada­jącymi danemu bodźcowi wywołuje całą treść świadomości, przy czym wspo­mnienia są selekcjonowane przez świadome ja (sterowane prawdopodobnie przez NRT). Lecz aby powstała treść świadomego doznania, musi się jeszcze skonkretyzować szczegółowa treść wspomnień. Odbywa się to prawdopodobnie w podobny sposób, ale na niższym poziomie w obrazowaniu. Obrazy z przeszłości mogą zostać wykorzystane do odtworzenia, oczami wyobraźni, poprzednich doznań wzrokowych (doznania innych zmysłów są podobnie odtwarzane). Różnego rodzaju pomiary aktywności mózgowia (szczególnie tkające z badań przepływu krwi w uaktywnionych obszarach) wykazały, ze do przywoływania obrazów są wykorzystywane regiony leżące w pobliżu wejścia sygnału. Zgodnie z tym, co napisano w poprzednich dwu rozdziałach tego należało spodziewać się, ponieważ są to właśnie te obszary, gdzie J6SI dokonywana analiza sygnałów wejściowych. Rozsądnie jest zatem przy­jąć, że również tutaj odtwarza się poszczególne cechy minionych doświadczeń, tak że powstające obrazy wykazują podobieństwo do właśnie postrze­ganych.

Prawdopodobnie również coś na podobieństwo obrazów powstaje w ob­szarach związanych ze świadomością. Muszą one leżeć w pobliżu ośrodków wejściowych. Najlepszym sposobem ich dopasowania z bieżącymi doznaniami (unikając halucynacji) byłoby rozwiązanie, w którym bodziec stanowiłby pewnego rodzaju zalążek odtwarzanych prażeń. Byłby on porównywany z pa­mięcią krótkotrwałą, którą stanowi zdolność do utrzymywania w pamięci informacji przez kilku sekund. Istnieje wiele dróg powrotnych łączących obszary Pamięci długotrwałej, umieszczonej w płatach skroniowych, z obszarami tworzącymi obrazy. Sterowane tymi drogami wspomnienia docierają do krótkotrwałej pamięci wejścia, konkretyzując w ten sposób świadomość doznawane­go bodźca. W tym kontekście warto wspomnieć, jak to wykazał niedawno Francis Crick (jeden z odkrywców kodu genetycznego) z kolegami, że nie jest znany żaden przypadek utraty pamięci krótkotrwałej przy pozostawaniu nietkniętej świadomości. Tak więc docieramy do następującej interpretacji:


świadomość = dopuszczone wspomnienia sterowane przez zespół mojego ja


Model taki pozwala zrozumieć unikalność świadomości oraz możliwość Pojawienia się dwóch niezależnych świadomości u pacjentów z rozdzielonymi półkulami mózgowymi, co zdarza się w przypadkach przecięcia łączą­cych je włókien nerwowych, by zmniejszyć winnym przypadku nieuniknione ataki epilepsji. Pewien pacjent, poddany takiej operacji, posiadał dwie odręb­ne świadomości, wykazujące inne upodobania i pragnienia.


Wyższe poziomy


Z modelu świadomości wykorzystującego zespół świadomego ja wy­nikają popędy, uczucia i wyższe stany percepcji, takie jak planowanie i myślenie. W ostatnim rozdziale omawialiśmy krótko popędy oraz uczucia i stwierdziliśmy, że brak świadomej kontroli uczuć daje się szczegółowo wy­tłumaczyć odpowiednią siecią przepływów. Tam również stwierdziliśmy, że planowanie i myślenie jest ściśle powiązane z obszarami płatów czołowych. Mają one połączenia wyjściowe i wejściowe z tak zwanym środkowogrzbie-towym jądrem wzgórza, które łączy się następnie z przednią częścią NRT. Ten ostatni ośrodek był proponowany jako fragment mózgowia, gdzie w świa­domości odbywa się walka pomiędzy uczuciami a doświadczeniem. Lecz później i tak walka o świadomą kontrolę przeniesie się do obszarów płatów czołowych; planowanie i rozumowanie będzie miało łatwy dostęp do świa­domości. Sposób, w jaki następuje nieświadome przetwarzanie informacji, w szczególności podczas procesów twórczych, oraz uczuciowe zabarwianie świadomego doświadczenia, wydaje się możliwy do zbadania po poznaniu dalszych szczegółów połączeń pomiędzy wzgórzem, płatami czołowymi i obwodem limbicznym. Pozwoli to również na dalszy postęp w rozumieniu popędów i dążeń.

Istotną częścią modelu świadomego ja jest obraz snów i marzeń, jaki daje. W minionym czasie zdawano sobie doskonale sprawę z funkcji wzgórza i NRT, które odcinają korę od wszelkich sygnałów wejściowych oraz unie­możliwiają jej normalne działanie (jak świadczy o tym wolny rytm EEG kory). Gdy marzymy, następuje podobne odcięcie na wejściu sygnałów. I chociaż marzenia są częściowo świadome, to pozostają poza świadomą kontrolą. Eccles zauważył:


Cechą charakterystyczną wszystkich marzeń jest to, że osoba ma­rząca odczuwa wielce denerwującą niemoc. Wciągnięta jest we wszystkie akcje, lecz odczuwa niepokojącą niezdolność uczy­nienia żadnego kroku. Oczywiście, działa w marzeniach, lecz tak, jakby była jedynie marionetką.


Można to wyjaśnić zmniejszeniem się globalnej kontroli działania kory (wykazującej szybki rytm EEG podobny do osoby czuwającej) przez NRT. Marzenia można by określić jako świadomość korową, natomiast stan czu­wania jako świadomość wzgórzowo-NRT-korową. Zmniejszony wpływ NRT podczas marzeń może pomoc w wyjaśnieniu poczucia niemocy, odnotowanej przez Ecclesa. Wyraźnie widać, że jeszcze dużo musimy dowiedzieć się i zrozumieć o marzeniach, lecz możemy tutaj, w modelu świadomego ja, na­szkicować przynajmniej pewien zarys.

A co można by powiedzieć na temat poczucia tożsamości? Najprostszym wyjaśnieniem byłaby koncepcja mówiąca, że poczucie własnego ja jest moż­liwe u ludzi, ponieważ mają wystarczającą pojemność i zdolność kory, by zbudować sobie model nas samych jako aktorów. Zaczyna się ono rozwijać już u mniej więcej osiemnastomiesięcznego niemowlęcia. Biorąc pod uwagę zdolność do odmodelowania poprzez zapamiętanie w sieci neuronowej, pro­blem zbudowania neutralnego modelu siebie byłby chyba równoważny z od-modelowaniem czegokolwiek innego. To, że posiadamy zdolność zbudowa­nia modelu nas samych, daje nam znaczną przewagę nad innymi zwierzęta­mi, ponieważ umożliwia wyobrazić sobie intencje innych, porównując je z na­szymi. Komunikacja z innymi nabiera również innego charakteru, gdy inten­cje przekazującego wiadomość znajdują rezonans w mózgu odbierającego. Możemy więc uwzględnić w naszej interpretacji tożsamości


samoświadomość = obraz pamięci samego siebie, kontrolowany przez zespół mojego ja


Twierdzenie, jakoby poczucie własnego ja należałoby wyjaśniać w jed­nym paragrafie, a umysł w jednym rozdziale, jest czystym nonsensem. Takie podejście do świadomego ja jest wstępnym krokiem w kierunku modelu me­chanicznego. Niniejsze jak i poprzednie rozważania, dotyczące umysłu rela­cyjnego, miały na celu wykazanie, w jaki sposób można by podejść do pro­blemu rozumu. Przedstawione tutaj idee pozostają w harmonii z poglądami traktującymi rozum jako swego rodzaju „mechanizm zegarowy". Jednakże w proponowanym modelu rozum jest raczej teatrem, na którego scenie swoją rolę graj ą procesory poszczególnych zmysłów. Wielu neurologów zgadza się z poglądem, że NRT odgrywa istotną rolę w przetwarzaniu danych przez mózg, natomiast świadomość jest rezultatem działania całego mózgu. Pojęcie świa­domego ja rozwija model do postaci, w której NRT jest okiem patrzącym na korę i wzgórze, nadzoruje globalną walką oraz typuje zwycięzcę. Niezależ­nie od tego, czy wszystkie detale są dokładnie dopasowane, twierdzę, że świa­domość nie wygląda już tak samo, a ludzie jawią się w zupełnie innym świetle jako wspaniałe, subtelne maszyny stawiające nauce najbardziej bezpośrednie wyzwanie.










CZĘŚĆ CZWARTA


ZROZUMIENIE WSZECHŚWIATA11. Odpowiedzi


Pytania bez odpowiedzi


Głównym celem tej książki jest próba udzielenia opartej na nauce odpowiedzi na cztery trudne pytania:



Zanim zacznę rozważać doniosłość odpowiedzi na te pytania dla kondycji ludzkiej, zreasumujmy w tym rozdziale odpowiedzi, których udzieliłem dotychczas.


Natura świadomości


Podstawową tezą jest to, że świadomość jest następstwem czynności mózgu. Treść psychiczna świadomych doznań jest zbudowana, według relacyjnej teorii rozumu, jako zestaw relacji pomiędzy czynnością mózgu, będącą następstwem bieżących bodźców, oraz czynnością wynikającą ze zgromadzonych wspomnień o odpowiadającej jej wcześniejszej aktywności. Takie re­je same w sobie nie są niczym materialnym (w takim sensie, w jakim po­wianie liczb, choćby takie, że dwa jest mniejsze od czterech, które samo nie jest liczbą), lecz dostarczaj ą danemu osobnikowi treści psychicznych składają się na świadome doznanie. Odpowiadające relacje, składające się na treść psychiczną, są formułowane uaktywnionymi wspomnieniami, odpowiadający, mi ściśle dostarczanemu bodźcowi, a więc wymagają jakiegoś urządzenia (furtki) porównującego czy też selekcjonującego ich dobór. Sugerowano, że urządze­nie to składa się z płata neuronów hamujących, umieszczonego na wejściu wszystkich sygnałów do kory, i jest nim jądro siatkowe wzgórza (NRT). Czyn­ności NRT podlegają globalnej konkurencji, w wyniku której pewne jego czę­ści zdecydowanie dominują. Ostatnie wyniki doświadczeń sugerują, że aktyw­ność całego płata jest sterowana przez pewien mały jego fragment. Skupianie uwagi, sterowane przez wyższe procesy zachodzące w świadomości, następu­je, gdy skierują one dominującą aktywność do przedniej części NRT. Wysyła ona wtedy falę sygnałów omiatających całe NRT i w konsekwencji cała kora jest poddana kontroli przez te sygnały. Świeży bodziec przyciągający uwagę niszczy bieżącą aktywność NRT i powoduje, że konkurencja rozpoczyna się od nowa. Sugeruje się, że świadomość rodzi się w wyniku porównania pomię­dzy aktywnością wymuszoną przez przedmą część NRT (która została pobu­dzona wcześniejszym impulsem z płatów czołowych) a aktywnością wymu­szoną bezpośrednio w obszarach zmysłowych kory przez nowy bodziec. Uczu­cia i popędy są postrzegane w ramach tej teorii jako odgrywające podobną rolę co świadomość, walcząc w konkurencji o zwycięstwo na obszarze przedniej części płata NRT. Brak bezpośredniej świadomej kontroli aktywności mózgu w obszarach, które nie są wystarczająco związane z NRT, wyjaśnia trudności, jakie wszyscy mamy z naszymi uczuciami — nie kontrolowany pociąg, ślepa furia itp. - przykłady dość wiernie oddającego prawdę opisu tego braku kontro­li. I w końcu, samoświadomość albo inaczej poczucie własnej tożsamości, jako właściwość posiadana przez ludzi, szympansy i orangutany oraz być może przez bardzo nieliczne inne gatunki zwierząt, wynika z działania maszynerii świado­mości w kombinacji z przechowywanym w pamięci wizerunkiem siebie same­go. Należy sądzić, że taki wizerunek daje się nakreślić dopiero wtedy, gdy jest dostępna pamięć na tyle pojemna, by mogła przechować mnóstwo faktów do­tyczących życia osobistego, wyglądu zewnętrznego, minionych cierpień i bólu, upodobań i odrazy, zdolności i słabości itp. Szczegóły tego, w jaki sposób po­wstaje ten ogromny magazyn pamięci, są dotychczas nie znane, chociaż istnie­ją przesłanki, które wskazują, że może uda się to rozwiązać przy wykorzysta­niu ostatnich osiągnięć w neuropodobnych komputerach oraz w tworzeniu sztucznych sieci neuronowych. Wynika z tego, że szerokie ramy podstawo­wych mechanizmów odpowiedzialnych za ludzką świadomość są już w trakcie poznawania i problem powstania rozumu z materii jest bliski, i to nawet dość szczegółowego, rozwiązania.


Powstanie wszechświata


Drugim trudnym pytaniem jest kwestia, w jaki sposób narodził się wszechświat. Przedstawiono dwa możliwe scenariusze. Według pierwszego, wszechświat wystrzelił z próżni w postaci fluktuacji kwantowej, jak piana .(analogia do fluktuacji) powstała na powierzchni rozfalowanego morza (analogia do próżni). Postrzegano to jako równie trudne do wyobrażenia (i wyjaśnienia), jak stworzenie wszechświata w postaci jakiegoś mechanizmu zegarowego, w którym byłaby konieczna decyzja odnośnie do stanu wszystkich cząstek (ich położenia, prędkości itp.). Kto mógłby tego dokonać? Analogicznym problemem w przypadku kwantowej kreacji stałby się wybór stanu wyjściowego lub mówiąc bardziej technicznie pierwotnej funkcji falowej. Podawano różne recepty w celu dokonania takiego wyboru, lecz każda z niebyła tylko próbą przesunięcia odpowiedzialności, a nie zupełnego usunięci jej. Jak już zauważono wcześniej, obecne techniki analizy następstw jakiegoś konkretnego przepisu są przygnębiająco nieadekwatne, a twierdzenie, że te trudności można pokonać w dającym się wyobrazić okresie poprzez obserwacje wielkich pól grawitacyjnych i na gruncie kwantowej teorii grawitacji, okazało się zupełnie nie do utrzymania. Co ważniejsze jednak, stało się jasne jak słońce, że nie da się nigdy podać konkretnego przepisu, który by wyróżniał jeden stan pierwotny od innego, a więc dostrzeżono, że tą drogą nie ma rządnej możliwości wyjaśnienia powstania wszechświata. Dopuszczano więc tylko jeden możliwy, dający się zastosować, scenariusz kreacji wszechświata, który nie wymagał konieczności dokonywania zasadniczych i arbitralnych decyzji (odnośnie wyboru jednego konkretnego przepisu spośród wielu innych). Wymaga on istnienia nieskończonego łańcucha teorii regresywnych, z których każda dostarcza lepszego opisu w miarę wzrostu temperatury wszechświata, przy zbliżaniu się do jego początku. Na każdym etapie zbliżania się do chwili początkowej, jeden opis jest zastępowany następnym, przy czym stan początkowy tego opisu wynika z teorii poprzedniej. Jeżeli znamy funkcję falową wszechświata aż do momentu, w którym daje się zastosować mechanika kwantowa, to można wyliczyć rozkład cząsteczek określającą stan wszechświata, wynikający z teorii klasycznych.

Wykorzystanie nieskończonego, regresywnego szeregu tego rodzaju teorii umożliwia na każdym poziomie określenie stanu początkowego wszechświata, jako stanu wynikającego z wyższego poziomu. Pomimo to, nie istnieje żaden sposób na podanie jakiegoś konkretnego przepisu określającego ten stan, ponieważ teoria odpowiednia na jakimkolwiek poziomie, będzie kompletnie nieprzydatna przy wyższych temperaturach. Poszukiwania prawidłowego opisu muszą być wspomagane eksperymentami. Wybór stanu początkowego na którymkolwiek poziomie opisu wyznaczy całą przyszłą naturę wszechświata. Wykorzystując pewne dodatkowe kry­teria (chociaż nie do końca uzasadnione), takie jak elegancja, symetria itp., można określić stan początkowy na danym poziomie, co tym samym ściśle określa stan początkowy kolejnego poziomu. W ten sposób początek wszech­świata (a więc i jego ostateczny stan początkowy) przesuwa się w nieskoń­czoną przeszłość; nigdy nie zostanie określony, chociaż zawsze można uczy­nić kolejny krok zwiększający dokładność opisu.


Jednolita teoria przyrody


Wyjaśniliśmy sobie właśnie, dlaczego bardziej naturalna jest próba wyjaśnienia powstania wszechświata za pomocą nieskończonego szere­gu teorii regresywnych, nie osiągając nigdy ostatecznego opisu stanu począt­kowego, lecz zbliżając się do niego z coraz większą dokładnością. Nauka, badając rzeczywistość wokół nas, opisuje ją z coraz większą precyzją, lecz teorie, na podstawie których to czyni, podlegają ciągłym modyfikacjom. Ma­jąc na uwadze czterysta lat badań i eksperymentów fizycznych, nie mamy powodu wątpić, że takie modyfikacje zawsze będą następowały; zawsze bę­dziemy mieli do czynienia z nieskończonym szeregiem teorii, czasami rozga­łęziających się, czasami unifikujących się do jednej postaci, która jednakże również będzie ulegać przemianom.

Jeżeli to rozumowanie jest prawidłowe, to nie może być żadnej teorii wszystkiego. Głównym problemem, na jaki natykamy się przy wyborze ja­kiejś teorii, jest kwestia, dlaczego właśnie ta spośród wielu innych? Jeżeli jakaś teoria miałaby być JTP, to nie ma żadnego sposobu wyjaśnienia jej podstawowych aksjomatów. Ponadto, jeżeliby nawet okazało się, że spraw­dza się ona pod względem doświadczalnym, to nie będzie żadnej możliwości wyjaśnienia właściwości fundamentalnych cząstek, których istnienia teoria będzie wymagać i które nawet dałoby się zaobserwować w eksperymentach.

Czy można wyjaśnić wszystkie zjawiska występujące w przyrodzie? Jest to kwestia będąca istotą natury istnienia. Jeżeli odpowiedź brzmi tak, to wtedy mamy do czynienia z nieskończonym szeregiem teorii. Redukcjonizm staje się właści­wym stanowiskiem, lecz nie doprowadzi nigdy do prawd ostatecznych. Jak mówi maj ą mniejsze pchełki - ciągnie się to ad infinitum. Jeżeli odpowiedź brzmi nie, to naukę czeka uwiąd. Jednakże odpowiedzi na pytanie, czy wszystkie zjawiska są wytłumaczalne, może nam udzielić jedynie eksperyment. Wymaga to zwie­zienia w przyrodzie jakiejś podstawowej, nie zaobserwowanej jeszcze substruktury, tłumaczącej dostrzeganą wokół regularność. Substruktura taka musiałby umożliwić zweryfikowanie przyjętej teorii, z której zostałaby wyprowadzona.

Nie jest moim zamiarem umniejszać znaczenia przypadkowości w badaniach naukowych, w wyniku której nastąpiły tak znaczące odkrycia, jak pro­mieniowanie mikrofalowe tła wszechświata czy nowa generacja materiałów nadprzewodzących. Jednakże zasadniczy postęp nauki może dokonywać się na drodze badania obszarów albo coraz większych, albo coraz mniejszych, co wymaga wciąż kosztowniejszych przyrządów. Z praktycznego punktu widzenia, będzie coraz trudniej uzyskać fundusze na doświadczenia planowane jako strzały w ciemno. Z teoretycznego punktu widzenia, jest wysoce nieprawdopodobne, że naukowcy przestaną nagle spekulować o naturze tak zwanych JTP, proponowanych przez ich kolegów. Zawsze będzie to swój ego rodzaju wyrwa­nie dla ich kreatywności i inteligencji. Dlatego też do każdej sugerowanej JTP należy podchodzić z naukowym sceptycyzmem i zawsze zakładać, że przecież nauka nie osiągnęła jeszcze żadnego ostatecznego krańca. Naszym mottem musi na zawsze pozostać „nigdy nie kończ", ponieważ nie mamy pojęcia, czy kolej­ny eksperyment lub idea nie obróci w gruzy naszego gmachu JTP, z którego miałoby wynikać, że rozwój nauk podstawowych dobiegł kresu.

Konkludując, jestem przekonany o niemożliwości znalezienia usprawie­dliwienia dla twierdzeń, według których jakaś teoria miałaby być JTP. Każda teoria będzie narażona na konfrontację ze zjawiskami nie dającymi się a jej pomocą wytłumaczyć i będzie znajdować się w położeniu manekina oczeku­jącego na zdjęcie z wystawy. Co więcej, minione doświadczenia wskazują, że teorie zawsze będą podlegać regresji i będą tworzone wciąż nowe teorie, a nauka nigdy nie dobiegnie kresu.


Raczej coś niż nic?


Ostatnią z kwestii potraktowaliśmy jako nierozwiązalną na gruncie na­ukowym, na którym wykorzystywano by podejście redukcjonistyczne. Załóżmy, że ktoś wydedukował z tego lub innego powodu, lecz na podstawie pewnej teorii konieczność istnienia jakichś obiektów mających określone właściwości. Teoria ta będzie z góry skazana na obalenie, bo za chwi­lę ukaże się nowa, lepsza. W tym samym momencie nasze koniecznie ist­niejące obiekty straciły swą rację bytu. Nie możemy mieć przecież żadnych gwarancji, że na wyższym dokładniej określonym poziomie nie istnieją obiekty dokładniej zdefiniowane. Tak więc dowód istnienia czegokolwiek na danym poziomie jest niezadowalający i może być uwzględniany jedynie tymczasowo.

Kiedy zaakceptujemy możliwość nieskończonego szeregu teorii regresywnych, to ostateczna natura wszechrzeczy będzie zdawała się unikać na­szego wejrzenia. Nigdy nie dowiemy się dokładnie, jaka jest natura jakiego­kolwiek obiektu we wszechświecie. Nie ma żadnego sposobu interpretacji poza tym, że rzeczywistość daje się opisać odrobinę bardziej precyzyjnie ko­lejną teorią z nie kończącego się ich łańcucha. Rozwój tych teorii powoduje, że opisują one zjawiska wokół nas z coraz większą dokładnością. Lecz ten nieskończony szereg teorii powoduje również, że opisanie rzeczywistości staje się nieskończenie trudne. Tracąc doskonałą jasność, nie chciałbym tutaj da­wać wyrazu skrajnemu pesymizmowi. Wprost przeciwnie, napawa nas to optymizmem, ponieważ możemy spoglądać na świat z coraz większą jasno­ścią, proporcjonalną do wysiłku, jaki wkładamy w jego zbadanie. Jesteśmy podobni do ludzi obarczonych poważną wadą wzroku, którzy mogą widzieć coraz lepiej, bo dostają coraz lepsze okulary. Aby widzieć lepiej, płacimy coraz wyższą cenę. Jeżeliby pieniądze nie stanowiły trudności, widzieliby­śmy o wiele więcej i lepiej.


Poza obszarem nauki?


Zajmiemy się teraz kilkoma cechami, którymi nauka jest w zasadzie ograniczona, próbując wyjaśniać naturę wszechświata. Nie ma żadnych granic naukowego poznania (które wydaje się nieograniczone), istnieją tylko trudności w odpowiedzi na niektóre pytania. W szczególności nieskończony szereg regresywnych teorii naukowych nie ukaże prawdopodobnie nigdy ostatecznej natury wszechrzeczy oraz przyczyn istnienia. Cóż zatem daje nam nauka? Podejście religijne do trudnych pytań było przedmiotem kry­tyki na początku książki, ponieważ nie ma ono żadnego oparcia w rzeczy­wistości ani nie dostarcza żadnych nowych szczegółów. Pomimo to wy­daje się, że nauka również nie odpowie na te pytania. Można stąd wnio­skować, że nie ma widoków na wyjaśnienie sytuacji. W rzeczywistości można by twierdzić, że postępując drogą nauki zostaliśmy zmuszeni zre­zygnować z pewności, jaką daje religia. Utraciliśmy całą pewność, która coraz bardziej rozmywa się przed naszymi oczami.

Odpowiedzi można udzielić w dwóch obszarach. Pierwszy obejmowa­łby metodę wykorzystywaną przez wierzących i sprowadzałaby się do uzna­nia, że za naturą wszechrzeczy stoi Bóg. W świecie duchowym, gdzie spo­dziewamy się istnienia Boga, można poprzez modlitwę i obrzędy religijne doświadczyć wiedzy o Bogu oraz komunikować się z nim. Przedstawiłem bardzo mocne świadectwa wskazujące, że świat duchowy, czyli psychicz­ny, jest wynikiem aktywności miliardów wzajemnie połączonych komórek nerwowych i że niezależnie od jego bardzo subtelnej postaci nie istnieje żadne rozszerzenie owego świata poza obszary naszego mózgu. Zgodnie z tym, nie wydaje się prawdą twierdzenie, jakoby religia była drogą do osią­gnięcia pewnej wiedzy, a w szczególności do odkrycia, że wszechświat duchowy różni się od fizycznego. Wszystkie stwierdzenia tego typu są czy­stą iluzją, wynikającą prawdopodobnie z potrzeb danej osoby. Jedynie rze­czywiste doznania powodują te odmienne stany świadomości, dające się wszakże wyraźnie opisać na drodze czysto fizycznej. Stany tego rodzaju nie mają większego znaczenia dla poznania wszechświata niż stan ekstazy po zażyciu narkotyków. To ostatnie może powodować odmienną percepcję wzrokową, prowadzącą do postrzegania wszystkiego w postaci, na przy­kład, przedmiotów o przepięknej symetrii. Wszystkie takie zjawiska można z kolei wyjaśnić w terminach pewnych zafalowań czynności mózgu, które zdarzają się w sprzyjających temu warunkach. Zmieniony przez narkotyk przebieg procesu przetwarzania danych na wyższych poziomach świado­mości prowadzi do zakłócenia emocji, przy czym otoczeniu nadaje się inne znaczenie od rzeczywistego. Takie doznania mają jak się zdaje podobne wyjaśnienie, jak zakłócenia wrażeń wzrokowych wywołanych narkotykiem. Nie ma żadnego powodu, aby objawienia natury religijnej nie miały podob­nego charakteru, chociaż w takim przypadku odmienne stany świadomości należałoby zastąpić zakłóceniami natury emocjonalnej. Jak już sygnalizo­wano, emocje nie są pod bezpośrednią kontrolą świadomości i mają wielki wpływ na nasze zachowanie. Stan, w którym możemy doznawać objawień, nie jest w tym świetle niczym zaskakującym.

Stwierdzenie, że nauka nie prowadzi do poznania z większą pewnością niż religia, również nie znajduje żadnego oparcia. Nauka nie ma granic; każde zja­wisko może być badane naukowo ad infinitum. Odpowiedzi na żadne pytanie nie należy traktować jako ostatecznej, ponieważ nie ma innego sposobu wery­fikacji jak tylko eksperyment. Lecz konkretny eksperyment należy postrzegać jako część całego zbioru wszystkich doświadczeń, dostarczających dającego się zweryfikować zrozumienia możliwie największych obszarów przyrody. Każda inna droga jest dużo mniej systematyczna i daje się gorzej uzasadnić. Dotyczy to w szczególności religii. Utrzymuje ona, że w obszarach duchowych można osiągnąć pewność, lecz świat duchowy nigdy nie zgadza się ze światem rzeczywistym. Religia nie prowadzi również do szczegółowego zrozumienia samego świata duchowego. Co więcej, można by podważyć silne poczucie pew­ności wynikające z wiary. Bóg jest sędzią najwyższym i ostatecznym, lecz ist­nienie zasadniczych sprzeczności w poglądach religijnych oraz różnic w inter­pretacji każdej świętej księgi (choćby Biblii czy Koranu) wskazuje, że przesła­nia Boże nie są odczytywane jednoznacznie. Ponieważ istnieje tak wiele róż­nych interpretacji, to jest zupełnie zrozumiałe, że ktoś może wątpić w ogóle w ich prawdziwość. W przeciwieństwie do tego, przesłania nauki są całkowicie jednoznaczne. Kiedy odkrywa się jakieś zjawisko, nie pasujące do obowiązują­cych w danym momencie teorii naukowych, wtedy reakcją środowiska staje się jego kwestionowanie i utrzymywanie, jak długo się da, istniejącego stanu rze­czy. Dzieje się tak głównie dlatego, że stara gwardia" poświęciła mnóstwo cza­su i wysiłków, by dojść do obowiązujących obecnie poglądów, prawdopodob­nie na przekór silnej opozycji poprzedniego establishmentu naukowego, który zastąpiła. Taka sztywna opozycja w nauce jest koniecznością; nowe wyniki czy idee mogą by ć błędne i dlatego wymagaj ą bardzo starannego sprawdzenia, zanim można je zaakceptować jako część gmachu nauki. Lecz później jedno­myślność znowu się kończy.

Można podać dwie przyczyny, całkowicie fizyczna natura wszelkich objawień religijnych oraz jednoznaczność nauki w porównaniu z możliwie szeroką interpretacją religijną, z powodu których można utrzymywać, że nauka dostarcza dużo bardziej pewnego obrazu wszechświata i naszego w nim miejsca. Jednakże nauka nie pomoże w odpowiedzi na pytania, które zgodnie z naszymi oczekiwaniami wytyczyłyby drogę postępowania w na­szym życiu. Jeżeli nawet udaje się nam dostrzec jakiś cel we wszechświecie jako całości, to nie jesteśmy w stanie zobaczyć go we własnym życiu. Jeże­li można by próbować wykazać, że wszechświat istnieje po to, aby tworzyć największą harmonię i zadowolenie czy dla jakiś innych celów emocjonal­nie podobnie wyrażanych, wtedy nauka służy nam pomocą i nawet stajemy się hedonistami czy wyznawcami harmonii.

Nie należy nigdy spodziewać się, że nauka doprowadzi do obserwacji odbicia naszych uczuć we wszechświecie jako całości. Zawsze bowiem bę­dziemy wśród żywych systemów obserwować jedynie te cechy, którymi są obdarzone wrażliwe sieci neuronowe. Mogą one istnieć we wszechświecie tylko w specyficznych warunkach. Świadome, żywe sieci neuronowe poja­wiły się bardzo niedawno (istnieją dopiero od sześćdziesięciu milionów lat, przy czym życie na Ziemi liczy sobie już ponad trzy i pół miliarda lat), i to jedynie w wyjątkowych miejscach oraz w otoczeniu, które stwarza korzystne warunki do ich delikatnych czynności.

Nie tylko nie dostrzegamy żadnego śladu uczuć we wszechświecie jako całości, ale nie widzimy żadnego powodu, aby miały takowe istnieć. Jedynym wyjątkiem jest to, że za pomocą narzędzi nowoczesnej nauki można przedstawić pewną wielkość (taką jak energia), która zmierza do jakiejś optymalnej wartości. Oznacza to, że pewnym ograniczonym celem wszechświata mogłaby być optymalizacja tej wielkości, lecz wniosek taki nie stanowi żadnej wskazówki, dającej się wykorzystać w naszym życiu. W ogromie wszechświata stanowimy jakieś mikroskopijne podjednostki. Próbujemy wypełnić nasz maleńki kącik znaczeniem, jakie może mieć optymalizacja, do której dążą jak się wydaje poszczególne części wszechświata; nasz Układ Słoneczny jest stosunkowo izolowany od pobliskich gwiazd Drogi Mlecznej, lecz zachowanie energii, której ta optymalizacja odpowiada, jest w każdym razie podstawowym prawem fizyki. Jak już powiedziałem, za zasadą zachowania energii nie kryją się żadne emocje, etyka, moralność czy człowieczeństwo. Nasz świat psychiczny narodził się, ponieważ jest to właściwe miejsce (Ziemia) i właściwy czas (wynik ewolucji ssaków), i w tych okolicznościach najlepszą odpowiedzią na wy­magania otoczenia, wynikającą z doboru naturalnego, było powstanie świa­domości. Później nasz świat psychiczny ewoluował nadal, przystosowu­jąc się do środowiska, i dlatego musimy uwzględnić warunki w nim pa­nujące, by stworzyć jak największe szansę na przeżycie.


Warunki przetrwania inteligencji


Presja coraz bardziej nieprzyjaznego i niepewnego środowiska ostat­nich kilku milionów lat doprowadziła, w wyniku ostrej konkurencji z inny­mi drapieżnikami, do gwałtownego rozwoju ludzkiego mózgu. W tej walce należało mózg postawić przeciw mózgowi. Ludzie z bardziej złożonymi mó­zgami przystosowali się lepiej, ponieważ byli bez wątpienia bardziej elastyczni, obdarzeni lepszą pamięcią i mogli rozwijać lepsze strategie w ściganiu ofiary niż ich mniej sprytni partnerzy. Lecz teraz, w rozwiniętym świecie, nie żyje­my przecież już w jaskiniach i nie polujemy na dzikiego zwierza, chyba ze dla sportu. Technika i nauki medyczne rozwinęły się na tyle, że przejmują za pomocą inżynierii genetycznej rolę doboru naturalnego ewolucji, a nieprzy­jazne środowisko ustąpiło miejsca klimatyzowanemu życiu w komfortowych warunkach centralnie ogrzewanego luksusu, nawet podczas najbardziej suro­wej zimy, a energia elektryczna umożliwiła nam zamienić noce na dni. To wszystko razem uczyniło inne warunki życia dla homo sapiens niż mieli jego wcześniejsi krewni.

Obecnie wiążemy nasz los z losem innych ludzi i tworzymy coraz bar­dziej uzależnione od siebie społeczeństwo. Musimy więc starać się dojrzeć w naukowym rozumieniu źródło wiedzy na temat naszego sposobu życia. W ten sposób dotarliśmy do ostatniego rozdziału.

12. Następstwa


Co to wszystko oznacza?


Rozpocząłem tę książkę pytaniem będącym tytułem tego podrozdziału oraz innych w rodzaju kim jestem?, czy istnieje życic po śmierci? i podobnych o osobistym charakterze. Wykazałem wtedy, że najlepsza droga do odpowiedzi na te pytania wiedzie przez naukę, doprowadzając jednakże do trudnych czy wręcz niemożliwych do rozwiązania kwestii: W jaki sposób można by wyjaśnić świadomość? Jak powstał wszechświat? Dlaczego właśnie ta konkretna JPT? Dlaczego raczej istnieje coś zamiast raczej niczego?

Częściowej odpowiedzi na pierwsze z nich udzieliła relacyjna teoria umysłu. Relacjami były porównania czynione pomiędzy przechowywanymi w pamięci wspomnieniami a bieżącymi doznaniami za pomocą specjalnej sieci komórek usytuowanych pomiędzy ośrodkami zmysłowymi mózgu a korą. Rozum jawi się wtedy jako wynik czynności całkowicie materialnego mózgu. Stanowi to materialistyczną teorię rozumu, która jednakże w żadnym przypadku nie umniejsza znaczenia świadomości i poczucia tożsamości, będąc dla posiadacza wielką korzyścią.

Na drugie i trzecie pytanie odpowiedziano konkludując, że pod względem naukowym najskuteczniejszym i najbardziej realistycznym modelem rzeczy­wistości jest nieskończony, regresywny zbiór coraz dokładniejszych teorii na­ukowych. Z tego powodu nie powinniśmy się spodziewać żadnej JTP ani osta­tecznej odpowiedzi na pytanie, w jaki sposób narodził się wszechświat. Nie można również odpowiedzieć na ostatnie z tych pytań, ponieważ jakiekolwiek wyjaśnienie, podane na podstawie pewnej obowiązującej na tym poziomie teo­rii naukowej, stanie się wkrótce po odkryciu nowej teorii niewystarczające.

Wydaje się, że nie można podać innego uzasadnienia dla pojawienia się form życia, jak tylko takie, że narodziły się, ponieważ powstały ku temu sprzyjające warunki. Dopóki rozpatrujemy wszechświat i prawa w nim rzą­dzące, dopóty nie dostrzegamy żadnej różnicy pomiędzy życiem a mate­rią nieożywioną. Człowiek ma unikalną moc wynikającą z poczucia toż­samości, powstałego w wyniku procesów ewolucyjnych. Nie istnieje we wszechświecie nic, co nie miałoby fizycznego charakteru, mimo wystę­powania tak zdecydowanie nietrywialnego mechanizmu, jakim jest umysł Odrzuciwszy tym samym rozum jako narzędzie prowadzące do Boga, czy do jakiejś innej istoty, od której spodziewalibyśmy się otrzymać wyja­śnienie istoty życia, doszliśmy do przekonania, że prawdziwa natura rze­czywistości, przez którą rozumiem rzeczywistość fizyczną, nigdy nie zo­stanie całkowicie poznana.

W każdym razie, ludzkie pragnienia, cele i uczucia są postrzegane w tych ramach jako nie powiązane z nieskończonym łańcuchem teorii naukowych, Będą zawsze skłaniać nas do uporczywej pogoni za prawdami pozwalają­cymi lepiej zrozumieć wszechświat, ludzkie cechy zaś można badać jedy­nie w obszarach rozwijającej się nauki, zajmującej się świadomością i emocjami.


Życie pozbawione znaczenia


Można by utrzymywać, że któraś z udzielonych przeze mnie odpo­wiedzi jest błędna. W szczególności relacyjna teoria rozumu nie została jeszcze naukowo udowodniona i trzeba ogromnych nakładów pra­cy, by wykazać jej prawdziwość. Pomimo to, jestem pewien, że będzie ona lub teoria bardzo do niej podobna udowodniona w najbliższych dzie­sięcioleciach. Centrum naukowego zainteresowania przesunęło się obec­nie w kierunku świadomości. Stopień zainteresowania wieloma konferen­cjami naukowymi tylko w jednym roku wskazuje, że nadszedł czas na wielkie postępy w tej dziedzinie badań. Nadal twierdzę, że teoria relacyj­na oraz teoria świadomego ja, które tutaj przedstawiłem, maj ą dobre opar­cie w neurobiologii oraz prowadzą do nowego spojrzenia na świadomość i emocje. Mogą nawet doprowadzić do zrozumienia świadomości zwie­rząt-kotów, psów, koni itp.-w sposób poprzednio niemożliwy, jak rów­nież pomóc ludziom z zaburzeniami psychicznymi. W każdym razie są teoriami naukowymi, które można w najbliższej przyszłości zweryfikować i ulepszyć (lub odrzucić) na drodze doświadczalnej.

Obraz nauki jako nieskończonego szeregu teorii jest tylko sformalizowa­nym wyrazem trendów już dostrzeganych we współczesnej nauce i stają się one alternatywą (bardziej prawdopodobną) dla JTP. Nie wyklucza ona zasa­dy przyczynowości głoszącej, że nie ma skutku bez przyczyny która nadal święci triumfy, stając się na przyszłość jednym z dobrze potwierdzonych w rze­czywistości praw. Istnieją zatem przekonujące argumenty za czymś, co moż­na by nazwać materialistycznym, nieskończenie regresywnym obrazem wszechświata, który tutaj przedstawiłem.

Musimy teraz podjąć następujące wyzwanie: w jaki sposób mamy żyć, jeśli we wszechświecie nie znajdzie się żadnego głębszego znaczenia? Jest to wyzwanie, przed którym stoi każdy z nas, gdy dogłębnie przetrawi | przemyśli fakty oraz teorie odnoszące się do obrazu wszechświata, który rozwinąłem w tej książce. Jednak do jednego z faktów muszę się ustosun­kować.

Chłód, który kryje się w takim obrazie wszechświata i człowieczeństwa, staje się dla wielu ludzi przekleństwem. Twierdzą oni, że musi istnieć w życiu jakiś cel, więc często odwracają się od nauki i zanurzają się w wierze religijnej. Pomimo to w następnych dziesięcioleciach będziemy świadkami coraz bardziej rozległego wkraczania nauki na obszary wiary. Urządzenia techniczne uczyniły nasze życie łatwiejszym. Będzie ich coraz więcej i będą miały coraz więcej możliwości. Jednym z takim przykładów może być fonetyczna maszyna do pisania, tworząca litery bezpośrednio na podstawie wypowiadanych słów, która jest już dostępna w specjalnych wersjach na rynku i wejdzie prawdopodobnie do masowej produkcji jako komputer lub walk­man. Nastąpi rozwój urządzeń mających już odrobinę świadomości (wstęp­nie zwanych komputerami obdarzonymi uwagą attentional computers), a później takich, które mają świadomość i uczucia, co w końcu uczyni pozycje religii nie do utrzymania. Już teraz kilka grup badawczych pracuje nad maszynami wykazującymi pewne ograniczone właściwości tego rodzaju. W miarę postępów w rozumieniu będzie następował odwrót od religii. Świadomość i umysł będą w końcu powszechnie akceptowane jako przejaw materialnego świata na podobieństwo atomu czy gwiazd na niebie. Jednak zanim zostanie Osiągnięty taki poziom wiedzy, to prawdopodobnie miną tysiące lat, chociaż przy obecnym tempie rozwoju badań naukowych mózgu przyjąłbym, że zaj­mie to zaledwie kilkadziesiąt lat. Stanowi to jednakże drobny ułamek czasu, jaki ludzkość i tak ma przed sobą na Ziemi, zanim Słońce po miliardach lat wybuchnie jako supernowa. W jaki sposób ludzkość upora się w tym czasie z życiem pozbawionym jakiegokolwiek głębszego znaczenia?


Problemy społeczne


Rozważmy następujące przypadki:


W dniu 15 lipca 1992 roku młoda matka spacerująca z dwulet­nim dzieckiem po pięknej dzielnicy Wimbledon Common w południowo-zachodnim Londynie była napastowana seksualnie, a później brutalnie zamordowana przez podcięcie gardła. Mor­derca matki pobił po głowie również dziecko, które ubrudzone błotem i krwią znaleziono wtulone w ciało matki.


W dniu 16 lipca 1992 roku setki młodych ludzi obrzuciło kamie­niami policję, spaliło i splądrowało sklepy w dzielnicy mieszka­niowej Bristolu po tym, jak dwaj młodzieńcy ukradli motocykl policyjny, którym wjechali na stojący radiowóz, w wyniku cze­go zostali zastrzeleni. Jak donosił „The Times": Wśród tłumu były rozkoszujące się walką kobiety z dziećmi w wózkach oraz zupełnie małe berbecie. W jakimś miejscu splądrowano sklep z łakociami. Świadkowie zajść twierdzą, że wśród sprawców znajdowały się dzieci w wieku czterech czy pięciu lat. Rodzice nie uczynili nic, by ich dzieci pozostały w domach i pozwolili im patrzeć na gwałtowne starcia z tłumem policji patrolującej dzielnicę.


W kwietniu 1991 roku w Los Angeles doszło do zamieszek, w których uczestniczyło tysiące ludzi powodując strzelaninę, w której padło wiele ofiar. W ciągu tygodnia spalono wiele do­mów i sklepów, w wyniku czego wezwano Gwardię Narodową i ogłoszono godzinę policyjną. Były to najgorsze zamieszki w USA od czasów wojny domowej w ubiegłym stuleciu.


To zaledwie trzy przykłady braku człowieczeństwa u ludzi z tak zwane­go cywilizowanego świata Zachodu. Pierwsze dwa można by zwielokrotnić. Śmierć i nieszczęście towarzyszące wojnom, w szczególności rzeź obu wo­jen światowych, jak również inne liczne pomniejsze konflikty uczyniły z te­go stulecia jedno z najkrwawszych i najbrutalniejszych. A przecież masakry i cierpienia towarzyszyły ludzkości przez wieki. Gwałtowna śmierć w wyni­ku spalenia żywcem, ukrzyżowania czy spalenia na stosie była czymś po­wszechnym. W przeszłości życie ludzkie było mniej warte, ale przecież mie­liśmy do czynienia z masą bólu i cierpienia.

Wydaje się więc, że niezależnie od rodzaju przewodnictwo duchowe, do­stępne w przeszłości było raczej w pewnych obszarach życia zupełnie niesku­teczne. Religia, poczytywana zawsze jako ostoja moralności, nie ustrzegła lu­dzi od gwałtów dokonywanych pod jej płaszczykiem. Inkwizycja oraz święte wojny przypominają o minionych, inspirowanych przekonaniami religijnymi, nikczemnościach; fatwa islamu i sprawiedliwa wojna z błogosławieństwem biskupów to zjawiska, z którymi mamy do czynienia dzisiaj.

Z drugiej strony, nie da się przecenić roli i znaczenia religii dla ludzi po­grążonych w rozpaczy. Przykłady te wskazują wyraźnie, że mimo wszystko w ludziach tkwi jakaś głęboka potrzeba życia godziwego i powiedzmy prze­strzegania dziesięciorga przykazań. Lecz dlaczego wybierają taki sposób ży­cia, jeśli w końcu musi być ono akceptowane takie, jakie jest, bez żadnego głębszego sensu? Dlaczego ktoś nie miałby szukać w życiu tylko przyjemno­ści, nie troszcząc się o konsekwencje, jakie to może przynieść innym? Jeżeli ten ktoś nie mógłby osiągnąć swych celów na drodze pokojowej, dlaczego nie miałby się uciec do użycia przemocy? Faktycznie, wydaje się, że wspó­łczesna mentalność społeczna oczekuje od państwa wypełnienia obowiąz­ków w postaci dostarczenia dóbr materialnych umożliwiających prowadzenie życia na odpowiednim poziomie i jeśli tego nie czyni, jest obwiniane. Dlate­go też plądrowanie i grabież dóbr innych ludzi są poczytywane przez niektó­rych jako częściowo usprawiedliwione, czego przykładem mogą być zamieszki w Bristolu i Los Angeles. Zamordowana matka w Wimbledon Common sta­ła się ofiarą niepohamowanych emocji i braku zdolności społeczeństwa do rozwiązywania problemów ludzi nieprzystosowanych, opanowywanych wy­buchami morderczych emocji.

Nic, co dotąd napisałem, nie wyjaśnia sposobu, w jaki można by przezwy­ciężyć aspołeczne zachowania opisane powyżej. Nie tłumaczy też coraz bardziej hedonistycznego podejścia do życia, w którym każdy poszukuje tylko swojego własnego zadowolenia, nie troszcząc się o innych. Jeżeli nie żyje się w komplet­nej izolacji od społeczeństwa, to zaspokajając samemu własne potrzeby, należy współdziałać z innymi ludźmi. W tych wzajemnych zależnościach można wiele zyskać (lub stracić) w zależności od sposobu postępowania. Jeżeli dany osobnik obnosi się ze swoim chamstwem i egoizmem (lub nawet jest zdolny do gwałtu i morderstwa jedynie po to, by zaspokoić swoje gwałtowne instynkty), wtedy nie spotka się z życzliwym przyjęciem ze strony innych ani nie uzyska pomocy, tak niejednokrotnie potrzebnej w dzisiejszym nowoczesnym świecie. Jego życie bę­dzie obarczone coraz większymi trudnościami. Być może dostrzeże strategię, która umożliwi mu uniknięcie pułapki zwalającej się na niego góry problemów, wyni­kających tylko z jego egoistycznego postępowania. Jest ktoś, kto w ciągu ostat­nich dziesięcioleci zainwestował w precyzję naukową i doszedł do zaskakują­cych rezultatów.


Fajni faceci przychodzą pierwsi


Mówi się zwykle: fajni faceci przychodzą ostatni. Jednakże stosunko­wo niedawno stwierdzono, że w społeczeństwie składającym się z lu­dzi, którzy potrafią współżyć ze sobą zarówno na płaszczyźnie wzajemnego zrozumienia, jak i nietolerancji, czyli właśnie ci najfajniejsi, przychodzą raczej jako pierwsi. Tę zaskakującą cechę zauważono przy rozgrywaniu zabawy, zwa­nej dylematem więźnia, w której uczestniczą dwie osoby i każda z nich ma do dyspozycji dwie karty czy wybory-jedna nazywa się współpraca, a druga brak. Każdy z graczy kładzie przed sobą na stole jedną z tych kart. Wtedy sieje od­krywa. Bankier (ktoś trzeci) wypłaca nagrodę, powiedzmy 300 funtów, każde­mu z graczy, jeśli obydwaj wyłożyli karty współpraca, ale każdy z nich płaci karę w wysokości 10 funtów, jeżeli zagrali kartą brak. Jednocześnie, jeśli jeden współpracuje, a drugi nie przejawia takiej chęci, to ten ostatni dostaje 500 fun­tów, a pierwszy musi płacić 100 funtów. Odpowiada to rzeczywistej sytuacji przestępców, którzy mogą zostać wynagrodzeni krótszym wyrokiem za: wyła­manie się ze zmowy, zostanie świadkiem koronnym, a ukarani dłuższym za: wiarę w swojego wspólnika i przejawianie chęci współpracy z partnerem po­pełniającym czyn karalny.

Właściwa strategia gry jest oczywista. Załóżmy, że gramy oboje. Jeśli zagrasz kartą braku, to ja muszę zrobić tak samo, żeby zminimalizować moje straty (które wyniosą teraz 10 funtów, zamiast 100 funtów, które bym przegrał, gdybym zagrał kartą współpracy). Jeżeli zagrasz kartą współ­pracy, to zyskam 500 funtów, jeżeli zagram brakiem, a tylko 300 funtów, jeżeli zgodzę się na współpracę. W obydwu przypadkach powinienem od­mówić współpracy. Dwóch logicznie myślących graczy, a zakładam, że takimi jesteśmy, przegrywałoby w każdej kolejce po 10 funtów. Pozosta­je dylemat, z którego jasno widać, że jeślibyśmy zgodzili się na współ­pracę, to zarobilibyśmy za każdym razem po 300 funtów. Ponieważ nie ma mowy o zaufaniu pomiędzy graczami, to obydwaj muszą się zdecydo­wać na niewielkie straty.

Rozważmy teraz przypadek rozgrywania takiej gry raz po razie. Jeżeli za każdym razem odrzucam współpracę, a ty jesteś na tyle głupi lub tak samo­bójczo altruistyczny, że w każdej grze proponujesz współpracę, to ja wygra­łbym w dziesięciu grach 5000 funtów, podczas gdy ty straciłbyś 1000 fun­tów. Lecz na twoim miejscu chyba nie wytrzymałby nawet święty albo szale­niec próbujący współpracować z tak źle postępującym partnerem jak ja. Jako alternatywa pozostaje współpraca, dzięki której w czasie dziesięciu kolejek obydwaj zarabiamy po 3000 funtów (nie wspominając o olbrzymich stratach bankiera).

Wydaje się, że istnieją liczne gatunki stworzeń wykorzystujące tego rodzaju strategię, dzięki której dochodzą do wzajemnego współdziałania. Na przykład, około pięćdziesięciu gatunków małych rybek i krewetek spędza swój żywot na zbieraniu pasożytów z łusek większych ryb. Te ostatnie mają korzyść w postaci czystej skóry, a czyściciele mają tym sposobem pokarm, który stanowią same pasożyty. Duża ryba mogłaby pożreć mniejszą, gdy została oczyszczona, jednak­że takie rzeczy nie zdarzają się. Jest to godne uwagi, tym bardziej że czasami duża ryba nawet otwiera paszczę, zezwalając łaskawie na wyczyszczenie sobie zębów. Wydaje się rozsądne przyjąć, że tego rodzaju altruistyczne zachowania stanowiły przewagę w procesach ewolucji.

Przetestowano różne sposoby postępowania, a w szczególności zbadano możliwość istnienia skuteczniejszej strategii od prostej odmowy współpracy, pozwalającej lepiej dopasować swoją reakcję do dotychczasowej gry innych. W tym celu symulowano w komputerze grę wielu par graczy, stosujących róż­ne strategie. Ustalono, że jeżeli wynik jest uzależniony od przeciętnej osiągnię­tej w całej serii potyczek, to najlepszą prowadzącą do zwycięstwa metodą po­stępowania jest przebaczenie, ale również kierowanie się zasadą wet za wet. Polega ona na tym, że dany gracz odwzajemnia się tym samym tylko wtedy, gdy zostaje sprowokowany kartą brak, wyłożoną przez drugiego gracza. Jeżeli przeciwnik przestaje grać w tak paskudny sposób i zaczyna współpracować, wtedy gracz stosujący poprzednio zasadę wet za wet robi to samo. Okazało się, że jeżeli w grze może uczestniczyć wiele par, grających systemem każdy z każdym, a nagrodą zwycięskiej strategii nie są pieniądze, lecz potomstwo stosują­ce identyczną co rodzice strategię, to liczba graczy stosujących w końcu zasadę wet za wet zwiększa się w stosunku do innych po około tysiącu pokoleniach (przy założeniu, że początkowo było wystarczająco dużo graczy wykorzystują­cych tę strategię).

Te i podobne rezultaty zwiększyły pragnienie zrozumienia sposobu, w jaki ewolucja mogła doprowadzić do altruistycznych relacji, na przykład pomiędzy dużą rybą a rybką czyścicielem. Podobne metody wykorzystywano również w przeszłości w planowaniu strategicznym gier wojennych. Badania tego rodza­ju powinny stać się, i nie mam wątpliwości, że się staną, wielce pomocne w po­szukiwaniu wskazówek, w jaki sposób postępować wciągu całego życia, aby w dzisiejszym świecie osiągnąć jak najlepsze rezultaty.


Strategia dla życia


W społeczeństwie istnieją, bo przecież muszą, ciągłe wzajemne od­działywania pomiędzy wszystkimi jego członkami. W nowoczesnym świecie, w którym nauka i technika odgrywa coraz większą rolę stając się ban­kierem wyposażającym nas we wszelkiego rodzaju dobra, strategią wygrywa­jącą będzie postępowanie według reguł wet za wet. Oznacza to, że nie wolno uderzać pierwszemu, a raczej próbować współpracy z innymi dopóki tylko można. W pewnym sensie prowadzi to do wzorców postępowania wytyczo­nych dziesięciorgiem przykazań. W odpowiedzi na niesolidne postępowanie musi nastąpić karzący krok ze strony społeczeństwa, co objawia się działaniem prawa z jego kodeksem karnym. Przechwycenie przez kogoś prawa zniszczy­łoby subtelną strukturę nowoczesnego społeczeństwa.

Analiza rozwoju życia społecznego w koloniach oraz symulacja kompu­terowa wykazują, że na gruncie teorii ewolucji nieco trudno jest umotywo­wać reguły dziesięciorga przykazań, prawa i karania tych, którzy je naruszy­li. Twierdzi się obecnie, że społeczeństwo wyzwoliło się już spod kontroli reguł wynikających z doboru naturalnego. Nauka i technika pozwoliła nam ująć los we własne ręce, a nawet tworzyć nowe gatunki za pomocą inżynierii genetycznej. Jednakże możliwość zmiany naszej osobowości, na tyle by wy­eliminować z niej postawy agresywne, wydaje się jeszcze długo poza zasię­giem ręki. Co innego bowiem wiedzieć, jak żyć, a co innego połączyć tę wie­dzę z materiałem genetycznym, którym jesteśmy obdarzeni. Odkrycie, z któ­rego wynika, że najkorzystniejszą strategią dla każdego z nas jest postępowa­nie według reguły wet za wet, wyraźnie wskazuje, że powinniśmy próbować stosować tę strategię wszędzie tam, gdzie tylko to możliwe. Zamiast technik inżynierii genetycznej powinniśmy zatem wykorzystywać raczej właściwe metody wychowawcze, umożliwiające ludzkości razem przeżyć rozsądnie tę krótką chwilę, jaką los przeznaczył każdemu z nas.

Lecz czy punkt, do którego obecnie dotarliśmy, z mnóstwem gwałtu i prze­mocy, morderstwem młodej kobiety, plądrowaniem sklepów i ulicznymi za­ mieszkami w wielu miastach, jest już tym miejscem? Musimy jeszcze na­uczyć się, jak przekonać ludzi o konieczności wzajemnej pomocy w świecie pełnym bezprawia i szaleństwa. Wydaje się, że szkoła i dom nie spełniają swoich zadań. Zbyt wielu nastolatków jest bliskich analfabetyzmu, a więc nieprzydatnych do wykonywania żadnego zawodu; zostali wychowani na codziennej dawce telewizji i wideo, pokazujących sceny dosadnego seksu i przemocy; niewiele wskazówek moralnych uzyskali od rodziców oraz nie­wiele nauczyli się od nauczycieli. Nic więc dziwnego, że w dzisiejszym spo­łeczeństwie spotykamy się z taką masą przemocy i okrucieństwa. Nauka roz­wijając się nie pozostaje również bez winy, jako że nowe technologie, w ro­dzaju automatyzacji, doprowadziły do wzrostu bezrobocia.

Wyraźnie widać, że jest konieczna znaczna poprawa metod wychowaw­czych. Należy rozpowszechnić wzorce etyczne i dokładniej określić, co moż­na pokazywać w telewizji. Trudno jednak będzie je wprowadzić w życie. Wychowanie pozostanie zawsze główną siłą oddziałującą na korzyść do­bra. Obecne metody wychowawcze można oskarżać o to, że kładą zbyt duży nacisk na rozwój intelektualny, a pomijają życie emocjonalne ucznia. Nie­poślednie miejsce powinno zająć w szkole wychowanie rozwijające rów­nież życie duchowe. Nie można tego zostawić przypadkowi, ponieważ koń­czy się to na seksie, kłamstwach i kasetach wideo. Pominięcie emocji cofa nas do poglądów obowiązujących w starożytnej Grecji, gdzie były uważa­ne za coś nieczystego i sięgającego niższej strony natury ludzkiej. A prze­cież uczucia przydają barwy całemu naszemu życiu i nie można ich pomi­jać w tak koślawy sposób. W miarę coraz lepszego rozumienia emocji, ludz­kość w ciągu następnych stuleci, w ramach rozwoju wiedzy o świadomo­ści, odkryje z pewnością metody obejmujące doznania duchowe, co już zo­stało zapoczątkowane choćby w technikach wykorzystywanych w teatrze Stanisławskiego.

Konstanty Stanisławski był właścicielem i dyrektorem teatru, a w 1898 roku założył Moskiewski Teatr Artystyczny. Rozwinął nowe podejście do aktorstwa oparte na realizmie i całkowitej identyfikacji aktora z bohaterem. Koncepcja ta, przetransponowana później na wiele różnych technik, pozwala aktorowi wzmocnić i wykorzystać swoje doświadczenia emocjonalne, co czyni jego rolę bardziej wyrazistą. Jedna z nich, zwana pamięcią emocjonalną, wymaga od aktora, by odtworzył z pamięci nawet sposób poruszania się w konkretnych sytuacjach. Wspomnienia były wtedy odtwarzane przed nauczy­cielem oraz przed wyimaginowanymi partnerami czy przeciwnikami, których miejsce zajmowali ludzie zgromadzeni w studiu. Następnie zadawano pyta­nia mające na celu dotarcie do szczegółów. Sam aktor musiał również pracować indywidualnie, aby jego gra jak najdokładniej odpowiadała jego wspo­mnieniom. W ten sposób źródło, z którego wywodziła się gra aktorska, sta­wało się bardziej płodne twórczo i łatwiejsze do wykorzystania. Później z ta­kich improwizowanych kawałków układano sceny składające się na całą sztu­kę. W obrębie innych technik wykorzystywano i rozwijano praktykę uciele­śniania oraz operowania wyimaginowanymi obiektami. Jeżeli odkryje się tech­niki podobne do tych, które są wykorzystywane w różnych eksperymentach teatralnych, w rodzaju pamięci emocjonalnej czy improwizacji, oraz skoja­rzy sieje z najnowszą wiedzą z dziedziny psychologii i neurologii, to wyko­rzystawszy to w szkołach, a w szczególności w szkołach średnich, możemy oczekiwać, że będzie można uniknąć frustracji wieku dojrzałego oraz znacz­nie zmniejszyć rozmiary późniejszych szaleństw (w rodzaju morderstwa w Wimbledonie). Oczywiście, musiałoby to zostać przeprowadzone z wielką ostrożnością, by młodzi ludzie nie poczuli się przygnieceni problemami swo­jej duszy i nie próbowali w sytuacjach skrajnych szukać ucieczki w samobój­stwie lub całkowitej apatii. Można również rozważać wprowadzenie do pro­gramu lekcji gier podobnych do dylematu więźnia. Uczniowie mogą na pod­stawie tych zabaw poznać elementy teorii gier oraz przekonać się, że istnieją inne bardziej efektywne strategie sterowania swym życiem, niż tylko ciągła odmowa współpracy. Może wtedy z wolna, po dziesięcioleciach czy nawet po stuleciach, ludzkość stanie się bardziej ludzka. W wyniku tego procesu będzie można radość życia czerpać z głębszych związków z innymi członka­mi społeczeństwa oraz z działalności twórczej, przy czym w obydwu obsza­rach działalności będzie można wykorzystywać talenty duchowe i intelektu­alne ukształtowane odpowiednim wychowaniem. Życie wzbogaci się o współpracę, na której się opiera.

Ludzie przyszłości w pełni przygotowani do życia emocjonalnego i du­chowego, mający do swojej dyspozycji cały potencjał nauki i techniki, zdol­ny zaspokoić wszystkie potrzeby życiowe niewielkim nakładem pracy, byli utopią, którą mamili wizjonerzy wszystkich czasów, lecz do której, jak do­tychczas, jeszcze się nie zbliżyliśmy. Nauka jest postrzegana jako nieposkro­miony żywioł trudny do opanowania, lecz dzieje się tak być może dlatego, że sposób naszego myślenia jest ograniczony pewnymi doktrynami. Mam jed­nakże nadzieję, że w miarę pozbywania się doktrynalnych poglądów oraz w miarę rozwoju nauki ludzkość z wolna dojrzeje do odrzucenia psychiczne­go kaftanu bezpieczeństwa i z coraz większą swobodą oraz z coraz skutecz­niejszym wykorzystaniem rozumu wyruszy na poszukiwanie sensu swojego istnienia. Ten stan będzie tym szybciej zrealizowany, im lepiej będziemy na­uczać rozumienia i kontroli niższych aspektów życia.

Ciągle jednak jeszcze nic wiemy, w jaki sposób moglibyśmy nadać sens naszemu życiu. W świetle tego, co dotychczas napisałem w tej książce, moja odpowiedź brzmi następująco.

Poprzez takie wychowanie młodzieży, że zostaną rozwinięte zarówno zdolności intelektualne jak i duchowe, można doprowadzić do powstania spo­łeczeństwa, którego członkowie będą zdawać sobie sprawę z tego, co i dla­czego robią. „Co" odpowiada w tym przypadku aspektowi intelektualnemu, podczas gdy ,,dlaczego" daje pewnego rodzaju poczucie bezpieczeństwa. Ponadto można u młodych ludzi rozwijać w ten sposób upodobania i gusty, by nie cieszyły ich żadne akty o wyraźnie aspołecznym charakterze. Postrze­gać będą siebie samych i będą postrzegani przez innych zawsze przez pry­zmat umiejętności sterowania swoim losem, którego ścieżki tak dobrali, by spełniły ich potrzeby duchowe. Staną się przez to bardziej świadomi oraz zdolni do wzbogacenia swojego życia. Być może pozostaną przy wierzeniach religijnych nie potrafiąc pogodzić się z obrazem życia oferowanym przez naukę, a pozbawionym całkowicie głębszego sensu. Ta dodatkowa możli­wość będzie dla nich zawsze dostępna. Jestem przekonany, że każda istota ludzka może spędzić podarowane sobie życie, zaspokajając wszystkie swoje wewnętrzne potrzeby i dążenia zarówno odziedziczone, jak i nabyte, w taki sposób, który jednocześnie umożliwi innym członkom społeczeństwa osią­gnięcie tego samego zadowolenia. Sądzę, że strach przed totalnym samobój­stwem ludzkości, który czasem uświadamia nam oczywistą bezwartościowość życia (o czym wspomniałem wcześniej), wynika z nieporozumienia. Z samo­bójstwem mamy do czynienia wtedy, gdy dany osobnik nie może sobie pora­dzić z dręczącymi go problemami. Poprzez wychowanie i dostarczenie wła­ściwych wytycznych na całe życie oraz z uzyskaną świadomością o sobie samym, można osiągnąć taki stan psychiczny, że reakcje tego typu i takie zakończenie drogi staną się dużo mniej prawdopodobne. Aby uwydatnić swoje człowieczeństwo, kobieta i mężczyzna muszą się wzajemnie lepiej rozumieć na głębszych poziomach życia intelektualnego i duchowego. Każdy musi wznieść się na wyżyny swojej świadomości oraz pojąć świadomość innych ludzi. Widzę, że jedyna droga do lepszej przyszłości dla ludzkości wiedzie przez naukę i wykorzystanie jej osiągnięć. Sens egzystencji stanie się wów­czas oczywisty — życie należy przeżyć w pełni, zarówno we wnętrzu siebie samego jak i we współpracy z innymi.



Wyszukiwarka

Podobne podstrony:
Kiedy zaczą się czas ksiega piąta kronik ziemi Z Sitchin
17 Zaczął się czas odliczania
Zaczął się proces biskupa Piotra J
KIEDY RĄCZKI SIĘ SPOTKAŁY, logopedia, Wierszyki
Kiedy Zaciera Się Granica Między Nebem a Piekłem
50 Kiedy pojawiła się nauka o duszy według Towarzystwa Strażnica
Kiedy kończy się życie
Kiedy Zaciera Się Granica Między Nebem a Piekłem(
Kiedy Zaciera Się Granica Między Nebem a Piekłem
Kiedy Zaciera Się Granica Między Nebem a Piekłem
Kiedy Zaciera Się Granica Między Nebem a Piekłem
Kiedy rozpoczęły się dni ostatnie, Światkowie Jehowy, Nauka
Kiedy Zaciera Się Granica Między Nebem a Piekłem
Kiedy Zaciera Się Granica Między Nebem a Piekłem'
Kiedy Zaciera Się Granica Między Nebem a Piekłem
Kiedy śmieje się dziecko - śmieje się cały świat!, Gazetka dla rodziców Przedszkolak
Prawo rodzic˘w do dodatkowego urlopu macierzyäskiego i urlopu ojcowskiego-, Kiedy wystawia się noty
Kiedy dziecko się urodzi, Dla dzieci, życzonka na każdą okazję

więcej podobnych podstron