Amir D. Aczel
Prawdopodobieństwo = 1
Dlaczego we wszechświecie musi istnieć inteligentne życie
Przekład:
Jacek Bieroń
1
Dla Debry
2
Wstęp
Wieczorem 26 lutego 1998 roku stałem z grupą astronomów na plaży na
wyspie Aruba. Wcześniej tego samego dnia, między 14.11 a 14.14,
obserwowaliśmy całkowite zaćmienie Słońca i nadal byliśmy niezwykle
podnieceni tym budzącym strach i podziw zjawiskiem. Patrząc przez
teleskop na gwiazdy, galaktyki i mgławicę, którą pozostawiła po sobie
gigantyczna supernowa zaobserwowana tysiąc lat temu przez Chińczyków,
z ożywieniem omawialiśmy różne tajemnicze obiekty nocnego nieba. W
pewnej chwili podeszła do teleskopu para zaciekawionych plażowiczów i
poprosiła Dary la, żeby pozwolił im spojrzeć na gwiazdy. Daryl zapytał,
czy woleliby zobaczyć układ podwójny, mgławicę czy może piękną
gromadę pięćdziesięciu błyszczących czerwonych i niebieskich gwiazd
zwaną Jewel Box
. „Nie, nie – usłyszał w odpowiedzi. – Czy mógłby nam
pan pokazać jakieś planety... na których istnieje życie?”
Wydaje się, że u progu trzeciego tysiąclecia ludzkość odczuwa
niezwykle silną potrzebę poszukiwania życia poza Ziemią. Naiwna chęć
zobaczenia przez teleskop zamieszkanych planet ilustruje jedynie to, o
czym mówi się w radiu i telewizji, gazetach i pismach naukowych, nie
wspominając już o doniesieniach NASA na temat odkryć sondy „Galileo”,
która znalazła dowody wskazujące, że pod lodową pokrywą Europy,
księżyca Jowisza, być może znajduje się woda. Czy to możliwe, że w
końcu jesteśmy bliscy odkrycia życia pozaziemskiego? Wszystkie te
spekulacje były dla mnie fascynującym tematem. Skończyłem wtedy
rękopis książki o szansach istnienia życia na jakiejś odległej planecie
obiegającej niezbyt różniącą się od naszego Słońca gwiazdę. Będąc wciąż
pod wrażeniem zniknięcia Słońca i jego niemal magicznego pojawienia się
w chwilę później po drugiej stronie Księżyca, stojąc na plaży i obserwując
usiane gwiazdami zimowe niebo, wspominałem, jak to wszystko się
zaczęło.
Tuż przed Labor Day
w 1997 zadzwoniłem do Jane Isay, redaktora w
1
Dosłownie: szkatułka na klejnoty (przypisy oznaczone asteryskiem pochodzą od tłumacza).
2
Amerykańskie święto pracy, obchodzone w pierwszy poniedziałek września; weekend zwyczajowo
związany z letnimi wyjazdami w teren.
3
wydawnictwie Harcourt Brace w Nowym Jorku, aby zapytać, czy będą
zainteresowani wydaniem mojej następnej książki. Miałem mnóstwo
pomysłów, lecz Jane żaden z nich nie przypadł do gustu. Omawialiśmy
wiele tematów, zahaczając o matematykę i teorię prawdopodobieństwa, aż
w końcu Jane zapytała: „Czy nie chciałbyś napisać książki o
prawdopodobieństwie istnienia życia w kosmosie?”, a następnie zaczęła mi
wyjaśniać, że Carl Sagan zawsze chciał napisać taką książkę, lecz z
jakiegoś powodu nigdy się do tego nie zabrał. Pamiętam, że uznałem to za
„ambitne przedsięwzięcie”, na co Jane powiedziała: „Spróbuj”. Pomysł
mnie zaintrygował.
Przez długi czas, zbierając materiały do tej książki, byłem jednak
nastawiony sceptycznie. Statystycy z natury są sceptyczni – chcąc coś
udowodnić, muszą odrzucić pewną „hipotezę zerową”, gdy dowody
przeciw niej są dostatecznie silne. Zamiast wierzyć, statystycy uczą się nie
wierzyć niczemu. Starają się obalić jakieś stwierdzenie, aby udowodnić
jego przeciwieństwo. Ale życie w kosmosie? – to nie byle co. Podchodząc
do tego zagadnienia z punktu widzenia statystyka, musiałbym obalić
twierdzenie, że życie nie może istnieć poza Ziemią. To nie wydawało się
łatwym zadaniem, a gdy rozważałem wszystkie wchodzące w grę dziedziny
wiedzy – chemię, genetykę, biologię, geologię, fizykę, astronomię –
stawało się jeszcze trudniejsze.
I wtedy, niemal w ostatniej chwili, zwróciłem uwagę na dziedzinę, którą
znam najlepiej: teorię prawdopodobieństwa. Idea prawdopodobieństwa nie
stanowi bynajmniej koncepcji intuicyjnej. Ludziom często się wydaje, że
znają odpowiedź, a tymczasem matematyka dowodzi, że prawda leży gdzie
indziej. Matematyka, która jest kluczem do teorii prawdopodobieństwa,
zawsze wygrywa, niekiedy wbrew naszej intuicji. A matematyka i teoria
prawdopodobieństwa wyraźnie wskazują w jednym kierunku:
prawdopodobieństwo istnienia życia w kosmosie wynosi jeden, tak jak
sądził Carl Sagan. Niniejsza książka poprowadzi nas w podróż po
odkryciach, które doprowadziły mnie do tego wniosku.
Wiele osób pomogło mi w zbieraniu materiałów. Ponieważ nie mogę
wymienić wszystkich, wspomnę tylko te, którym zawdzięczam najwięcej.
Dziękuję wydawcy, Jane Isay, za pomysł, zachętę, przyjazne poparcie i
zaufanie, które pokładała we mnie przez cały ten trudny okres. Dziękuję
Lorie Stoopack z Harcourt Brace za redakcję i pomoc przy rękopisie.
Dziękuję Jennifer Mueller, Jennifer Holiday, Dori Weintraub, Dave'owi
4
Nelsonowi i Mariannie Lee z Harcourt Brace. Dziękuję Michelowi
Mayorowi z obserwatorium w Genewie, wielkiemu astronomowi i
wspaniałemu człowiekowi, za jego bezinteresowną pomoc i intrygujące
rozmowy. Dziękuję Philipowi Morriso-nowi z MIT i Frankowi Drake'owi z
University of California w Santa Cruz, pomysłodawcy projektu SETI, za
pouczające wywiady. Za komentarze i wskazówki dziękuję Robertowi
Naeye'owi, współwy-dawcy czasopisma „Astronomy” – gorąco je polecam
każdemu, kto jest zainteresowany tym tematem. Na koniec dziękuję mojej
żonie, Debrze, za sugestie dotyczące rękopisu.
5
Rozdział 1
PARADOKS FERMIEGO I RÓWNANIE DRAKE'A
Są nieskończone światy, podobne i niepodobne do naszego świata.
Atomy bowiem, których liczba jest nieskończona, zrodzone są w odległej
przestrzeni. Nie zostały one zużyte ani na jeden świat, ani na skończoną
liczbę światów, ani na wszystkie podobne światy, ani nawet na te, które są
niepodobne do tamtych. Nie ma zatem przeszkód, aby liczba światów była
nieskończona. Musimy uznać, że we wszystkich światach istnieją istoty
żywe, rośliny i inne rzeczy, które widzimy w tym świecie.
Słowa te napisał Epikur (341-270 p.n.e.) dwa tysiące trzysta lat temu.
Jego poglądy na kwestię życia pozaziemskiego opierały się na ideach
Demokryta i Leukipposa, którzy żyli dwieście lat przed nim. Epikur
sformułował te przemyślenia w „Liście do Herodota”
Dla starożytnych Greków słowo „światy” nie odnosiło się do planet
krążących wokół innych gwiazd. Gwiazdy były uważane za część
niebieskiego firmamentu i wraz z nim krążyły wokół Ziemi w odległości
nie większej niż planety naszego Układu Słonecznego. „Inne światy”
uważane były za repliki Ziemi, lecz obserwując niebo, nie można było ich
zobaczyć.
Koncepcje Epikura na temat życia we wszechświecie rozwijał żyjący w
pierwszym wieku przed naszą erą rzymski poeta Lukrecjusz (ok. 99-55
p.n.e.). W poemacie O naturze wszechrzeczy napisał on:
Przeto niepodobieństwo, by w pustce tej na przestrzał
(Która nieskończonością tchnie dookoła ziemi,
Gdzie w liczbie nieskończonej ciałka drogami swemi
Biegną pędzone ruchu odwiecznem pobudzeniem)
Jeden świat był stworzony i jedno niebo nad nim [...]
3
Epicurus, „Letter to Herodotus”, w: W.J. Oates (red.), The Stoic and Epicurean Philosophers,
Random House, New York 1957.
4
Titus Lucretius Carus, O naturze wszechrzeczy, przeł. Edward Szymański, Państwowe
Wydawnictwo Naukowe, Krakowska Drukarnia Naukowa, 1957, s. 78.
6
Idee te nie były jednak powszechnie przyjęte w czasach starożytnych.
Platon (428-348 p.n.e.) w Timajosie mówi, że „powstał ten jeden świat,
jednorodzony i taki zostanie dalej”
. Arystoteles (384--322 p.n.e.), którego
poglądy wywarły największy wpływ na zachodnią kulturę i cywilizację,
wiele pisał o wyjątkowości Ziemi. To właśnie filozofia Arystotelesa –
której powszechnie nauczano na uniwersytetach i która stanowiła podstawę
doktryny religijnej dominującej w Europie aż do siedemnastego wieku –
przeszkodziła idei wielu światów we wcześniejszym zadomowieniu się w
myśli europejskiej. Arystoteles stwierdził, że Ziemia jest środkiem
wszechświata, a Słońce, doskonały jasny krąg na niebie, oraz Księżyc,
kolejny idealny krąg, krążą wokół nieruchomej Ziemi wraz ze wszystkimi
gwiazdami na firmamencie. Teoria doskonałości przestrzeni oraz centralnej
pozycji Ziemi we wszechświecie stanowiły główną przeszkodę na drodze
do uznania idei Kopernika i Galileusza, a także włoskiego filozofa
Giordana Bruna, który pod koniec szesnastego stulecia wysunął koncepcję
wielości, a nawet nieskończonej liczby światów.
Sto lat później Wolter napisał opowieść Micromegas (1752), w której
przedstawił pozaziemskie życie. Jej bohaterem jest Micromegas, wysoki na
120 000 stóp mieszkaniec planety obiegającej Syriusza. Micromegas
studiował w jezuickim college'u na swojej planecie, samodzielnie
wyprowadził wszystkie geometryczne twierdzenia Euklidesa, a następnie
wyruszył w podróż do innych światów. Wyposażony przez naturę w tysiąc
zmysłów Micromegas odwiedził między innymi Saturna i Ziemię. Życie na
Saturnie nie przypadło mu do gustu, ponieważ mieszkańcy tej planety
obdarzeni byli zaledwie siedemdziesięcioma dwoma zmysłami, co czyniło
komunikowanie się z nimi niezbyt atrakcyjnym zajęciem.
Dyskusja o możliwości istnienia życia pozaziemskiego osiągnęła szczyt
w połowie dziewiętnastego stulecia. W 1853 roku brytyjski filozof, William
Whewell opublikował anonimowo książkę zatytułowaną Ofthe Plurality of
Worlds: An Essay [O wielości światów: esej]. Kwestie poruszane w ciągu
trwającej dekadę dyskusji w znacznym stopniu przypominają
zaawansowane i szczegółowe argumenty, które obecnie wysuwa się na
poparcie twierdzenia o istnieniu życia pozaziemskiego, łącznie z
możliwością istnienia planet krążących wokół przypominających nasze
Słońce gwiazd. Odkrycie podobnych do Algola gwiazd zmiennych, a także
5
Platon, Timajos i Kritias, przeł. Władysław Witwicki, Państwowe Wydawnictwo Naukowe,
Warszawa 1960, s. 40.
7
gwiazd jaśniejszych i ciemniejszych od Słońca, doprowadziło niektórych
uczestników tej debaty do konkluzji, że być może Ziemia stanowi we
wszechświecie wyjątek i życie nie istnieje nigdzie indziej. Przekonanie to
przetrwało aż do naszego stulecia – również z tego powodu, że
astronomowie nie potrafili zaobserwować planet poza Układem
Słonecznym. Najsilniejszy argument przeciwko istnieniu życia
pozaziemskiego wysunął w połowie dwudziestego wieku jeden z
najwybitniejszych uczonych naszych czasów.
Paradoks Fermiego
W 1950 roku fizyk Enrico Fermi zadał hipotezie o istnieniu życia poza
Ziemią potężny cios prostym pytaniem: „Gdzież oni są?” Obecnie pytanie
to stanowi treść tak zwanego paradoksu Fermiego. Zgodnie z jego logiką,
gdyby istniały inne cywilizacje, to – zważywszy na fakt, że wszechświat
jest tak bardzo stary i tak ogromny – z pewnością niektóre z nich byłyby
znacznie bardziej zaawansowane niż nasza i któraś z nich już dawno
skolonizowałaby Galaktykę. Biorąc pod uwagę nasze własne
doświadczenia, obcy zdominowaliby nas i wykorzystywaliby nasze
bogactwa naturalne dla własnych potrzeb, podobnie jak przez wieki czyniły
to imperia kolonialne na Ziemi. Gdzież są ci obcy w liczącym 14
miliardów lat wszechświecie i w składającej się z 300 miliardów gwiazd
Galaktyce? Skoro ich nie widzimy, to paradoks Fermiego prowadzi nas do
konkluzji, że nie istnieją.
Argument Fermiego przekonał niektórych naukowców. Większość
astronomów zajmowała się badaniami nad fizyczną strukturą
wszechświata: jak powstają gwiazdy, jak giną, jak rozwijają się i ewoluują
galaktyki, czy istnieją oznaki, że wszechświat zawsze będzie się rozszerzał,
co sugerują obecne obserwacje odległych galaktyk. Zajmowanie się
problemem życia pozaziemskiego stało się niemodne, a nawet mogło
zaszkodzić karierze naukowej. Przeważająca większość astronomów –
zwłaszcza ci, którzy nie mieli stałej pracy lub ugruntowanej pozycji
akademickiej – nie była zainteresowana poszukiwaniem życia, ani nawet
warunków, jakie gdzie indziej we wszechświecie mogłyby sprzyjać
powstaniu życia. Istniały jednak wyjątki.
Frank Drake był młodym doktorantem astronomii na Harvard
University. W 1957 roku pracował nad swoją dysertacją, obserwując
8
gwiazdy przez teleskop w obserwatorium Oak Ridge. W owym czasie
Drake nie słyszał o paradoksie Fermiego, a niedawno zwierzył mi się, że
nawet gdyby słyszał, to nie zwróciłby nań żadnej uwagi. Frank Drake badał
Siedem Sióstr.
Wciśnięta między głowę i wielkie rogi byka, w gwiazdozbiorze Byka
leży gromada gwiazd zwanych Plejadami. Służą one jako punkt odniesienia
dla zwrotnika Raka, który przebiega w odległości jednego stopnia od nich
na północnej półkuli nieba. Liczba Plejad zmienia się od sześciu do
dziewięciu w zależności od tego, które gwiazdy się do nich zalicza, lecz
znane są one jako Siedem Sióstr. Według greckiej tradycji były to córki
Atlasa i Plejony: Alkione, Elektra, Maja, Merope, Tajgete, Keleno i
Asterope. Napastował je wielki łowca Orion, reprezentowany przez
sąsiadujący z Plejadami gwiazdozbiór, na zachód od Byka. Gdy bogowie
usłyszeli krzyki przestraszonych dziewcząt, udzielili im ochrony przed
prześladowcą, zamieniając je w gołębice i umieszczając na niebie, gdzie
opłakują stratę jednej z sióstr. Naukowcy sądzą, że jeszcze jedna jasna
gwiazda świeciła niegdyś w obszarze Plejad, lecz obecnie jest ona
niewidoczna. Plejady są młodymi gwiazdami. Powstały z dużego obłoku
pyłu i gazu, którego resztki nadal można zobaczyć przez teleskop jako
otaczającą je mgiełkę. Alkione jest najjaśniejszą z Plejad, natomiast
najsłabsza, Asterope, jest ledwo widoczna gołym okiem. Za pomocą
lornetki można zobaczyć kilka tuzinów nowych gwiazd powstających w
tym obszarze, natomiast używając teleskopu – kilkaset.
W ramach swojej pracy doktorskiej 27-letni Frank Drake badał
rozpowszechnienie wodoru w gromadzie Plejad, mając nadzieję na
poznanie procesu powstawania nowych gwiazd. „Widmo promieniowania
Plejad jest bardzo charakterystyczne – wyjaśnia Drake – z łatwymi do
rozpoznania liniami wodoru”. Na początku 1957 roku Drake obserwował
Plejady przez teleskop oraz wykonywał rozmaite obliczenia, które służą
astronomom do wyznaczenia składu chemicznego gwiazd. Starał się w ten
sposób ocenić, w jakiej części te młode gwiazdy zbudowane są z wodoru.
W ciągu kilku tygodni obserwacji niezmiennie obserwował taki sam
rozkład widma promieniowania.
Pewnej zimnej lutowej nocy na ekranie jego radioteleskopu, wśród
stałych linii promieniowania Plejad pojawił się nowy sygnał. Zaskoczony
Drake zdał sobie sprawę, że źródłem tego sygnału nie mogło być żadne
naturalne zjawisko. Czy jakaś cywilizacja obecna w gwiazdozbiorze Plejad,
9
lub jeszcze dalej poza nimi, wysyła do nas sygnał? Czy jest on pierwszym
człowiekiem w historii – otoczonym przez instrumenty samotnikiem –
który odbiera ten sygnał?
Minęło pół godziny i sygnał nadal widniał na ekranie monitora. W
pewnej chwili Drake uprzytomnił sobie, że może sprawdzić, co się stanie,
gdy zmieni kierunek anteny. Czy sygnał zniknie? Bardzo powoli przekręcił
gałkę na tablicy kontrolnej radioteleskopu i usłyszał odgłos silnika
poruszającego dysk anteny. Gdy antena odwróciła się od kierunku Siedmiu
Sióstr, sygnał nie zniknął. Drake zrozumiał, że oznacza to, iż zauważony
przez niego sygnał nie jest wiadomością od obcych. Nie był pewien, czy
powinien odczuwać rozczarowanie czy ulgę. Sygnał musiał pochodzić z
Ziemi, gdyż w przeciwnym wypadku jego natężenie zależałoby od
kierunku i powinien był zniknąć, gdy zmienił się kierunek anteny. Drake
poszedł do domu, aby się wyspać.
Gdy obudził się następnego dnia rano, zdał sobie sprawę, iż
doświadczenie poprzedniej nocy uświadomiło mu, że gdzieś w przestrzeni
może istnieć technologicznie zaawansowana cywilizacja, która nadaje
sygnały w naszym kierunku. Czy usłyszymy ich wołanie? Czy jest
możliwe, że rozumne istoty wysyłają do nas wiadomość, a my nie
słyszymy ich głosu? W miarę upływu czasu zagadnienie to stało się jego
obsesją. Z każdym dniem Drake nabierał coraz mocniejszego przekonania,
że musimy Jako cywilizacja, uczynić wszystko, co w naszej mocy, aby
nasłuchiwać sygnałów z przestrzeni. Od czego jednak powinniśmy zacząć?
Jaki jest logiczny punkt startu w tych kosmicznych poszukiwaniach? Drake
nieustannie rozważał te kwestie. Tymczasem dokończył dysertację i
uzyskał doktorat Harwardu, po czym przeniósł się do Green Bank w
Wirginii Zachodniej, gdzie nadal znajdują się duże radioteleskopy,
używane przez kilka grup astronomów.
Pewnego dnia tego samego roku młody profesor astronomii na Cornell
University słuchał muzyki kameralnej w sali koncertowej na kampusie,
lecz jego umysł błądził w przestrzeni kosmicznej. Philip Morrison kilka lat
wcześniej uzyskał doktorat na University of Cali-fornia w Berkeley – na
podstawie dysertacji z elektrodynamiki kwantowej napisanej pod
kierunkiem wielkiego amerykańskiego fizyka, Roberta Oppenheimera.
Słuchając muzyki, Morrison doszedł do tego samego wniosku co Drake:
pozaziemskie istoty mogą wysyłać do nas wiadomości, a my powinniśmy
ze wszystkich sił starać się nasłuchiwać ich sygnałów. Od czego jednak
10
powinniśmy zacząć? Morrison i Drake, zupełnie niezależnie, stwierdzili, że
należy skanować mikrofalo we pasmo widma elektromagnetycznego.
Szanse usłyszenia sygnałów od innych cywilizacji będą największe w tym
paśmie. Obaj naukowcy uważali również, że m u s i m y nasłuchiwać,
niezależnie od tego, jak bardzo mało prawdopodobne wydaje się usłyszenie
czegokolwiek. W 1959 roku Morrison napisał, razem z Giuseppe
Cocconim, artykuł na ten temat do prestiżowego brytyjskiego czasopisma
„Naturę”. Artykuł sprawiał wrażenie fantastyki naukowej, lecz ukazał się
krótko po tym, jak Rosjanie wysłali w kosmos „Sputnik” i wielka
rywalizacja supermocarstw przeniosła się z Ziemi w przestrzeń kosmiczną.
W swoim artykule Cocconi i Morrison wysunęli sugestię, że cywilizacja
zamieszkująca planetę obiegającą jakąś odległą gwiazdę mogła już dawno
dojść do wniosku, że na jednej z planet naszego Słońca mogło się rozwinąć
inteligentne życie. Taka pozaziemska cywilizacja mogłaby cierpliwie
wysyłać w naszą stronę sygnały radiowe, spodziewając się, że odpowiemy
na nie, gdy tylko nasza technologia umożliwi nam odebranie ich
wiadomości. Wybór częstotliwości, na której należy nasłuchiwać, Cocconi i
Morrison poparli bardzo sprytnym argumentem. Wodór jest najbardziej
rozpowszechnionym pierwiastkiem we wszechświecie, a wzbudzone atomy
wodoru promieniują między innymi na częstości 1420 megaherców (1420
milionów cykli na sekundę). Częstotliwość ta należy do pasma
mikrofalowego, lecz jest oddalona od najbardziej „hałaśliwej” części
widma mikrofalowego promieniowania tła. Autorzy argumentowali, że jest
bardzo prawdopodobne, iż inteligentna cywilizacja użyje właśnie tej
częstotliwości.
Green Bank jest odosobnionym kanionem w odludnym rejonie pasma
Alleghenów. Stacje nadawcze radia i telewizji są w tym obszarze nieliczne
i oddalone od siebie, a więc zakłócenia z ich strony są mniejsze niż gdzie
indziej. Nawet auta są tu nieliczne, a więc zakłócenia ze strony
indukowanych przez świece zapłonowe fal elektromagnetycznych są
słabsze. Wkrótce po przybyciu do Green Bank Frank Drake przekonał
dyrektora ośrodka, żeby przydzielił mu czas obserwacyjny w celu
poszukiwania pozaziemskich sygnałów.
W 1958 roku Drake rozpoczął obserwacje w ramach projektu OZMA,
nazwanego tak na cześć władczyni czarodziejskiej krainy Oz. Początkowo
na kilku częstotliwościach radiowych poszukiwał sygnałów z kierunku
blisko położonych gwiazd. Najpierw wycelował antenę w Tau Ceti w
11
gwiazdozbiorze Wieloryba. Nic nie usłyszał. Gdy Tau Ceti schowała się za
horyzontem, Drake skierował antenę na inną bliską gwiazdę, Epsilon
Eridani, położoną mniej więcej w połowie legendarnej rzeki Erydan, którą
obrazuje gwiazdozbiór Erydan, leżący na zachód od Oriona.
Po kilku sekundach Drake usłyszał w słuchawkach dziwny dźwięk. Coś
pulsowało z częstością osiem razy na sekundę. Mimo ogarniającego go
podniecenia Drake uważnie studiował sygnał. Po chwili, równie nagle jak
się pojawił, sygnał zniknął. Drake nigdy więcej go nie usłyszał. Kilka
tygodni później okazało się, że w odludnym rejonie Alleghenów
prowadzono tajne testy wojskowych urządzeń telekomunikacyjnych. Drake
stwierdził więc, aczkolwiek nie miał na to dowodów, że mogły one być
źródłem zarejestrowanego przezeń sygnału. Nasłuchiwał także w kierunku
kilku innych gwiazd, lecz nie znalazł niczego interesującego – źródła
wszystkich nie zidentyfikowanych sygnałów zostały ostatecznie
zlokalizowane na Ziemi. Widmo promieniowania elektromagnetycznego
jest jednak bardzo, bardzo szerokie. Czy szukał sygnałów na właściwej
częstotliwości? Drake nie potrafił odpowiedzieć na to pytanie. Spośród
wszystkich zakresów fal elektromagnetycznych mikrofale wydawały się
najbardziej odpowiednie, lecz istnieje przecież tak wiele innych. Drake i
jego współpracownicy doszli do takiego samego wniosku, jaki w swojej
publikacji sformułowali Morrison i Cocconi. Zaczęli przeszukiwać jak
największą liczbę kanałów w paśmie mikrofalowym, łącznie z częstością
promieniowania wodoru, a także innych rozpowszechnionych we
wszechświecie pierwiastków i cząsteczek.
Lata pięćdziesiąte i sześćdziesiąte stanowiły doskonały okres dla
eksploracji kosmosu. Po początkowych sukcesach Stany Zjednoczone i
Związek Radziecki zaczęły aktywnie rywalizować w podboju przestrzeni
kosmicznej. W 1961 roku U.S. National Academy of Sciences [Narodowa
Akademia Nauk Stano w Zjednoczony eh] sponsorowała w Green Bank
konferencję, aby przedyskutować nowy kierunek badań kosmosu:
poszukiwanie sygnałów obcych cywilizacji. Jedynym organizatorem
konferencji był Frank Drake. Gdy tylko powierzono mu to zadanie, zaczął
przygotowania, zdając sobie sprawę, że owocna, interesująca dyskusja
może się przyczynić do zwiększenia funduszy projektu OZMA.
Poszukiwanie obcych sygnałów wymaga ogromnych nakładów
finansowych: na honoraria dla astronomów, na zakup komputerów do
obróbki danych, na rozwój technologii, dzięki którym radioastronomowie
12
mogliby skuteczniej przeszukiwać niezmierzone głębie wszechświata.
Frank Drake wiedział, że powinien przygotować solidny program
konferencji.
Równanie Drake'a
Program Drake'a składał się z pojedynczego równania, obecnie
powszechnie znanego jako równanie Drake' a. Miało ono następującą
postać:
N = N
x
∗
f
p
∗
n
e
∗
f
l
∗
f
i
∗
f
c
∗
L
W równaniu tym N reprezentuje liczbę cywilizacji w Galaktyce, które w
danej chwili są zdolne do komunikowania się z innymi cywilizacjami.
Według Drake'a liczba ta zależy od siedmiu czynników, których iloczyn
tworzy prawą stronę równania.
Czym są te tajemnicze czynniki pozwalające, zdaniem Franka Drake'a,
poznać liczbę zaawansowanych cywilizacji w Galaktyce, z którymi
możemy próbować się skomunikować?
N
x
– liczba gwiazd w Galaktyce
Pierwszy czynnik po prawej stronie równania, Nm, jest liczbą gwiazd w
Galaktyce. Według najnowszych oszacowań astronomów liczba gwiazd w
Drodze Mlecznej wynosi około 300 miliardów. To olbrzymia liczba, a
może się okazać, że jest ich jeszcze więcej. Należy przy tym pamiętać, że
rozważamy tylko n a s z ą Galaktykę. Istnieje co najmniej 100 miliardów
innych galaktyk.
„Oh, Be A Fine Guy/Girl, Kiss Me!”
Wyjdźmy nieco poza równanie Drake'a. To, czego potrzebujemy, to nie
pierwsza lepsza gwiazda, lecz gwiazdy, które – sądząc na podstawie
naszego własnego doświadczenia na Ziemi – mają szanse na podtrzymanie
życia. Musimy brać pod uwagę gwiazdy, które są podobne do naszego
Słońca. Wiemy obecnie, że Słońce jest stosunkowo rzadkim typem
gwiazdy: tylko około 5% gwiazd w naszej Galaktyce jest podobne do
13
Słońca. Gwiazdy ciągu głównego (zanim zapadną się i zginą, zamieniając
się w białe karły, gwiazdy neutronowe lub czarne dziury.) pod względem
jasności dzielą się na siedem kategorii: O, B, A, F, G, K i M. Studenci
astronomii zapamiętują tę sekwencję dzięki zdaniu: „Oh, Be A Fine
Guy/Girl, Kiss Me!”
Słońce jest świecącą na żółto gwiazdą typu G.
Gwiazdy typu O i B są gorące i świecą na niebiesko; A i F są białe,
chłodniejsze niż O i B; K są pomarańczowe, a M czerwone – jedne i drugie
wydzielają mniej ciepła i światła niż Słońce. Niebieskie i białe gorące
gwiazdy typu O i F żyją stosunkowo krótko, od milionów do kilku
miliardów lat, natomiast podobne do naszego Słońca gwiazdy typu G mogą
istnieć 15 miliardów lat, a nawet więcej. Pomarańczowe i czerwone
gwiazdy typu K i M, które mogą trwać nawet dłużej niż Słońce, produkują
zbyt mało światła i ciepła. W poszukiwaniach życia pozaziemskiego
najbardziej powinny nas zatem interesować gwiazdy typu G, podobne do
Słońca. W równaniu Drake'a powinniśmy więc pomnożyć liczbę gwiazd w
galaktyce przez 0,05, aby ograniczyć się do gwiazd typu G.
f
p
– Jaki procent gwiazd ma planety?
Kolejny czynnik w równaniu Drake'a jest równy ułamkowi gwiazd,
które mają planety. Gdy zapytałem Drake' a, co sądzi o ekscytujących
odkryciach planet krążących wokół przypominających Słońce gwiazd
(historii tej jest poświęcony następny rozdział), odpowiedział:
„Potwierdziły to, w co od dawna wierzyłem – że f
p
wynosi około 0,5”.
Ocena ta opiera się na założeniu, że technologia wykrywania planet jest
dosyć słaba. Obecnie odkrywa się wyłącznie nietypowe planety: olbrzymie
gazowe giganty, takie jak Saturn i Jowisz, które – wbrew doświadczeniu z
obserwacji naszego Układu Słonecznego – krążą bardzo blisko swoich
planet. Skoro istnieją tak nietypowe planety, to co można powiedzieć o
możliwości istnienia bardziej „normalnych” planet? Wszystko wydaje się
wskazywać, że w kosmosie istnieje bardzo wiele planet!
Michel Mayor, odkrywca pierwszej pozaziemskiej planety, uważa, że
współczynnik gwiazd mających planety wynosi 1,0. Oznaczałoby to, że
wokół każdej gwiazdy krąży przynajmniej jedna planeta. Na jakiej
podstawie można sformułować tak silne stwierdzenie? Mayor opiera swoją
opinię na mechanizmie powstawania planet. Gwiazda rodzi się w wyniku
6
Och, bądź miłym/miłą chłopcem/dziewczyną, pocałuj mnie!
14
zgęszczenia i połączenia chmur pyłu i gazu na skutek ich wzajemnego
przyciągania grawitacyjnego. Gdy tworzy się duża bryła materii, w miarę
zapadania się znacznie się rozgrzewa, co po pewnym czasie wyzwala
reakcje jądrowe. Spalanie wodoru i jego zamiana w hel stanowi źródło
światła gwiazdy, a także zapobiega jej dalszemu zapadaniu się. Jednak ta
część materii, która nie zdążyła się zapaść, pozostaje w krążącym wokół
gwiazdy dysku. W miarę koagulacji tej materii tworzą się obiekty zwane
planetozymalami. Zderzając się ze sobą, formują one ostatecznie planety,
które nadal krążą wokół gwiazdy w tym samym kierunku, co pierwotny
dysk. Jeżeli rzeczywiście w taki sposób powstają planety, to musi ich być
bardzo wiele, gdyż w przeciwnym wypadku cała kondensująca z pyłu i
gazu materia musiałaby opaść na tworzącą się gwiazdę, nie pozostawiając
niczego, z czego mógłby powstać dysk. Taka sytuacja jest bardzo mało
prawdopodobna.
Czy życie może istnieć tylko na planecie, która krąży wokół gwiazdy?
Badania Rudy'ego Schilda z Harvard-Smithsonian Center for Astrophysics
wskazują, że w galaktykach mogą istnieć tryliony „włóczęgów” – nie
związanych z żadną gwiazdą, swobodnie wędrujących w przestrzeni planet.
Schild doszedł do tego kontrowersyjnego wniosku, stosując technikę zwaną
mikroogniskowaniem grawitacyjny m. Z ogólnej teorii względności
wynika, że ciężkie ciała zakrzywiają tor przebiegających w ich pobliżu
promieni świetlnych. Gdy światło po drodze od jakiegoś odległego źródła
do obserwatora przechodzi w pobliżu masywnego obiektu, może zostać
zogniskowane przez pole grawitacyjne. Schild zauważył to zjawisko,
obserwując przez 1,2-metrowy teleskop pewien odległy kwazar, którego
światło ulegało mikroogniskowaniu na krawędziach odległej galaktyki.
Wykonane obliczenia doprowadziły go do konkluzji, że przyczyną
mikroogniskowania są planety, a z częstości występowania tego zjawiska
wywnioskował, że liczba swobodnych planet musi być olbrzymia.
Z dostępnych obecnie obserwacji jasno wynika, że przynajmniej kilka
gwiazd ma planety. Nie można jednak wykluczyć, że parametr f
p
w
równaniu Drake'a, czyli ułamek gwiazd obdarzonych planetami, jest
całkiem dużą liczbą – większą od 0,5, a nawet bliską jedności. Planety
mogą również swobodnie wędrować w przestrzeni. Niektóre z nich mogą
być pochwycone przez spotkane na drodze gwiazdy. Być może życie
rozwinie się na swobodnej planecie, jeżeli ma ona własne – geologiczne
lub radioaktywne – wewnętrzne źródło ciepła. Nie możemy wykluczyć
15
takiej ewentualności, lecz zasadniczym obiektem naszych rozważań będą
planety krążące wokół normalnych gwiazd, takich jak Słońce, gdzie szanse
powstania życia wydają się znacznie większe.
n
e
– Wpływ środowiska
Kolejnym czynnikiem w równaniu Drake'a jest n
e
– liczba planet, na
których istnieją warunki sprzyjające powstaniu życia. Czym zatem jest
życie? Na podstawie własnych doświadczeń na Ziemi znamy tylko jeden
rodzaj warunków, które mogą doprowadzić do powstania życia: niezbędna
jest woda, w której mogą swobodnie poruszać się cząsteczki, aby tworzyć
związki organiczne, z których z kolei powstaną białka. Zasadniczym
pierwiastkiem w tych związkach jest węgiel, który w połączeniu z
wodorem, azotem i tlenem tworzy duże cząsteczki będące podstawowymi
elementami białek i DNA – molekuł życia. Tlen jest istotnym elementem
procesów metabolicznych, dzięki którym organizmy żywe wytwarzają
energię. Czy jednak tylko te pierwiastki mogą prowadzić do powstania
życia? Nikt nie zna odpowiedzi na to pytanie. Niektórzy naukowcy sądzą,
że życie może istnieć tylko w takiej formie, jaką znamy na Ziemi, i tylko na
bazie tych samych pierwiastków. Inni, podobnie jak Drake, uważają, że
życie nie musi opierać się na węglu, lecz może to być na przykład siarka.
Jeszcze inni sądzą, że krzem może w pewnych temperaturach działać
podobnie jak węgiel w temperaturach ziemskich.
Założenie, że woda jest niezbędna do powstania życia, prowadzi do
koncepcji zamieszki walnej
strefy Układu Słonecznego. Woda jest
potrzebna jako rozpuszczalnik umożliwiający cząsteczkom organicznym
przemieszczanie się i tworzenie białek, a białkom z kolei umożliwiający
procesy metaboliczne. Jednak do tego potrzebna jest woda w stanie
ciekłym, a więc musimy uczynić podstawowe założenie, zgodnie z którym
życie może powstać i utrzymać się tylko na tych planetach, gdzie istnieje
woda w postaci cieczy. Weźmy jako przykład nasz Układ Słoneczny.
Spośród dziewięciu krążących wokół Słońca planet woda istnieje w
znacznych ilościach tylko na Ziemi. Ideę nadającej się do zamieszkania
strefy ilustruje niedawne odkrycie, że pod lodową powierzchnią Europy,
jednego z księżyców Jowisza, może istnieć ocean ciekłej wody, w którym
mogły się rozwinąć jakieś morskie formy życia. Jowisz i jego księżyce nie
7
W oryginale: habitable – nadająca się do zamieszkania.
16
są jednak zwykle zaliczane do strefy zamieszki walnej, ponieważ do
niedawna naukowcy sądzili, iż docierające do Jowisza promieniowanie
Słońca jest na tyle słabe, że woda w tym rejonie musi być zamarznięta.
W naszym Układzie Słonecznym strefa zamieszkiwalna rozciąga się od
sfery, która znajduje się o 5% (promienia orbity Ziemi) bliżej Słońca niż
orbita Ziemi, do sfery, która leży o 37% dalej od Słońca niż orbita Ziemi.
W mniejszych odległościach zaszłaby fotodysocja-cja oraz ucieczka gazu i
wody w przestrzeń. Tempo parowania zależy od masy planety – mała
planeta nie zdołałaby utrzymać swojej wody nawet na orbicie dalszej niż
podany dolny limit odległości. Prawdopodobnie w ten sposób Mars utracił
swoją atmosferę. Naukowcy sądzą, że niegdyś na Marsie istniała woda,
lecz małe rozmiary planety nie pozwoliły jej utrzymać ani atmosfery, ani
wody dłużej niż miliard lat. Zewnętrzna granica strefy zamieszkiwalnej jest
zdefiniowana jako orbita, poza którą woda przez cały czas pozostaje w
stanie zamarzniętym. W przypadku naszego Układu Słonecznego woda
zamarza, jeżeli planeta znajduje się co najmniej o 37% dalej od Słońca niż
orbita Ziemi, lecz Europa–jeżeli rzeczywiście ma wodę w stanie ciekłym –
może stanowić dowód, że strefa zamieszkiwalna nie jest aż tak
ograniczona, jak sądzili do tej pory naukowcy. Dla innych gwiazd strefa ta
może być inaczej określona niż w naszym Układzie Słonecznym, gdyż
temperatura w różnych miejscach wokół gwiazdy zależy od jej masy oraz
od wydzielanej przez gwiazdę energii.
Czynnik n
e
w równaniu Drake'a wymaga jednak czegoś więcej niż tylko
położenia planety wewnątrz nadającej się do zamieszkania strefy.
Potrzebna jest także obecność tlenu oraz związków organicznych.
Naukowcy sądzą, że odkrycie tlenu w jakimś punkcie wszechświata będzie
wskazówką, że tam może istnieć życie. Tlen jest bardzo reaktywny i
zwykle nie występuje samodzielnie, ale jako dwutlenek węgla lub w innych
związkach. Cząsteczki tlenu (O2) lub ozonu (O3) mają zatem niewielkie
szanse na pojawienie się, jeżeli nie zostaną wyprodukowane w procesie
metabolizmu. Niedawne odkrycie tlenu (aczkolwiek w niewielkich
ilościach) na Tytanie, księżycu Saturna, daje nadzieję na znalezienie tam
jakichś form życia.
Powyższe wymagania mogą wprawdzie ograniczyć proporcję
pozasłonecznych planet, na których życie może się pojawić i utrzymać, ale
musimy wziąć pod uwagę, że obecna technologia wykrywania obiektów
poza Układem Słonecznym faworyzuje planety duże i położone blisko
17
swoich gwiazd. Prawdopodobnie istnieje znacznie więcej planet, i niektóre
z nich mogą znajdować się wewnątrz zamieszkiwalnej strefy swoich
gwiazd. Niektórzy naukowcy szacują, że planety z warunkami
odpowiednimi do powstania życia stanowią około 10% całkowitej liczby
planet.
f
l
– Ułamek planety na których istnieje życie
Czynnik f
l
w równaniu Drake'a określa planety, na których rzeczywiście
istnieje życie. Ocena wartości tego czynnika jest niezwykle trudna,
ponieważ – oprócz Ziemi – nie mamy absolutnie żadnych danych o
obdarzonych życiem planetach. Nie jest możliwe jakiekolwiek
przewidywanie oparte na danych statystycznych. Celem tej książki jest
ocena prawdopodobieństwa istnienia życia przynajmniej na jednej
pozasłonecznej planecie. Naukowcy zaangażowani w poszukiwanie życia
pozaziemskiego przewidują – aczkolwiek nie jest całkiem jasne, na jakiej
podstawie – że wartość czynnika f
l
; wynosi około 0,1 lub 0,2.
f
i
– Inteligentne formy życia
Czynnik f
i
określa planety, na których rozwinęło się inteligentne życie.
Również i w tym przypadku nie istnieją żadne dane, które umożliwiałyby
wysuwanie opartych na statystyce hipotez. W dalszej części książki
będziemy rozważać różnicę między życiem i inteligentnym życiem, a także
kwestię, czy inteligencja stanowi przypadek w genetycznym rozwoju życia
na Ziemi, czy raczej nieuniknioną konsekwencję ewolucji. Naukowcy,
którzy brali udział w zorganizowanej przez Drake'a w 1962 roku
konferencji, oceniali, że parametr ten może wynosić od 0,1 aż do 0,5.
f
c
– Komunikacja
Czynnik f
c
określa planety zamieszkane przez cywilizacje zdolne do
komunikowania się z innymi cywilizacjami za pomocą przekazów
radiowych lub innych środków. Nie odebraliśmy jeszcze ani jednego
sygnału radiowego od obcych cywilizacji, więc nie możemy oceniać
wartości tego parametru na podstawie danych statystycznych. Wyobraźmy
sobie inteligentne społeczeństwo podobne do starożytnej cywilizacji
18
greckiej. Osiągnęła ona wszystko, co zazwyczaj uważa się za wyznaczniki
zaawansowanej cywilizacji – wiedzę, sztukę, myśl polityczną – z
wyjątkiem technologii. Spełniłaby ona wszystkie warunki równania
Drake'a, lecz nie dysponowałaby nadajnikami ani odbiornikami radiowymi.
Możemy jednak wyobrazić sobie cywilizację o takim stopniu
zaawansowania, że nie potrzebuje ona transmisji radiowych do
komunikowania się. Do tego celu może wykorzystywać na przykład sieci
światłowodowe. Koncepcja projektu SETI (Search for Extraterrestial
Intelligence [Poszukiwanie pozaziemskiej inteligencji], następcy projektu
OZMA) opierała się częściowo na założeniu, że inteligentne istoty
pozaziemskie mogą zostać przez nas odkryte w wyniku odebrania nie tylko
celowo wysyłanych w naszym kierunku sygnałów radiowych, lecz także
sygnałów stosowanych przez nich do ich własnej komunikacji. W obu
wyżej wymienionych przykładach mamy do czynienia z zaawansowanymi
cywilizacjami, które nie stosują komunikacji radiowej, a zatem nie mogą
zostać wykryte przez SETI ani przez żaden inny program poszukiwawczy
polegający na nasłuchiwaniu radiowych sygnałów z przestrzeni.
L – Długowieczność
Ostatni czynnik w równaniu Drake'a wiąże się z długością trwania
cywilizacji. Kryje się w nim założenie, że inteligentne cywilizacje mogą w
końcu ulec samozniszczeniu. Warto pamiętać, że wspomniana konferencja
odbywała się w szczytowym okresie zimnej wojny. Wszyscy zdawali sobie
sprawę, że inteligentne życie nie trwa wiecznie, gdyż prędzej czy później
zniszczy je wojna nuklearna. Współczynnik, który należy wstawić do
równania Drake'a, wynika z podzielenia czasu istnienia cywilizacji przez
czas trwania Drogi Mlecznej. Czynnik ten odzwierciedla cywilizacje, które
w danym momencie istnieją i są zdolne do komunikowania się. Ze względu
na olbrzymie odległości pojawiają się pewne wątpliwości, jak należy
rozumieć istnienie, a jak – komunikację. Jeżeli któregoś dnia odbierzemy
sygnał, który został wysłany 15 000 lat wcześniej, to cywilizacja, która go
wysłała, może już nie istnieć. Pesymistyczne oszacowanie L może
sprowadzać się do czasu, który upłynął od wynalezienia radia do zrzucenia
bomby na Hiroszimę. W skali istnienia wszechświata byłby to niezwykle
krótki okres. Optymistyczne oszacowanie L może sięgać wielu milionów
lat. Tak czy inaczej, gdy zamienimy L na ułamek, otrzymamy bardzo małą
liczbę. Prowadzi to do wniosku, że okno czasowe dla komunikacji z
19
pozaziemskimi cywilizacjami może być dosyć wąskie.
Konferencja w Green Bank nie była pierwszym miejscem spotkania
Franka Drake'a i Philipa Morrisona. Drake studiował na Cornell University
w czasie, gdy Morrison był tam wykładowcą. W Green Bank spotkali się
jako główni proponenci poszukiwania pozaziemskich cywilizacji. Cocconi
nie uczestniczył w spotkaniu i całkowicie porzucił tę tematykę, a później
został dyrektorem CERN-u (Europejskie Centrum Badań Jądrowych). W
konferencji uczestniczyli naukowcy z wielu krajów. Jednym z nich był Carl
Sagan.
Równanie Drake'a zostało ostatecznie powszechnie zaakceptowane
przez społeczność naukowców. Koncepcje, na których się opierało, przez
kilkadziesiąt lat stanowiły podstawę poszukiwań pozaziemskiego życia i w
końcu doprowadziły do uruchomienia projektu SETI (przedstawionego w
powieści Sagana Kontakt i w filmie pod tym samym tytułem). Projekt
wystartował 12 października 1992 roku – dokładnie 500 lat po dotarciu
Kolumba do Nowego Świata – gdy gigantyczna antena w Arecibo (Puerto
Rico) odwróciła się w kierunku nieba i zaczęła poszukiwać sygnałów
radiowych od innych cywilizacji.
Frank Drake, opierając się na szacunkowych ocenach wszystkich
czynników swojego równania, uważa, że liczba cywilizacji w naszej
Galaktyce, które mogą się z nami komunikować, wynosi 10332. Carl Sagan
uważał, że liczba ta sięga miliona. W niniejszej książce nie będziemy
zajmować się liczeniem zdolnych do komunikacji pozaziemskich
cywilizacji w naszej Galaktyce, lecz oszacowaniem prawdopodobieństwa
istnienia życia – a także inteligentnych form życia – we wszechświecie. Z
tego punktu widzenia pierwsze czynniki równania Drake'a są bardzo
istotne, natomiast niektóre z pozostałych mają dla nas mniejsze znaczenie,
gdyż oszacowanie ich wartości w ścisły, naukowy sposób może być
niemożliwe. Skupmy się zatem tylko na tych czynnikach, o których
cokolwiek wiemy, i podsumujmy naszą wiedzę na ich temat.
Poszukiwanie złotego runa
Nawet gdy potwierdzi się istnienie pozasłonecznych planet, pozostanie
pytanie, czy którakolwiek z nich nadaje się do życia – życia w takiej
formie, jaką znamy na Ziemi. Planeta, która krąży blisko swojej gwiazdy,
20
jest zbyt gorąca, aby mogła na niej istnieć woda w stanie ciekłym. Planeta,
która krąży daleko od swojej gwiazdy, jest zimna, a woda – zamarznięta.
Naukowcy poszukujący doskonałej planety nazwali swoje zajęcie
poszukiwaniem złotego runa: nie za gorąco i nie za zimno. Gdy planeta
taka zostanie już znaleziona, pojawią się pytania wynikające z równania
Drake'a: Jakie są na niej warunki chemiczne? Czy jest tam woda? Czy jest
tlen? Czy azot i węgiel występują na niej w odpowiednich ilościach? Na
takie pytania nauka potrafi udzielić odpowiedzi. Istnieją metody
pozwalające analizować widma pierwiastków i ocenić, które z nich są
obecne na planecie, jeżeli tylko będziemy mogli zobaczyć światło tej
planety.
Gdy zlokalizujemy gwiazdę wraz z krążącą wokół niej planetą, do
obserwacji bardzo słabego światła planety i analizy jej składu chemicznego
mogą być użyte teleskopy umieszczone w przestrzeni kosmicznej. Koszt
takiej kosmicznej misji wyniesie jednak około 2 miliardów dolarów i nie
jest pewne, czy Kongres i amerykańscy podatnicy będą skłonni wyłożyć
taką kwotę.
Nawet jeżeli założymy pozytywną odpowiedź na trzy podstawowe
pytania: Czy istnieją planety? Czy znajdują się w strefie zamieszkiwalnej?
Czy ich chemia jest odpowiednia dla życia? – to pozostaje jeszcze ostatnie i
decydujące pytanie: Czy życie rzeczywiście powstało i czy jest ono
inteligentne? Jednak pozytywna odpowiedź na trzy pierwsze pytania i tak
znacznie przybliży nas do celu. W świetle nowych odkryć i potencjalnych
porażek, które mogą wyniknąć z podejmowania przedwczesnych, opartych
na skąpych danych decyzji, warto jeszcze raz przyjrzeć się domniemanemu
paradoksowi Fermiego.
W czasach prekolumbijskich wśród pierwotnych mieszkańców Ameryki
z pewnością istnieli obdarzeni wyobraźnią osobnicy, którzy skłonni byli
sądzić, że życie istnieje tylko na ich kontynencie. Logiczne rozumowanie
powinno ich przekonać, że gdyby życie istniało gdzie indziej na Ziemi, to –
zakładając, że są jeszcze jakieś inne kontynenty – rozwinęłyby się na nich
inteligentne cywilizacje, któraś z nich zbudowałaby wielkie kanoe i
pojawiła się w Ameryce przynajmniej raz. „Skoro nikt się dotąd nie zjawił,
należy sądzić, że jesteśmy sami na Ziemi”. Jakiś czas po tym, jak ten
hipotetyczny paradoks został sformułowany, ktoś jednak dotarł do Ameryki
– wikingowie, Vespucci, Kolumb. Obcy ludzie w końcu wylądowali na
brzegu. Nastąpił kontakt. Fakt, że musi upłynąć pewien czas, zanim nastąpi
21
pierwszy kontakt, nie prowadzi do paradoksu. Zawsze musi być ten
pierwszy raz.
Nie ma nic dziwnego w tym, że twórcy programu SETI podkreślają
podobieństwo własnej misji do przedsięwzięcia Kolumba. Pytani, dlaczego
ich poszukiwania nie przyniosły żadnych dowodów istnienia
pozaziemskich cywilizacji próbujących nawiązać z nami kontakt radiowy,
przywołują jako przykład podróż Kolumba: „Po pierwszych 500 milach
nikt nie pytał Kolumba, czy znalazł już nowy kontynent. My też
pokonaliśmy dopiero pierwsze 500 mil”.
W 1993 roku Kongres odmówił dalszego finansowania programu SETI.
Frank Drake, który kierował programem, nie poddał się jednak i zdołał
znaleźć prywatnych sponsorów, którzy umożliwili kontynuację
poszukiwań, ofiarując łącznie kwotę 4 milionów dolarów rocznie. Do
grupy sponsorów należą William Hewlett i David Packard z Hewlett-
Packard Company, Paul Allen – współzałożyciel Microsoftu oraz Gordon
Moore – współzałożyciel Intela. Być może mają oni na widoku Cosmic
Wide Web – kosmiczny odpowiednik globalnej sieci komputerowej.
22
Rozdział 2
51 PEGASI
Pozaziemskie życie musi dysponować planetą, na której mogłoby się
rozwijać, dlatego ułamek gwiazd mających planety jest głównym
czynnikiem w równaniu Drake'a. W ciągu tysięcy lat ludzkiej egzystencji
nikt nie znał odpowiedzi na podstawowe pytanie związane z możliwością
istnienia życia pozaziemskiego: Czy wokół innych gwiazd krążą planety?
W 1995 roku środowisko naukowe zelektryzowała wiadomość, że dwaj
szwajcarscy astronomowie odkryli pierwszą pozasłoneczną planetę.
Późnym wieczorem 4 lipca 1995 dwie rodziny z Genewy opuściły swoje
bungalowy i wspięły się na pobliskie wzgórze, na którym mieści się –
położone wysoko w południowych Alpach, w pobliżu wioski Saint Michel
– francuskie obserwatorium astronomiczne Haute-Provence. W koszykach
nieśli prowiant: chleb, ser, czerwone wino i sok dla dzieci, a także duży tort
i dwie butelki szampana, które w obserwatorium włożyli do lodówki. Ktoś
nacisnął przycisk otwierający kopułę obserwatorium, odsłaniając teleskop.
Piknik zakończył się po jedenastej wieczorem, gdy najmłodsze dziecko
zaczęło zdradzać objawy zmęczenia. „Już niedługo” – zapewnił jeden z
dorosłych. Wszyscy usiedli w oczekiwaniu.
Jednym z najbardziej uderzających faktów w astronomii są niezmierne
odległości i rozmiary. Kosmos jest tak ogromny, że nasze codzienne
jednostki miary tracą swoje znaczenie. Odległość od Ziemi do Słońca
wynosi 93 miliony mil (150 min km)
. Podróżujący z typową prędkością
900 kilometrów na godzinę samolot pasażerski dotarłby z Ziemi do Słońca
po 20 latach. Olbrzymie odległości ciał niebieskich zmusiły astronomów do
wprowadzenia nowej jednostki długości, która lepiej pasowałaby do
rozmiarów Układu Słonecznego. Zdefiniowali oni jednostkę astronomiczną
8
Jest to średnia odległość Ziemi od Słońca. Orbita Ziemi jest eliptyczna, więc niekiedy znajduje się
ona w odległości większej niż 93 miliony mil od Słońca, a niekiedy w mniejszej. Eliptyczna orbita
Ziemi jest jednak bardzo zbliżonado okręgu, więc odchylenia od średniej odległości są niewielkie.
23
(AU
), równą średniej odległości Ziemi od Słońca. Promień orbity
Merkurego, planety Układu Słonecznego położonej najbliżej Słońca,
wynosi 36 milionów mil (ok. 58 min km), co stanowi nieco mniej niż 0,4
jednostki astronomicznej. Wenus znajduje się w odległości 0,7 AU od
Słońca, Mars – 1,5 AU, Jowisz – 5,2 AU, Saturn – 9,5 AU, Uran – 19,2
AU, Neptun – 30,1 AU, a Pluton – 39,5 AU. Tak więc Pluton, najdalej
położona i najmniejsza planeta Układu Słonecznego, znajduje się 39,5 razy
dalej od Słońca niż my. Statek kosmiczny potrzebuje kilku miesięcy, aby
dotrzeć z Ziemi do Marsa, więc dotarcie w pobliże jednej z dalszych planet
zajęłoby mu kilka lat. Ze względu na olbrzymie odległości zewnętrznych
planet dociera do nich znacznie mniej światła słonecznego niż do nas. W
porównaniu z Ziemią Jowisz dostaje tylko 4% promieniowania, Saturn –
1%, Neptun – 0,1%, a Pluton zaledwie 0,06%. Z kolei do Merkurego
dociera 6,6 razy więcej światła niż do nas. Ze względu na znaczną
odległość, a także niską jasność odbitego światła słonecznego, Uran,
Neptun i szczególnie Pluton są bardzo słabo widoczne z Ziemi.
Gdy spoglądamy dalej w przestrzeń – poza nasz układ planetarny, w
kierunku gwiazd – to nawet jednostka astronomiczna staje się
nieodpowiednia. Używanie jej przypominałoby mierzenie odległości miast
w centymetrach. Gwiazdy znajdują się tak daleko od nas i od siebie
nawzajem, że do mierzenia ich odległości potrzebujemy znacznie większej
jednostki. Jest nią rok świetlny – odległość, jaką światło pokonuje w
ciągu jednego roku. Światło, które jest najszybciej poruszającym się
obiektem w przyrodzie, podróżuje z prędkością 300 000 kilometrów na
sekundę. W ciągu roku przemierza ono niewiarygodnie dużą odległość
niemal dziesięciu bilionów kilometrów. Alfa Centauri, najjaśniejsza
gwiazda w gwiazdozbiorze Centaura i zarazem najbliższa w stosunku do
Układu Słonecznego, znajduje się w odległości 4,3 roku świetlnego od
nas
. Aby wyobrazić sobie tę olbrzymią odległość między nami i naszą
najbliższą gwiazdą, możemy sobie uzmysłowić, że lecący ze swoją zwykłą
prędkością 900 kilometrów na godzinę samolot pasażerski potrzebowałby 8
milionów lat, aby dotrzeć do Alfy Centauri. Nawet statek kosmiczny,
przyspieszony przez grawitacyjną „procę” którejś z planet, potrzebowałby
20 000 lat, aby tam dolecieć. Jednak w kategoriach astronomicznych
9
Od ang.: astronomical unit.
10
Układ Alfa Centauri jest w rzeczywistości złożony z trzech gwiazd, jednak nieuzbrojone oko widzi
ją jako obiekt pojedynczy. Są to: dwie jasne gwiazdy Alfa Centauri A i B oraz ciemniejsza Proxima
Centauri. Krążą one wokół siebie po stosunkowo niedużych orbitach.
24
gwiazdy Alfa Centauri są naszymi najbliższymi sąsiadami. Nasza
Galaktyka, Droga Mleczna, liczy około 300 miliardów gwiazd. Nasz Układ
Słoneczny znajduje się w jednym z ramion rozciągających się ze środka tej
spiralnej galaktyki. Średnica tego olbrzymiego zbiorowiska gwiazd to
ponad 200 000 lat świetlnych. Światło biegnące od centrum Drogi
Mlecznej dociera na Ziemię po 50 000 lat. Nie miałaby wielkiego sensu
próba policzenia, ile czasu podróż ta zabrałaby statkowi kosmicznemu,
który może poruszać się z prędkością będącą niewielkim ułamkiem
prędkości światła.
Położona najbliżej nas galaktyka, Wielka Mgławica w Andromedzie,
licząca wiele miliardów gwiazd, znajduje się 2,2 miliona lat świetlnych od
Drogi Mlecznej. Gdy spoglądamy gołym okiem lub przez teleskop na
przymglony obraz tej galaktyki, przenosimy się o 2,2 miliona lat w
przeszłość, ponieważ tyle czasu światło potrzebowało, by dotrzeć do nas.
Wszechświat zawiera miliardy galaktyk. Za pomocą Kosmicznego
Teleskopu Hubble'a uzyskaliśmy niedawno obrazy galaktyk położonych na
granicy obserwowanego przez nas wszechświata: galaktyk leżących w
odległości 10 miliardów lat świetlnych od nas. Gdy spoglądamy na te
niewiarygodnie odległe obiekty, widzimy światło, które wyruszyło w
podróż 10 miliardów lat temu, gdy wszechświat był młody.
Słońce jest znacznie większe od Ziemi. Wzdłuż średnicy Słońca
zmieściłoby się 109 planet wielkości Ziemi, a w objętości Słońca – milion.
Słońce jest 300 000 razy cięższe od Ziemi. Jednak w kategoriach
gwiazdowych nasze Słońce jest zwane karłem, gdyż istnieją gwiazdy o
wiele większe. Średnica Mu Cephei, jednej z największych znanych nam
gwiazd, jest ponad 1000 razy większa od średnicy Słońca, a w objętości
Mu Cephei zmieściłby się miliard Słońc. Dwie spośród najjaśniejszych
gwiazd na niebie również należą do kategorii supergigantów. Są to
Betelgeuse i Rigel, leżące w gwiazdozbiorze Oriona. Duże jasne gwiazdy
spalają swoje jądrowe paliwo znacznie szybciej niż małe, przez co żyją
względnie krótko: kilka milionów lat. Gdy dinozaury spoglądały w niebo,
nie widziały dwóch jasnych gwiazd w Orionie. Betelgeuse i Rigel pojawiły
się znacznie później, już po zagładzie dinozaurów. Karły takie jak nasze
Słońce żyją po kilka miliardów lat. Są mniej jasne, spalają swoje jądrowe
paliwo przy niższych temperaturach, więc mogą żyć znacznie dłużej.
Jeszcze mniej jasne gwiazdy żyją jeszcze dłużej – niektóre nawet biliony
lat–lecz nie widać ich gołym okiem. Niebo jest pełne niewidocznych
25
gwiazd.
Przez tysiąclecia ludzie spoglądali w niebo i zastanawiali się, czym są te
świetlne punkty. Babilończycy pierwsi sporządzali mapy nieba i układali
gwiazdy w konstelacje. Podobnie postępowali Egipcjanie i Grecy, a w
czwartym wieku przed naszą erą grecki filozof Epikur sformułował
hipotezę, że wszechświat jest nieskończony i zawiera wiele innych
światów. W szesnastym wieku włoski filozof, Giordano Bruno, ponownie
wysunął koncepcję, zgodnie z którą wszechświat zawiera wiele podobnych
do Ziemi planet, okrążających podobne do Słońca gwiazdy i
zamieszkanych przez żywe istoty. Poglądy Bruna stanowiły jawne
wyzwanie dla nauki Kościoła, gdyż były sprzeczne z akceptowaną przez
Kościół filozofią innego greckiego filozofa, Arystotelesa, który twierdził,
że Ziemia jest jedyna, wyjątkowa i stanowi środek wszechświata, a niebo
jest doskonałe i niezmienne. Za swoje poglądy Bruno został spalony na
stosie w roku 1600.
Wielu dwudziestowiecznych astronomów kierowało swoje teleskopy w
stronę nieba w poszukiwaniu podobnych do Ziemi planet okrążających
inne gwiazdy. Jeżeli istnieje życie pozaziemskie, to musiało rozwinąć się w
jakimś miejscu dającym ciepło i światło – na planecie okrążającej gwiazdę.
W ciągu ostatnich kilkudziesięciu lat często zdarzało się, że astronomowie
sądzili, iż odkryli planety, lecz wszystkie te przypadki zostały później
zweryfikowane i wykazano ich fałszywość. Najlepiej znana historia
fałszywej identyfikacji planety okrążającej inną gwiazdę wiąże się z
Gwiazdą Barnarda. W 1916 roku amerykański astronom Edward Emerson
Barnard odkrył w gwiazdozbiorze Wężownika bladą gwiazdę, która
poruszała się na niebie szybciej niż jakakolwiek inna wcześniej
obserwowana gwiazda. Wykorzystując fotografie nieba wykonane w ciągu
dziewiętnastego wieku, Barnard wydedukował, że jego gwiazda pokonuje
10,3 sekundy kątowej w ciągu roku. Sekunda kątowa jest równa 1/3600
stopnia kątowego – mniej więcej tyle ma ludzki włos obserwowany z
odległości 3 metrów. W ciągu 100 lat Gwiazda Barnarda przemieściła się o
połowę średnicy kątowej Księżyca, co wskazywało, że znajduje się ona w
niedużej odległości od Ziemi. Gdy wykonano pomiary paralaktyczne – to
znaczy pomiary kąta położenia gwiazdy z dwóch różnych punktów orbity
Ziemi (na przykład jeden pomiar w zimie, a drugi w lecie), dzięki czemu
można wyznaczyć odległość gwiazdy za pomocą trygonometrii – okazało
się, że Gwiazda Barnarda znajduje się 6 lat świetlnych od nas. Jedyną bliżej
26
położoną gwiazdą jest Alfa Centauri.
W 1938 roku astronom Peter van de Kamp z obserwatorium Sproul w
Pensylwanii rozpoczął obserwacje naszego tajemniczego sąsiada, Gwiazdy
Barnarda. Do roku 1969 zgromadził on tysiące wykonanych przez teleskop
fotografii gwiazdy i stwierdził, że jej ruch nie jest całkowicie liniowy –
gwiazda waha się w górę i w dół. Gwiazdy poruszają się na niebie z kilku
powodów. Po pierwsze, gwiazdy naszej Galaktyki, Drogi Mlecznej,
okrążają wraz z nią środek galaktyki. Po drugie, wszystkie gwiazdy i
galaktyki oddalają się od siebie nawzajem wskutek rozszerzania się
wszechświata. Zjawisko to zostało odkryte w 1925 roku przez Edwina
Hubble'a, a tempo rozszerzania się wszechświata jest obecnie znane jako
stała Hubble'a
. Te dwa ruchy – pomijając dzienny obrót nieba wokół
Ziemi wywołany jej wirowaniem – składają się na liniowy ruch gwiazd na
niebie. Wahania obserwowanego przez van de Kampa ruchu Gwiazdy
Barnarda sugerowały, że wokół niej krąży planeta. Później doszedł on do
wniosku, że muszą to być dwie planety.
Pod koniec lat dwudziestych nawet nasz Układ Słoneczny nie był
całkowicie znany astronomom, gdyż do odkrycia pozostała jeszcze jedna
krążąca wokół Słońca planeta. Odkrycia tego dokonano, wykonując
fotografie nocnego nieba przez teleskop, kawałek po kawałku, powtarzając
je później, a następnie porównując przez nałożenie jednej fotografii na
drugą. W 1929 roku Lowell Observatory we Flagstaff w Arizonie nabyło
nowy astrograf
i zatrudniło Clyde'a Williama Tombaugha, 23-letniego
syna farmera z Kansas, astronoma amatora, do poszukiwań kolejnej
krążącej wokół Słońca planety. W owym czasie znanych było osiem planet,
a Uran i Neptun zostały odkryte w dziewiętnastym wieku. Założyciel
obserwatorium, Percival Lowell, miał jeden cel w życiu: znaleźć nową
planetę, ową chimeryczną planetę X. Tombaugh zbudował 9-calowy
teleskop odbiciowy na farmie swego ojca, wykorzystując części maszyn
rolniczych oraz wał korbowy buicka z 1910 roku. Za pomocą tego
teleskopu wykonał rysunki Marsa i Jowisza, które wysłał Lowellowi. W
rezultacie Lowell zaproponował mu pracę w swoim obserwatorium.
Tombaugh nie wierzył w matematyczne obliczenia, które, według opinii
11
Niedawno wykonane obliczenia wskazują, że stała Hubble'a wynosi około 64 kilometrów na
sekundę na megaparsek.Tempo rozszerzania się wszechświata służy kosmologom do szacowania
czasu, jaki upłynął od stworzenia wszechświata w wielkim wybuchu. Stała Hubble'a równa 64 km/s
C
P Mps oznacza, że wszechświat liczy około 14 miliardów lat.
12
Teleskop z wmontowanym układem fotograficznym.
27
innych astronomów, mogły pomóc ujawnić położenie tajemniczej planety.
Uważał, że planetę można odkryć dzięki dokładnym obserwacjom.
Pracował cierpliwie przez rok, wykonując tysiące fotografii i porównując je
przez nakładanie jednej na drugą. 18 lutego 1930 roku odkrył Plutona w
pobliżu jednej z gwiazd w gwiazdozbiorze Bliźniąt. Jako odkrywca
ostatniej planety Układu Słonecznego, Tombaugh stał się najsławniejszym
astronomem swoich czasów. Żadna inna „planeta X” nie została odkryta,
aczkolwiek niektórzy astronomowie sądzili, że istnieje jeszcze jedna duża
krążąca wokół Słońca planeta (Pluton jest mniejszy od Księżyca, więc
niektórzy astronomowie do dziś uważają go za dużą asteroidę, a nie za
prawdziwą planetę).
Poszukiwania Tombaugha zakończyły się sukcesem, gdyż – mimo że
znajduje się on w odległości 40 AU od nas – nikłe światło Plutona było
jednak widoczne przez duży teleskop. Gdy spoglądamy poza Układ
Słoneczny, odległości rosną do lat świetlnych (czyli bilionów, a nie setek
milionów kilometrów) i wykrycie światła jakiejś planety – odbitego przez
nią światła jej własnej gwiazdy – staje się niewykonalne. Co więcej,
zadanie to dodatkowo utrudnia światło samej gwiazdy. Światło naszego
Słońca jest miliard razy silniejsze od światła odbitego od największej
planety, Jowisza. Odróżnienie słabego światła planety na tle jej własnej
gwiazdy byłoby niezwykle trudnym zadaniem, więc astronomowie zaczęli
szukać maleńkich wahań w ruchu własnym gwiazd, które można by
przypisać grawitacyjnemu przyciąganiu niewidocznej, krążącej wokół
gwiazdy planety. Ruchy takie byłyby bardzo, bardzo małe, ponieważ masa
nawet tak dużej planety jak Jowisz jest zazwyczaj tysiące razy mniejsza od
masy obieganej przez planetę gwiazdy. Do wykrycia wahadłowego ruchu
gwiazdy potrzebny byłby bardzo duży teleskop.
W 1969 roku, na podstawie swoich obserwacji, Peter van de Kamp
doszedł do wniosku, że Gwiazda Barnarda podlega takim właśnie
wahadłowym ruchom. Czy oznacza to, że została odkryta pierwsza
pozasłoneczna planeta? W 1971 roku George Gatewood, doktorant w
obserwatorium w Alleghenach, rozpoczął obserwacje Gwiazdy Barnarda za
pomocą 30-calowego teleskopu. Po kilku miesiącach Gatewood potrafił
wykazać, że odchylenia ruchu Gwiazdy Barnarda od linii prostej, które
zaobserwował van de Kamp, były po prostu spowodowane zaburzeniami
atmosfery Ziemi. Stało się jasne, że astronomowie potrzebują
potężniejszych teleskopów, jeżeli chcą odkryć maleńkie wahania w ruchu
28
gwiazd, które można by przypisać oddziaływaniu niewidocznej planety.
Teleskop w obserwatorium Haute-Provence, o średnicy 1,9 metra, raczej
nie należał do największych lub najmocniejszych na świecie.
Obserwatorium zbudowano sześćdziesiąt lat temu, na wysokości 650
metrów nad poziomem morza – dość nisko jak na dzisiejsze standardy – ale
wyposażono je w bardzo skomplikowany system zbudowany przez dwóch
szwajcarskich astronomów, Michela Mayora i Didiera Queloza, którzy
teraz czekali cierpliwie w obserwatorium przy teleskopie wraz ze swoimi
rodzinami. Obaj pracowali w obserwatorium w Genewie, lecz kupowali od
Francuzów czas obserwacyjny w Haute-Provence: słabszy teleskop w
Haute-Provence był dostępny przez dłuższe okresy niż potężne i drogie
teleskopy, gdzie astronomowie muszą walczyć o pojedyncze noce
obserwacyjne. Przy okularze teleskopu Mayor i Queloz umieścili
spektrograf– urządzenie zbudowane na bazie siatki dyfrakcyjnej, która
rozdziela światło gwiazdy w zależności od długości fali, a następnie
analizuje je za pomocą aparatury elektronicznej i małego komputera. Dwaj
astronomowie byli specjalistami od pomiarów zjawiska Dopplera w
widmie gwiazd.
Zjawisko Dopplera jest dobrze znane w życiu codziennym. Na przykład,
gdy stoimy na peronie kolejowym i mija nas gwiżdżąca lokomotywa,
dźwięk zmienia swoją wysokość w chwili, gdy lokomotywa przejeżdża
obok nas. Zbliżający się pociąg wydaje wysoki ton, natomiast oddalający
się – niski. Zjawisko to badał w dziewiętnastym wieku austriacki fizyk,
Christian Doppler (1803-1853).
Fale świetlne, a także inne formy promieniowania
elektromagnetycznego, również podlegają zjawisku Dopplera. W 1905
roku Albert Einstein sformułował szczególną teorię względności. Jego
teoria była sprzeczna z przekonaniami współczesnych mu uczonych, którzy
sądzili, że światło – podobnie jak wszystko we wszechświecie – powinno
zmieniać swą prędkość, gdy porusza się jego źródło. Jeżeli futbolista
biegnie z prędkością 10 mil (ok. 16 km) na godzinę i w trakcie biegu rzuca
piłkę (do przodu), to prędkość piłki względem powierzchni boiska jest o 10
mil na godzinę większa od prędkości, jaką miałaby piłka, gdyby gracz był
nieruchomy. Na początku dwudziestego wieku dwaj fizycy, Albert
Michelson i Edward Morley, próbowali znaleźć dowody, że światło
również zachowuje się w ten sposób. Sądzili oni, że światło porusza się w
przestrzeni dzięki drganiom niewidocznego eteru i próbowali wykryć
29
zmiany prędkości światła w jego ruchu przez eter. Jeżeli eter jest unoszony
przez Ziemię w jej ruchu wirowym, to wysyłając promień światła z jednego
szczytu góry w Kalifornii do innego, w kierunku równoległym do
równoleżnika, naukowcy spodziewali się, że prędkość światła zostanie
zwiększona przez prędkość wirowego ruchu Ziemi, podobnie jak prędkość
piłki wzrasta na skutek biegu gracza. Mimo wielu prób nie wykryli oni
jednak żadnych zmian prędkości światła. W pewnym okresie Michelson,
zniechęcony niemożnością wykrycia unoszenia eteru, przedłożył władzom
stanowym Kalifornii skomplikowany projekt, w którym proponował
przeprowadzenie pomiarów pasma gór Sierra Nevada. Jednak urzędnicy
wiedzieli, jakie są jego rzeczywiste zamiary, i odrzucili projekt. W tym
samym okresie czysto teoretyczna praca Einsteina wykazała, że unoszenie
eteru nie istnieje
. Einstein stwierdził, że prędkość światła, równa około
300 000 kilometrów na sekundę, stanowi wielkość uniwersalną, nie
podlegającą zmianom w zależności od ruchu źródła względem
obserwatora. Prędkość światła pozostawała taka sama niezależnie od ruchu
wirowego Ziemi. Prędkość światła nie zmienia się w zależności od ruchu
źródła, lecz zmienia się częstość fal świetlnych i związana z nią długość
fali, dokładnie tak, jak przewiduje teoria zjawiska Dopplera. Gdy źródło
światła porusza się w kierunku obserwatora, częstość fal świetlnych rośnie.
Wygląda to tak, jakby fale były „stłoczone” na skutek ruchu źródła w
kierunku emisji. Zielone światło zostanie przesunięte w kierunku wyższych
częstości i może w rezultacie być postrzegane przez nieruchomego
obserwatora jako niebieskie, gdyż niebieskie światło ma wyższą częstość (i
mniejszą długość fali) niż zielone. Gdy źródło światła oddala się od
obserwatora, fala świetlna zostaje „rozciągnięta” i jej częstość się
zmniejsza. Przy pewnej prędkości źródła emitowane światło może ulec
przesunięciu od zieleni do czerwieni. Zjawisko to nosi nazwę przesunięcia
ku czerwieni. Jeżeli zbliżasz się do skrzyżowania z prędkością 150 000
kilometrów na sekundę (czyli równą połowie prędkości światła), to
czerwone światło będzie z twojego samochodu widoczne jako zielone. Nie
próbuj jednak użyć tego argumentu w sądzie, gdyż dostaniesz mandat za
przekroczenie prędkości.
Zjawisko Dopplera było wykorzystywane przez astronomów od ponad
siedemdziesięciu lat. Gdy gwiazda oddala się od Ziemi, jej światło ulega
przesunięciu ku czerwieni. Gdy gwiazda zbliża się w kierunku Ziemi, jej
13
Ściśle biorąc – że sam eter nie istnieje, a jeszcze ściślej – że jego istnienie nie jest konieczne do
wyjaśnienia ruchu światła.
30
światło ulega przesunięciu ku częstościom fal niebieskich, fioletowych i
nadfioletowych (w zależności od prędkości gwiazdy względem Ziemi).
Aby zmierzyć wielkość przesunięcia częstości i tym samym prędkość
ruchu własnego gwiazdy (ruchu względem obserwatora na Ziemi),
naukowcy muszą rozłożyć światło gwiazdy na składowe. Składowe widma
promieniowania gwiazdy noszą nazwę linii widmowych i mogą być
wyodrębnione za pomocą spektrografu.
W latach osiemdziesiątych wiele zespołów astronomów zaczęło
poszukiwać przesunięć Dopplera w widmach gwiazd, aby wykryć ruchy
wywołane przez grawitacyjne przyciąganie niewidocznych planet.
Konkurencja była bardzo silna, gdyż spodziewano się, że pierwszy zespół,
który zaobserwuje przesunięcia widmowe wywołane obecnością planety
okrążającej gwiazdę inną niż nasze Słońce, zyska światowy rozgłos.
Głównymi uczestnikami tego wyścigu byli Bruce Campbell i Gordon
Walker z Kolumbii Brytyjskiej (Kanada), Geoffrey Marcy i Paul Butler z
San Francisco oraz Artie Hatzes i William Cochran z Teksasu. Szwajcarzy
Mayor i Queloz dołączyli do wyścigu stosunkowo późno – w kwietniu
1994 roku, siedem lat po zespole z Kalifornii i trzynaście lat po
Kanadyjczykach.
Za ideą użycia zjawiska Dopplera do poszukiwania planet krążących
wokół innych gwiazd kryje się stosunkowo prosta teoria. Największą
planetą Układu Słonecznego jest Jowisz, którego masa jest 318 razy
większa od masy Ziemi. Stanowi ona jednak zaledwie 0,1% masy Słońca.
Słońce przyciąga Jowisza siłą grawitacji, dzięki czemu Jowisz krąży wokół
Słońca po niemal idealnie kołowej orbicie.
Gdyby nie było tego przyciągania, Jowisz odleciałby w przestrzeń.
Krążąc wokół Słońca, Jowisz również oddziałuje na nie swoją siłą
grawitacji – zgodnie z zasadą, że każdej akcji odpowiada reakcja. W
rezultacie Słońce także porusza się wskutek oddziaływania Jowisza. Tak
więc zarówno Jowisz, jak i Słońce wykonują kołowy taniec wokół ich
wspólnego środka masy. Ze względu na fakt, że Słońce jest znacznie
cięższe od Jowisza, ich wspólny środek masy znajduje się znacznie bliżej
Słońca niż Jowisza. W rzeczywistości znajduje się on wewnątrz Słońca
(lecz nie w środku Słońca), w punkcie położonym na linii łączącej oba
ciała. Zatem gdy Jowisz krąży wokół Słońca, Słońce porusza się wokół ich
wspólnego środka masy.
31
Przypuśćmy, że w dużej odległości od Układu Słonecznego, w
płaszczyźnie zawierającej orbitę Jowisza, znajduje się obserwator. Patrząc
na Słońce przez bardzo czuły spektrograf, mógłby wykryć dopplerowskie
przesunięcia linii widmowych światła słonecznego wywołane przez ruch
Słońca do i od punktu obserwacji. Gdy krążący po swojej orbicie Jowisz
oddala się od obserwatora, Słońce przybliża się do obserwatora w swoim
ruchu wokół wspólnego środka masy układu Jowisz-Słońce. Gdy Jowisz
wyłoni się zza Słońca i zacznie zbliżać się do obserwatora, Słońce okrąży
środek masy i zacznie oddalać się od obserwatora. Te cykliczne ruchy
Słońca do i od obserwatora wywołają niewielkie przesunięcia Dopplera w
liniach widmowych Słońca, podobnie jak zmienia się wysokość dźwięku
gwizdka lokomotywy, gdy ta zbliża się, a następnie oddala od stojącego na
peronie podróżnego
Astronomowie specjalizujący się w przesunięciach Dopplera doskonale
zdawali sobie sprawę z potencjalnych możliwości wykorzystania tego
zjawiska w poszukiwaniach planet. Gdyby wokół jakiejś gwiazdy krążyła
planeta, a my znajdowalibyśmy się w odpowiednim położeniu w stosunku
do jej orbity, czyli w płaszczyźnie zawierającej orbitę, dopplerowskie
przesunięcie widma promieniowania gwiazdy pozwoliłoby ujawnić
wynikający z przyciągania planety ruch gwiazdy. Zjawisko Dopplera
dostarczyłoby zatem dowodów na istnienie planet. Wywołany ewentualną
obecnością planet ruch gwiazd jest jednak bardzo, bardzo mały – mierzony
w metrach na sekundę. Gdyby jednak udało się go wykryć, teoria
pozwoliłaby obliczyć minimalną masę planety (minimalną, ponieważ nie
jesteśmy w stanie stwierdzić, czy kierunek obserwacji dokładnie pokrywa
się z płaszczyzną orbity planety) oraz jej odległość od macierzystej
gwiazdy. W tym celu wystarczyło zaprojektować metodę obserwacji, która
byłaby dostatecznie czuła, aby wykryć małe przesunięcia Dopplera światła
gwiazd, oraz metodę obliczeniową, która pozwoliłaby szybko analizować
te widma. Mimo późnego dołączenia do poszukujących przesunięć
widmowych Szwajcarzy potrafili wykonać jedno i drugie. W ciągu wielu
miesięcy obserwacji na Haute-Provence Mayor i Que-loz przeanalizowali
widma 142 gwiazd. Wszystkie znajdowały się względnie blisko nas – w
odległości mniejszej niż 60 lat świetlnych od Ziemi – i wszystkie były tego
14
Należy zwrócić uwagę, że grawitacyjne przyciąganie Słońca przez pozostałe osiem planet Układu
Słonecznego jest wprawdzie znacznie mniejsze niż wpływ wywierany przez największą z nich,
Jowisza, lecz rzeczywisty ruch Słońca okaże się nieco bardziej skomplikowany, gdy uwzględni się
wpływ wszystkich planet.
32
samego typu co nasze Słońce. Do października 1994 roku nie odkryli ani
jednej planety.
Aby dokładnie zmierzyć przesunięcie Dopplera, astronomowie
potrzebują punktu odniesienia. Różne związki emitują światło o różnych
długościach fali (produkując linie widmowe), gdy sieje podgrzeje. Gdy
spojrzy się przez siatkę dyfrakcyjną na żółte światło sodowej lampy
ulicznej, można zobaczyć charakterystyczną żółtą linię widmową sodu.
Stosowane gdzieniegdzie zielone światła rtęciowe mają własne linie
widmowe, również widoczne przez siatkę dyfrakcyjną. Kanadyjski zespół
zaprojektował przyrząd kalibrujący oparty na wysoce toksycznym związku,
fluorowodorze, którego linie widmowe umożliwiają bardzo dokładną
kalibrację. Marcy i Butler, badacze z San Francisco, którzy obserwowali
widma gwiazd przez teleskop Lick Observatory w górach Santa Cruz w
Kalifornii, zastosowali znacznie mniej toksyczny pierwiastek –jod.
Wysiłki Marcy'ego i Butlera spowalniała skomplikowana procedura
obliczeniowa. Ich przyrządy były dokładniejsze i pilniejsze od aparatury
stosowanej przez Szwajcarów – pozwalały wykryć ruchy gwiazd rzędu 3
metrów na sekundę, natomiast aparatura Mayora i Queloza rejestrowała
ruch gwiazd rzędu 12 metrów na sekundę – lecz stosowany przez nich
program komputerowy był horrendalnie powolny. Zamiast analizować
widma w miarę ich obserwowania, Marcy i Butler po prostu gromadzili
dane na twardym dysku komputera, zamierzając przeprowadzić analizę po
zakończeniu obserwacji. Ukryte przed nimi i przed resztą świata dowody
istnienia pozasłonecz-nych planet spoczywały na dysku ich komputera.
Mayor i Queloz nie stosowali toksycznych związków chemicznych do
kalibracji swego spektrometru, lecz zwykłą lampę wolframową. Prąd
elektryczny wzbudza elektrony we włóknie żarówki na wyższe poziomy
energetyczne. Spadając na niższe poziomy, elektrony emitują światło o
określonych częstościach, zgodnie z przewidywaniami teorii kwantowej.
Mayor i Queloz użyli linii widmowych lampy wolframowej do kalibracji
swojego spektrometru. Uzyskana w ten sposób dokładność sięgała 12
metrów na sekundę, co wystarcza do wykrycia planety o rozmiarach
porównywalnych z Jowiszem. Jednak zastosowany przez Szwajcarów
algorytm obliczeniowy był znacznie lepszy od programów użytych przez
inne zespoły, gdyż był tak szybki, że umożliwiał wyznaczanie przesunięć
Dopplera w trakcie obserwacji. Wszystkie 142 gwiazdy zbadane przez
Szwajcarów były typu G (żółte) lub K (pomarańczowe), podobne do
33
naszego Słońca pod względem rozmiarów i jasności. We wrześniu 1994
roku Michel Mayor i Didier Queloz skierowali teleskop w Haute-Provence
w kierunku średniej jasności gwiazdy położonej tuż pod Czworokątem
Jesiennym w gwiazdozbiorze Pegaza. Podobna do Słońca i odległa od nas o
50 lat świetlnych gwiazda nosi nazwę 51 Pegasi.
Ulubieniec poetów i malarzy, mityczny Pegaz był obdarzonym
skrzydłami koniem. Został poczęty, gdy Posejdon zamienił się w konia, aby
uwieść Meduzę. Gdy Perseusz zabił Meduzę, Pegaz wyłonił się z jej ciała
jako w pełni ukształtowany koń ze skrzydłami. Został oswojony przez
Bellerofonta i Atenę, a następnie dostał się na Olimp, gdzie nosił pioruny
Zeusa. Czworokąt Jesienny, najlepiej widoczny we wrześniu, to cztery
gwiazdy: Markab (co znaczy po arabsku „siodło”), Algenib („bok”), Scheat
(„goleń”) i Sirrah („pępek”), które łącznie tworzą zarys ciała konia
Gdy tylko ustawili teleskop na 51 Pegasi, leżącą poniżej linii łączącej
gwiazdy Markab i Scheat, Mayor i Queloz odkryli, że gwiazda ta wyraźnie
różni się od innych dotychczas przez nich obserwowanych. Coś było z nią
nie w porządku. Po uzyskaniu kilku pomiarów jej widma Mayor stwierdził,
iż gwiazda jest tak dziwna, że powinni ją obserwować przez dłuższy czas.
W grudniu 1994 roku Mayor i Que-loz spędzili cały tydzień na
obserwacjach 51 Pegasi. Spośród 142 gwiazd na ich liście, ta jedna dawała
nonsensowne wyniki: prędkość wyliczona z przesunięć Dopplera wynosiła
60 metrów na sekundę – gwiazda pędziła jak na karuzeli! Pierwszą reakcją
May ora było podejrzenie, że spektrograf źle funkcjonuje. Jak inaczej
można wytłumaczyć fakt, że po dziesięciu latach poszukiwań,
prowadzonych przez wiele grup astronomów, nie wykryto ani jednego
przypadku radialnego ruchu gwiazdy, a on i jego kolega po kilku
miesiącach obserwacji odkryli gwiazdę, która porusza się z tak niezwykle
dużą prędkością?
Dwaj astronomowie wrócili do obserwacji innych gwiazd, lecz nie
znaleźli podobnych efektów – ich linie widmowe nie ulegały cyklicznym
zmianom. Doszli więc do wniosku, że to nie spektrograf jest winien, lecz
51 Pegasi. W styczniu 1995 roku ponownie zaczęli ją obserwować i
stopniowo z ich obliczeń wyłonił się obraz: coś dużego okrąża 51 Pegasi,
lecz nie tak dużego jak brązowy karzeł. Brązowe karły to nieudane
gwiazdy. Gwiazdy rodzą się, gdy pył i gaz pozostały po wielkim wybuchu
15
Sirrah należy obecnie do gwiazdozbioru Andromedy. W średniowieczu najlepszymi astronomami
byli Arabowie, dlatego większość nazw gwiazd jest pochodzenia arabskiego.
34
skupia się powoli, tworząc układ zwany przez astronomów dyskiem
protoplanetarnym. Układ ten przyciąga coraz więcej materii i zaczyna z
wolna wirować wokół własnej osi. Stopniowo tworzą się planetozymale:
niewielkie skały krążące wokół centrum dysku. W ciągu tysięcy lat, w
miarę jak coraz więcej materii poddaje się jego grawitacyjnemu
przyciąganiu, środek dysku powiększa się.
Gdy skupiająca się w środku materia gęstnieje pod wpływem
grawitacyjnego zapadania się dysku, ogrzewa się i zaczyna się żarzyć.
Jeżeli zgromadzi się dostatecznie dużo materii, przynajmniej tyle, ile
zawiera jedna dziesiąta część Słońca, to grawitacyjne przyciąganie
doprowadzi do powstania tak wysokich ciśnień i temperatur, że w rdzeniu
dysku będą zachodzić reakcje jądrowe: zamiana wodoru w hel w procesie
syntezy jądrowej. Obiekt staje się gwiazdą. Ciepło i promieniowanie
emitowane przez reakcje jądrowe w centrum dysku zapobiegają dalszemu
skupianiu się materii. Gwiazda staje się stabilna i w ciągu milionów lub
nawet miliardów lat promieniuje ciepło, światło oraz inne rodzaje
promieniowania. Jeżeli dysk nie zgromadzi dostatecznie dużo materii, aby
mogły zacząć się reakcje jądrowe, to nie stanie się gwiazdą, lecz brązowym
karłem. Brązowe karły emitują niewiele energii i dlatego są niewidoczne.
Wiele gwiazd w naszej Galaktyce tworzy układy podwójne, a niekiedy
nawet potrójne, krążąc wokół wspólnego środka masy. Ponad 60%
widocznych w Drodze Mlecznej gwiazd należy do takich układów. W ciągu
ostatnich kilku lat wykazano, że niektóre układy składają się z gwiazdy i
brązowego karła, krążących wokół siebie. Astronomowie definiują brązowe
karły jako obiekty o masie większej niż 80 mas Jowisza
. Mayor i Queloz
próbowali najpierw ustalić, czy odkryty przez nich obiekt nie jest
brązowym karłem, gdyż życie nie miałoby szans na powierzchni nieudanej
gwiazdy, a zatem ich odkrycie nie przyniosłoby im żadnego tytułu do
chwały.
Gdy w środku protoplanetarnego dysku tworzy się gwiazda, pozostały
materiał dysku nadal krąży dookoła. W ciągu kolejnych tysiącleci
oddziaływań grawitacyjnych pył i planetozymale nieustannie zderzają się
ze sobą i stopniowo zaczynają się łączyć. Zgodnie ze standardową teorią
astronomiczną w ten sposób wokół podobnych do Słońca gwiazd powstają
16
Astronomowie definiują brązowego karła jako obiekt o masie mniejszej, a nie większej od 0,08
masy Słońca, czyli od około 80 mas Jowisza, lecz z punktu widzenia poszukiwań planet nadających
się na siedlisko życia jest to i tak ciało o wiele za duże.
35
planety. Astronomowie w całości opierają tę teorię na obserwacjach
naszego układu planetarnego. Układ Słoneczny zawiera duże gazowe
planety – Jowisza, Saturna, Urana i Neptuna – na odległych orbitach,
daleko od Słońca. W pobliżu Słońca krążą małe skaliste planety – Ziemia,
Wenus i Mars. Astronomowie uogólnili te obserwacje i doszli do wniosku,
że inne układy planetarne muszą również stosować się do tego wzorca.
Koncepcja dysku protoplanetarnego bardzo dobrze pasuje do tej teorii.
Rozumowanie, które prowadzi do tego wniosku, polega na tym, że ciężkie
pierwiastki, takie jak żelazo, oraz skały krążyły bliżej środka dysku,
natomiast lekkie, takie jak wodór i hel, przemieszczały się w stronę jego
zewnętrznych obszarów. Małe, skaliste planety musiały zatem uformować
się w pobliżu nowo powstałej gwiazdy, natomiast duże ilości gazu i wody –
w postaci lodu – wraz z niewielkimi ilościami materiału skalnego
utworzyły w większych odległościach od środka duże planety – takie jak
Jowisz, który ma twardy rdzeń oraz bardzo dużą gazową atmosferę.
To właśnie ta teoria przez wiele miesięcy nie dawała spokoju Mayorowi
i Quelozowi. Obiekt, który według nich krążył wokół gwiazdy 51 Pegasi,
nie był wprawdzie brązowym karłem, jednak był dość masywny. Potrafili
oni w przybliżeniu wyznaczyć jego masę jako 60% masy Jowisza. Gdy
jednak dokładnie przejrzeli swoje obliczenia, odkryli zadziwiającą rzecz.
Ta „planeta” krążyła wokół swojej gwiazdy w odległości równej jednej
ósmej odległości Merkurego od Słońca! Obiekt, który był przyczyną
przesunięcia Dopplera w widmie 51 Pegasi, musiałby znajdować się od
gwiazdy w odległości równej 5% odległości Ziemi od Słońca. Jakim
sposobem planeta przypominająca wielkością Jowisza znalazła się tak
blisko swojej gwiazdy? Odkrycie to było sprzeczne z ogólnie przyjętą
teorią powstawania planet. W marcu 1995 roku, gdy Mayor i Queloz
ponownie testowali swoje przyrządy i sprawdzali obliczenia, aby wykonać
jeszcze kilka niezbędnych obserwacji, Pegaz i jego gwiazdy zaczęły
pojawiać się coraz rzadziej, aby w końcu na cztery miesiące zniknąć z
nieba półkuli północnej. Pojawią się dopiero w lipcu.
Z jakiego powodu wszyscy ci astronomowie w USA, Kanadzie i
Europie byli tak przekonani, że wokół innych gwiazd krążą planety? Co
skłoniło ich do poświęcenia dziesiątków lat ciężkiej pracy na odkrycie tych
planet? Odpowiedź na to pytanie pojawiła się w 1991 roku. W tym roku
odkryto nie jedną, lecz aż trzy pozasłoneczne planety. Odkrycia tego nie
nagłośniły jednak światowe media, ponieważ gwiazda, wokół której krążą
36
owe planety, jest martwa.
Ostateczny los każdej nowo powstałej gwiazdy zależy wyłącznie od jej
masy. Gwiazda o masie nieco mniejszej niż osiem mas Słońca będzie przez
kilka miliardów lat przetwarzać wodór w hel, a hel w cięższe pierwiastki.
Gdy skończy się jej jądrowe paliwo, powiększy swoje rozmiary i stanie się
czerwonym gigantem, po czym odrzuci zewnętrzne warstwy, które
rozproszą się w przestrzeni, tworząc tak zwaną mgławicę planetarną.
Następnie rdzeń gwiazdy się skurczy, gdyż ciśnieniu grawitacyjnemu nie
przeciwstawi się już ciśnienie reakcji jądrowych, i gwiazda stanie się
białym karłem, pozostając w tym stanie na zawsze.
Jeżeli jednak gwiazda zacznie życie z masą większą niż osiem mas
Słońca, to jej los będzie zupełnie inny. Gwiazdy takie są o wiele jaśniejsze
od Słońca, wydzielają znacznie więcej energii i bardzo szybko,
przynajmniej w kategoriach astronomicznych, wypalają swoje paliwo.
Duża gwiazda może wyczerpać swoje jądrowe paliwo w ciągu milionów lat
– w porównaniu z miliardami lat, które upłyną, zanim Słońce i podobne mu
gwiazdy przestaną świecić, to dość krótki czas. Ze względu na wysoką
temperaturę i rozkład natężenia promieniowania dużych gwiazd, ich kolor
jest zbliżony do niebieskiego, gdyż w niebieskiej części widma promieniują
więcej energii niż w innych kolorach pasma widzialnego. Gdy życie
gwiazdy dobiega końca, jej rozmiary wzrastają i staje się ona
nadolbrzymem, a następnie eksploduje. Wybuch taki nosi nazwę
supernowej i jest widoczny jako niezwykle jasny punkt na niebie,
jaśniejszy niż najmocniejsze gwiazdy. W 1054 roku roku chińscy
astronomowie opisali jasne światło na nocnym niebie, które pozostawało
widoczne przez kilka miesięcy. Obecnie wiemy, że była to supernowa,
której pozostałości są nadal widoczne jako sławna mgławica Krab
(oznaczana przez astronomów M1) w gwiazdozbiorze Byka.
W czasie wybuchu supernowej większość materii gwiazdy zostaje z
olbrzymią prędkością odrzucona w przestrzeń. Pozostałe po eksplozji
resztki, które nadal stanowią dość masywne ciało, zapadają się niemal bez
oporu do środka. Siły grawitacji zaczynają je ściskać i pod ich wpływem
materia ulega istotnym zmianom. Atomy nie są w stanie utrzymać swojej
struktury. Elektrony i protony, ściskane potężną siłą grawitacji, łączą się i
tworzą neutrony. Materia martwej gwiazdy tworzy strukturę nie znaną
nigdzie indziej we wszechświecie. Jeżeli proces zapadania się na tym się
zakończy, to gwiazda, zawierająca teraz niemal wyłącznie neutrony, tworzy
37
tak zwaną gwiazdę neutronową. Średnica typowej gwiazdy neutronowej
wynosi około 15 lub więcej kilometrów, lecz jej masa jest większa od masy
Słońca. Gwiazda neutronowa jest fantastycznie gęstym obiektem. Łyżka jej
materii waży więcej niż ziemska góra. Jeżeli pierwotna gwiazda jest
jeszcze bardziej masywna, to proces zapadania nie kończy się na fazie
gwiazdy neutronowej. Jej średnica nadal maleje,, jej gęstość osiąga
nieskończoność i gwiazda zamienia się w czarną dziurę: obiekt o średnicy
bliskiej zera i gęstości masy bliskiej nieskończoności. Grawitacyjne
przyciąganie czarnej dziury jest tak duże, że nawet światło nie może z niej
uciec – stąd jej nazwa.
Większość gwiazd neutronowych wiruje, często z. podziwu godną
częstością kilku lub więcej obrotów na sekundę. Potężne pole
magnetyczne, produkowane przez wirującą gwiazdę neutronową, jest
źródłem silnego, wyraźnie ukierunkowanego promieniowania. Wirująca
gwiazda neutronowa, emitująca impulsy promieniowania z taką
regularnością, że ich dokładność przewyższa dokładność najlepszych
zegarów atomowych, jest zwana p u 1 s a r e m. Pierwszy pulsar został
odkryty przez Jocelyn Bell, która w 1967 roku ukończyła na Cambridge
University studia doktoranckie w dziedzinie radioastronomii.
Zaobserwowała ona w gwiazdozbiorze Lisa źródło fal radiowych, które
emitowało impuls promieniowania co 1,3 sekundy. Początkowo sądziła, że
odebrała sygnał obcej cywilizacji, lecz brak przesunięcia Dopplera
oznaczał, że źródło sygnału nie mogło znajdować się na planecie. Od tego
czasu astronomowie odkryli ponad osiemset pulsarów. Pulsar, który
pozostał po zaobserwowanej przez Chińczyków w 1054 roku supernowej,
jest jednym z najmłodszych znanych pulsarów. Dokonuje on pełnego
obrotu co 0,03 sekundy. Niektóre pulsary osiągają milisekundowe częstości
– to znaczy, że wirują z taką częstością, że emitują wiązki fal radiowych co
kilka milisekund. Są to prawdopodobnie bardzo stare gwiazdy neutronowe,
które przestały emitować fale radiowe, gdyż wyczerpały nawet tę formę
energii. Gwiazdy te są obecnie całkowicie martwe. Jednak ich olbrzymia
grawitacja mogła w pewnym momencie przyciągnąć materię z przestrzeni
lub z pobliskiej gwiazdy. Gdy materia spada na powierzchnię gwiazdy
neutronowej, gwiazda zaczyna ponownie wirować, a jej ruch staje się tak
szybki, że jeden obrót trwa zaledwie kilka milisekund. W ten sposób
powstaje pulsar milisekundowy.
W 1983 roku młody polski astronom, Aleksander Wolszczan, przybył do
38
Puerto Rico, gdzie znajduje się teleskop Arecibo – największy
radioteleskop na świecie. Był on wtedy uszkodzony, a naprawa trwała
wiele lat. W tym czasie jego 300-metrowej anteny nie można było ustawić
w kierunku płaszczyzny galaktyki, co zwykle czynią radioastronomowie,
gdy go używają. Wolszczan miał więc niezwykłą okazję do skorzystania z
potężnego radioteleskopu w celu poszukiwania pulsarów w mało
popularnych kierunkach, takich, którymi nikt inny się nie interesował. Nikt
też nie konkurował z Wolszczanem o czas obserwacyjny, dzięki czemu
jeden z najdroższych instrumentów astronomicznych był tylko do jego
dyspozycji.
Pod koniec 1990 roku radioastronomowie odkryli kilka
milisekundowych pulsarów, a Wolszczan, posługując się uszkodzonym
dyskiem Arecibo, nieoczekiwanie wykrył nowy pulsar milisekundowy,
którego słabe promieniowanie biegło z okolicy gwiazdozbioru Panny.
Został on później nazwany PSR B1257+12, a jego źródło znajduje się w
odległości 1300 lat świetlnych od Ziemi i wiruje z częstością ponad 161
razy na sekundę, czyli raz na 6,2 milisekundy. Znalazłszy przypadkiem
radioźródło leżące dokładnie w kierunku, w którym skierowana była
olbrzymia antena unieruchomionego teleskopu, Wolszczan miał mnóstwo
czasu na jego zbadanie. Korzystając z pomocy Dale'a Fraila,
radioastronoma pracującego przy układzie dwudziestu siedmiu
radioteleskopów, zwanym Very Large Array
Nowym Meksyku, ustalił lokalizację pulsara, wykorzystując fakt, że
obserwacje pojedynczego źródła fal radiowych z dwóch różnych i
odległych obserwatoriów pozwalają na bardzo dokładne wyznaczenie
położenia, podobnie jak spoglądanie na przedmiot dwojgiem oczu
umożliwia nam lepszą ocenę jego odległości niż za pomocą tylko jednego
oka.
W grudniu 1991 roku Wolszczan i Frail odkryli niewielkie zaburzenia
sygnału nadchodzącego z PSR BI257+12. Pulsary działają jak kosmiczne
zegary, wysyłając fale radiowe z dokładnością przewyższającą każdy zegar
ziemski. Jakiekolwiek zmiany ich sygnałów mogą być wykryte i zmierzone
z wielką dokładnością. Dwaj astronomowie przeprowadzili komputerową
analizę przesunięć częstości obserwowanych sygnałów i po kilku
tygodniach stwierdzili, że wokół PSR BI 257+12 krążą trzy różne planety.
Ich rozmiary są porównywalne z rozmiarami Ziemi, a ich orbity są zbliżone
17
Ang.: bardzo duży układ.
39
do wokółsłonecznych orbit Ziemi i Wenus. Dzięki fantastycznej
dokładności emisji pulsarów, wyników Wolszczanai Frailanie sposób
zakwestionować, lecz pozostaje do rozwiązania zagadka: Co robią te
planety na orbitach wokół gwiazdy, która miliony lat wcześniej
eksplodowała w jednym z najpotężniejszych znanych w naturze
kataklizmów – w wybuchu supernowej? Gdyby krążyły one wokół
pierwotnej gwiazdy-olbrzyma, eksplozja wyrzuciłaby je w przestrzeń.
Jedyne wytłumaczenie, które naukowcy potrafili podać, prowadziło do
wniosku, że planety te powstały wokół pulsara już po wybuchu
supernowej, który zniszczył pierwotną gwiazdę. Pulsar jest martwą
gwiazdą, nie emitującą światła ani ciepła, więc szanse na powstanie życia
na tych planetach są raczej niewielkie. Co więcej, promieniowanie pulsara
jest tak intensywne, że jakiekolwiek powstałe na tych planetach życie
zostałoby natychmiast zniszczone przez śmiercionośne wiązki promieni
gamma i inne wysokoenergetyczne promieniowanie. Pozostał jednak
niepodważalny fakt, że w 1991 roku zostały odkryte trzy planety krążące
wokół innego obiektu niż nasze Słońce. Odkrycie to zachęciło do dalszych
obserwacji wszystkich astronomów poszukujących planet, na których
mogłoby powstać życie – planet krążących wokół normalnych gwiazd,
takich jak Słońce.
W październiku 1995 roku we Florencji miała się odbyć
międzynarodowa konferencja, na której astronomowie specjalizujący się w
pomiarach przesunięcia Dopplera mieli zaprezentować swoje najnowsze
wyniki. Mayor i Queloz starali się doprowadzić do końca swoje
obserwacje, gdyż obawiali się, że niektórzy z ich konkurentów mogli
odkryć planety krążące wokół normalnych gwiazd. Niecierpliwie
oczekiwali na powrót Pegaza na nocne niebo, aby zakończyć badania i
zaprezentować swoje wyniki we Florencji.
Tuż przed północą Pegaz stał się całkowicie widoczny we wschodniej
części nieba, a nad nim majaczył Czworokąt Jesienny. Poniżej Czworokąta
Jesiennego dwaj astronomowie mogli gołym okiem dojrzeć 51 Pegasi.
Wycelowali swój teleskop i wykonali obserwacje, na które czekali cztery
miesiące, aby uzyskać kompletny zestaw odczytów ruchów gwiazdy w
ciągu kilku cykli. Aby zwiększyć dokładność pomiarów, musieli jeszcze
poczekać na kulminację gwiazdy, czyli jej przejście przez najwyższy punkt
na niebie. Miało to nastąpić dopiero o czwartej nad ranem, więc krótko po
północy Mayor i Queloz odesłali swoich bliskich do łóżek i pozostali w
40
obserwatorium sami. Jeżeli wszystko pójdzie po ich myśli, to rano będą
wspólnie z rodzinami świętować swoje odkrycie. Minęły cztery godziny,
wykonali swój ostateczny test i mogli w końcu definitywnie wykazać, że
planeta o rozmiarach co najmniej 60% Jowisza krąży blisko gwiazdy 51
Pegasi, dokonując pełnego obrotu co 4,2 dnia. Dołączywszy rankiem do
swoich rodzin, uczcili odkrycie szampanem i tortem malinowym. Trzyletni
syn Didiera Queloza, najmłodszy uczestnik uroczystości, był zapewne
jeszcze zbyt młody, aby zrozumieć powód wielkiego podniecenia.
Mayor i Queloz sformułowali swoje wnioski w publikacji, którą
zaprezentowali we Florencji w październiku 1995 roku. W ciągu kilku dni
po ogłoszeniu przez nich tego odkrycia, Geoffrey Marcy i Paul Butler
zweryfikowali – niezależnie od Szwajcarów – własne wyniki. Planeta
krążąca wokół 51 Pegasi stała się faktem. W ciągu następnego roku Marcy
i Butler przeanalizowali swoje obserwacje i ogłosili istnienie kilku innych
pozasłonecznych planet krążących wokół podobnych do Słońca gwiazd.
Inne zespoły odkryły jeszcze więcej planet. Do 1997 roku stwierdzono
istnienie dziewięciu pozasłonecznych planet krążących wokół gwiazd
należących do tej samej klasy co Słońce. Czy na którejś z nich rozwinęło
się inteligentne życie? Spośród dziewięciu pozasłonecznych planet jedna –
krążąca wokół gwiazdy 70 Virginis – prawdopodobnie znajduje się w
zamieszkiwalnej strefie swojej gwiazdy. Czy istnieje na niej życie?
41
Rozdział 3
CHEMIA WSZECHŚWIATA
W 1864 roku do laboratorium Ludwika Pasteura – wielkiego
francuskiego chemika i mikrobiologa (1822-1895), odkrywcy procesu
pasteryzacji – przyniesiono dziwny meteoryt, wyglądający raczej jak
kawałek spalonej materii. Obiekt ten spadł na ziemię 15 marca 1806 roku o
17.30, wywołując głośną eksplozję, w pobliżu wioski Valence w
południowej Francji. Dwaj pracujący na pobliskim polu rolnicy zobaczyli
spadający z nieba duży przedmiot i pobiegli go zobaczyć. To, co ujrzeli, nie
przypominało niczego, co widzieli wcześniej. Przedmiot ów wyglądał jak
duży kamień, lecz był bardziej miękki i cały czarny – wyglądał jak kawałek
spalonego gruzu. Tajemniczy obiekt został zbadany przez naukowców,
którzy, ku swojemu zaskoczeniu, odkryli, że zawierał on 20% wody i 10%
materii organicznej. Było to zadziwiające odkrycie, zważywszy na fakt, że
chodziło o meteoryt. Meteoryty to obiekty, które spadają na Ziemię z
przestrzeni kosmicznej. Zazwyczaj dzieli się je na żelazne, zbudowane z
żelaza oraz niklu, i kamienne, czyli kawałki pozaziemskich skał. Kamienne
meteoryty zdarzają się zdecydowanie częściej, lecz niełatwo je znaleźć,
ponieważ są bardzo podobne do zwykłych ziemskich kamieni i skał.
Meteoryty żelazne łatwo odróżnić, ponieważ są gęstsze od kamieni i przy
uważnym badaniu ujawniają swoją metaliczną strukturę. Jednak meteoryt
znaleziony w Valence był zupełnie inny.
W swoim Memoir on the Organized Bodies Which Exist in the
Atmosphere [Rozprawa o zorganizowanych ciałach istniejących w
atmosferze] Pasteur stwierdził, że powietrze zawiera drobnoustroje. Gdy
zostaną one umieszczone w środowisku, w którym mogą się rozwijać, na
przykład na szalce Petriego, zaczynają się rozmnażać, a ich obecność
można wykryć. Pasteur wynalazł techniki sterylizacyjne, za pomocą
których oddzielał organizmy i badał, gdzie i w jakich warunkach mogą one
istnieć. Do badania zwęglonego meteorytu, który mu dostarczono,
42
skonstruował specjalne wiertło, aby wydobyć próbki z jego środka.
Stosując tę metodę, miał nadzieję, że będzie mógł sprawdzić, czy wewnątrz
meteorytu istniało życie, zanim doszło do ewentualnego zanieczyszczenia
na Ziemi. Wydobycie próbek z wnętrza meteorytu było szczególnie ważne,
ponieważ zanim dostarczono go do laboratorium Pasteura, meteoryt był
dotykany przez ludzi oraz eksponowany w muzeach. Stosując sterylne
metody, Pasteur wydobył niewielkie próbki materii z meteorytu, które
następnie umieścił w środowisku sprzyjającym rozwojowi materii
organicznej. Okazało się, że meteoryt nie zawierał żywych organizmów,
aczkolwiek nie było żadnych wątpliwości, że znajdowały się w nim
złożone związki chemiczne, które nazywamy materią organiczną.
Obecnie naukowcy wiedzą, że około 5% wszystkich spadających na
Ziemię meteorytów należy do tej samej kategorii, co meteoryt z Valence.
Nazywamy je chondrytami węgli s ty mi, ponieważ zawierają węgiel i
związki organiczne. Sądzi się, że powstały one w przestrzeni kosmicznej w
okresie, gdy nasz układ był jeszcze młody: niektóre z nich datuje się na 4,5
miliarda lat. Te pozostałości z czasów powstawania Układu Słonecznego
przybywają na Ziemię w taki sam sposób jak meteoryty kamienne i
żelazne. Ponowne i rygorystyczne analizy chemiczne francuskich
meteorytów wykazały obecność ciężkich cząsteczek: parafin, smoły,
kwasów tłuszczowych i innych opartych na węglu molekuł. Dla
poszukiwań życia pozaziemskiego dane te są niezwykle istotne, gdyż są to
związki chemiczne, które tworzą białka i inne składniki żywej materii.
Kolejny chondryt węglisty, nazwany meteorytem z Murchison,
wylądował w Australii w 1969 roku. Analiza tego meteorytu przyniosła
wielką niespodziankę: zawierał on pięćdziesiąt aminokwasów, z których
osiem wchodzi w skład wszystkich białek. Chondryty węgliste są
bezpośrednim dowodem na to, że w przestrzeni kosmicznej istnieje materia
organiczna. Czym jednak jest materia organiczna? Czy stanowi ona życie?
Jakie pierwiastki chemiczne i jakie procesy istnieją w przestrzeni
kosmicznej?
Fabrykami pierwiastków chemicznych są gwiazdy. Jeżeli teoria
wielkiego wybuchu jest słuszna, to wszechświat zaczął się od gigantycznej
eksplozji około 14 miliardów lat temu, kiedy to olbrzymie ilości materii i
energii – Einstein wykazał, że w istocie są one równoważne – zostały
wyrzucone w przestrzeń, którą stworzyły i zaczęły się wraz z nią
rozszerzać. Z początku istniało tylko promieniowanie i lekkie cząstki, które
43
poruszały się z olbrzymimi prędkościami, zderzając się ze sobą. Po
pewnym czasie z tych lekkich cząstek powstała materia barionowa, czyli
znane nam cząstki: protony, neutrony oraz atomy.
Najlżejszym pierwiastkiem we wszechświecie jest wodór. Zawiera on
tylko dwie cząstki o równych co do wielkości, lecz przeciwnych ładunkach
elektrycznych: dodatnio naładowany proton i ujemnie naładowany
elektron. Jądro wodoru składa się z pojedynczego protonu, wokół którego
porusza się elektron. Pozostałe po wielkim wybuchu elektrony, spotykając
na swej drodze protony, ulegały elektrycznemu przyciąganiu i utworzyły
olbrzymią liczbę atomów wodoru. Gdy spotkały się dwa atomy wodoru,
wchodziły w reakcję chemiczną, tworząc cząsteczkę wodoru, H
2
.
Naukowcy sądzą, że atomowy i molekularny wodór stanowił najbardziej
rozpowszechniony pierwiastek wczesnego wszechświata.
Pierwotna chmura wodoru rozprzestrzeniła się po wielkim wybuchu i
nastźpnie zaczź³a tworzyę wielkie skupiska, którę rozszerza³y siź wraz z
reszt¹ wszechwiata. W miarź up³ywu c£
asu
chmury wodoru gęstniały coraz
bardziej – ze względu na przyciąganie grawitacyjne, jakie materia wywiera
na wszystko, co ją otacza. Gdy chmura wodoru gęstniała, rosła jej
temperatura i w pewtiym momencie ciepło i ciśnienie były tak duże, że
wyzwoliły r e a k c j e jądro-w e: jądra wodoru zaczęły się łączyć, tworząc
jądra helu i uwalniając przy tym znaczne ilości energii. W powstałych
warunkach wodór nie mógł istnieć w postaci cząsteczki – dwóch
połączonych siłami elektrycznymi atomów. Ciśnienie i temperatura zmusiły
dwa jądra do połączenia się, przyłączenia dwóch neutronów i utworzenia
nowego jądra. Uwolniona podczas tej reakcji energia miała formę
promieniowania, łącznie ze światłem i promieniowaniem cieplnym. Takie
same reakcje zachodzą wewnątrz naszego Słonek- W ten sposób we
wszechświecie, zawierającym głównie wodór, pojawił się nowy
pierwiastek – hel.
Hel odkrył sir Joseph Norman Lockyer (1836-1920) w 1868 roku, nie
znalazł go jednak na Ziemi, lecz wydedukował jego istnienie wewnątrz
Słońca, obserwując nowe, wcześniej nie zidentyfikowane linie widmowe w
świetle słonecznym. Lockyer sądził, że odkryty przez niego pierwiastek
jest metalem, więc nadał mu nazwę helium: pierwsza część tego słowa,
„hel” pochodzi od greckiego Helios, oznaczającego Słońce, natomiast
przyrostek „ium” oznacza metal (podobnie jak w łacińskich nazwach
sodium, calcium oznaczających odpowiednio sód i wapń oraz w nazwach
44
innych metali). Jak na ironię hel znajdujący się na Ziemi nie pochodzi z
olbrzymich zapasów helu zmagazynowanych w Słońcu. Hel, który pojawił
się na Ziemi w trakcie powstawania planety, już dawno uleciał w
przestrzeń. Niewielkie ilości helu, które obecnie znajdujemy na Ziemi,
pochodzą z radioaktywnych rozpadów innych pierwiastków.
Gdy gwiazda wypali cały wodór, grozi jej grawitacyjny kolaps, chyba że
może kontynuować spalanie i zamieniać hel w rdzeniu w nowy
pierwiastek: węgiel. Powstanie węgla było najbardziej fortunnym
zdarzeniem w historii wszechświata, gdyż dzięki niemu na Ziemi mogło
rozwinąć się życie. Bez cudownej przemiany helu w węgiel życie w takiej
formie, jaką znamy na Ziemi, nie mogłoby powstać. Dlaczego węgiel jest
taki ważny? Odpowiedź należy do chemii.
W odróżnieniu od reakcji jądrowych – które zachodzą w jądrach
atomów – reakcje chemiczne łączą atomy dzięki wymianie lub
uwspólnianiu elektronów. Węgiel może utworzyć oparte na uwspólnianiu
elektronów wiązania chemiczne z czterema innymi atomami. Mogą to być
inne atomy węgla, atomy innych pierwiastków lub ich związki. Oparte na
węglu cząsteczki chemiczne mogą tworzyć zdumiewająco różnorodne
kombinacje atomów, czyniąc z węgla najbardziej wszechstronny atom we
wszechświecie.
Każdy diament jest olbrzymią, pojedynczą cząsteczką zbudowaną
wyłącznie z atomów węgla. Każdy jej atom jest ściśle związany z czterema
innymi atomami węgla, znajdującymi się w wierzchołkach czworościanu.
Krystaliczna struktura diamentu stanowi przyczynę zarówno jego
twardości, jak i właściwości estetycznych. Ten sam atom węgla może
jednak przyłączyć zaledwie dwa atomy tlenu, dzieląc z każdym z nich po
dwa elektrony i tworząc cząsteczkę gazu – dwutlenku węgla, CO
2
. Inną
opartą na węglu cząsteczką jest metan, który składa się z atomu węgla
złączonego z czterema atomami wodoru, przestrzennie rozłożonymi wokół
niego: CH
4
. Metan i dwutlenek węgla istnieją w dużych ilościach na
wszystkich planetach, na których wykryto węgiel. Pierwotna atmosfera
Ziemi składała się głównie z tych dwóch gazów. Jej skład zmieniło dopiero
pojawienie się życia. Węgiel lubi także tworzyć długie łańcuchy lub
pierścienie, do których mogą się przyłączać inne atomy, na przykład wodór
i jeszcze kilka pierwiastków. W tym sensie węgiel stanowi dosłownie rdzeń
wielu dużych i skomplikowanych, występujących w naturze cząsteczek.
45
Tu wkraczamy w olbrzymi obszar chemii organicznej. Nazwa wzięła się
stąd, że wiele spośród tych związków pochodzi od organizmów żywych.
Znane są miliony różnych organicznych związków chemicznych – to jakby
hołd dla niewiarygodnej zdolności węgla do tworzenia wiązań na prawie
nieskończoną liczbę sposobów. „Organiczne” związki, które w postaci
chondrytów węglistych przybyły na Ziemię z przestrzeni kosmicznej, to
dokładnie takie same duże molekuły, zbudowane z połączonych atomów
węgla otoczonych atomami wodoru i kilku innych pierwiastków. Wydaje
się zatem, że otwarta przestrzeń również zawiera cudowne atomy węgla.
Skąd jednak wziął się węgiel?
Młody wszechświat składał się z prostych gazów – wodoru i helu.
Spalające wodór gwiazdy mogły przeciwstawić się grawitacyjnemu
zapadaniu, dopóki miały paliwo jądrowe. Najpierw zamieniały wodór w
hel, następnie hel w węgiel, a jeszcze cięższe gwiazdy mogły kontynuować
ten proces, produkując kolejne pierwiastki: azot, tlen, fosfor, żelazo. Gdy
powstało żelazo, reakcje jądrowe musiały się zakończyć, ponieważ reakcje
syntezy atomów żelaza nie produkują energii – wprost przeciwnie,
potrzebują jej. Gwiazda ginie, gdy zamieni całą swoją materię w żelazo.
Śmierć gwiazdy polega na wybuchu supernowej lub na powstaniu
mgławicy planetarnej
. Mgławice planetarne wzbogacają wszechświat
w lekkie pierwiastki – głównie węgiel– powstałe w mniejszych gwiazdach.
Gdy dostatecznie duża liczba gwiazd zakończyła swoje trwające miliony
lub miliardy lat życie, we wszechświecie pojawiło się dostatecznie dużo
swobodnie przemieszczających się, bogatych w różne pierwiastki gazów i
pyłów, aby powstające nowe protoplanetarne dyski mogły zawierać
znaczące ilości chemicznie urozmaiconej materii. Nasz Układ Słoneczny
ma „zaledwie” 5 miliardów lat, natomiast cały wszechświat liczy około 12
do 15 miliardów lat. Układy, które istniały przed powstaniem naszego
Słońca, prawdopodobnie nie zawierały dostatecznie dużo niezbędnych do
powstania życia pierwiastków chemicznych. Jest raczej mało
prawdopodobne, że życie – w takiej postaci, w jakiej znamy je na Ziemi –
mogłoby powstać na gazowym gigancie złożonym głównie z wodoru i z
lodowego rdzenia, na planecie podobnej do Jowisza.
Niektórzy naukowcy uważają, że życie mogło rozwinąć się tylko wokół
18
Nazwa ta jest wynikiem interesującej pomyłki. Astronomowie, którzy po raz pierwszy
zaobserwowali mgławice gazu i pyłu otaczające takie ginące gwiazdy, sądzili, że patrzą na
przyćmione, mgliste planety, podobne do Urana, i nazwali je mgławicami planetarnymi.
46
gwiazdy należącej do dużej galaktyki, takiej jak nasza Droga Mleczna,
ponieważ tylko duże galaktyki zawierają dostateczną ilość materii, aby
mogła powstać dostatecznie duża liczba gwiazd, które – gdy umrą –
wzbogacą galaktyczną przestrzeń w dostateczną ilość niezbędnych do
powstania życia pierwiastków chemicznych. Żelazo, z którego zrobiony
jest twój samochód, a także hemoglobina w twojej krwi, znajdowało się
niegdyś głęboko wewnątrz dużej gwiazdy, która w odległej przeszłości
eksplodowała jako supernowa. Sczepione w długie łańcuchy atomy węgla
tworzące twój kod genetyczny, zostały wyplute w przestrzeń przez dawno
umarłą gwiazdę. Przeszła historia wszechświata, miliardy lat, które
upłynęły od wielkiego wybuchu, są przyczyną naszego istnienia tu i teraz.
W pewnym sensie jesteśmy reinkarnacjami martwych ciał niebieskich,
które pojawiły się o kosmicznym poranku.
Chemiczna „zupa”, która przenika niektóre obszary przestrzeni – gdzie
gwiazdy ginęły, a ich zawartość rozlewała się i wypełniała sześcienne lata
świetlne międzygwiezdnej pustki – staje się chemicznie aktywna, w miarę
jak pierwiastki chemiczne zaczynają się mieszać. Za pomocą analizy
spektralnej biegnącego przez międzygwiezdną przestrzeń światła
naukowcy stwierdzili istnienie złożonych cząsteczek w międzygwiezdnych
chmurach gazu i pyłu. Organiczne molekuły chondrytów węglistych
powstały więc w kosmicznej pustce, gdy atomy wodoru napotkały węgiel.
Jednak węgiel nie zawsze czekana śmierć gwiazdy, aby wybrać się w
międzygwiezdną podróż. Niekiedy sam startuje.
Naukowców od dawna dziwiło istnienie gwiazd zmiennych, dla których
okresy jasności i przyciemniania nie układały się w regularny wzorzec,
który z kolei można by przypisać obecności niewidocznego, krążącego
wokół gwiazdy towarzysza. Najbardziej znanym przykładem takiej
nieregularnej gwiazdy zmiennej jest R Coronae Bore-alis. Należy ona do
gwiazdozbioru Corona Borealis – Korony Północnej, pięknego łuku na
północnym niebie. Co kilka tygodni R Cor Bor – pod taką nieformalną
nazwą jest znana – przygasa o kilka rzędów wielkości. Naukowcy nie
mogli zrozumieć, dlaczego tak się dzieje, dopóki nie użyli metod
spektralnych do zbadania zawartości gwiazdy, a raczej do zbadania, które
linie spektralne są absorbowane, gdy gwiazda przygasa. Rezultat był
zaskakujący: gwiazda wydziela olbrzymie chmury sadzy – cząstek węgla,
które na pewien czas przykrywają jej otoczenie, zasłaniając emitowane
przez nią światło. Gdy chmury węgla rozproszą się w przestrzeni, gwiazda
47
ponownie się rozjaśnia, aż do następnego wytrysku sadzy. Co jednak dzieje
się z tym węglowym pyłem? Czyż przestrzeń nie jest pusta?
Z obserwacji pustych połaci przestrzeni wiemy, że nie jest ona
jednorodna. Wokół Ziemi i Słońca znajdują się lata świetlne bardzo pustej
przestrzeni, w której na centymetr sześcienny przypada zaledwie jedna
cząstka. Dzięki temu możemy wysyłać statki kosmiczne na orbitę
wokółziemską, na Księżyc, w kierunku innych planet lub poza Układ
Słoneczny.
Istnieją jednak duże obszary odległej przestrzeni, gdzie materia jest
znacznie gęstsza. Mgławica Orła, znajdująca się 8000 lat świetlnych od
nas, obszar przestrzeni rozciągający się na kilka lat świetlnych w każdym
kierunku, składa się z gargantuicznych chmur pyłu i gazu zawierających
wiele różnych pierwiastków. Podobne chmury występują w wielu innych
rejonach wszechświata. W tych gęstych chmurach nie mógłby podróżować
żaden pojazd kosmiczny, gdyż ich materia gęstnieje coraz bardziej i
krzepnie, formując gwiazdy i planety. Prawdopodobnie tak wyglądała
przestrzeń wokół nas 5 miliardów lat temu, dopóki olbrzymie chmury nie
skondensowały się i nie utworzyły Słońca oraz jego planet. Być może
gwiazdy położone najbliżej nas – odległy o 4,25 roku świetlnego układ
Alfa Centauri – powstały z tej samej chmury Jeżeli rozciągała się ona
dostatecznie daleko w czasie, gdy powstał Układ Słoneczny.
Galaktyki zawierają mnóstwo rodzących gwiazdy chmur. Teleskopowe
obserwacje odległych galaktyk pozwalają zobaczyć wiele mgławicowych
obszarów. W Drodze Mlecznej nawet za pomocą małego amatorskiego
teleskopu można zobaczyć siedliska nowo powstających gwiazd. Mgławica
Oriona, zwana M42, leży poniżej miecza wiszącego u pasa łowcy. Chmura
ta, położona 1500 lat świetlnych od nas, ma średnicę 15 lat świetlnych i jest
widoczna gołym okiem jako mglista plama na nocnym niebie. W jej
wnętrzu powstają tysiące nowych gwiazd.
Najbardziej imponująca jest chmura położona w kierunku Sagittariusa.
Gwiazdozbiór Sagittariusa, czyli Strzelca, na półkuli północnej jest
widoczny w lecie tuż nad horyzontem w kierunku południowym. Jego
nazwa pochodzi od mitycznego greckiego centaura Krotosa – pół
człowieka, pół konia. Trzyma on w rękach łuk i strzałę, kierując ją w stronę
potężnego skorpiona położonego w gwiazdozbiorze Skorpiona. Strzelca
łatwo rozpoznać po tym, że mniej przypomina on strzelca, a bardziej
48
czajniczek do herbaty. Wystarczy odszukać na niebie Przechylony
staromodny czajnik, z uszkiem po lewej, z trójkątną pokrywką i z
dzióbkiem po prawej stronie. Nietrudno wyobrazić sobie lejącą się do
filiżanki gorącą wodę. Patrząc w kierunku dzióbka, kierujemy wzrok w
stronę środka naszej Galaktyki, Drogi Mlecznej Wtedy pojawia się coś
dziwnego.
Nasza Galaktyka zawiera setki miliardów gwiazd. Gdy spoglądamy w
kierunku jej centrum, położonego tysiące lat świetlnych od nas,
powinniśmy widząc znacznie więcej gwiazd niż w jakimkolwiek innym
kierunku n a niebie. A w rzeczywistości wcale tak nie jest. Widzimy
Strzelca, na prawo od niego Skorpiona, lecz nic więcej – niebo nie jest
pełne jasnych gwiazd, jak moglibyśmy się spodziewać. Powód tego
oczywistego paradoksu stał się zrozumiały dosyć niedawno, gdy
Kosmiczny teleskop Hubble'a został wycelowany w kierunku Strzelca i
zaczaj obserwować częstości podczerwone. Niebo w tym kierunku stało się
nagle bardzo jasne. Okazało się, że w kierunku środka Drtfgi Mlecznej leżą
olbrzymie gwiazdy, gwiazdy emitujące niewiarygodne ilości energii –
gwiazdy miliony razy jaśniejsze od Słońca. Nie możemy ich jednak
zobaczyć w widzialnym zakresie promieniowania, ponieważ centrum
Galaktyki zasłania niezwykle duża i gęsta chmura gazu i pyłu. Powstają w
niej miliony gwiazd, lecz nie możemy zobaczyć ani jednej z nich. Droga
Mleczna zawiera wielkie ilości ciemnej materii, jak naukowcy nazywają
niewidoczne chmury pyłu - swobodnie przemieszczające się wewnątrz
galaktyki – których bogactwo chemiczne stało się przyczyną powstania
życia. Przede wszystkim dały nam one obfite ilości węgla, głównego
pierwiastka życia, a także wodór i inne pierwiastki.
Tlen: źródło energii dla życia
Tlen jest najbardziej rozpowszechnionym pierwiastkiem w płaszczu
Ziemi. Licząc według wagi, tlen stanowi 89% wody, 23% powietrza (21%
objętości powietrza) oraz 50% powszechnie występujących na Ziemi
krzemianów. Ta obfitość tlenu również wynika ze śmierci gwiazd, które
wytworzyły tlen w trakcie swoich przemian jądrowych. Masa atomowa
tlenu jest większa niż węgla, więc jego synteza odbywała się w wyższej
fazie reakcji jądrowych. Atom tlenu może się łączyć z innymi atomami
przez wiązanie chemiczne, w którym udział biorą dwa elektrony. Stanowi
49
to tylko połowę liczby połączeń, jakie może utworzyć węgiel (dysponujący
czterema chemicznie aktywnymi elektronami), więc tlen tworzy mniejszą
liczbę wiązań chemicznych niż węgiel.
Tlen jest jednak niezwykle aktywnym pierwiastkiem. To właśnie jego
reaktywność jest niezwykle użyteczna dla organizmów żywych. Gdy tlen
łączy się z innymi atomami, uwalnia energię, która może być wykorzystana
przez organizm, podtrzymując życie. Wspomnieliśmy już powszechnie
występujące wiązanie chemiczne, w którym brał udział tlen, tworząc
cząsteczkę dwutlenku węgla: CO
2
. Każdy atom tlenu dzieli dwa elektrony z
atomem węgla. Woda jest kolejną powszechną cząsteczką, w której
występuje tlen: H
2
O. Są to silne wiązania – zarówno dwutlenek węgla, jak i
woda stanowią bardzo stabilne cząsteczki. Gdy nie ma w pobliżu innych
atomów, atomy tlenu łączą się w pary, dzieląc się dwoma elektronami.
Jednak podobnie jak para zbyt dobrze dobranych kochanków, nie są
szczęśliwe w tym związku: wiązanie łatwo się łamie, gdy w pobliżu znajdą
się inne, bardziej atrakcyjne pierwiastki – dlatego tlen jest bardzo
reaktywny. Gdy substancja zawierająca związek węgla wchodzi w kontakt
z tlenem, a iskra lub ciepło dostarczy energię potrzebną do zainicjowania
reakcji, substancja ta zacznie się palić: atomy tlenu uwolnią się od siebie
nawzajem i każdy z nich połączy się z atomem węgla, tworząc silnie
związaną cząsteczkę CO
2
.
W sprzyjających warunkach pierścienie i długie łańcuchy
węglowodorów łatwo ulegają natarczywości tlenu: mieszaninie tlenu i pary
benzyny w cylindrze silnika samochodowego wystarczy jedna iskra, aby
zainicjować reakcję, która utrzymuje auto w ruchu. Produktem tej reakcji
są dwie stabilne cząsteczki, dwutlenek węgla i woda. Gdy bogata w węgiel
substancja pali się w atmosferze zawierającej niedostateczną ilość tlenu,
powstaje mniej stabilny związek tlenu i węgla – cząsteczka tlenku węgla,
CO. Jej wiązanie jest mniej optymalne, gdyż dwa spośród czterech
aktywnych elektronów węgla pozostają nie wykorzystane. Dlatego tlenek
węgla nie jest tak trwały jak dwutlenek węgla i gdy dostanie się do krwi,
wchodzi w reakcję z przenoszącą tlen hemoglobiną – powodując zatrucie
żywej istoty, gdy stężenie CO jest wysokie.
Odwrotny proces, uwolnienie tlenu z dwutlenku węgla, to trudne
zadanie, lecz niektóre organizmy żywe potrafią sobie z nim poradzić.
Astrofizycy sądzą, że na pozbawionych życia planetach wolny tlen będzie
występował w niewielkich ilościach w postaci cząsteczki O
2
lub mniej
50
stabilnej cząsteczki ozonu, O
3
, ponieważ woda i dwutlenek węgla nie mają
innego sposobu uwolnienia tlenu niż stosowane przez rośliny procesy
metabolizmu. Gdy na Ziemi rozwinęło się życie roślinne, reakcja
fotosyntezy zaczęła wypełniać atmosferę tlenem. Proces ten polega na
rozerwaniu cząsteczki CO
2
przez promienie słoneczne i uwolnieniu tlenu
oraz zapewnieniu roślinom niezbędnej do życia energii. Po wielu milionach
lat aktywnej fotosyntezy atmosfera zawierała znaczne ilości tlenu (obecnie
21% objętości powietrza stanowi tlen), co umożliwiło powstanie i
podtrzymanie życia zwierzęcego. Gdy spalamy paliwa kopalne,
przesuwamy wskazówkę na skali składu atmosfery od tlenu w kierunku
dwutlenku węgla. Gdy ścinamy i spalamy drzewa, popełniamy podwójną
zbrodnię, ponieważ nie tylko usuwamy z atmosfery tlen i produkujemy
cieplarniany gaz CO
2
, lecz na dodatek likwidujemy producentów tlenu.
Duże ilości tlenu w atmosferze świadczą o procesie fotosyntezy, więc
poszukiwania życia pozaziemskiego w dużej mierze polegają na
poszukiwaniach planet z tlenem w atmosferze. Niedawne obserwacje
Tytana, księżyca Saturna, wykazały obecność pewnych ilości ozonu, a
wcześniejsze obserwacje Europy i Ganimedesa, księżyców Jowisza –
obecność tlenu. Jeżeli odkrycia te zostaną potwierdzone, to mogą być
dowodem obecności życia na niektórych satelitach planet Układu
Słonecznego. Widma dwu pobliskich, podobnych do Słońca gwiazd:
Epsilon Eridani oraz Tau Ceti, znajdujących się w odległości, odpowiednio,
10,7 i 11,8 roku świetlnego od Ziemi, wskazują na obecność węgla i tlenu.
Oznacza to, że pierwiastki te są obecne w atmosferach obu gwiazd. Nie
wiemy jednak, czy gwiazdy te mają planety, a jeśli nawet mają, to czy tlen i
węgiel występują również w atmosferach samych planet. Dla
poszukiwaczy życia pozaziemskiego stwierdzenie obecności wolnego tlenu
w atmosferze krążącej wokół pobliskiej gwiazdy planety stanowiłoby
cudowną wiadomość.
Azot: podstawa białek
Oprócz węgla, wodoru, tlenu i niekiedy również innych pierwiastków,
takich jak siarka, fosfor, żelazo i miedź, wszystkie białka zawierają około
16% azotu. Bez azotu życie w znanej nam na Ziemi postaci nie mogłoby
istnieć.
Azot lubi łączyć się z trzema atomami wodoru, dzieląc z każdym jeden
51
elektron i tworząc amoniak, NH
3
. Ten nieprzyjemnie pachnący gaz pojawia
się wszędzie tam, gdzie materia organiczna ulega rozkładowi, na przykład
w gnojowiskach. Amoniak jest bardziej stabilną cząsteczką niż złożone
molekuły białek, więc powstaje w procesie ich rozpadu; występuje na
niektórych planetach Układu Słonecznego, łącznie z lodem i metanem.
Związki zawierające węgiel, wodór, tlen i azot są prawdopodobnie obecne
wszędzie we wszechświecie. Dwa atomy azotu łączą się przez silne
potrójne wiązanie, dzieląc trzy pary elektronów i tworząc stabilną
cząsteczkę N
2
. Molekularny azot stanowi 80% objętości powietrza na
Ziemi.
Siarka: czy jest alternatywą dla węgla?
Siarka jest cięższym pierwiastkiem. Czy może ona zastąpić węgiel jako
rdzeń procesów życia gdzieś we wszechświecie? Gdy siarka się pali,
otrzymujemy dwutlenek siarki, aczkolwiek niekiedy powstaje także tlenek
lub trójtlenek. Różnorodność możliwych wiązań siarki świadczy o jej
wszechstronności – tworzy także łańcuchy i pierścienie przypominające
nieco związki węgla. Często występujący związek siarki tworzy pierścień
ośmiu atomów, S
8
. Siarka istnieje również w postaci długich łańcuchów
utworzonych przez połączone ze sobą atomy.
Frank Drake mówił mi, że – jego zdaniem – pozaziemskie życie może
być oparte na siarce. Sądzę, że doszedł do tego wniosku na podstawie
ewidentnej zdolności siarki do tworzenia dużych cząsteczek. Mimo że
potrafi ona układać się w długie łańcuchy lub duże pierścienie, możliwości
siarki są jednak ograniczone w tym sensie, że nie tworzy ona licznych
wiązań z innymi pierwiastkami. Węgiel tworzy długie łańcuchy i
pierścienie, do których inne pierwiastki – wodór, tlen, azot i wiele innych –
mogą zostać przyłączone. Długie cząsteczki siarki mają tendencję do
przyłączania tylko atomów siarki. Ta właściwość siarki ogranicza jej
możliwości tworzenia rozmaitych związków niezbędnych dla rozwoju
życia.
A co z krzemem?
Krzem również był brany pod uwagę jako ewentualna podstawa życia.
Z chemicznego punktu widzenia jest to logiczne rozumowanie, ponieważ
52
wartościowość krzemu jest taka sama jak węgla – wynosi również 4.
Można by się spodziewać, że krzem będzie zachowywać się podobnie jak
węgiel i równie łatwo tworzyć rozmaite cząsteczki, zbudowane wokół
krzemowego rdzenia. Jednak krzem (a także bor i german) jest metaloidem
– wykazuje niektóre właściwości chemiczne metali i niektóre niemetali.
Metale, niezależnie od ich chemicznej walencyjności, nie tworzą związków
podobnych do życiodajnych cząsteczek węgla. Jako pierwiastek pośredni
między metalem i niemetalem, krzem stanowi podstawę kwarcu
(heksagonalny kryształ dwutlenku krzemu), szkła (krzemiany boru i glinu),
cementu portlandzkiego (krzemiany wapnia), a także piasku, zaprawy
murarskiej i azbestu. Dosyć trudno wyobrazić sobie życie oparte na którejś
z tych substancji. Interesującego odkrycia dokonano w kraterze
meteorytowym w Arizonie– znajduje się tam coesyt, związek zawierający
czterotlenek krzemu. Krzem występuje w przestrzeni, lecz znajduje się
głównie w skałach, podobnie jak na Ziemi. W odróżnieniu od węgla krzem
nie tworzy długich łańcuchów lub pierścieni, gdy wiąże się z wodorem i
tlenem. Najdłuższy taki łańcuch zawiera trzy ustawione w szereg atomy
krzemu – za mało, abyśmy mogli spodziewać się odkrycia opartego na
krzemie życia pozaziemskiego. Wydaje się, że węgiel ma wyjątkowe
kwalifikacje do tego, by stanowić podstawę życia. Następny rozdział
dostarczy jeszcze więcej dowodów na poparcie tego twierdzenia.
Rola metali
Hemoglobina w naszej krwi zawiera żelazo. Bez żelaza nie moglibyśmy
żyć, gdyż tlen nie docierałby do komórek całego organizmu. W krwi kraba
do transportu tlenu służy inna cząsteczka, oparta na miedzi. Nasze nerwy
działają dzięki elektrycznemu potencjałowi jonów sodu i potasu, a nasze
kości i zęby są zbudowane ze związków wapnia. Do zachowania zdrowia
potrzebujemy jeszcze niewielkich ilości cynku i kilku innych metali.
Metale są na ogół produkowane w wybuchach supernowych. Szczęśliwym
zbiegiem okoliczności tak niezbędne dla naszego życia metale istnieją w
pobliżu.
Kryształy
Większość ciał stałych występuje w postaci krystalicznej. Atomy
53
kryształu są ułożone według określonego, powtarzalnego wzoru w sieci
trójwymiarowej. Regularna konfiguracja atomów w krysztale decyduje o
jego cechach, na przykład o wielościennym kształcie – może to być
sześcian lub czworościan. Spotkaliśmy już jeden z kryształów: węgiel w
postaci diamentu. Strukturę kryształów – charakterystyczny układ atomów
lub cząsteczek – bada się za pomocą dyfrakcji promieni X. Tę dziedzinę
wiedzy rozwinął niemiecki fizyk, Max von Laue (1879-1960), który odkrył
zjawisko dyfrakcji promieni X na kryształach, oraz fizycy brytyjscy
William Henry Bragg i William Lawrence Bragg.
Na początku lat siedemdziesiątych, będąc jeszcze studentem University
ofCalifornia w Berkeley, pracowałem jako asystent profesora chemii w
Lawrence Berkeley Laboratory. Gabor Somorjai, węgierski chemik, który
uciekł na Zachód w czasie powstania w 1956 roku, również znalazł się w
Berkeley. Był on ekspertem w dziedzinie chemii powierzchni, czyli w
badaniach reakcji chemicznych, które zachodzą na powierzchni kryształów.
W ciągu kilku lat zdołał utworzyć w Berkeley doskonałą grupę badawczą,
w której zawsze pracowało co najmniej siedmiu lub ośmiu doktorantów
poświęcających cały swój wysiłek badawczy na bombardowanie
kryształów platyny niskoenergetycznymi wiązkami elektronów. Każdy z
tych eksperymentów był wykonywany w stalowej komorze próżniowej,
której ściany powleczono złotem, by zapobiec niepożądanym reakcjom
chemicznym. Wiązkę elektronów wytwarzano elektrycznie wewnątrz
komory, a następnie kierowano ją na umieszczony w środku komory
kryształ platyny. Każdy student Somorjaiego miał do swojej dyspozycji
własna aparaturę, która wtedy kosztowała ponad sto tysięcy dolarów.
Gabor Somorjai dysponował jednym z największych budżetów
badawczych w Berkeley. Pieniądze otrzymywał głównie od firm
naftowych, ponieważ grupa Somorjaiego prowadziła badania nad
prototypami katalizatorów stosowanych obecnie w układach wydechowych
samochodów. Katalizator to substancja, która wpływa na tempo reakcji
chemicznej. Katalizator samochodowy, a ściślej konwerter katalityczny, to
układ, który ułatwia, czyli przyspiesza zamianę obecnych w spalinach
samochodowych szkodliwych dla środowiska związków węgla w mniej
szkodliwe. W organizmie człowieka również występują katalizatory, które
przyspieszają lub hamują reakcje chemiczne: są one zwane hormonami.
Studenci Somorjaiego eksperymentowali z platyną, ponieważ ich profesor
sądził, że reakcje chemiczne niezbędne do zamiany szkodliwych związków
54
chemicznych w mniej szkodliwe mogą zachodzić na powierzchni kryształu
platyny.
Platyna nie jest chemicznie reaktywna. Podobnie jak złoto reaguje ona
jedynie z silnym kwasem zwanym wodą królewską (aąua regia,
mieszanina kwasu azotowego i solnego) oraz ze stopionymi
wodorotlenkami metali I grupy. Mogłoby się zatem wydawać wątpliwe, czy
powstające w procesie spalania benzyny związki węgla będą wchodzić w
reakcje z tym cennym metalem. Jednak Somorjai doskonale znał chemię
powierzchni i wiedział, co robi.
Do moich zadań należało hodowanie kosztownych kryształów platyny.
Przecinałem je za pomocą noża iskrowego – elektrycznego ostrza, które
wytwarza iskry elektryczne, tnące kryształ jak masło. Technika ta miała na
celu zapobieżenie uszkodzeniu kryształu, które zwykle zdarza się, gdy tnie
się go przez przyłożenie siły mechanicznej. Potem wykonywałem
dyfrakcyjne badanie orientacji kryształu, czyli ułożenia sieci krystalicznej
względem jego ścian – równoległego, wzdłuż przekątnej lub pod kątem.
Obraz dyfrakcyjny kryształu składa się z układu plamek, a każdy regularny
układ plamek odpowiada innej orientacji sieci krystalicznej.
Przez wiele miesięcy badania prowadzone przez zespół Somorjaiego
prowadziły do nikąd. Wiązki elektronów, którymi jego studenci ostrzeliwali
kryształy, wskazywały, że związki chemiczne me oddziaływały na
powierzchniach kryształów. Specyfikacje, zgodnie z którymi docinałem
kryształy, były zawsze bardzo „uporządkowane”: atomy siedziały w
równych rzędach na idealnie gładkich płaszczyznach ustawionych pionowo
lub diagonalnie na jeden z wielu możliwych sposobów. Któregoś dnia
dostałem szczególne zamówienie. Somorjai powiedział mi, że potrzebuje
powierzchni schodkowa-tej. „Przetnij kryształ gdzieś między 100 a 111
płaszczyzną”. Była to raczej niezwykła orientacja. Zamiast patrzeć na
warstwę atomów na wprost lub w kierunku przekątnej, profesor chciał
uzyskać coś pośredniego, sądząc, że taki kryształ utworzy serię
mikroskopowych stopni – zostanie złamany wzdłuż powierzchni, dzięki
czemu powstanie szereg „krawędzi” w kierunku na wprost oraz wzdłuż
przekątnej. Przypuszczał, że atomy na każdej „krawędzi” będą reaktywne,
ponieważ nie będą związane z wieloma sąsiadami. W ciągu kilku dni od
tego eksperymentu zespołowi Somorjaiego zaczęło się powodzić jeszcze
lepiej – w jego laboratorium powstała koncepcja konwertera
katalitycznego. Producenci samochodów byli gotowi ją odkupić, aby
55
instalowane w autach katalizatory móc dostosować do coraz mniejszych
limitów emisji spalin.
Pewnego wieczoru, krótko po tym odkryciu, profesor poprosił mnie do
swojego pokoju. Wiedział, że moje zainteresowania są nieco inne i że
wkrótce opuszczę jego laboratorium. „Nie interesują mnie auta ani ich
katalizatory – powiedział. – Chcę odkryć sekret życia”. Spojrzałem na
niego zaskoczony, gdyż do tej pory sądziłem, że głównym celem jego
badań było zarobienie pieniędzy na przemyśle samochodowym. Widząc
moje zaskoczenie, profesor uśmiechnął się i powiedział: „Cząsteczki, z
których zbudowane są istoty żywe, są bardzo, bardzo skomplikowane. W
ich przypadku mamy do czynienia z długimi, złożonymi łańcuchami i
pierścieniami połączonymi na niezwykle skomplikowane sposoby. Nie
sądzę, aby mogły one powstać jako produkt zwykłych reakcji chemicznych
w wyniku umieszczenia składników w probówce i potrząsania nią,.. Do
tego potrzebny jest katalizator. Wydaje mi się, że w odległej o eony
przeszłości życie zaczęło się na schodkowatej powierzchni kryształu
platyny”.
56
Rozdział 4
PODWÓJNA HELISA ŻYCIA
Co odróżnia żywy organizm od nieożywionego przedmiotu? W swojej
książce General Chemistry [Chemia ogólna] (s. 768)
, wielki amerykański
chemik Linus Pauling definiuje charakterystyczne dla życia reakcje
chemiczne. Zwraca w niej uwagę, że rośliny i zwierzęta charakteryzuje
zdolność do reprodukcji, której nie ma zwykły kamień, niezależnie od
tego, jakie reakcje chemiczne mogą nań wywierać wpływ. Istota żywa jest
zdolna do produkowania potomstwa, które jest do niej wystarczająco
podobne, aby zostało uznane za ten sam gatunek. Następnie Pauling
stwierdza, że istoty żywe wchłaniają pożywienie, poddając je reakcjom
chemicznym, w wyniku których jest uwalniana energia oraz są odkładane
ich produkty. Proces ten jest nazywany metabolizmem. Istoty żywe potrafią
również reagować na zmiany środowiska. Roślina może odwrócić się w
kierunku Słońca, a zwierzęta poruszają się w poszukiwaniu pożywienia lub
potencjalnego partnera. Pauling zwraca też uwagę na pewne trudności w
definiowaniu życia. Pasożytujący na roślinie wirus może się replikować,
wykorzystując materiał genetyczny swojego gospodarza, lecz nie potrafi
pochłaniać pożywienia ani samodzielnie się poruszać. Stanowi to jednak
wyjątek od ogólnej definicji życia. Nawet jeśli z powodu braku zdolności
do metabolizmu i lokomocji nie uznamy wirusa za pełny organizm, to jest
on niezwykle złożoną cząsteczką chemiczną, o masie cząsteczkowej rzędu
10 000 000.
Istoty żywe składają się z komórek, a im bardziej złożony organizm,
tym więcej zawiera komórek specjalizowanych. Amebę stanowi jedna
komórka, prosta roślina może składać się z kilku rodzajów komórek, a
organizm ludzki zawiera bardzo wiele rodzajów komórek: komórki krwi,
komórki nerwowe, komórki magazynujące hormony i kwasy w żołądku,
19
Por. Linus Pauling, Peter Pauling, Chemia, przeł. Józef Kępiński, Aleksander Przepiera, Jadwiga
Deles, Wydawnictwo Naukowe PWN, Warszawa 1998, s. 380-381.
57
komórki wątroby, płuc, mięśni. Komórka jest zbudowana głównie z wody i
białek. Białka są to bardzo duże cząsteczki, o masie cząsteczkowej
sięgającej od 10 000 do wielu milionów (masa atomowa węgla wynosi 12,
więc najmniejsze białko stanowi równowartość około 1000 atomów węgla,
lecz w rzeczywistości zawiera ono również atomy wodoru, azotu, tlenu,
fosforu, siarki oraz miedzi i żelaza). Czerwone ciałko krwi składa się w
60% z wody, w 5% z różnych innych substancji i w 35% z zawierającego
żelazo białka-– hemoglobiny – o masie cząsteczkowej równej 68 000.
Ciało ludzkie zawiera wiele tysięcy różnych rodzajów białek, z których
każde spełnia określoną, podtrzymującą życie funkcję. Białka z kolei
zawierają pewne kwasy organiczne zwane kwasami aminowymi.
Związki organiczne, czyli substancje oparte na związanych ze sobą
atomach węgla oraz innych pierwiastków, mogą niekiedy występować w
dwóch formach, które różnią się tylko tym, że jedna stanowi lustrzane
odbicie drugiej. Wyobraźmy sobie parę rękawiczek. Niezależnie od tego,
jak na nie spojrzymy, podrzucimy w powietrze, obrócimy, przekręcimy –
prawa rękawiczka nigdy nie stanie się lewą. Mimo to jedna i druga
stanowią w istocie ten sam obiekt. Obie mają część obejmującą środek
dłoni, cztery palce i kciuk. Różnica między dwiema rękawiczkami polega
po prostu na ich orientacji. Zależnie od tego, która strona głównej części
molekuły organicznej łączy się z bocznym układem atomów, może to być
cząsteczka prawostronna (oznaczana literą D, od dextro-) lub lustrzane
odbicie tej samej molekuły – cząsteczka lewostronna (L, jak levo-). Każdy
aminokwas oprócz glicyny występuje w obu formach. I tu pojawia się
zadziwiający fakt biologiczny: białka roślin i zwierząt zawierają wyłącznie
aminokwasy typu L. Nikt nie potrafi tego wyjaśnić. Jeżeli związki
chemiczne powstają w wyniku przypadkowych reakcji chemicznych, to
można by się spodziewać, że statystycznie rzecz biorąc, połowa
występujących w organizmach żywych aminokwasów powinna być typu L,
a połowa typu D. Obie formy są chemicznie identyczne, lecz w materii
ożywionej występuje tylko jedna.
Na przełomie dziewiętnastego i dwudziestego wieku niemiecki chemik,
Emil Fischer (1852-1919), badał białka i odkrył, że zawierają one długie
łańcuchy aminokwasów zwane łańcuchami polipeptydowymi. Proces
formowania, w którym aminokwasy są przyłączane, może być powtarzany,
aż powstanie długi łańcuch ustawionych w szereg kwasów. Chemicy
opracowali metody określania liczby łańcuchów polipeptydowych, z
58
których składa się cząsteczka białka. Hemoglobina, na przykład, zawiera
cztery polipeptydowe łańcuchy aminokwasów. Jednak chemicy nie potrafili
określić trójwymiarowego
kształtu
łańcuchów polipeptydowych
aminokwasów w białku, co było bardzo ważne dla zrozumienia
chemicznych właściwości białek. Przełom pojawił się na początku lat
pięćdziesiątych dzięki zastosowaniu metod opartych na dyfrakcji promieni
X. Linus Pauling pierwszy określił strukturę łańcucha polipeptydowego i
odkrył, że tworzy on helisę: spiralny układ atomów węgla, azotu, wodoru i
tlenu. Niektóre z odkrytych przez niego helis zwijały się zgodnie, a inne
przeciwnie do ruchu wskazówek zegara (czyli jedne były prawo-, a inne
lewoskrętnymi helisami), lecz wszystkie występujące w łańcuchach
aminokwasy były typu L. Ten aspekt zachowania białek pozostawał
zagadką.
W jaki sposób z aminokwasów i z białek powstaje życie? W 1922 roku
rosyjski biolog, Aleksander Oparin, przedstawił Rosyjskiej Akademii Nauk
publikację, w której sformułował teorię powstania życia. Oparin sądził, że
życie zaczęło się w oceanie, gdy rozpuszczone w wodzie cząsteczki
chemiczne mieszały się ze sobą i pod wpływem światła słonecznego
utworzyły pierwsze molekuły niezbędne do powstania życia. W 1955 roku
dwaj naukowcy z University of Chicago, Stanley Miller i Harold Urey,
próbowali stworzyć życie w probówce, wykorzystując ideę Oparina.
Wypełnili pojemnik tym, z czego, ich zdaniem, składał się pierwotny
ziemski ocean: amoniakiem, metanem, wodą i wodorem, a następnie
symulowali atmosferyczne wyładowania elektryczne, przepuszczając przez
tę mieszaninę iskry elektryczne. Po kilku dniach w pojemniku pojawiły się
niektóre aminokwasy – składniki białek. Nie stworzyli oni jednak ż ycia w
laboratorium i – jak dotąd – nikomu się to nie udało.
W 1951 roku James D. Watson i Francis Crick złamali genetyczny kod
molekuły życia, cząsteczki kwasu dezoksyrybonukleinowego (DNA),
wykorzystując fotografie kryształów DNA wykonane za pomocą dyfrakcji
promieni X.
Ta bardzo złożona molekuła jest jedyną strukturą zdolną do powielania
samej siebie, dzięki czemu istoty żywe mogą się rozwijać i produkować
potomstwo. Zawiera ona sekret życia. Watson pozostawał pod wrażeniem
odkrytej przez Paulinga struktury białek, α-helisy, i sądził, że DNA –
aczkolwiek stanowi znacznie bardziej złożoną cząsteczkę niż białko – może
również tworzyć podobną strukturę. Helisa mieści wiele materii we
59
względnie małym trójwymiarowym obszarze, więc większa cząsteczka tym
bardziej mogła wykorzystać tę pakowną strukturę.
W chemii nieorganicznej mamy do czynienia z cząsteczkami o
wiadomej budowie strukturalnej. Cząsteczka wody, H
2
O, występuje tylko
w jednej konfiguracji – z dwoma atomami wodoru połączonymi z atomem
tlenu zawsze pod tym samym kątem. Natomiast w chemii organicznej
istnieje wiele możliwych sposobów połączenia atomów węgla w łańcuchu
lub w pierścieniu i wiele sposobów dołączenia bocznych atomów lub
podukładów do węglowego rdzenia dużej cząsteczki. Określenie
przestrzennego ułożenia cząsteczki organicznej jest niezbędnym
warunkiem zrozumienia, czym ona jest i jak się zachowuje. Watson zaczął
składać swój model z metalowych części wykonanych w laboratoryjnym
warsztacie. Sądził on, że helisa jest właściwym modelem, mimo że z
obrazów dyfrakcyjnych nie wynikało to w sposób oczywisty.
Nauka wiedziała już trochę o DNA. Natura cząsteczki DNA wykracza
poza białka, cukry, węglowodory i całą resztę chemii: zawiera olbrzymie
ilości informacji zakodowane wprost w jej strukturze. Ale w jaki sposób?
Na czym polega mechanizm kodowania? I w jaki sposób kod ten jest
odczytywany, aby na jego podstawie mogło powstać zwierzę, roślina czy
istota ludzka? Na podstawie analizy chemicznej naukowcy stwierdzili, że
cząsteczka DNA zawiera coś jeszcze oprócz opartych na cukrze, fosforze i
azocie submolekuł tworzących rdzeń olbrzymiego układu atomów. Gdzieś
wewnątrz tego układu umieszczone są cztery rodzaje bardzo szczególnych
substancji. Dwie z nich to pirymidyny, sześcioczłonowe pierścienie
zbudowane z węgla i azotu, z dołączonymi atomami wodoru, nazywane
tyminą (T) oraz cytozyną (C). Dwie pozostałe, zwane purynami, składają
się z dwóch połączonych pierścieni węgla i azotu – dziewięć atomów w
bliźniaczych cyklach – z dołączonymi do niektórych z nich czterema
atomami wodoru. Nazywane są adeniną (A) oraz guaniną (G). Te cztery
molekuły, A, G, T i C, ułożone w różnych kombinacjach, tworzą język, za
pomocą którego cząsteczka DNA przenosi kod genetyczny osobnika. Ale w
jaki sposób? I w którym miejscu owe „litery” są przyczepione do rdzenia
struktury DNA?
Ostatecznie okazało się, że struktura ta przypomina – podobną do
skręconej lukrecji – podwójną helisę. Każda nić stanowi łańcuch
składający się z podstawowych cząsteczek: cukru, fosforanu i zasady
azotowej. Obie nici są owinięte wokół siebie, tworząc podwójną helisę.
60
Molekuły kodu genetycznego, A, G, T i C, są przyczepione między dwiema
długimi cząsteczkami rdzenia. Układ atomów krył w sobie jakieś dziwne
piękno i wydawał się zbyt elegancki, aby n i e stanowił prawdziwej
struktury DNA. W 1962 roku Francis Crick i James Watson otrzymali
Nagrodę Nobla za odkrycie struktury DNA.
Czym jest ta elegancka megarnolekuła, której budowę odkryli Crick i
Watson? Czym jest ta spiralna wieża, której schody oznaczone są literami
A, C, T i G, a ich układ określa strukturę, funkcję i powstawanie życia?
61
Dwa zewnętrzne łańcuchy cząsteczki DNA są owinięte wokół siebie w
formie helisy. Jednak cztery podstawowe nośniki informacji genetycznej,
A, T, G i C, są umieszczone w środku w określonym porządku. Związana
zjedna nicią adenina A łączy się wyłącznie z leżącą na drugiej nici tyminą T
za pośrednictwem dwóch wiązań wodorowych. Atom wodoru należący do
adeniny wiąże się z położonym naprzeciwko niego atomem tlenu
należącym do ty miny. Takie samo wiązanie łączy atom wodoru tyminy z
atomem azotu adeniny. Cytozyna i guanina również łączą się tylko ze sobą,
za pomocą trzech wiązań wodorowych: jedno biegnie od C do atomu tlenu
na G, a dwa od G do atomu azotu i atomu tlenu na C.
Jeżeli na jednej z nici podwójnej helisy wyróżnimy cząsteczki A, C, G i
T, to otrzymamy sekwencję liter, na przykład: A, A, G, C, T, G, G, C, C, C,
T, A itd. W ten sposób odczytujemy informację – kod genetyczny żywego
organizmu. Wszystkie organizmy żywe zawierają cząsteczkę DNA. Mamy
oto związek chemiczny, którego zadaniem jest zakodowanie olbrzymiej
ilości informacji w zadziwiająco małej przestrzeni i w niezwykle wydajny
sposób. Aby zrozumieć, jak dużo informacji musi zawierać DNA, trzeba
sobie uświadomić, że wszystko, co wyróżnia daną osobę – od koloru oczu i
włosów po kształt kolan, długość palców u rąk i nóg, i cała reszta – jest
zapisane w cząsteczce chemicznej, obiekcie, którego nie da się zobaczyć
gołym okiem i którego długość mierzy się w angstremach (10
-8
cm).
Elementy A, T, G i C leżą wzdłuż nici helisy i są oddalone od siebie o 3,3
angstrema. Średnica helisy wynosi 20 angstremów. W jaki sposób
kodowana jest informacja? Czym jest kod?
Podwójne helisy DNA rezydują w genach. Geny znajdują się w
chromosomach, które z kolei mieszczą się w jądrze istniejącym w środku
każdej żywej komórki. W cząsteczce DNA sekwencja zasad A, G, C i T jest
zakodowana jako sekwencja trzyliterowych słów. Tak więc na przykład
sekwencje A-G-A, C-T-G czy G-G-T mogą być takimi kodującymi
informację słowami. Dysponując czterema literami, z których budowane są
trzyliterowe słowa, leksykon DNA zawiera 4 ‘P 4 ‘P 4 = 64 możliwe słowa.
Zbudowane z tych słów zdania – układ DNA – przekazują komórce
dokładną sekwencję tworzących białko reszt aminokwasowych, która ma
zostać zsyntetyzowana przez komórkę kontrolowaną przez określony gen.
Obecnie potrafimy zidentyfikować poszczególne geny, które są
przyczynami chorób dziedzicznych, dzięki czemu potencjalni partnerzy
mogą zostać poinformowani o ryzyku, jakie zagraża ich przyszłemu
62
potomstwu. Wiemy, że geny determinują w dużej mierze nasz wzrost,
wagę, wygląd i inteligencję. Badania identycznych bliźniąt,
zaadoptowanych przez różnych rodziców i wychowywanych całkowicie
bez wzajemnego kontaktu, ujawniły uderzające, niespodziewane
podobieństwa pod niemal każdym względem, począwszy od charakteru,
wyglądu, upodobań i uprzedzeń, zdolności do przywództwa, kreatywności,
a nawet wyboru kariery zawodowej, hobby i innych zainteresowań.
Rezydujące w genach cząsteczki DNA kontrolują nasze życie w sposób
daleko głębszy, niż moglibyśmy się spodziewać.
Gdy ostatecznie odkryto strukturę DNA, pozostało pytanie, w jaki
sposób cząsteczka ta realizuje przekaz swoich cech od jednego pokolenia
do następnego. Odkryty przez Watsona i Cricka mechanizm, za pomocą
którego cząsteczka DNA powiela samą siebie, jest następujący. Najpierw
podwójna helisa rozplata się, niczym wąż. Następnie zaczynają się
rozdzielać łączące oba łańcuchy wiązania zasadowe wewnątrz helisy.
Równocześnie wzdłuż rozwijającej się cząsteczki DNA jest syntetyzowany
nowy łańcuch, który tworzy własne, przyczepione do łańcucha zasady. To
samo odbywa się wzdłuż drugiej nici. W końcu zasady z nowego łańcucha
łączą się ze starą nicią DNA dokładnie według dozwolonego wzoru: A
łączy się z T i vice versa, G łączy się z C i vice versa. W ten sposób, dzięki
chemicznym prawom tworzenia wiązań dopuszczającym wyłącznie
kombinacje A-T i G-C, układ macierzystej cząsteczki DNA zostaje
zachowany w dwóch potomnych cząsteczkach.
Wydaje się, że życie organizuje i kontroluje złożony układ sterowany
przez olbrzymią molekułę zwaną DNA. DNA pojawia się na dwóch
autonomicznych poziomach w każdej komórce naszego ciała w jądrze i w
mitochondrium – mówiąc komórce dokładnie, co i kiedy ma robić: jak
poddać metabolizie cukier i zamienić go na energię, jak pozbyć się
produktów ubocznych, jak i kiedy podzielić się na dwie komórki potomne.
Molekuła DNA zawiera olbrzymią ilość informacji, która określa wszystkie
cechy gatunkowe – nawet najbardziej złożone cechy najbardziej
zaawansowanych gatunków oraz każdy atrybut przedstawiciela danego
gatunku, w najdrobniejszych szczegółach. A gdy dwa osobniki danego
gatunku się łączą, DNA w ich genach decyduje o tym, w jaki sposób
zawarte w nich informacje genetyczne zostaną przekazane następnemu
pokoleniu.
W 1997 roku cały świat obiegła wiadomość, że w Szkocji sklonowano
63
owcę, nazwaną Dolly. Powstała ona z materiału genetycznego pobranego
od innej owcy. Eksperyment ten, dokonany przez lana Wilmuta i Keitha
Campbella, był potwierdzeniem hipotezy, zgodnie z którą każda komórka
istoty żywej nie tylko zawiera kompletną informację genetyczną o jej ciele,
lecz także może posłużyć do jego odtworzenia. Przypadek Dolly unaocznił
nam postęp, jakiego nauka dokonała w ostatnich dekadach w dziedzinie
zrozumienia kodu genetycznego oraz w udzielaniu odpowiedzi na pytania o
tajemnice życia.
Genetyka dała nam dotychczas nowe, rewolucyjne metody leczenia
niektórych chorób, sposoby identyfikacji przestępców na podstawie
pojedynczego włosa pozostawionego na miejscu zbrodni oraz istotne
informacje na temat pochodzenia człowieka. Ludzki genom, zestaw
informacji o cechach danego osobnika, zawiera 100 000 genów
upakowanych w 23 parach chromosomów znajdujących się w jądrze każdej
komórki naszego ciała. Łącznie zawierają one około 3 miliardów bitów
informacji. Naukowcy mówią, że 99,9% zakodowanych w genach
informacji to zestaw wspólny dla wszystkich ludzi, więc różnice między
ludźmi sprowadzają się do 0,1 %. Podobieństwa między ludźmi są znacznie
bardziej rozległe niż różnice! Ta niewielka zmienność naszego kodu
genetycznego jest przyczyną zróżnicowania rodzaju ludzkiego.
Kenneth i Judith Kidd, badacze z Yale University, porównywali materiał
genetyczny populacji ludzkich w różnych regionach świata, poszukując
odmienności genetycznych. Zmiany kodu genetycznego wywoływane są
przez mutacje, a te z nich, które poprawiają zdolność danego osobnika do
przetrwania w określonym środowisku, są następnie faworyzowane – w
dalszych pokoleniach – przez dobór naturalny. Odkryli oni na przykład
zaskakująco niską zapadalność na choroby serca u mieszkańców pewnej
odosobnionej wioski we Włoszech, mimo że nie stosowali określonej diety.
Mieszkańcy wyspy Reunion na Oceanie Indyjskim mają naturalną
odporność na stwardnienie rozsiane. Natomiast jedna trzecia populacji
wyspy Tristan da Cunha na południowym Atlantyku cierpi na astmę.
Istnieją także znane od dawna choroby genetyczne: wywołana przez
sierpowatość czerwonych krwinek anemia, na którą cierpią czarnoskórzy
mieszkańcy niektórych obszarów Ameryki, oraz choroba Tay-Sack, na
którą zapadają aszkenazyjczycy. Badania genetyczne doprowadziły
Kiddów i innych naukowców do wniosku, że Homo sapiens pojawił się po
raz pierwszy w Afryce 200 000 lat temu, a jego rozprzestrzenianie się na
64
pozostałych obszarach globu zaczęło się dopiero 100 000 lat temu. W 1988
roku naukowcy ogłosili zdumionemu światu, że badania genetyczne
wykazały, iż wszyscy ludzie na Ziemi są potomkami jednej jedynej kobiety,
której nadano –jak najbardziej zasłużenie – imię Ewa.
Zdołaliśmy pobrać materiał genetyczny z komórek wielu różnych
gatunków i spowodować jego replikację, w wyniku której powstały
genetycznie zróżnicowane szczepy. Umiemy hodować genetycznie
zmodyfikowane truskawki o przedłużonym okresie świeżości, krowy, które
dają więcej mleka, świnie, których wątroby są genetycznie odmienione tak,
aby nadawały się do przeszczepiania ludziom. Rozpoczęty w 1989 roku
projekt badania ludzkiego genomu, mający na celu stworzenie mapy całego
ludzkiego DNA, pozwolił ujawnić wiele genów, które powodują podatność
na nowotwory i inne schorzenia, a także wiele informacji o ludzkich
cechach genetycznych. Zakończenie tego globalnego przedsięwzięcia,
kosztującego 3 miliardy dolarów, jest przewidywane na rok 2005.
Będziemy wtedy znać każdy ludzki gen i będziemy w stanie powiązać go z
kontrolowanymi przezeń ludzkimi cechami. Mimo olbrzymiego postępu w
zrozumieniu genetyki jeszcze nikomu nie udało się skonstruować dużej,
złożonej cząsteczki DNA. Wydaje się, że chemia życia jest
nieporównywalnie bardziej skomplikowana niż „zwykła” chemia
elektronów, atomów i małych molekuł.
Prześledziliśmy historię odkrycia struktury i właściwości cząsteczki
DNA, rolę, jaką odgrywa ona w życiu komórek, osobników i całych
gatunków, zobaczyliśmy, w jaki sposób DNA magazynuje i manipuluje
tymi olbrzymimi zasobami informacji, trzema miliardami bitów w
przypadku istot ludzkich, w jaki sposób wykorzystuje te informacje na
różnych poziomach za pomocą „ośrodków sterowania”; całkiem niedawno
przekonaliśmy się, że DNA ma tajemnicze umiejętności obliczeniowe.
Pozostaje jedno istotne pytanie: Co jest stwórcą DNA? Czy może to być
„cząsteczka” w zwykłym, chemicznym sensie tego słowa, czy też mamy do
czynienia z czymś sięgającym daleko poza chemię? Czy ten mikroskopijny
komputer życia może być wynikiem przypadkowego, chemicznego
oddziaływania atomów? Czy DNA mogło powstać podobnie jak dwutlenek
węgla, gdy dwa atomy tlenu spotykają atom węgla i łączą się z nim,
uwalniając określoną ilość energii? Czy jesteśmy raczej świadkami czegoś
cudownego, czegoś tak fantastycznie złożonego, że nie może to być jedynie
chemia przypadkowych reakcji pierwiastków, lecz coś przekraczającego
65
nasze zrozumienie? Czy stoi za tym potęga, myśl i wola wyższej istoty,
która stworzyła tę samopowielającą się podstawę wszelkiego życia,
cząsteczkę niepodobną do żadnej innej, cząsteczkę, której nikt nie potrafi
odtworzyć, choćby dysponował dowolnie zaawansowanym laboratorium?
Jak zdefiniować coś, co samo decyduje, kiedy ma się rozwinąć z helisy,
rozdzielić wzdłuż osi i sklonować – chemiczną molekułę istoty żywej?
Jesteśmy obecnie świadkami rewolucji w naukach biologicznych.
Każdy dzień przynosi odkrycia w dziedzinie genetyki, DNA i roli genów
oraz chromosomów w naszym życiu. Powstają genetyczne leki,
zwalczające schorzenia i zapobiegające im, oraz genetycznie
zmodyfikowane gatunki zwierząt. Potrafimy manipulować kodem DNA,
aby dostosować go do naszych wymagań. Potrafimy nawet wykorzystać to,
czego się nauczyliśmy, i klonować żywe istoty, co jeszcze kilkadziesiąt lat
temu było jedynie tematem powieści fantastycznonaukowych. Nie
potrafimy jednak stworzyć życia w probówce. Nawet najbardziej
zaawansowane laboratoria nie produkują DNA z surowców chemicznych.
James Watson nie spoczął na laurach po epokowym odkryciu struktury
DNA i otrzymaniu – razem z Francisem Crickiem – Nagrody Nobla, lecz
kontynuował pracę badawczą jako dyrektor prestiżowego Cold Spring
Harbor Laboratory, gdzie prowadzone są najbardziej zaawansowane w
Stanach Zjednoczonych badania w dziedzinie genetyki i biologii. Watson
jest także dyrektorem międzynarodowego projektu badawczego, który ma
na celu stworzenie mapy ludzkich genów: projektu badania ludzkiego
genomu. Gdy na początku dwudziestego pierwszego wieku ten olbrzymi
wysiłek badawczy zostanie zakończony, będziemy potrafili odczytać całą
księgę kodu genetycznego istot ludzkich. Korzyści dla medycyny, nauki i
innych aspektów życia ludzkiego będą niezmierzone. Parafrazując
Einsteina, możemy powiedzieć, że odcyfrowanie kodu genetycznego
pozwoli nam „poznać myśli Boga”.
Pod koniec 1997 roku prezydent Clinton przyznał Jamesowi Wat-
sonowi Narodowy Medal Nauki, w uznaniu dla jego wielkich osiągnięć.
Współodkrywca struktury DNA, Francis Crick, wybrał inną dziedzinę
badań. Jeżeli DNA jest tak złożoną cząsteczką, że nie może powstać przez
przypadek, i jeżeli rzeczywiście jest to jedyna molekuła, która potrafi
produkować żywe istoty zdolne do konsumowania pożywienia, poruszania
się i reprodukcji, to w jaki sposób po raz pierwszy pojawiła się ona Ziemi?
Niebawem poznamy stworzoną przez Francisa Cricka teorię, która
66
wyjaśnia tę pozorną niemożliwość.
67
Rozdział 5
PANSPERMIA, BIURAKAN I METEORYT Z
MARSA
W 1907 roku szwedzki chemik, Svante Arrhenius, sformułował teorię
pochodzenia życia. Zgodnie z jego teorią życie nie powstało na Ziemi, lecz
pojawiło się z kosmosu – w postaci prostych jednokomórkowych
organizmów podróżujących przez wszechświat w postaci zamrożonych
zarodników. Te maleńkie nośniki życia były poruszane przez ciśnienie
promieniowania gwiazd, które wyrzucało je w pustą przestrzeń. Zamrożone
organizmy przemierzały międzygwiezdną przestrzeń przez eony, aż dotarły
do innego układu słonecznego i osiadły na jednej z jego planet, po czym
odżyły, zaczęły się rozmnażać i po wielu milionach lat rozwinęły się z nich
wyższe formy życia. Teoria ta stała się znana jako hipoteza panspermii.
Arrhenius oparł swoją teorię na zjawiskach, o których sądził, że
zachodzą na Ziemi. Przypuszczał on, że ziemskie mikroorganizmy były
niekiedy unoszone przez wiatry do stratosfery. Gdy dostały się dostatecznie
wysoko, niektóre z nich mogły zostać całkowicie wyrzucone z atmosfery
przez siły elektryczne. Opuściwszy Ziemię, przemierzały Układ Słoneczny,
po czym opuszczały go pod wpływem ciśnienia promieniowania Słońca.
Skoro mogło się to zdarzyć na Ziemi, to prawdopodobnie zachodzi także
wszędzie we wszechświecie. Przestrzeń międzygwiezdna może być pełna
małych, zamrożonych organizmów podróżujących we wszystkie strony i
niosących na odległe planety życie, które poczęło się zupełnie gdzie
indziej.
Hipoteza panspermii może wyjaśnić pochodzenie życia na Ziemi przy
założeniu, że istniało ono gdzie indziej we wszechświecie – gdzie
prawdopodobnie miało ono więcej czasu na rozwój – i że podstawowe
cegiełki życia mogły przenosić się z jednego miejsca na drugie w taki
sposób, że w czasie długiej podróży nie uległy zagładzie. W latach
68
sześćdziesiątych hipotezą panspermii oraz jej konsekwencjami dla istnienia
życia gdzie indziej we wszechświecie zainteresował się Carl Sagan. Na
podstawie badań wykonywanych za pomocą balonów wiedział on, że
mikroorganizmy można znaleźć na bardzo dużych wysokościach nad
Ziemią, nawet wysoko w stratosferze, co częściowo potwierdzało hipotezę
Arrheniusa. Sagan próbował zbudować matematyczny model, dzięki
któremu możliwe byłoby stwierdzenie, czy organizmy takie mogą być
wyrzucone poza ziemską atmosferę i jaki byłby ich los w przestrzeni.
Wyniki tych badań opisał w wydanej w 1966 roku książce zatytułowanej
Intelligent Life in the Universe [Inteligentne życie w kosmosie] (jej
współautorem jest LS. Shklovskii). Model Sagana zakłada, że na organizm,
który w jakiś sposób ucieka z Ziemi, działają dwie siły, a jego los zależy od
ich wzajemnego stosunku. Pierwsza z nich, ciśnienie promieniowania
Słońca p, odpycha organizm od Słońca w kierunku przestrzeni
międzygwiezdnej. Druga siła, g, grawitacyjne przyciąganie Słońca,
przyciąga mikroorganizmy w kierunku Słońca. Gdy p = g, organizm
pozostaje w przestrzeni międzyplanetarnej. Gdy g jest większe od p,
organizm jest skazany na upadek na Słońce. Gdy jednak p jest większe od
g, ciśnienie promieniowania jest większe od grawitacyjnego przyciągania
Słońca, w wyniku czego organizm po-żegluje w otwartą przestrzeń
popychany przez wynikającą z różnicy ciśnienia promieniowania i
grawitacji siłę nadającą mu przyspieszenie potrzebne do opuszczenia
Układu Słonecznego
Na podstawie powyższej analizy Sagan obliczył, że organizm, który
może uciec z Ziemi, musi mieć średnicę od 0,4 do 1,2 mikrometra
(mikrometr to jedna tysięczna milimetra). Niektóre zarodniki bakterii i
grzybów, a także wirusy, mieszczą się w tym przedziale, więc mogłyby
uciec z Układu Słonecznego, jeżeli potrafiłyby opuścić atmosferę Ziemi.
Działająca nieprzerwanie na zbiegłe organizmy siła wypadkowa, równa
różnicy ciśnienia promieniowania słonecznego i grawitacji, powoduje, że
ich prędkości stopniowo rosną i w końcu osiągają bardzo duże wartości. W
ciągu kilku miesięcy mogą one minąć orbitę Jowisza, po kilku latach –
Neptuna, po kilkudziesięciu tysiącach lat mogą osiągnąć najbliższą
gwiazdę, a po kilkudziesięciu milionach lat wędrujący zarodnik przetnie
Drogę Mleczną. I.S. Shklovskii zwrócił uwagę, że masa i rozmiary
podróżującego organizmu są porównywalne z cząstką przenikającego naszą
20
Sagan zwraca uwagę, że zarówno p, jak i g są odwrotnie proporcjonalne do odległości r organizmu
od Słońca, a zatem wypadkowa siła popychająca organizm, P~g, również spełnia tę zależność.
69
Galaktykę pyłu kosmicznego. Napotkawszy chmurę galaktycznego pyłu,
organizm może w niej pozostać i stać się jej częścią. Ruchami takich
małych, lekkich cząstek rządzą przypadkowe oddziaływania z innymi
małymi cząstkami. W rezultacie pojawiają się ruchy Browna – zjawisko
zwane błądzeniem przypadkowym, wywołane zderzeniami z sąsiadami
zawieszonymi w tym samym ośrodku – które powodują, że cząstka porusza
się w całkowicie przypadkowy i nieprzewidywalny sposób. Przypomina to
wędrówkę cząstki dymu w powietrzu, poruszającej się wzdłuż
przypadkowych trajektorii pomiędzy kolejnymi nagłymi zmianami
kierunku. Ruch zarodników wzdłuż trajektorii błądzenia przypadkowego –
a nie po linii prostej – powoduje, że ich wędrówka trwa dłużej.
Zarodnik o rozmiarach mniejszych od 4 mikrometrów nie zostanie
wyrzucony z Układu Słonecznego, gdy zbliży się do niego z zewnątrz, lecz
zostanie wciągnięty, gdyż wzajemna proporcja sił p i g da w wyniku siłę
przyciągającą. Jeżeli na drodze w kierunku Słońca napotka on Ziemię lub
inną planetę, to może dostać się do jej atmosfery i w końcu wylądować na
powierzchni. Gdyby organizm taki przybył do nas z innego układu
słonecznego po trwającej dziesiątki lub setki tysięcy lat podróży, a
następnie przebudził się z międzygwiezdnego snu, w zasadzie mógłby
zacząć się rozmnażać i osiąść w środowisku Ziemi. Poczyniwszy pewne
założenia na temat gęstości międzygwiezdnych chmur, które mogą być
przyczyną kolizji z potencjalnymi zarodnikami, i uwzględniwszy czas, jaki
upłynął, zanim na Ziemi rozwinęło się życie, Sagan obliczył, że mogło ono
zostać zasiane przez organizm, który przybył tu z układu planetarnego
odległego od nas aż o 6000 lat świetlnych.
Sagan i jego współpracownicy zajęli się z kolei kwestią, czy taki
międzygwiezdny podróżnik mógłby w rzeczywistości przeżyć tę podróż.
Czy DNA maleńkiego organizmu przetrwa tysiące lat międzygwiezdnej
wędrówki? Już w czasach Arrheniusa wiedziano, że niektóre zarodniki
potrafią przetrzymać niskie temperatury przez bardzo długi czas, nie
utraciwszy zdolności do powrotu do życia w bardziej sprzyjających
warunkach. Eksperymenty laboratoryjne wykazały również, że niektóre
organizmy mogą przeżyć długi okres w próżni zbliżonej do warunków
panujących w przestrzeni kosmicznej. Nie można jednak wykluczyć, że
przebywając w takim środowisku przez wiele tysięcy lat, nie byłyby one
odporne na zachodzące w próżni odparowywanie atomów.
Największą trudność dla hipotezy panspermii stanowi promieniowanie
70
kosmiczne. Poza ochronną warstwą atmosfery Ziemi promieniowanie
ultrafioletowe, a także inne rodzaje promieniowania słonecznego jest
stosunkowo silne. Obliczono, że ziemski mikroorganizm nie przeżyłby
więcej niż jeden dzień po opuszczeniu atmosfery Ziemi, gdyż zostałby
zniszczony przez ultrafioletowe promienie słoneczne. Nawet gdyby był w
jakiś sposób zabezpieczony przed ultrafioletem, to wysokoenergetyczne
promienie X oraz protony słoneczne zabiłyby go w ciągu kilku tygodni.
Problem ten nie istnieje w obszarach odległych od Słońca – oraz od innych
gwiazda także w pobliżu ciemniejszych od Słońca gwiazd, które emitują
promieniowanie o niższych natężeniach. W otwartej przestrzeni zarodnik
napotkałby promieniowanie kosmiczne. Zakładając, że byłby on na nie
odporny w takim samym stopniu, jak większość odpornych na
promieniowanie organizmów na Ziemi, obliczono, że w otwartej
przestrzeni, z dala od promieniowania gwiazd, organizm taki mógłby
oprzeć się promieniowaniu kosmicznemu przez 100 milionów lat.
Powyższe założenia i obliczenia wskazują zatem, że zarodniki mogłyby
pochodzić z planety, która znajduje się w podobnej odległości od swojej
gwiazdy jak Jowisz lub Saturn od Słońca –jeżeli jej gwiazda jest podobna
do Słońca – lub z planety krążącej po bliskiej orbicie wokół ciemniejszej
gwiazdy. Jednak zarodniki te zostałyby prawdopodobnie zniszczone, zanim
dotarłyby do Ziemi, więc hipoteza panspermii – jako teoria zasiania życia
na Ziemi przez międzygwiezdne zarodniki – nie wydaje się poprawna.
Istnieje natomiast możliwość zasiania życia na którymś z satelitów jednej z
dalszych planet Słońca. Życie mogło powstać na księżycu Jowisza,
Europie, lub na księżycu Neptuna, Trytonie, dzięki jakiemuś
międzygwiezdnemu podróżnikowi. Ale także i tu pojawia się kolejny
problem.
W skali kosmosu rozmiary planet są tak nieskończenie małe, a
odległości tak olbrzymie, że szansa na to, aby zarodnik z jednego układu
słonecznego dotarł do planety innego układu, jest w zasadzie równa zeru.
Jeśli hipoteza panspermii byłaby słuszna, to miliardy ton zarodników
musiałyby być wyrzucane w naszej Galaktyce przez miliardy lat, aby dać
jeden pojedynczy akt zasiania. Teoria panspermii ma więc dość chwiejne
podstawy.
Doszedłszy do tego wniosku, Carl Sagan udał się we wrześniu 1971
roku na konferencję w Biurakan.
71
Międzynarodowa konferencja na temat komunikacji z pozaziemską
inteligencją (Communication with Extra Terrestial Intelligence – CETI)
miała się odbyć w obserwatorium astronomicznym Biurakan w Armeńskiej
SRR. Spotkali się tam Amerykanie, Frank Drake i Philip Morrison, oraz
naukowcy z Rosji, Wielkiej Brytanii, Kanady, Węgier i Czechosłowacji. Ze
strony amerykańskiej konferencję współorganizował Carl Sagan, który był
także jednym z głównych dyskutantów. Wielką Brytanię reprezentował
Francis Crick.
Crick przybył do Biurakan, ponieważ interesował się ideami
dotyczącymi życia pozaziemskiego, które miały być dyskutowane na
konferencji. W wyniku swojego udziału w odkryciu struktury DNA Crick
zaczął wierzyć w możliwość istnienia życia w przestrzeni kosmicznej.
Sądził on, że powstanie cząsteczki DNA stanowiło pojedynczy przypadek
w historii wszechświata. W czasie konferencji posłużył się przykładem talii
kart, których układ stanowi jedną, rzadką konfigurację. Crick uważał, że
Ziemia jest zbyt młoda, aby ten wyjątkowy przypadek mógł zdarzyć się
właśnie tutaj. Badania wykopaliskowe prowadzą do wniosku, że najstarsze
skamieliny ziemskich organizmów liczą około 3,5 miliarda lat, co oznacza,
że życie na Ziemi zaczęło się około 1 lub 1,5 miliarda lat po ukształtowaniu
planety. Crick uważał, że dla rozwoju niezwykle złożonej struktury DNA
był to zbyt krótki czas. Rozwiązanie problemu oferowała hipoteza
panspermii. Skoro DNA jest tak złożoną cząsteczką, że nie mogła powstać
na Ziemi, to może przybyła tu z jakiejś innej planety, na tyle starszej, że
DNA miała na niej dostatecznie dużo czasu, aby się ukształtować. Crick
sformułował swoją hipotezę o pozaziemskim pochodzeniu DNA w czasie
dyskusji z Lesliem Orgelem z Salk Institute w Kalifornii podczas
konferencji w Biurakan. Carl Sagan zaprezentował odmienny pogląd. Na
podstawie swoich obliczeń dawek promieniowania pochłoniętych przez
podróżujące w międzygwiezdnej przestrzeni organizmy Sagan dowodził, że
hipoteza panspermii jest bardzo mało prawdopodobna. Odrzucił też
sformułowaną przez Cricka analogię między pojawieniem się DNA na
Ziemi a rzadką sekwencją w talii kart. Według Carla Sagana cząsteczka
DNA – lub coś o odmiennym składzie chemicznym, lecz pełniącym tę
samą funkcję – mogła niezależnie powstać na innych planetach.
Przykłady panspermii widzimy na samej Ziemi. Każdy, kto przybywa
na Hawaje, pozostaje pod wrażeniem bogatej roślinności oraz egzotycznej
fauny. Wyspy te stanowią prawdziwy raj tropikalnych drzew i roślin oraz
72
nigdzie indziej nie spotykanej rozmaitości ptaków. Jednak miliony lat temu,
wkrótce po tym, gdy jako wulkany wyłoniły się spod powierzchni Oceanu
Spokojnego, były całkowicie pozbawione życia. To wiatry przyniosły
nasiona krzewów, drzew, paproci oraz innych roślin z tropikalnych wysp
leżących odległości tysięcy mil, a także z Azji i obu Ameryk położonych
jeszcze dalej. Później przybyły również ptaki i inne zwierzęta. Na Ziemi
istoty żywe potrafią pokonać duże odległości, aby zasiedlić nowe miejsce,
w którym w ciągu milionów lat może rozwinąć się bogaty ekosystem
pochodzący od geograficznie odległych gatunków. Czy to samo może
zdarzyć się także w przestrzeni?
27 grudnia 1984 roku Roberta Score, badaczka z National Science
Foundation (NSF) [Narodowa Fundacja Nauki] zajmująca się
poszukiwaniem meteorytów, odkryła niewielki kamień na polu lodowym w
Allan Hills [Wzgórza Allana] na Antarktydzie. Poszukiwania meteorytów
na lądzie utrudnia fakt, że na powierzchni ziemi nie różnią się one od
zwykłych kamieni i z czasem stapiają się z otoczeniem, więc NSF uznała,
że najlepszym miejscem poszukiwań są lodowe pustynie Antarktydy, gdzie
naturalne ziemskie skały występują bardzo rzadko. W pierwszej chwili
Score uznała znaleziony przez siebie okaz za zwykły kamienny meteoryt,
lecz po bliższych oględzinach zwróciła uwagę, że ma on jedną dziwną
cechę: zielony kolor. Meteoryt został zabrany do Stanów Zjednoczonych
wraz z pozostałymi znaleziskami zespołu Roberty Score i przez dziesięć lat
leżał zapomniany na zapleczu laboratorium.
Meteoryt ten zwrócił uwagę naukowców z NASA zajmujących się
podróżami sond „Viking” na Marsa w 1976 roku. Przysłane na Ziemię dane
pozwoliły im dokładnie wyznaczyć skład atmosfery Marsa, w której
poruszały się próbniki. Gdy w 1993 roku otrzymali oni meteoryt Roberty
Score, nazwany później Allan Hills 84001 (w skrócie ALH84001), doszli
do ekscytującego wniosku, że musi on pochodzić z Czerwonej Planety.
Piętnaście milionów lat temu w powierzchnię Marsa trafiła asteroida. Jej
uderzenie było tak silne, że wyrzuciło w przestrzeń skały z powierzchni
planety. Jedną z tych skał był dwukilogramowy ALH84001. Wysoka
temperatura, powstała w wyniku tarcia w trakcie przedzierania się kamienia
przez atmosferę marsjańską, spowodowała stopienie jego powierzchni i
zatopienie bąbli marsjańskiego powietrza w jego wnętrzu. Gdy
przeprowadzono analizę uwięzionego w ALH84001 gazu, jego skład okazał
się identyczny z danymi przysłanymi na Ziemię przez sondy „Viking”. Na
73
podstawie efektów oddziaływania promieniowania kosmicznego na
ALH84001 naukowcy oszacowali, że przez około 15 milionów lat błądził
on po Układzie Słonecznym, zanim 13 000 lat temu spadł na Ziemię i
zagłębił się w lodową czapę Allan Hills. Ruchy konwekcyjne lodu
stopniowo wyniosły go na powierzchnię, gdzie w 1984 roku znalazła go
Roberta Score.
Gdy Mars stał się planetą, na jego powierzchni znajdowała się woda, a
planeta otoczona była atmosferą o ciśnieniu zbliżonym do tego, jakie
panuje na Ziemi. Wiemy, że woda płynęła na jego powierzchni, łącząc
jeziora i oceany siecią rzek i strumieni. Nadal widzimy koryta rzeczne
wyżłobione w ciągu milionów lat na powierzchni planety. W ciągu kilku
miliardów lat swojego istnienia Mars stracił zarówno wodę, jak i atmosferę.
Obecnie ciśnienie atmosferyczne na Marsie wynosi zaledwie 7 milibarów,
co odpowiada ciśnieniu panującemu na wysokości 32 kilometrów nad
powierzchnią Ziemi. Przyczyną zniknięcia atmosfery Marsa była ablacja –
będąc planetą mniejszą od Ziemi, Mars nie dysponował dostatecznie silną
grawitacją, aby utrzymać cenne gazy i ciekłą wodę dłużej niż przez miliard
lat od swojego powstania. Utrata atmosfery spowodowała powstanie różnic
temperatury, znacznie przekraczających to, co się dzieje na najbardziej
jałowych ziemskich pustyniach. Temperatury na Marsie mogą różnić się
nawet o trzydzieści stopni na odległości kilku stóp nad powierzchnią
gruntu. Obecnie na Marsie nie ma wody, powietrza i stabilnych temperatur,
niezbędnych do podtrzymania jakichkolwiek form życia, lecz 3,6 miliarda
lat temu pod jego powierzchnią nadal istniała woda, dzięki której mogły
przetrwać jakieś istoty żywe. Później ALH84001 został wyrzucony w
przestrzeń, rozpoczynając trwającą 15 milionów lat podróż, aby ostatecznie
zakończyć ją w lodach Antarktydy.
W 1994 roku ALH84001 został przekazany Pavidowi McKay owi z
należącego do NASA Johnson Space Center. McKay utworzył
dziewięcioosobowy zespół, do którego weszli naukowcy z NASA, Stanford
University, University of Georgia i McGill University w Montrealu.
Zadaniem zespołu było zbadanie, czy meteoryt zawiera jakiekolwiek ślady
życia. Przypuszczano, że skała została utworzona pod powierzchnią Marsa
4,5 miliarda lat temu, gdy z otaczającego nowo powstałe Słońce dysku
planetarnego powstał Układ Słoneczny. Meteoryt znajdował się blisko
powierzchni Marsa 3,6 miliarda lat temu, gdy podpowierzchniowa woda
mogła nadal utrzymywać życie na planecie. Naukowcy chcieli stwierdzić,
74
czy ich kamień nosi jakiekolwiek ślady marsjańskiego życia.
Zespół McKaya poddał meteoryt serii skomplikowanych testów.
ALH84001 był bombardowany promieniami lasera w celu rozdzielenia
różnych związków chemicznych, które mógł zawierać. Odkryto
wielopierścieniowe węglowodory aromatyczne, cząsteczki organiczne
podobne do tych, które znajdują się w złożach węgla lub gazu ziemnego.
Cząsteczki takie powstają, gdy giną mikroorganizmy. Czy związki
znalezione w meteorycie mogły być pozostałością po marsjańskich
organizmach? Wiemy, że chondryty węgliste zawierają materię organiczną
pochodzącą z przestrzeni kosmicznej. ALH84001 nie był jednak
chondrytem węglistym, lecz raczej meteorytem kamiennym, a jednak
zawierał te związki organiczne. Potężny mikroskop elektronowy ujawnił
wewnątrz meteorytu maleńkie mineralne depozyty. Znaleziono minerał
zwany magnetytem, związek żelaza i tlenu wydzielany przez ziemskie
organizmy. Czy magnetyt w meteorycie został wyprodukowany przez
organizmy marsjańskie? Znaleziono także inne minerały, siarkowe związki
zwane pirotynami i greigitami, również znane jako produkty bakterii i
mikrobów. Związki te powstają na Ziemi wyłącznie w wyniku procesów
związanych z istnieniem organizmów żywych. W końcu w meteorycie
odkryto także mikroskopowe struktury – maleńkie tunele i kanały, które
mogły wydrążyć organizmy żywe. Zespół McKaya stwierdził wielkie
podobieństwo tych mikrostruktur do skutków działania ziemskich bakterii.
Krytycy szybko zwrócili uwagę, że żadne z zaobserwowanych w
wyniku analizy ALH84001 zjawisk samo w sobie nie jest rozstrzygającym
dowodem istnienia życia na Marsie. Inne meteoryty również zawierały
materię organiczną. Minerały znalezione w ALH84001 mogły zostać
wyprodukowane pod wpływem działania sił natury nie mających nic
wspólnego z życiem. Mikroskopowe tunele, odkryte wewnątrz meteorytu,
mogły powstać w wyniku reakcji chemicznych i obecności wody, a nie
życia. Zespół McKaya zgodził się tymi zarzutami, lecz stwierdził, że nie
można w całości odrzucić wszystkich dowodów. Zdaniem badaczy
zajmujących się analizą ALH84001 jej wyniki potwierdzały istnienie życia
na Marsie. W 1996 roku ogłoszono całemu światu, że naukowcy odkryli
dowody wskazujące na możliwość istnienia wczesnych form życia na
Marsie.
Przekonanie o obecności życia na Marsie 3,5 miliarda lat temu, gdy
ALH84001 był wciąż jeszcze na Czerwonej Planecie, wsparły obserwacje
75
prowadzone za pośrednictwem „Vikinga” i innych próbników, które
dostarczyły dowodów, że w owym czasie na powierzchni Marsa
znajdowała się woda. Naukowcy uważają, że skoro była tam woda, to
mogło pojawić się życie. Co więcej, najwcześniejsze ślady życia na Ziemi
pochodzą mniej więcej z tego samego okresu. Na podstawie
pozostawionych przez mikroorganizmy skamielin wiemy,
żeżycieistniałonaZiemijuż3,5 miliarda lat temu. Chemiczne ślady
aktywności mikroskopowego życia na Ziemi sięgają 3,9 miliarda lat temu.
Jak na ironię, to właśnie te odkrycia, oparte na naukowych technikach
datowania, skłoniły Francisa Cricka do przyjęcia hipotezy panspermii.
Crick odjął 3,9 miliarda lat od 4,5 miliarda (na tyle ocenia się wiek Układu
Słonecznego) i otrzymał 600 milionów lat. Zdaniem wybitnego genetyka
DNA nie mogło powstać na Ziemi w ciągu zaledwie 600 milionów lat. Aby
z przypadkowych zderzeń atomów węgla, wodoru, fosforu i innych mogła
powstać niezmiernie złożona cząsteczka DNA, potrzebny byłby znacznie
dłuższy czas. Crick doszedł więc do wniosku, że życie musiało powstać
gdzie indziej i zostać w jakiś sposób przeszczepione na Ziemię.
Doniesienia o możliwych śladach życia w pochodzącym z Marsa kamieniu
ponownie ożywiły teorię panspermii. W czasopismach naukowych zaczęły
pojawiać się artykuły zatytułowane: „Czy jesteśmy Marsjanami?”
ALH84001 nie był jedyną znalezioną na Ziemi skałą pochodzenia
marsjańskiego. Istnieje dwanaście meteorytów, które naukowcy mogą z
dużą dozą pewności zakwalifikować jako pochodzące z Czerwonej Planety.
Jednak zdaniem niektórych z nich, tylko ALH84001, ze względu na swój
wiek, może zawierać dowody istnienia życia. Mars był wilgotny w czasie,
gdy ALH84001 spoczywał w pobliżu jego powierzchni. Cała koncepcja
wydarzeń, które spowodowały wyrzucenie skały z Marsa, a także w czasie
jej długiej podróży w kierunku Ziemi aż do jej odkrycia w 1984 roku,
wydawała się w elegancki sposób odpierać wszelkie zarzuty wobec
hipotezy panspermii. Z pewnością zadowoliłaby ona Carla Sagana, który
niegdyś, podczas konferencji w Biurakan w 1971 roku, niechętnie wystąpił
jako advocatus diaboli wobec teorii, którą poparłby z przyjemnością,
zważywszy na jego powszechnie znane próby wykazania, że życie gdzie
indziej we wszechświecie musi istnieć.
Głównym argumentem Sagana przeciw hipotezie panspermii było
przekonanie, że intensywne promieniowanie w otwartej przestrzeni
zniszczyłoby każdą formę życia w ciągu godzin, dni lub co najwyżej
76
tygodni. Jednak w czasie konferencji w Biurakan Sagan i jego koledzy
rozważali organizmy, które były dostatecznie małe, aby przedostać się na
najwyższy poziom stratosfery Ziemi lub innej planety, a następnie zyskać
dostatecznie dużo energii, by wyruszyć w przestrzeń. Małe, pozbawione
osłony organizmy wyruszające swobodnie w przestrzeń byłyby
rzeczywiście narażone na uszkodzenie ich wrażliwego DNA przez
promieniowanie, które ostatecznie zniszczyłoby je całkowicie. Jednak
ALH84001 to zupełnie inna historia. Jeżeli jakiś organizm znalazł się
wewnątrz kamienia, gdy znajdował się on jeszcze na Marsie, to został
objęty naturalną ochroną przed promieniowaniem – w postaci warstwy
skały. Czy taka pozaziemska skała mogła zasiać życie na Ziemi?
Każdy zapewne widział spadające gwiazdy. Spadająca gwiazda, czyli
meteor, stanie się meteorytem, jeżeli przeżyje przejście przez atmosferę
Ziemi i dotrze do powierzchni planety. Widzimy meteory, ponieważ świecą
jasno i wyglądają jak biegnące na niebie gwiazdy. Świecenie meteorów
przy przejściu przez atmosferę powoduje ich wysoka temperatura,
wywołana przez tarcie o powietrze. Wytworzone przy tym ciepło jest tak
duże, że większość wpadających w atmosferę Ziemi małych obiektów
ulega spaleniu, zanim dotrą one do powierzchni. W tym momencie pojawia
się kolejny problem związany z hipotezą panspermii. Gdy ALH84001
został wyrzucony w przestrzeń, rozgrzał się tak bardzo, że bąble atmosfery
marsjańskiej zostały uwięzione na jego stopionej powierzchni, dzięki
czemu zdołaliśmy ustalić jego pochodzenie. Jednak wysoka temperatura,
która uwięziła charakterystyczne dla Czerwonej Planety gazy, mogła
również zabić żywe istoty, które wybierały się w podróż wraz z ALH84001.
Jeżeli nawet to, co naukowcy obecnie znajdują pod powierzchnią
meteorytu, stanowi dowód istnienia życia, to są to jedynie ślady dawno
wymarłego życia. Podczas wchodzenia w atmosferę Ziemi kamień
niewątpliwie został poddany powtórnemu ogrzewaniu, podobnie jak przy
starcie z Marsa. Możemy założyć, że w sprzyjających warunkach
ALH84001 mógł ochronić organizm i jego DNA przed promieniowaniem
kosmicznym. Możemy również przypuszczać, że ewentualni żywi
pasażerowie mogli przetrwać podróż w stanie hibernacji wywołanej niską
temperaturą próżni kosmicznej. Jednak nadal pozostaje do rozwiązania
problem wysokiej temperatury podczas startu i lądowania.
Czy problem ten da się rozwiązać? Może niosąca życie skała wyrzucona
w przestrzeń z jakiejś odległej planety była zbudowana z materii odpornej
77
na ciepło, na przykład z azbestu? A może istotny jest stosunek powierzchni
do objętości? Kamień takiej wielkości jak ALH84001 może zostać
podgrzany do wysokiej temperatury, lecz co z większymi obiektami?
Księżyc był niegdyś częścią Ziemi, dopóki gigantyczna kolizja nie
spowodowała, że znalazł się na orbicie wokół nas. Nietrudno wyobrazić
sobie obiekty większe od ALH84001,lecz mniejsze od Księżyca,
wylatujące z jakiejś planety na skutek kolizji z asteroidą i niosące głęboko
wewnątrz – zabezpieczone zarówno przed promieniowaniem, jak i przed
ciepłem – organizmy żywe. Po trwającej miliony lat międzygwiezdnej
podróży obiekty takie mogą wylądować na planecie krążącej wokół innej
gwiazdy i zasiać na niej życie za pomocą zamrożonych zarodników,
ukrytych głęboko wewnątrz gwiezdnego kuriera.
Atmosfera Ziemi jest nieustannie bombardowana przez promieniowanie
kosmiczne, które rozbija jądra azotu, tworząc atomy radioaktywnego
węgla, C-14. Radioaktywny węgiel rozchodzi się w całej objętości
atmosfery, docierając również do Ziemi i przenikając nasze środowisko.
Wprawdzie przeważająca część węgla na świecie to izotopy stabilne (C-12
oraz w mniejszej ilości C-13), ale niewielki, w miarę stały ułamek stanowi
izotop radioaktywny, C-14. Istoty żywe nieustannie pobierają węgiel z
otaczającego je środowiska, pochłaniając go w pożywieniu, wdychając i
absorbując z powietrza. Ułamek radioaktywnego węgla w organizmach
żywych jest zatem taki sam jak w środowisku, lecz tylko do chwili ich
śmierci. Od tego momentu ustaje wymiana węgla ze środowiskiem.
Pozostały w organizmie radioaktywny węgiel kontynuuje swój naturalny
rozpad. W miarę upływu czasu poziom radioaktywności obniża się. Po
5730 latach rozpadnie się połowa radioaktywnych atomów, które były
obecne w organizmie w chwili śmierci. Jest to tak zwany okres
połowicznego zaniku, który w przypadku węgla C-14 wynosi właśnie 5730
lat. Po upływie 11 460 lat poziom radioaktywności obniży się do jednej
czwartej początkowej wartości itd. Ta charakterystyczna cecha
radioaktywnego węgla stała się podstawą techniki datowania wynalezionej
w latach czterdziestych przez W.F. Libby'ego.
Metoda ta została udoskonalona w 1993 roku przez Minze'a Stuivera z
University of Washington i jego współpracowników, którzy przeprowadzili
kalibrację datowania metodą aktywnego węgla, wykorzystując najbardziej
precyzyjny sposób określania wieku drzew – za pomocą liczenia słojów na
przekroju pnia. Znając wiek oraz datę ścięcia poszczególnych drzew,
78
dokonali analizy radiowęglowej kawałków drewna, a następnie porównali
wiek drzew określony na podstawie obu metod, dzięki czemu zdołali
zredukować błąd pomiaru metodą radiowęglową do 10-20 lat. Datowanie
metodą radioaktywnego węgla zostało między innymi zastosowane do
określenia wieku Całunu Turyńskiego, dzięki czemu udowodniono, że jest
on wykonany z lnu ściętego w trzynastym wieku, a nie za życia Jezusa.
Wyznaczono także datę zdobycia Jerycha przez Jozuego – 1580 r. p.n.e.
oraz określono wiek kości neandertalczyka na około 100 000 lat. Do
wyznaczania wieku znacznie starszych obiektów, a zwłaszcza do
wyznaczania przynależności skał do różnych okresów geologicznych
stosuje się podobne techniki, lecz oparte na innych pierwiastkach, na
przykład metodę potasowo-argonową.
W 1998 roku A.J.T. Juli z wydziału nauk o Ziemi University of Arizona
ogłosił wyniki badań małych fragmentów meteorytu ALH84001, które
poddał analizie radiowęglowej. Wyodrębnił znalezione w meteorycie
wielopierścieniowe węglowodory aromatyczne, a następnie spalił je w
specjalnej komorze laboratoryjnej, wydzielając w ten sposób z tych
organicznych związków czysty węgiel. Osobno wyodrębnił węgiel z
fragmentów ALH84001 zawierających nieorganiczny minerał węglanu
wapnia, który stanowił część samej skały. Następnie dla obu uzyskanych w
ten sposób próbek węgla wykonał analizę zawartości izotopu C-14, w
stosunku do pozostałych dwóch izotopów, C-12 i C-13. Wyniki Julia były
zaskakujące. Dla węgla organicznego proporcja radioaktywnego izotopu
była identyczna jak w przypadku węgla ziemskiego. Dla węgla
wyodrębnionego z węglanu, pochodzącego prawdopodobnie z Marsa,
proporcja była inna. Juli doszedł do wniosku, że organizmy żywe, które
mogły być źródłem znalezionych w ALH84001 węglowodorów, musiały
się tam dostać w okresie, gdy meteoryt spoczywał w antarktycznym lodzie.
Inne badania, wykonane mniej więcej w tym samym okresie, również
podały w wątpliwość przypuszczenia o marsjańskim pochodzeniu
obecnego w ALH84001 życia.
Na początku 1998 roku wśród naukowców panowała zgoda wyłącznie
co do tego, że na temat tajemnicy ALH84001 nie można stwierdzić nic
rozstrzygającego. Meteoryt najprawdopodobniej pochodził z Marsa, lecz
nic poza tym nie wydawało się pewne. Każde z odkryć, które pierwotnie
doprowadziły naukowców do przekonania, że na małej marsjańskiej skale
istniały ewidentne ślady przeszłego życia, zostało podane w wątpliwość.
79
Wszyscy uważali, że wielka zagadka, czy w pewnym okresie w przeszłości
na Marsie istniało życie, zostanie rozwiązana dopiero wtedy, gdy
marsjańskie skały – albo przywiezione na Ziemię, albo badane przez
pojazdy kosmiczne na powierzchni Czerwonej Planety – zostaną poddane
analizie. Mamy nadzieję, że odpowiedź przyniosą wyprawy na Marsa w
pierwszej dekadzie dwudziestego pierwszego wieku. Jeżeli odpowiedź
będzie pozytywna, to być może dowiemy się, czy DNA jest tworem >
unikatowym – przynajmniej w skali Układu Słonecznego – czy też
możliwe są inne formy kodu genetycznego.
Czy istnieją kosmiczni kurierzy?
Czy międzygwiezdna panspermia rzeczywiście może działać,
przenosząc życie z jednego układu słonecznego do innego? Większość ciał
pozaziemskich – meteoryty, asteroidy, komety – pochodzi z naszego
Układu Słonecznego. Asteroidy żyją w tzw. pasie asteroid, między orbitami
Marsa i Jowisza, gdzie zgodnie z prawem Bodego powstałaby kolejna
planeta. Prawo to (zwane także prawem Titiusa--Bodego) określa
odległości planet od Słońca. Aby je wyznaczyć, należy wziąć szereg liczb:
0, 3, 6, 12, 24,48, 96, 192... i dodać 4 do każdego wyrazu, co w rezultacie
da szereg: 4,7,10, 16, 28, 52,100, 196... Następnie należy każdy wyraz
podzielić przez 10, co da: 0,4; 0,7; 1; 1,6; 2,8; 5,2; 10; 19,6... Liczby te są
w przybliżeniu równe odległościom – w jednostkach astronomicznych
(AU) – planet od Słońca. Odległość Merkurego wynosi w rzeczywistości
0,39 AU, Wenus – 0,72 AU, Ziemi – 1 AU, Marsa – 1,52 AU. Następnie
pojawia się odstępstwo od prawa Bodego, gdyż w odległości 2,8 AU nie
ma żadnej planety. Później mamy Jowisza w odległości 5,2 AU od Słońca,
Saturna – 9,5 AU i Urana – 19,2 AU (dla Neptuna i Plutona prawo Bodego
nie daje dobrego przybliżenia). Gdy w szeregu Bodego pojawiła się
przerwa, G. Piazzi odkrył w 1801 roku asteroidę Ceres, a później wiele
innych asteroid, w odległości 2,8 AU od Słońca. Strefa ta obecnie określana
jest mianem pasa asteroid. Asteroidy stanowią pozostałości z okresu
formowania się Układu Słonecznego. Gdy otaczający nowo powstałe
Słońce dysk protoplanetarny koagulował w odległościach z grubsza
zgodnych z prawem Bodego, w odległości 2,8 AU było nieco za mało
materii, aby mogła powstać nowa planeta, i fragmenty tego, co miało
stanowić jej części składowe, pozostały w postaci asteroid krążących wokół
Słońca w obszarze pasa asteroid, niekiedy opuszczając go i „włócząc się”
80
po okolicy. Ceres, największa z asteroid, ma średnicę 1025 kilometrów.
Pallas, Juno, Westa i 200 innych znanych asteroid ma rozmiary rzędu
kilkuset kilometrów, a oprócz nich istnieją tysiące mniejszych asteroid, o
średnicach 1 kilometra lub mniejszych.
Poza obszarem planet, na zewnątrz orbity Plutona, znajduje się tak
zwany Pas Kuipera, który składa się z lodowych ciał pozostałych z okresu
narodzenia Układu Słonecznego. Od czasu do czasu któreś z tych ciał
zostaje wytrącone ze swojej orbity i spada w kierunku Słońca jako kometa.
Pas Kuipera stanowi źródło krótkookresowych komet, które okrążają
Słońce z okresem nie większym niż 200 lat. Włóczące się po Układzie
Słonecznym asteroidy i komety mogą przenosić materię z jednego miejsca
w drugie. Jednak czy mogą one transportować życie?
Znacznie dalej w przestrzeni, w odległości tysięcy AU od środka
Układu Słonecznego, znajduje się kolejny zbiór krążących wokół Słońca
ciał. Jest to tak zwana Chmura Oorta, nazwana na cześć holenderskiego
astronoma Jana Oorta, który w 1932 roku odkrył istnienie ciemnej materii
galaktycznej. Chmura Oorta powstała prawdopodobnie we wczesnym
okresie życia Układu Słonecznego, jako skupiska materii odrzucone od
środka Układu Słonecznego przez grawitacyjne oddziaływanie wielkich
planet – Jowisza, Saturna, Urana i Neptuna. Chmura Oorta stanowi źródło
komet o okresach obiegu sięgających tysięcy lat: orbity zbudowanych z
lodu ciał z Chmury Oorta są niekiedy zaburzane przez grawitacyjne
przyciąganie zewnętrznych planet, na skutek czego powstają komety,
których jedno okrążenie wokół Słońca trwa tysiące lat.
Od czasu do czasu zdarza się, że krążące wokół masywnego środka
Galaktyki dwie gwiazdy zbliżają się do siebie. Ich Chmury Oorta –
zakładając, że inne gwiazdy również je mają – mogą się wówczas mieszać
ze sobą. Zrodzony w jednym układzie skalisty, lodowy obiekt może
przenieść się do drugiego. Naukowcy sądzą obecnie, że oprócz Chmur
Oorta w międzygwiezdnej przestrzeni wędrują również samotne, nie
związane z żadnym układem słonecznym komety-łazi ki. Są to komety,
które zostały grawitacyjnie pociągnięte przez którąś z zewnętrznych planet,
a następnie na skutek „efektu procy” katapultowane w przestrzeli. Obecnie
– pod wpływem bezwładności – przemierzają one olbrzymią, otwartą
międzygwiezdną pustkę. Według jednego z niedawnych oszacowań
przestrzeń między nami a najbliższym układem gwiazdowym, Alfą
Centauri, może zawierać aż 50 miliardów takich bezpańskich komet. W
81
całej Drodze Mlecznej może znajdować się aż 6 bilionów bilionów (6 z 24
zerami) komet. Przy tak olbrzymiej liczbie międzygwiezdnych
podróżników nie można wykluczyć, że chemiczne nośniki życia jednak
podróżują przez Galaktykę, a hipoteza panspermii może ostatecznie okazać
się słuszna, jeżeli założymy, że DNA potrafi przetrwać uciążliwości
długotrwałej podróży w ekstremalnych warunkach.
82
Rozdział 6
ASTEROIDY, WULKANY I NEMEZIS
Życie na Ziemi – i zapewne na jakiejkolwiek planecie we
wszechświecie –jest pełne niebezpieczeństw. Zagrożenie ekstynkcją oraz
niebezpieczeństwo, że życie, nawet jeżeli gdzieś się pojawi, nie będzie
miało szansy się rozwinąć, skłoniły Franka Drake'a i jego
współpracowników
z
programu SETI do włączenia do równania Drake'a
czynnika, który odzwierciedla niepewność i kruchość życia: czynnik L. Jest
on miarą czasu trwania cywilizacji, czyli musi uwzględniać wiele różnych
elementów wpływających na ewolucję i „długowieczność” życia –
a
w
szczególności życia inteligentnego – na jakiejkolwiek planecie. Chodzi tu
między innymi o autodestrukcyjne skłonności naszego gatunku
przejawiające się w produkcji i magazynowaniu broni masowej zagłady, a
przecież podobne cechy mogą mieć też inne zaawansowane cywilizacje.
Jednak zagrożenie czyha z wielu stron. Każdy astronom wie, że
wszechświat to niebezpieczne miejsce. Wciąż zachodzą w nim eksplozje i
rozbłyski intensywnego promieniowania, a każdej planecie grożą kolizje z
innymi obiektami. Podstawowe pytanie brzmi: Jak bardzo jest
prawdopodobne, że gdzieś w przestrzeni istnieją dostatecznie sprzyjające
warunki i że będą trwać wystarczająco długo, aby życie mogło powstać i
ewoluować?
W lipcu 1994 roku kometa Shoemaker-Levy 9 trafiła w Jowisza.
Zdarzenie to stało się najczęściej oglądanym zjawiskiem w historii
astronomii. Przez wiele dni każdy profesjonalny teleskop skierowany był
na olbrzymią planetę. Na skutek oddziaływania grawitacji Jowisza kometa
rozpadła się na fragmenty, które uderzały w powierzchnię planety z taką
siłą, że nawet przez małe teleskopy widoczne były ślady uderzeń
rozmiarami porównywalne z Ziemią. Nad krajobrazem Jowisza pojawiły
się olbrzymie, ogniste kule gorącego gazu i pyłu, a atmosfera wyraźnie
pociemniała. Na powierzchni pozostał trwały ślad pouderzeniowy. Każdy z
83
nas zadawał sobie pytanie, czy zdarzenie to stanowi wyjątek, czy też jest
rozpowszechnione w kosmosie? I co właściwie dzieje się ze środowiskiem
uderzonej przez gościa z przestrzeni kosmicznej planety? Czy życie potrafi
przetrwać takie naturalne katastrofy? Czy wszelkie życie, w całym
wszechświecie, musi ostatecznie zginąć w ognistej eksplozji? Czy Ziemię
również czeka taki los jak Jowisza?
Jeszcze dwadzieścia lat temu niewielu naukowców zdawało sobie
sprawę, że Ziemi także zagrażają obiekty kosmiczne. A wystarczy przecież
rzut oka na pocięty kraterami krajobraz Księżyca, aby dojść do wniosku, że
kosmos jest niebezpiecznym miejscem. Księżyc jest uderzany częściej niż
Ziemia, ponieważ ma bardzo cienką atmosferę, w której – w odróżnieniu
od Ziemi – niewiele ciał ulega spaleniu w trakcie spadania na
powierzchnię. Niewielkie obiekty wkraczające w atmosferę Ziemi ulegają
całkowitemu spaleniu, zanim dotrą do powierzchni. Ponadto na Ziemi
aktywność geologiczna – nieobecna na Księżycu – powoduje erozję
powierzchni, na skutek wzajemnych ruchów płyt tektonicznych
usuwających ślady starych kraterów uderzeniowych. Jednak mimo braku
takich śladów wiemy, że w przeszłości w Ziemię wielokrotnie uderzały
duże ciała kosmiczne. Zderzenia te były na ogół przyczyną wielkich
katastrof.
W 1978 roku Louis i Walter Alvarezowie z University of California w
Berkeley badali we włoskich Apeninach warstwy geologiczne pochodzące
z okresu między kredą a trzeciorzędem (zwane granicą K/T), sprzed 65
milionów lat. Dwaj naukowcy odkryli coś zupełnie nieoczekiwanego:
cienką warstwę skały wyjątkowo bogatą w iryd. Pierwiastek ten jest pod
pewnymi względami spokrewniony z platyną i jest niezwykle słabo
reaktywny. Nie rozpuszcza się nawet w wodzie królewskiej. Iryd rzadko
występuje na Ziemi, lecz spotka się go w meteorytach. Fakt, że jest on
skoncentrowany w tak cienkiej i dobrze wyodrębnionej warstwie skały,
doprowadził A. Warezów do konkluzji, że pojawił się on z przestrzeni,
wraz z asteroidą. Na podstawie gęstości odkrytej przez siebie warstwy
irydu i przy założeniu, że jest ona równomiernie rozłożona na całej
powierzchni Ziemi, obliczyli, że łączna ilość irydu w takiej globalnej
warstwie musiała pochodzić z asteroidy o średnicy 10 kilometrów.
Najbardziej uderzającym aspektem tego odkrycia była zbieżność czasowa
między powstaniem warstwy irydu – i hipotetycznego uderzenia asteroidy
– a zagładą dinozaurów.
84
Jeżeli rzeczywiście w okresie przełomu K/T w Ziemię trafiła asteroida,
to gdzie znajdują się jej pozostałości? Gdzie znajduje się krater po
uderzeniu ciała o tak dużej masie? Musiałby on być olbrzymi, a w latach,
gdy Alvarezowie dokonali swego odkrycia, nie wiedziano o istnieniu
żadnego krateru o takich rozmiarach. Nowa teoria o przyczynach zagłady
dinozaurów, oparta na hipotezie o uderzeniu asteroidy, nie miała więc
swojego potwierdzenia, którym mógłby być krater pouderzeniowy.
Warstwa irydu mogła przecież pojawić się w tym samym okresie zupełnie
przypadkowo.
W 1991 roku na półwyspie Jukatan odkryto gargantuiczny krater.
Warstwa irydu, a także znalezione tymczasem ślady irydu w różnych
miejscach globu oraz początkowe odkrycie Alvarezów w Apeninach –
wszystkie one pochodzą z okresu przełomu K/T, sprzed 65 milionów lat.
Stało się jasne, że Ziemia, podobnie jak Jowisz w 1994 roku, stała się
niegdyś celem gigantycznego najeźdźcy z kosmosu, nazwanego Wielkim
Ekstynktorem. Na podstawie rozmiarów krateru naukowcy obliczyli, że
wybuch spowodowany uderzeniem asteroidy był 5 miliardów razy
silniejszy niż zrzucona na Hiroszimę bomba atomowa lub – w skali
stosowanej w podobnych sytuacjach – równoważny 100 milionom megaton
TNT.
W ciągu kilku sekund od wybuchu wysoko nad powierzchnię Ziemi
wzbiła się wielka ognista kula. Znacznie wzrosła temperatura atmosfery.
Jednak niektóre zwierzęta i rośliny, zwłaszcza z tych gatunków, które
mogły się ukryć i nie znajdowały się zbyt blisko miejsca uderzenia, zdołały
przetrwać okres wzmożonego ciepła. Większa część szkód na Ziemi została
spowodowana później. Nad powierzchnię Ziemi wzbiły się olbrzymie
chmury sadzy i pyłu, które rozprzestrzeniły się na całą atmosferę, tworząc
ciemną pokrywę nad całą planetą. Przez wiele miesięcy do powierzchni
Ziemi nie docierały promienie słoneczne. Spowodowaną przez eksplozję
wysoką temperaturę zastąpiły trwające wiele lat mrozy. Ciężka pokrywa
czarnych chmur nie pozwalała promieniom Słońca ogrzewać planety i
przerwała roczny cykl wzrostu i obniżenia temperatury. Powierzchnia
Ziemi przez wiele lat pozostawała bardzo zimna.
Brak światła uniemożliwiał roślinom fotosyntezę, wskutek czego
większość z nich wymarła. Wszystko na lądzie zamarzło. Dinozaury, a
wraz z nimi większość innych żywych istot na Ziemi, wyginęły. Nadal
pozostaje zagadką, które formy życia przetrwały tę katastrofę i w jaki
85
sposób z zagłady wyłoniła się tętniąca obecnie życiem planeta.
Naukowa analiza eksplozji K/T oraz skutków, jakie wywołała wśród
istot żywych, doprowadziła Alvarezów do jeszcze jednego
nieoczekiwanego odkrycia. W początkowym okresie zimnej wojny oba
supermocarstwa kierowały się założeniem, że wojnę nuklearną można
wygrać. Na podstawie obliczeń siły i zniszczeń wywołanych przez
pojedynczą eksplozję nuklearną oraz informacji uzyskanych dzięki
wykonywanym przez 40 lat testom jądrowym, początkowo w powietrzu, a
następnie pod ziemią, radzieccy i amerykańscy naukowcy sądzili, że
bomby atomowe dokonują zniszczeń przez działanie trzech czynników: fali
uderzeniowej, ognia oraz promieniowania. Jednak od pewnego czasu
zaczęto zdawać sobie sprawę, że istnieje jeszcze jeden skutek dużych
eksplozji jądrowych. Gdyby równocześnie zdetonowano wiele bomb
atomowych, tak jak podczas hipotetycznej wojny jądrowej, ich skutki nie
byłyby terytorialnie ograniczone. Płonące miasta wyrzuciłyby do atmosfery
takie ilości sadzy i pyłu, że temperatura na Ziemi spadłaby do
niebezpiecznie niskiego poziomu, a promieniowanie słoneczne nie
mogłoby dotrzeć do gruntu. Naukowcy określają ten efekt terminem
„nuklearnej zimy”. W znacznym stopniu przypomina on skutki katastrofy
K/T. Hipoteza nuklearnej zimy odegrała ważną rolę w polityce zimnej
wojny, przekonując supermocarstwa, że wojny jądrowej prawdopodobnie
nie da się wygrać, a próba jej wywołania skazałaby nas na zagładę
przypominającą los dinozaurów. Teoria nuklearnej zimy, głoszona przez
naukowców obu supermocarstw, zwróciła w końcu uwagę światowych
przywódców i dopomogła w zakończeniu zimnej wojny.
Wydaje się, że utrzymanie życia na Ziemi – lub na jakiejkolwiek innej
planecie – może na dłuższą metę okazać się trudne. Już sam proces
formowania się układów słonecznych od dysków protoplanetarnych do
planet stwarza zagrożenie dla ciągłości życia. Asteroidy, komety i inne
kawałki materii są równie naturalnymi składnikami układu słonecznego jak
planety. Wprawdzie hipoteza panspermii, zgodnie z którą pochodzące z
przestrzeni kosmicznej ciała mogą się stać zarodkiem życia, jest w
najlepszym razie kontrowersyjna, ale niszcząca moc tych samych ciał –
oraz zagrożenie, jakie stwarzają one dla rozwoju i ciągłości życia – jest jak
najbardziej realna. Zagrożenie to może się przejawiać na wielu różnych
poziomach.
W dniu 30 czerwca 1908 roku mieszkańcy wsi w Okręgu Tunguskim na
86
środkowej Syberii usłyszeli donośny wybuch. Na niebie pojawiła się
olbrzymia kula ognia, wszystko wokół stało się czerwone, a temperatura
gwałtownie wzrosła, jak w pobliżu gigantycznego ogniska. Pożary strawiły
2000 kilometrów kwadratowych lasów. Ze względu na położenie
geograficzne i uwarunkowania geopolityczne ekspedycje naukowe, mające
na celu zbadanie przyczyn tego zjawiska, pojawiły się na Syberii dopiero
po 17 latach od wybuchu. Obecnie wiemy, że sprawcą wybuchu była
kamienna asteroida o rozmiarach sporego biurowca. Spowalniany przez
opór powietrza kosmiczny najeźdźca rozgrzewał się coraz bardziej, aż w
końcu eksplodował na wysokości 8 kilometrów nad powierzchnią Ziemi,
wzniecając ogień wokół miejsca wybuchu. Uwolniona przez eksplozję
energia odpowiadała 15 megatonom TNT – była tysiąc razy większa niż
energia bomby zrzuconej na Hiroszimę.
Naukowcy szacują, że ciała o rozmiarach asteroidy tunguskiej – mające
około 50 metrów średnicy – trafiają w Ziemię średnio raz na 300 lat.
Gdyby obiekt taki spadł na miasto, uległoby ono całkowitemu zniszczeniu.
Miejsca trafień są jednak przypadkowe, więc dotychczasowe eksplozje
asteroidów następowały w słabo zaludnionych obszarach, takich jak Okręg
Tunguski na Syberii. Zakładając, że 10% powierzchni Ziemi jest gęsto
zaludnione, naukowcy obliczają, że obiekty o podobnych rozmiarach jak
asteroida tunguska trafiają w zamieszkane obszary raz na 10 000 lat. Te
względnie małe obiekty stwarzają jednak różnego rodzaju zagrożenia
nawet wtedy, gdy spadną na nie zamieszkane obszary. Trafienie w ocean
spowodowałoby fale pływowe, które zniszczyłyby gęsto zaludnione
obszary przybrzeżne. Przeprowadzone symulacje komputerowe wskazują,
że nawet nieduża asteroida, wpadając do Oceanu Atlantyckiego,
wytworzyłaby tak potężną falę pływową, że miasta na wschodnim
wybrzeżu Ameryki zostałyby obrócone w (mokrą) perzynę.
Uderzenie większej asteroidy, o promieniu 100 metrów, uwolniłoby
energię równą energii 100 megatonowych bomb, niszcząc cały kontynent.
Przy średnicy 1 kilometra energia osiągnęłaby równowartość 100 000
megatonowych bomb, a zasięg zniszczeń rozciągałby się na całą półkulę.
Wielki Ekstynktor z ery K/T, mający średnicę 10 kilometrów, wyzwolił
energię 1 miliona megaton, niszcząc życie w globalnej skali. Naukowcy
oceniają, że katastrofy o podobnych rozmiarach zdarzają się średnio co 30
milionów lat.
Istnieje teoria, aczkolwiek nie poparta żadnymi dowodami
87
obserwacyjnymi, że nasze Słońce nie jest pojedynczą gwiazdą, lecz
elementem układu podwójnego, podobnie jak większość gwiazd w naszej
Galaktyce. Zgodnie z tą teorią towarzysz Słońca, zwany Nemezis, obiega
Słońce po eliptycznej orbicie z częstością raz na 30 milionów lat. Gdy
zbliża się do nas, jego grawitacyjne oddziaływanie zaburza trajektorie
asteroid i komet, posyłając je w kierunku Słońca i jego planet. Według tej
teorii to właśnie Nemezis była przyczyną uderzenia w Ziemię Wielkiego
Ekstynktora, który 65 milionów lat temu sprowadził zagładę na dinozaury i
większość innych form życia na naszej planecie.
Asteroida 1997 XF11
Większość asteroid pozostaje wprawdzie w pasie asteroid, ale istnieje
jedna grupa – zwana asteroidami Apolla – której orbity krzyżują się z orbitą
Ziemi. Należy do niej ponad 30 obiektów. Jedna z asteroid Apolla, Ikar, w
1968 roku zbliżyła się do Ziemi na odległość 4 milionów mil (ok. 6,5 min
km). W kategoriach astronomicznych taka odległość uważana jest prawie
za trafienie. Nieco później odkryto asteroidy, które mijały Ziemię w
odległości mniejszej niż 300 000 mil (ok. 480 000 km). W dniu 6 grudnia
1997 roku James V. Scotti z University of Arizona odkrył nową asteroidę,
nazwaną później asteroidą 1997 XF11, której orbita przechodziła bardzo
blisko Ziemi. W marcu 1998 roku ogłoszono, że nowo odkryta asteroidą
znajduje się na kursie, który doprowadzi ją do Ziemi na odległość 30 000
mil (ok. 48 000 km)–bliżej niż jakiekolwiek inne zaobserwowane ciało
niebieskie. Asteroidą okrąża Słońce raz na 21 miesięcy. Obliczono, że w
czwartek 26 października 2028 roku o 13.30 asteroidą 1997 XF11 znajdzie
się najbliżej Ziemi. Zbliżenie na odległość 30 000 mil (ok. 48 000 km),
jedną ósmą odległości od Księżyca, może grozić bezpośrednim
zderzeniem. Późniejsze obliczenia, wykonane przez naukowców z Jet
Propulsion Laboratory [Laboratorium Napędu Odrzutowego] w Kalifornii,
dały bardziej optymistyczne oceny największego zbliżenia XF11 do Ziemi
– od 54 000 do 600 000 mil (ok. 87 000-965 000 km). Gdyby mająca milę
średnicy asteroidą trafiła w Ziemię, spowodowałaby zniszczenia w skali
globalnej, wzniecając ogień na całym kontynencie. W roku 2000 i 2002,
podczas kolejnych zbliżeń, zostaną wykonane ponowne obliczenia, które
pozwolą lepiej oszacować zagrożenie zderzeniem. Jak na ironię jedną z
możliwości odsunięcia bezpośredniego zagrożenia jest prewencyjne
uderzenie asteroidy rakietą niosącą ładunek jądrowy, którego wybuch
88
mógłby Zmienić jej kurs. Nietrudno uświadomić sobie, że wśród licznych
bliskich spotkań Ziemi z asteroidami i kometami, w ciągu wielu milionów
Iat
5
może się zdarzyć i takie, które zakończy się bezpośrednim trafieniem.
Nuklearna zima, promieniowanie, zniszczenia wywołane przez samą
eksplozję oraz uwolnione przez nią ciepło mogą zniszczyć każdą
zaawansowaną cywilizację, znajdującą się w stanie globalnej wojny.
Asteroidy i komety – zakładając, że w innych układach słonecznych
również znajdują się takie pozostałości z wczesnych okresów ich
formowania się, wędrujące w ich przestrzeni między, planetarnej, a może
także i w międzygwiezdnej – stwarzają kolejne zagrożenie dla cywilizacji
pozaziemskiej. Wiemy, że na Ziemi przynajmniej raz zdarzyła się globalna
katastrofa wywołana uderzeniem
asteroidy. Jak na ironię, gdyby nie zagłada
dinozaurów, spowodowana przez eksplozję K/T oraz jej konsekwencje
klimatyczne, na Ziemi mogłoby nigdy nie pojawić się inteligentne życie.
Istnieje jaszcze trzecie zagrożenie, czające się na każdej zdolnej do
podtrzymania życia planecie. Wiemy, że dla utrzymania życia potrzebna
jest geologiczna aktywność planety. Geologicznie martwe ciało, takcie jak
Księżyc, nie ma wielu niezbędnych dla ewolucji życia elementów. Jednak
ożywiająca planetę aktywność geologiczna może równie
łatwo zniszczyć
życie. Na każdej geologicznie aktywnej planecie występują wulkany. Io,
satelita Jowisza, jest tak aktywny, że na zdjęciach wykonanych przez
Kosmiczny Teleskop Hubble'a widać olbrzymie plamy wulkanicznego
dymu. Częste i intensywne Przejawy aktywności wulkanicznej mogą
zniszczyć życie równie łatwo i gruntownie jak nuklearna zima.
Gdy 65 milionów lat temu wyginęły dinozaury, na Ziemi nie
D
yj
0
ludzi,
więc – nie licząc danych geologicznych i paleontologicznych – nie mamy
żadnych zapisów na temat poziomu zniszczeń spowodowanych przez
Wielkiego Ekstynktora. W jakim stopniu podobna katastrofa dotknęłaby
ludzi? To pytanie przyszło mi do głowy w 1991 roku, gdy zbierałem
informacje na temat statystycznych metod poprawiania wyników
radiowęglowej metody datowania. Zastosowałem wtedy metodę
matematyczną zwaną bootstrap
, dzięki której można uzyskać wąski
przedział ufności dla określonych metodą aktywnego węgla dat
prehistorycznych wydarzeń. W ramach tego projektu chciałem odwiedzić
miejsce, gdzie zdarzyła się najpotężniejsza naturalna katastrofa w historii
ludzkości. Wśród pozostałości starożytnej cywilizacji, która w tajemniczy
21
Tu: rekurencyjna metoda szacowania wariancji rozkładu.
89
sposób zniknęła z powierzchni Ziemi około 1630 r. p.n.e., archeolodzy
znaleźli naczynia zawierające ziarna jęczmienia pozostawione przez ludzi,
którzy zginęli w wielkiej katastrofie. Ziarna te zostały wykorzystane jako
materiał do określenia daty metodą węgla aktywnego
Wspiąłem się na krawędź olbrzymiego wulkanu na wyspie Thira. Na
tarasie, z którego rozciągał się widok na położoną poniżej kalderę,
znajdował się napis: „Przejście tylko dla klientów”. Skierowałem się na
południe i po półgodzinnym marszu obszedłem dookoła otoczone
niewielką krawędzią wgłębienie wulkanu i ponownie znalazłem się na
wprost położonej poniżej krateru olbrzymiej niebieskiej kaldery. tym razem
od północy. Patrząc z tego miejsca, łatwo było zdać sobie sprawę z
wielkich rozmiarów krateru. Był jasny dzień, a mimo to z trudem
dostrzegałem położone na północnym krańcu, na wprost kaldery,
miasteczko la. Ilość ziemi i skał, wyrzuconych w powietrze owego dnia,
lub dni, w siedemnastym wieku przed naszą erą, musiała być olbrzymia.
Wszędzie wokół znajdowały się duże, czarne, bazaltowe bloki. Bezładnie
porozrzucane, wyglądały, jakby spadły z nieba wprost na szarożółtą ziemię.
Ten sam północny wiatr musiał wiać również wtedy, gdy zaczęła się
erupcja (co zresztą zostało udowodnione przez badania złóż popiołu w
podmorskim gruncie), a niesione przez wiatr na południe i na wschód skały,
popiół i pumeks spowodowały straszną dewastację. Gruba warstwa popiołu
pokryła pola oddalonej o 70 mil (ok. 110 km) na południe Krety.
Współczesne badania wykazały, że grunty rolne pokryte tak grubą warstwą
popiołu, jaką odkryto na Krecie, byłyby przez wiele lat nieprzydatne do
upraw. Silne wiatry poniosły olbrzymią chmurę popiołu na południowy
wschód, w kierunku Egiptu, powodując trwające wiele dni ciemności.
Dzień był niezwykle gorący i suchy. W palących promieniach słońca
dotarłem w końcu do wioski Akrotiri.
Gdy wl967
roku archeolog Spyridon Marinatos rozpoczął prace
wykopaliskowe na południe od Akrotiri, jego zespół bardzo szybko natknął
się na niezwykłe znalezisko. Pod warstwą popiołu i pumeksu znajdowało
się starożytne miasto, niczym Pompeje, lecz o siedemnaście stuleci starsze.
Wzdłuż ulic i wokół rynku mieściły się dwupiętrowe domy z bieżącą wodą
i spłukiwanymi wodą ubikacjami. Wewnątrz tych domów zespół
Marinatosa znalazł bogate freski i piękne wazy wykonane przez
22
Amir D. Aczel, Improved Radiocarbon Age Estimation Using the Bootstrap, „Radiocarbon”, t. 37,
nr 3, 1995, s. 845-849.
90
przedstawicieli cywilizacji, która zniknęła nagle i bez powodu. Odkrycie
Marinatosa znalazło się w centrum uwagi światowych mediów, a „National
Geographic”, który w 1967 roku opublikował piękne fotografie fresków i
innych odkrytych w Akrotiri dzieł sztuki, przyrównał jego prace do
odkrycia Atlantydy.
W 1932 roku Marinatos prowadził prace wykopaliskowe w Amnisos.
Był to port obsługujący wielki pałac w Knossos na Krecie. Badając
pozostałości położonej dosyć wysoko nad portem minojskiej willi, odkrył
coś, co wydało mu się dosyć dziwne. Willa robiła wrażenie, jakby jakaś
tajemnicza siła przesunęła ją w stosunku do fundamentów. Gdy w innych
miejscach na Krecie zauważył podobne oznaki działania niewyjaśnionej,
niszczącej siły, doszedł do przekonania, że cywilizacja minojska nie upadła
wskutek wojny lub innej konwencjonalnej przyczyny, lecz stała się ofiarą
naturalnej katastrofy o złowieszczej, niespotykanej sile.
W 1939 roku Marinatos opublikował w angielskim czasopiśmie
„Antiąuity” artykuł zatytułowany The Volcanic Destruction of Mi-noan
Crete [Wulkaniczna destrukcja minojskiej Krety]. Wysunął w nim hipotezę,
zgodnie z którą przyczyną zniszczenia cywilizacji minojskiej na Krecie był
gwałtowny wybuch wulkanu Santoryn. Zdaniem Marinatosa erupcji
wulkanu towarzyszyło silne trzęsienie ziemi, które wywołało olbrzymie
fale pływowe. Minojskie osadnictwo na Krecie zostało zniszczone przez
uderzenia fal oraz przez znaczne ilości osiadłego na polach popiołu
wulkanicznego, który położył kres rolniczej cywilizacji.
Atlantyda nie jest jedyną legendą o całkowitej i nagłej zagładzie
cywilizacji ludzkiej, dokonanej przez powszechnie występujące w
przyrodzie gwałtowne siły. Przyczyna upadku kultury minojskiej została w
dużej mierze potwierdzona dzięki pracom Marinatosa i innych badaczy.
Istnieją inne legendy, których wyjaśnienie można również z jakąś dozą
pewności przypisać działaniu naturalnych katastrof. Potop za Deukaliona,
potop ze starożytnego sumeryjskiego eposu o Gilgameszu oraz potop za
Noego mogą stanowić ludowe zapisy katastrof spowodowanych przez fale
pływowe, których przyczyną mogły być trzęsienia ziemi, wybuchy
wulkanów lub uderzenia asteroid w powierzchnię morza. Ludzkie
doświadczenie na Ziemi jest zaledwie momentem w kosmicznej skali
czasowej, więc fakt, że nasza cywilizacja nie zniknęła całkowicie w ciągu
zapisanej historii, nie dowodzi jeszcze, że życie może trwać wiecznie. W
hierarchii kosmicznych wypadków większe zdarzają się rzadziej, a
91
mniejsze częściej. Gdybyśmy jednak żyli na Ziemi tak długo jak dinozaury
– 180 milionów lat – moglibyśmy także zostać unicestwieni przez globalną
katastrofę. Czynnik L w równaniu Drake'a jest zwodniczy – nie wiemy, jak
długo cywilizacja może trwać, lecz wiemy, że czas ten jest skończony, co
niesie implikacje zarówno dla ewentualnych założeń o nieskończonym
okresie trwania cywilizacji pozaziemskich, jak i dla niepewności
sprzyjających życiu warunków na pozasłonecznych planetach. Nawet jeżeli
znajdziemy planety w zamieszki walnej strefie jakiejś gwiazdy, z wodą w
stanie ciekłym, ze stałymi i łagodnymi temperaturami, to aktywność
wulkaniczna, uderzenia komet lub asteroidów mogą uniemożliwić
utrzymanie i rozwój życia.
Zasada antropiczna stwierdza, iż sam fakt istnienia życia jest dowodem,
że występują sprzyjające życiu – w takiej formie, w jakiej je znamy –
warunki. Zgodnie z tą zasadą gdyby masa elektronu była tylko nieznacznie
większa lub mniejsza, życie nie mogłoby powstać. Gdyby atom węgla miał
inne rozmiary, nie istniałyby cząsteczki, z których zbudowane są istoty
żywe. Gdyby nasz Układ Słoneczny był w jakikolwiek sposób inny, niż
jest, nie byłoby nas tutaj. Zasada stwierdza, że wszystko we wszechświecie
musi być dokładnie takie, jakie jest, gdyż w przeciwnym razie nie
istnielibyśmy. W pewnym sensie zasada antropiczna stanowi odbicie idei,
że Ziemia jest środkiem wszechświata, która panowała aż do szesnastego
stulecia, gdy Kopernik stwierdził, że nie Ziemia, lecz Słońce jest środkiem
Układu Słonecznego. Sto lat później Galileusz zaobserwował księżyce
Jowisza, co stanowiło pierwszy obserwacyjny dowód, że Ziemia nie jest
środkiem wszystkiego. Pewne właściwości Jowisza, a także naszego
Księżyca, były jednak podstawą do formułowania argumentów, których
natura wydaje się całkowicie antropiczna.
Jowisz jest olbrzymią planetą, 318 razy większą od Ziemi. Ze względu
na jego znaczną masę oraz na fakt, że jego orbita jest bardziej oddalona od
Słońca niż nasza, Jowisz jest uważany za wielkiego obrońcę Ziemi. Gdy
komety lub asteroidy zbaczają z własnych orbit i zaczynają zagrażać
ziemskiemu życiu, masywny Jowisz przyciąga je o wiele silniej niż lekka
Ziemia. Grawitacyjne oddziaływanie Jowisza chroni nas przed wszystkim,
co mogłoby zniszczyć życie na Ziemi. Również Saturn, o masie równej 95
masom Ziemi, działa – aczkolwiek w mniejszym stopniu – jako nasz
obrońca przed kosmicznymi intruzami. Zgodnie z tą teorią kometa
Shoemaker-Levy 9 nie spadła na Jowisza przez przypadek, lecz z powodu
92
jego rozmiarów i masy przyciągającej komety i asteroidy. Teoria o roli,
jaką Jowisz i inne duże planety odgrywają w ochronie Ziemi przed
kosmicznymi odpadkami, mówi, że gdyby planety owe nie istniały, Ziemia
byłaby bombardowana przez komety i asteroidy ze znacznie większą
częstością niż obecnie. Jedna z ocen przewiduje, że zamiast upadku dużej
asteroidy lub komety raz na 30 do 60 milionów lat, bez ochrony dużych
planet dochodziłoby do takiej katastrofy raz na 100 000 lat. Życie nie
mogłoby się rozwinąć, gdyby te gigantyczne planety nie istniały.
Rozważając szanse istnienia życia gdzie indziej we wszechświecie,
niektórzy naukowcy twierdzą, że musimy wziąć pod uwagę ewentualność
obecności dużych planet, które mogłyby osłaniać niosącą życie, małą,
podobną do Ziemi planetę. Argument taki można uważać za odbicie zasady
antropicznej: skoro my mamy Jowisza i Saturna, to istoty zamieszkujące
inny układ słoneczny również muszą je mieć.
Podobna teoria, wysunięta w 1993 roku przez francuskiego astronoma,
Jacques'a Laskara, sugeruje, że życie na Ziemi nie rozwinęłoby się bez
obecności Księżyca. We wczesnej fazie kształtowania się Układu
Słonecznego w młodą Ziemię uderzył jakiś duży obiekt z taką siłą, że
fragment Ziemi został wyrzucony w przestrzeń. Jego masa była na tyle
duża, że przyciąganie grawitacyjne doprowadziło do ukształtowania się
kulistego Księżyca. Pozostał on na tyle blisko Ziemi, że zdołała utrzymać
go na swojej orbicie. Oba ciała oddziałują na siebie grawitacyjnie, a siła
grawitacji Księżyca jest przyczyną ziemskich pływów. Niektórzy
naukowcy sądzą, że bez obecności omywających kontynenty pływów życie
pozostałoby w oceanach. Teoria Laskara posuwa się jeszcze dalej,
utrzymując, że obecność Księżyca była niezbędna do powstania życia na
Ziemi.
Księżyc jest większy niż Pluton i niewiele mniejszy niż Merkury.
Znajduje się jednak bardzo blisko Ziemi, kilka dni lotu statkiem
kosmicznym zamiast miesięcy lub lat, które są potrzebne, aby doleciec do
innych planet. W rezultacie układ Ziemia-Księżyc można traktować niemal
jako złożony z dwóch planet podsystem w ramach większego Układu
Słonecznego. Znajdując się tak blisko Ziemi i mając znaczną masę,
Księżyc jest grawitacyjnie „uwięziony” na swej wokółziemskiej orbicie i
nie może swobodnie wirować wokół własnej osi. Dlatego zawsze widzimy
tę samą stronę Księżyca. Według Laskara ten grawitacyjny taniec Księżyca
zapewnia stabilne pochylenie osi wirowania Ziemi względem jej osi obrotu
93
wokół Słońca. Ziemia krąży wokół Słońca z osią wirowania ustawioną nie
prostopadle do płaszczyzny orbity, lecz pod kątem ostrym. Oś wirowania
jest ustawiona pod kątem 23,4 stopnia względem osi obrotu wokół Słońca.
Dzięki temu nachyleniu na Ziemi występują pory roku. Gdy północna
półkula Ziemi jest ustawiona w ciągu dnia na wprost Słońca, mamy lato,
gdy południowa – mamy zimę. Gdy promienie słoneczne padają
prostopadle na równik, następuje równonoc wiosenna lub jesienna.
Nachylenie osi Ziemi nie jest jednak stałe w czasie: w okresie tysięcy lat
zmienia się od minimalnej wartości 22,0 stopni do maksymalnej 24,6
stopni. Zjawisko to, zwane precesją, jest odpowiedzialne za niewielką
składową długofalowego ruchu gwiazd wokół nas. W starożytności rolę
Gwiazdy Północnej, Polaris, odgrywała inna gwiazda. Trzy tysiąclecia
temu nad biegunem północnym znajdowała się Beta Ursae Minoris. Na
skutek precesji osi Ziemi starożytna Gwiazda Polarna stopniowo oddaliła
się od bieguna. W dzisiejszych czasach jej miejsce zajmuje inny element
gwiazdozbioru Małej Niedźwiedzicy: Alpha Ursae Minoris, którą obecnie
nazywamy Polaris.
Według Laskara Księżyc zapewnia Ziemi względną stabilność jej osi
wirowania. Gdyby nie okrążał nas Księżyc, uwięziony na tak bliskiej
orbicie i skierowany zawsze jedną stroną do nas, oś rotacji Ziemi
wykonywałaby dziki taniec, wahając się w znacznie większym stopniu niż
w rzeczywistości. Laskar twierdzi, że bez Księżyca nachylenie ziemskiej
osi wirowania wahałoby się od 0 do 85 stopni względem osi obrotu wokół
Słońca. Spowodowałoby to zróżnicowane zmiany pór roku: niekiedy nie
byłoby żadnych zmian (gdy kąt wynosiłby zero), a w innych okresach lato i
zima różniłyby się tak bardzo pod względem temperatury, że zima
powodowałaby powszechne zamarzanie, a lato spaliłoby ziemię na popiół.
Trudno ocenić, w jakim stopniu scenariusz ten okazałby się prawdziwy i
czy teoria ta podpada pod zasadę antropiczną: skoro Księżyc jest tam, gdzie
jest, to musimy go mieć, w przeciwnym razie życie nie mogłoby istnieć.
Problemy związane z oczywistą potrzebą istnienia Jowisza i innych
dużych planet w celu ochrony przed intruzami z kosmosu, których
uderzenia w naszą planetę mogłyby zniszczyć życie, oraz Księżyca – w
celu utrzymania stabilnego klimatu – wydają się sugerować, że
prawdopodobieństwo istnienia w przestrzeni kosmicznej właściwych dla
życia warunków jest małe. Jaka bowiem jest szansa znalezienia innego
układu słonecznego, który składałby się z właściwego rodzaju gwiazdy,
94
właściwego rodzaju planety – małego, kamiennego świata z wszystkimi
niezbędnymi dla życia elementami, krążącego wokół gwiazdy w takiej
odległości, aby utrzymać wodę w stanie ciekłym – mającej podobny do
naszego księżyc, a na dodatek jeszcze duże, zewnętrzne planety, by
chroniły przed kosmicznymi odpadkami?
Jednak w 1997 roku D. Williams i J. Kastings z Pennsylvania State
University przeprowadzili obszerną komputerową symulację warunków
życia na pozasłonecznych planetach bez księżyca. Ich wyniki,
opublikowane we wrześniowym numerze czasopisma „Ica-rus” z 1997
roku, wskazują, że wiele takich pozbawionych księżyców planet może
jednak utrzymać sprzyjające życiu warunki. Być może to, co Ziemia
zawdzięcza Księżycowi – względną stabilność nachylenia osi wirowania
planety – nie jest absolutnie niezbędne, a badania Laskara zostały
zinterpretowane zbyt dosłownie i wyłącznie w ramach zasady antropicznej.
Miło jest mieć księżyc, lecz być może życie potrafi utrzymać się na
planecie bez księżyca.
Jeśli chodzi o duże planety, których przyciąganie grawitacyjne chroni
przed zderzeniami z kometami i asteroidami, to odkrycia Michela Mayora i
Didiera Queloza oraz innych łowców planet dały nam już dowód, że
gigantyczne gazowe planety, takie jak Jowisz, rzeczywiście istnieją we
wszechświecie. W istocie astronomowie znajdowali dotąd wyłącznie
planety o rozmiarach Jowisza. A skoro Jowiszy jest we wszechświecie tak
dużo, małe, kamienne, podobne do Ziemi planety – gdy już je znajdziemy –
powinny być dobrze chronione przed kosmicznymi śmieciami.
Niebezpieczeństwa czyhające na życie zarówno na Ziemi, jak i na
jakiejkolwiek pozasłonecznej planecie są znaczące, lecz trudno ocenić ich
rzeczywisty wpływ na rozwój i ciągłość życia. Zagrożenia przychodzą
zarówno z zewnątrz – w postaci asteroidów i komet – jak i od wewnątrz –
na skutek naturalnej aktywności geologicznej planety, która powoduje
wybuchy wulkanów, niekiedy dostatecznie silnych, aby wywołać efekt
nuklearnej zimy nie mniej niszczący niż uderzenie dużego obiektu
kosmicznego. Na dodatek zmiany klimatyczne wywołane niestabilnością
nachylenia osi wirowania względem płaszczyzny obrotu wokół gwiazdy
mogą również stać się przeszkodą na drodze do podtrzymania życia.
Otwarte pozostaje pytanie, na ile powyższe kwestie wynikają z zasady
antropicznej i czy odzwierciedlają one rzeczywiste zagrożenia. Nowe
odkrycia astronomiczne w pewnym stopniu zdołały już osłabić nasze
95
obawy.
Wśród katastrof przypisy wanych erupcji wulkanu Santoryn niektórzy
wymieniają dziesięć plag egipskich, a także cofnięcie się Morza
Czerwonego, które umożliwiło przejście Mojżeszowi. Opierają się oni na
założeniu, że efekt nuklearnej zimy spowodował opisane w Biblii
trzydniowe ciemności, a pozostałe plagi były wtórnymi skutkami tego
samego zdarzenia. Cofnięcie się morza zostało przypisane fali pływowej,
która powstała w wyniku erupcji wulkanu. Sam Marinatos interesował się
wyłącznie Atlantydą i nigdy nie był zwolennikiem hipotezy dotyczącej
dziesięciu plag lub cofnięcia się Morza Czerwonego. Marinatos zmarł w
1974 roku w Akrotiri. Raport policyjny i mass media podały, że przyczyną
jego śmierci był udar, w wyniku którego stracił równowagę, spadł z
wysokiej skarpy i zabił się.
Był sobotni wieczór. Panayotis oraz jego żona i córka mieli na sobie
obowiązujące na wyspie kostiumy festiwalowe: haftowane białe bluzy i
eleganckie niebieskie spodnie lub spódnice. „Dziś idziemy razem” –
oznajmił mi po śniadaniu Panayotis. Starałem się ubrać jak najlepiej, ale
podróżowanie z małą walizką nie dawało zbyt wielu możliwości. O
siódmej spotkałem wszystkich troje w hallu. Wsiedliśmy do czerwonego
minivana – oni z przodu, a ja z tyłu. Panayotis wybrał wyboistą, pełną
kurzu drogę łączącą miasto Naxos z górską wioską Filoti. Mijaliśmy pola
uprawne oraz nagie wzgórza, na których tu i ówdzie pasły się owce.
Wszyscy troje w doskonałych humorach śpiewali greckie pieśni.
Po pół godzinie dotarliśmy na dobrze oświetlony plac w centrum
wioski. Gdy skręciliśmy, brodaty, trzydziestoletni mężczyzna, stojący
dotychczas na poboczu obok swojego auta, wbiegł na ulicę, śmiejąc się i
machając rękami. Panayotis zatrzymał się i obaj zaczęli z ożywieniem
rozmawiać po grecku. Zaparkowaliśmy i dołączyliśmy do spotkanego
mężczyzny, jego żony i córki. Wszyscy całowali się na powitanie, a mnie
podawali rękę. „Synadelphos sas – powiedział Panayotis, gdy przedstawiał
mnie swojemu znajomemu. – Twój kolega”. Andreas był profesorem
archeologii, więc w pewnym sensie byliśmy kolegami, gdyż Panayotis i
jego rodzina wiedzieli, że jestem profesorem.
Andreas nie mówił po angielsku, lecz jego dwunastoletnia córka, Eleni,
okazała się dobrym tłumaczem. W doskonałych humorach weszliśmy do
96
restauracji. Najpierw podano mezedes – przystawkę, za którą przepadają
turyści w Grecji: sałatka ogórkowo-jogurtowa, sałatka kawiorowa, siekana
ośmiornica. Później przyniesiono pizzę oraz butelki retsiny i czerwonego
wina. Przez cały czas trwała ożywiona konwersacja. Obie rodziny były
najwidoczniej bardzo zaprzyjaźnione, a ja czułem się zaszczycony
udziałem w tak intymnym przyjęciu.
„Byłem na Santorynie – powiedziałem, gdy Andreas w końcu zwrócił
się do mnie z pytaniem. – Widziałem grób Marinatosa. Wcześniej nie
wiedziałem, że został pochowany w tym samym miejscu, gdzie spadł, na
Akrotiri”. Andreas uśmiechnął się. „O tak, Marinatos. Był wspaniałym
archeologiem. Jednak on nie spadł, lecz został zamordowany”. Spojrzałem
na niego zaskoczony. Zamordowany?! Eleni tłumaczyła słowo po słowie,
gdy Andreas wyjaśniał. „Nie wiedziałeś? – zapytał. – Ludziom nie
podobały się te wszystkie jego teorie. Wiesz, o cofaniu się morza i o
plagach egipskich. Robotnicy, których Marinatos zatrudniał przy pracach
wykopaliskowych, byli bardzo religijni, a przy tym prymitywni i przesądni.
Dla nich wszystko to było dziełem Boga, anie wulkanu. Musieli go zabić,
aby powstrzymać herezje”.
97
Rozdział 7
EWOLUCJA INTELIGENCJI
W jaki sposób życie ewoluuje od momentu, gdy powstanie cząsteczka
DNA, w tym tętniącym od przemocy wszechświecie, pełnym
niebezpieczeństw zarówno z zewnątrz, jak i ze strony samej planety? Jak
zachodzi progresja od DNA i najprostszych form życia, takich jak wirusy i
jednokomórkowe organizmy, do ryb, płazów, gadów, a potem do ssaków, z
których najbardziej rozwinięte formy stanowią naczelne i ludzie? W jaki
sposób pojawiła się ewolucja i czy możemy spodziewać się, że nastąpi ona
gdzie indziej we wszechświecie?
Sześćset milionów lat temu, na początku kambru, gdy zakończyła się
era prekambryjska, na terenie obecnych Chin zdarzyła się gigantyczna
erupcja wulkaniczna. Rezultaty tej erupcji, zbadane przez naukowców w
1998 roku, spowodowały rewolucję w naszym rozumieniu rozwoju życia
na Ziemi. Dwa zespoły paleontologów znalazły różne, zachowane w
fosforytach, ślady dawnych zwierząt. Zwierzęta te były bardziej złożone
niż gąbki i meduzy, o których wiemy, że rozwinęły się właśnie w tym
okresie. Były to w istocie pierwsze znane pozostałości zwierząt
dwustronnych, czyli mających dwie symetryczne strony, jak twarz
człowieka z dwojgiem oczu, dwojgiem uszu oraz z ustami i nosem, które
można rozciąć na symetryczne połowy. Odkrycia te wykazały, że wczesne
formy życia na Ziemi były liczne i zróżnicowane, zaprzeczając tym samym
konwencjonalnej chronologii, zgodnie z którą „eksplozja kambryjska” –
biologiczny wielki wybuch, który stworzył taką różnorodność form życia
na Ziemi – zaszła około 40 milionów lat później.
Te rewolucyjne odkrycia zostały zbadane metodami datowania
radioaktywnego; stwierdzono, że pochodzą sprzed około 600 milionów lat.
Obecnie naukowcy oceniają, że wielokomórkowe organizmy mogły
pojawić się na Ziemi nawet pół miliarda lat przed eksplozją kambryjska.
98
Datowanie metodą radioaktywnego węgla nie nadaje się do tak odległych
w czasie wydarzeń, więc zastosowano pokrewną metodę datowania, opartą
na rozpadzie uranu i jego zamianie w ołów. Znając okres połowicznego
rozpadu uranu i mierząc proporcję ołowiu w złożach uranu znajdujących
się w skałach na obszarze pokrytym lawą z erupcji wulkanu, naukowcy
mogli stwierdzić, że znalezione przez nich pozostałości dwustronnych
organizmów liczą około 600 milionów lat.
W książce The Lives of a Celi [Życia komórki], znany biolog Lewis
Thomas (zmarły w 1993 roku) stwierdził, że jednorodność wszelkich form
życia na Ziemi, przejawiająca się na poziomie mikrobiologicznym,
prowadzi do nieuniknionej konkluzji, że wszystkie ziemskie formy życia
pochodzą od jednej żywej komórki. Od tej pojedynczej komórki
otrzymaliśmy nasz wygląd i cechy, w miarę jak żywe istoty ewoluowały
przez miliardy lat kształtowane przez dobór naturalny. Wszystkie istoty
żywe, począwszy od drzew i traw, a na delfinach, wilkach i ludziach
skończywszy, mają wspólne geny, enzymy i strukturę komórek. Jak
przebiegała ewolucja, która od jednokomórkowego organizmu
doprowadziła do istot ludzkich, które rozumują i tworzą?
Już jednokomórkowe organizmy stanowią wyższe formy życia niż
wirusy – zwykłe nici DNA. Potrafią poruszać się w wodzie, wywijając
rzęskami, wiciami lub całym ciałem. Te najbardziej elementarne żywe
istoty potrafią reagować na zmiany środowiska. Jednokomórkowy
organizm – zamknięta w białkowej osłonie komórka wraz z zawierającym
materiał genetyczny jądrem oraz z mitochondriami – potrafi zareagować na
dotykanie igłą, próbując uniknąć wniknięcia igły do jego wnętrza. Umie
także zareagować na chemiczne zmiany środowiska, poszukując lepszych
warunków, gdy aktualne zaczynają się pogarszać. Jednokomórkowce mogą
nawet reagować na światło. To niewiarygodne, że tak proste formy życia
mają właściwości znacznie bardziej złożonych istot: zdolność do
poszukiwania pożywienia, do ucieczki przed niebezpieczeństwem oraz
dążenie do reprodukcji.
Gdy na drabinie życia przechodzimy od prostych jednokomórkowych
organizmów do wielokomórkowych, napotykamy większe zróżnicowanie
materii ożywionej. Jednym z najbardziej odludnych miejsc na Ziemi jest
Dolina Taylora na Antarktydzie. Jej odkrywca, angielski podróżnik Robert
F. Scott, nazwał ją „martwą doliną”. Późniejsze ekspedycje ujawniły jednak
obecność prostych form życia pod lodem, w skałach oraz w glebie.
99
Badacze byli zaskoczeni, gdy znaleźli miliony mikroskopijnych roślin,
jednokomórkowych zwierząt oraz nicieni. Niszę ekologiczną w Dolinie
Taylora uznano za najprostszy ekosystem na naszej planecie. Nicienie są
jedynymi żyjącymi w niej wielokomórkowymi zwierzętami. Ekosystem
funkcjonuje w ten sposób, że bakterie w glebie żywią się algami z jeziora, a
nicienie zjadają bakterie. Badacze uważaj aten system za doskonały model
zamkniętego układu ekologicznego i studiują łańcuch pokarmowy, śledząc
przemieszczanie się węgla z wody i powietrza do alg, z alg do bakterii i w
końcu od bakterii do nicieni. System ten pokazuje, jak rozwinęły się w
glebie pierwsze organizmy wielokomórkowe, zdolne do odżywiania się
jednokomórkowcami. Trzy i pół miliarda lat temu był to jedyny system
ekologiczny na Ziemi: węgiel wchłaniany przez algi, a następnie – wraz z
algami – przez bakterie i nicienie.
Jednak w pewnym momencie rozwoju życia na planecie pojawiły się
organizmy o wyższym stopniu zorganizowania. W miarę rozwijania się
coraz bardziej zaawansowanych zwierząt ich struktury komórkowe stawały
się również coraz bardziej wyspecjalizowane. Ryba lub płaz ma układ
komórek przeznaczony do poruszania się, zmysły do uzyskiwania
informacji ze środowiska, układ trawienny itd. U robaka, stanowiącego
przykład prostej formy życia, istnieją mięśnie okrężne i podłużne, które
umożliwiają mu skracanie i wydłużanie swojego ciała oraz zwijanie go.
Układ mięśni umożliwia mu nawet pływanie.
Różnorodność życia na Ziemi jest niezwykła, lecz aby w pełni docenić
tę olbrzymią rozmaitość istot, musimy uwzględnić także zwierzęta i rośliny,
które już wymarły. Wśród licznych rodzin istot żywych dostrzegamy
rozwój różnych narządów i funkcji ciała. Wszystkie żyjące i wymarłe
rodziny istot żywych łączy jedna interesująca cecha: każda z nich, na swój
sposób, rozwinęła jakąś formę inteligencji. Istotą inteligencji jest uczenie
siei przewidywanie zmian w środowisku. Inteligentne zwierzę może uczyć
się środowiska, dzięki czemu potrafi przewidywać skutki i – ostatecznie –
zmienić swoje położenie względem środowiska, aby dostosować się do
niego w najlepszy możliwy sposób. Godną uwagi cechę inteligencji na
Ziemi stanowi fakt, że są nią obdarzone wszystkie gatunki. Ofiary – ryby,
ptaki, ssaki – uczą się, jak uciec drapieżnikowi. Drapieżniki – rekin, tygrys,
mięsożerny dinozaur – uczą się, jak najskuteczniej ścigać swoje ofiary. W
tym sensie nawet jednokomórkowy organizm, który wije się, aby uniknąć
ostrza szpilki, przejawia pewną formę inteligencji. Nie oznacza to jeszcze,
100
że jest zdolny do myślenia lub do tworzenia, lecz na swój prymitywny
sposób reaguje na środowisko.
W miarę jak z istniejących przez trzy miliardy lat jednokomórkowych
istot rozwijały się wielokomórkowce, ze swoimi specjalizowanymi
układami komórek, pojawiły się również komórki nerwowe zwane
neuronami. Proces ich ewolucji doprowadził do powstania inteligencji, jako
części układu zmysłów istot żywych. Komórki nerwowe są rozgałęzione
jak drzewa. Podobnie jak w innych komórkach, w neuronach znajduje się
jądro zawierające materiał genetyczny. Ze środka komórki rozciąga się
pewna liczba rozgałęzień zwanych dendrytami. Dendryty jednej komórki
łączą się z dendrytami innych komórek – ich połączenia służą do
przekazywania informacji. Połączenia między zakończeniami nerwów
zwane są synapsami. Komórka nerwowa może mieć długie odgałęzienie,
zwane aksonem, które służy do wysyłania sygnałów. Informacja
otrzymywana z sąsiadujących komórek jest integrowana w danej komórce
nerwowej, a następnie wzdłuż aksonu zostaje wysłany sygnał. Znajdujące
się wewnątrz i na zewnątrz aksonu jony potasu i sodu produkują prądy
elektryczne, za pomocą których przesyłane są informacje. W ramach
typowego procesu funkcjonowania układu komórek nerwowych ich
komunikacja za pośrednictwem dendrytów prowadzi do sformułowania
decyzji, która zostaje przetłumaczona na instrukcję wysłaną za
pośrednictwem aksonu do mięśnia, w wyniku czego następuje określona
akcja mięśnia. Proces taki zachodzi zarówno u prymitywnych, jak i u
najbardziej zaawansowanych form życia.
Pierwsze komórki nerwowe u istot żywych pojawiły się w postaci
narządów zmysłów: oczu, uszu, nosa. Znajdujący się w głowie centralny
układ nerwowy odbiera i przetwarza informacje pochodzące ze zmysłów.
W odpowiedzi na reakcje zmysłów komórki nerwowe wydają mięśniom
polecenia i następuje ruch. Mózg i inteligencja to wynik ewolucji nerwów.
Mózg, centralny narząd układu zmysłów organizmu, pojawił się jako
zbiór komórek nerwowych, wraz z ich dendrytami i aksonami. Sterowały
one ruchami zwierzęcia, zmysłami i większością innych funkcji organizmu.
W miarę jak we wszystkich gałęziach królestwa zwierząt ewoluowały coraz
bardziej zaawansowane organizmy, mózg stawał się coraz bardziej złożony
i przejawiał coraz wyższy stopień inteligencji. Mysz przejawia pewną
inteligencję, gdy uczy się znajdować drogę w labiryncie. Lis uczy się
polowania od swoich rodziców. Ryba uczy się jak znajdować pożywienie, a
101
bóbr – jak zbudować tamę Ta ostatnia umiejętność jest uważana za przejaw
wyższej inteligencji, gdyż wymaga nie tylko umiejętności dostosowania do
środowiska, lecz także konstruowania.
Karol Darwin napsał w O pochodzeniu człowieka: „Nikt, jak sądzę, nie
wątpi że stosunek wielkości mózgu do wielkości ciała – znacznie większy
u człowieka niż u goryla lub orangutana – jest ściśle związany z
możliwościami umysłu”. Dziewiętnastowieczny twórca teorii ewolucji
doboru naturalnego dostrzegł związek między względnymi rozmiarami
mózgu a inteligencją żywej istoty. W odniesieniu do względnych
rozmiarów mózgów zwierząt używamy dzisiaj określenia: „współczynnik
cefalizacji”. Jest on zdefiniowany jako stosunek rozmiarów mózgu do
całkowitych rozmiarów ciała podniesionych do potęgi dwóch trzecich.
Naukowcy przekonali się, że tak zdefiniowana miara lepiej wyjaśnia
możliwości umysłu niż prosty stosunek rozmiarów mózgu do rozmiarów
ciała.
Paleontolodzy potrafią ocenić rozmiary mózgów oraz całkowite
rozmiary ciała dawno wymarłych zwierząt na podstawie rozmiarów i
kształtu znalezionych w czasie wykopalisk kości. Dzięki temu
dysponujemy danymi nie tylko na temat współczesnych zwierząt, lecz
mamy także pewne pojęcie o cefalizacji dinozaurów. W tym kontekście
pojawił się zadziwiający fakt: dinozaury nie miały małych mózgów, jak się
powszechnie uważa. Naukowcy stwierdzili, że statystyczny związek
między rozmiarami mózgów i całych ciał jest stały, zarówno u obecne
żyjących, jak i u wymarłych przedstawicieli gromady gadów Spośród
dziesięciu zbadanych dinozaurów, wszystkie miały taki sam stopień
cefalizacji jak współczesne jaszczurki. Wszystkie gromady - ryby, płazy,
gady i ssaki – mają charakterystyczny stopień cefalizacji. Najwyższy
stopień występuje u ssaków. W każdej gromadzie istnieją jednak pewne
wewnętrzne różnice.
Stopień cefalizacji naczelnych jest najwyższy w gromadzie ssaków,
która z kolei stoi pod tym względem najwyżej w całym królestwie zwierząt
Istniej
e
także związek stopnia cefalizacji z czasem geologicznym Wszystkie
zwierzęta żyjące w okresie paleocenu i eocenu – 40 do 60 bilionów lat
temu – miały stosunkowo małe mózgi. W następnym okresie, około 25 do
55 milionów lat temu, względne rozmiary mózgów wszystkich zwierząt
uległy mniej więcej podwojeniu. W okresie od 5 do 20 milionów lat temu
zaszło kolejne podwojenie rozmiarów mózgu, a następnie – do naszych
102
czasów – jeszcze jedno. Widzimy, że ewolucja systematycznie zwiększała
rozmiary mózgów, a wraz z nimi rosła inteligencja ich „właścicieli”. W
każdej gromadzie zwierząt naukowcy postulowali „spodziewane” względne
rozmiary mózgu, będące odzwierciedleniem poziomu cefalizacji całej
gromady. Dla określonego zwierzęcia można zmierzyć odchylenie od
spodziewanego poziomu. Okazuje się, że w rzędzie naczelnych niektóre
gatunki małp mają wyższy od oczekiwanego poziom cefalizacji, a
najwyższe odchylenia od średniej wykazują ludzie, delfiny i małpy
człekokształtne oraz neandertalczyk i inne formy hominidów.
Badacze zajmujący się poszukiwaniami inteligencji pozaziemskiej
(SETI) usiłują stwierdzić, czy w kosmosie istnieją inteligentne formy życia.
Nie zadowoli ich znalezienie planety zamieszkanej przez krowy. Niektórzy
biolodzy uważają jednak, że inteligencja – rozumiana jako zdolność do
myślenia, planowania, rozwiązania krzyżówki i przekonującego
argumentowania na posiedzeniu rady nadzorczej – stanowi ewolucyjny
przypadek. Dowodzą oni, że spośród wszystkich kategorii
taksonomicznych w królestwie zwierząt tylko jedna – człowiek –
obdarzona jest inteligencją, więc prawdopodobieństwo jej pojawienia się
gdzie indziej jest niewielkie.
Wszystko, co na podstawie badań” zwierząt i ich mózgów wiemy o
ewolucji i doborze naturalnym, świadczy jednak, że tak nie jest. Prawdą
jest, że małpa nie napisze Hamleta, a pies nie umie grać w szachy. Jednak
na podstawie danych wykopaliskowych i badań zwierząt widzimy, że w
ciągu milionów lat ewolucji istniał wyraźny i stały postęp w kierunku
większych rozmiarów mózgu w stosunku do rozmiarów ciała oraz wzrost
inteligencji, w miarę jak życie ewoluowało na coraz wyższe poziomy.
Niedawne badania reakcji zwierząt na zmiany w środowisku potwierdzają
teorię, że życie ewoluuje w kierunku inteligencji. Jaszczurki zamieszkujące
zamkniętą niszę ekologiczną na odizolowanej wyspie zostały w ciągu
ostatnich kilkudziesięciu lat wystawione na dodatkowe niebezpieczeństwo,
gdy na wyspie pojawiły się nowe gatunki drapieżników. Ku zaskoczeniu
badaczy, w ciągu kilku pokoleń jaszczurki nauczyły się wspinać na drzewa,
aby uciec przed nowymi drapieżnikami. To szybkie dostosowanie się do
środowiska w tak krótkim czasie jest silnym argumentem na rzecz tezy, że
inteligencja potrafi szybko ewoluować – znacznie szybciej, niż spodziewali
się tego naukowcy. W książce The Number Sense [Zmysł liczenia] badacz
mechanizmów percepcji, S. Dehaene, opisuje eksperymenty na szczurach,
103
w których uczono je naciskać dwie dźwignie różną liczbę razy (na przykład
cztery razy dźwignię A i dwa razy dźwignię B) w celu uzyskania
pożywienia. Następnie zwiększano stopień złożoności eksperymentów,
łącznie z liczeniem sygnałów świetlnych i dźwiękowych. Doświadczenia te
wykazały, że szczury potrafią liczyć. Autor książki uważa, że zdolność
człowieka do rozumienia matematyki stanowi ewolucyjne rozwinięcie
prostszego zmysłu liczenia, obecnego nawet u szczurów. Pewne formy
inteligencji, w tym podstawowe zdolności matematyczne, są najwidoczniej
obecne także u innych istot żywych.
Człowiek jest wprawdzie jedynym zwierzęciem, które definiujemy jako
inteligentne – zdolne do rozumowania, zdolne do rozwiązywania
złożonych problemów, zdolne do komunikowania się na wysokim poziomie
– lecz godne uwagi odkrycia w dziedzinie ewolucji inteligencji dowodzą,
że niższe formy inteligencji rozwinęły się równolegle u wszystkich gromad
zwierząt. Ptak, królik czy owad może adaptować się do środowiska i uczyć
się skuteczniej szukać pożywienia i ochrony przed drapieżnikami.
Odkrycia te stanowią silny argument na rzecz przekonania, że ewolucja
inteligencji jest nieodłącznie związana z życiem i że z czasem nastąpi ona
w każdym sprzyjającym życiu środowisku.
W ostatnich latach uwagę wielu naukowców przyciągnęła teoria
systemów. We wczesnych latach siedemdziesiątych Stephen Smalę,
profesor matematyki na University of California w Berkeley, jeden z
najwybitniejszych ekspertów od równań różniczkowych, rozpoczął badania
związków między populacjami drapieżników i ich ofiar. W owym czasie
Smalę był już sławnym matematykiem oraz laureatem Medalu Fieldsa –
matematycznym odpowiednikiem Nagrody Nobla – który zdobył za
rozwiązanie hipotezy Poincarego, jednego z najbardziej znanych
problemów w matematyce. Smalę próbował znaleźć matematyczne
równanie, które opisywałoby naturę związku między obiema populacjami.
Wiedziano wówczas, że istnieje pewnego rodzaju cykliczna zmienność w
czasie liczby łosi i wilków, a także innych kombinacji drapieżników i ofiar.
Nikt nie umiał jednak matematycznie opisać tej zależności. W pewnych
latach łosie dominowały, a liczba wilków malała, natomiast w innych
okresach sytuacja w niewytłumaczalny sposób ulegała odwróceniu – liczba
wilków rosła, a liczba łosi malała. Zmiany proporcji następowały ni stąd, ni
zowąd. Smalę podejrzewał, że klucza do tej zagadki należy szukać w
wyższej matematyce.
104
Równanie różniczkowe to wzór matematyczny uwzględniający zmiany
parametrów: zazwyczaj występuje w nim funkcja zawierająca pewną
zmienną (w tym przypadku aktualny poziom populacji zwierząt) oraz
tempo zmian tej zmiennej (tempo rocznych zmian populacji). Smalę
sformułował określone równanie różniczkowe, a jego parametry oszacował
na podstawie obserwowanych zmian populacji wilków i łosi. Studiował
także przypadek kanadyjskiego rysia, na którego polowano przez ponad sto
lat – zanim Kanada wprowadziła prawa o ochronie gatunków – dzięki
czemu istniały obszerne dane na temat jego liczebności, a także liczebności
jego ofiar
. Smalę przekonał się, że jego równanie przekroczyło
oczekiwania w opisie matematycznej zależności między liczebnością
drapieżników i ofiar. Okazało się, że liczby nie są bynajmniej
przypadkowe: istnieje dokładny matematyczny wzór, który przewiduje
liczebność obu populacji oraz ich zmiany w kolejnych latach. Populacje
drapieżników i ofiar wykonują tajemniczy taniec wokół siebie: gdy jedna
rośnie, druga maleje, następnie sytuacja się odwraca, nieustannie
zachowując doskonały rytm życia. W pewnym sensie obie populacje
potrzebują się nawzajem. Drapieżniki żywią się ofiarami, a ofiary
zawdzięczają drapieżnikom utrzymanie zdrowia i prężności swego
gatunku, gdyż drapieżniki przede wszystkim usuwają osobniki stare i
chore. Istnieje matematyczna harmonia między dwiema populacjami, a
właściwie między populacjami wszystkich zamieszkujących dany obszar
gatunków. Odkrycie matematycznego wzoru opisującego naturalne
zjawisko zależności między populacjami gatunków jest uważane za
znaczący postęp w naszym rozumieniu biologii.
Badania związków między populacjami drapieżników i ofiar zwróciły
uwagę naukowców na fakt, że zrozumienie życia wymaga analizy całego
systemu, a nie pojedynczych osobników. Zycie nie sprowadza się do
kwestii istnienia pojedynczej istoty. Istoty żywe są elementem szerszego
obrazu. Nie można zrozumieć życia pojedynczego rysia w wyższym
stopniu niż życia pojedynczej komórki ciała rozpatrywanej jako niezależna
jednostka: W ostatecznym rachunku wszyscy przynależymy do grupy istot
żywych, obejmującej całe życie na Ziemi. Stwierdzenie to stało się znane
jako teoria Gai.
Hipoteza Gai została wysunięta w latach sześćdziesiątych przez Jamesa
23
Niektóre z tych danych szacowano na podstawie liczby futer skupowanych w poszczególnych
latach przez Kompanię Zatoki Hudsona od traperów.
105
Lovelocka, specjalistę w dziedzinie chemii atmosfery z NASA. Lovelock
analizował długoterminowe zmiany temperatury Ziemi i zauważył, że
promieniowanie Słońca wzrosło wprawdzie o 25% od momentu pojawienia
się życia na Ziemi, lecz powierzchniowa temperatura planety pozostała
niezmienna. Lovelock doszedł do wniosku, że Ziemia powinna być
znacznie cieplejsza, lecz jakiś nieznany czynnik spowodował, że jej
temperatura nie uległa zmianie przez tak długi czas. Gdy przestudiowano
stężenia tlenu, dwutlenku węgla i innych gazów atmosferycznych, stało się
jasne, że za stałość temperatury planety przynajmniej w części były
odpowiedzialne procesy życia. Jedną z cech życia jest jego aktywność
energetyczna – istoty żywe pobierają energię i materię oraz produkują
odpady. Żywa, bogata we florę i faunę planeta powinna mieć znaczną ilość
reaktywnych gazów. Na Ziemi gazem tym jest tlen. Na tej samej zasadzie
martwa planeta powinna zawierać gazy, które powstały w wyniku dawno
zakończonych reakcji chemicznych – na przykład stabilny dwutlenek
węgla. Ciągła produkcja tlenu przez istoty żywe utrzymuje niski poziom
dwutlenku węgla na Ziemi, zapobiegając przegrzaniu planety. Tak więc
planeta podtrzymuje życie, a życie zapewnia planecie stabilne warunki,
niezbędne dla istnienia życia.
Niekiedy całe systemy życia mają własną zbiorową inteligencję.
Najlepszym przykładem są mrówki. Jedna mrówka ma niewiele neuronów i
raczej nie należy się po niej spodziewać umiejętności tworzenia,
planowania, analizowania sytuacji i podejmowania złożonych decyzji.
Jednak kolonia mrówek, jako całość, potrafi uprawiać grzyby, hodować
mszyce jako żywy inwentarz oraz rozpylać środki chemiczne w walce z
intruzami. Mrówki wymieniają między sobą informacje i w tym sensie
każdą z nich można uważać za pojedynczą komórkę nerwową,
komunikującą się z innymi komórkami za pośrednictwem dendrytów w
mózgu zwierzęcia. Kolonia mrówek ma własną zbiorową inteligencję,
którą wykorzystuje w procesach życiowych dotyczących całej kolonii.
Pszczoły, ze względu na metodę wymiany informacji, są kolejnym
przykładem istnienia zbiorowej inteligencji złożonego systemu istot
żywych. Pszczoła wykonuje skomplikowany taniec, za pomocą którego
wysyła innym pszczołom wiadomość: „Koniczyna znajduje się w kierunku
północno-wschodnim w odległości ośmiuset metrów”. Przy budowie
plastra współpracuje cały rój, każda pszczoła wykonuje dokładnie
określone zadanie, a w wyniku ich wspólnej pracy powstaje złożony z
106
symetrycznych wielokątów kompletny plaster miodu. Także i w tym
przypadku, w sensie inteligencji, każda pszczoła działa jak pojedyncza
komórka nerwowa w mózgu zwierzęcia.
Neurolodzy, a także i inni naukowcy zajmujący się działaniem mózgu,
przez wiele lat starali się dociec, czym jest inteligencja. Jedna z ostatnio
wysuniętych teorii sugeruje, że istnieje wiele form inteligencji. Niektórzy
ludzie sądzą, że komputery obdarzone są inteligencją. Garri Kasparow,
najlepszy szachista świata, został w 1997 roku pokonany przez komputer.
Ale czy oznacza to, że komputer rzeczywiście ma inteligencję? Komputer
jest maszyną zaprogramowaną do wykonywania rozmaitych
matematycznych operacji. Podstawowe operacje to dodawanie oraz
porównywanie dwóch liczb (binarnych, czyli złożonych z cyfr 0 i 1).
Jednak szybkość wykonywania tych operacji, w połączeniu z faktem, że
komputery można łączyć, aby wykonywały swe operacje równolegle, daje
w wyniku olbrzymią moc obliczeniową. Czy jednak istnieje coś, co
odróżnia inteligencję zwierząt wyższych od surowej mocy maszyn
obliczeniowych?
Komputer nie dba o to, czy działa, czy też jest wyłączony. Żywa istota
uczyni wszystko, aby uniknąć takiego losu. W naturze inteligencji ludzi i
zwierząt leży zdolność do podejmowania działań, których cel stanowi
podtrzymanie życia własnego lub – w przypadku mrówek lub pszczół –
całej kolonii. Ludzie i zwierzęta obdarzeni są emocjami i uczuciami. U
ludzi sztuka i muzyka stanowią przejaw inteligencji. Komputery mogą
wprawdzie zostać zaprogramowane do tworzenia pewnych form sztuki lub
muzyki, lecz brak im naturalnego dążenia do twórczej aktywności.
Naukowcy i eksperci od komputerów i sztucznej inteligencji twierdzą, że w
niedalekiej przyszłości powstaną komputery, które nie będą się różnić od
ludzkiego mózgu. Będą zdolne do tworzenia, będą czuć i chcieć. Na razie
mogę jednak spokojnie wyłączyć mój komputer, nie obawiając się oporu
ani zemsty z jego strony. Komputery nauczyły nas wiele o procesie
myślenia, pomogły nam w poszukiwaniach rozwiązań złożonych
problemów matematycznych, opanowały grę w szachy, lecz nie są kluczem
do zrozumienia inteligencji w takiej postaci, w jakiej obserwujemy ją w
naturze.
Dowodem na to, że inteligencja to nie przypadek, jest fakt, iż
wyewoluowała ona niezależnie w różnych gałęziach królestwa zwierząt.
Jest ona naturalnym rezultatem ewolucji materii ożywionej Jako narzędzie
107
przetrwania pojedynczych istot oraz całego społeczeństwa. Niższe formy
życia produkują liczne potomstwo, z którego przeżywają tylko niektóre
osobniki. Zwierzęta, którym łatwiej przetrwać, wymagają mniej licznego
potomstwa, ponieważ ich inteligencja ułatwia im uniknięcie
niebezpieczeństw. W końcu to ewolucja doprowadziła do sytuacji, że rodzi
się naga, bezbronna małpa, która musi być obdarzona dostateczną
inteligencją, aby zbudować gniazdo, znaleźć lub upolować pożywienie za
pomocą stworzonych przez jej społeczeństwo narzędzi oraz komunikować
się z innymi członkami grupy, używając skomplikowanego języka.
Ewolucja mowy stanowi jeden z najbardziej złożonych przejawów
inteligencji, który wyróżnia nas pośród innych istot. Niedawno badacze z
University of California w Los Angeles odkryli, że poczucie humoru oraz
zdolność do śmiechu są zlokalizowane w pewnym określonym miejscu w
mózgu, w pobliżu ośrodka mowy i komunikacji. Wysunięto teorię, zgodnie
z którą te dwa obszary mózgu ewoluowały łącznie wtedy, gdy z naczelnych
powstały hominidy oraz Homo sapiens.
Teoria ewolucji ptaków stanowi kolejny dowód, że inteligencja
ewoluowała niezależnie w różnych obszarach materii ożywionej i że
rozwój inteligencji jest nieodzownym warunkiem coraz lepszej adaptacji do
środowiska. Jeszcze do niedawna pochodzenie ptaków było jedną z
największych zagadek w biologii. W ciągu ostatnich dwudziestu lat
dokonano odkryć, które pomogły naukowcom rozwiązać tę zagadkę.
Ptaki pod wieloma względami różnią się od wszystkich innych istot
żywych. Obdarzone są piórami, bezzębnymi dziobami, pneumatycznymi
kośćmi, przystosowanymi do siadania na grzędzie stopami, kośćmi
kruczymi, krótkimi kośćmi ogonowymi i całą gamą cech szkieletu, których
nie mają żadne inne zwierzęta. Wkrótce po tym, jak w 1859 roku Karol
Darwin opublikował O powstawaniu gatunków, w złożach wapieni w
Bawarii odkryto pojedyncze ptasie pióro. Obecnie wiemy, że należało ono
do przypominającej ptaka istoty żyjącej 150 milionów lat temu, tuż przed
tym, jak okres jurajski ustąpił kredowemu.
Następnie w 1861 roku na tym samym obszarze w Bawarii odkryto
szkielet zwierzęcia, które miało ptasie skrzydła i pióra, lecz miało także
długi, gadzi ogon oraz zęby nie spotykane u współczesnych, znanych nam
ptaków. Ta mała, podobna do ptaka istota stała się znana jako
Archaeopteryx, Dziewięć lat później, na posiedzeniu Geological Society of
London [Londyńskie Towarzystwo Geologiczne], po raz pierwszy w
108
naukowej dyskusji pojawiła się hipoteza łącząca ptaki z dinozaurami.
Liczący 150 milionów lat Archaeopteryx, najstarszy znany ptak, miałby być
ogniwem między dinozaurami i ptakami. W ciągu następnych 50 lat
opublikowano liczne traktaty zawierające argumenty zarówno za, jak i
przeciw tej teorii. Wskazywano liczne podobieństwa anatomii ptaków i –
wydedukowanej z wykopalisk – dinozaurów. Głównym argumentem
przeciwników teorii był fakt, że teropody – dinozaury najbardziej
anatomicznie zbliżone do ptaków – nie miały dwóch kości obojczykowych,
które u ptaków są złączone i tworzą kość kruczą. Gerhard Heilmann,
duński lekarz i paleontolog, dowodził w 1916 roku, iż brak kości
obojczykowych u dinozaurów jest nieodpartym dowodem, iż ptaki nie
mogą od nich pochodzić, mimo godnych uwagi podobieństw między
kośćmi teropodów i ptaków.
W 1936 roku Charles Camp odkrył pozostałości małego teropoda z
wczesnego okresu jurajskiego. Kalifornijskiego paleontologa zaskoczyły
znajdujące się wśród szczątków dinozaura kości obojczykowe. Brakujące
ogniwo, łączące dinozaury i ptaki, zostało ostatecznie znalezione. W
ostatnich latach odkryto wiele – między innymi w Hiszpanii, Chinach i
Mongolii – pozostałości teropodów oraz wczesnych ptaków. Jedne i drugie
miały kości obojczykowe. Argumenty Heilmanna zostały obalone. Obecnie
dostępne dowody wykopaliskowe jednoznacznie świadczą o słuszności
teorii o pochodzeniu ptaków od dinozaurów. Naukowcy znaleźli wiele
wspólnych cech ptaków i dinozaurów, których nie mają żadne inne
współczesne lub wymarłe grupy zwierząt.
Pierwszym znanym dinozaurem o ptasich cechach był Velocirator. Miał
on długie, chwytne, zakończone ruchomymi nadgarstkami kończyny
przednie. Polował, ścigając swe ofiary na tylnych nogach i zabijając je
uderzeniami przednich kończyn, które pod pewnymi względami
przypominały ptasie skrzydła. Archaeopteryx miał już przeznaczone do lotu
skrzydła i pióra. Jego ogon był krótszy niż u Velociraptora, gdyż poruszał
się on raczej jak ptak, a nie jak jaszczurka z długim ogonem. Latanie
zaczęło się na drzewach. Niektóre dinozaury opanowały wspinanie się na
drzewa dla ochrony przed drapieżnikami oraz w poszukiwaniu pożywienia.
W miarę jak. rozwijały się u nich dłuższe kończyny przednie, krótsze
ogony, a na przednich kończynach zaczęły wyrastać pióra, dinozaury te
mogły szybować z drzew w dół. Machając przy tym przednimi
kończynami, dokonywały pierwszych prób latania. Inna oparta na
109
wykopaliskach hipoteza zakłada, że niektóre dinozaury nauczyły się latać
jak ptaki, biegnąc po ziemi i machając opierzonymi skrzydłami.
Iberomesornis, ptak, którego szczątki odkryto niedawno w Hiszpanii, umiał
latać znacznie lepiej i nie musiał ograniczać się do szybowania z drzew lub
do krótkich lotów z rozbiegu. Szczątki tego przodka współczesnych ptaków
wykazują zmiany szkieletowe w kierunku małego, aerodynamicznego,
przystosowanego do długotrwałych lotów ciała. Jeszcze późniejsze ptaki
zaczęły zakładać gniazda na drzewach, wykorzystywać latanie jako główny
sposób poruszania się, i w końcu straciły zęby, obecne jeszcze u wczesnych
ptaków anatomicznie bardziej zbliżonych do ich wspólnych przodków –
dinozaurów
Istotnym elementem tej teorii jest fakt, że ogniwo łączące ptaki i
dinozaury jest w rzeczywistości ogniwem łączącym gady i ptaki. Gady
mają małe, słabo rozwinięte mózgi. Gdy ptaki zaczęły ewoluować i
odłączać się od gadów, ich mózgi wykształciły się w stopniu
przewyższającym poziom rozwoju mózgu dinozaurów. W ślad za
rozwojem mózgów poszła inteligencja ptaków. Badania poziomu
cefalizacji dowodzą, że najniższy stosunek masy mózgu do masy ciała
wśród kręgowców wykazują kostnoszkieletowe ryby. Następną grupę
stanowią gady. Ptaki znajdują się jeszcze wyżej na skali, a ich
współczynniki cefalizacji plasują je nawet bliżej ssaków niż gadów. Na
wykresie przedstawiającym poziom cefalizacji gatunków ptaki w pewnym
stopniu pokrywają się ze ssakami i układają się znacznie wyżej niż gady.
Na samym szczycie skali znajdują się naczelne i człowiek. Proces
ewolucyjny, który od gadów przez wymarłe dinozaury doprowadził do
powstania ptaków, charakteryzował się wzrostem objętości mózgu oraz
wzrostem inteligencji. Ptak dodo należy do wymarłych gatunków,
ponieważ brakowało mu zdolności do adaptacji w nie sprzyjającym
środowisku, lecz wiele współczesnych gatunków ptaków wykazuje
zadziwiająco wysoki poziom inteligencji i. F. Nottebohm z Rockefeller
University przeprowadził zakrojone na dużą skalę badania neuronowych
podstaw śpiewu u śpiewających gatunków ptaków. Odkrył on, że u
większości przebadanych gatunków specjalizacja do śpiewu rozwija się po
lewej stronie mózgu. Specjalizacja ta ma jednak odmienny charakter niż
ewolucja mózgu u ssaków, u których pojawiła się całkowicie nowa,
24
Więcej na temat fascynującej historii ewolucji ptaków i ich pochodzenia od dinozaurów można
znaleźć w: K. Padian, L.M. Chiappe, Skąd się wzięły ptaki, przel. K. Sabath, „Świat Nauki”,
kwiecień 1998. s. 26-35.
110
nieobecna u gadów i ptaków część mózgu: neokorteks
. U ludzi i
naczelnych 70% neuronów, składających się na centralny układ nerwowy,
znajduje się w neokorteksie. Człowiek ma oddzielny obszar mózgu, który
odróżnia go od ptaków. Nie sposób nie podziwiać faktu, że inteligencja
oraz względne rozmiary mózgu wykazywały ewidentne oznaki wzrostu,
gdy z gadów rozwijały się ptaki. Ta ogólna tendencja wzrostowa wydaje się
cechą natury.
Pod pewnymi względami człowiek z pewnością jest wyjątkową istotą
żywą. Jako jedyny gatunek na Ziemi jesteśmy obdarzeni taką inteligencją,
która umożliwia nam komunikację na wszystkich poziomach oraz
warunkuje zdolność do myślenia, analizowania, tworzenia. Nie możemy
jednak ignorować oczywistego faktu, że inne istoty żywe również są
obdarzone – w takim czy innym stopniu – inteligencją, która także
ewoluowała w podobnym kierunku jak nasza. Nie zapominajmy przy tym,
że upłynął ponad miliard lat, zanim na naszej planecie pojawiły się
najprostsze formy życia, a przez ponad 3 miliardy lat powstały z nich
wielokomórkowe organizmy, które istnieją na Ziemi dopiero od 600
milionów lat. Mniej więcej w tym czasie pojawiły się pierwsze mózgi,
prymitywne układy neuronów kontrolujące ruchy i zmysły tych wczesnych
istot. Pierwsze ssaki rozwinęły się dopiero po 400 milionach lat, około 200
milionów lat temu. Nasi małpokształtni przodkowie zajęli scenę zaledwie 4
miliony lat temu, a wiek Homo sapiens liczy się w tysiącach lat. Gdy
weźmie się pod uwagę, jak długo trwał ten proces, widoczny staje się
rozwój w kierunku wzrostu inteligencji. Jeżeli od pierwszego pojawienia
się lub przybycia na planetę cząsteczki DNA upłynie dostatecznie dużo
czasu, to inteligencja bez wątpienia stanie się końcowym produktem
ewolucji.
25
Angielskie słowo neocortex znaczy dosłownie: nowa kora. Autor używa go w znaczeniu zbliżonym
do polskiego określenia „kresomózgowie”. W dalszej części tekstu stosowane będzie tłumaczenie
dosłowne – neokorteks.
111
Rozdział 8
CZY BÓG GRA W KOŚCI?
Gdy badamy rozwój życia na Ziemi i zastanawiamy się nad
możliwością pojawienia się życia gdzie indziej we wszechświecie,
powstaje interesujące pytanie: Czy materia ożywiona oraz inne złożone
systemy we wszechświecie są dziełem przypadku, czy też są one
zdeterminowane? Przypadkowość oznaczałaby, że do kwestii pojawienia
się życia we wszechświecie należałoby podejść z punktu widzenia teorii
prawdopodobieństwa. Determinizm miałby zupełnie inne implikacje. Czy
DNA powstało przez przypadek, czy zostało stworzone zgodnie z jakąś
matematyczną regułą?
Po wysłuchaniu wykładu z równań różniczkowych profesora Smalę'a
długo pozostawałem pod wrażeniem porządku i regularności, z jaką
rozwija się życie na naszej planecie. Fakt, że porządek ten może zostać
precyzyjnie opisany i wymodelowany przez równania matematyczne,
wydał mi się zachwycający. Wygląda na to, że nic nie pozostało dziełem
przypadku – świat, natura, wszechświat zostały zaprogramowane przez
precyzyjne matematyczne reguły, wyrażone przez liczby i symbole, które
zdeterminowały wszystko, co się zdarzyło i zdarzy ponownie. Prawa
Keplera rządzą ruchami planet wokół Słońca, prawa grawitacji regulują
ruch, prędkość i czas, a biologiczne równania determinują, w jaki sposób
gatunki ewoluują, rozmnażają się, rozkwitają, adaptują się do środowiska i
do świata, który dzielą z innymi gatunkami w wahadłowym rytmie wzrostu
oraz spadku siły i liczebności. Skoro układ równań potrafi opisać złożone
zależności między gatunkami, to co można powiedzieć o wszechświecie
jako całości? Czy natura ma wewnętrzną strukturę – której postronny
obserwator może nie dostrzec – dającą się wyrazić w języku matematyki?
Pytanie o naturę wszechświata pochodzi z czasów, gdy współczesna
fizyka zaczęła się rozwijać jako teoria opisująca i wyjaśniająca zawiłości
112
fizycznego świata. Na początku dwudziestego wieku powstały dwie ważne
teorie fizyczne, które zrewolucjonizowały naukę – szczególna i ogólna
teoria względności oraz mechanika kwantowa. Teoria względności była
dziełem Alberta Einsteina, który w 1905 roku odkrył szczególną, a w 1917
roku ukończył prace nad ogólną teorią względności. To dzięki teoriom
Einsteina rozumiemy dzisiaj naturę przestrzeni, czasu i grawitacji, wraz z
jej implikacjami dotyczącymi granicznej prędkości w przyrodzie, czarnych
dziur, wielkiego wybuchu oraz losu wszechświata. Teoria względności
dotyczy fizyki bardzo dużych obiektów i bardzo dużych prędkości (dla
których graniczną wartością jest prędkość światła). Z natury swej teoria ta
jest deterministyczna: daje odpowiedzi na zadziwiająco skomplikowane
pytania bez jakichkolwiek odwołań do przypadku. Jeżeli fizyk zna
prędkość, masę, siłę itd., to może rozwiązać równanie i uzyskać dokładną
odpowiedź. Przypadek i szansa nie odgrywa żadnej roli w teorii
względności.
W latach dwudziestych została sformułowana teoria kwantowa – teoria
bardzo małych obiektów: atomów, elektronów, protonów i innych
elementów mikroświata. Mechanika kwantowa została odkryta przez
austriackiego fizyka Erwina Schrodingera (1887-1961), i niezależnie przez
Wernera Heisenberga (1901-1976), fizyka niemieckiego. Pierwszy z nich
użył równań różniczkowych, drugi macierzy, lecz obaj uzyskali
równoważne sformułowania teorii opisującej zachowanie cząstek, z
których składa się materia. Jednym z podstawowych elementów teorii
kwantowej jest równanie falowe dla cząstki. Idea tego równania opiera się
na założeniu, że cząstka o rozmiarach elektronu jest nie tylko cząstką, lecz
także falą. Koncepcja dualizmu między cząstkami i falami została
wysunięta przez francuskiego fizyka, Louisa de Broglie'a. Interesujący
aspekt stowarzyszonego z cząstką równania falowego stanowi fakt, że
kwadrat funkcji falowej jest równy rozkładowi prawdopodobieństwa.
Gdy funkcja opisująca falowy ruch elektronu zostanie podniesiona do
kwadratu, w wyniku otrzymuje się
gaussowski rozkład
prawdopodobieństwa. Mechanika kwantowa opisuje między innymi
orbitale elektronów w atomach. Orbitale te zawsze są podane w formie
prawdopodobieństw – jako obszary przestrzeni wokół jądra, gdzie
p r a w d o p o d o b i e ń s t w o znalezienia elektronu w danym momencie
ma pewną określoną wartość. Słynna zasada nieokreśloności Heisenberga
mówi, że nie można dokładnie i równocześnie poznać położenia oraz pędu
113
elektronu w danej chwili. Wszystko, co możemy stwierdzić na temat
elektronu na orbicie atomowej, sprowadza się do rozkładu
prawdopodobieństwa, który mówi nam, gdzie elektron mógłby się w
danym momencie znajdować. Orbitale stanowią przestrzenne rozkłady
prawdopodobieństwa i określają obszar w trójwymiarowej przestrzeni – na
przykład w kształcie sfery lub hantli – w którym może znajdować się
elektron.
Mechanika kwantowa jest z natury teorią probabilistyczną, ze względu
na to, że w zasadzie operuje prawdopodobieństwami, a nie ściśle
określonymi parametrami ruchu cząstek – to zasadniczo odróżniają od
czysto deterministycznej teorii względności, w której z wielką precyzją
można określić siłę grawitacyjną, prędkość, a nawet dylatację czasu.
Związki między teorią prawdopodobieństwa a mechaniką kwantową idą
nawet dalej niż opis atomu w kategoriach orbitali elektronowych. Część
teorii kwantowej stanowi mechanika statystyczna, teoria opisująca
zachowanie dużej liczby małych cząstek, na przykład wszystkich molekuł
powietrza w jakimś pomieszczeniu. Tutaj ponownie pojawia się
gaussowski rozkład prawdopodobieństwa – funkcja w kształcie dzwonu,
normalna krzywa błędów, jak niekiedy się ją nazywa – jako główny
element teorii, ponieważ w opisie statystycznego zachowania dużej liczby
cząstek musimy opierać się na rozkładach statystycznych. Rozkład
statystyczny – rozkład dużej liczby elementów – w naturalny sposób służy
także jako rozkład prawdopodobieństwa dla pojedynczego elementu z
dużego zbioru, „
LAK
więc rozkład gaussowski, lub normalny, jest zarówno
rozkładem prawdopodobieństwa, jak i rozkładem statystycznym. Co to jest
rozkład Gaussa?
Carl Friedrich Gauss (1777-1855), wielki niemiecki matematyk, autor
wielu ważnych osiągnięć w matematyce, odkrył również rozkład normalny.
W granicy dużych liczb, gdy zsumowanych zostanie wiele przypadkowych
czynników, rozkład ich sumy będzie wyglądał jak krzywa dzwonowa.
W 1909 roku angielski statystyk, Karl Pearson, odkrył broszurę
napisaną około roku 1720 przez Abrahama de Moivre'a, zubożałego
matematyka i hugenota, który w obawie przez prześladowaniami uciekł z
Francji i schronił się w Anglii, gdzie zarabiał na życie jako „kawiarniany
konsultant” studentów matematyki. DeMoivre wyprowadził twierdzenie,
zwane obecnie centralnym twierdzeniem granicznym, które demonstruje
zbieżność sumy wielu przypadkowych czynników do tajemniczej krzywej
114
dzwonowej. Jednym z rozważanych przez de Moivre'a przykładów była
liczba wyrzuconych orłów w trakcie wielokrotnego powtarzania rzutu
monetą. Gdy narysuje się wykres liczby orłów uzyskanych przy
wielokrotnym powtarzaniu ustalonej, długiej serii rzutów, niespodziewanie
pojawia się normalny rozkład błędów. De Moivre odkrył normalny rozkład
prawdopodobieństwa sto lat przed Gaussem.
Krzywa normalna Gaussa pojawia się w tak wielu sytuacjach, niekiedy
zupełnie nieoczekiwanie, że wielu osiemnasto- i dziewiętnastowiecznych
uczonych uważało ją za prawo dane przez Boga. Obecnie wiemy, że stosuje
się ona do rozkładu wzrostu ludzi (oddzielnie dla mężczyzn i dla kobiet),
jak również do wielu zjawisk w przyrodzie. Gauss odkrył krzywą normalną
w trakcie studiowania rozkładów gwiazd i innych obserwacji
astronomicznych. Krzywa normalna pojawia się nawet w finansach i w
ekonomii. Wiemy, że rozkład prawdopodobieństwa zmian cen akcji na
giełdzie jest dany krzywą normalną.
Rozkład normalny pozwala uzyskać prawdopodobieństwo, że pewna
115
zmienna mieści się w określonym zakresie. Na przykład
prawdopodobieństwo, że wzrost przypadkowo wybranego mężczyzny
będzie mieścił się w przedziale od 66 do 72 cali (od 167,64 do 182,88 cm),
jest dane jako pole powierzchni obszaru pod krzywą normalną,
ograniczonego przez te dwie wartości, tak jak na rysunku poniżej.
Prawdopodobieństwo to wynosi 68%.
Wyniki badań ilorazu inteligencji układają się zgodnie z rozkładem
normalnym, aczkolwiek fakt ten ostatnio podważano w związku z
pozbawionymi podstaw twierdzeniami o różnicach poziomu inteligencji
między przedstawicielami różnych ras. W ogólnym przypadku z krzywej
rozkładu normalnego wynika, że większość populacji układa się w
odległości kilku^ standardowych odchyleń (standardowych jednostek,
odzwierciedlających naturalną, charakterystyczną zmienność danego zbioru
danych) wokół średniej. Im dalej od średniej – im bliżej „skrzydeł”
rozkładu – tym mniejsze prawdopodobieństwo. Skrzydła rozciągają się aż
do minus nieskończoności po lewej i do plus nieskończoności po prawej
stronie. Prawdopodobieństwo znalezienia się w bardzo dużej odległości od
średniej jest infinitezymalnie małe. Oznacza to, że teoretycznie biorąc,
można znaleźć osobę o ujemnej inteligencji
, jak również kogoś o ilorazie
inteligencji równym 300, ponieważ prawdopodobieństwa tych zdarzeń,
mimo że bardzo małe, są różne od zera.
26
Dosyć niefortunny przykład. Rozkłady „inteligencji”, wzrostu i innych dodatnich zmiennych
losowych dane są przez nieco inne funkcje rozkładu, które wprawdzie w pobliżu centrum rozkładu
bardzo dobrze zgadzają się z rozkładem normalnym, lecz różnią się od niego na skrzydłach.
Ujemną inteligencję można by zapewne zdefiniować w logicznie poprawny sposób, lecz nie da się
tego zrobić w przypadku rozkładu wzrostu lub masy mózgu.
116
Jasność gwiazd układa się zgodnie z rozkładem normalnym, podobnie
jak wiele innych cech gwiazd: kolor, temperatura, rozmiary itd. Pod
względem jasności nasze Słońce znajduje się w obszarze pokrywającym
5% powierzchni pod krzywą rozkładu, więc prawdopodobieństwo, że
jasność losowo wybranej gwiazdy będzie podobna do jasności Słońca,
wynosi 5%. Krzywa rozkładu normalnego może zatem być użyta do
obliczenia prawdopodobieństwa, że różne właściwości gwiazdy będą miały
określone wartości. Zgodnie z prawem rozkładu normalnego powinniśmy
znaleźć ekstremalnie ciemne gwiazdy, o jasności równej zeru lub nawet
ujemnej: czarne dziury, które w rzeczywistości pochłaniają promieniowanie
z zewnątrz. Powinniśmy także znaleźć gwiazdy o ekstremalnie dużej
jasności: gigantyczne gwiazdy świecące jak Syriusz. Co więcej, skoro
gwiazda o właściwościach takich jak nasze Słońce istnieje, a gwiazdy
stosują się do prawa rozkładu normalnego, to mamy pewność, że
znajdziemy we wszechświecie inne gwiazdy pod każdym względem i d e n
t y c z-n e ze Słońcem. Możemy się o tym przekonać, ustalając znany punkt
(odpowiadający Słońcu) na osi pod krzywą dzwonową i sprawdzając, że
krzywa ma w tym punkcie określoną wysokość. Dla niewielkiego
odchylenia właściwości gwiazdy (nieznacznie większej lub mniejszej
jasności czy energii) istnieje dodatnie prawdopodobieństwo, że gwiazda
podobna do naszego Słońca istnieje. Dzięki temu prawdopodobieństwo
istnienia życia gdzieś we wszechświecie rzeczywiście staje się realne,
ponieważ muszą istnieć gwiazdy o właściwościach Słońca zasilające
energią planety o właściwościach Ziemi.
Krzywa rozkładu normalnego najbardziej użyteczne zastosowania
znalazła jednak w fizyce kwantowej, ponieważ z natury swej stanowi ona
graniczne twierdzenie dla bardzo dużej (nieskończonej) liczby
przypadkowych czynników. W większości klasycznych zastosowań liczba
czynników – na przykład liczba rzutów monetą – jest skończona i na ogół
niezbyt duża. W mechanice statystycznej fizycy badają kolektywne
zachowania niezmiernie dużej liczby atomów, cząsteczek lub elektronów.
W tym przypadku, ze względu na olbrzymią liczbę badanych elementów,
krzywa rozkładu normalnego nie stanowi jedynie dobrego przybliżenia, jak
w innych dziedzinach, lecz działa jak
dokładna
reguła
prawdopodobieństwa. Krzywa ta jest niezastąpiona w fizyce kwantowej,
gdyż dzięki niej fizycy uzyskują dokładne wyniki.
Albert Einstein był jednym z tych fizyków, których nie
117
satysfakcjonowała statystyczna natura teorii kwantowej. Jego prace w
dziedzinie związanej z elektronami, dotyczące zjawiska fotoelektrycznego
– które przyniosły mu Nagrodę Nobla – nie prowadziły w kwantowym
kierunku. Wydaje się, że Einstein był przeciwnikiem koncepcji
prawdopodobieństwa w opisie świata. W obliczu nieuniknionych
probabilistycznych aspektów teorii kwantowej Einstein wypowiedział
słynną uwagę: „Nigdy nie uwierzę, że Bóg gra w kości ze światem!”
W 1892 roku francuski matematyk, Henri Poincare, zauważył, że
niektóre systemy mechaniczne, na przykład wahadła, dla których prawa
ruchu były znane i dobrze modelowane przez równania fizyki, przejawiały
czasami niewytłumaczalnie chaotyczne zachowania. Badał także znany w
fizyce problem trzech ciał, dla którego otrzymał zadziwiająco
skomplikowane równanie. Badając numerycznie rozwiązania tego
równania, Poincare stwierdził, że układają się one w dwie krzywe, których
przecięcia tworzyły złożoną sieć, gdzie każda krzywa nakłada się sama na
siebie nieskończenie wiele razy. Nie zdając sobie sprawy z doniosłości
swego odkrycia, Poincare spoglądał na jeden z najbardziej zadziwiających
obiektów matematycznych: na coś, co dzisiaj nazywamy dziwnym
atraktorem. Doszedłszy do wniosku, że badane przez niego krzywe są zbyt
złożone, aby mogły mieć jakieś znaczenie, Poincare zaprzestał prób ich
zrozumienia i nigdy już do nich nie wrócił. Obecnie wiemy, że rozwiązanie
Poincarego stanowi manifestację chaosu.
Minęło niemal 70 lat i w 1963 roku meteorolog E.N. Lorenz z
Massachusetts Institute of Technology dokonał odkrycia, które na zawsze
miało zmienić sposób, w jaki matematycy, fizycy i inni naukowcy traktują
zachowanie układów chaotycznych. Lorenz studiował układy pogody,
modelując je za pomocą systemu trzech sprzężonych ze sobą równań.
Równania te są nieliniowe, co oznacza, że ich wykres nie jest linią prostą.
Nieliniowe równania często prowadzą do chaosu, a chaos stanowi w istocie
szczególny rodzaj nieliniowości w przyrodzie. W przypadku równania
liniowego zmiana jednej zmiennej powoduje proporcjonalną zmianę innej.
Jeżeli cena jednostkowa jakiegoś artykułu wynosi 5 dolarów, to 10 sztuk
będzie kosztować 50 dolarów. W obecności zjawisk nieliniowych, ich
skutek staje się nieproporcjonalny do przyczyny. W powyższym
przykładzie efekt nieliniowości można by osiągnąć w ten sposób, że cena
byłaby wynikiem pomnożenia 5 dolarów przez kwadrat liczby sztuk (tak
więc 10 sztuk kosztowałoby teraz 500 dolarów). Chaos stanowi
118
ekstremalną formę nieliniowości w tym sensie, że sygnał wyjściowy nie
tylko nie jest proporcjonalny do wejściowego, lecz jest także
nieprzewidywalny.
Lorenz rozwiązał swoje skomplikowane nieliniowe równania dla
układów pogody i narysował ich wykres. Na wykresie pojawił się dziwny
atraktor: obszar, do którego w granicy przyciągane są wszystkie
dostatecznie bliskie trajektorie, lecz dowolnie bliskie punkty stają się z
czasem wykładniczo odległe. Poniższy rysunek demonstruje dziwny
atraktor Lorenza.
Znaleziony przez Lorenza dziwny atraktor wykazuje tak zwany efekt
motyla. Układ Lorenza jest tak czuły na warunki początkowe, że mówi się,
iż jedno uderzenie skrzydeł motyla w Chinach może spowodować
niewielką zmianę warunków początkowych, w wyniku czego w tydzień
później u wschodnich wybrzeży Stanów Zjednoczonych pojawi się
huragan. W ten sposób narodziła się matematyczna teoria chaosu,
dziedziny wiedzy, dzięki której uzyskaliśmy całkowicie nowy punkt
widzenia na świat i która w nowym świetle ukazała wyzwanie, jakie
Einstein rzucił nauce.
Słowo „chaos” pochodzi z języka greckiego, w którym oznaczało
nieskończoną, pustą przestrzeń, istniejącą przed stworzeniem świata. W
codziennym języku przywołuje ono obrazy ludzi biegających bez celu tam i
z powrotem lub obiektów latających w powietrzu bez widocznego
uporządkowania. Stanowi ono niemal synonim przypadkowości. Jednak
119
matematyczna teoria chaosu jest daleka od przypadkowości. Układ
chaotyczny stanowi dokładne przeciwieństwo układu przypadkowego.
Układ jest chaotyczny wtedy, gdy jest całkowicie deterministyczny – nie
zawiera absolutnie żadnych elementów przypadkowości. Wygląda
wprawdzie jak przypadkowy, lecz wszystko jest w nim precyzyjnie
określone przez matematyczną regułę – przez równanie. W przypadku
chaosu nikt nie rzuca kośćmi. Gdyby każde niewytłumaczalnie chaotyczne
zachowanie we wszechświecie mogło być opisane przez równanie
matematyczne, to Einstein miałby rację, uważając, że Bóg nie gra w kości.
Najlepszym przykładem układu chaotycznego jest przekształcenie
piekarza oraz odwzorowanie logistyczne: prosta, powtarzalna
transformacja tworząca sekwencję liczb i dana przez przyporządkowanie:
(
)
x
kx
x
−
1
ε
. Symbol x reprezentuje zmienną, liczbę z przedziału od 0 do
1, natomiast k jest stałą, na przykład równą 3. Każdą kolejną liczbę
otrzymuje się z poprzedniej przez wstawienie jej do równania. Zacznijmy
od
2
.
0
=
k
. Pozostając przy k = 3, otrzymamy 3(0,2)(0,8) = 0,48.
Następnie liczba 0,48, wstawiona do równania, da nam kolejną liczbę
ciągu: 3(0,48)(0,52) = 0,7488. Kontynuując ten proces, uzyskamy długi
ciąg liczb, który jest przykładem układu chaotycznego. Gdybyśmy zaczęli
ciąg od liczby nieznacznie tylko odbiegającej od 0,2, wyniki byłyby bardzo
różne.
Odwzorowanie logistyczne „składa” odcinek od 0 do 1, w tym sensie,
że liczby między 0 a 0,5 są transformowane w liczby między 0 a 0.75.
Liczby między 0.5 a 1 są przez transformację odwzorowywane w ten sam
odcinek, od 0 do 0.75, lecz w odwrotnym porządku. Tak więc za każdym
razem, gdy nowa liczba powstaje z poprzedniej, zachodzi „składanie”
odcinka. To składanie odcinka stanowi proces równoważny ugniataniu
ciasta przez piekarza. Przypuśćmy, że do ciasta zostały wciśnięte jeden
obok drugiego dwa rodzynki. Piekarz rozciąga ciasto, wałkując je, a
następnie składa na pół, powtarzając ten proces wielokrotnie i nie
interesując się położeniem rodzynków. Po chwili – niezależnie od tego, jak
blisko siebie rodzynki znajdowały się na początku – nie sposób już
przewidzieć, gdzie znajdą się rodzynki, gdy ciasto będzie gotowe do
wypieku. Jest to przykład chaosu. Nawet bardzo niewielka zmiana
początkowego położenia rodzynków może oznaczać dużą zmianę ich
ostatecznego położenia.
120
Układy chaotyczne występują często w przyrodzie. Jednym z
przykładów jest wahadło wymuszone. Popchnięte wahadło zaczyna się
poruszać. Popchnięte powtórnie zaczyna poruszać się szybciej. Ponownie
popchnięte – porusza się jeszcze szybciej. Po kilku popchnięciach
nadchodzi jednak moment, gdy wahadło zaczyna się wahać w sposób
nieprzewidywalny. Mamy chaos. Położenie i prędkość wahadła można
przedstawić na wykresie, gdzie jedną zmienną jest położenie, a drugą
prędkość. Jest to tak zwany diagram fazowy. Na jego podstawie można
stwierdzić, że rozwiązanie równania rządzącego ruchem wahadła jest
ekstremalnie czułe na warunki początkowe, podobnie jak badany przez
Lorenza układ pogodowy, gdzie coś tak małego jak motyl może wywołać
znaczne zmiany pogody w odległym obszarze.
Istnieje wiele innych chaotycznych układów fizycznych. Niektóre
reakcje chemiczne również zachodzą w sposób chaotyczny. Zakres i czas
trwania takich reakcji silnie zależy od warunków początkowych. Reakcja
może na przykład zachodzić gładko przy pewnych określonych warunkach
początkowych, lecz mała – nawet niezauważalna – zmiana warunków może
zmienić charakter reakcji i zamienić ją w eksplozję.
Stephen Smalę, który wyprowadził ważne równania różniczkowe,
opisujące zależność drapieżnik-ofiara, napisał wiele prac na temat równań
nieliniowych i chaosu. W 1967 roku opublikował fundamentalną pracę, w
której wyjaśnił wiele zagadnień dotyczących chaosu i dziwnych atraktorów.
Wiele lat później poszedłem do kina na Park Jurajski. Było oczywiste, że
grany przez Jeffa Goldblooma matematyk to nikt inny tylko Stephen
Smalę: nosił tę samą czarną, skórzaną marynarkę, mówił w ten sam
charakterystyczny sposób i zajmował się dziwnymi atraktorami. Michael
Crichton
wykorzystał ideę chaosu w znacznie większym stopniu w
książce niż w scenariuszu filmu. W trakcie klonowania dinozaurów
naukowcom brakowało małego fragmentu DNA, więc pobrali go od żaby.
Ta niewielka zmiana warunków początkowych doprowadziła do
spektakularnego finału, podobnie jak we wszystkich układach
chaotycznych. W tym fikcyjnym przypadku zmiany wywołały amok u
sklonowanych dinozaurów. Czy podobna historia może się wydarzyć
naprawdę w naturze?
Kwestia, czy materia ożywiona, a także inne układy we wszechświecie,
27
Autor książki i scenariusza do filmu Park Jurajski.
121
są systemami przypadkowymi czy chaotycznymi (a zatem
deterministycznymi), stanowi jedną z wielkich niewiadomych
współczesnej nauki. Nie ma wątpliwości, że w biologii, fizyce i w innych
dziedzinach występują zjawiska ekstremalnie nieliniowe i chaotyczne.
Możliwe, że przyczyną niektórych chorób psychicznych są niewielkie
zmiany poziomu hormonów w mózgu. Nas interesuje jednak pytanie, czy
pojawienie się życia na Ziemi było wynikiem przypadkowej reakcji w
pierwotnej zupie, prowadzącej do powstania DNA, czy raczej DNA, a wraz
z nim życie zostało stworzone przez niewielkie fluktuacje w ramach
nieprzypadkowego, deterministycznego procesu, którym rządziło jakieś
nieliniowe równanie. Czy życie na Ziemi było rezultatem przypadku czy
wyboru (rozumianego jako złożony, nieliniowy przepis)? To głębokie
pytanie jest kluczem do możliwości istnienia życia gdzie indziej we
wszechświecie.
Jedną z zadziwiających właściwości dziwnych atraktorów jest fakt, że
wykres fazowy układu chaotycznego nie zapełnia całej przestrzeni
wykresu. Wyobraźmy sobie dym rozchodzący się powoli w zamkniętym
pokoju lub w innym pomieszczeniu. Po pewnym czasie zajmie on cały
trójwymiarowy obszar pomieszczenia. Przyczyna leży w termodynamice:
we wszechobecnym prawie wzrostu entropii. Olbrzymia liczba cząsteczek
dymu rozchodzi się na wszystkie strony, gdyż istnieje znacznie więcej
możliwości ich ułożenia w całym pomieszczeniu niż w jednej jego części.
Prawdopodobieństwo, że – po dostatecznie długim czasie – cząsteczki
dymu pozostaną w jednym kącie pokoju, jest fantastycznie małe. Argument
ten pochodzi z dziedziny statystyki matematycznej, gdzie niepodzielnie
rządzi rozkład normalny. Układy chaotyczne, które na pierwszy rzut oka
mogą robić wrażenie przypadkowych, są jednak ściśle zdeterminowane.
Kontynuując analogię z cząsteczkami dymu – gdyby ich ruchem rządził
nieliniowy układ równań chaotycznych, wypełniłyby pewną
podprzestrzeń* pokoju, mniejszą od całości i o wymiarze mniejszym niż
trzy. Spójrzmy na rysunek przedstawiający atraktor Lorenza (s. 127).
Przestrzeń jest wprawdzie trójwymiarowa, lecz atraktor nie wypełnia jej w
całości. Wyglądający jak pochylone skrzydła motyla atraktor przywodzi na
myśl analogię do chaotycznych układów pogodowych, które jakoby
wywołuje. Dwuwymiarowa figura atraktora składa się pod kątem w trzeci
wymiar. Matematycy mówią, że wymiar Hausdorffa (od nazwiska
niemieckiego matematyka) atraktora – reprezentujący rzeczywisty wymiar
zajmowanej przez niego figury geometrycznej, będący liczbą z przedziału
122
od 2 do 3 – wynosi D = 2,06.
Prace nad chaosem i nad dziwnymi atraktorami postępowały w
najlepsze, gdy do Stanów Zjednoczonych przybył francuski naukowiec,
Benoit Mandelbrot, jeden z tych ostatnich, wielkich francuskich
matematyków – pozostających pod wpływem tradycji sięgającej czasów
Fermata i Poincarego – których zainteresowania obejmowały wiele różnych
dziedzin wiedzy. Mandelbrot, pracujący w laboratoriach IBM oraz w Yale
University, dokonał epokowego odkrycia, które początkowo wydawało się
nie mieć nic wspólnego z chaosem. Jest on także autorem ważnych odkryć
– dokonanych jeszcze w latach sześćdziesiątych – które ułatwiły
analitykom giełdowym zrozumienie ruchów cen akcji, oraz pionierskich
prac z dziedziny teorii kodowania, termodynamiki statystycznej, statystyki
lingwistycznej, teorii komunikacji i błądzenia przypadkowego. W 1974
roku Mandelbrot zainteresował się procesami związanymi z życiem i
przyrodą. Początkowo podchodził do tych zagadnień z punktu widzenia
teorii prawdopodobieństwa i statystyki, zakładając, że we wszystkich
zmiennych tkwi nieodłączny składnik przypadku. Zastosował te metody do
przewidywania liczby mutantów w koloniach bakterii, a później badał inne
naturalne zjawiska, takie jak struktury geologiczne i kratery na Księżycu.
To, co odkrył, było bardzo dalekie od przypadku. Aby opisać naturalne
procesy, Mandelbrot stwórz; nowe pojęcie matematyczne i nazwał je f r a k
t a l e m.
Mandelbrot zadał sobie pytanie, w jaki sposób można by zmierzyć
długość wybrzeża Anglii. Należałoby zacząć od jakiegoś punktu na brzegu,
rozciągnąć linę od tego punktu do następnego, a następnie kontynuować
ten proces tak długo, aż obejdzie się dookoła całą Wielką Brytanię. Czy
jednak pomiar ten będzie dokładny – zastanawiał się – skoro proste odcinki
liny ominą niektóre krzywizny zatok i półwyspów? Lepszą miarę uzyska
się, jeżeli wierzchołki odcinków będą położone bliżej jeden drugiego,
dzięki czemu łatwiej będzie naśladować krzywizny zatok i półwyspów.
Spoglądając na poszarpane brzegi Anglii, Mandelbrot zdał sobie sprawę, że
pomiar powinien być wykonany jeszcze dokładniej, tak aby uwzględnić
nadmorskie skały wraz z ich nierównymi krawędziami. To znacznie
skomplikuje pomiary, ponieważ lina będzie musiała biec nie tylko wzdłuż
zatok, lecz także wzdłuż skał. Prowadząc coraz precyzyjniejsze
rozważanie, uświadomił sobie, że na brytyjskich brzegach znajdują się
obiekty jeszcze mniejsze niż skały, aczkolwiek mające tę samą ogólną
123
formę, na przykład leżące na brzegu małe kamienie. Aby uwzględnić także
i te nierówności, należałoby zaprojektować dokładniejszą metodę
pomiarową. A gdy już się to zrobi, okaże się, iż istnieją jeszcze mniejsze
obiekty niż kamienie, lecz o takiej samej ogólnej formie jak kamienie,
skały i małe wzgórza. I tak dalej, aż do ziarenek piasku, które mają taką
samą poszarpaną granicę jak skały, zatoki i całe wybrzeże. Mandelbrot zdał
sobie sprawę, że argumentację tę można kontynuować w nieskończoność:
na wybrzeżu Anglii istnieją coraz mniejsze obiekty, mające właściwość
samopodobieństwa: ich ogólny kształt jest taki sam jak w przypadku
większych obiektów. W jaki sposób można zatem zmierzyć całkowitą
długość liny potrzebnej do ułożenia wzdłuż krzywizny coraz mniejszych
obiektów?
Mandelbrot uświadomił sobie, że wymiar wypełniającej powierzchnię
krzywej, która wykonuje coraz mniej sze zakręty wokół coraz mniejszych
obiektów, mieści się gdzieś między wymiarem liny a wymiarem
płaszczyzny. Poszukując definicji tego zjawiska, do szedł do koncepcji
wymiaru ułamkowego: wymiaru, który nie jest liczbą całkowitą, taką jak 1
(dla liny), 2 (dla płaszczyzny) lub 3 (dla przestrzeni trójwymiarowej).
Odkryty przez siebie ułamkowy wymiar Mandelbrot nazwał f r a k t a 1 e
m. Wybrzeże Wielkiej Brytanii jest fraktalem, czyli wypełniającą
powierzchnię krzywą, której kształt jest samopodobny w każdej skali i
której wymiar jest większy od 1 i mniejszy od 2 – nie jest jeszcze
płaszczyzną, lecz nie jest już także i krzywą: fraktal jest nieskończenie
zakrzywiony wokół samego siebie.
Mandelbrot zrozumiał, że odkryta przez niego w naturze właściwość
wybrzeża Wielkiej Brytanii istnieje także jako czysto matematyczna
konstrukcja. Jako matematyk o wszechstronnym wykształceniu, doskonale
wiedział o zbiorze Cantora. Jest to dziwny matematyczny obiekt, odkryty
przez Georga Cantora (1845-1918), duńsko--niemieckiego matematyka,
który poświęcił całe życie na zrozumienie pojęcia nieskończoności.
Sformułował on całą teorię, aby opisać tę trudną ideę, i zakończył życie w
zakładzie dla obłąkanych w niemieckim mieście Halle pod koniec
pierwszej wojny światowej. Cantor następująco zdefiniował swój zbiór. Na
początek weźmy odcinek od 0 do 1. Podzielmy go na trzy równe części.
Usuńmy środkową część, pozostawiając dwie pozostałe. Z kolei z każdej z
pozostałych części usuńmy środkową trzecią część. Kontynuujmy to
postępowanie, za każdym razem usuwając środkową jedną trzecią część z
124
każdego małego odcinka, pozostałego po kolejnych operacjach. Gdy proces
ten wykona się nieskończoną liczbę razy, powstanie zbiór Cantora.
Zbiór Cantora leży na linii prostej, lecz jego wymiar jest mniejszy od
wymiaru linii, gdyż znajduje się w nim nieskończenie wiele dziur. Jego
miara jest zatem mniejsza od 1. Obliczony przez matematyków wymiar
Hausdorffa zbioru Cantora wynosi 0,63 {jest on równy logarytmowi liczby
2 podzielonemu przez logarytm liczby 3). Zbiór Cantora jest fraktalem.
Żyje on w przestrzeni mniejszej od linii.
Istnieje także interesujący fraktal, żyjący w przestrzeni pośredniej
między linią a płaszczyzną, zwany krzywą Kocha. Aby ją uzyskać, należy
zacząć od narysowania trójkąta równobocznego. Następnie trzeba podzielić
każdy bok na trzy równe części. Na środkowej części należy zbudować
nowy trójkąt równoboczny. Kontynuując ten proces nieskończenie wiele
razy, uzyska się krzywą Kocha, jak na poniższym rysunku (s. 134).
Wymiar Hausdorffa krzywej Kocha powinien mieścić się między
wymiarem linii, a wymiarem płaszczyzny, ponieważ krzywa ta ma
nieskończenie wiele załamań, przez co niemal zapełnia płaski obszar, lecz
jednak nie do końca. Jej wymiar wynosi 1,26 (log 4 podzielony przez
log3−
log3
log 4
Krzywa Kocha pod pewnymi względami przypomina
wybrzeże Wielkiej Brytanii. Jest poszarpana w taki sposób, że jej
nierówności powtarzają się ad infinitum w coraz mniejszej skali. Jeżeli
spojrzymy na krawędź krzywej przez mikroskop, to zobaczymy ten sam
wzór, który widać gołym okiem. Jeżeli zwiększymy powiększenie
mikroskopu, to ponownie zobaczymy ten sam charakterystyczny,
samopowtarzający się, właściwy fraktalom wzór. Odkryte przez
Mandelbrota podobieństwo między tworem natury – wybrzeżem Wielkiej
Brytanii – a matematyczną konstrukcją, będącą
125
produktem równania lub matematycznej reguły, prowadzi również do
związków z chaosem. Układ chaotyczny może bowiem być
reprezentowany w przestrzeni fazowej przez dziwny atraktor, a atraktor ma
właściwości fraktalne. Wymiar atraktora Lorenza oraz wymiary innych
atraktorów z teorii chaosu są zawsze mniejsze od wymiarów przestrzeni, w
której są zawarte – i równe liczbom ułamkowym.
Mandelbrot kontynuował poszukiwania fraktali w przyrodzie i zwrócił
uwagę na pewne zjawiska w astronomii. Od czasu, gdy w latach
dwudziestych Edwin Hubble odkrył, że Droga Mleczna nie jest jedyną
galaktyką i że oprócz niej istnieją miliardy innych galaktyk, a każda
zawiera miliardy gwiazd, astronomowie poczynili wielkie postępy na
drodze do zrozumienia struktury galaktyk (określenie „galaktyka” pochodzi
od greckich słów oznaczających Drogę Mleczną; gala znaczy mleko).
Obecnie wiemy, że galaktyki łączą się w grupy. Istnieje Lokalna Grupa
Galaktyk – gromada, gromady łączą się w supergromady itd. Okazuje się –
ku zdziwieniu astronomów – że galaktyki i ich gromady nie są
przypadkowo rozrzucone we wszechświecie, lecz ułożone według jakiegoś
dziwnego porządku. Jaki to porządek?
126
Mandelbrot spoglądał na galaktyki z kilku różnych, hipotetycznych
punktów obserwacyjnych. Jako pierwszy punkt wybrał Ziemię.
Obserwowane z Ziemi galaktyki układają się na płaszczyźnie nieba w
pewien charakterystyczny sposób. Następnie Mandelbrot skonstruował
widok nieba z punktu widzenia gwiazdozbioru Centaura i zauważył, że
galaktyki i ich gromady przejawiają taki sam wzór zapełniania powierzchni
jak wtedy, gdy punktem odniesienia jest Ziemia. Jako kolejny punkt
obserwacyjny wybrał ponownie Ziemię, lecz zmienił ogniskową i
obserwował galaktyki położone w odległości kilku tysięcy lat świetlnych
od Ziemi. Ponownie pojawił się ten sam wzór. Mandelbrot doszedł do
wniosku, że struktura zapełniania przestrzeni jest fraktalem i obliczył jego
wymiar – 12.
Od tego czasu Mandelbrot i inni badacze odkryli wiele przykładów
występowania fraktali w naturze, od kształtów liści drzew po turbulencje
powietrzne. Pojawiła się nawet sugestia, że w procesach myślowych w
ludzkim mózgu mogą również występować struktury fraktalne. Chaos,
fraktale i dziwne atraktory reprezentują struktury, których występowanie w
przyrodzie wydaje się sugerować, że życiem wszechświata rządzą pewne
reguły, niektóre z nich bardzo skomplikowane i –jak dotąd – nie znane
nam. Powstaje pytanie, czy życie na Ziemi pojawiło się w wyniku
matematycznego przepisu czy przypadku lub sekwencji przypadków
. Czy
Bóg gra w kości, czy rządzi za pośrednictwem równań?
Czy złożona struktura cząsteczki DNA powstała na skutek
przypadkowej sekwencji reakcji chemicznych, czy została stworzona
zgodnie z określoną regułą, jak fraktal z chaosu stworzenia? To, co stało się
tutaj, na Ziemi, stanowi klucz do zagadki, czy życie istnieje gdzie indziej
we wszechświecie. Gdy rozważamy tę alternatywę – możliwość
przypadkowego powstania życia wobec pewnego ukrytego,
zdeterminowanego mechanizmu – przychodzi na myśl kolejne pytanie: Z
jakiego powodu wszystkie aminokwasy występujące w procesach życia na
Ziemi są typu L? Gdyby rządził tym wyłącznie przypadek, powinniśmy
oczekiwać, że połowa z nich będzie typu L, a połowa typu D. Obie
cząsteczki są identyczne pod względem struktury, reaktywności i każdego
innego parametru, z wyjątkiem symetrii. Skoro wszystkie te ważne dla
28
Należy zwrócić uwagę, że chaos nie jest jedynym układem, którym rządzą równania
matematyczne. Istnieje wiele innych rodzajów układów równań. Najprostsze z nich, równania
liniowe (których wykresami są linie proste), są łatwe do odkrycia. Równania nieliniowe, łącznie z
chaotycznymi, są trudniejsze do rozróżnienia i zarazem znacznie częściej występują w przyrodzie.
127
życia cząsteczki są tylko jednego rodzaju, czy oznacza to, że zmusiła je do
tego jakaś tajemnicza siła? Fakt ten może być silnym argumentem
przeciwko przypadkowym fluktuacjom, a za determinizmem. Nie oznacza
to jednak, że nie dostrzegamy roli przypadku we wszystkich zjawiskach na
Ziemi. Wydaje się, że zarówno przypadek, jak i czynniki deterministyczne
są nieodzowne w procesach natury. Przypadek to bez wątpienia coś, z czym
należy się liczyć.
Czym więc jest przypadek? Czy rzeczywiście jest czymś odrębnym od
świata równań matematycznych – prostych, nieliniowych lub
chaotycznych? Przypadek często utożsamia się z grami losowymi. Kostka
zostaje rzucona i wydaje się nam, że jej toczenie się stanowi manifestację
czystego przypadku – miejsca, w którym się zatrzyma, i liczby, która się
ukaże, nikt nie jest w stanie przewidzieć, gdyż jednym i drugim rządzi
ślepy los. Gdybyśmy jednak dysponowali nieograniczonymi
możliwościami pomiarowymi i obliczeniowymi, gdybyśmy mogli
zaobserwować, jak kostka spada, zmierzyć jej prędkość i moment pędu z
nieskończoną dokładnością, zobaczyć, jak uderza w stół jedną z krawędzi,
zmierzyć kąt padania, a następnie użyć wszystkich tych parametrów,
łącznie z ciśnieniem powietrza oraz prądami i wirami wytworzonymi przez
poruszającą się kostkę – potrafilibyśmy dokładnie wyznaczyć liczbę, która
zostanie wyrzucona.
Przypadek jest przypadkiem tylko dzięki naszej ignorancji. Gdybyśmy
znali wartości wszystkich fizycznych parametrów ruchu danego obiektu, na
przykład kostki do gry, moglibyśmy zapisać równania ruchu, rozwiązać je
(co nie zawsze jest łatwe) i poznać wynik. Gdy kostka uderza w stół jedną
ze swych krawędzi, mamy manifestację chaosu. Dwa różne rzuty kostką
pod niemal tym samym kątem i z niemal tym samym pędem na ogół dają
różne wyniki. Uderzenie krawędzią o powierzchnię stołu powoduje, że
końcowy wynik jest niezwykle czuły na warunki początkowe. Jeden rzut
kostką może dać szóstkę, a następny rzut – gdy wszystko jest identyczne, z
wyjątkiem tego, że kąt, pod jakim krawędź kostki uderza w stół, tym razem
jest o 0,00001 stopnia większy – może dać inny wynik. Gdybyśmy znali
dokładnie wszystkie parametry, moglibyśmy przewidzieć wynik.
Przypadek i chaos nie są w istocie tak bardzo różnymi koncepcjami.
Różnicę między nimi stanowi informacja. I w istocie cała teoria
prawdopodobieństwa zależy od informacji. Prawdopodobieństwa są miarą
naszej wiedzy lub ignorancji na temat świata – są uwarunkowane naszymi
128
zasobami informacji.
Gdy wykładam teorię prawdopodobieństwa, wkrótce po wprowadzeniu
samej koncepcji prawdopodobieństwa zadaję studentom pytanie: „Jaka jest
waszym zdaniem szansa, że ceny akcji (małej firmy komputerowej) pójdą
jutro w górę?” Studenci zazwyczaj wahają się z odpowiedzią, ponieważ
prawie nic o tej firmie nie wiedzą. Jeżeli jednak wyjaśnię im, że koncepcja
prawdopodobieństwa może mieć różne znaczenie w zależności od
kontekstu i że mogą mi podać swoje „osobiste” prawdopodobieństwo tego
zdarzenia, oszacowane w jakimś logicznym kontekście, zazwyczaj słyszę
odpowiedź: „No cóż, może jakieś 60%... rynek idzie w górę, a firmy
komputerowe całkiem nieźle stoją...” Następnie mówię im: „Przypuśćmy,
że otrzymaliście informację, o której nie wie nikt inny. Wiecie, że Bill
Gates i Microsoft zamierzają kupić tę małą firmę. Jutro rano zostanie
podana informacja o zamierzonym połączeniu. Jaka jest teraz szansa, że
akcje firmy pójdą w górę?” Odpowiedź brzmi: „Bliska 100%”, co
(prawidłowo) odzwierciedla fakt, że akcje małych firm niemal zawsze idą
w górę, gdy jakaś większa firma ogłosi zamiar ich kupienia. Morał tej
historyjki: prawdopodobieństwo silnie zależy od informacji. Z tego
powodu insider traders
– wykorzystujący posiadane informacje w celu
przechylenia szans na swoją korzyść – idą do więzienia. W ramach i c h
zasobu informacji rynek akcji przestaje być losowy. Przypadek lub
determinizm zależą całkowicie od tego, co wiemy lub czego nie wiemy.
Szansa i prawdopodobieństwo są dobrym modelem w sytuacji, gdy
dominuje niepewność, gdy nie wiemy niczego dokładnie.
Komputer nie może wykonać losowej operacji. Komputery, z natury
swej, robią dokładnie to, co im się każe. Nie sposób powiedzieć
komputerowi, aby zrobił coś „przypadkowego” – me będzie wiedział, jak.
Być może na tym polega różnica między inteligencją człowieka i
komputera. Istota ludzka może czasem bez żadnego powodu zrobić coś
dziwnego, wyłącznie dla zabawy, lecz nigdy nie widziano komputera, który
zachowywałby się kapryśnie. Komputer może wygenerować prawdziwie
losową liczbę tylko dzięki sztucznej ręce, która rzuci kostką i zanotuje
wynik za pomocą sztucznego oka. Byłby to jednak tak mało wydajny
sposób – zwłaszcza w sytuacjach, gdy istotna jest olbrzymia prędkość, z
jaką komputery wykonują swoje zadania – że nikt go nie stosuje.
29
Tu: osoby wykorzystujące dostęp do poufnych informacji spółek giełdowych w obrocie akcjami na
giełdzie.
129
Komputery generują jednak liczby losowe. Cała teoria symulacji, która
opiera się na losowaniu przypadkowych liczb, jest zaimplementowana i
intensywnie wykorzystywana w komputerach. Gry komputerowe prawie
zawsze zawierają jakiś element przypadku. Jak więc to działa?
Komputery generują liczby pseudolosowe. Procedura ich uzyskiwania
jest ściśle określona, gdyż komputer musi zostać dokładnie poinstruowany,
co i jak ma zrobić. Liczby pseudolosowe są wynikiem deterministycznego
programu komputerowego (funkcję tę mają nawet niektóre bardziej
zaawansowane kalkulatory), który stosuje metodę chaotyczną. Komputer
zaczyna od prostej, z góry podanej liczby startowej
. Następnie na liczbie
tej wykonuje operację arytmetyczną – podobną do transformacji piekarza
lub algorytmu, który posłużył do wygenerowania szeregu wynikającego z
odwzorowywania logistycznego. Uzyskana w ten sposób liczba jest
uważana za „losową”. Następnie z liczby tej generuje się kolejną, za
pomocą tego samego algorytmu. Liczby te są dokładnie zdeterminowane
przez równanie transformacji, lecz – jak wszystko w chaosie – wyglądają,
jakby były całkowicie przypadkowe. Problem polega na tym, że gdy
potrzebny jest nowy zestaw liczb losowych, komputer wygeneruje tę samą
serię, jeśli liczba startowa nie zostanie zmieniona. Tak więc we wszystkich
operacjach komputerowych chaos służy do symulowania przypadku. Obie
te koncepcje są nierozerwalnie związane.
Gdzie zatem leży granica między absolutnym przypadkiem a ścisłym
determinizmem? Statystycy dysponują testem, który mówi im, kiedy liczby
lub symbole są rezultatem losowym, a kiedy układają się według jakiegoś
wzoru. Test ten zwany jest testem serii. Wchodzimy do baru i widzimy
dwanaście krzeseł i sześć osób siedzących przy kontuarze. Oznaczając
puste krzesła literą E, a zajęte literą O, możemy następująco opisać sposób
obsadzenia krzeseł: OEOEOEOEOEOE. Czy układ ten jest dziełem
przypadku, czy też klienci baru celowo usiedli w taki sposób, aby znaleźć
się jak najdalej od sąsiadów? Zdrowy rozsądek mówi nam, że zachodzi ta
druga możliwość, lecz statystycy mają swoje sposoby ilościowego
przedstawienia właściwej odpowiedzi. Jedna seria stanowi nieprzerwany
ciąg symboli tego samego rodzaju. W tym przypadku mamy dwanaście
serii (co jest maksymalną liczbą serii dla dwunastu obiektów, po sześć z
każdego rodzaju), więc sekwencja ta najprawdopodobniej nie jest
przypadkowa. Weźmy teraz pod uwagę drugie ekstremum – wchodzimy do
30
W oryginale: seed – dosłownie: nasienie.
130
baru i widzimy, że krzesła zajęte są w następujący sposób:
OOOOOOEEEEEE. Zdrowy rozsądek mówi nam, że tym razem są to
znajomi, siedzący razem przy kontuarze, którzy nie wybrali swoich miejsc
przypadkowo spośród dwunastu dostępnych krzeseł. Statystycy widzą tu
dwie serie (seria sześciu O i seria sześciu E). Jest to najmniejsza możliwa
liczba serii dwunastu obiektów dwóch rodzajów. Także i w tym przypadku
prawie na pewno nie jest to przypadkowy wybór. Co będzie jednak w
sytuacji, gdy krzesła zostaną obsadzone następująco: O E E O O E O E E O
O E. Na pierwszy rzut oka odpowiedź nie jest oczywista. Liczba serii
wynosi 8. W tej sytuacji mówimy, że nie jest ona statystycznie znacząca.
Nie ma dowodu, że krzesła nie zostały wybrane przypadkowo. Tablica
statystyczna może nam dać zakres statystycznie znaczących liczb serii,
czyli takich, dla których istnieje silny dowód nieprzypadkowości
. Test
serii może zostać użyty także w sytuacji, gdy mamy do czynienia z
liczbami. Czy poniższy szereg liczb jest przypadkowy: 53 1 7 3 7 8 4 2 4 6
6? Oznaczmy liczby parzyste symbolem E, a nieparzyste symbolem O.
Otrzymamy wtedy następujący szereg: OOOOOOEEEEEE, i mamy taką
samą sytuację jak w barze z krzesłami. Najprawdopodobniej nie jest to
losowy ciąg liczb (aczkolwiek na pierwszy rzut oka wygląda na losowy!).
Gdy wygenerowane przez komputer pseudolosowe liczby zostaną
poddane testowi serii, test będzie zaliczony -– w tym sensie, że liczby
zostaną uznane za losowe. Generujący liczby pseudolosowe algorytm
komputerowy – który, ściśle rzecz biorąc, jest algorytmem
deterministycznym, pozbawionym elementów przypadkowych, z góry i
precyzyjnie określającym wybrane liczby – z praktycznego punktu
widzenia działa jak kostka do gry, ruletka lub talia kart. Przypadek oraz
ekstremalna nieliniowość są bardzo blisko spokrewnione, często nie do
odróżnienia.
Co to wszystko oznacza z punktu widzenia DNA i jego pojawienia się
3,5 miliarda lat temu na Ziemi? Jakie są szanse, że ta niewiarygodnie
złożona cząsteczka życia istnieje gdzieś w olbrzymim wszechświecie? Czy
powstanie DNA było dziełem przypadku, czy też było zdeterminowane?
31
Przy dwunastu elementach, po sześć z każdego rodzaju, dwie, trzy, jedenaście lub dwanaście serii
byłoby statystycznie znaczących – na rzecz nieprzypadkowości (przy poziomie istotności
zbliżonym do 5%), natomiast od czterech do dziesięciu serii oznaczałoby wybór losowy (na tym
poziomie hipoteza przypadkowości nie może być odrzucona).
131
Szansa i przewidywalność są w istocie tylko dwoma sposobami patrzenia
na sprawę. Czy insider trader rzuca kośćmi, czy działa na podstawie
jakiegoś równania? Czy pseudolosowe liczby są losowe, czy tworzą jakiś
ciąg o dokładnej, lecz nie znanej nam strukturze? Odpowiedź zależy od
punktu widzenia. Równanie reprezentuje całkowitą wiedzę (przy założeniu,
że w równaniu występują wszystkie niewiadome, które odgrywają rolę w
danym zjawisku). Przypadek odzwierciedla przynajmniej jakiś poziom
ignorancji. Istnieje dziedzina matematyki stosowanej, w której badane są
tak zwane procesy stochastyczne. Występują w niej równania, w których
także pojawia się element przypadku. Podejście to jest próbą działania na
oba sposoby równocześnie: równanie obejmuje to, co wiemy o danym
procesie, natomiast jego losowy składnik odzwierciedla wszystko to, czego
jeszcze nie wiemy w danej sytuacji. Znane parametry są wstawiane do
równania, natomiast w miejsce składników losowych – które reprezentują
rozmycie naszej wiedzy o świecie – wstawiane są wartości średnie i
odchylenia standardowe. Takie hybrydowe modele, łączące precyzyjną
wiedzę z niepewnością, bardzo dobrze się spisują w niektórych dziedzinach
nauki.
Lekcja płynąca z powyższych rozważań sprowadza się do wniosku, że
musimy użyć wszystkiego, co wierny dokładnie, a dla nie znanych
aspektów życia możemy zastosować teorię prawdopodobieństwa, która
powinna być dobrym narzędziem w naszych próbach oszacowania szans
istnienia życia gdzie indziej we wszechświecie. Jest bardzo
prawdopodobne, że cząsteczka DNA powstała jako rezultat
skomplikowanego układu nieliniowych równań określających tempo
reakcji chemicznych – w obecności katalizatorów – w bogatym roztworze
wody, metanu, dwutlenku węgla, fosforu, azotu i innych składników, przy
właściwej temperaturze, we właściwym czasie i w sprzyjających
warunkach. Mając dokładny układ równań i ich chaotycznych
oddziaływań, znając dokładnie warunki na jakiejś pozasłonecznej planecie,
moglibyśmy stwierdzić, czy istnieje na niej życie. Nie dysponujemy
niestety tak dokładną wiedzą, lecz możemy zastosować podejście
probabilistyczne, potężne narzędzie do traktowania niepewności we
wszystkich sytuacjach. Jeżeli poczynimy właściwe założenia i użyjemy ich
we właściwy sposób do skonstruowania modelu probabilistycznego, to
powinniśmy otrzymać dobry wynik. Informacja o planach zakupu firmy
przez bogatych inwestorów zwiększa prawdopodobieństwo, że jej akcje
pójdą w górę – oto przykład rozsądnego założenia w ramach modelu
132
probabilistycznego.
Argumenty statystyczne działają równie dobrze w konstruowaniu
modeli probabilistycznych. Jeżeli znamy statystyczny rozkład wzrostu
pewnej grupy ludzi, to możemy – mimo że nie znamy wzrostu losowo
wybranego osobnika, a więc jesteśmy w stanie ignorancji – dokładnie
obliczyć prawdopodobieństwo, że jego wzrost mieści się w określonym
przedziale wartości. W taki sposób wiedza (o całej populacji) może być
użyta do oszacowania czegoś, o czym nic nie wiemy (o pojedynczym
osobniku). Jeżeli na temat dziewięciu nowo odkrytych pozasłonecznych
planet wiadomo, że jedna z nich okrąża swoją gwiazdę w strefie
zamieszkiwalnej – w której woda pozostaje w stanie ciekłym – to szansa na
to, że jakaś inna planeta trafi do strefy zamieszkiwalnej, może zostać
oszacowana jako 1/9. Nie znamy wprawdzie statystycznego rozkładu dla
wszystkich planet we wszechświecie, lecz wiedza, którą czerpiemy z naszej
bardzo ograniczonej próbki, powinna nadal dać nam przybliżoną wartość
tego parametru.
Fizycy od kilkudziesięciu lat próbują stwierdzić, czy chaos odgrywa
jakąś rolę w teorii kwantowej. Czy są tam małe kwantowe „wahadła^, które
przechodzą w tryb chaotyczny, gdy siła wymuszająca osiągnie pewien
graniczny poziom, podobnie jak to się dzieje w większych, niekwantowych
systemach? Pewne wyniki sugerują, że jakaś forma chaosu może istnieć w
mikroświecie mechaniki kwantowej, lecz natura tego chaosu jest bardzo
słaba. Nie pojawia się gwałtowny przeskok do chaosu, jaki często
występuje w makroswiecie. W świecie kwantów funkcja falowa wydaje się
rządzić niepodzielnie i kierować większością ruchów małych cząstek.
Wydaje się, że nie sposób wyrwać się z silnych kleszczy teorii
prawdopodobieństwa, przypadku i szansy. Rozwiązania równań
kwantowych istnieją w formie rozkładów prawdopodobieństwa – a nie
dokładnych stwierdzeń – aczkolwiek może to tylko oznaczać, że nie
potrafimy uniknąć naszej ignorancji na temat układów kwantowych.
Położenie elektronu w określonym momencie czasu nadal nie może zostać
dokładnie podane – dysponujemy tylko rozkładem prawdopodobieństwa.
W świecie kwantów Bóg gra w kości. Jednak On zawsze zna wynik.
133
Rozdział 9
PARADOKS INSPEKCJI
Skoro zdecydowaliśmy, że – niezależnie od tego, czy wszechświat jest
układem losowym, deterministycznym, czy też i jednym, i drugim – teoria
prawdopodobieństwa może być użyta do modelowania zjawisk, o których
nasza wiedza jest ograniczona lub zgoła żadna, to możemy rozważać
modele probabilistyczne rozwiązania problemu istnienia życia gdzie indziej
we wszechświecie. Prawdopodobieństwo jest ściśle związane ze statystyką
– nauką o informacji.
W dzisiejszych czasach wszyscy jesteśmy codziennie bombardowani
przez statystyki. Telewizja, radio, gazety, czasopisma nieustannie
bombardują nas taką ilością liczb, że stajemy się na nie głusi i tracimy
wyczucie, jakiego rodzaju informację owe liczby niosą. Statystyki niekiedy
stają się mylące, gdy jeden wskaźnik ekonomiczny sugeruje wzrost, a inny
– stagnację. Ludzie, których uważamy za „ekspertów”, często nie mają
pojęcia, jak należy te liczby interpretować, co nie powstrzymuje ich od
wygłaszania swoich opinii. We współczesnej ekonomii bywają liczby tak
duże, że często nie potrafimy ocenić ich wielkości. Gdy słyszymy, że ktoś
jest wart 30 miliardów dolarów, słowo „miliard” w jakiś sposób oznacza
dla nas mniej, niż powinno. Miliard jest bardzo dużą, olbrzymią liczbą, lecz
inflacja liczb w mediach powoduje, że koncepcje astronomiczne niewiele
znaczą dla opinii publicznej. Nasza Galaktyka liczy około 300 miliardów
gwiazd. To jest wiele, bardzo wiele gwiazd. Nawet gdybyśmy mogli
zobaczyć każdą z nich, nie potrafilibyśmy ich policzyć, gdyż–licząc jedną
gwiazdę na sekundę i nie robiąc przerw – zliczenie wszystkich gwiazd
Drogi Mlecznej zajęłoby nam 10 000 lat.
A Droga Mleczna jest tylko jedną z wielu miliardów galaktyk w znanym
nam wszechświecie. Liczba gwiazd we wszechświecie przekracza
wszystko, co potrafimy sobie wyobrazić. Fakt, iż federalny deficyt
134
budżetowy był niegdyś tak duży, że do jego obliczania używano równie
wielkich liczb, nie powinien przysłaniać nam rzeczywistych rozmiarów
wszechświata. Gdy będziemy poszukiwać życia w kosmosie, musimy
pamiętać, jak wiele miejsc trzeba przeszukać. A odległości między
gwiazdami są równie zatrważające jak liczba gwiazd. Najbliższa gwiazda,
Proxima Centauri, znajduje się w odległości 25 bilionów mil (40 bilionów
kilometrów) od nas. Statek kosmiczny poruszający się z prędkością 30 000
mil na godzinę (48 000 kilometrów na godzinę), potrzebowałby prawie 10
000 lat, aby do niej dotrzeć.
Inflacja liczb nie jest jednak jedynym problemem w zrozumieniu
statystyki przez ogół społeczeństwa. Oszukiwanie za pomocą statystyki –
aczkolwiek nie zawsze zamierzone – zdarza się codziennie, zarówno w
mediach, jak i gdzie indziej. Często nie rozumiemy tego, co liczby próbują
nam powiedzieć. Najpowszechniejszą formą „oszustwa za pomocą
statystyki” są wielkości nieprawidłowo przedstawiane na wykresach. W
wielu wypadkach nie jest łatwo zdecydować, jaka powinna być skala na
obu osiach wykresu.
Aby rozumieć liczby i statystykę oraz umieć wyciągać z nich wnioski,
trzeba znać dwa pojęcia: wartość średnią i odchylenie standardowe.
Wartość średnia stanowi miarę centralności rozkładu statystycznego: jest to
średnia dla całej rozważanej populacji. Jeżeli rozkład jest rozkładem
prawdopodobieństwa, a nie rozkładem częstości statystycznych, to średnia
reprezentuje wartość oczekiwaną odpowiedniej wielkości losowej. Jest to
wartość, która powstałaby po uśrednieniu dużej liczby losowych realizacji
z danego rozkładu prawdopodobieństwa. W przypadku giełdy wartość
oczekiwana byłaby równa oczekiwanej (spodziewanej) wartości akcji, czyli
wartości uśrednionej po wielu potencjalnych realizacjach dzisiejszych
warunków giełdowych. Dla wspomnianego w poprzednim rozdziale
rozkładu normalnego (Gaussa) wartość średnia rozkładu znajduje się
dokładnie na środku krzywej dzwonowej.
Odchylenie standardowe rozkładu jest miarą szerokości rozkładu
statystycznego lub rozkładu prawdopodobieństwa. Im szersza krzywa, tym
bardziej zmienne lub niepewne stają się możliwe wartości danej wielkości
losowej. W przypadku giełdy, szersza krzywa rozkładu zysków oznacza
bardziej ryzykowny rynek.
Wartość średnia, oczekiwana wartość wielkości losowej, stanowi
135
najważniejszy parametr statystyczny, który jednak w wielu sytuacjach
może się okazać zdradliwy. Po pierwsze, wartość średnia jest bardzo czuła
na obecność błędów grubych (tak zwanych skrajnych danych
obserwacyjnych). Oto zestawienie jasności dla próbki dziesięciu gwiazd:
2,3; 2,5; 2,1; 3,0; 2,8; 2,9; 2,8; 2,6; 2,3; 7,1. Średnia wartość jasności dla tej
próbki wynosi 3,04. Na skutek obecności wartości skrajnej – nietypowej
danej, różniącej się znacznie od pozostałych, 7,1 – średnia wartość została
przesunięta poza obszar zajęty przez pozostałe dziewięć wyników
obserwacji. Gdyby nie było wartości skrajnej, średnia wyniosłaby 2,59, co
byłoby bardziej reprezentatywną wartością dla całego zestawu danych, z
pominięciem skrajnej. W tego rodzaju sytuacjach powstaje potrzeba użycia
alternatywnej statystyki, tak zwanej mediany. Mediana jest wartością
położoną w środku zbioru danych, mniej czułą na obecność błędów
grubych. W powyższym przypadku mediana wynosiłaby 2,7.
Zadziwiającą konsekwencją użycia średniej jest tak zwany paradoks
inspekcji
. Jedno z praw Murphy'ego mówi, że jeżeli coś może się zepsuć,
to prędzej czy później się zepsuje. Źródłem tej pesymistycznej maksymy są
prawdopodobnie codzienne doświadczenia. Przypuśćmy, że mieszkasz w
mieście i jeździsz do pracy autobusem. Z rozkładu jazdy wiadomo, że
autobus zatrzymuje się na przystanku średnio co 10 minut, więc dochodzisz
do wniosku, że jeżeli pójdziesz na przystanek w losowo wybranym
momencie, to – średnio rzecz biorąc – będziesz czekać na autobus około 5
minut. Między kolejnymi autobusami upływa średnio 10 minut, powinieneś
trafić na przystanek – średnio rzecz biorąc – w połowie między dwoma
autobusami, więc średni czas twojego oczekiwania powinien wynieść 5
minut. Z doświadczenia wiadomo jednak, że tak nie jest – wydaje ci się, że
zwykle czekasz dłużej. Dlaczego tak się dzieje? Czy pesymizm
Murphy'ego jest zawsze uzasadniony?
Fakt, że powinieneś oczekiwać dłużej niż połowę średniego czasu
między autobusami, jest absolutnie prawdziwy. Stanowi on manifestację
paradoksu inspekcji i może być udowodniony matematycznie. Nie oznacza
to bynajmniej, że pesymistyczne poglądy Murphy'ego są zawsze
uzasadnione, gdyż paradoks inspekcji równie często działa na twoją
korzyść. Przypuśćmy, że producent baterii w twojej latarce gwarantuje, że
przeciętny czas jej działania wynosi 3,5 godziny. Ty jednak używałeś tej
latarki dłużej niż 3,5 godziny, z tą samą baterią i wiesz, że ona nadal działa.
32
W literaturze polskiej zwany niekiedy paradoksem czasu oczekiwania.
136
Bateria w twojej latarce będzie działać dłużej niż przeciętna bateria. To jest
także prawdziwy fakt – manifestacja paradoksu inspekcji – który można
udowodnić matematycznie. Gdy jedziesz do pracy, czekasz na autobus
dłużej niż „średnio”. Gdy kupujesz baterię, będzie ona działać dłużej niż
przeciętna bateria.
Próba zrozumienia paradoksu inspekcji jest ćwiczeniem z teorii
prawdopodobieństwa, a zarazem rzuca nieco światła na problem istnienia
życia pozaziemskiego. Przypuśćmy, że w tej chwili idziemy na przystanek
autobusu. Na skutek działania paradoksu inspekcji (oraz prawa Murphy'ego
i ciągłego pecha) będziemy zapewne czekać dłużej niż wynosi średni czas
oczekiwania. Zobaczmy, dlaczego tak musi być. Autobusy pojawiają się
losowo na przystanku i średni czas między jednym a drugim wynosi 10
minut. Oznacza to, że między kolejnymi autobusami niekiedy upływa
mniej, a niekiedy więcej niż 10 minut. Poniższy rysunek przedstawia
przykładowy wykres czasów odjazdów autobusów. Literą x oznaczono czas
odjazdu. Zwróćmy uwagę, że niektóre odstępy między kolejnymi
autobusami są długie (dłuższe niż średni czas 10 minut), a inne krótkie
(krótsze niż średni czas 10 minut).
Wyobraźmy sobie teraz, że (losowy) czas twojego przybycia na
przystanek zostanie wyznaczony przez rzut strzałką do tarczy, z tą różnicą,
że tarcza jest jednowymiarowa – jest nią linia prosta, będąca osią czasu na
powyższym rysunku. Przybywasz w przypadkowym momencie czasu, czyli
w losowo wybranym punkcie na osi czasu. To podstawowa kwestia, gdyż
zjawiskami losowymi rządzą prawa prawdopodobieństwa. Co mówią
prawa prawdopodobieństwa na temat twojego momentu przybycia na
przystanek, reprezentowanego przez punkt na osi czasu? Mówią, że
prawdopodobieństwo twojego pojawienia się na przystanku w długim
odcinku jest większe niż w krótkim. Dlaczego? Ponieważ długi odcinek
czasu daje ci więcej możliwości – więcej chwil, w których możesz się
zjawić – niż krótki. Zakładając równe prawdopodobieństwa wszystkich
pododcinków czasu, masz większe szanse, że ktoś do ciebie zatelefonuje w
ciągu godziny niż w ciągu minuty. Jeżeli ktoś losowo zatelefonuje do ciebie
137
wieczorem, to ma większe szanse zastać cię w domu, gdy czekasz na
telefon między godziną 19 a 20, niż między 19.23 a 19.24. Wróćmy jednak
do oczekiwania na autobus. Gdy udajesz się na przystanek, masz większe
szanse, że trafisz na długi odcinek czasu między autobusami, więc twój
czas oczekiwania na autobus będzie dłuższy niż średnia. Na tym właśnie
polega paradoks. Na pierwszy rzut oka wydaje się, że powinieneś z
jednakowym prawdopodobieństwem trafić na przystanek zarówno w
długim odcinku, jak i w krótkim, a zatem twój średni czas oczekiwania
powinien być równy połowie średniego odcinka między autobusami. W
rzeczywistości jednak wybierając losowo moment przybycia na przystanek,
masz większe szanse trafienia na długi odcinek, więc musisz się
spodziewać, że będziesz czekał dłużej, niż wynosi średni czas oczekiwania.
Ta sama argumentacja pracuje jednak i w dobrą stronę: bateria w twojej
latarce działa dłużej niż przeciętna bateria. Wymiany baterii w twojej
latarce odpowiadają odjazdom autobusów z przystanku. Gdy włączasz
latarkę, wybierasz losowo moment na osi czasu, podobnie jak moment
przybycia na przystanek autobusowy. Jest bardziej prawdopodobne, że
losowy moment włączenia latarki zdarzy się w długim odcinku czasu
między kolejnymi wymianami baterii, niż w krótkim, więc bateria w twojej
latarce – średnio rzecz biorąc – powinna działać dłużej niż bateria
przeciętna.
Za paradoksem inspekcji kryje się prosty fakt, że rozkład, który
rozpoczął już swoje życie, trwa dłużej niż przeciętne rozkłady życia.
Gdybyś zjawiał się na przystanku, czekał na autobus, pozwalał mu
odjechać, a następnie mierzył czas od tego momentu do przybycia
kolejnego autobusu, to możesz spodziewać się, że – średnio rzecz biorąc –
zmierzony czas będzie równy średniej długości odcinka czasu między
autobusami. W tej sytuacji paradoks inspekcji nie działa, ponieważ rozkład
odcinków zaczyna się od początku (poprzedni autobus właśnie odjechał).
Tym razem nie zjawiasz się na przystanku w czasie trwania rozkładu, który
już rozpoczął swoje życie – tak jak w poprzednio opisanej sytuacji, gdy
przybywałeś już po odjeździe poprzedniego autobusu. Fakt, że rozkłady,
które już rozpoczęły swoje życie, żyją dłużej niż wynosi średnia (paradoks
inspekcji), ma swoje konsekwencje w badaniach długowieczności. Osoba
już żyjąca ma dłuższy oczekiwany czas życia, niż ktoś, kto jeszcze się nie
narodził. Trzydziestolatek nie może już umrzeć w dzieciństwie, a właściwie
nie może umrzeć w młodszym wieku niż 30 lat, więc ma większe szanse na
138
dłuższe życie niż noworodek, który nadal może umrzeć w młodości.
Osiemdziesięciosześcioletnia kobieta nie może umrzeć w młodszym wieku
niż 86 lat, więc jej oczekiwany (czyli średni) wiek w chwili śmierci jest
dłuższy niż w przypadku przeciętnej kobiety.
Paradoks inspekcji stał się ostatnio przyczyną wpadki izraelskiego biura
statystycznego. Z opublikowanych w 1994 roku danych statystycznych
wynika, że Japonia jest światowym liderem pod względem długości życia
mieszkańców. Na drugim miejscu uplasował się Izrael, gdzie średnia
długość życia mężczyzn wyniosła 75,1 roku. Podczas gdy cały kraj
entuzjastycznie celebrował dobre wieści, nikomu nie przyszło do głowy, że
radosna interpretacja danych statystycznych pomija pewien mały, ale
istotny problem. Statystyczna długość życia jest nieco myląca w kraju,
gdzie znaczną część populacji stanowią imigranci. Oczekiwana długość
życia żyjącej osoby jest większa niż jeszcze nie narodzonej, a do Izraela
wyemigrowało wielu starych ludzi z innych krajów –jeszcze bardziej
zwiększając średnią długość życia jego mieszkańców – więc statystyka jest
obarczona systematycznym błędem i w rezultacie przecenia rzeczywistą
długowieczność osób urodzonych w Izraelu.
Co paradoks inspekcji ma wspólnego z kwestią życia pozaziemskiego?
Wróćmy ponownie do przykładu z autobusem. Wybierasz losowo moment
wyjścia z domu i idziesz na przystanek. Masz większą szansę, że trafisz na
długi odcinek między kolejnymi autobusami, więc twój spodziewany czas
oczekiwania na autobus jest dłuższy od średniego. Pojawiając się losowo
na przystanku, na ogół „łapiesz” długi odcinek. Im dłuższy odcinek, tym
większa szansa, że na niego trafisz.
Przypuśćmy teraz, że w przestrzeni kosmicznej istnieją inne kultury,
żyjące na innych planetach. Niektóre są zaawansowane, inne pierwotne,
niektóre inteligentne, inne prymitywne. Niektóre z tych siedlisk istot
pozaziemskich istnieją dopiero 100 milionów lat i obecnie znajdują się tam
tylko proste formy życia. Inne istnieją od 4 miliardów lat i wyewoluowały
tam cywilizacje podobne do naszej. W kategoriach długości istnienia
niektóre z nich trwają długo, inne krótko. Pomyślmy teraz o tobie, o twoich
narodzinach – o początku twojego życia. Wyobraźmy sobie, że Bóg gra w
kości i że obowiązują proste reguły prawdopodobieństwa. Bóg cię stworzył
i wysyła cię losowo – zgodnie z regułami prawdopodobieństwa – na jedną
z tych planet. Dokąd zostaniesz wysłany?
139
Wyobraźmy sobie cywilizacje jako odcinki, których długości
odpowiadają czasom ich istnienia:
Masz większe szanse, że trafisz do dłużej istniejącej cywilizacji, niż do
takiej, która istnieje od niedawna. Podobnie jak pasażer oczekujący na
autobus, raczej wylądujesz na długim odcinku niż na krótkim. W naszych
rozważaniach trzeba uwzględnić jeszcze jeden czynnik, który sięga
znacznie dalej niż prosty paradoks inspekcji. Gdybyś wylądował w
młodym świecie, gdzie istnieją wyłącznie bakterie, byłbyś bakterią. A
bakteria nie interesuje się prawdopodobieństwem istnienia życia we
wszechświecie. Sam fakt, że jesteśmy zaawansowaną i inteligentną
cywilizacją, tworzy inspekcyjny błąd systematyczny. Dokonujemy
inspekcji naszej własnej cywilizacji, lecz nasza zdolność do inspekcji nas
samych stanowi rezultat faktu, że istniejemy na tej planecie dostatecznie
długo, aby rozwinęła się na niej inteligencja zdolna do zadawania tego
rodzaju pytań. Warunkowe prawdopodobieństwo, że istniejemy dłużej niż
inne cywilizacje – warunek stanowi informacja, że jesteśmy dostatecznie
zaawansowani, aby rozumować i zastanawiać się nad życiem i
wszechświatem – jest wysokie.
Zestawiając te fakty z paradoksem inspekcji, widzimy, że jeżeli twoje
pojawienie się na Ziemi jest traktowane jako zdarzenie losowe, to masz
większe szanse pojawienia się na długo żyjącej planecie niż na niedawno
powstałej, na podobnej zasadzie jak strzałka, która ma większe szanse
trafienia w większą sekcję tarczy.
Na skutek działania paradoksu inspekcji, średnio rzecz biorąc, trafiamy
w środek odcinka, a długość trafionego odcinka jest większa od średniego.
Astronomowie mówią, że dokładnie tak stało się z naszym pojawieniem się
w Układzie Słonecznym. Oczekiwana długość życia Słońca jest większa od
średniej długości życia gwiazd. Niektóre gwiazdy, te o większej masie, żyją
140
miliony lat i spalają się szybko, zanim życie może się rozwinąć. Inne, takie
jak Słońce, żyją miliardy lat, gdyż nie palą się zbyt jasno i zbyt szybko ze
względu na mniejszą masę. Oczekiwany czas życia Słońca wynosi nieco
powyżej 10 miliardów lat, a my trafiliśmy
w sam środek tego dłuższego od średniego odcinka: Słońce istnieje już
około 5 miliardów lat i powinno żyć jeszcze 5 miliardów. Jest bardzo
prawdopodobne, że w skali cywilizacji galaktycznych znajdujemy się
powyżej średniego poziomu rozwoju, a możliwe, że całkiem wysoko,
wśród najbardziej zaawansowanych. Nie zapominajmy także o innych
czynnikach. We wczesnym wszechświecie nie było dostatecznie dużej
chemicznej różnorodności niezbędnej do powstania życia. Wiele gwiazd
musiało przeżyć swoje życie i eksplodować jako supernowe lub odrzucić
bogate w pierwiastki chemiczne atmosfery, zanim z pierwotnego gazu i
pyłu powstał protoplanetarny dysk dostatecznie bogaty i chemicznie
zróżnicowany, aby zrodzić życiodajną planetę, taką jak Ziemia. Taki proces
wymaga czasu liczonego w miliardach lat. Nasz Układ Słoneczny liczy 5
miliardów lat, a wszechświat – w takiej formie, w jakiej go znamy –14
miliardów, więc nie można wykluczyć, że jesteśmy jedną z najbardziej
zaawansowanych cywilizacji we wszechświecie.
141
Wydaje się, że astronomowie i członkowie zespołu SETI dobrze zdają
sobie sprawę z konsekwencji paradoksu inspekcji, nawet jeżeli nie do
końca rozumieją stojącą za nim teorię. Nie poszukują planet wokół
młodych, jasnych gwiazd, takich jak Syriusz, które palą się znacznie
szybciej niż Słońce i inne mniejsze gwiazdy. Naukowcy ci intuicyjnie
zgadują, że życie nie miałoby szans rozwoju na planecie, która istnieje
zaledwie miliony lat.
Zajmijmy się teraz głębszymi konsekwencjami paradoksu inspekcji dla
kwestii istnienia życia na Ziemi. Jesteśmy tutaj, ponieważ potrzebowaliśmy
dużo czasu, aby stać się tym, kim jesteśmy – zaawansowanymi istotami o
wysokiej inteligencji. Podobnie jak osiemdziesięcioletnia kobieta, która nie
może już umrzeć w wieku 70 lat i której oczekiwana długość życia jest
znacznie większa niż przeciętna, nie możemy już być naczelnymi,
jaszczurkami lub algami. Ziemia potrzebowała 1,5 miliarda lat, zanim życie
mogło w ogóle się zacząć. Niektórzy naukowcy sądzą, iż trwało to tak
długo, ponieważ DNA jest tak złożoną cząsteczką, że potrzebna była
olbrzymia liczba losowych prób, zanim przypadkowe fluktuacje
doprowadziły do jej powstania. Przyczyną może być także fakt, że wczesna
Ziemia nie miała sprzyjających życiu warunków. Szalona aktywność
geologiczna – trzęsienia ziemi i wulkany, które wypełniały atmosferę
pyłem, uniemożliwiały światłu dotarcie do powierzchni i przeszkadzały w
stabilizowaniu się temperatury – oraz kolizje z asteroidami i kometami w
nowo powstałym Układzie Słonecznym, pełnym chaotycznie
poruszających się obiektów, mogły uniemożliwiać powstanie życia przez
ponad miliard lat. Niższe formy życia istnieją na Ziemi od 3,5 miliarda lat,
wczesne zwierzęta od 700 milionów lat, zwierzęta lądowe od 400
milionów, ssaki od 200 milionów, pierwsze naczelne od 100 milionów
142
lat. Goryl pojawił się 10 milionów lat temu, australopitek – 2 miliony lat
143
temu, Homo habilis 1,5 miliona lat temu, neandertalczyk – 150 000 lat
temu, a Homo sapiens istnieje mniej niż 0,5 miliona lat.
Wiek naszej planety przypomina wiek osoby, której życie zaczęło się
dawno temu. Słońce jest gwiazdą o średnim czasie trwania, a połowa jego
życia jest jeszcze przed nim. Ziemia prawdopodobnie znajduje się w
podobnej sytuacji. Jednak w jednym i w drugim przypadku – dzięki
paradoksowi inspekcji – oczekiwany czas życia jest większy od średniego.
Dlatego życie na innych planetach prawdopodobnie znajduje się we
wcześniejszej fazie rozwoju niż u nas, co może wytłumaczyć fakt, że nie
zalały nas oznaki życia spoza naszego Układu Słonecznego. Zestawienie na
stronie 152 ilustruje ewolucję życia na Ziemi, obrazując odcinek czasu, w
którym istniejemy – oczekiwaną połowę całkowitego czasu istnienia
Układu Słonecznego – przypuszczalnie dłuższy niż okresy życia innych
cywilizacji.
Wymienione wyżej argumenty probabilistyczne rozwiązują jedną istotną
kwestię: skoro istnieją liczne cywilizacje pozaziemskie, to dlaczego
dotychczas nie skomunikowały się z nami? Pytanie to często zadawano
członkom zespołu SETI. Odpowiedź jest jasna: Zakładając, że inne
cywilizacje są obecne w naszej Galaktyce, istnieje duże
prawdopodobieństwo, że jesteśmy jedną z pierwszych, które osiągnęły tak
wysoki poziom rozwoju. Na podstawie paradoksu inspekcji możemy
wnioskować, że prawdopodobnie jesteśmy bardziej zaawansowani niż
większość innych cywilizacji we wszechświecie. Nasuwa się poza tym
pytanie, dlaczego inni mieliby kontaktować się z nami akurat za
pośrednictwem fal radiowych. Być może fale radiowe nie stanowią
preferencyjnego środka komunikacji u innych cywilizacji. Rozwój telewizji
kablowej i sieci światłowodowych znacznie osłabił zapał zespołu SETI.
Jeżeli tak wygląda przyszłość naszej komunikacji i jeżeli inne cywilizacje
odkryły lub odkryją, że środki te są znacznie lepsze niż pozbawione umiaru
rozsiewanie wszędzie dookoła fal radiowych, to nasze szanse na kontakt
radiowy staną się niewielkie. Być może nie powinniśmy skupiać całego
wysiłku na próbach uzyskania kontaktu radiowego. Olbrzymie opóźnienia
czasowe, nieodłączne w tego typu „komunikacji” nawet z najbliżej
położonymi gwiazdami (przynajmniej 4,25 roku wiadomość
podróżowałaby w jedną stronę), czynią z fal radiowych mało praktyczny
środek łączności.
Paradoks inspekcji tłumaczy więcej niż prawdopodobne przyczyny, dla
144
których znajdujemy się zapewne wśród najbardziej zaawansowanych
cywilizacji we wszechświecie (zakładając, że w ogóle istnieją inne
cywilizacje), dzięki czemu nie słyszymy sygnałów od innych kultur, ani też
nie staliśmy się niewolnikami intergalaktycznych najeźdźców, którzy
przekroczyli nasz poziom rozwoju eony temu i podbili nas. Pokazuje
również, że intuicja nie zawsze dobrze działa w problemach
probabilistycznych. W następnych dwóch rozdziałach poznamy więcej
sprzecznych z intuicją faktów z teorii prawdopodobieństwa oraz
zobaczymy, że ta potężna teoria pozwala obliczyć prawdopodobieństwo
istnienia życia gdzie indziej w kosmosie.
145
Rozdział 10
PROBLEM URODZIN
Paradoks inspekcji nie jest jedynym przykładem z dziedziny
prawdopodobieństwa, w którym intuicja prowadzi nas na manowce. W
procesie rozwiązania łączącego się z nim zagadnienia probabilistycznego
matematycy muszą zbudować stosowny model, który obejmuje zasadnicze
elementy problemu. Model pomaga stworzyć myślowy obraz problemu,
zrozumieć jego istotę i ułatwia znalezienie rozwiązania.
W rozwiązywaniu problemów probabilistycznych dużymi sukcesami
cieszą się modele urnowe, pozwalające zobrazować koncepcję łączenia w
pary (tzw. matching), które odgrywa ważną rolę w wielu zagadnieniach
probabilistycznych. Problem urodzin stanowi najsłynniejsze zagadnienie
probabilistyczne, do którego rozwiązania może zostać użyty model urnowy.
Rozwiązanie to okazuje się całkiem nieoczekiwane.
Jakie jest prawdopodobieństwo, że w grupie ludzi zgromadzonych w
jednym pokoju znajdują się przynajmniej dwie osoby, które w tym samym
dniu obchodzą urodziny? Od razu widać, że odpowiedź zależy od liczby
osób. Jeżeli jest ich 367, to prawdopodobieństwo zaistnienia przynajmniej
jednej koincydencji wynosi 1,00, czyli 100%. Rozwiązanie to uwzględnia
rok przestępny, czyli fakt, że liczba możliwych dat wynosi 366 (365 dni w
roku zwykłym + 29 lutego w roku przestępnym). Wyobraźmy sobie te 366
dni jako szereg otwartych od góry przegródek, a ludzi jako małe, spadające
z góry kulki. Każda kulka losowo wybiera jedną przegródkę i wpada do
środka. Przy liczbie kulek równej 367, nawet jeżeli każda z nich trafi do
pustej przegródki (jak wkrótce zobaczymy, jest to niezwykle rzadkie
zdarzenie), trzysta sześćdziesiąta siódma będzie musiała wpaść do
przegródki zajętej uprzednio przez inną kulkę. Zatem wśród 367 osób
muszą znaleźć się przynajmniej dwie o tej samej dacie urodzin, czyli
prawdopodobieństwo takiego zdarzenia wynosi 100%.
146
Prawdopodobieństwa rosną jednak znacznie szybciej niż liniowo.
Przypuśćmy, że ludzie wchodzą pojedynczo do pokoju i każdy podaje
swoją datę urodzin. Proces ten dokładnie odpowiada spadającym kulkom,
po kolei i losowo trafiającym do przegródek. Dla prostoty zignorujmy rok
przestępny i załóżmy, że mamy 365 dni. Spadające kulki pozornie celują w
środek szeregu przegródek, lecz należy pamiętać, że w tym modelu ich
docelowe miejsca trafienia są losowe i jednakowo rozłożone na wszystkie
365 przegródek. Odpowiada to sytuacji, w której każdy dzień roku, od 1.01
do 31.12, ma jednakową szansę złapania kulki. Jednak
prawdopodobieństwo, że każda przegródka otrzyma jedną kulkę, jest
niezwykle małe, natomiast szansa na match, czyli na spotkanie dwóch
kulek w jednej przegródce, staje się całkiem wysoka dosyć wcześnie w
trakcie procesu spadania kolejnych kulek.
Okazuje się, że przy 23 osobach w pokoju szansa na przynajmniej jedne
wspólne urodziny wynosi ponad 50%! Przy 56 osobach szansa ta rośnie do
99%! Już przy 10 osobach szansa wynosi 12%, czyli przy zaledwie 10
kulkach wpadających losowo do szeregu 365 przegródek
prawdopodobieństwo, że każda z 10 kulek zajmie osobną przegródkę, jest
równa zaledwie 88% (ponieważ pozostałe 12% obejmują wszystkie
zdarzenia, w których co najmniej dwie kulki trafią do wspólnej
przegródki).
Zbadajmy matematyczną stronę tego procesu. Pierwsza kulka ma do
wyboru 365 przegródek. Druga kulka, aby nie spotkać się z pierwszą, musi
trafić do jednej z pozostałych 364 przegródek, więc prawdopodobieństwo,
że ominie przegródkę zajętą przez pierwszą kulkę, wynosi
365
364
η
, Jeżeli
trzecia kulka ma ominąć przegródki zajęte przez pierwszą i drugą, to musi
trafić do jednej z pozostałych 363 spośród całkowitej liczby 365
przegródek. Proces trwa dalej, aż wszystkie kulki wpadną do przegródek.
Jeżeli jest ich 23 (23 osoby w pokoju), to jakie jest prawdopodobieństwo,
że żadne dwie z nich nie trafiły do tej samej przegródki (czyli wszystkie 23
osoby mają urodziny w różne dni)? Musimy pomnożyć
prawdopodobieństwa dla wszystkich kulek, ponieważ chodzi nam o łączne
prawdopodobieństwo (kulka 2 w innej przegródce niż kulka 1 oraz kulka 3
w innej przegródce niż pierwsze dwie itd.). Otrzymujemy:
prawdopodobieństwo, że 23 kulki zajmują 23 różne przegródki
(
)(
)(
) (
)
4927
.
0
365
365
365
365
343
363
364
365
=
=
η
η
η
η
147
Wynik ten łatwo sprawdzić za pomocą zwykłego kalkulatora. Natomiast
prawdopodobieństwo przynajmniej jednych wspólnych urodzin jest równe
jeden minus prawdopodobieństwo, że wszystkie urodziny są w różne dni
(wszystkie kulki znajdują się w różnych przegródkach). Odejmujemy
powyższy wynik od jedności, ponieważ prawdopodobieństwa zdarzeń
przeciwnych sumują się do 1. Jeżeli na przykład prawdopodobieństwo
deszczu wynosi 30%, to prawdopodobieństwo, że nie będzie padać, wynosi
70% (0,7 = 1 - 0,3). Zatem prawdopodobieństwo przynajmniej jednych
wspólnych urodzin wśród 23 osób wynosi: 1 - 0,4927 = 0,5073, czyli nieco
więcej niż 50%.
Wynik ten jest zaskakujący, ponieważ intuicyjnie nie spodziewamy się,
aby prawdopodobieństwo spotkania przynajmniej dwóch kulek było tak
wysokie, gdy nadal tak wiele przegródek pozostaje pustych. Jednak już
przy 23 kulkach szansa na dwie w jednej przegródce przekracza 50%.
Teoria prawdopodobieństwa i intuicja nie zawsze chadzają tymi samymi
drogami. Matematyka zawsze wygrywa, zostawiając intuicję i zdrowy
rozsądek na straconej pozycji.
Przykład z kulkami w urnie pomoże nam także w próbach oszacowania
prawdopodobieństwa, że nie jesteśmy sami w kosmosie. Zanim
przejdziemy do tego zagadnienia, zajmijmy się innym wariantem koncepcji
kulek w urnie, w którym kulki spadają w kierunku środka szeregu
przegródek, z malejącym prawdopodobieństwem trafienia daleko od
środka. W dziale matematycznym Museum of Science [Muzeum Nauki] w
Bostonie znajduje się osłonięty szkłem układ – szereg przegródek, do
których kulki wpadają od góry, lecz na każdym poziomie na drodze w
kierunku przegródek natrafiają na szereg kołków. Gdy kulka napotyka
kołek, może skręcić albo w lewo, albo w prawo, a ponieważ trafia prosto w
niego, na każdym poziomie ma 50% szans skrętu w lewo i 50% szans, że
skręci w prawo. W miarę jak kulki spadają w dół i lądują w przegródkach,
pojawia się charakterystyczny wzór: krzywa normalna Gaussa. W pobliżu
środka wylądowały te kulki, które mniej więcej tyle samo razy skręciły w
lewo, ile w prawo. Im bardziej w prawo, tym mniej kulek, ponieważ trafiły
tam te kulki, które po drodze w dół częściej skręcały w prawo niż w lewo, a
prawdopodobieństwo, że dana kulka częściej skręcała w prawo niż w lewo
jest tym mniejsze, im dalej w prawo. Podobnie działo się po lewej stronie.
Końcowy rezultat demonstruje działanie centralnego twierdzenia
granicznego. Jest to prawo średnich. Średnio rzecz biorąc, w środku ląduje
148
wiele kulek. Im dalej od środka układu przegródek, tym mniej kulek. Układ
kulek jest symetryczny – tyle samo po lewej i po prawej stronie – ponieważ
6 skrętów w lewo i 4 w prawo jest tak samo prawdopodobne, jak 6 skrętów
w prawo i 4 w lewo. Poniższy rysunek przedstawia omówiony układ
przegródek z Museum of Science w Bostonie.
Z naszego punktu widzenia interesujący jest fakt, że nawet rzadkie
kombinacje (na przykład kulka skręcająca dziesięć razy w lewo i zero w
prawo) od czasu do czasu się zdarzają. Upewnia nas w tym (w granicy, gdy
liczba kołków dąży do nieskończoności) krzywa rozkładu normalnego.
Zpraw prawdopodobieństwa wynika bowiem, że istnieje niezerowa szansa
na dowolnie daleko w prawo lub w lewo położoną kulkę.
Rozważmy teraz problem istnienia życia gdzie indziej we
wszechświecie. Wiemy już od astronomów, że poza Układem Słonecznym
istnieją inne planety. Wiemy również, że niektóre z nich krążą wokół
swoich gwiazd w strefie zamieszki walnej, więc życie mogło się na nich
rozwinąć. Wiemy także, a naukowcy wiedzieli o tym od dziesiątków lat, że
pierwiastki i związki chemiczne, które istnieją na Ziemi – łącznie ze
złożonymi węglowodorami i aminokwasami – są również obecne w
znanym nam wszechświecie. Nie wiemy natomiast, czy podstawowy
składnik życia, cząsteczka DNA, istnieje poza Ziemią.
Rozważmy teraz konstrukcję cząsteczki DNA i załóżmy, że jest ona
budowana sekwencyjnie. Przypuśćmy, że zaczynamy od dwutlenku węgla,
metanu, tlenu, wodoru, fosforu i siarki – o wszystkich tych składnikach
wiadomo, że istnieją wszędzie we wszechświecie. Załóżmy dalej, że na
każdym etapie tworzone jest jedno wiązanie spośród setek wiązań
chemicznych, które utrzymują gigantyczną cząsteczkę. Załóżmy, że istnieje
pewne niewielkie prawdopodobieństwo, że wiązanie powstanie, gdy
tworzące go pierwiastki są ze sobą wymieszane w jakimś naturalnym
środowisku. Prawdopodobieństwa te – inne dla każdego rodzaju wiązania –
mogą być dowolnie małe, lecz różne od zera. Powstanie jednego wiązania
przypomina ruch małej kuleczki spadającej o jeden poziom w szklanym
układzie demonstracyjnym w muzeum w Bostonie, z tą różnicą, że
149
prawdopodobieństwo skrętu w prawo (na przy kład) jest bardzo małe,
natomiast w lewo – bardzo duże. Jeżeli jednak spadnie bardzo dużo kulek,
któraś z nich w końcu skręci w prawo. Dochodzimy wtedy do kolejnego
poziomu – kolejnego wiązania chemicznego w powstającej cząsteczce
DNA. W tym przypadku wiązanie powstanie, jeżeli kulka skręci w prawo.
Także i teraz, nawet jeżeli prawdopodobieństwo skrętu w prawo jest bardzo
małe, niektóre kulki skręcą w prawo. Przy dużej liczbie spadających kulek
zawsze pewna ich część skręci w prawo – niezależnie od tego, jak małe jest
prawdopodobieństwo skrętu w prawo w danym kroku.
Tak więc przy olbrzymiej liczbie prób (spadających kulek) – co oznacza
olbrzymią liczbę kombinacji chemicznych zup na powierzchni pewnej
planety krążącej w zamieszkiwalnej strefie pewnej gwiazdy, pogody,
temperatury, ciśnienia i warunków katalitycznych – istnieje małe, lecz
niezerowe prawdopodobieństwo powstania DNA. Dokładnie na tej samej
zasadzie, gdy bardzo wiele kulek spada do szklanych przegródek, niektóre
z nich w końcu trafią na sam koniec granicznego rozkładu normalnego.
Skąd wiemy, że to się zdarzy? No cóż, cząsteczka DNA istnieje, więc jej
konstrukcja jest możliwa. Pozostaje pytanie, jak często się to zdarza – jakie
jest prawdopodobieństwo, że pojawi się gdzie indziej. Nasza odpowiedź na
to pytanie jest następująca: Istnieje małe (nawet bardzo małe), lecz
niezerowe prawdopodobieństwo, że zdarzy się to na określonej
pozasłonecznej planecie, bogatej w pierwiastki chemiczne, o sprzyjającej
temperaturze itd.
Przykład ze spadającymi kulkami jest nawet bardziej adekwatny do
opisu tworzenia się wiązań chemicznych, niż mogłoby się na pierwszy rzut
oka wydawać. Chemicy często wyobrażają sobie atomy jako małe okrągłe
kulki, natomiast wiązania chemiczne – uwspólnianie elektronów między
atomami – jako proste odcinki o określonej długości, łączące atomy pod
określonymi kątami (120 stopni, 90 stopni itd). Wiązanie ma szanse
powstania, gdy dwa atomy zderzą się pod określonym kątem. Z mechaniki
statystycznej znamy prawdopodobieństwa takich reakcji (sklejania się
dwóch kulek) przy określonej temperaturze, ciśnieniu i innych warunkach.
A w mechanice statystycznej rozkład normalny jest kluczem do
wszystkiego. Tempo reakcji, a zatem częstość formowania się dowolnego
typu wiązania jest statystycznie określona dla dużego zbioru atomów
bezpośrednio z krzywej normalnej.
Częstość zachodzenia danej reakcji w dużym zbiorze atomów jest
150
dokładnie równa prawdopodobieństwu zajścia pojedynczej reakcji między
dwoma atomami. Z mechaniki statystycznej: wiemy, że istnieją małe, lecz
niezerowe prawdopodobieństwa powstania każdego złożonego wiązania.
Gdy te małe kulki uderzają w siebie nawzajem (lub – w przykładzie ze
szklanymi przegródkami; – w kołki), występują rozmaite
prawdopodobieństwa tworzenia kolejnych wiązań, aż pojawi się kompletna
cząsteczka DNA. W rzeczywistości problem jest nawet prostszy, ponieważ
niektóre części składowe molekuły DNA istnieją jako niezależne
cząsteczki. Na podstawie badań chondrytów węglistych wiemy, że nawet
cząsteczki białek istnieją poza Ziemią. Jeżeli submolekuły – zasady:
adenina, guanina, cytozyna i tymina, cząsteczka cukru oraz fosfaty, które
tworzą rdzeń DNA – istnieją także poza Ziemią, to wszystko, czego
potrzeba do utworzenia DNA, sprowadza się do zderzania tych submolekuł
(zamiast dużej liczby pojedynczych atomów). Jeżeli warunki reakcji okażą
się właściwe, to pojawi się DNA. Warunkowe prawdopodobieństwo
zmaterializowania się DNA w kosmosie (przy warunku, że istnieją
tworzące ją submolekuły) jest większe, jeżeli wiadomo, że molekuły owe
rzeczywiście istnieją.
Zagadnienie tempa reakcji chemicznych jest silnie związane z teorią
prawdopodobieństwa. Pierwsze pytanie, jakie pada w związku z badaniem
określonej reakcji chemicznej, to, czy reakcja w ogóle może zajść. Czy
produkty reakcji są stabilne? Odpowiedź na to pytanie zależy od
termodynamiki. Czy układ poziomów energii umożliwia substratom
utworzenie produktów reakcji? W przypadku DNA odpowiedź jest znana.
Skoro związek chemiczny istnieje na Ziemi, wiemy z całą pewnością, że
reakcje chemiczne, które prowadzą do powstania DNA, muszą być
możliwe niezależnie od ich formy. To załatwia bardzo wiele, ponieważ
jedyne pytanie, na jakie wciąż nie znamy odpowiedzi, dotyczy warunków,
które są niezbędne do powstania produktu końcowego. Wiemy jednak, że i
one muszą istnieć. Jakie zatem jest tempo reakcji?
Tempo reakcji chemicznych zależy od czynników statystycznych.
Atomy i cząsteczki poruszają się względem siebie, a ich prędkości zależą
bezpośrednio od temperatury. Gdy temperatura rośnie, wzrastają również
prędkości. Poruszające się atomy i cząsteczki zderzają się ze sobą, a przy
każdym zderzeniu istnieje szansa utworzenia wiązania chemicznego.
Wiązanie może okazać się trwałe lub ponownie się rozpaść. Niektóre
reakcje chemiczne są bardzo szybkie. Gdy kwas spotyka zasadę w
151
roztworze wodnym, reakcja jest natychmiastowa: tworzy się sól. Inne
reakcje, na przykład utlenianie żelaza i powstawanie rdzy, mogą trwać
znacznie dłużej. Tempo reakcji chemicznej zależy od rozwiązania
określonego równania różniczkowego. Równaniem, podobnie jak i samym
procesem, rządzą prawa statystyki. Gdy dwa pierwiastki spotykają się w
roztworze, a prawdopodobieństwo utworzenia wiązania chemicznego w
wyniku ich zderzenia jest małe, tempo reakcji jest powolne. Potrzeba dużo
czasu i wielu zderzeń, ponieważ za każdym razem tylko niewielka liczba
zderzeń prowadzi do powstania wiązania (a prawdopodobieństwo
powstania wiązania w wyniku pojedynczego zderzenia jest równe – w
dużym, statystycznym systemie wielu atomów – częstości zderzeń, w
wyniku których powstaje wiązanie). Gdy reakcja jest szybka,
prawdopodobieństwo utworzenia wiązania w wyniku pojedynczego
zderzenia jest duże, a zatem w określonym czasie powstaje wiele wiązań.
Reakcje niezbędne do utworzenia DNA są oczywiście możliwe, lecz –
sądząc z naszych doświadczeń na Ziemi -– ich tempo może być bardzo,
bardzo wolne. Niektóre reakcje potrzebują ułamka sekundy, inne kilku
godzin, a jeszcze inne dni lub tygodni. Wystarczy uświadomić sobie, że
rdza tworzy się niekiedy przez dziesiątki lat. Reakcje prowadzące do
powstania DNA mogą trwać nawet miliardy lat. Tak długo mogły trwać
zderzenia między coraz większymi submolekułami, z których składa się
DNA. Większość z nich, podobnie jak skręcające w niewłaściwą stronę
kulki, prowadziła donikąd, lecz raz na jakiś bardzo długi czas zdarzała się
właściwa sekwencja zderzeń: kulki skręcały w mało prawdopodobnym
kierunku, dając szansę zajścia rzadkiej reakcji. Prawdopodobieństwo i czas
są ściśle związane, przez tempo reakcji chemicznych. Gdy
prawdopodobieństwo jest bardzo małe (lecz niezerowe), bardzo duża liczba
prób jest konieczna, aby odnieść sukces. Tak właśnie się stało, gdy DNA po
raz pierwszy powstało na Ziemi. Reakcja trwała bardzo długo, ponieważ
prawdopodobieństwo było bardzo małe. Nasze najlepsze oszacowanie
czasu – niezbędnego, aby reakcja ta zaszła gdzieś w kosmosie – opiera się
na tym, co wiemy z naszych własnych doświadczeń na Ziemi, gdzie trwało
to około miliarda lat. Ocena ta zgadza się z przypuszczeniem, że
prawdopodobnie jesteśmy wśród najbardziej zaawansowanych cywilizacji
w naszej Galaktyce.
Powróćmy teraz do przykładu z kulkami, który posłużył do wyjaśnienia
problemu urodzin, i rozważmy sytuację z innego punktu widzenia.
152
Załóżmy, że każdy pierwiastek oraz każdy warunek – temperatura,
ciśnienie, gęstość, obecność katalizatora itd. – reprezentuje mała kulka.
Kulki te spadają losowo na otwarty układ przegródek, lecz tym razem
środkowe przegródki nie są faworyzowane. Każda kulka ma jednakową
szansę trafienia do którejkolwiek przegródki, podobnie jak w oryginalnym
problemie urodzin. Zamiast 365 przegródek, tym razem mamy bardzo dużą
liczbę, a każda z nich reprezentuje pozasłoneczną planetę krążącą w
zamieszkiwalnej strefie swojej gwiazdy. Na podstawie odkryć łowców
planet wiemy, że istnieje wiele takich planet w naszej Galaktyce i poza nią.
Za każdym razem, gdy kulka wpada do przegródki, jest spełniony jakiś
warunek istnienia życia. Będą to gwiazdy z właściwym natężeniem pola
grawitacyjnego, właściwe ciśnienie atmosferyczne, właściwa temperatura
itd. Pozostałe kulki reprezentują pierwiastki i związki chemiczne niezbędne
dla życia. Wiemy, że istnieją one tutaj, więc muszą mieć niezerowe
prawdopodobieństwo istnienia gdzie indziej. Jedna z wpadających do
przegródki kulek to dostateczna ilość węgla. Ten warunek prawdopodobnie
łatwo spełnić, ponieważ wiemy, że węgla jest dość dużo we wszechświecie.
Inna kulka to wodór, jeszcze inna to dostateczna ilość wody itd.
Na podstawie paradoksu urodzin wiemy, że jest niezwykle mało
prawdopodobne, aby wszystkie kulki wpadły do różnych przegródek –
czyli żeby sprzyjające życiu warunki zostały jednorodnie rozłożone na
różnych planetach. Szansa na to, że wszystkie niezbędne rodzaje kulek
trafią przynajmniej do niektórych spośród wielu przegródek, jest wysoka,
dopóki dla każdego określonego warunku istnieje dostatecznie duża liczba
kulek. Jeżeli we wszechświecie istnieje dostatecznie dużo cząstek
elementarnych – a nauka mówi nam, że nie brakuje wodoru, węgla, siarki,
tlenu itd. – to w końcu przynajmniej niektóre planety oprócz Ziemi zostaną
zasypane dostateczną liczbą małych kulek niosących wszystkie składniki
niezbędne do ewolucji życia. W następnym rozdziale obliczymy w końcu
prawdopodobieństwo, że życie pojawiło się poza Ziemią.
153
Rozdział 11
PRAWDOPODOBIEŃSTWO ŻYCIA NA
PRZYNAJMNIEJ JEDNEJ PLANECIE OPRÓCZ
ZIEMI
Doszliśmy do momentu, gdy możemy w końcu oszacować
prawdopodobieństwo życia na przynajmniej jednej innej (niż Ziemia)
planecie. Aby jednak obliczyć złożone prawdopodobieństwo istnienia życia
w jakimś innym miejscu kosmosu, musimy najpierw poznać regułę
obliczania prawdopodobieństw złożonych zdarzeń. Reguła ta stanowi jedno
z najważniejszych narzędzi w teorii prawdopodobieństwa, a ponadto ma
ona bardzo interesującą historię – została opracowana 350 lat temu, wraz z
większością podstaw teorii, na skutek nienasyconej chciwości pewnego
francuskiego hazardzisty.
Blaise Pascal (1623-1662) był jednym z największych francuskich
matematyków swoich czasów. Jego nazwisko nosi między innymi prawo
fizyczne dotyczące ciśnienia cieczy. Matematycy pamiętają go najlepiej
dzięki esejowi o przecięciach stożkowych – jednej stronie napisanej w
wieku szesnastu lat i zawierającej twierdzenie zwane obecnie twierdzeniem
Pascala, która stała się najsłynniejszą pojedynczą stroną w historii
matematyki. Twierdzenie to mówi, że proste, zawierające przeciwległe boki
wpisanego w krzywą stożkową sześciokąta, przecinają się w trzech
współliniowych punktach. Po udowodnieniu tego twierdzenia nastoletni
Pascal sformułował i wykazał wiele innych. Gdy miał osiemnaście lat,
wynalazł maszynę liczącą, protoplastę współczesnych, młodszych o 300 lat
komputerów (maszyna licząca Pascala znajduje się na wystawie w Arts and
Sciences Department of IBM [Dziale Sztuk i Nauk firmy IBM]).
W 1654 roku, gdy Pascal miał 31 lat i był już jednym z najbardziej
znanych wtedy matematyków, złożył mu wizytę jego przyjaciel, Antoine
Gombaud (1610-1685), znany jako Kawaler de Merę, bogaty francuski
154
szlachcic i niepoprawny hazardzista. De Merę próbował znaleźć sposób na
rozbicie banku w którymś z zasobnych europejskich kasyn i zwrócił się do
swego sławnego przyjaciela o pomoc w opracowaniu strategii, które
dawałyby wysokie prawdopodobieństwo wygranej. W owych czasach nie
znano metod obliczania prawdopodobieństw złożonych zdarzeń. Wiedziano
wprawdzie, że prawdopodobieństwo wyrzucenia szóstki w rzucie kostką
wynosi 1/6, lecz nikt nie wiedział, jakie jest prawdopodobieństwo
wyrzucenia przynajmniej dwóch szóstek w 24 rzutach parą kości, co w
owych czasach było dosyć popularną grą w europejskich kasynach. Inna
popularna gra polegała na próbie wyrzucenia przynajmniej jednej szóstki w
czterech rzutach jedną kostką, i także w tej grze nikt nie znał szans
wygranej.
De Merę sądził, że prawdopodobieństwo wygranej w pierwszej z wyżej
wymienionych gier wynosi 24 ‘P (1/36) = 2/3, natomiast w drugiej: 4 ‘P
(1/6) = 2/3, czyli że obie gry dają takie same szanse wygranej. Jednak
doświadczenie pokazywało, że gracze częściej wygrywają w drugiej grze,
czyli że prawdopodobieństwo wyrzucenia przynajmniej jednej szóstki w
czterech rzutach kostką jest większe niż prawdopodobieństwo wyrzucenia
przynajmniej dwóch szóstek w 24 rzutach parą kości. Ta pozorna
sprzeczność stała się znana jako paradoks Kawalera de Merego. Przyczyną
paradoksu był fakt, że de Merę nie wiedział, jak obliczać
prawdopodobieństwa tych złożonych zdarzeń. Prawdopodobieństwo
przynajmniej jednej szóstki w czterech rzutach kostką nie jest równe
pomnożonemu przez cztery prawdopodobieństwu wyrzucenia szóstki w
jednym rzucie kostką. Potrzebna jest tutaj reguła obliczania łącznego
prawdopodobieństwa sumy czterech zdarzeń: 1 szóstka w 4 rzutach, 2
szóstki w 4 rzutach, 3 szóstki w 4 rzutach oraz 4 szóstki w 4 rzutach
De Merę zjawił się w końcu u Pascala z pytaniem, dlaczego gracze
częściej wygrywają w drugiej grze niż w pierwszej. Pascal szybko zdał
sobie sprawę, że bywalcy kasyn nie umieją obliczać prawdopodobieństw
zdarzeń złożonych. Przez pewien czas analizował ten problem i dyskutował
o nim z innym matematykiem, Pierre'em de Fermatem (1601-1665), tym
samym, który sformułował wielkie twierdzenie Fermata. Pascal i Fermat
doszli do wniosku, że prawdopodobieństwo wygranej w pierwszej grze
wynosi 49,1%, natomiast w drugiej jest ono większe od 50% – wynosi
33
Stosując logikę de Merego. doszlibyśmy do wniosku, że prawdopodobieństwo przynajmniej
jednego orła w dwóch rzutach monetą powinno wynosić2
f
P (1/2) - 1, co jest oczywistą nieprawdą.
155
51,8%, Dyskusja między Pascalem i Fermatem doprowadza do
sformułowania podstaw nowoczesnej teorii prawdopodobieństwa
. W jaki
sposób dwaj matematycy obliczyli te prawdopodobieństwa i jak wygląda
reguła znajdowania prawdopodobieństwa sumy kilku zdarzeń, którą
wyprowadzili?
Zdarzenia, które nie wpływają wzajemnie na swoje
prawdopodobieństwa, zwane są zdarzeniami nienależnymi. Wynik rzutu
kostką jest niezależny od wyniku innego rzutu kostką. Podobnie, gdy
rzucimy dwiema kostkami, ich wyniki są wzajemnie niezależne. Dla
zdarzeń niezależnych możemy pomnożyć ich prawdopodobieństwa, aby
otrzymać prawdopodobieństwo ujścia obu zdarzeń. Inna właściwość polega
na tym, że prawdopodobieństwo zdarzenia dopełniającego jest równe jeden
minus prawdopodobieństwo zdarzenia danego (jeżeli prawdopodobieństwo
deszczu wynosi 0,3, to prawdopodobieństwo, że nie będzie padało, wynosi
1 -0,3 = 0,7). Pascal i Fermat wykorzystali te fakty do wyprowadzenia
reguły obliczania prawdopodobieństwa sumy niezależnych zdarzeń.
Rozumowali oni w taki oto sposób: jeżeli przynajmniej jedno spośród
szeregu zdarzeń zachodzi, to nieprawdą jest, że wszystkie one nie
zachodzą. Aby więc otrzymać prawdopodobieństwo zajścia przynajmniej
jednego zdarzenia, trzeba odjąć od jedności prawdopodobieństwo, że zajdą
wszystkie zdarzenia dopełniające. To ostatnie – dzięki niezależności
zdarzeń dopełniających – jest równe iloczynowi ich prawdopodobieństw.
W rezultacie otrzymali następującą regułę:
P(przynajmniej jedno z A, B,C...) = 1 - P(nie A) ‘P P(nie B) ‘P P(nie C)...
W przypadku pierwszej gry -– postawieniu na przynajmniej jedną
podwójną szóstkę w 24 rzutach dwiema kostkami – reguła sumy dla
niezależnych zdarzeń daje następujący wynik:
1 - (
35
ή36) ’P (
35
ή36) ’P (
35
ή36) ... (24 razy) = 1 - 0,509 = 0,491, czyli
34
Należy zwrócić uwagę, że uznając zasługi siedemnasto- i osiemnastowiecznych matematyków w
sformułowaniu podstaw współczesnej teorii prawdopodobieństwa, musimy pamiętać, iż pewne
pojęcia probabilistyczne były znane w licznych kulturach wiele wieków wcześniej. Hinduski epos,
Mahabharata, napisany przed rokiem 400 n.e., opisuje półboga, patrona hazardu, który potrafił
obliczać proste prawdopodobieństwa, a nawet rozumiał niektóre koncepcje szacowania
statystycznego. W Talmudzie, spisanym mniej więcej w tym samym czasie, rabini dyskutują o
prawdopodobieństwach łamania praw koszerności, ojcostwa i wierności małżeńskiej, opierając
swoje kalkulacje na prostych regułach, które przypisują równe szanse dwóm jednakowo
prawdopodobnym zdarzeniom (por. N. Rabinovitch, Pmb(fbility in the Talmud, „Biometrika”, t. 56,
nr 2, 1969, s. 437-441).
156
49,1%
Dla drugiej gry Pascal i Fermat otrzymali wynik:
1 - (
5
ή6) ‘P (
5
ή6) ‘P (
5
ή6) ‘P (
5
ή6) = 1 - 0,482 = 0,518, czyli 51,8%.
Zastosowanie reguły do prawdopodobieństwa istnienia życia
pozaziemskiego
Reguła dla sumy zdarzeń niezależnych pozwala nam obliczyć
prawdopodobieństwo, że istnieje przynajmniej jedna obdarzona życiem
planeta poza Ziemią. Zacznijmy od pewnych rozsądnych (i minimalnych,
czyli mniej korzystnych dla naszej konkluzji) założeń o podstawowych
prawdopodobieństwach istnienia życia na planecie okrążającej jakąkolwiek
gwiazdę oprócz Słońca.
Załóżmy, że liczba gwiazd mających planety, f
p
w równaniu Drake'a,
wynosi 0,5. Następnie wykorzystamy fakt, że spośród dziewięciu
dotychczas odkrytych pozasłonecznych planet, jedna znajduje się w
zamieszkiwalnej strefie swojej gwiazdy, co dodatkowo znajduje
potwierdzenie w naszym Układzie Słonecznym (w którym Ziemia znajduje
się w strefie zamieszkiwalnej, a pozostałe osiem planet prawdopodobnie
nie). Przyjmiemy zatem, że parametr ten wynosi 1/9. Teraz pora na
najtrudniejszy problem, oszacowanie dolnej granicy faktycznego
prawdopodobieństwa życia: Jaka jest szansa, że DNA powstanie i utrzyma
się w formach ożywionych na planecie krążącej w zamieszkiwalnej strefie
swojej gwiazdy? Musimy wziąć pod uwagę, że DNA stanowi niezwykle
złożoną cząsteczkę, dla której szansa samoistnego powstania jest bardzo
mała, a życie jest niepewne, ponieważ wszechświat jest niebezpiecznym
miejscem. Załóżmy więc, że prawdopodobieństwo pojawienia się życia na
pojedynczej planecie, znajdującej się w zamieszkiwalnej strefie swojej
gwiazdy, jest ekstremalnie, ekstremalnie małe: j e d n a s z a n s a na
b i l i o n . Mnożąc tę niezwykle małą liczbę przez uprzednio oszacowane
czynniki 0,5 i 1/9, otrzymujemy nasze ostateczne założenie, że
prawdopodobieństwo istnienia życia wokół dowolnej pojedynczej gwiazdy
wynosi nieco więcej niż 0,00000000000005.
Nasza Galaktyka liczy około 300 miliardów gwiazd. Załóżmy, że we
wszechświecie istnieje około 100 miliardów galaktyk. Wstawiając
wszystkie te oszacowania do reguły obliczania prawdopodobieństw dla
157
sumy niezależnych zdarzeń, otrzymujemy:
P(życie na orbicie przynajmniej jednej innej
niż Słońce gwiazdy w znanym nam wszechświecie) =
= 1 - (0,99999999999995)
30 000 000 000 000 000 000 000
Liczba powyższa nie różni się od jedności na dowolnym poziomie
dziesiętnej dokładności dowolnego komputera
. Praktycznie rzecz biorąc,
jest ona równa 1,czyli 100%.
Nawet jeżeli założymy, że w naszej Galaktyce znajduje się tylko 100
miliardów gwiazd i że we wszechświecie istnieje tylko miliard galaktyk, to
odpowiedź nadal okazuje się nieodróżnialna od 1. Tak czy inaczej, wynik
jest nieodparty – prawdopodobieństwo istnienia życia poza Ziemią nie
zależy bardzo silnie od liczby gwiazd we wszechświecie, przynajmniej
dopóty, dopóki liczba ta jest bardzo duża, co wydaje się niepodważalnym
faktem astronomicznym. Nowe, uzyskane dzięki Kosmicznemu
Teleskopowi Hubble'a wyniki wskazujące na istnienie wielu miliardów
galaktyk podtrzymują hipotezę istnienia wielu możliwych miejsc, gdzie
życie mogłoby się rozwinąć. W naszym modelu końcowy wynik nie zależy
również od założeń na temat liczby gwiazd obdarzonych planetami oraz
liczby planet w strefie zamieszki walnej. Użyliśmy najlepszych dostępnych
oszacowań, lecz niższe parametry również prowadzą do tej samej
odpowiedzi – liczby zbliżonej do 1. Prawdopodobieństwo staje się w
istocie pewnością.
Z matematycznego punktu widzenia problem sprowadza się do faktu, że
prawdopodobieństwo życia na pojedynczej planecie może wprawdzie być
niezwykle małe, ale złożone prawdopodobieństwo, że życie istnieje na
przynajmniej jednej pozaziemskiej planecie, systematycznie wzrasta,
ponieważ tak wiele miejsc – tak wiele gwiazd – wchodzi w grę. W
przypadku reguły dla sumy niezależnych zdarzeń zawsze zachodzi tego
rodzaju zbieżność wraz ze wzrostem liczby prób. Jeżeli dasz czemuś
dostatecznie wiele szans, to w końcu się zdarzy.
Na koniec jeszcze jedna uwaga. Nie znamy rozmiarów wszechświata.
Niektórzy sądzą, że jest on nieskończony. Gdyby istniało nieskończenie
wiele gwiazd, to odpowiedź na nasze pytanie brzmiałaby, że
35
Uzyskany przez autora wynik różni się od jedności o nieco mniej niż 10
-700 000 000
czyli o ułamek
dziesiętny, w którym po przecinku występuje ponad siedemset milionów zer – zanim pojawią się
cyfry znaczące.
158
prawdopodobieństwo istnienia życia pozaziemskiego jest identycznie
równe 1 (już nie jest to liczba nieodróżnialna od 1, lecz równa 1),
niezależnie od tego, jak bardzo małe byłoby prawdopodobieństwo istnienia
życia na pojedynczej planecie – jeśli tylko nie jest ono dokładnie równe
zeru (a to, że nie jest równe zeru wiemy, ponieważ sami istniejemy).
159
Epilog
W styczniu 1998 roku Michel Mayor udał się do Chile, do nowo
zbudowanego obserwatorium w chilijskich Andach. Kilka miesięcy
wcześniej Paul Butler, łowca planet z San Francisco State University,
poleciał do Australii. Obaj poszukują obecnie pozasłonecznych planet na
niebie półkuli południowej, mając nadzieję znaleźć planetę podobną do
Ziemi i krążącą wokół podobnej do Słońca gwiazdy. Być może któregoś
dnia na planecie takiej zobaczymy życie.
Prawdopodobieństwo istnienia życia pozaziemskiego jest równe 1 lub
liczbie, która w zasadzie jest równa 1. Nie jesteśmy sami. Mimo że nie
widzieliśmy jeszcze nikogo spoza naszej planety, a odległości do gwiazd są
tak odstraszająco olbrzymie, któregoś dnia być może nastąpi kontakt.
Odważne, przenikliwe jednostki w naszej historii potrafiły przeciwstawić
się starym, utartym opiniom. Galileusz twierdził, że Ziemia nie jest
środkiem wszechświata i został ukarany przez inkwizycję. Giordano Bruno,
który w szesnastym wieku nie miał dostępu do astronomicznych obserwacji
pozasłonecznych planet ani nawet dowodów, że gwiazdy rzeczywiście są
odległymi Słońcami, trwał przy swoim poglądzie o wielości światów i
zapłacił zań życiem. Nawet w naszych czasach historie takie jak ta o
śmierci Marinatosa dowodzą, że w świecie opornym na nowe idee
wysuwanie daleko idących naukowych hipotez nadal może być ryzykowne.
Stojąc na plaży na wyspie Aruba, spoglądałem na majestatyczne nocne
niebo nad południowym horyzontem. Jasny Canopus, drogowskaz wielu
pokoleń marynarzy, powoli zachodził po mojej prawej ręce. Wprost nad
głową widziałem trzy wielkie gwiazdozbiory składające się na statek
Jazona, „Argo”. Nietrudno wyobrazić sobie, jak żegluje po Morzu
Czarnym w poszukiwaniu złotego runa. Dalej na lewo majaczył nad
horyzontem podobny do latawca Krzyż Południa, a jeszcze dalej
wschodziła Alfa Centauri, nasz najbliższy sąsiad. Czy wokół którejś z tych
gwiazd krąży obdarzona życiem planeta?
160
Bibliografia
Aczel A.D., Statistics: Concepts and Applications. Burr Ridge, 111.: Ir-win/McGraw-Hill, 1993.
Boyer C, A History of Mathematics. New York: Wiley, 1968.
Capra F., The Web of Life. New York: Anchor, 1996.
Colata G,, Clone. New York: Morrow, 1998.
Crosswell K., Planet Quest. New York: Free Press, 1997.
Crowe M, The Extraterrestrial Life Debatę. New York: Cambridge University Press, 1988.
Dehaene S., The Number Sense. Oxford: Oxford University Press, 1997.
Drake F., Sobel D., Is Anyone Out There? New York: Delacorte, 1992.
Encrenaz T., The Solar System. New York: Springer-Verlag, 1990.
Freedman D. i in., Statistics. New York: Norton, 1990.
Gehrels T. (red.), Asteroids. Tucson: University of Arizona Press, 1979.
Goldsmith D., Worlds Unnumbered. Sausalito, Calif.: University Science Books, 1997.
Gould S.J., Ever Since Darwin. New York: Norton, 1977.
Hoskin M. (red.), The Illustrated History of Astronomy. New York: Cambridge University Press, 1997.
Llinas R.R. (red.), The Workings of the Brain. New York: Freeman, 1990.
McDonough T., The Search for Extraterrestrial Intelligence. New York: Wiley, 1987.
Murray B. i in., Earthlike Planets. New York: Freeman, 1981.
Pasachoff J.M., Astronomy: From the Earth to the Universe, wyd. 5. Ft. Worth: Saunders, 1998.
Pauling L., General Chemistry, New York: Dover, 1988.
Sagan C. (red.), Communications with Extraterrestrial Intelligence. Cambridge, Mass.: MIT Press,
1973.
Shklovskii I.S., Sagan C, Intelligent Life in the Universe. San Francisco: Holden-Day, 1966.
Thomas L., The Lives of a Celi. New York: Penguin, 1973.
Watson J.D., The Double Helix. New York: Penguin, 1968.
161