Amir D. Aczel
Prawdopodobieństwo = 1
Dlaczego we wszechświecie musi istnieć inteligentne życie
Przekład:
Jacek Bieroń
Dla Debry
Wstęp
Wieczorem 26 lutego 1998 roku stałem z grupą astronomów na plaży na wyspie Aruba. Wcześniej tego samego dnia, między 14.11 a 14.14, obserwowaliśmy całkowite zaćmienie Słońca i nadal byliśmy niezwykle podnieceni tym budzącym strach i podziw zjawiskiem. Patrząc przez teleskop na gwiazdy, galaktyki i mgławicę, którą pozostawiła po sobie gigantyczna supernowa zaobserwowana tysiąc lat temu przez Chińczyków, z ożywieniem omawialiśmy różne tajemnicze obiekty nocnego nieba. W pewnej chwili podeszła do teleskopu para zaciekawionych plażowiczów i poprosiła Daryla, żeby pozwolił im spojrzeć na gwiazdy. Daryl zapytał, czy woleliby zobaczyć układ podwójny, mgławicę czy może piękną gromadę pięćdziesięciu błyszczących czerwonych i niebieskich gwiazd zwaną Jewel Box. „Nie, nie - usłyszał w odpowiedzi. - Czy mógłby nam pan pokazać jakieś planety... na których istnieje życie?”
Wydaje się, że u progu trzeciego tysiąclecia ludzkość odczuwa niezwykle silną potrzebę poszukiwania życia poza Ziemią. Naiwna chęć zobaczenia przez teleskop zamieszkanych planet ilustruje jedynie to, o czym mówi się w radiu i telewizji, gazetach i pismach naukowych, nie wspominając już o doniesieniach NASA na temat odkryć sondy „Galileo”, która znalazła dowody wskazujące, że pod lodową pokrywą Europy, księżyca Jowisza, być może znajduje się woda. Czy to możliwe, że w końcu jesteśmy bliscy odkrycia życia pozaziemskiego? Wszystkie te spekulacje były dla mnie fascynującym tematem. Skończyłem wtedy rękopis książki o szansach istnienia życia na jakiejś odległej planecie obiegającej niezbyt różniącą się od naszego Słońca gwiazdę. Będąc wciąż pod wrażeniem zniknięcia Słońca i jego niemal magicznego pojawienia się w chwilę później po drugiej stronie Księżyca, stojąc na plaży i obserwując usiane gwiazdami zimowe niebo, wspominałem, jak to wszystko się zaczęło.
Tuż przed Labor Day w 1997 zadzwoniłem do Jane Isay, redaktora w wydawnictwie Harcourt Brace w Nowym Jorku, aby zapytać, czy będą zainteresowani wydaniem mojej następnej książki. Miałem mnóstwo pomysłów, lecz Jane żaden z nich nie przypadł do gustu. Omawialiśmy wiele tematów, zahaczając o matematykę i teorię prawdopodobieństwa, aż w końcu Jane zapytała: „Czy nie chciałbyś napisać książki o prawdopodobieństwie istnienia życia w kosmosie?”, a następnie zaczęła mi wyjaśniać, że Carl Sagan zawsze chciał napisać taką książkę, lecz z jakiegoś powodu nigdy się do tego nie zabrał. Pamiętam, że uznałem to za „ambitne przedsięwzięcie”, na co Jane powiedziała: „Spróbuj”. Pomysł mnie zaintrygował.
Przez długi czas, zbierając materiały do tej książki, byłem jednak nastawiony sceptycznie. Statystycy z natury są sceptyczni - chcąc coś udowodnić, muszą odrzucić pewną „hipotezę zerową”, gdy dowody przeciw niej są dostatecznie silne. Zamiast wierzyć, statystycy uczą się nie wierzyć niczemu. Starają się obalić jakieś stwierdzenie, aby udowodnić jego przeciwieństwo. Ale życie w kosmosie? - to nie byle co. Podchodząc do tego zagadnienia z punktu widzenia statystyka, musiałbym obalić twierdzenie, że życie nie może istnieć poza Ziemią. To nie wydawało się łatwym zadaniem, a gdy rozważałem wszystkie wchodzące w grę dziedziny wiedzy - chemię, genetykę, biologię, geologię, fizykę, astronomię - stawało się jeszcze trudniejsze.
I wtedy, niemal w ostatniej chwili, zwróciłem uwagę na dziedzinę, którą znam najlepiej: teorię prawdopodobieństwa. Idea prawdopodobieństwa nie stanowi bynajmniej koncepcji intuicyjnej. Ludziom często się wydaje, że znają odpowiedź, a tymczasem matematyka dowodzi, że prawda leży gdzie indziej. Matematyka, która jest kluczem do teorii prawdopodobieństwa, zawsze wygrywa, niekiedy wbrew naszej intuicji. A matematyka i teoria prawdopodobieństwa wyraźnie wskazują w jednym kierunku: prawdopodobieństwo istnienia życia w kosmosie wynosi jeden, tak jak sądził Carl Sagan. Niniejsza książka poprowadzi nas w podróż po odkryciach, które doprowadziły mnie do tego wniosku.
Wiele osób pomogło mi w zbieraniu materiałów. Ponieważ nie mogę wymienić wszystkich, wspomnę tylko te, którym zawdzięczam najwięcej. Dziękuję wydawcy, Jane Isay, za pomysł, zachętę, przyjazne poparcie i zaufanie, które pokładała we mnie przez cały ten trudny okres. Dziękuję Lorie Stoopack z Harcourt Brace za redakcję i pomoc przy rękopisie. Dziękuję Jennifer Mueller, Jennifer Holiday, Dori Weintraub, Dave'owi Nelsonowi i Mariannie Lee z Harcourt Brace. Dziękuję Michelowi Mayorowi z obserwatorium w Genewie, wielkiemu astronomowi i wspaniałemu człowiekowi, za jego bezinteresowną pomoc i intrygujące rozmowy. Dziękuję Philipowi Morrisonowi z MIT i Frankowi Drake'owi z University of California w Santa Cruz, pomysłodawcy projektu SETI, za pouczające wywiady. Za komentarze i wskazówki dziękuję Robertowi Naeye'owi, współwydawcy czasopisma „Astronomy” - gorąco je polecam każdemu, kto jest zainteresowany tym tematem. Na koniec dziękuję mojej żonie, Debrze, za sugestie dotyczące rękopisu.
Rozdział 1
PARADOKS FERMIEGO I RÓWNANIE DRAKE'A
Są nieskończone światy, podobne i niepodobne do naszego świata. Atomy bowiem, których liczba jest nieskończona, zrodzone są w odległej przestrzeni. Nie zostały one zużyte ani na jeden świat, ani na skończoną liczbę światów, ani na wszystkie podobne światy, ani nawet na te, które są niepodobne do tamtych. Nie ma zatem przeszkód, aby liczba światów była nieskończona. Musimy uznać, że we wszystkich światach istnieją istoty żywe, rośliny i inne rzeczy, które widzimy w tym świecie.
Słowa te napisał Epikur (341-270 p.n.e.) dwa tysiące trzysta lat temu. Jego poglądy na kwestię życia pozaziemskiego opierały się na ideach Demokryta i Leukipposa, którzy żyli dwieście lat przed nim. Epikur sformułował te przemyślenia w „Liście do Herodota”.
Dla starożytnych Greków słowo „światy” nie odnosiło się do planet krążących wokół innych gwiazd. Gwiazdy były uważane za część niebieskiego firmamentu i wraz z nim krążyły wokół Ziemi w odległości nie większej niż planety naszego Układu Słonecznego. „Inne światy” uważane były za repliki Ziemi, lecz obserwując niebo, nie można było ich zobaczyć.
Koncepcje Epikura na temat życia we wszechświecie rozwijał żyjący w pierwszym wieku przed naszą erą rzymski poeta Lukrecjusz (ok. 99-55 p.n.e.). W poemacie O naturze wszechrzeczy napisał on:
Przeto niepodobieństwo, by w pustce tej na przestrzał
(Która nieskończonością tchnie dookoła ziemi,
Gdzie w liczbie nieskończonej ciałka drogami swemi
Biegną pędzone ruchu odwiecznem pobudzeniem)
Jeden świat był stworzony i jedno niebo nad nim [...].
Idee te nie były jednak powszechnie przyjęte w czasach starożytnych. Platon (428-348 p.n.e.) w Timajosie mówi, że „powstał ten jeden świat, jednorodzony i taki zostanie dalej”. Arystoteles (384--322 p.n.e.), którego poglądy wywarły największy wpływ na zachodnią kulturę i cywilizację, wiele pisał o wyjątkowości Ziemi. To właśnie filozofia Arystotelesa - której powszechnie nauczano na uniwersytetach i która stanowiła podstawę doktryny religijnej dominującej w Europie aż do siedemnastego wieku - przeszkodziła idei wielu światów we wcześniejszym zadomowieniu się w myśli europejskiej. Arystoteles stwierdził, że Ziemia jest środkiem wszechświata, a Słońce, doskonały jasny krąg na niebie, oraz Księżyc, kolejny idealny krąg, krążą wokół nieruchomej Ziemi wraz ze wszystkimi gwiazdami na firmamencie. Teoria doskonałości przestrzeni oraz centralnej pozycji Ziemi we wszechświecie stanowiły główną przeszkodę na drodze do uznania idei Kopernika i Galileusza, a także włoskiego filozofa Giordana Bruna, który pod koniec szesnastego stulecia wysunął koncepcję wielości, a nawet nieskończonej liczby światów.
Sto lat później Wolter napisał opowieść Micromegas (1752), w której przedstawił pozaziemskie życie. Jej bohaterem jest Micromegas, wysoki na 120 000 stóp mieszkaniec planety obiegającej Syriusza. Micromegas studiował w jezuickim college'u na swojej planecie, samodzielnie wyprowadził wszystkie geometryczne twierdzenia Euklidesa, a następnie wyruszył w podróż do innych światów. Wyposażony przez naturę w tysiąc zmysłów Micromegas odwiedził między innymi Saturna i Ziemię. Życie na Saturnie nie przypadło mu do gustu, ponieważ mieszkańcy tej planety obdarzeni byli zaledwie siedemdziesięcioma dwoma zmysłami, co czyniło komunikowanie się z nimi niezbyt atrakcyjnym zajęciem.
Dyskusja o możliwości istnienia życia pozaziemskiego osiągnęła szczyt w połowie dziewiętnastego stulecia. W 1853 roku brytyjski filozof, William Whewell opublikował anonimowo książkę zatytułowaną Ofthe Plurality of Worlds: An Essay [O wielości światów: esej]. Kwestie poruszane w ciągu trwającej dekadę dyskusji w znacznym stopniu przypominają zaawansowane i szczegółowe argumenty, które obecnie wysuwa się na poparcie twierdzenia o istnieniu życia pozaziemskiego, łącznie z możliwością istnienia planet krążących wokół przypominających nasze Słońce gwiazd. Odkrycie podobnych do Algola gwiazd zmiennych, a także gwiazd jaśniejszych i ciemniejszych od Słońca, doprowadziło niektórych uczestników tej debaty do konkluzji, że być może Ziemia stanowi we wszechświecie wyjątek i życie nie istnieje nigdzie indziej. Przekonanie to przetrwało aż do naszego stulecia - również z tego powodu, że astronomowie nie potrafili zaobserwować planet poza Układem Słonecznym. Najsilniejszy argument przeciwko istnieniu życia pozaziemskiego wysunął w połowie dwudziestego wieku jeden z najwybitniejszych uczonych naszych czasów.
Paradoks Fermiego
W 1950 roku fizyk Enrico Fermi zadał hipotezie o istnieniu życia poza Ziemią potężny cios prostym pytaniem: „Gdzież oni są?” Obecnie pytanie to stanowi treść tak zwanego paradoksu Fermiego. Zgodnie z jego logiką, gdyby istniały inne cywilizacje, to - zważywszy na fakt, że wszechświat jest tak bardzo stary i tak ogromny - z pewnością niektóre z nich byłyby znacznie bardziej zaawansowane niż nasza i któraś z nich już dawno skolonizowałaby Galaktykę. Biorąc pod uwagę nasze własne doświadczenia, obcy zdominowaliby nas i wykorzystywaliby nasze bogactwa naturalne dla własnych potrzeb, podobnie jak przez wieki czyniły to imperia kolonialne na Ziemi. Gdzież są ci obcy w liczącym 14 miliardów lat wszechświecie i w składającej się z 300 miliardów gwiazd Galaktyce? Skoro ich nie widzimy, to paradoks Fermiego prowadzi nas do konkluzji, że nie istnieją.
Argument Fermiego przekonał niektórych naukowców. Większość astronomów zajmowała się badaniami nad fizyczną strukturą wszechświata: jak powstają gwiazdy, jak giną, jak rozwijają się i ewoluują galaktyki, czy istnieją oznaki, że wszechświat zawsze będzie się rozszerzał, co sugerują obecne obserwacje odległych galaktyk. Zajmowanie się problemem życia pozaziemskiego stało się niemodne, a nawet mogło zaszkodzić karierze naukowej. Przeważająca większość astronomów - zwłaszcza ci, którzy nie mieli stałej pracy lub ugruntowanej pozycji akademickiej - nie była zainteresowana poszukiwaniem życia, ani nawet warunków, jakie gdzie indziej we wszechświecie mogłyby sprzyjać powstaniu życia. Istniały jednak wyjątki.
Frank Drake był młodym doktorantem astronomii na Harvard University. W 1957 roku pracował nad swoją dysertacją, obserwując gwiazdy przez teleskop w obserwatorium Oak Ridge. W owym czasie Drake nie słyszał o paradoksie Fermiego, a niedawno zwierzył mi się, że nawet gdyby słyszał, to nie zwróciłby nań żadnej uwagi. Frank Drake badał Siedem Sióstr.
Wciśnięta między głowę i wielkie rogi byka, w gwiazdozbiorze Byka leży gromada gwiazd zwanych Plejadami. Służą one jako punkt odniesienia dla zwrotnika Raka, który przebiega w odległości jednego stopnia od nich na północnej półkuli nieba. Liczba Plejad zmienia się od sześciu do dziewięciu w zależności od tego, które gwiazdy się do nich zalicza, lecz znane są one jako Siedem Sióstr. Według greckiej tradycji były to córki Atlasa i Plejony: Alkione, Elektra, Maja, Merope, Tajgete, Keleno i Asterope. Napastował je wielki łowca Orion, reprezentowany przez sąsiadujący z Plejadami gwiazdozbiór, na zachód od Byka. Gdy bogowie usłyszeli krzyki przestraszonych dziewcząt, udzielili im ochrony przed prześladowcą, zamieniając je w gołębice i umieszczając na niebie, gdzie opłakują stratę jednej z sióstr. Naukowcy sądzą, że jeszcze jedna jasna gwiazda świeciła niegdyś w obszarze Plejad, lecz obecnie jest ona niewidoczna. Plejady są młodymi gwiazdami. Powstały z dużego obłoku pyłu i gazu, którego resztki nadal można zobaczyć przez teleskop jako otaczającą je mgiełkę. Alkione jest najjaśniejszą z Plejad, natomiast najsłabsza, Asterope, jest ledwo widoczna gołym okiem. Za pomocą lornetki można zobaczyć kilka tuzinów nowych gwiazd powstających w tym obszarze, natomiast używając teleskopu - kilkaset.
W ramach swojej pracy doktorskiej 27-letni Frank Drake badał rozpowszechnienie wodoru w gromadzie Plejad, mając nadzieję na poznanie procesu powstawania nowych gwiazd. „Widmo promieniowania Plejad jest bardzo charakterystyczne - wyjaśnia Drake - z łatwymi do rozpoznania liniami wodoru”. Na początku 1957 roku Drake obserwował Plejady przez teleskop oraz wykonywał rozmaite obliczenia, które służą astronomom do wyznaczenia składu chemicznego gwiazd. Starał się w ten sposób ocenić, w jakiej części te młode gwiazdy zbudowane są z wodoru. W ciągu kilku tygodni obserwacji niezmiennie obserwował taki sam rozkład widma promieniowania.
Pewnej zimnej lutowej nocy na ekranie jego radioteleskopu, wśród stałych linii promieniowania Plejad pojawił się nowy sygnał. Zaskoczony Drake zdał sobie sprawę, że źródłem tego sygnału nie mogło być żadne naturalne zjawisko. Czy jakaś cywilizacja obecna w gwiazdozbiorze Plejad, lub jeszcze dalej poza nimi, wysyła do nas sygnał? Czy jest on pierwszym człowiekiem w historii - otoczonym przez instrumenty samotnikiem - który odbiera ten sygnał?
Minęło pół godziny i sygnał nadal widniał na ekranie monitora. W pewnej chwili Drake uprzytomnił sobie, że może sprawdzić, co się stanie, gdy zmieni kierunek anteny. Czy sygnał zniknie? Bardzo powoli przekręcił gałkę na tablicy kontrolnej radioteleskopu i usłyszał odgłos silnika poruszającego dysk anteny. Gdy antena odwróciła się od kierunku Siedmiu Sióstr, sygnał nie zniknął. Drake zrozumiał, że oznacza to, iż zauważony przez niego sygnał nie jest wiadomością od obcych. Nie był pewien, czy powinien odczuwać rozczarowanie czy ulgę. Sygnał musiał pochodzić z Ziemi, gdyż w przeciwnym wypadku jego natężenie zależałoby od kierunku i powinien był zniknąć, gdy zmienił się kierunek anteny. Drake poszedł do domu, aby się wyspać.
Gdy obudził się następnego dnia rano, zdał sobie sprawę, iż doświadczenie poprzedniej nocy uświadomiło mu, że gdzieś w przestrzeni może istnieć technologicznie zaawansowana cywilizacja, która nadaje sygnały w naszym kierunku. Czy usłyszymy ich wołanie? Czy jest możliwe, że rozumne istoty wysyłają do nas wiadomość, a my nie słyszymy ich głosu? W miarę upływu czasu zagadnienie to stało się jego obsesją. Z każdym dniem Drake nabierał coraz mocniejszego przekonania, że musimy jako cywilizacja, uczynić wszystko, co w naszej mocy, aby nasłuchiwać sygnałów z przestrzeni. Od czego jednak powinniśmy zacząć? Jaki jest logiczny punkt startu w tych kosmicznych poszukiwaniach? Drake nieustannie rozważał te kwestie. Tymczasem dokończył dysertację i uzyskał doktorat Harvardu, po czym przeniósł się do Green Bank w Wirginii Zachodniej, gdzie nadal znajdują się duże radioteleskopy, używane przez kilka grup astronomów.
Pewnego dnia tego samego roku młody profesor astronomii na Cornell University słuchał muzyki kameralnej w sali koncertowej na kampusie, lecz jego umysł błądził w przestrzeni kosmicznej. Philip Morrison kilka lat wcześniej uzyskał doktorat na University of California w Berkeley - na podstawie dysertacji z elektrodynamiki kwantowej napisanej pod kierunkiem wielkiego amerykańskiego fizyka, Roberta Oppenheimera. Słuchając muzyki, Morrison doszedł do tego samego wniosku co Drake: pozaziemskie istoty mogą wysyłać do nas wiadomości, a my powinniśmy ze wszystkich sił starać się nasłuchiwać ich sygnałów. Od czego jednak powinniśmy zacząć? Morrison i Drake, zupełnie niezależnie, stwierdzili, że należy skanować mikrofalo we pasmo widma elektromagnetycznego. Szanse usłyszenia sygnałów od innych cywilizacji będą największe w tym paśmie. Obaj naukowcy uważali również, że m u s i m y nasłuchiwać, niezależnie od tego, jak bardzo mało prawdopodobne wydaje się usłyszenie czegokolwiek. W 1959 roku Morrison napisał, razem z Giuseppe Cocconim, artykuł na ten temat do prestiżowego brytyjskiego czasopisma „Naturę”. Artykuł sprawiał wrażenie fantastyki naukowej, lecz ukazał się krótko po tym, jak Rosjanie wysłali w kosmos „Sputnik” i wielka rywalizacja supermocarstw przeniosła się z Ziemi w przestrzeń kosmiczną.
W swoim artykule Cocconi i Morrison wysunęli sugestię, że cywilizacja zamieszkująca planetę obiegającą jakąś odległą gwiazdę mogła już dawno dojść do wniosku, że na jednej z planet naszego Słońca mogło się rozwinąć inteligentne życie. Taka pozaziemska cywilizacja mogłaby cierpliwie wysyłać w naszą stronę sygnały radiowe, spodziewając się, że odpowiemy na nie, gdy tylko nasza technologia umożliwi nam odebranie ich wiadomości. Wybór częstotliwości, na której należy nasłuchiwać, Cocconi i Morrison poparli bardzo sprytnym argumentem. Wodór jest najbardziej rozpowszechnionym pierwiastkiem we wszechświecie, a wzbudzone atomy wodoru promieniują między innymi na częstości 1420 megaherców (1420 milionów cykli na sekundę). Częstotliwość ta należy do pasma mikrofalowego, lecz jest oddalona od najbardziej „hałaśliwej” części widma mikrofalowego promieniowania tła. Autorzy argumentowali, że jest bardzo prawdopodobne, iż inteligentna cywilizacja użyje właśnie tej częstotliwości.
Green Bank jest odosobnionym kanionem w odludnym rejonie pasma Alleghenów. Stacje nadawcze radia i telewizji są w tym obszarze nieliczne oddalone od siebie, a więc zakłócenia z ich strony są mniejsze niż gdzie indziej. Nawet auta są tu nieliczne, a więc zakłócenia ze strony indukowanych przez świece zapłonowe fal elektromagnetycznych są słabsze. Wkrótce po przybyciu do Green Bank Frank Drake przekonał dyrektora ośrodka, żeby przydzielił mu czas obserwacyjny w celu poszukiwania pozaziemskich sygnałów.
W 1958 roku Drake rozpoczął obserwacje w ramach projektu OZMA, nazwanego tak na cześć władczyni czarodziejskiej krainy Oz. Początkowo na kilku częstotliwościach radiowych poszukiwał sygnałów z kierunku blisko położonych gwiazd. Najpierw wycelował antenę w Tau Ceti w gwiazdozbiorze Wieloryba. Nic nie usłyszał. Gdy Tau Ceti schowała się za horyzontem, Drake skierował antenę na inną bliską gwiazdę, Epsilon Eridani, położoną mniej więcej w połowie legendarnej rzeki Erydan, którą obrazuje gwiazdozbiór Erydan, leżący na zachód od Oriona.
Po kilku sekundach Drake usłyszał w słuchawkach dziwny dźwięk. Coś pulsowało z częstością osiem razy na sekundę. Mimo ogarniającego go podniecenia Drake uważnie studiował sygnał. Po chwili, równie nagle jak się pojawił, sygnał zniknął. Drake nigdy więcej go nie usłyszał. Kilka tygodni później okazało się, że w odludnym rejonie Alleghenów prowadzono tajne testy wojskowych urządzeń telekomunikacyjnych. Drake stwierdził więc, aczkolwiek nie miał na to dowodów, że mogły one być źródłem zarejestrowanego przezeń sygnału. Nasłuchiwał także w kierunku kilku innych gwiazd, lecz nie znalazł niczego interesującego - źródła wszystkich nie zidentyfikowanych sygnałów zostały ostatecznie zlokalizowane na Ziemi. Widmo promieniowania elektromagnetycznego jest jednak bardzo, bardzo szerokie. Czy szukał sygnałów na właściwej częstotliwości? Drake nie potrafił odpowiedzieć na to pytanie. Spośród wszystkich zakresów fal elektromagnetycznych mikrofale wydawały się najbardziej odpowiednie, lecz istnieje przecież tak wiele innych. Drake i jego współpracownicy doszli do takiego samego wniosku, jaki w swojej publikacji sformułowali Morrison i Cocconi. Zaczęli przeszukiwać jak największą liczbę kanałów w paśmie mikrofalowym, łącznie z częstością promieniowania wodoru, a także innych rozpowszechnionych we wszechświecie pierwiastków i cząsteczek.
Lata pięćdziesiąte i sześćdziesiąte stanowiły doskonały okres dla eksploracji kosmosu. Po początkowych sukcesach Stany Zjednoczone i Związek Radziecki zaczęły aktywnie rywalizować w podboju przestrzeni kosmicznej. W 1961 roku U.S. National Academy of Sciences [Narodowa Akademia Nauk Stanów Zjednoczony eh] sponsorowała w Green Bank konferencję, aby przedyskutować nowy kierunek badań kosmosu: poszukiwanie sygnałów obcych cywilizacji. Jedynym organizatorem konferencji był Frank Drake. Gdy tylko powierzono mu to zadanie, zaczął przygotowania, zdając sobie sprawę, że owocna, interesująca dyskusja może się przyczynić do zwiększenia funduszy projektu OZMA. Poszukiwanie obcych sygnałów wymaga ogromnych nakładów finansowych: na honoraria dla astronomów, na zakup komputerów do obróbki danych, na rozwój technologii, dzięki którym radioastronomowie mogliby skuteczniej przeszukiwać niezmierzone głębie wszechświata. Frank Drake wiedział, że powinien przygotować solidny program konferencji.
Równanie Drake'a
Program Drake'a składał się z pojedynczego równania, obecnie powszechnie znanego jako równanie Drake' a. Miało ono następującą postać:
N = Nx * fp * ne * fl * fi * fc * L
W równaniu tym N reprezentuje liczbę cywilizacji w Galaktyce, które w danej chwili są zdolne do komunikowania się z innymi cywilizacjami. Według Drake'a liczba ta zależy od siedmiu czynników, których iloczyn tworzy prawą stronę równania.
Czym są te tajemnicze czynniki pozwalające, zdaniem Franka Drake'a, poznać liczbę zaawansowanych cywilizacji w Galaktyce, z którymi możemy próbować się skomunikować?
Nx - liczba gwiazd w Galaktyce
Pierwszy czynnik po prawej stronie równania, Nx, jest liczbą gwiazd w Galaktyce. Według najnowszych oszacowań astronomów liczba gwiazd w Drodze Mlecznej wynosi około 300 miliardów. To olbrzymia liczba, a może się okazać, że jest ich jeszcze więcej. Należy przy tym pamiętać, że rozważamy tylko n a s z ą Galaktykę. Istnieje co najmniej 100 miliardów innych galaktyk.
„Oh, Be A Fine Guy/Girl, Kiss Me!”
Wyjdźmy nieco poza równanie Drake'a. To, czego potrzebujemy, to nie pierwsza lepsza gwiazda, lecz gwiazdy, które - sądząc na podstawie naszego własnego doświadczenia na Ziemi - mają szanse na podtrzymanie życia. Musimy brać pod uwagę gwiazdy, które są podobne do naszego Słońca. Wiemy obecnie, że Słońce jest stosunkowo rzadkim typem gwiazdy: tylko około 5% gwiazd w naszej Galaktyce jest podobne do Słońca. Gwiazdy ciągu głównego (zanim zapadną się i zginą, zamieniając się w białe karły, gwiazdy neutronowe lub czarne dziury.) pod względem jasności dzielą się na siedem kategorii: O, B, A, F, G, K i M. Studenci astronomii zapamiętują tę sekwencję dzięki zdaniu: „Oh, Be A Fine Guy/Girl, Kiss Me!” Słońce jest świecącą na żółto gwiazdą typu G. Gwiazdy typu O i B są gorące i świecą na niebiesko; A i F są białe, chłodniejsze niż O i B; K są pomarańczowe, a M czerwone - jedne i drugie wydzielają mniej ciepła i światła niż Słońce. Niebieskie i białe gorące gwiazdy typu O i F żyją stosunkowo krótko, od milionów do kilku miliardów lat, natomiast podobne do naszego Słońca gwiazdy typu G mogą istnieć 15 miliardów lat, a nawet więcej. Pomarańczowe i czerwone gwiazdy typu K i M, które mogą trwać nawet dłużej niż Słońce, produkują zbyt mało światła i ciepła. W poszukiwaniach życia pozaziemskiego najbardziej powinny nas zatem interesować gwiazdy typu G, podobne do Słońca. W równaniu Drake'a powinniśmy więc pomnożyć liczbę gwiazd w galaktyce przez 0,05, aby ograniczyć się do gwiazd typu G.
fp - Jaki procent gwiazd ma planety?
Kolejny czynnik w równaniu Drake'a jest równy ułamkowi gwiazd, które mają planety. Gdy zapytałem Drake'a, co sądzi o ekscytujących odkryciach planet krążących wokół przypominających Słońce gwiazd (historii tej jest poświęcony następny rozdział), odpowiedział:„Potwierdziły to, w co od dawna wierzyłem - że fp wynosi około 0,5”. Ocena ta opiera się na założeniu, że technologia wykrywania planet jest dosyć słaba. Obecnie odkrywa się wyłącznie nietypowe planety: olbrzymie gazowe giganty, takie jak Saturn i Jowisz, które - wbrew doświadczeniu z obserwacji naszego Układu Słonecznego - krążą bardzo blisko swoich planet. Skoro istnieją tak nietypowe planety, to co można powiedzieć o możliwości istnienia bardziej „normalnych” planet? Wszystko wydaje się wskazywać, że w kosmosie istnieje bardzo wiele planet!
Michel Mayor, odkrywca pierwszej pozaziemskiej planety, uważa, że współczynnik gwiazd mających planety wynosi 1,0. Oznaczałoby to, że wokół każdej gwiazdy krąży przynajmniej jedna planeta. Na jakiej podstawie można sformułować tak silne stwierdzenie? Mayor opiera swoją opinię na mechanizmie powstawania planet. Gwiazda rodzi się w wyniku zgęszczenia i połączenia chmur pyłu i gazu na skutek ich wzajemnego przyciągania grawitacyjnego. Gdy tworzy się duża bryła materii, w miarę zapadania się znacznie się rozgrzewa, co po pewnym czasie wyzwala reakcje jądrowe. Spalanie wodoru i jego zamiana w hel stanowi źródło światła gwiazdy, a także zapobiega jej dalszemu zapadaniu się. Jednak ta część materii, która nie zdążyła się zapaść, pozostaje w krążącym wokół gwiazdy dysku. W miarę koagulacji tej materii tworzą się obiekty zwane planetozymalami. Zderzając się ze sobą, formują one ostatecznie planety, które nadal krążą wokół gwiazdy w tym samym kierunku, co pierwotny dysk. Jeżeli rzeczywiście w taki sposób powstają planety, to musi ich być bardzo wiele, gdyż w przeciwnym wypadku cała kondensująca z pyłu i gazu materia musiałaby opaść na tworzącą się gwiazdę, nie pozostawiając niczego, z czego mógłby powstać dysk. Taka sytuacja jest bardzo mało prawdopodobna.
Czy życie może istnieć tylko na planecie, która krąży wokół gwiazdy? Badania Rudy'ego Schilda z Harvard-Smithsonian Center for Astrophysics wskazują, że w galaktykach mogą istnieć tryliony „włóczęgów” - nie związanych z żadną gwiazdą, swobodnie wędrujących w przestrzeni planet. Schild doszedł do tego kontrowersyjnego wniosku, stosując technikę zwaną mikroogniskowaniem grawitacyjny m. Z ogólnej teorii względności wynika, że ciężkie ciała zakrzywiają tor przebiegających w ich pobliżu promieni świetlnych. Gdy światło po drodze od jakiegoś odległego źródła do obserwatora przechodzi w pobliżu masywnego obiektu, może zostać zogniskowane przez pole grawitacyjne. Schild zauważył to zjawisko, obserwując przez 1,2-metrowy teleskop pewien odległy kwazar, którego światło ulegało mikroogniskowaniu na krawędziach odległej galaktyki. Wykonane obliczenia doprowadziły go do konkluzji, że przyczyną mikroogniskowania są planety, a z częstości występowania tego zjawiska wywnioskował, że liczba swobodnych planet musi być olbrzymia.
Z dostępnych obecnie obserwacji jasno wynika, że przynajmniej kilka gwiazd ma planety. Nie można jednak wykluczyć, że parametr fp w równaniu Drake'a, czyli ułamek gwiazd obdarzonych planetami, jest całkiem dużą liczbą - większą od 0,5, a nawet bliską jedności. Planety mogą również swobodnie wędrować w przestrzeni. Niektóre z nich mogą być pochwycone przez spotkane na drodze gwiazdy. Być może życie rozwinie się na swobodnej planecie, jeżeli ma ona własne - geologiczne lub radioaktywne - wewnętrzne źródło ciepła. Nie możemy wykluczyć takiej ewentualności, lecz zasadniczym obiektem naszych rozważań będą planety krążące wokół normalnych gwiazd, takich jak Słońce, gdzie szanse powstania życia wydają się znacznie większe.
ne - Wpływ środowiska
Kolejnym czynnikiem w równaniu Drake'a jest ne - liczba planet, na których istnieją warunki sprzyjające powstaniu życia. Czym zatem jest życie? Na podstawie własnych doświadczeń na Ziemi znamy tylko jeden rodzaj warunków, które mogą doprowadzić do powstania życia: niezbędna jest woda, w której mogą swobodnie poruszać się cząsteczki, aby tworzyć związki organiczne, z których z kolei powstaną białka. Zasadniczym pierwiastkiem w tych związkach jest węgiel, który w połączeniu z wodorem, azotem i tlenem tworzy duże cząsteczki będące podstawowymi elementami białek i DNA - molekuł życia. Tlen jest istotnym elementem procesów metabolicznych, dzięki którym organizmy żywe wytwarzają energię. Czy jednak tylko te pierwiastki mogą prowadzić do powstania życia? Nikt nie zna odpowiedzi na to pytanie. Niektórzy naukowcy sądzą, że życie może istnieć tylko w takiej formie, jaką znamy na Ziemi, i tylko na bazie tych samych pierwiastków. Inni, podobnie jak Drake, uważają, że życie nie musi opierać się na węglu, lecz może to być na przykład siarka. Jeszcze inni sądzą, że krzem może w pewnych temperaturach działać podobnie jak węgiel w temperaturach ziemskich.
Założenie, że woda jest niezbędna do powstania życia, prowadzi do koncepcji zamieszkiwalnej strefy Układu Słonecznego. Woda jest potrzebna jako rozpuszczalnik umożliwiający cząsteczkom organicznym przemieszczanie się i tworzenie białek, a białkom z kolei umożliwiający procesy metaboliczne. Jednak do tego potrzebna jest woda w stanie ciekłym, a więc musimy uczynić podstawowe założenie, zgodnie z którym życie może powstać i utrzymać się tylko na tych planetach, gdzie istnieje woda w postaci cieczy. Weźmy jako przykład nasz Układ Słoneczny. Spośród dziewięciu krążących wokół Słońca planet woda istnieje w znacznych ilościach tylko na Ziemi. Ideę nadającej się do zamieszkania strefy ilustruje niedawne odkrycie, że pod lodową powierzchnią Europy, jednego z księżyców Jowisza, może istnieć ocean ciekłej wody, w którym mogły się rozwinąć jakieś morskie formy życia. Jowisz i jego księżyce nie są jednak zwykle zaliczane do strefy zamieszki walnej, ponieważ do niedawna naukowcy sądzili, iż docierające do Jowisza promieniowanie Słońca jest na tyle słabe, że woda w tym rejonie musi być zamarznięta.
W naszym Układzie Słonecznym strefa zamieszkiwalna rozciąga się od sfery, która znajduje się o 5% (promienia orbity Ziemi) bliżej Słońca niż orbita Ziemi, do sfery, która leży o 37% dalej od Słońca niż orbita Ziemi. W mniejszych odległościach zaszłaby fotodysocjacja oraz ucieczka gazu i wody w przestrzeń. Tempo parowania zależy od masy planety - mała planeta nie zdołałaby utrzymać swojej wody nawet na orbicie dalszej niż podany dolny limit odległości. Prawdopodobnie w ten sposób Mars utracił swoją atmosferę. Naukowcy sądzą, że niegdyś na Marsie istniała woda, lecz małe rozmiary planety nie pozwoliły jej utrzymać ani atmosfery, ani wody dłużej niż miliard lat. Zewnętrzna granica strefy zamieszkiwalnej jest zdefiniowana jako orbita, poza którą woda przez cały czas pozostaje w stanie zamarzniętym. W przypadku naszego Układu Słonecznego woda zamarza, jeżeli planeta znajduje się co najmniej o 37% dalej od Słońca niż orbita Ziemi, lecz Europa-jeżeli rzeczywiście ma wodę w stanie ciekłym - może stanowić dowód, że strefa zamieszkiwalna nie jest aż tak ograniczona, jak sądzili do tej pory naukowcy. Dla innych gwiazd strefa ta może być inaczej określona niż w naszym Układzie Słonecznym, gdyż temperatura w różnych miejscach wokół gwiazdy zależy od jej masy oraz od wydzielanej przez gwiazdę energii.
Czynnik ne w równaniu Drake'a wymaga jednak czegoś więcej niż tylko położenia planety wewnątrz nadającej się do zamieszkania strefy. Potrzebna jest także obecność tlenu oraz związków organicznych. Naukowcy sądzą, że odkrycie tlenu w jakimś punkcie wszechświata będzie wskazówką, że tam może istnieć życie. Tlen jest bardzo reaktywny i zwykle nie występuje samodzielnie, ale jako dwutlenek węgla lub w innych związkach. Cząsteczki tlenu (O2) lub ozonu (O3) mają zatem niewielkie szanse na pojawienie się, jeżeli nie zostaną wyprodukowane w procesie metabolizmu. Niedawne odkrycie tlenu (aczkolwiek w niewielkich ilościach) na Tytanie, księżycu Saturna, daje nadzieję na znalezienie tam jakichś form życia.
Powyższe wymagania mogą wprawdzie ograniczyć proporcję pozasłonecznych planet, na których życie może się pojawić i utrzymać, ale musimy wziąć pod uwagę, że obecna technologia wykrywania obiektów poza Układem Słonecznym faworyzuje planety duże i położone blisko swoich gwiazd. Prawdopodobnie istnieje znacznie więcej planet, i niektóre z nich mogą znajdować się wewnątrz zamieszkiwalnej strefy swoich gwiazd. Niektórzy naukowcy szacują, że planety z warunkami odpowiednimi do powstania życia stanowią około 10% całkowitej liczby planet.
fl - Ułamek planet, na których istnieje życie
Czynnik fl w równaniu Drake'a określa planety, na których rzeczywiście istnieje życie. Ocena wartości tego czynnika jest niezwykle trudna, ponieważ - oprócz Ziemi - nie mamy absolutnie żadnych danych o obdarzonych życiem planetach. Nie jest możliwe jakiekolwiek przewidywanie oparte na danych statystycznych. Celem tej książki jest ocena prawdopodobieństwa istnienia życia przynajmniej na jednej pozasłonecznej planecie. Naukowcy zaangażowani w poszukiwanie życia pozaziemskiego przewidują - aczkolwiek nie jest całkiem jasne, na jakiej podstawie - że wartość czynnika fl wynosi około 0,1 lub 0,2.
fi - Inteligentne formy życia
Czynnik fi określa planety, na których rozwinęło się inteligentne życie. Również i w tym przypadku nie istnieją żadne dane, które umożliwiałyby wysuwanie opartych na statystyce hipotez. W dalszej części książki będziemy rozważać różnicę między życiem i inteligentnym życiem, a także kwestię, czy inteligencja stanowi przypadek w genetycznym rozwoju życia na Ziemi, czy raczej nieuniknioną konsekwencję ewolucji. Naukowcy, którzy brali udział w zorganizowanej przez Drake'a w 1962 roku konferencji, oceniali, że parametr ten może wynosić od 0,1 aż do 0,5.
fc - Komunikacja
Czynnik fc określa planety zamieszkane przez cywilizacje zdolne do komunikowania się z innymi cywilizacjami za pomocą przekazów radiowych lub innych środków. Nie odebraliśmy jeszcze ani jednego sygnału radiowego od obcych cywilizacji, więc nie możemy oceniać wartości tego parametru na podstawie danych statystycznych. Wyobraźmy sobie inteligentne społeczeństwo podobne do starożytnej cywilizacji greckiej. Osiągnęła ona wszystko, co zazwyczaj uważa się za wyznaczniki zaawansowanej cywilizacji - wiedzę, sztukę, myśl polityczną - z wyjątkiem technologii. Spełniłaby ona wszystkie warunki równania Drake'a, lecz nie dysponowałaby nadajnikami ani odbiornikami radiowymi. Możemy jednak wyobrazić sobie cywilizację o takim stopniu zaawansowania, że nie potrzebuje ona transmisji radiowych do komunikowania się. Do tego celu może wykorzystywać na przykład sieci światłowodowe. Koncepcja projektu SETI (Search for Extraterrestial Intelligence [Poszukiwanie pozaziemskiej inteligencji], następcy projektu OZMA) opierała się częściowo na założeniu, że inteligentne istoty pozaziemskie mogą zostać przez nas odkryte w wyniku odebrania nie tylko celowo wysyłanych w naszym kierunku sygnałów radiowych, lecz także sygnałów stosowanych przez nich do ich własnej komunikacji. W obu wyżej wymienionych przykładach mamy do czynienia z zaawansowanymi cywilizacjami, które nie stosują komunikacji radiowej, a zatem nie mogą zostać wykryte przez SETI ani przez żaden inny program poszukiwawczy polegający na nasłuchiwaniu radiowych sygnałów z przestrzeni.
L - Długowieczność
Ostatni czynnik w równaniu Drake'a wiąże się z długością trwania cywilizacji. Kryje się w nim założenie, że inteligentne cywilizacje mogą w końcu ulec samozniszczeniu. Warto pamiętać, że wspomniana konferencja odbywała się w szczytowym okresie zimnej wojny. Wszyscy zdawali sobie sprawę, że inteligentne życie nie trwa wiecznie, gdyż prędzej czy później zniszczy je wojna nuklearna. Współczynnik, który należy wstawić do równania Drake'a, wynika z podzielenia czasu istnienia cywilizacji przez czas trwania Drogi Mlecznej. Czynnik ten odzwierciedla cywilizacje, które w danym momencie istnieją i są zdolne do komunikowania się. Ze względu na olbrzymie odległości pojawiają się pewne wątpliwości, jak należy rozumieć istnienie, a jak - komunikację. Jeżeli któregoś dnia odbierzemy sygnał, który został wysłany 15 000 lat wcześniej, to cywilizacja, która go wysłała, może już nie istnieć. Pesymistyczne oszacowanie L może sprowadzać się do czasu, który upłynął od wynalezienia radia do zrzucenia bomby na Hiroszimę. W skali istnienia wszechświata byłby to niezwykle krótki okres. Optymistyczne oszacowanie L może sięgać wielu milionów lat. Tak czy inaczej, gdy zamienimy L na ułamek, otrzymamy bardzo małą liczbę. Prowadzi to do wniosku, że okno czasowe dla komunikacji z pozaziemskimi cywilizacjami może być dosyć wąskie.
Konferencja w Green Bank nie była pierwszym miejscem spotkania Franka Drake'a i Philipa Morrisona. Drake studiował na Cornell University w czasie, gdy Morrison był tam wykładowcą. W Green Bank spotkali się jako główni proponenci poszukiwania pozaziemskich cywilizacji. Cocconi nie uczestniczył w spotkaniu i całkowicie porzucił tę tematykę, a później został dyrektorem CERN-u (Europejskie Centrum Badań Jądrowych). W konferencji uczestniczyli naukowcy z wielu krajów. Jednym z nich był Carl Sagan.
Równanie Drake'a zostało ostatecznie powszechnie zaakceptowane przez społeczność naukowców. Koncepcje, na których się opierało, przez kilkadziesiąt lat stanowiły podstawę poszukiwań pozaziemskiego życia i w końcu doprowadziły do uruchomienia projektu SETI (przedstawionego w powieści Sagana Kontakt i w filmie pod tym samym tytułem). Projekt wystartował 12 października 1992 roku - dokładnie 500 lat po dotarciu Kolumba do Nowego Świata - gdy gigantyczna antena w Arecibo (Puerto Rico) odwróciła się w kierunku nieba i zaczęła poszukiwać sygnałów radiowych od innych cywilizacji.
Frank Drake, opierając się na szacunkowych ocenach wszystkich czynników swojego równania, uważa, że liczba cywilizacji w naszej Galaktyce, które mogą się z nami komunikować, wynosi 10332. Carl Sagan uważał, że liczba ta sięga miliona. W niniejszej książce nie będziemy zajmować się liczeniem zdolnych do komunikacji pozaziemskich cywilizacji w naszej Galaktyce, lecz oszacowaniem prawdopodobieństwa istnienia życia - a także inteligentnych form życia - we wszechświecie. Z tego punktu widzenia pierwsze czynniki równania Drake'a są bardzo istotne, natomiast niektóre z pozostałych mają dla nas mniejsze znaczenie, gdyż oszacowanie ich wartości w ścisły, naukowy sposób może być niemożliwe. Skupmy się zatem tylko na tych czynnikach, o których cokolwiek wiemy, i podsumujmy naszą wiedzę na ich temat.
Poszukiwanie złotego runa
Nawet gdy potwierdzi się istnienie pozasłonecznych planet, pozostanie pytanie, czy którakolwiek z nich nadaje się do życia - życia w takiej formie, jaką znamy na Ziemi. Planeta, która krąży blisko swojej gwiazdy, jest zbyt gorąca, aby mogła na niej istnieć woda w stanie ciekłym. Planeta, która krąży daleko od swojej gwiazdy, jest zimna, a woda - zamarznięta. Naukowcy poszukujący doskonałej planety nazwali swoje zajęcie poszukiwaniem złotego runa: nie za gorąco i nie za zimno. Gdy planeta taka zostanie już znaleziona, pojawią się pytania wynikające z równania Drake'a: Jakie są na niej warunki chemiczne? Czy jest tam woda? Czy jest tlen? Czy azot i węgiel występują na niej w odpowiednich ilościach? Na takie pytania nauka potrafi udzielić odpowiedzi. Istnieją metody pozwalające analizować widma pierwiastków i ocenić, które z nich są obecne na planecie, jeżeli tylko będziemy mogli zobaczyć światło tej planety.
Gdy zlokalizujemy gwiazdę wraz z krążącą wokół niej planetą, do obserwacji bardzo słabego światła planety i analizy jej składu chemicznego mogą być użyte teleskopy umieszczone w przestrzeni kosmicznej. Koszt takiej kosmicznej misji wyniesie jednak około 2 miliardów dolarów i nie jest pewne, czy Kongres i amerykańscy podatnicy będą skłonni wyłożyć taką kwotę.
Nawet jeżeli założymy pozytywną odpowiedź na trzy podstawowe pytania: Czy istnieją planety? Czy znajdują się w strefie zamieszkiwalnej? Czy ich chemia jest odpowiednia dla życia? - to pozostaje jeszcze ostatnie i decydujące pytanie: Czy życie rzeczywiście powstało i czy jest ono inteligentne? Jednak pozytywna odpowiedź na trzy pierwsze pytania i tak znacznie przybliży nas do celu. W świetle nowych odkryć i potencjalnych porażek, które mogą wyniknąć z podejmowania przedwczesnych, opartych na skąpych danych decyzji, warto jeszcze raz przyjrzeć się domniemanemu paradoksowi Fermiego.
W czasach prekolumbijskich wśród pierwotnych mieszkańców Ameryki z pewnością istnieli obdarzeni wyobraźnią osobnicy, którzy skłonni byli sądzić, że życie istnieje tylko na ich kontynencie. Logiczne rozumowanie powinno ich przekonać, że gdyby życie istniało gdzie indziej na Ziemi, to - zakładając, że są jeszcze jakieś inne kontynenty - rozwinęłyby się na nich inteligentne cywilizacje, któraś z nich zbudowałaby wielkie kanoe i pojawiła się w Ameryce przynajmniej raz. „Skoro nikt się dotąd nie zjawił, należy sądzić, że jesteśmy sami na Ziemi”. Jakiś czas po tym, jak ten hipotetyczny paradoks został sformułowany, ktoś jednak dotarł do Ameryki - wikingowie, Vespucci, Kolumb. Obcy ludzie w końcu wylądowali na brzegu. Nastąpił kontakt. Fakt, że musi upłynąć pewien czas, zanim nastąpi pierwszy kontakt, nie prowadzi do paradoksu. Zawsze musi być ten pierwszy raz.
Nie ma nic dziwnego w tym, że twórcy programu SETI podkreślają podobieństwo własnej misji do przedsięwzięcia Kolumba. Pytani, dlaczego ich poszukiwania nie przyniosły żadnych dowodów istnienia pozaziemskich cywilizacji próbujących nawiązać z nami kontakt radiowy, przywołują jako przykład podróż Kolumba: „Po pierwszych 500 milach nikt nie pytał Kolumba, czy znalazł już nowy kontynent. My też pokonaliśmy dopiero pierwsze 500 mil”.
W 1993 roku Kongres odmówił dalszego finansowania programu SETI. Frank Drake, który kierował programem, nie poddał się jednak i zdołał znaleźć prywatnych sponsorów, którzy umożliwili kontynuację poszukiwań, ofiarując łącznie kwotę 4 milionów dolarów rocznie. Do grupy sponsorów należą William Hewlett i David Packard z Hewlett-Packard Company, Paul Allen - współzałożyciel Microsoftu oraz Gordon Moore - współzałożyciel Intela. Być może mają oni na widoku Cosmic Wide Web - kosmiczny odpowiednik globalnej sieci komputerowej.
Rozdział 2
51 PEGASI
Pozaziemskie życie musi dysponować planetą, na której mogłoby się rozwijać, dlatego ułamek gwiazd mających planety jest głównym czynnikiem w równaniu Drake'a. W ciągu tysięcy lat ludzkiej egzystencji nikt nie znał odpowiedzi na podstawowe pytanie związane z możliwością istnienia życia pozaziemskiego: Czy wokół innych gwiazd krążą planety? W 1995 roku środowisko naukowe zelektryzowała wiadomość, że dwaj szwajcarscy astronomowie odkryli pierwszą pozasłoneczną planetę.
Późnym wieczorem 4 lipca 1995 dwie rodziny z Genewy opuściły swoje bungalowy i wspięły się na pobliskie wzgórze, na którym mieści się - położone wysoko w południowych Alpach, w pobliżu wioski Saint Michel - francuskie obserwatorium astronomiczne Haute-Provence. W koszykach nieśli prowiant: chleb, ser, czerwone wino i sok dla dzieci, a także duży tort i dwie butelki szampana, które w obserwatorium włożyli do lodówki. Ktoś nacisnął przycisk otwierający kopułę obserwatorium, odsłaniając teleskop. Piknik zakończył się po jedenastej wieczorem, gdy najmłodsze dziecko zaczęło zdradzać objawy zmęczenia. „Już niedługo” - zapewnił jeden z dorosłych. Wszyscy usiedli w oczekiwaniu.
Jednym z najbardziej uderzających faktów w astronomii są niezmierne odległości i rozmiary. Kosmos jest tak ogromny, że nasze codzienne jednostki miary tracą swoje znaczenie. Odległość od Ziemi do Słońca wynosi 93 miliony mil (150 min km). Podróżujący z typową prędkością 900 kilometrów na godzinę samolot pasażerski dotarłby z Ziemi do Słońca po 20 latach. Olbrzymie odległości ciał niebieskich zmusiły astronomów do wprowadzenia nowej jednostki długości, która lepiej pasowałaby do rozmiarów Układu Słonecznego. Zdefiniowali oni jednostkę astronomiczną (AU), równą średniej odległości Ziemi od Słońca. Promień orbity Merkurego, planety Układu Słonecznego położonej najbliżej Słońca, wynosi 36 milionów mil (ok. 58 min km), co stanowi nieco mniej niż 0,4 jednostki astronomicznej. Wenus znajduje się w odległości 0,7 AU od Słońca, Mars - 1,5 AU, Jowisz - 5,2 AU, Saturn - 9,5 AU, Uran - 19,2 AU, Neptun - 30,1 AU, a Pluton - 39,5 AU. Tak więc Pluton, najdalej położona i najmniejsza planeta Układu Słonecznego, znajduje się 39,5 razy dalej od Słońca niż my. Statek kosmiczny potrzebuje kilku miesięcy, aby dotrzeć z Ziemi do Marsa, więc dotarcie w pobliże jednej z dalszych planet zajęłoby mu kilka lat. Ze względu na olbrzymie odległości zewnętrznych planet dociera do nich znacznie mniej światła słonecznego niż do nas. W porównaniu z Ziemią Jowisz dostaje tylko 4% promieniowania, Saturn - 1%, Neptun - 0,1%, a Pluton zaledwie 0,06%. Z kolei do Merkurego dociera 6,6 razy więcej światła niż do nas. Ze względu na znaczną odległość, a także niską jasność odbitego światła słonecznego, Uran, Neptun i szczególnie Pluton są bardzo słabo widoczne z Ziemi.
Gdy spoglądamy dalej w przestrzeń - poza nasz układ planetarny, w kierunku gwiazd - to nawet jednostka astronomiczna staje się nieodpowiednia. Używanie jej przypominałoby mierzenie odległości miast w centymetrach. Gwiazdy znajdują się tak daleko od nas i od siebie nawzajem, że do mierzenia ich odległości potrzebujemy znacznie większej jednostki. Jest nią rok świetlny - odległość, jaką światło pokonuje w ciągu jednego roku. Światło, które jest najszybciej poruszającym się obiektem w przyrodzie, podróżuje z prędkością 300 000 kilometrów na sekundę. W ciągu roku przemierza ono niewiarygodnie dużą odległość niemal dziesięciu bilionów kilometrów. Alfa Centauri, najjaśniejsza gwiazda w gwiazdozbiorze Centaura i zarazem najbliższa w stosunku do Układu Słonecznego, znajduje się w odległości 4,3 roku świetlnego od nas. Aby wyobrazić sobie tę olbrzymią odległość między nami i naszą najbliższą gwiazdą, możemy sobie uzmysłowić, że lecący ze swoją zwykłą prędkością 900 kilometrów na godzinę samolot pasażerski potrzebowałby 8 milionów lat, aby dotrzeć do Alfy Centauri. Nawet statek kosmiczny, przyspieszony przez grawitacyjną „procę” którejś z planet, potrzebowałby 20 000 lat, aby tam dolecieć. Jednak w kategoriach astronomicznych gwiazdy Alfa Centauri są naszymi najbliższymi sąsiadami. Nasza Galaktyka, Droga Mleczna, liczy około 300 miliardów gwiazd. Nasz Układ Słoneczny znajduje się w jednym z ramion rozciągających się ze środka tej spiralnej galaktyki. Średnica tego olbrzymiego zbiorowiska gwiazd to ponad 200 000 lat świetlnych. Światło biegnące od centrum Drogi Mlecznej dociera na Ziemię po 50 000 lat. Nie miałaby wielkiego sensu próba policzenia, ile czasu podróż ta zabrałaby statkowi kosmicznemu, który może poruszać się z prędkością będącą niewielkim ułamkiem prędkości światła.
Położona najbliżej nas galaktyka, Wielka Mgławica w Andromedzie, licząca wiele miliardów gwiazd, znajduje się 2,2 miliona lat świetlnych od Drogi Mlecznej. Gdy spoglądamy gołym okiem lub przez teleskop na przymglony obraz tej galaktyki, przenosimy się o 2,2 miliona lat w przeszłość, ponieważ tyle czasu światło potrzebowało, by dotrzeć do nas.
Wszechświat zawiera miliardy galaktyk. Za pomocą Kosmicznego Teleskopu Hubble'a uzyskaliśmy niedawno obrazy galaktyk położonych na granicy obserwowanego przez nas wszechświata: galaktyk leżących w odległości 10 miliardów lat świetlnych od nas. Gdy spoglądamy na te niewiarygodnie odległe obiekty, widzimy światło, które wyruszyło w podróż 10 miliardów lat temu, gdy wszechświat był młody.
Słońce jest znacznie większe od Ziemi. Wzdłuż średnicy Słońca zmieściłoby się 109 planet wielkości Ziemi, a w objętości Słońca - milion. Słońce jest 300 000 razy cięższe od Ziemi. Jednak w kategoriach gwiazdowych nasze Słońce jest zwane karłem, gdyż istnieją gwiazdy o wiele większe. Średnica Mu Cephei, jednej z największych znanych nam gwiazd, jest ponad 1000 razy większa od średnicy Słońca, a w objętości Mu Cephei zmieściłby się miliard Słońc. Dwie spośród najjaśniejszych gwiazd na niebie również należą do kategorii supergigantów. Są to Betelgeuse i Rigel, leżące w gwiazdozbiorze Oriona. Duże jasne gwiazdy spalają swoje jądrowe paliwo znacznie szybciej niż małe, przez co żyją względnie krótko: kilka milionów lat. Gdy dinozaury spoglądały w niebo, nie widziały dwóch jasnych gwiazd w Orionie. Betelgeuse i Rigel pojawiły się znacznie później, już po zagładzie dinozaurów. Karły takie jak nasze Słońce żyją po kilka miliardów lat. Są mniej jasne, spalają swoje jądrowe paliwo przy niższych temperaturach, więc mogą żyć znacznie dłużej. Jeszcze mniej jasne gwiazdy żyją jeszcze dłużej - niektóre nawet biliony lat - lecz nie widać ich gołym okiem. Niebo jest pełne niewidocznych gwiazd.
Przez tysiąclecia ludzie spoglądali w niebo i zastanawiali się, czym są te świetlne punkty. Babilończycy pierwsi sporządzali mapy nieba i układali gwiazdy w konstelacje. Podobnie postępowali Egipcjanie i Grecy, a w czwartym wieku przed naszą erą grecki filozof Epikur sformułował hipotezę, że wszechświat jest nieskończony i zawiera wiele innych światów. W szesnastym wieku włoski filozof, Giordano Bruno, ponownie wysunął koncepcję, zgodnie z którą wszechświat zawiera wiele podobnych do Ziemi planet, okrążających podobne do Słońca gwiazdy i zamieszkanych przez żywe istoty. Poglądy Bruna stanowiły jawne wyzwanie dla nauki Kościoła, gdyż były sprzeczne z akceptowaną przez Kościół filozofią innego greckiego filozofa, Arystotelesa, który twierdził, że Ziemia jest jedyna, wyjątkowa i stanowi środek wszechświata, a niebo jest doskonałe i niezmienne. Za swoje poglądy Bruno został spalony na stosie w roku 1600.
Wielu dwudziestowiecznych astronomów kierowało swoje teleskopy w stronę nieba w poszukiwaniu podobnych do Ziemi planet okrążających inne gwiazdy. Jeżeli istnieje życie pozaziemskie, to musiało rozwinąć się w jakimś miejscu dającym ciepło i światło - na planecie okrążającej gwiazdę. W ciągu ostatnich kilkudziesięciu lat często zdarzało się, że astronomowie sądzili, iż odkryli planety, lecz wszystkie te przypadki zostały później zweryfikowane i wykazano ich fałszywość. Najlepiej znana historia fałszywej identyfikacji planety okrążającej inną gwiazdę wiąże się z Gwiazdą Barnarda. W 1916 roku amerykański astronom Edward Emerson Barnard odkrył w gwiazdozbiorze Wężownika bladą gwiazdę, która poruszała się na niebie szybciej niż jakakolwiek inna wcześniej obserwowana gwiazda. Wykorzystując fotografie nieba wykonane w ciągu dziewiętnastego wieku, Barnard wydedukował, że jego gwiazda pokonuje 10,3 sekundy kątowej w ciągu roku. Sekunda kątowa jest równa 1/3600 stopnia kątowego - mniej więcej tyle ma ludzki włos obserwowany z odległości 3 metrów. W ciągu 100 lat Gwiazda Barnarda przemieściła się o połowę średnicy kątowej Księżyca, co wskazywało, że znajduje się ona w niedużej odległości od Ziemi. Gdy wykonano pomiary paralaktyczne - to znaczy pomiary kąta położenia gwiazdy z dwóch różnych punktów orbity Ziemi (na przykład jeden pomiar w zimie, a drugi w lecie), dzięki czemu można wyznaczyć odległość gwiazdy za pomocą trygonometrii - okazało się, że Gwiazda Barnarda znajduje się 6 lat świetlnych od nas. Jedyną bliżej położoną gwiazdą jest Alfa Centauri.
W 1938 roku astronom Peter van de Kamp z obserwatorium Sproul w Pensylwanii rozpoczął obserwacje naszego tajemniczego sąsiada, Gwiazdy Barnarda. Do roku 1969 zgromadził on tysiące wykonanych przez teleskop fotografii gwiazdy i stwierdził, że jej ruch nie jest całkowicie liniowy - gwiazda waha się w górę i w dół. Gwiazdy poruszają się na niebie z kilku powodów. Po pierwsze, gwiazdy naszej Galaktyki, Drogi Mlecznej, okrążają wraz z nią środek galaktyki. Po drugie, wszystkie gwiazdy i galaktyki oddalają się od siebie nawzajem wskutek rozszerzania się wszechświata. Zjawisko to zostało odkryte w 1925 roku przez Edwina Hubble'a, a tempo rozszerzania się wszechświata jest obecnie znane jako stała Hubble'a. Te dwa ruchy - pomijając dzienny obrót nieba wokół Ziemi wywołany jej wirowaniem - składają się na liniowy ruch gwiazd na niebie. Wahania obserwowanego przez van de Kampa ruchu Gwiazdy Barnarda sugerowały, że wokół niej krąży planeta. Później doszedł on do wniosku, że muszą to być dwie planety.
Pod koniec lat dwudziestych nawet nasz Układ Słoneczny nie był całkowicie znany astronomom, gdyż do odkrycia pozostała jeszcze jedna krążąca wokół Słońca planeta. Odkrycia tego dokonano, wykonując fotografie nocnego nieba przez teleskop, kawałek po kawałku, powtarzając je później, a następnie porównując przez nałożenie jednej fotografii na drugą. W 1929 roku Lowell Observatory we Flagstaff w Arizonie nabyło nowy astrograf i zatrudniło Clyde'a Williama Tombaugha, 23-letniego syna farmera z Kansas, astronoma amatora, do poszukiwań kolejnej krążącej wokół Słońca planety. W owym czasie znanych było osiem planet, a Uran i Neptun zostały odkryte w dziewiętnastym wieku. Założyciel obserwatorium, Percival Lowell, miał jeden cel w życiu: znaleźć nową planetę, ową chimeryczną planetę X. Tombaugh zbudował 9-calowy teleskop odbiciowy na farmie swego ojca, wykorzystując części maszyn rolniczych oraz wał korbowy buicka z 1910 roku. Za pomocą tego teleskopu wykonał rysunki Marsa i Jowisza, które wysłał Lowellowi. W rezultacie Lowell zaproponował mu pracę w swoim obserwatorium. Tombaugh nie wierzył w matematyczne obliczenia, które, według opinii innych astronomów, mogły pomóc ujawnić położenie tajemniczej planety. Uważał, że planetę można odkryć dzięki dokładnym obserwacjom. Pracował cierpliwie przez rok, wykonując tysiące fotografii i porównując je przez nakładanie jednej na drugą. 18 lutego 1930 roku odkrył Plutona w pobliżu jednej z gwiazd w gwiazdozbiorze Bliźniąt. Jako odkrywca ostatniej planety Układu Słonecznego, Tombaugh stał się najsławniejszym astronomem swoich czasów. Żadna inna „planeta X” nie została odkryta, aczkolwiek niektórzy astronomowie sądzili, że istnieje jeszcze jedna duża krążąca wokół Słońca planeta (Pluton jest mniejszy od Księżyca, więc niektórzy astronomowie do dziś uważają go za dużą asteroidę, a nie za prawdziwą planetę).
Poszukiwania Tombaugha zakończyły się sukcesem, gdyż - mimo że znajduje się on w odległości 40 AU od nas - nikłe światło Plutona było jednak widoczne przez duży teleskop. Gdy spoglądamy poza Układ Słoneczny, odległości rosną do lat świetlnych (czyli bilionów, a nie setek milionów kilometrów) i wykrycie światła jakiejś planety - odbitego przez nią światła jej własnej gwiazdy - staje się niewykonalne. Co więcej, zadanie to dodatkowo utrudnia światło samej gwiazdy. Światło naszego Słońca jest miliard razy silniejsze od światła odbitego od największej planety, Jowisza. Odróżnienie słabego światła planety na tle jej własnej gwiazdy byłoby niezwykle trudnym zadaniem, więc astronomowie zaczęli szukać maleńkich wahań w ruchu własnym gwiazd, które można by przypisać grawitacyjnemu przyciąganiu niewidocznej, krążącej wokół gwiazdy planety. Ruchy takie byłyby bardzo, bardzo małe, ponieważ masa nawet tak dużej planety jak Jowisz jest zazwyczaj tysiące razy mniejsza od masy obieganej przez planetę gwiazdy. Do wykrycia wahadłowego ruchu gwiazdy potrzebny byłby bardzo duży teleskop.
W 1969 roku, na podstawie swoich obserwacji, Peter van de Kamp doszedł do wniosku, że Gwiazda Barnarda podlega takim właśnie wahadłowym ruchom. Czy oznacza to, że została odkryta pierwsza pozasłoneczna planeta? W 1971 roku George Gatewood, doktorant w obserwatorium w Alleghenach, rozpoczął obserwacje Gwiazdy Barnarda za pomocą 30-calowego teleskopu. Po kilku miesiącach Gatewood potrafił wykazać, że odchylenia ruchu Gwiazdy Barnarda od linii prostej, które zaobserwował van de Kamp, były po prostu spowodowane zaburzeniami atmosfery Ziemi. Stało się jasne, że astronomowie potrzebują potężniejszych teleskopów, jeżeli chcą odkryć maleńkie wahania w ruchu gwiazd, które można by przypisać oddziaływaniu niewidocznej planety.
Teleskop w obserwatorium Haute-Provence, o średnicy 1,9 metra, raczej nie należał do największych lub najmocniejszych na świecie. Obserwatorium zbudowano sześćdziesiąt lat temu, na wysokości 650 metrów nad poziomem morza - dość nisko jak na dzisiejsze standardy - ale wyposażono je w bardzo skomplikowany system zbudowany przez dwóch szwajcarskich astronomów, Michela Mayora i Didiera Queloza, którzy teraz czekali cierpliwie w obserwatorium przy teleskopie wraz ze swoimi rodzinami. Obaj pracowali w obserwatorium w Genewie, lecz kupowali od Francuzów czas obserwacyjny w Haute-Provence: słabszy teleskop w Haute-Provence był dostępny przez dłuższe okresy niż potężne i drogie teleskopy, gdzie astronomowie muszą walczyć o pojedyncze noce obserwacyjne. Przy okularze teleskopu Mayor i Queloz umieścili spektrograf - urządzenie zbudowane na bazie siatki dyfrakcyjnej, która rozdziela światło gwiazdy w zależności od długości fali, a następnie analizuje je za pomocą aparatury elektronicznej i małego komputera. Dwaj astronomowie byli specjalistami od pomiarów zjawiska Dopplera w widmie gwiazd.
Zjawisko Dopplera jest dobrze znane w życiu codziennym. Na przykład, gdy stoimy na peronie kolejowym i mija nas gwiżdżąca lokomotywa, dźwięk zmienia swoją wysokość w chwili, gdy lokomotywa przejeżdża obok nas. Zbliżający się pociąg wydaje wysoki ton, natomiast oddalający się - niski. Zjawisko to badał w dziewiętnastym wieku austriacki fizyk, Christian Doppler (1803-1853).
Fale świetlne, a także inne formy promieniowania elektromagnetycznego, również podlegają zjawisku Dopplera. W 1905 roku Albert Einstein sformułował szczególną teorię względności. Jego teoria była sprzeczna z przekonaniami współczesnych mu uczonych, którzy sądzili, że światło - podobnie jak wszystko we wszechświecie - powinno zmieniać swą prędkość, gdy porusza się jego źródło. Jeżeli futbolista biegnie z prędkością 10 mil (ok. 16 km) na godzinę i w trakcie biegu rzuca piłkę (do przodu), to prędkość piłki względem powierzchni boiska jest o 10 mil na godzinę większa od prędkości, jaką miałaby piłka, gdyby gracz był nieruchomy. Na początku dwudziestego wieku dwaj fizycy, Albert Michelson i Edward Morley, próbowali znaleźć dowody, że światło również zachowuje się w ten sposób. Sądzili oni, że światło porusza się w przestrzeni dzięki drganiom niewidocznego eteru i próbowali wykryć zmiany prędkości światła w jego ruchu przez eter. Jeżeli eter jest unoszony przez Ziemię w jej ruchu wirowym, to wysyłając promień światła z jednego szczytu góry w Kalifornii do innego, w kierunku równoległym do równoleżnika, naukowcy spodziewali się, że prędkość światła zostanie zwiększona przez prędkość wirowego ruchu Ziemi, podobnie jak prędkość piłki wzrasta na skutek biegu gracza. Mimo wielu prób nie wykryli oni jednak żadnych zmian prędkości światła. W pewnym okresie Michelson, zniechęcony niemożnością wykrycia unoszenia eteru, przedłożył władzom stanowym Kalifornii skomplikowany projekt, w którym proponował przeprowadzenie pomiarów pasma gór Sierra Nevada. Jednak urzędnicy wiedzieli, jakie są jego rzeczywiste zamiary, i odrzucili projekt. W tym samym okresie czysto teoretyczna praca Einsteina wykazała, że unoszenie eteru nie istnieje. Einstein stwierdził, że prędkość światła, równa około 300 000 kilometrów na sekundę, stanowi wielkość uniwersalną, nie podlegającą zmianom w zależności od ruchu źródła względem obserwatora. Prędkość światła pozostawała taka sama niezależnie od ruchu wirowego Ziemi. Prędkość światła nie zmienia się w zależności od ruchu źródła, lecz zmienia się częstość fal świetlnych i związana z nią długość fali, dokładnie tak, jak przewiduje teoria zjawiska Dopplera. Gdy źródło światła porusza się w kierunku obserwatora, częstość fal świetlnych rośnie. Wygląda to tak, jakby fale były „stłoczone” na skutek ruchu źródła w kierunku emisji. Zielone światło zostanie przesunięte w kierunku wyższych częstości i może w rezultacie być postrzegane przez nieruchomego obserwatora jako niebieskie, gdyż niebieskie światło ma wyższą częstość (i mniejszą długość fali) niż zielone. Gdy źródło światła oddala się od obserwatora, fala świetlna zostaje „rozciągnięta” i jej częstość się zmniejsza. Przy pewnej prędkości źródła emitowane światło może ulec przesunięciu od zieleni do czerwieni. Zjawisko to nosi nazwę przesunięcia ku czerwieni. Jeżeli zbliżasz się do skrzyżowania z prędkością 150 000 kilometrów na sekundę (czyli równą połowie prędkości światła), to czerwone światło będzie z twojego samochodu widoczne jako zielone. Nie próbuj jednak użyć tego argumentu w sądzie, gdyż dostaniesz mandat za przekroczenie prędkości.
Zjawisko Dopplera było wykorzystywane przez astronomów od ponad siedemdziesięciu lat. Gdy gwiazda oddala się od Ziemi, jej światło ulega przesunięciu ku czerwieni. Gdy gwiazda zbliża się w kierunku Ziemi, jej światło ulega przesunięciu ku częstościom fal niebieskich, fioletowych i nadfioletowych (w zależności od prędkości gwiazdy względem Ziemi). Aby zmierzyć wielkość przesunięcia częstości i tym samym prędkość ruchu własnego gwiazdy (ruchu względem obserwatora na Ziemi), naukowcy muszą rozłożyć światło gwiazdy na składowe. Składowe widma promieniowania gwiazdy noszą nazwę linii widmowych i mogą być wyodrębnione za pomocą spektrografu.
W latach osiemdziesiątych wiele zespołów astronomów zaczęło poszukiwać przesunięć Dopplera w widmach gwiazd, aby wykryć ruchy wywołane przez grawitacyjne przyciąganie niewidocznych planet. Konkurencja była bardzo silna, gdyż spodziewano się, że pierwszy zespół, który zaobserwuje przesunięcia widmowe wywołane obecnością planety okrążającej gwiazdę inną niż nasze Słońce, zyska światowy rozgłos. Głównymi uczestnikami tego wyścigu byli Bruce Campbell i Gordon Walker z Kolumbii Brytyjskiej (Kanada), Geoffrey Marcy i Paul Butler z San Francisco oraz Artie Hatzes i William Cochran z Teksasu. Szwajcarzy Mayor i Queloz dołączyli do wyścigu stosunkowo późno - w kwietniu 1994 roku, siedem lat po zespole z Kalifornii i trzynaście lat po Kanadyjczykach.
Za ideą użycia zjawiska Dopplera do poszukiwania planet krążących wokół innych gwiazd kryje się stosunkowo prosta teoria. Największą planetą Układu Słonecznego jest Jowisz, którego masa jest 318 razy większa od masy Ziemi. Stanowi ona jednak zaledwie 0,1% masy Słońca. Słońce przyciąga Jowisza siłą grawitacji, dzięki czemu Jowisz krąży wokół Słońca po niemal idealnie kołowej orbicie.
Gdyby nie było tego przyciągania, Jowisz odleciałby w przestrzeń. Krążąc wokół Słońca, Jowisz również oddziałuje na nie swoją siłą grawitacji - zgodnie z zasadą, że każdej akcji odpowiada reakcja. W rezultacie Słońce także porusza się wskutek oddziaływania Jowisza. Tak więc zarówno Jowisz, jak i Słońce wykonują kołowy taniec wokół ich wspólnego środka masy. Ze względu na fakt, że Słońce jest znacznie cięższe od Jowisza, ich wspólny środek masy znajduje się znacznie bliżej Słońca niż Jowisza. W rzeczywistości znajduje się on wewnątrz Słońca (lecz nie w środku Słońca), w punkcie położonym na linii łączącej oba ciała. Zatem gdy Jowisz krąży wokół Słońca, Słońce porusza się wokół ich wspólnego środka masy.
Przypuśćmy, że w dużej odległości od Układu Słonecznego, w płaszczyźnie zawierającej orbitę Jowisza, znajduje się obserwator. Patrząc na Słońce przez bardzo czuły spektrograf, mógłby wykryć dopplerowskie przesunięcia linii widmowych światła słonecznego wywołane przez ruch Słońca do i od punktu obserwacji. Gdy krążący po swojej orbicie Jowisz oddala się od obserwatora, Słońce przybliża się do obserwatora w swoim ruchu wokół wspólnego środka masy układu Jowisz-Słońce. Gdy Jowisz wyłoni się zza Słońca i zacznie zbliżać się do obserwatora, Słońce okrąży środek masy i zacznie oddalać się od obserwatora. Te cykliczne ruchy Słońca do i od obserwatora wywołają niewielkie przesunięcia Dopplera w liniach widmowych Słońca, podobnie jak zmienia się wysokość dźwięku gwizdka lokomotywy, gdy ta zbliża się, a następnie oddala od stojącego na peronie podróżnego.
Astronomowie specjalizujący się w przesunięciach Dopplera doskonale zdawali sobie sprawę z potencjalnych możliwości wykorzystania tego zjawiska w poszukiwaniach planet. Gdyby wokół jakiejś gwiazdy krążyła planeta, a my znajdowalibyśmy się w odpowiednim położeniu w stosunku do jej orbity, czyli w płaszczyźnie zawierającej orbitę, dopplerowskie przesunięcie widma promieniowania gwiazdy pozwoliłoby ujawnić wynikający z przyciągania planety ruch gwiazdy. Zjawisko Dopplera dostarczyłoby zatem dowodów na istnienie planet. Wywołany ewentualną obecnością planet ruch gwiazd jest jednak bardzo, bardzo mały - mierzony w metrach na sekundę. Gdyby jednak udało się go wykryć, teoria pozwoliłaby obliczyć minimalną masę planety (minimalną, ponieważ nie jesteśmy w stanie stwierdzić, czy kierunek obserwacji dokładnie pokrywa się z płaszczyzną orbity planety) oraz jej odległość od macierzystej gwiazdy. W tym celu wystarczyło zaprojektować metodę obserwacji, która byłaby dostatecznie czuła, aby wykryć małe przesunięcia Dopplera światła gwiazd, oraz metodę obliczeniową, która pozwoliłaby szybko analizować te widma. Mimo późnego dołączenia do poszukujących przesunięć widmowych Szwajcarzy potrafili wykonać jedno i drugie. W ciągu wielu miesięcy obserwacji na Haute-Provence Mayor i Queloz przeanalizowali widma 142 gwiazd. Wszystkie znajdowały się względnie blisko nas - w odległości mniejszej niż 60 lat świetlnych od Ziemi - i wszystkie były tego samego typu co nasze Słońce. Do października 1994 roku nie odkryli ani jednej planety.
Aby dokładnie zmierzyć przesunięcie Dopplera, astronomowie potrzebują punktu odniesienia. Różne związki emitują światło o różnych długościach fali (produkując linie widmowe), gdy się je podgrzeje. Gdy spojrzy się przez siatkę dyfrakcyjną na żółte światło sodowej lampy ulicznej, można zobaczyć charakterystyczną żółtą linię widmową sodu. Stosowane gdzieniegdzie zielone światła rtęciowe mają własne linie widmowe, również widoczne przez siatkę dyfrakcyjną. Kanadyjski zespół zaprojektował przyrząd kalibrujący oparty na wysoce toksycznym związku, fluorowodorze, którego linie widmowe umożliwiają bardzo dokładną kalibrację. Marcy i Butler, badacze z San Francisco, którzy obserwowali widma gwiazd przez teleskop Lick Observatory w górach Santa Cruz w Kalifornii, zastosowali znacznie mniej toksyczny pierwiastek - jod.
Wysiłki Marcy'ego i Butlera spowalniała skomplikowana procedura obliczeniowa. Ich przyrządy były dokładniejsze i pilniejsze od aparatury stosowanej przez Szwajcarów - pozwalały wykryć ruchy gwiazd rzędu 3 metrów na sekundę, natomiast aparatura Mayora i Queloza rejestrowała ruch gwiazd rzędu 12 metrów na sekundę - lecz stosowany przez nich program komputerowy był horrendalnie powolny. Zamiast analizować widma w miarę ich obserwowania, Marcy i Butler po prostu gromadzili dane na twardym dysku komputera, zamierzając przeprowadzić analizę po zakończeniu obserwacji. Ukryte przed nimi i przed resztą świata dowody istnienia pozasłonecznych planet spoczywały na dysku ich komputera.
Mayor i Queloz nie stosowali toksycznych związków chemicznych do kalibracji swego spektrometru, lecz zwykłą lampę wolframową. Prąd elektryczny wzbudza elektrony we włóknie żarówki na wyższe poziomy energetyczne. Spadając na niższe poziomy, elektrony emitują światło o określonych częstościach, zgodnie z przewidywaniami teorii kwantowej. Mayor i Queloz użyli linii widmowych lampy wolframowej do kalibracji swojego spektrometru. Uzyskana w ten sposób dokładność sięgała 12 metrów na sekundę, co wystarcza do wykrycia planety o rozmiarach porównywalnych z Jowiszem. Jednak zastosowany przez Szwajcarów algorytm obliczeniowy był znacznie lepszy od programów użytych przez inne zespoły, gdyż był tak szybki, że umożliwiał wyznaczanie przesunięć Dopplera w trakcie obserwacji. Wszystkie 142 gwiazdy zbadane przez Szwajcarów były typu G (żółte) lub K (pomarańczowe), podobne do naszego Słońca pod względem rozmiarów i jasności. We wrześniu 1994 roku Michel Mayor i Didier Queloz skierowali teleskop w Haute-Provence w kierunku średniej jasności gwiazdy położonej tuż pod Czworokątem Jesiennym w gwiazdozbiorze Pegaza. Podobna do Słońca i odległa od nas o 50 lat świetlnych gwiazda nosi nazwę 51 Pegasi.
Ulubieniec poetów i malarzy, mityczny Pegaz był obdarzonym skrzydłami koniem. Został poczęty, gdy Posejdon zamienił się w konia, aby uwieść Meduzę. Gdy Perseusz zabił Meduzę, Pegaz wyłonił się z jej ciała jako w pełni ukształtowany koń ze skrzydłami. Został oswojony przez Bellerofonta i Atenę, a następnie dostał się na Olimp, gdzie nosił pioruny Zeusa. Czworokąt Jesienny, najlepiej widoczny we wrześniu, to cztery gwiazdy: Markab (co znaczy po arabsku „siodło”), Algenib („bok”), Scheat („goleń”) i Sirrah („pępek”), które łącznie tworzą zarys ciała konia.
Gdy tylko ustawili teleskop na 51 Pegasi, leżącą poniżej linii łączącej gwiazdy Markab i Scheat, Mayor i Queloz odkryli, że gwiazda ta wyraźnie różni się od innych dotychczas przez nich obserwowanych. Coś było z nią nie w porządku. Po uzyskaniu kilku pomiarów jej widma Mayor stwierdził, iż gwiazda jest tak dziwna, że powinni ją obserwować przez dłuższy czas. W grudniu 1994 roku Mayor i Queloz spędzili cały tydzień na obserwacjach 51 Pegasi. Spośród 142 gwiazd na ich liście, ta jedna dawała nonsensowne wyniki: prędkość wyliczona z przesunięć Dopplera wynosiła 60 metrów na sekundę - gwiazda pędziła jak na karuzeli! Pierwszą reakcją Mayora było podejrzenie, że spektrograf źle funkcjonuje. Jak inaczej można wytłumaczyć fakt, że po dziesięciu latach poszukiwań, prowadzonych przez wiele grup astronomów, nie wykryto ani jednego przypadku radialnego ruchu gwiazdy, a on i jego kolega po kilku miesiącach obserwacji odkryli gwiazdę, która porusza się z tak niezwykle dużą prędkością?
Dwaj astronomowie wrócili do obserwacji innych gwiazd, lecz nie znaleźli podobnych efektów - ich linie widmowe nie ulegały cyklicznym zmianom. Doszli więc do wniosku, że to nie spektrograf jest winien, lecz 51 Pegasi. W styczniu 1995 roku ponownie zaczęli ją obserwować i stopniowo z ich obliczeń wyłonił się obraz: coś dużego okrąża 51 Pegasi, lecz nie tak dużego jak brązowy karzeł. Brązowe karły to nieudane gwiazdy. Gwiazdy rodzą się, gdy pył i gaz pozostały po wielkim wybuchu skupia się powoli, tworząc układ zwany przez astronomów dyskiem protoplanetarnym. Układ ten przyciąga coraz więcej materii i zaczyna z wolna wirować wokół własnej osi. Stopniowo tworzą się planetozymale: niewielkie skały krążące wokół centrum dysku. W ciągu tysięcy lat, w miarę jak coraz więcej materii poddaje się jego grawitacyjnemu przyciąganiu, środek dysku powiększa się.
Gdy skupiająca się w środku materia gęstnieje pod wpływem grawitacyjnego zapadania się dysku, ogrzewa się i zaczyna się żarzyć. Jeżeli zgromadzi się dostatecznie dużo materii, przynajmniej tyle, ile zawiera jedna dziesiąta część Słońca, to grawitacyjne przyciąganie doprowadzi do powstania tak wysokich ciśnień i temperatur, że w rdzeniu dysku będą zachodzić reakcje jądrowe: zamiana wodoru w hel w procesie syntezy jądrowej. Obiekt staje się gwiazdą. Ciepło i promieniowanie emitowane przez reakcje jądrowe w centrum dysku zapobiegają dalszemu skupianiu się materii. Gwiazda staje się stabilna i w ciągu milionów lub nawet miliardów lat promieniuje ciepło, światło oraz inne rodzaje promieniowania. Jeżeli dysk nie zgromadzi dostatecznie dużo materii, aby mogły zacząć się reakcje jądrowe, to nie stanie się gwiazdą, lecz brązowym karłem. Brązowe karły emitują niewiele energii i dlatego są niewidoczne.
Wiele gwiazd w naszej Galaktyce tworzy układy podwójne, a niekiedy nawet potrójne, krążąc wokół wspólnego środka masy. Ponad 60% widocznych w Drodze Mlecznej gwiazd należy do takich układów. W ciągu ostatnich kilku lat wykazano, że niektóre układy składają się z gwiazdy i brązowego karła, krążących wokół siebie. Astronomowie definiują brązowe karły jako obiekty o masie większej niż 80 mas Jowisza. Mayor i Queloz próbowali najpierw ustalić, czy odkryty przez nich obiekt nie jest brązowym karłem, gdyż życie nie miałoby szans na powierzchni nieudanej gwiazdy, a zatem ich odkrycie nie przyniosłoby im żadnego tytułu do chwały.
Gdy w środku protoplanetarnego dysku tworzy się gwiazda, pozostały materiał dysku nadal krąży dookoła. W ciągu kolejnych tysiącleci oddziaływań grawitacyjnych pył i planetozymale nieustannie zderzają się ze sobą i stopniowo zaczynają się łączyć. Zgodnie ze standardową teorią astronomiczną w ten sposób wokół podobnych do Słońca gwiazd powstają planety. Astronomowie w całości opierają tę teorię na obserwacjach naszego układu planetarnego. Układ Słoneczny zawiera duże gazowe planety - Jowisza, Saturna, Urana i Neptuna - na odległych orbitach, daleko od Słońca. W pobliżu Słońca krążą małe skaliste planety - Ziemia, Wenus i Mars. Astronomowie uogólnili te obserwacje i doszli do wniosku, że inne układy planetarne muszą również stosować się do tego wzorca. Koncepcja dysku protoplanetarnego bardzo dobrze pasuje do tej teorii. Rozumowanie, które prowadzi do tego wniosku, polega na tym, że ciężkie pierwiastki, takie jak żelazo, oraz skały krążyły bliżej środka dysku, natomiast lekkie, takie jak wodór i hel, przemieszczały się w stronę jego zewnętrznych obszarów. Małe, skaliste planety musiały zatem uformować się w pobliżu nowo powstałej gwiazdy, natomiast duże ilości gazu i wody - w postaci lodu - wraz z niewielkimi ilościami materiału skalnego utworzyły w większych odległościach od środka duże planety - takie jak Jowisz, który ma twardy rdzeń oraz bardzo dużą gazową atmosferę.
To właśnie ta teoria przez wiele miesięcy nie dawała spokoju Mayorowi i Quelozowi. Obiekt, który według nich krążył wokół gwiazdy 51 Pegasi, nie był wprawdzie brązowym karłem, jednak był dość masywny. Potrafili oni w przybliżeniu wyznaczyć jego masę jako 60% masy Jowisza. Gdy jednak dokładnie przejrzeli swoje obliczenia, odkryli zadziwiającą rzecz. Ta „planeta” krążyła wokół swojej gwiazdy w odległości równej jednej ósmej odległości Merkurego od Słońca! Obiekt, który był przyczyną przesunięcia Dopplera w widmie 51 Pegasi, musiałby znajdować się od gwiazdy w odległości równej 5% odległości Ziemi od Słońca. Jakim sposobem planeta przypominająca wielkością Jowisza znalazła się tak blisko swojej gwiazdy? Odkrycie to było sprzeczne z ogólnie przyjętą teorią powstawania planet. W marcu 1995 roku, gdy Mayor i Queloz ponownie testowali swoje przyrządy i sprawdzali obliczenia, aby wykonać jeszcze kilka niezbędnych obserwacji, Pegaz i jego gwiazdy zaczęły pojawiać się coraz rzadziej, aby w końcu na cztery miesiące zniknąć z nieba półkuli północnej. Pojawią się dopiero w lipcu.
Z jakiego powodu wszyscy ci astronomowie w USA, Kanadzie i Europie byli tak przekonani, że wokół innych gwiazd krążą planety? Co skłoniło ich do poświęcenia dziesiątków lat ciężkiej pracy na odkrycie tych planet? Odpowiedź na to pytanie pojawiła się w 1991 roku. W tym roku odkryto nie jedną, lecz aż trzy pozasłoneczne planety. Odkrycia tego nie nagłośniły jednak światowe media, ponieważ gwiazda, wokół której krążą owe planety, jest martwa.
Ostateczny los każdej nowo powstałej gwiazdy zależy wyłącznie od jej masy. Gwiazda o masie nieco mniejszej niż osiem mas Słońca będzie przez kilka miliardów lat przetwarzać wodór w hel, a hel w cięższe pierwiastki. Gdy skończy się jej jądrowe paliwo, powiększy swoje rozmiary i stanie się czerwonym gigantem, po czym odrzuci zewnętrzne warstwy, które rozproszą się w przestrzeni, tworząc tak zwaną mgławicę planetarną. Następnie rdzeń gwiazdy się skurczy, gdyż ciśnieniu grawitacyjnemu nie przeciwstawi się już ciśnienie reakcji jądrowych, i gwiazda stanie się białym karłem, pozostając w tym stanie na zawsze.
Jeżeli jednak gwiazda zacznie życie z masą większą niż osiem mas Słońca, to jej los będzie zupełnie inny. Gwiazdy takie są o wiele jaśniejsze od Słońca, wydzielają znacznie więcej energii i bardzo szybko, przynajmniej w kategoriach astronomicznych, wypalają swoje paliwo. Duża gwiazda może wyczerpać swoje jądrowe paliwo w ciągu milionów lat - w porównaniu z miliardami lat, które upłyną, zanim Słońce i podobne mu gwiazdy przestaną świecić, to dość krótki czas. Ze względu na wysoką temperaturę i rozkład natężenia promieniowania dużych gwiazd, ich kolor jest zbliżony do niebieskiego, gdyż w niebieskiej części widma promieniują więcej energii niż w innych kolorach pasma widzialnego. Gdy życie gwiazdy dobiega końca, jej rozmiary wzrastają i staje się ona nadolbrzymem, a następnie eksploduje. Wybuch taki nosi nazwę supernowej i jest widoczny jako niezwykle jasny punkt na niebie, jaśniejszy niż najmocniejsze gwiazdy. W 1054 roku roku chińscy astronomowie opisali jasne światło na nocnym niebie, które pozostawało widoczne przez kilka miesięcy. Obecnie wiemy, że była to supernowa, której pozostałości są nadal widoczne jako sławna mgławica Krab (oznaczana przez astronomów M1) w gwiazdozbiorze Byka.
W czasie wybuchu supernowej większość materii gwiazdy zostaje z olbrzymią prędkością odrzucona w przestrzeń. Pozostałe po eksplozji resztki, które nadal stanowią dość masywne ciało, zapadają się niemal bez oporu do środka. Siły grawitacji zaczynają je ściskać i pod ich wpływem materia ulega istotnym zmianom. Atomy nie są w stanie utrzymać swojej struktury. Elektrony i protony, ściskane potężną siłą grawitacji, łączą się i tworzą neutrony. Materia martwej gwiazdy tworzy strukturę nie znaną nigdzie indziej we wszechświecie. Jeżeli proces zapadania się na tym się zakończy, to gwiazda, zawierająca teraz niemal wyłącznie neutrony, tworzy tak zwaną gwiazdę neutronową. Średnica typowej gwiazdy neutronowej wynosi około 15 lub więcej kilometrów, lecz jej masa jest większa od masy Słońca. Gwiazda neutronowa jest fantastycznie gęstym obiektem. Łyżka jej materii waży więcej niż ziemska góra. Jeżeli pierwotna gwiazda jest jeszcze bardziej masywna, to proces zapadania nie kończy się na fazie gwiazdy neutronowej. Jej średnica nadal maleje, jej gęstość osiąga nieskończoność i gwiazda zamienia się w czarną dziurę: obiekt o średnicy bliskiej zera i gęstości masy bliskiej nieskończoności. Grawitacyjne przyciąganie czarnej dziury jest tak duże, że nawet światło nie może z niej uciec - stąd jej nazwa.
Większość gwiazd neutronowych wiruje, często z. podziwu godną częstością kilku lub więcej obrotów na sekundę. Potężne pole magnetyczne, produkowane przez wirującą gwiazdę neutronową, jest źródłem silnego, wyraźnie ukierunkowanego promieniowania. Wirująca gwiazda neutronowa, emitująca impulsy promieniowania z taką regularnością, że ich dokładność przewyższa dokładność najlepszych zegarów atomowych, jest zwana p u l s a r e m. Pierwszy pulsar został odkryty przez Jocelyn Bell, która w 1967 roku ukończyła na Cambridge University studia doktoranckie w dziedzinie radioastronomii. Zaobserwowała ona w gwiazdozbiorze Lisa źródło fal radiowych, które emitowało impuls promieniowania co 1,3 sekundy. Początkowo sądziła, że odebrała sygnał obcej cywilizacji, lecz brak przesunięcia Dopplera oznaczał, że źródło sygnału nie mogło znajdować się na planecie. Od tego czasu astronomowie odkryli ponad osiemset pulsarów. Pulsar, który pozostał po zaobserwowanej przez Chińczyków w 1054 roku supernowej, jest jednym z najmłodszych znanych pulsarów. Dokonuje on pełnego obrotu co 0,03 sekundy. Niektóre pulsary osiągają milisekundowe częstości - to znaczy, że wirują z taką częstością, że emitują wiązki fal radiowych co kilka milisekund. Są to prawdopodobnie bardzo stare gwiazdy neutronowe, które przestały emitować fale radiowe, gdyż wyczerpały nawet tę formę energii. Gwiazdy te są obecnie całkowicie martwe. Jednak ich olbrzymia grawitacja mogła w pewnym momencie przyciągnąć materię z przestrzeni lub z pobliskiej gwiazdy. Gdy materia spada na powierzchnię gwiazdy neutronowej, gwiazda zaczyna ponownie wirować, a jej ruch staje się tak szybki, że jeden obrót trwa zaledwie kilka milisekund. W ten sposób powstaje pulsar milisekundowy.
W 1983 roku młody polski astronom, Aleksander Wolszczan, przybył do Puerto Rico, gdzie znajduje się teleskop Arecibo - największy radioteleskop na świecie. Był on wtedy uszkodzony, a naprawa trwała wiele lat. W tym czasie jego 300-metrowej anteny nie można było ustawić w kierunku płaszczyzny galaktyki, co zwykle czynią radioastronomowie, gdy go używają. Wolszczan miał więc niezwykłą okazję do skorzystania z potężnego radioteleskopu w celu poszukiwania pulsarów w mało popularnych kierunkach, takich, którymi nikt inny się nie interesował. Nikt też nie konkurował z Wolszczanem o czas obserwacyjny, dzięki czemu jeden z najdroższych instrumentów astronomicznych był tylko do jego dyspozycji.
Pod koniec 1990 roku radioastronomowie odkryli kilka milisekundowych pulsarów, a Wolszczan, posługując się uszkodzonym dyskiem Arecibo, nieoczekiwanie wykrył nowy pulsar milisekundowy, którego słabe promieniowanie biegło z okolicy gwiazdozbioru Panny. Został on później nazwany PSR B1257+12, a jego źródło znajduje się w odległości 1300 lat świetlnych od Ziemi i wiruje z częstością ponad 161 razy na sekundę, czyli raz na 6,2 milisekundy. Znalazłszy przypadkiem radioźródło leżące dokładnie w kierunku, w którym skierowana była olbrzymia antena unieruchomionego teleskopu, Wolszczan miał mnóstwo czasu na jego zbadanie. Korzystając z pomocy Dale'a Fraila, radioastronoma pracującego przy układzie dwudziestu siedmiu radioteleskopów, zwanym Very Large Array (VLA) i znajdującym się w Nowym Meksyku, ustalił lokalizację pulsara, wykorzystując fakt, że obserwacje pojedynczego źródła fal radiowych z dwóch różnych i odległych obserwatoriów pozwalają na bardzo dokładne wyznaczenie położenia, podobnie jak spoglądanie na przedmiot dwojgiem oczu umożliwia nam lepszą ocenę jego odległości niż za pomocą tylko jednego oka.
W grudniu 1991 roku Wolszczan i Frail odkryli niewielkie zaburzenia sygnału nadchodzącego z PSR BI257+12. Pulsary działają jak kosmiczne zegary, wysyłając fale radiowe z dokładnością przewyższającą każdy zegar ziemski. Jakiekolwiek zmiany ich sygnałów mogą być wykryte i zmierzone z wielką dokładnością. Dwaj astronomowie przeprowadzili komputerową analizę przesunięć częstości obserwowanych sygnałów i po kilku tygodniach stwierdzili, że wokół PSR BI 257+12 krążą trzy różne planety. Ich rozmiary są porównywalne z rozmiarami Ziemi, a ich orbity są zbliżone do wokółsłonecznych orbit Ziemi i Wenus. Dzięki fantastycznej dokładności emisji pulsarów, wyników Wolszczana i Fraila nie sposób zakwestionować, lecz pozostaje do rozwiązania zagadka: Co robią te planety na orbitach wokół gwiazdy, która miliony lat wcześniej eksplodowała w jednym z najpotężniejszych znanych w naturze kataklizmów - w wybuchu supernowej? Gdyby krążyły one wokół pierwotnej gwiazdy-olbrzyma, eksplozja wyrzuciłaby je w przestrzeń. Jedyne wytłumaczenie, które naukowcy potrafili podać, prowadziło do wniosku, że planety te powstały wokół pulsara już po wybuchu supernowej, który zniszczył pierwotną gwiazdę. Pulsar jest martwą gwiazdą, nie emitującą światła ani ciepła, więc szanse na powstanie życia na tych planetach są raczej niewielkie. Co więcej, promieniowanie pulsara jest tak intensywne, że jakiekolwiek powstałe na tych planetach życie zostałoby natychmiast zniszczone przez śmiercionośne wiązki promieni gamma i inne wysokoenergetyczne promieniowanie. Pozostał jednak niepodważalny fakt, że w 1991 roku zostały odkryte trzy planety krążące wokół innego obiektu niż nasze Słońce. Odkrycie to zachęciło do dalszych obserwacji wszystkich astronomów poszukujących planet, na których mogłoby powstać życie - planet krążących wokół normalnych gwiazd, takich jak Słońce.
W październiku 1995 roku we Florencji miała się odbyć międzynarodowa konferencja, na której astronomowie specjalizujący się w pomiarach przesunięcia Dopplera mieli zaprezentować swoje najnowsze wyniki. Mayor i Queloz starali się doprowadzić do końca swoje obserwacje, gdyż obawiali się, że niektórzy z ich konkurentów mogli odkryć planety krążące wokół normalnych gwiazd. Niecierpliwie oczekiwali na powrót Pegaza na nocne niebo, aby zakończyć badania i zaprezentować swoje wyniki we Florencji.
Tuż przed północą Pegaz stał się całkowicie widoczny we wschodniej części nieba, a nad nim majaczył Czworokąt Jesienny. Poniżej Czworokąta Jesiennego dwaj astronomowie mogli gołym okiem dojrzeć 51 Pegasi. Wycelowali swój teleskop i wykonali obserwacje, na które czekali cztery miesiące, aby uzyskać kompletny zestaw odczytów ruchów gwiazdy w ciągu kilku cykli. Aby zwiększyć dokładność pomiarów, musieli jeszcze poczekać na kulminację gwiazdy, czyli jej przejście przez najwyższy punkt na niebie. Miało to nastąpić dopiero o czwartej nad ranem, więc krótko po północy Mayor i Queloz odesłali swoich bliskich do łóżek i pozostali w obserwatorium sami. Jeżeli wszystko pójdzie po ich myśli, to rano będą wspólnie z rodzinami świętować swoje odkrycie. Minęły cztery godziny, wykonali swój ostateczny test i mogli w końcu definitywnie wykazać, że planeta o rozmiarach co najmniej 60% Jowisza krąży blisko gwiazdy 51 Pegasi, dokonując pełnego obrotu co 4,2 dnia. Dołączywszy rankiem do swoich rodzin, uczcili odkrycie szampanem i tortem malinowym. Trzyletni syn Didiera Queloza, najmłodszy uczestnik uroczystości, był zapewne jeszcze zbyt młody, aby zrozumieć powód wielkiego podniecenia.
Mayor i Queloz sformułowali swoje wnioski w publikacji, którą zaprezentowali we Florencji w październiku 1995 roku. W ciągu kilku dni po ogłoszeniu przez nich tego odkrycia, Geoffrey Marcy i Paul Butler zweryfikowali - niezależnie od Szwajcarów - własne wyniki. Planeta krążąca wokół 51 Pegasi stała się faktem. W ciągu następnego roku Marcy i Butler przeanalizowali swoje obserwacje i ogłosili istnienie kilku innych pozasłonecznych planet krążących wokół podobnych do Słońca gwiazd. Inne zespoły odkryły jeszcze więcej planet. Do 1997 roku stwierdzono istnienie dziewięciu pozasłonecznych planet krążących wokół gwiazd należących do tej samej klasy co Słońce. Czy na którejś z nich rozwinęło się inteligentne życie? Spośród dziewięciu pozasłonecznych planet jedna - krążąca wokół gwiazdy 70 Virginis - prawdopodobnie znajduje się w zamieszkiwalnej strefie swojej gwiazdy. Czy istnieje na niej życie?
Rozdział 3
CHEMIA WSZECHŚWIATA
W 1864 roku do laboratorium Ludwika Pasteura - wielkiego francuskiego chemika i mikrobiologa (1822-1895), odkrywcy procesu pasteryzacji - przyniesiono dziwny meteoryt, wyglądający raczej jak kawałek spalonej materii. Obiekt ten spadł na ziemię 15 marca 1806 roku o 17.30, wywołując głośną eksplozję, w pobliżu wioski Valence w południowej Francji. Dwaj pracujący na pobliskim polu rolnicy zobaczyli spadający z nieba duży przedmiot i pobiegli go zobaczyć. To, co ujrzeli, nie przypominało niczego, co widzieli wcześniej. Przedmiot ów wyglądał jak duży kamień, lecz był bardziej miękki i cały czarny - wyglądał jak kawałek spalonego gruzu. Tajemniczy obiekt został zbadany przez naukowców, którzy, ku swojemu zaskoczeniu, odkryli, że zawierał on 20% wody i 10% materii organicznej. Było to zadziwiające odkrycie, zważywszy na fakt, że chodziło o meteoryt. Meteoryty to obiekty, które spadają na Ziemię z przestrzeni kosmicznej. Zazwyczaj dzieli się je na żelazne, zbudowane z żelaza oraz niklu, i kamienne, czyli kawałki pozaziemskich skał. Kamienne meteoryty zdarzają się zdecydowanie częściej, lecz niełatwo je znaleźć, ponieważ są bardzo podobne do zwykłych ziemskich kamieni i skał. Meteoryty żelazne łatwo odróżnić, ponieważ są gęstsze od kamieni i przy uważnym badaniu ujawniają swoją metaliczną strukturę. Jednak meteoryt znaleziony w Valence był zupełnie inny.
W swoim Memoir on the Organized Bodies Which Exist in the Atmosphere [Rozprawa o zorganizowanych ciałach istniejących w atmosferze] Pasteur stwierdził, że powietrze zawiera drobnoustroje. Gdy zostaną one umieszczone w środowisku, w którym mogą się rozwijać, na przykład na szalce Petriego, zaczynają się rozmnażać, a ich obecność można wykryć. Pasteur wynalazł techniki sterylizacyjne, za pomocą których oddzielał organizmy i badał, gdzie i w jakich warunkach mogą one istnieć. Do badania zwęglonego meteorytu, który mu dostarczono, skonstruował specjalne wiertło, aby wydobyć próbki z jego środka. Stosując tę metodę, miał nadzieję, że będzie mógł sprawdzić, czy wewnątrz meteorytu istniało życie, zanim doszło do ewentualnego zanieczyszczenia na Ziemi. Wydobycie próbek z wnętrza meteorytu było szczególnie ważne, ponieważ zanim dostarczono go do laboratorium Pasteura, meteoryt był dotykany przez ludzi oraz eksponowany w muzeach. Stosując sterylne metody, Pasteur wydobył niewielkie próbki materii z meteorytu, które następnie umieścił w środowisku sprzyjającym rozwojowi materii organicznej. Okazało się, że meteoryt nie zawierał żywych organizmów, aczkolwiek nie było żadnych wątpliwości, że znajdowały się w nim złożone związki chemiczne, które nazywamy materią organiczną.
Obecnie naukowcy wiedzą, że około 5% wszystkich spadających na Ziemię meteorytów należy do tej samej kategorii, co meteoryt z Valence. Nazywamy je chondrytami węgli s ty mi, ponieważ zawierają węgiel i związki organiczne. Sądzi się, że powstały one w przestrzeni kosmicznej w okresie, gdy nasz układ był jeszcze młody: niektóre z nich datuje się na 4,5 miliarda lat. Te pozostałości z czasów powstawania Układu Słonecznego przybywają na Ziemię w taki sam sposób jak meteoryty kamienne i żelazne. Ponowne i rygorystyczne analizy chemiczne francuskich meteorytów wykazały obecność ciężkich cząsteczek: parafin, smoły, kwasów tłuszczowych i innych opartych na węglu molekuł. Dla poszukiwań życia pozaziemskiego dane te są niezwykle istotne, gdyż są to związki chemiczne, które tworzą białka i inne składniki żywej materii.
Kolejny chondryt węglisty, nazwany meteorytem z Murchison, wylądował w Australii w 1969 roku. Analiza tego meteorytu przyniosła wielką niespodziankę: zawierał on pięćdziesiąt aminokwasów, z których osiem wchodzi w skład wszystkich białek. Chondryty węgliste są bezpośrednim dowodem na to, że w przestrzeni kosmicznej istnieje materia organiczna. Czym jednak jest materia organiczna? Czy stanowi ona życie? Jakie pierwiastki chemiczne i jakie procesy istnieją w przestrzeni kosmicznej?
Fabrykami pierwiastków chemicznych są gwiazdy. Jeżeli teoria wielkiego wybuchu jest słuszna, to wszechświat zaczął się od gigantycznej eksplozji około 14 miliardów lat temu, kiedy to olbrzymie ilości materii i energii - Einstein wykazał, że w istocie są one równoważne - zostały wyrzucone w przestrzeń, którą stworzyły i zaczęły się wraz z nią rozszerzać. Z początku istniało tylko promieniowanie i lekkie cząstki, które poruszały się z olbrzymimi prędkościami, zderzając się ze sobą. Po pewnym czasie z tych lekkich cząstek powstała materia barionowa, czyli znane nam cząstki: protony, neutrony oraz atomy.
Najlżejszym pierwiastkiem we wszechświecie jest wodór. Zawiera on tylko dwie cząstki o równych co do wielkości, lecz przeciwnych ładunkach elektrycznych: dodatnio naładowany proton i ujemnie naładowany elektron. Jądro wodoru składa się z pojedynczego protonu, wokół którego porusza się elektron. Pozostałe po wielkim wybuchu elektrony, spotykając na swej drodze protony, ulegały elektrycznemu przyciąganiu i utworzyły olbrzymią liczbę atomów wodoru. Gdy spotkały się dwa atomy wodoru, wchodziły w reakcję chemiczną, tworząc cząsteczkę wodoru, H2. Naukowcy sądzą, że atomowy i molekularny wodór stanowił najbardziej rozpowszechniony pierwiastek wczesnego wszechświata.
Pierwotna chmura wodoru rozprzestrzeniła się po wielkim wybuchu i następnie zaczęła tworzyć wielkie skupiska, które rozszerzały się wraz z resztą wszechświata. W miarę upływu czasu chmury wodoru gęstniały coraz bardziej - ze względu na przyciąganie grawitacyjne, jakie materia wywiera na wszystko, co ją otacza. Gdy chmura wodoru gęstniała, rosła jej temperatura i w pewnym momencie ciepło i ciśnienie były tak duże, że wyzwoliły r e a k c j e jądrowe: jądra wodoru zaczęły się łączyć, tworząc jądra helu i uwalniając przy tym znaczne ilości energii. W powstałych warunkach wodór nie mógł istnieć w postaci cząsteczki - dwóch połączonych siłami elektrycznymi atomów. Ciśnienie i temperatura zmusiły dwa jądra do połączenia się, przyłączenia dwóch neutronów i utworzenia nowego jądra. Uwolniona podczas tej reakcji energia miała formę promieniowania, łącznie ze światłem i promieniowaniem cieplnym. Takie same reakcje zachodzą wewnątrz naszego Słonek- W ten sposób we wszechświecie, zawierającym głównie wodór, pojawił się nowy pierwiastek - hel.
Hel odkrył sir Joseph Norman Lockyer (1836-1920) w 1868 roku, nie znalazł go jednak na Ziemi, lecz wydedukował jego istnienie wewnątrz Słońca, obserwując nowe, wcześniej nie zidentyfikowane linie widmowe w świetle słonecznym. Lockyer sądził, że odkryty przez niego pierwiastek jest metalem, więc nadał mu nazwę helium: pierwsza część tego słowa, „hel” pochodzi od greckiego Helios, oznaczającego Słońce, natomiast przyrostek „ium” oznacza metal (podobnie jak w łacińskich nazwach sodium, calcium oznaczających odpowiednio sód i wapń oraz w nazwach innych metali). Jak na ironię hel znajdujący się na Ziemi nie pochodzi z olbrzymich zapasów helu zmagazynowanych w Słońcu. Hel, który pojawił się na Ziemi w trakcie powstawania planety, już dawno uleciał w przestrzeń. Niewielkie ilości helu, które obecnie znajdujemy na Ziemi, pochodzą z radioaktywnych rozpadów innych pierwiastków.
Gdy gwiazda wypali cały wodór, grozi jej grawitacyjny kolaps, chyba że może kontynuować spalanie i zamieniać hel w rdzeniu w nowy pierwiastek: węgiel. Powstanie węgla było najbardziej fortunnym zdarzeniem w historii wszechświata, gdyż dzięki niemu na Ziemi mogło rozwinąć się życie. Bez cudownej przemiany helu w węgiel życie w takiej formie, jaką znamy na Ziemi, nie mogłoby powstać. Dlaczego węgiel jest taki ważny? Odpowiedź należy do chemii.
W odróżnieniu od reakcji jądrowych - które zachodzą w jądrach atomów - reakcje chemiczne łączą atomy dzięki wymianie lub uwspólnianiu elektronów. Węgiel może utworzyć oparte na uwspólnianiu elektronów wiązania chemiczne z czterema innymi atomami. Mogą to być inne atomy węgla, atomy innych pierwiastków lub ich związki. Oparte na węglu cząsteczki chemiczne mogą tworzyć zdumiewająco różnorodne kombinacje atomów, czyniąc z węgla najbardziej wszechstronny atom we wszechświecie.
Każdy diament jest olbrzymią, pojedynczą cząsteczką zbudowaną wyłącznie z atomów węgla. Każdy jej atom jest ściśle związany z czterema innymi atomami węgla, znajdującymi się w wierzchołkach czworościanu. Krystaliczna struktura diamentu stanowi przyczynę zarówno jego twardości, jak i właściwości estetycznych. Ten sam atom węgla może jednak przyłączyć zaledwie dwa atomy tlenu, dzieląc z każdym z nich po dwa elektrony i tworząc cząsteczkę gazu - dwutlenku węgla, CO2. Inną opartą na węglu cząsteczką jest metan, który składa się z atomu węgla złączonego z czterema atomami wodoru, przestrzennie rozłożonymi wokół niego: CH4. Metan i dwutlenek węgla istnieją w dużych ilościach na wszystkich planetach, na których wykryto węgiel. Pierwotna atmosfera Ziemi składała się głównie z tych dwóch gazów. Jej skład zmieniło dopiero pojawienie się życia. Węgiel lubi także tworzyć długie łańcuchy lub pierścienie, do których mogą się przyłączać inne atomy, na przykład wodór i jeszcze kilka pierwiastków. W tym sensie węgiel stanowi dosłownie rdzeń wielu dużych i skomplikowanych, występujących w naturze cząsteczek.
Tu wkraczamy w olbrzymi obszar chemii organicznej. Nazwa wzięła się stąd, że wiele spośród tych związków pochodzi od organizmów żywych. Znane są miliony różnych organicznych związków chemicznych - to jakby hołd dla niewiarygodnej zdolności węgla do tworzenia wiązań na prawie nieskończoną liczbę sposobów. „Organiczne” związki, które w postaci chondrytów węglistych przybyły na Ziemię z przestrzeni kosmicznej, to dokładnie takie same duże molekuły, zbudowane z połączonych atomów węgla otoczonych atomami wodoru i kilku innych pierwiastków. Wydaje się zatem, że otwarta przestrzeń również zawiera cudowne atomy węgla. Skąd jednak wziął się węgiel?
Młody wszechświat składał się z prostych gazów - wodoru i helu. Spalające wodór gwiazdy mogły przeciwstawić się grawitacyjnemu zapadaniu, dopóki miały paliwo jądrowe. Najpierw zamieniały wodór w hel, następnie hel w węgiel, a jeszcze cięższe gwiazdy mogły kontynuować ten proces, produkując kolejne pierwiastki: azot, tlen, fosfor, żelazo. Gdy powstało żelazo, reakcje jądrowe musiały się zakończyć, ponieważ reakcje syntezy atomów żelaza nie produkują energii - wprost przeciwnie, potrzebują jej. Gwiazda ginie, gdy zamieni całą swoją materię w żelazo. Śmierć gwiazdy polega na wybuchu supernowej lub na powstaniu mgławicy planetarnej. Mgławice planetarne wzbogacają wszechświat w lekkie pierwiastki - głównie węgiel- powstałe w mniejszych gwiazdach. Gdy dostatecznie duża liczba gwiazd zakończyła swoje trwające miliony lub miliardy lat życie, we wszechświecie pojawiło się dostatecznie dużo swobodnie przemieszczających się, bogatych w różne pierwiastki gazów i pyłów, aby powstające nowe protoplanetarne dyski mogły zawierać znaczące ilości chemicznie urozmaiconej materii. Nasz Układ Słoneczny ma „zaledwie” 5 miliardów lat, natomiast cały wszechświat liczy około 12 do 15 miliardów lat. Układy, które istniały przed powstaniem naszego Słońca, prawdopodobnie nie zawierały dostatecznie dużo niezbędnych do powstania życia pierwiastków chemicznych. Jest raczej mało prawdopodobne, że życie - w takiej postaci, w jakiej znamy je na Ziemi - mogłoby powstać na gazowym gigancie złożonym głównie z wodoru i z lodowego rdzenia, na planecie podobnej do Jowisza.
Niektórzy naukowcy uważają, że życie mogło rozwinąć się tylko wokół gwiazdy należącej do dużej galaktyki, takiej jak nasza Droga Mleczna, ponieważ tylko duże galaktyki zawierają dostateczną ilość materii, aby mogła powstać dostatecznie duża liczba gwiazd, które - gdy umrą - wzbogacą galaktyczną przestrzeń w dostateczną ilość niezbędnych do powstania życia pierwiastków chemicznych. Żelazo, z którego zrobiony jest twój samochód, a także hemoglobina w twojej krwi, znajdowało się niegdyś głęboko wewnątrz dużej gwiazdy, która w odległej przeszłości eksplodowała jako supernowa. Sczepione w długie łańcuchy atomy węgla tworzące twój kod genetyczny, zostały wyplute w przestrzeń przez dawno umarłą gwiazdę. Przeszła historia wszechświata, miliardy lat, które upłynęły od wielkiego wybuchu, są przyczyną naszego istnienia tu i teraz. W pewnym sensie jesteśmy reinkarnacjami martwych ciał niebieskich, które pojawiły się o kosmicznym poranku.
Chemiczna „zupa”, która przenika niektóre obszary przestrzeni - gdzie gwiazdy ginęły, a ich zawartość rozlewała się i wypełniała sześcienne lata świetlne międzygwiezdnej pustki - staje się chemicznie aktywna, w miarę jak pierwiastki chemiczne zaczynają się mieszać. Za pomocą analizy spektralnej biegnącego przez międzygwiezdną przestrzeń światła naukowcy stwierdzili istnienie złożonych cząsteczek w międzygwiezdnych chmurach gazu i pyłu. Organiczne molekuły chondrytów węglistych powstały więc w kosmicznej pustce, gdy atomy wodoru napotkały węgiel. Jednak węgiel nie zawsze czekana śmierć gwiazdy, aby wybrać się w międzygwiezdną podróż. Niekiedy sam startuje.
Naukowców od dawna dziwiło istnienie gwiazd zmiennych, dla których okresy jasności i przyciemniania nie układały się w regularny wzorzec, który z kolei można by przypisać obecności niewidocznego, krążącego wokół gwiazdy towarzysza. Najbardziej znanym przykładem takiej nieregularnej gwiazdy zmiennej jest R Coronae Borealis. Należy ona do gwiazdozbioru Corona Borealis - Korony Północnej, pięknego łuku na północnym niebie. Co kilka tygodni R Cor Bor - pod taką nieformalną nazwą jest znana - przygasa o kilka rzędów wielkości. Naukowcy nie mogli zrozumieć, dlaczego tak się dzieje, dopóki nie użyli metod spektralnych do zbadania zawartości gwiazdy, a raczej do zbadania, które linie spektralne są absorbowane, gdy gwiazda przygasa. Rezultat był zaskakujący: gwiazda wydziela olbrzymie chmury sadzy - cząstek węgla, które na pewien czas przykrywają jej otoczenie, zasłaniając emitowane przez nią światło. Gdy chmury węgla rozproszą się w przestrzeni, gwiazda ponownie się rozjaśnia, aż do następnego wytrysku sadzy. Co jednak dzieje się z tym węglowym pyłem? Czyż przestrzeń nie jest pusta?
Z obserwacji pustych połaci przestrzeni wiemy, że nie jest ona jednorodna. Wokół Ziemi i Słońca znajdują się lata świetlne bardzo pustej przestrzeni, w której na centymetr sześcienny przypada zaledwie jedna cząstka. Dzięki temu możemy wysyłać statki kosmiczne na orbitę wokółziemską, na Księżyc, w kierunku innych planet lub poza Układ Słoneczny.
Istnieją jednak duże obszary odległej przestrzeni, gdzie materia jest znacznie gęstsza. Mgławica Orła, znajdująca się 8000 lat świetlnych od nas, obszar przestrzeni rozciągający się na kilka lat świetlnych w każdym kierunku, składa się z gargantuicznych chmur pyłu i gazu zawierających wiele różnych pierwiastków. Podobne chmury występują w wielu innych rejonach wszechświata. W tych gęstych chmurach nie mógłby podróżować żaden pojazd kosmiczny, gdyż ich materia gęstnieje coraz bardziej i krzepnie, formując gwiazdy i planety. Prawdopodobnie tak wyglądała przestrzeń wokół nas 5 miliardów lat temu, dopóki olbrzymie chmury nie skondensowały się i nie utworzyły Słońca oraz jego planet. Być może gwiazdy położone najbliżej nas - odległy o 4,25 roku świetlnego układ Alfa Centauri - powstały z tej samej chmury Jeżeli rozciągała się ona dostatecznie daleko w czasie, gdy powstał Układ Słoneczny.
Galaktyki zawierają mnóstwo rodzących gwiazdy chmur. Teleskopowe obserwacje odległych galaktyk pozwalają zobaczyć wiele mgławicowych obszarów. W Drodze Mlecznej nawet za pomocą małego amatorskiego teleskopu można zobaczyć siedliska nowo powstających gwiazd. Mgławica Oriona, zwana M42, leży poniżej miecza wiszącego u pasa łowcy. Chmura ta, położona 1500 lat świetlnych od nas, ma średnicę 15 lat świetlnych i jest widoczna gołym okiem jako mglista plama na nocnym niebie. W jej wnętrzu powstają tysiące nowych gwiazd.
Najbardziej imponująca jest chmura położona w kierunku Sagittariusa. Gwiazdozbiór Sagittariusa, czyli Strzelca, na półkuli północnej jest widoczny w lecie tuż nad horyzontem w kierunku południowym. Jego nazwa pochodzi od mitycznego greckiego centaura Krotosa - pół człowieka, pół konia. Trzyma on w rękach łuk i strzałę, kierując ją w stronę potężnego skorpiona położonego w gwiazdozbiorze Skorpiona. Strzelca łatwo rozpoznać po tym, że mniej przypomina on strzelca, a bardziej czajniczek do herbaty. Wystarczy odszukać na niebie Przechylony staromodny czajnik, z uszkiem po lewej, z trójkątną pokrywką i z dzióbkiem po prawej stronie. Nietrudno wyobrazić sobie lejącą się do filiżanki gorącą wodę. Patrząc w kierunku dzióbka, kierujemy wzrok w stronę środka naszej Galaktyki, Drogi Mlecznej Wtedy pojawia się coś dziwnego.
Nasza Galaktyka zawiera setki miliardów gwiazd. Gdy spoglądamy w kierunku jej centrum, położonego tysiące lat świetlnych od nas, powinniśmy widząc znacznie więcej gwiazd niż w jakimkolwiek innym kierunku n a niebie. A w rzeczywistości wcale tak nie jest. Widzimy Strzelca, na prawo od niego Skorpiona, lecz nic więcej - niebo nie jest pełne jasnych gwiazd, jak moglibyśmy się spodziewać. Powód tego oczywistego paradoksu stał się zrozumiały dosyć niedawno, gdy Kosmiczny teleskop Hubble'a został wycelowany w kierunku Strzelca i zaczaj obserwować częstości podczerwone. Niebo w tym kierunku stało się nagle bardzo jasne. Okazało się, że w kierunku środka Drogi Mlecznej leżą olbrzymie gwiazdy, gwiazdy emitujące niewiarygodne ilości energii - gwiazdy miliony razy jaśniejsze od Słońca. Nie możemy ich jednak zobaczyć w widzialnym zakresie promieniowania, ponieważ centrum Galaktyki zasłania niezwykle duża i gęsta chmura gazu i pyłu. Powstają w niej miliony gwiazd, lecz nie możemy zobaczyć ani jednej z nich. Droga Mleczna zawiera wielkie ilości ciemnej materii, jak naukowcy nazywają niewidoczne chmury pyłu - swobodnie przemieszczające się wewnątrz galaktyki - których bogactwo chemiczne stało się przyczyną powstania życia. Przede wszystkim dały nam one obfite ilości węgla, głównego pierwiastka życia, a także wodór i inne pierwiastki.
Tlen: źródło energii dla życia
Tlen jest najbardziej rozpowszechnionym pierwiastkiem w płaszczu Ziemi. Licząc według wagi, tlen stanowi 89% wody, 23% powietrza (21% objętości powietrza) oraz 50% powszechnie występujących na Ziemi krzemianów. Ta obfitość tlenu również wynika ze śmierci gwiazd, które wytworzyły tlen w trakcie swoich przemian jądrowych. Masa atomowa tlenu jest większa niż węgla, więc jego synteza odbywała się w wyższej fazie reakcji jądrowych. Atom tlenu może się łączyć z innymi atomami przez wiązanie chemiczne, w którym udział biorą dwa elektrony. Stanowi to tylko połowę liczby połączeń, jakie może utworzyć węgiel (dysponujący czterema chemicznie aktywnymi elektronami), więc tlen tworzy mniejszą liczbę wiązań chemicznych niż węgiel.
Tlen jest jednak niezwykle aktywnym pierwiastkiem. To właśnie jego reaktywność jest niezwykle użyteczna dla organizmów żywych. Gdy tlen łączy się z innymi atomami, uwalnia energię, która może być wykorzystana przez organizm, podtrzymując życie. Wspomnieliśmy już powszechnie występujące wiązanie chemiczne, w którym brał udział tlen, tworząc cząsteczkę dwutlenku węgla: CO2. Każdy atom tlenu dzieli dwa elektrony z atomem węgla. Woda jest kolejną powszechną cząsteczką, w której występuje tlen: H2O. Są to silne wiązania - zarówno dwutlenek węgla, jak i woda stanowią bardzo stabilne cząsteczki. Gdy nie ma w pobliżu innych atomów, atomy tlenu łączą się w pary, dzieląc się dwoma elektronami. Jednak podobnie jak para zbyt dobrze dobranych kochanków, nie są szczęśliwe w tym związku: wiązanie łatwo się łamie, gdy w pobliżu znajdą się inne, bardziej atrakcyjne pierwiastki - dlatego tlen jest bardzo reaktywny. Gdy substancja zawierająca związek węgla wchodzi w kontakt z tlenem, a iskra lub ciepło dostarczy energię potrzebną do zainicjowania reakcji, substancja ta zacznie się palić: atomy tlenu uwolnią się od siebie nawzajem i każdy z nich połączy się z atomem węgla, tworząc silnie związaną cząsteczkę CO2.
W sprzyjających warunkach pierścienie i długie łańcuchy węglowodorów łatwo ulegają natarczywości tlenu: mieszaninie tlenu i pary benzyny w cylindrze silnika samochodowego wystarczy jedna iskra, aby zainicjować reakcję, która utrzymuje auto w ruchu. Produktem tej reakcji są dwie stabilne cząsteczki, dwutlenek węgla i woda. Gdy bogata w węgiel substancja pali się w atmosferze zawierającej niedostateczną ilość tlenu, powstaje mniej stabilny związek tlenu i węgla - cząsteczka tlenku węgla, CO. Jej wiązanie jest mniej optymalne, gdyż dwa spośród czterech aktywnych elektronów węgla pozostają nie wykorzystane. Dlatego tlenek węgla nie jest tak trwały jak dwutlenek węgla i gdy dostanie się do krwi, wchodzi w reakcję z przenoszącą tlen hemoglobiną - powodując zatrucie żywej istoty, gdy stężenie CO jest wysokie.
Odwrotny proces, uwolnienie tlenu z dwutlenku węgla, to trudne zadanie, lecz niektóre organizmy żywe potrafią sobie z nim poradzić. Astrofizycy sądzą, że na pozbawionych życia planetach wolny tlen będzie występował w niewielkich ilościach w postaci cząsteczki O2 lub mniej stabilnej cząsteczki ozonu, O3, ponieważ woda i dwutlenek węgla nie mają innego sposobu uwolnienia tlenu niż stosowane przez rośliny procesy metabolizmu. Gdy na Ziemi rozwinęło się życie roślinne, reakcja fotosyntezy zaczęła wypełniać atmosferę tlenem. Proces ten polega na rozerwaniu cząsteczki CO2 przez promienie słoneczne i uwolnieniu tlenu oraz zapewnieniu roślinom niezbędnej do życia energii. Po wielu milionach lat aktywnej fotosyntezy atmosfera zawierała znaczne ilości tlenu (obecnie 21% objętości powietrza stanowi tlen), co umożliwiło powstanie i podtrzymanie życia zwierzęcego. Gdy spalamy paliwa kopalne, przesuwamy wskazówkę na skali składu atmosfery od tlenu w kierunku dwutlenku węgla. Gdy ścinamy i spalamy drzewa, popełniamy podwójną zbrodnię, ponieważ nie tylko usuwamy z atmosfery tlen i produkujemy cieplarniany gaz CO2, lecz na dodatek likwidujemy producentów tlenu.
Duże ilości tlenu w atmosferze świadczą o procesie fotosyntezy, więc poszukiwania życia pozaziemskiego w dużej mierze polegają na poszukiwaniach planet z tlenem w atmosferze. Niedawne obserwacje Tytana, księżyca Saturna, wykazały obecność pewnych ilości ozonu, a wcześniejsze obserwacje Europy i Ganimedesa, księżyców Jowisza - obecność tlenu. Jeżeli odkrycia te zostaną potwierdzone, to mogą być dowodem obecności życia na niektórych satelitach planet Układu Słonecznego. Widma dwu pobliskich, podobnych do Słońca gwiazd: Epsilon Eridani oraz Tau Ceti, znajdujących się w odległości, odpowiednio, 10,7 i 11,8 roku świetlnego od Ziemi, wskazują na obecność węgla i tlenu. Oznacza to, że pierwiastki te są obecne w atmosferach obu gwiazd. Nie wiemy jednak, czy gwiazdy te mają planety, a jeśli nawet mają, to czy tlen i węgiel występują również w atmosferach samych planet. Dla poszukiwaczy życia pozaziemskiego stwierdzenie obecności wolnego tlenu w atmosferze krążącej wokół pobliskiej gwiazdy planety stanowiłoby cudowną wiadomość.
Azot: podstawa białek
Oprócz węgla, wodoru, tlenu i niekiedy również innych pierwiastków, takich jak siarka, fosfor, żelazo i miedź, wszystkie białka zawierają około 16% azotu. Bez azotu życie w znanej nam na Ziemi postaci nie mogłoby istnieć.
Azot lubi łączyć się z trzema atomami wodoru, dzieląc z każdym jeden elektron i tworząc amoniak, NH3. Ten nieprzyjemnie pachnący gaz pojawia się wszędzie tam, gdzie materia organiczna ulega rozkładowi, na przykład w gnojowiskach. Amoniak jest bardziej stabilną cząsteczką niż złożone molekuły białek, więc powstaje w procesie ich rozpadu; występuje na niektórych planetach Układu Słonecznego, łącznie z lodem i metanem. Związki zawierające węgiel, wodór, tlen i azot są prawdopodobnie obecne wszędzie we wszechświecie. Dwa atomy azotu łączą się przez silne potrójne wiązanie, dzieląc trzy pary elektronów i tworząc stabilną cząsteczkę N2. Molekularny azot stanowi 80% objętości powietrza na Ziemi.
Siarka: czy jest alternatywą dla węgla?
Siarka jest cięższym pierwiastkiem. Czy może ona zastąpić węgiel jako rdzeń procesów życia gdzieś we wszechświecie? Gdy siarka się pali, otrzymujemy dwutlenek siarki, aczkolwiek niekiedy powstaje także tlenek lub trójtlenek. Różnorodność możliwych wiązań siarki świadczy o jej wszechstronności - tworzy także łańcuchy i pierścienie przypominające nieco związki węgla. Często występujący związek siarki tworzy pierścień ośmiu atomów, S8. Siarka istnieje również w postaci długich łańcuchów utworzonych przez połączone ze sobą atomy.
Frank Drake mówił mi, że - jego zdaniem - pozaziemskie życie może być oparte na siarce. Sądzę, że doszedł do tego wniosku na podstawie ewidentnej zdolności siarki do tworzenia dużych cząsteczek. Mimo że potrafi ona układać się w długie łańcuchy lub duże pierścienie, możliwości siarki są jednak ograniczone w tym sensie, że nie tworzy ona licznych wiązań z innymi pierwiastkami. Węgiel tworzy długie łańcuchy i pierścienie, do których inne pierwiastki - wodór, tlen, azot i wiele innych - mogą zostać przyłączone. Długie cząsteczki siarki mają tendencję do przyłączania tylko atomów siarki. Ta właściwość siarki ogranicza jej możliwości tworzenia rozmaitych związków niezbędnych dla rozwoju życia.
A co z krzemem?
Krzem również był brany pod uwagę jako ewentualna podstawa życia. Z chemicznego punktu widzenia jest to logiczne rozumowanie, ponieważ wartościowość krzemu jest taka sama jak węgla - wynosi również 4. Można by się spodziewać, że krzem będzie zachowywać się podobnie jak węgiel i równie łatwo tworzyć rozmaite cząsteczki, zbudowane wokół krzemowego rdzenia. Jednak krzem (a także bor i german) jest metaloidem - wykazuje niektóre właściwości chemiczne metali i niektóre niemetali. Metale, niezależnie od ich chemicznej walencyjności, nie tworzą związków podobnych do życiodajnych cząsteczek węgla. Jako pierwiastek pośredni między metalem i niemetalem, krzem stanowi podstawę kwarcu (heksagonalny kryształ dwutlenku krzemu), szkła (krzemiany boru i glinu), cementu portlandzkiego (krzemiany wapnia), a także piasku, zaprawy murarskiej i azbestu. Dosyć trudno wyobrazić sobie życie oparte na którejś z tych substancji. Interesującego odkrycia dokonano w kraterze meteorytowym w Arizonie - znajduje się tam coesyt, związek zawierający czterotlenek krzemu. Krzem występuje w przestrzeni, lecz znajduje się głównie w skałach, podobnie jak na Ziemi. W odróżnieniu od węgla krzem nie tworzy długich łańcuchów lub pierścieni, gdy wiąże się z wodorem i tlenem. Najdłuższy taki łańcuch zawiera trzy ustawione w szereg atomy krzemu - za mało, abyśmy mogli spodziewać się odkrycia opartego na krzemie życia pozaziemskiego. Wydaje się, że węgiel ma wyjątkowe kwalifikacje do tego, by stanowić podstawę życia. Następny rozdział dostarczy jeszcze więcej dowodów na poparcie tego twierdzenia.
Rola metali
Hemoglobina w naszej krwi zawiera żelazo. Bez żelaza nie moglibyśmy żyć, gdyż tlen nie docierałby do komórek całego organizmu. W krwi kraba do transportu tlenu służy inna cząsteczka, oparta na miedzi. Nasze nerwy działają dzięki elektrycznemu potencjałowi jonów sodu i potasu, a nasze kości i zęby są zbudowane ze związków wapnia. Do zachowania zdrowia potrzebujemy jeszcze niewielkich ilości cynku i kilku innych metali. Metale są na ogół produkowane w wybuchach supernowych. Szczęśliwym zbiegiem okoliczności tak niezbędne dla naszego życia metale istnieją w pobliżu.
Kryształy
Większość ciał stałych występuje w postaci krystalicznej. Atomy kryształu są ułożone według określonego, powtarzalnego wzoru w sieci trójwymiarowej. Regularna konfiguracja atomów w krysztale decyduje o jego cechach, na przykład o wielościennym kształcie - może to być sześcian lub czworościan. Spotkaliśmy już jeden z kryształów: węgiel w postaci diamentu. Strukturę kryształów - charakterystyczny układ atomów lub cząsteczek - bada się za pomocą dyfrakcji promieni X. Tę dziedzinę wiedzy rozwinął niemiecki fizyk, Max von Laue (1879-1960), który odkrył zjawisko dyfrakcji promieni X na kryształach, oraz fizycy brytyjscy William Henry Bragg i William Lawrence Bragg.
Na początku lat siedemdziesiątych, będąc jeszcze studentem University of California w Berkeley, pracowałem jako asystent profesora chemii w Lawrence Berkeley Laboratory. Gabor Somorjai, węgierski chemik, który uciekł na Zachód w czasie powstania w 1956 roku, również znalazł się w Berkeley. Był on ekspertem w dziedzinie chemii powierzchni, czyli w badaniach reakcji chemicznych, które zachodzą na powierzchni kryształów. W ciągu kilku lat zdołał utworzyć w Berkeley doskonałą grupę badawczą, w której zawsze pracowało co najmniej siedmiu lub ośmiu doktorantów poświęcających cały swój wysiłek badawczy na bombardowanie kryształów platyny niskoenergetycznymi wiązkami elektronów. Każdy z tych eksperymentów był wykonywany w stalowej komorze próżniowej, której ściany powleczono złotem, by zapobiec niepożądanym reakcjom chemicznym. Wiązkę elektronów wytwarzano elektrycznie wewnątrz komory, a następnie kierowano ją na umieszczony w środku komory kryształ platyny. Każdy student Somorjaiego miał do swojej dyspozycji własna aparaturę, która wtedy kosztowała ponad sto tysięcy dolarów.
Gabor Somorjai dysponował jednym z największych budżetów badawczych w Berkeley. Pieniądze otrzymywał głównie od firm naftowych, ponieważ grupa Somorjaiego prowadziła badania nad prototypami katalizatorów stosowanych obecnie w układach wydechowych samochodów. Katalizator to substancja, która wpływa na tempo reakcji chemicznej. Katalizator samochodowy, a ściślej konwerter katalityczny, to układ, który ułatwia, czyli przyspiesza zamianę obecnych w spalinach samochodowych szkodliwych dla środowiska związków węgla w mniej szkodliwe. W organizmie człowieka również występują katalizatory, które przyspieszają lub hamują reakcje chemiczne: są one zwane hormonami. Studenci Somorjaiego eksperymentowali z platyną, ponieważ ich profesor sądził, że reakcje chemiczne niezbędne do zamiany szkodliwych związków chemicznych w mniej szkodliwe mogą zachodzić na powierzchni kryształu platyny.
Platyna nie jest chemicznie reaktywna. Podobnie jak złoto reaguje ona jedynie z silnym kwasem zwanym wodą królewską (aqua regia, mieszanina kwasu azotowego i solnego) oraz ze stopionymi wodorotlenkami metali I grupy. Mogłoby się zatem wydawać wątpliwe, czy powstające w procesie spalania benzyny związki węgla będą wchodzić w reakcje z tym cennym metalem. Jednak Somorjai doskonale znał chemię powierzchni i wiedział, co robi.
Do moich zadań należało hodowanie kosztownych kryształów platyny. Przecinałem je za pomocą noża iskrowego - elektrycznego ostrza, które wytwarza iskry elektryczne, tnące kryształ jak masło. Technika ta miała na celu zapobieżenie uszkodzeniu kryształu, które zwykle zdarza się, gdy tnie się go przez przyłożenie siły mechanicznej. Potem wykonywałem dyfrakcyjne badanie orientacji kryształu, czyli ułożenia sieci krystalicznej względem jego ścian - równoległego, wzdłuż przekątnej lub pod kątem. Obraz dyfrakcyjny kryształu składa się z układu plamek, a każdy regularny układ plamek odpowiada innej orientacji sieci krystalicznej.
Przez wiele miesięcy badania prowadzone przez zespół Somorjaiego prowadziły donikąd. Wiązki elektronów, którymi jego studenci ostrzeliwali kryształy, wskazywały, że związki chemiczne me oddziaływały na powierzchniach kryształów. Specyfikacje, zgodnie z którymi docinałem kryształy, były zawsze bardzo „uporządkowane”: atomy siedziały w równych rzędach na idealnie gładkich płaszczyznach ustawionych pionowo lub diagonalnie na jeden z wielu możliwych sposobów. Któregoś dnia dostałem szczególne zamówienie. Somorjai powiedział mi, że potrzebuje powierzchni schodkowa-tej. „Przetnij kryształ gdzieś między 100 a 111 płaszczyzną”. Była to raczej niezwykła orientacja. Zamiast patrzeć na warstwę atomów na wprost lub w kierunku przekątnej, profesor chciał uzyskać coś pośredniego, sądząc, że taki kryształ utworzy serię mikroskopowych stopni - zostanie złamany wzdłuż powierzchni, dzięki czemu powstanie szereg „krawędzi” w kierunku na wprost oraz wzdłuż przekątnej. Przypuszczał, że atomy na każdej „krawędzi” będą reaktywne, ponieważ nie będą związane z wieloma sąsiadami. W ciągu kilku dni od tego eksperymentu zespołowi Somorjaiego zaczęło się powodzić jeszcze lepiej - w jego laboratorium powstała koncepcja konwertera katalitycznego. Producenci samochodów byli gotowi ją odkupić, aby instalowane w autach katalizatory móc dostosować do coraz mniejszych limitów emisji spalin.
Pewnego wieczoru, krótko po tym odkryciu, profesor poprosił mnie do swojego pokoju. Wiedział, że moje zainteresowania są nieco inne i że wkrótce opuszczę jego laboratorium. „Nie interesują mnie auta ani ich katalizatory - powiedział. - Chcę odkryć sekret życia”. Spojrzałem na niego zaskoczony, gdyż do tej pory sądziłem, że głównym celem jego badań było zarobienie pieniędzy na przemyśle samochodowym. Widząc moje zaskoczenie, profesor uśmiechnął się i powiedział: „Cząsteczki, z których zbudowane są istoty żywe, są bardzo, bardzo skomplikowane. W ich przypadku mamy do czynienia z długimi, złożonymi łańcuchami i pierścieniami połączonymi na niezwykle skomplikowane sposoby. Nie sądzę, aby mogły one powstać jako produkt zwykłych reakcji chemicznych w wyniku umieszczenia składników w probówce i potrząsania nią... Do tego potrzebny jest katalizator. Wydaje mi się, że w odległej o eony przeszłości życie zaczęło się na schodkowatej powierzchni kryształu platyny”.
Rozdział 4
PODWÓJNA HELISA ŻYCIA
Co odróżnia żywy organizm od nieożywionego przedmiotu? W swojej książce General Chemistry [Chemia ogólna] (s. 768), wielki amerykański chemik Linus Pauling definiuje charakterystyczne dla życia reakcje chemiczne. Zwraca w niej uwagę, że rośliny i zwierzęta charakteryzuje zdolność do reprodukcji, której nie ma zwykły kamień, niezależnie od tego, jakie reakcje chemiczne mogą nań wywierać wpływ. Istota żywa jest zdolna do produkowania potomstwa, które jest do niej wystarczająco podobne, aby zostało uznane za ten sam gatunek. Następnie Pauling stwierdza, że istoty żywe wchłaniają pożywienie, poddając je reakcjom chemicznym, w wyniku których jest uwalniana energia oraz są odkładane ich produkty. Proces ten jest nazywany metabolizmem. Istoty żywe potrafią również reagować na zmiany środowiska. Roślina może odwrócić się w kierunku Słońca, a zwierzęta poruszają się w poszukiwaniu pożywienia lub potencjalnego partnera. Pauling zwraca też uwagę na pewne trudności w definiowaniu życia. Pasożytujący na roślinie wirus może się replikować, wykorzystując materiał genetyczny swojego gospodarza, lecz nie potrafi pochłaniać pożywienia ani samodzielnie się poruszać. Stanowi to jednak wyjątek od ogólnej definicji życia. Nawet jeśli z powodu braku zdolności do metabolizmu i lokomocji nie uznamy wirusa za pełny organizm, to jest on niezwykle złożoną cząsteczką chemiczną, o masie cząsteczkowej rzędu 10 000 000.
Istoty żywe składają się z komórek, a im bardziej złożony organizm, tym więcej zawiera komórek specjalizowanych. Amebę stanowi jedna komórka, prosta roślina może składać się z kilku rodzajów komórek, a organizm ludzki zawiera bardzo wiele rodzajów komórek: komórki krwi, komórki nerwowe, komórki magazynujące hormony i kwasy w żołądku, komórki wątroby, płuc, mięśni. Komórka jest zbudowana głównie z wody i białek. Białka są to bardzo duże cząsteczki, o masie cząsteczkowej sięgającej od 10 000 do wielu milionów (masa atomowa węgla wynosi 12, więc najmniejsze białko stanowi równowartość około 1000 atomów węgla, lecz w rzeczywistości zawiera ono również atomy wodoru, azotu, tlenu, fosforu, siarki oraz miedzi i żelaza). Czerwone ciałko krwi składa się w 60% z wody, w 5% z różnych innych substancji i w 35% z zawierającego żelazo białka-- hemoglobiny - o masie cząsteczkowej równej 68 000. Ciało ludzkie zawiera wiele tysięcy różnych rodzajów białek, z których każde spełnia określoną, podtrzymującą życie funkcję. Białka z kolei zawierają pewne kwasy organiczne zwane kwasami aminowymi.
Związki organiczne, czyli substancje oparte na związanych ze sobą atomach węgla oraz innych pierwiastków, mogą niekiedy występować w dwóch formach, które różnią się tylko tym, że jedna stanowi lustrzane odbicie drugiej. Wyobraźmy sobie parę rękawiczek. Niezależnie od tego, jak na nie spojrzymy, podrzucimy w powietrze, obrócimy, przekręcimy - prawa rękawiczka nigdy nie stanie się lewą. Mimo to jedna i druga stanowią w istocie ten sam obiekt. Obie mają część obejmującą środek dłoni, cztery palce i kciuk. Różnica między dwiema rękawiczkami polega po prostu na ich orientacji. Zależnie od tego, która strona głównej części molekuły organicznej łączy się z bocznym układem atomów, może to być cząsteczka prawostronna (oznaczana literą D, od dextro-) lub lustrzane odbicie tej samej molekuły - cząsteczka lewostronna (L, jak levo-). Każdy aminokwas oprócz glicyny występuje w obu formach. I tu pojawia się zadziwiający fakt biologiczny: białka roślin i zwierząt zawierają wyłącznie aminokwasy typu L. Nikt nie potrafi tego wyjaśnić. Jeżeli związki chemiczne powstają w wyniku przypadkowych reakcji chemicznych, to można by się spodziewać, że statystycznie rzecz biorąc, połowa występujących w organizmach żywych aminokwasów powinna być typu L, a połowa typu D. Obie formy są chemicznie identyczne, lecz w materii ożywionej występuje tylko jedna.
Na przełomie dziewiętnastego i dwudziestego wieku niemiecki chemik, Emil Fischer (1852-1919), badał białka i odkrył, że zawierają one długie łańcuchy aminokwasów zwane łańcuchami polipeptydowymi. Proces formowania, w którym aminokwasy są przyłączane, może być powtarzany, aż powstanie długi łańcuch ustawionych w szereg kwasów. Chemicy opracowali metody określania liczby łańcuchów polipeptydowych, z których składa się cząsteczka białka. Hemoglobina, na przykład, zawiera cztery polipeptydowe łańcuchy aminokwasów. Jednak chemicy nie potrafili określić trójwymiarowego kształtu łańcuchów polipeptydowych aminokwasów w białku, co było bardzo ważne dla zrozumienia chemicznych właściwości białek. Przełom pojawił się na początku lat pięćdziesiątych dzięki zastosowaniu metod opartych na dyfrakcji promieni X. Linus Pauling pierwszy określił strukturę łańcucha polipeptydowego i odkrył, że tworzy on helisę: spiralny układ atomów węgla, azotu, wodoru i tlenu. Niektóre z odkrytych przez niego helis zwijały się zgodnie, a inne przeciwnie do ruchu wskazówek zegara (czyli jedne były prawo-, a inne lewoskrętnymi helisami), lecz wszystkie występujące w łańcuchach aminokwasy były typu L. Ten aspekt zachowania białek pozostawał zagadką.
W jaki sposób z aminokwasów i z białek powstaje życie? W 1922 roku rosyjski biolog, Aleksander Oparin, przedstawił Rosyjskiej Akademii Nauk publikację, w której sformułował teorię powstania życia. Oparin sądził, że życie zaczęło się w oceanie, gdy rozpuszczone w wodzie cząsteczki chemiczne mieszały się ze sobą i pod wpływem światła słonecznego utworzyły pierwsze molekuły niezbędne do powstania życia. W 1955 roku dwaj naukowcy z University of Chicago, Stanley Miller i Harold Urey, próbowali stworzyć życie w probówce, wykorzystując ideę Oparina. Wypełnili pojemnik tym, z czego, ich zdaniem, składał się pierwotny ziemski ocean: amoniakiem, metanem, wodą i wodorem, a następnie symulowali atmosferyczne wyładowania elektryczne, przepuszczając przez tę mieszaninę iskry elektryczne. Po kilku dniach w pojemniku pojawiły się niektóre aminokwasy - składniki białek. Nie stworzyli oni jednak życia w laboratorium i - jak dotąd - nikomu się to nie udało.
W 1951 roku James D. Watson i Francis Crick złamali genetyczny kod molekuły życia, cząsteczki kwasu dezoksyrybonukleinowego (DNA), wykorzystując fotografie kryształów DNA wykonane za pomocą dyfrakcji promieni X.
Ta bardzo złożona molekuła jest jedyną strukturą zdolną do powielania samej siebie, dzięki czemu istoty żywe mogą się rozwijać i produkować potomstwo. Zawiera ona sekret życia. Watson pozostawał pod wrażeniem odkrytej przez Paulinga struktury białek, α-helisy, i sądził, że DNA - aczkolwiek stanowi znacznie bardziej złożoną cząsteczkę niż białko - może również tworzyć podobną strukturę. Helisa mieści wiele materii we względnie małym trójwymiarowym obszarze, więc większa cząsteczka tym bardziej mogła wykorzystać tę pakowną strukturę.
W chemii nieorganicznej mamy do czynienia z cząsteczkami o wiadomej budowie strukturalnej. Cząsteczka wody, H2O, występuje tylko w jednej konfiguracji - z dwoma atomami wodoru połączonymi z atomem tlenu zawsze pod tym samym kątem. Natomiast w chemii organicznej istnieje wiele możliwych sposobów połączenia atomów węgla w łańcuchu lub w pierścieniu i wiele sposobów dołączenia bocznych atomów lub podukładów do węglowego rdzenia dużej cząsteczki. Określenie przestrzennego ułożenia cząsteczki organicznej jest niezbędnym warunkiem zrozumienia, czym ona jest i jak się zachowuje. Watson zaczął składać swój model z metalowych części wykonanych w laboratoryjnym warsztacie. Sądził on, że helisa jest właściwym modelem, mimo że z obrazów dyfrakcyjnych nie wynikało to w sposób oczywisty.
Nauka wiedziała już trochę o DNA. Natura cząsteczki DNA wykracza poza białka, cukry, węglowodory i całą resztę chemii: zawiera olbrzymie ilości informacji zakodowane wprost w jej strukturze. Ale w jaki sposób? Na czym polega mechanizm kodowania? I w jaki sposób kod ten jest odczytywany, aby na jego podstawie mogło powstać zwierzę, roślina czy istota ludzka? Na podstawie analizy chemicznej naukowcy stwierdzili, że cząsteczka DNA zawiera coś jeszcze oprócz opartych na cukrze, fosforze i azocie submolekuł tworzących rdzeń olbrzymiego układu atomów. Gdzieś wewnątrz tego układu umieszczone są cztery rodzaje bardzo szczególnych substancji. Dwie z nich to pirymidyny, sześcioczłonowe pierścienie zbudowane z węgla i azotu, z dołączonymi atomami wodoru, nazywane tyminą (T) oraz cytozyną (C). Dwie pozostałe, zwane purynami, składają się z dwóch połączonych pierścieni węgla i azotu - dziewięć atomów w bliźniaczych cyklach - z dołączonymi do niektórych z nich czterema atomami wodoru. Nazywane są adeniną (A) oraz guaniną (G). Te cztery molekuły, A, G, T i C, ułożone w różnych kombinacjach, tworzą język, za pomocą którego cząsteczka DNA przenosi kod genetyczny osobnika. Ale w jaki sposób? I w którym miejscu owe „litery” są przyczepione do rdzenia struktury DNA?
Ostatecznie okazało się, że struktura ta przypomina - podobną do skręconej lukrecji - podwójną helisę. Każda nić stanowi łańcuch składający się z podstawowych cząsteczek: cukru, fosforanu i zasady azotowej. Obie nici są owinięte wokół siebie, tworząc podwójną helisę. Molekuły kodu genetycznego, A, G, T i C, są przyczepione między dwiema długimi cząsteczkami rdzenia. Układ atomów krył w sobie jakieś dziwne piękno i wydawał się zbyt elegancki, aby n i e stanowił prawdziwej struktury DNA. W 1962 roku Francis Crick i James Watson otrzymali Nagrodę Nobla za odkrycie struktury DNA.
Czym jest ta elegancka megamolekuła, której budowę odkryli Crick i Watson? Czym jest ta spiralna wieża, której schody oznaczone są literami A, C, T i G, a ich układ określa strukturę, funkcję i powstawanie życia? Dwa zewnętrzne łańcuchy cząsteczki DNA są owinięte wokół siebie w formie helisy. Jednak cztery podstawowe nośniki informacji genetycznej, A, T, G i C, są umieszczone w środku w określonym porządku. Związana zjedna nicią adenina A łączy się wyłącznie z leżącą na drugiej nici tyminą T za pośrednictwem dwóch wiązań wodorowych. Atom wodoru należący do adeniny wiąże się z położonym naprzeciwko niego atomem tlenu należącym do ty miny. Takie samo wiązanie łączy atom wodoru tyminy z atomem azotu adeniny. Cytozyna i guanina również łączą się tylko ze sobą, za pomocą trzech wiązań wodorowych: jedno biegnie od C do atomu tlenu na G, a dwa od G do atomu azotu i atomu tlenu na C.
Jeżeli na jednej z nici podwójnej helisy wyróżnimy cząsteczki A, C, G i T, to otrzymamy sekwencję liter, na przykład: A, A, G, C, T, G, G, C, C, C, T, A itd. W ten sposób odczytujemy informację - kod genetyczny żywego organizmu. Wszystkie organizmy żywe zawierają cząsteczkę DNA. Mamy oto związek chemiczny, którego zadaniem jest zakodowanie olbrzymiej ilości informacji w zadziwiająco małej przestrzeni i w niezwykle wydajny sposób. Aby zrozumieć, jak dużo informacji musi zawierać DNA, trzeba sobie uświadomić, że wszystko, co wyróżnia daną osobę - od koloru oczu i włosów po kształt kolan, długość palców u rąk i nóg, i cała reszta - jest zapisane w cząsteczce chemicznej, obiekcie, którego nie da się zobaczyć gołym okiem i którego długość mierzy się w angstremach (10-8 cm). Elementy A, T, G i C leżą wzdłuż nici helisy i są oddalone od siebie o 3,3 angstrema. Średnica helisy wynosi 20 angstremów. W jaki sposób kodowana jest informacja? Czym jest kod?
Podwójne helisy DNA rezydują w genach. Geny znajdują się w chromosomach, które z kolei mieszczą się w jądrze istniejącym w środku każdej żywej komórki. W cząsteczce DNA sekwencja zasad A, G, C i T jest zakodowana jako sekwencja trzyliterowych słów. Tak więc na przykład sekwencje A-G-A, C-T-G czy G-G-T mogą być takimi kodującymi informację słowami. Dysponując czterema literami, z których budowane są trzyliterowe słowa, leksykon DNA zawiera 4 'P 4 'P 4 = 64 możliwe słowa. Zbudowane z tych słów zdania - układ DNA - przekazują komórce dokładną sekwencję tworzących białko reszt aminokwasowych, która ma zostać zsyntetyzowana przez komórkę kontrolowaną przez określony gen.
Obecnie potrafimy zidentyfikować poszczególne geny, które są przyczynami chorób dziedzicznych, dzięki czemu potencjalni partnerzy mogą zostać poinformowani o ryzyku, jakie zagraża ich przyszłemu potomstwu. Wiemy, że geny determinują w dużej mierze nasz wzrost, wagę, wygląd i inteligencję. Badania identycznych bliźniąt, zaadoptowanych przez różnych rodziców i wychowywanych całkowicie bez wzajemnego kontaktu, ujawniły uderzające, niespodziewane podobieństwa pod niemal każdym względem, począwszy od charakteru, wyglądu, upodobań i uprzedzeń, zdolności do przywództwa, kreatywności, a nawet wyboru kariery zawodowej, hobby i innych zainteresowań. Rezydujące w genach cząsteczki DNA kontrolują nasze życie w sposób daleko głębszy, niż moglibyśmy się spodziewać.
Gdy ostatecznie odkryto strukturę DNA, pozostało pytanie, w jaki sposób cząsteczka ta realizuje przekaz swoich cech od jednego pokolenia do następnego. Odkryty przez Watsona i Cricka mechanizm, za pomocą którego cząsteczka DNA powiela samą siebie, jest następujący. Najpierw podwójna helisa rozplata się, niczym wąż. Następnie zaczynają się rozdzielać łączące oba łańcuchy wiązania zasadowe wewnątrz helisy. Równocześnie wzdłuż rozwijającej się cząsteczki DNA jest syntetyzowany nowy łańcuch, który tworzy własne, przyczepione do łańcucha zasady. To samo odbywa się wzdłuż drugiej nici. W końcu zasady z nowego łańcucha łączą się ze starą nicią DNA dokładnie według dozwolonego wzoru: A łączy się z T i vice versa, G łączy się z C i vice versa. W ten sposób, dzięki chemicznym prawom tworzenia wiązań dopuszczającym wyłącznie kombinacje A-T i G-C, układ macierzystej cząsteczki DNA zostaje zachowany w dwóch potomnych cząsteczkach.
Wydaje się, że życie organizuje i kontroluje złożony układ sterowany przez olbrzymią molekułę zwaną DNA. DNA pojawia się na dwóch autonomicznych poziomach w każdej komórce naszego ciała w jądrze i w mitochondrium - mówiąc komórce dokładnie, co i kiedy ma robić: jak poddać metabolizie cukier i zamienić go na energię, jak pozbyć się produktów ubocznych, jak i kiedy podzielić się na dwie komórki potomne. Molekuła DNA zawiera olbrzymią ilość informacji, która określa wszystkie cechy gatunkowe - nawet najbardziej złożone cechy najbardziej zaawansowanych gatunków oraz każdy atrybut przedstawiciela danego gatunku, w najdrobniejszych szczegółach. A gdy dwa osobniki danego gatunku się łączą, DNA w ich genach decyduje o tym, w jaki sposób zawarte w nich informacje genetyczne zostaną przekazane następnemu pokoleniu.
W 1997 roku cały świat obiegła wiadomość, że w Szkocji sklonowano owcę, nazwaną Dolly. Powstała ona z materiału genetycznego pobranego od innej owcy. Eksperyment ten, dokonany przez Iana Wilmuta i Keitha Campbella, był potwierdzeniem hipotezy, zgodnie z którą każda komórka istoty żywej nie tylko zawiera kompletną informację genetyczną o jej ciele, lecz także może posłużyć do jego odtworzenia. Przypadek Dolly unaocznił nam postęp, jakiego nauka dokonała w ostatnich dekadach w dziedzinie zrozumienia kodu genetycznego oraz w udzielaniu odpowiedzi na pytania o tajemnice życia.
Genetyka dała nam dotychczas nowe, rewolucyjne metody leczenia niektórych chorób, sposoby identyfikacji przestępców na podstawie pojedynczego włosa pozostawionego na miejscu zbrodni oraz istotne informacje na temat pochodzenia człowieka. Ludzki genom, zestaw informacji o cechach danego osobnika, zawiera 100 000 genów upakowanych w 23 parach chromosomów znajdujących się w jądrze każdej komórki naszego ciała. Łącznie zawierają one około 3 miliardów bitów informacji. Naukowcy mówią, że 99,9% zakodowanych w genach informacji to zestaw wspólny dla wszystkich ludzi, więc różnice między ludźmi sprowadzają się do 0,1 %. Podobieństwa między ludźmi są znacznie bardziej rozległe niż różnice! Ta niewielka zmienność naszego kodu genetycznego jest przyczyną zróżnicowania rodzaju ludzkiego.
Kenneth i Judith Kidd, badacze z Yale University, porównywali materiał genetyczny populacji ludzkich w różnych regionach świata, poszukując odmienności genetycznych. Zmiany kodu genetycznego wywoływane są przez mutacje, a te z nich, które poprawiają zdolność danego osobnika do przetrwania w określonym środowisku, są następnie faworyzowane - w dalszych pokoleniach - przez dobór naturalny. Odkryli oni na przykład zaskakująco niską zapadalność na choroby serca u mieszkańców pewnej odosobnionej wioski we Włoszech, mimo że nie stosowali określonej diety. Mieszkańcy wyspy Reunion na Oceanie Indyjskim mają naturalną odporność na stwardnienie rozsiane. Natomiast jedna trzecia populacji wyspy Tristan da Cunha na południowym Atlantyku cierpi na astmę. Istnieją także znane od dawna choroby genetyczne: wywołana przez sierpowatość czerwonych krwinek anemia, na którą cierpią czarnoskórzy mieszkańcy niektórych obszarów Ameryki, oraz choroba Tay-Sack, na którą zapadają aszkenazyjczycy. Badania genetyczne doprowadziły Kiddów i innych naukowców do wniosku, że Homo sapiens pojawił się po raz pierwszy w Afryce 200 000 lat temu, a jego rozprzestrzenianie się na pozostałych obszarach globu zaczęło się dopiero 100 000 lat temu. W 1988 roku naukowcy ogłosili zdumionemu światu, że badania genetyczne wykazały, iż wszyscy ludzie na Ziemi są potomkami jednej jedynej kobiety, której nadano - jak najbardziej zasłużenie - imię Ewa.
Zdołaliśmy pobrać materiał genetyczny z komórek wielu różnych gatunków i spowodować jego replikację, w wyniku której powstały genetycznie zróżnicowane szczepy. Umiemy hodować genetycznie zmodyfikowane truskawki o przedłużonym okresie świeżości, krowy, które dają więcej mleka, świnie, których wątroby są genetycznie odmienione tak, aby nadawały się do przeszczepiania ludziom. Rozpoczęty w 1989 roku projekt badania ludzkiego genomu, mający na celu stworzenie mapy całego ludzkiego DNA, pozwolił ujawnić wiele genów, które powodują podatność na nowotwory i inne schorzenia, a także wiele informacji o ludzkich cechach genetycznych. Zakończenie tego globalnego przedsięwzięcia, kosztującego 3 miliardy dolarów, jest przewidywane na rok 2005. Będziemy wtedy znać każdy ludzki gen i będziemy w stanie powiązać go z kontrolowanymi przezeń ludzkimi cechami. Mimo olbrzymiego postępu w zrozumieniu genetyki jeszcze nikomu nie udało się skonstruować dużej, złożonej cząsteczki DNA. Wydaje się, że chemia życia jest nieporównywalnie bardziej skomplikowana niż „zwykła” chemia elektronów, atomów i małych molekuł.
Prześledziliśmy historię odkrycia struktury i właściwości cząsteczki DNA, rolę, jaką odgrywa ona w życiu komórek, osobników i całych gatunków, zobaczyliśmy, w jaki sposób DNA magazynuje i manipuluje tymi olbrzymimi zasobami informacji, trzema miliardami bitów w przypadku istot ludzkich, w jaki sposób wykorzystuje te informacje na różnych poziomach za pomocą „ośrodków sterowania”; całkiem niedawno przekonaliśmy się, że DNA ma tajemnicze umiejętności obliczeniowe. Pozostaje jedno istotne pytanie: Co jest stwórcą DNA? Czy może to być „cząsteczka” w zwykłym, chemicznym sensie tego słowa, czy też mamy do czynienia z czymś sięgającym daleko poza chemię? Czy ten mikroskopijny komputer życia może być wynikiem przypadkowego, chemicznego oddziaływania atomów? Czy DNA mogło powstać podobnie jak dwutlenek węgla, gdy dwa atomy tlenu spotykają atom węgla i łączą się z nim, uwalniając określoną ilość energii? Czy jesteśmy raczej świadkami czegoś cudownego, czegoś tak fantastycznie złożonego, że nie może to być jedynie chemia przypadkowych reakcji pierwiastków, lecz coś przekraczającego nasze zrozumienie? Czy stoi za tym potęga, myśl i wola wyższej istoty, która stworzyła tę samopowielającą się podstawę wszelkiego życia, cząsteczkę niepodobną do żadnej innej, cząsteczkę, której nikt nie potrafi odtworzyć, choćby dysponował dowolnie zaawansowanym laboratorium? Jak zdefiniować coś, co samo decyduje, kiedy ma się rozwinąć z helisy, rozdzielić wzdłuż osi i sklonować - chemiczną molekułę istoty żywej?
Jesteśmy obecnie świadkami rewolucji w naukach biologicznych. Każdy dzień przynosi odkrycia w dziedzinie genetyki, DNA i roli genów oraz chromosomów w naszym życiu. Powstają genetyczne leki, zwalczające schorzenia i zapobiegające im, oraz genetycznie zmodyfikowane gatunki zwierząt. Potrafimy manipulować kodem DNA, aby dostosować go do naszych wymagań. Potrafimy nawet wykorzystać to, czego się nauczyliśmy, i klonować żywe istoty, co jeszcze kilkadziesiąt lat temu było jedynie tematem powieści fantastycznonaukowych. Nie potrafimy jednak stworzyć życia w probówce. Nawet najbardziej zaawansowane laboratoria nie produkują DNA z surowców chemicznych.
James Watson nie spoczął na laurach po epokowym odkryciu struktury DNA i otrzymaniu - razem z Francisem Crickiem - Nagrody Nobla, lecz kontynuował pracę badawczą jako dyrektor prestiżowego Cold Spring Harbor Laboratory, gdzie prowadzone są najbardziej zaawansowane w Stanach Zjednoczonych badania w dziedzinie genetyki i biologii. Watson jest także dyrektorem międzynarodowego projektu badawczego, który ma na celu stworzenie mapy ludzkich genów: projektu badania ludzkiego genomu. Gdy na początku dwudziestego pierwszego wieku ten olbrzymi wysiłek badawczy zostanie zakończony, będziemy potrafili odczytać całą księgę kodu genetycznego istot ludzkich. Korzyści dla medycyny, nauki i innych aspektów życia ludzkiego będą niezmierzone. Parafrazując Einsteina, możemy powiedzieć, że odcyfrowanie kodu genetycznego pozwoli nam „poznać myśli Boga”.
Pod koniec 1997 roku prezydent Clinton przyznał Jamesowi Watsonowi Narodowy Medal Nauki, w uznaniu dla jego wielkich osiągnięć. Współodkrywca struktury DNA, Francis Crick, wybrał inną dziedzinę badań. Jeżeli DNA jest tak złożoną cząsteczką, że nie może powstać przez przypadek, i jeżeli rzeczywiście jest to jedyna molekuła, która potrafi produkować żywe istoty zdolne do konsumowania pożywienia, poruszania się i reprodukcji, to w jaki sposób po raz pierwszy pojawiła się ona Ziemi? Niebawem poznamy stworzoną przez Francisa Cricka teorię, która wyjaśnia tę pozorną niemożliwość.
Rozdział 5
PANSPERMIA, BIURAKAN I METEORYT Z MARSA
W 1907 roku szwedzki chemik, Svante Arrhenius, sformułował teorię pochodzenia życia. Zgodnie z jego teorią życie nie powstało na Ziemi, lecz pojawiło się z kosmosu - w postaci prostych jednokomórkowych organizmów podróżujących przez wszechświat w postaci zamrożonych zarodników. Te maleńkie nośniki życia były poruszane przez ciśnienie promieniowania gwiazd, które wyrzucało je w pustą przestrzeń. Zamrożone organizmy przemierzały międzygwiezdną przestrzeń przez eony, aż dotarły do innego układu słonecznego i osiadły na jednej z jego planet, po czym odżyły, zaczęły się rozmnażać i po wielu milionach lat rozwinęły się z nich wyższe formy życia. Teoria ta stała się znana jako hipoteza panspermii.
Arrhenius oparł swoją teorię na zjawiskach, o których sądził, że zachodzą na Ziemi. Przypuszczał on, że ziemskie mikroorganizmy były niekiedy unoszone przez wiatry do stratosfery. Gdy dostały się dostatecznie wysoko, niektóre z nich mogły zostać całkowicie wyrzucone z atmosfery przez siły elektryczne. Opuściwszy Ziemię, przemierzały Układ Słoneczny, po czym opuszczały go pod wpływem ciśnienia promieniowania Słońca. Skoro mogło się to zdarzyć na Ziemi, to prawdopodobnie zachodzi także wszędzie we wszechświecie. Przestrzeń międzygwiezdna może być pełna małych, zamrożonych organizmów podróżujących we wszystkie strony i niosących na odległe planety życie, które poczęło się zupełnie gdzie indziej.
Hipoteza panspermii może wyjaśnić pochodzenie życia na Ziemi przy założeniu, że istniało ono gdzie indziej we wszechświecie - gdzie prawdopodobnie miało ono więcej czasu na rozwój - i że podstawowe cegiełki życia mogły przenosić się z jednego miejsca na drugie w taki sposób, że w czasie długiej podróży nie uległy zagładzie. W latach sześćdziesiątych hipotezą panspermii oraz jej konsekwencjami dla istnienia życia gdzie indziej we wszechświecie zainteresował się Carl Sagan. Na podstawie badań wykonywanych za pomocą balonów wiedział on, że mikroorganizmy można znaleźć na bardzo dużych wysokościach nad Ziemią, nawet wysoko w stratosferze, co częściowo potwierdzało hipotezę Arrheniusa. Sagan próbował zbudować matematyczny model, dzięki któremu możliwe byłoby stwierdzenie, czy organizmy takie mogą być wyrzucone poza ziemską atmosferę i jaki byłby ich los w przestrzeni. Wyniki tych badań opisał w wydanej w 1966 roku książce zatytułowanej Intelligent Life in the Universe [Inteligentne życie w kosmosie] (jej współautorem jest LS. Shklovskii). Model Sagana zakłada, że na organizm, który w jakiś sposób ucieka z Ziemi, działają dwie siły, a jego los zależy od ich wzajemnego stosunku. Pierwsza z nich, ciśnienie promieniowania Słońca p, odpycha organizm od Słońca w kierunku przestrzeni międzygwiezdnej. Druga siła, g, grawitacyjne przyciąganie Słońca, przyciąga mikroorganizmy w kierunku Słońca. Gdy p = g, organizm pozostaje w przestrzeni międzyplanetarnej. Gdy g jest większe od p, organizm jest skazany na upadek na Słońce. Gdy jednak p jest większe od g, ciśnienie promieniowania jest większe od grawitacyjnego przyciągania Słońca, w wyniku czego organizm po-żegluje w otwartą przestrzeń popychany przez wynikającą z różnicy ciśnienia promieniowania i grawitacji siłę nadającą mu przyspieszenie potrzebne do opuszczenia Układu Słonecznego.
Na podstawie powyższej analizy Sagan obliczył, że organizm, który może uciec z Ziemi, musi mieć średnicę od 0,4 do 1,2 mikrometra (mikrometr to jedna tysięczna milimetra). Niektóre zarodniki bakterii i grzybów, a także wirusy, mieszczą się w tym przedziale, więc mogłyby uciec z Układu Słonecznego, jeżeli potrafiłyby opuścić atmosferę Ziemi. Działająca nieprzerwanie na zbiegłe organizmy siła wypadkowa, równa różnicy ciśnienia promieniowania słonecznego i grawitacji, powoduje, że ich prędkości stopniowo rosną i w końcu osiągają bardzo duże wartości. W ciągu kilku miesięcy mogą one minąć orbitę Jowisza, po kilku latach - Neptuna, po kilkudziesięciu tysiącach lat mogą osiągnąć najbliższą gwiazdę, a po kilkudziesięciu milionach lat wędrujący zarodnik przetnie Drogę Mleczną. I.S. Shklovskii zwrócił uwagę, że masa i rozmiary podróżującego organizmu są porównywalne z cząstką przenikającego naszą Galaktykę pyłu kosmicznego. Napotkawszy chmurę galaktycznego pyłu, organizm może w niej pozostać i stać się jej częścią. Ruchami takich małych, lekkich cząstek rządzą przypadkowe oddziaływania z innymi małymi cząstkami. W rezultacie pojawiają się ruchy Browna - zjawisko zwane błądzeniem przypadkowym, wywołane zderzeniami z sąsiadami zawieszonymi w tym samym ośrodku - które powodują, że cząstka porusza się w całkowicie przypadkowy i nieprzewidywalny sposób. Przypomina towędrówkę cząstki dymu w powietrzu, poruszającej się wzdłuż przypadkowych trajektorii pomiędzy kolejnymi nagłymi zmianami kierunku. Ruch zarodników wzdłuż trajektorii błądzenia przypadkowego - a nie po linii prostej - powoduje, że ich wędrówka trwa dłużej.
Zarodnik o rozmiarach mniejszych od 4 mikrometrów nie zostanie wyrzucony z Układu Słonecznego, gdy zbliży się do niego z zewnątrz, lecz zostanie wciągnięty, gdyż wzajemna proporcja sił p i g da w wyniku siłę przyciągającą. Jeżeli na drodze w kierunku Słońca napotka on Ziemię lub inną planetę, to może dostać się do jej atmosfery i w końcu wylądować na powierzchni. Gdyby organizm taki przybył do nas z innego układu słonecznego po trwającej dziesiątki lub setki tysięcy lat podróży, a następnie przebudził się z międzygwiezdnego snu, w zasadzie mógłby zacząć się rozmnażać i osiąść w środowisku Ziemi. Poczyniwszy pewne założenia na temat gęstości międzygwiezdnych chmur, które mogą być przyczyną kolizji z potencjalnymi zarodnikami, i uwzględniwszy czas, jaki upłynął, zanim na Ziemi rozwinęło się życie, Sagan obliczył, że mogło ono zostać zasiane przez organizm, który przybył tu z układu planetarnego odległego od nas aż o 6000 lat świetlnych.
Sagan i jego współpracownicy zajęli się z kolei kwestią, czy taki międzygwiezdny podróżnik mógłby w rzeczywistości przeżyć tę podróż. Czy DNA maleńkiego organizmu przetrwa tysiące lat międzygwiezdnej wędrówki? Już w czasach Arrheniusa wiedziano, że niektóre zarodniki potrafią przetrzymać niskie temperatury przez bardzo długi czas, nie utraciwszy zdolności do powrotu do życia w bardziej sprzyjających warunkach. Eksperymenty laboratoryjne wykazały również, że niektóre organizmy mogą przeżyć długi okres w próżni zbliżonej do warunków panujących w przestrzeni kosmicznej. Nie można jednak wykluczyć, że przebywając w takim środowisku przez wiele tysięcy lat, nie byłyby one odporne na zachodzące w próżni odparowywanie atomów.
Największą trudność dla hipotezy panspermii stanowi promieniowanie kosmiczne. Poza ochronną warstwą atmosfery Ziemi promieniowanie ultrafioletowe, a także inne rodzaje promieniowania słonecznego jest stosunkowo silne. Obliczono, że ziemski mikroorganizm nie przeżyłby więcej niż jeden dzień po opuszczeniu atmosfery Ziemi, gdyż zostałby zniszczony przez ultrafioletowe promienie słoneczne. Nawet gdyby był w jakiś sposób zabezpieczony przed ultrafioletem, to wysokoenergetyczne promienie X oraz protony słoneczne zabiłyby go w ciągu kilku tygodni. Problem ten nie istnieje w obszarach odległych od Słońca - oraz od innych gwiazda także w pobliżu ciemniejszych od Słońca gwiazd, które emitują promieniowanie o niższych natężeniach. W otwartej przestrzeni zarodnik napotkałby promieniowanie kosmiczne. Zakładając, że byłby on na nie odporny w takim samym stopniu, jak większość odpornych na promieniowanie organizmów na Ziemi, obliczono, że w otwartej przestrzeni, z dala od promieniowania gwiazd, organizm taki mógłby oprzeć się promieniowaniu kosmicznemu przez 100 milionów lat.
Powyższe założenia i obliczenia wskazują zatem, że zarodniki mogłyby pochodzić z planety, która znajduje się w podobnej odległości od swojej gwiazdy jak Jowisz lub Saturn od Słońca -jeżeli jej gwiazda jest podobna do Słońca - lub z planety krążącej po bliskiej orbicie wokół ciemniejszej gwiazdy. Jednak zarodniki te zostałyby prawdopodobnie zniszczone, zanim dotarłyby do Ziemi, więc hipoteza panspermii - jako teoria zasiania życia na Ziemi przez międzygwiezdne zarodniki - nie wydaje się poprawna. Istnieje natomiast możliwość zasiania życia na którymś z satelitów jednej z dalszych planet Słońca. Życie mogło powstać na księżycu Jowisza, Europie, lub na księżycu Neptuna, Trytonie, dzięki jakiemuś międzygwiezdnemu podróżnikowi. Ale także i tu pojawia się kolejny problem.
W skali kosmosu rozmiary planet są tak nieskończenie małe, a odległości tak olbrzymie, że szansa na to, aby zarodnik z jednego układu słonecznego dotarł do planety innego układu, jest w zasadzie równa zeru. Jeśli hipoteza panspermii byłaby słuszna, to miliardy ton zarodników musiałyby być wyrzucane w naszej Galaktyce przez miliardy lat, aby dać jeden pojedynczy akt zasiania. Teoria panspermii ma więc dość chwiejne podstawy.
Doszedłszy do tego wniosku, Carl Sagan udał się we wrześniu 1971 roku na konferencję w Biurakan.
Międzynarodowa konferencja na temat komunikacji z pozaziemską inteligencją (Communication with Extra Terrestial Intelligence - CETI) miała się odbyć w obserwatorium astronomicznym Biurakan w Armeńskiej SRR. Spotkali się tam Amerykanie, Frank Drake i Philip Morrison, oraz naukowcy z Rosji, Wielkiej Brytanii, Kanady, Węgier i Czechosłowacji. Ze strony amerykańskiej konferencję współorganizował Carl Sagan, który był także jednym z głównych dyskutantów. Wielką Brytanię reprezentował Francis Crick.
Crick przybył do Biurakan, ponieważ interesował się ideami dotyczącymi życia pozaziemskiego, które miały być dyskutowane na konferencji. W wyniku swojego udziału w odkryciu struktury DNA Crick zaczął wierzyć w możliwość istnienia życia w przestrzeni kosmicznej. Sądził on, że powstanie cząsteczki DNA stanowiło pojedynczy przypadek w historii wszechświata. W czasie konferencji posłużył się przykładem talii kart, których układ stanowi jedną, rzadką konfigurację. Crick uważał, że Ziemia jest zbyt młoda, aby ten wyjątkowy przypadek mógł zdarzyć się właśnie tutaj. Badania wykopaliskowe prowadzą do wniosku, że najstarsze skamieliny ziemskich organizmów liczą około 3,5 miliarda lat, co oznacza, że życie na Ziemi zaczęło się około 1 lub 1,5 miliarda lat po ukształtowaniu planety. Crick uważał, że dla rozwoju niezwykle złożonej struktury DNA był to zbyt krótki czas. Rozwiązanie problemu oferowała hipoteza panspermii. Skoro DNA jest tak złożoną cząsteczką, że nie mogła powstać na Ziemi, to może przybyła tu z jakiejś innej planety, na tyle starszej, że DNA miała na niej dostatecznie dużo czasu, aby się ukształtować. Crick sformułował swoją hipotezę o pozaziemskim pochodzeniu DNA w czasie dyskusji z Lesliem Orgelem z Salk Institute w Kalifornii podczas konferencji w Biurakan. Carl Sagan zaprezentował odmienny pogląd. Na podstawie swoich obliczeń dawek promieniowania pochłoniętych przez podróżujące w międzygwiezdnej przestrzeni organizmy Sagan dowodził, że hipoteza panspermii jest bardzo mało prawdopodobna. Odrzucił też sformułowaną przez Cricka analogię między pojawieniem się DNA na Ziemi a rzadką sekwencją w talii kart. Według Carla Sagana cząsteczka DNA - lub coś o odmiennym składzie chemicznym, lecz pełniącym tę samą funkcję - mogła niezależnie powstać na innych planetach.
Przykłady panspermii widzimy na samej Ziemi. Każdy, kto przybywa na Hawaje, pozostaje pod wrażeniem bogatej roślinności oraz egzotycznej fauny. Wyspy te stanowią prawdziwy raj tropikalnych drzew i roślin oraz nigdzie indziej nie spotykanej rozmaitości ptaków. Jednak miliony lat temu, wkrótce po tym, gdy jako wulkany wyłoniły się spod powierzchni Oceanu Spokojnego, były całkowicie pozbawione życia. To wiatry przyniosły nasiona krzewów, drzew, paproci oraz innych roślin z tropikalnych wysp leżących odległości tysięcy mil, a także z Azji i obu Ameryk położonych jeszcze dalej. Później przybyły również ptaki i inne zwierzęta. Na Ziemi istoty żywe potrafią pokonać duże odległości, aby zasiedlić nowe miejsce, w którym w ciągu milionów lat może rozwinąć się bogaty ekosystem pochodzący od geograficznie odległych gatunków. Czy to samo może zdarzyć się także w przestrzeni?
27 grudnia 1984 roku Roberta Score, badaczka z National Science Foundation (NSF) [Narodowa Fundacja Nauki] zajmująca się poszukiwaniem meteorytów, odkryła niewielki kamień na polu lodowym w Allan Hills [Wzgórza Allana] na Antarktydzie. Poszukiwania meteorytów na lądzie utrudnia fakt, że na powierzchni ziemi nie różnią się one od zwykłych kamieni i z czasem stapiają się z otoczeniem, więc NSF uznała, że najlepszym miejscem poszukiwań są lodowe pustynie Antarktydy, gdzie naturalne ziemskie skały występują bardzo rzadko. W pierwszej chwili Score uznała znaleziony przez siebie okaz za zwykły kamienny meteoryt, lecz po bliższych oględzinach zwróciła uwagę, że ma on jedną dziwną cechę: zielony kolor. Meteoryt został zabrany do Stanów Zjednoczonych wraz z pozostałymi znaleziskami zespołu Roberty Score i przez dziesięć lat leżał zapomniany na zapleczu laboratorium.
Meteoryt ten zwrócił uwagę naukowców z NASA zajmujących się podróżami sond „Viking” na Marsa w 1976 roku. Przysłane na Ziemię dane pozwoliły im dokładnie wyznaczyć skład atmosfery Marsa, w której poruszały się próbniki. Gdy w 1993 roku otrzymali oni meteoryt Roberty Score, nazwany później Allan Hills 84001 (w skrócie ALH84001), doszli do ekscytującego wniosku, że musi on pochodzić z Czerwonej Planety.
Piętnaście milionów lat temu w powierzchnię Marsa trafiła asteroida. Jej uderzenie było tak silne, że wyrzuciło w przestrzeń skały z powierzchni planety. Jedną z tych skał był dwukilogramowy ALH84001. Wysoka temperatura, powstała w wyniku tarcia w trakcie przedzierania się kamienia przez atmosferę marsjańską, spowodowała stopienie jego powierzchni i zatopienie bąbli marsjańskiego powietrza w jego wnętrzu. Gdy przeprowadzono analizę uwięzionego w ALH84001 gazu, jego skład okazał się identyczny z danymi przysłanymi na Ziemię przez sondy „Viking”. Na podstawie efektów oddziaływania promieniowania kosmicznego na ALH84001 naukowcy oszacowali, że przez około 15 milionów lat błądził on po Układzie Słonecznym, zanim 13 000 lat temu spadł na Ziemię i zagłębił się w lodową czapę Allan Hills. Ruchy konwekcyjne lodu stopniowo wyniosły go na powierzchnię, gdzie w 1984 roku znalazła go Roberta Score.
Gdy Mars stał się planetą, na jego powierzchni znajdowała się woda, a planeta otoczona była atmosferą o ciśnieniu zbliżonym do tego, jakie panuje na Ziemi. Wiemy, że woda płynęła na jego powierzchni, łącząc jeziora i oceany siecią rzek i strumieni. Nadal widzimy koryta rzeczne wyżłobione w ciągu milionów lat na powierzchni planety. W ciągu kilku miliardów lat swojego istnienia Mars stracił zarówno wodę, jak i atmosferę. Obecnie ciśnienie atmosferyczne na Marsie wynosi zaledwie 7 milibarów, co odpowiada ciśnieniu panującemu na wysokości 32 kilometrów nad powierzchnią Ziemi. Przyczyną zniknięcia atmosfery Marsa była ablacja - będąc planetą mniejszą od Ziemi, Mars nie dysponował dostatecznie silną grawitacją, aby utrzymać cenne gazy i ciekłą wodę dłużej niż przez miliard lat od swojego powstania. Utrata atmosfery spowodowała powstanie różnic temperatury, znacznie przekraczających to, co się dzieje na najbardziej jałowych ziemskich pustyniach. Temperatury na Marsie mogą różnić się nawet o trzydzieści stopni na odległości kilku stóp nad powierzchnią gruntu. Obecnie na Marsie nie ma wody, powietrza i stabilnych temperatur, niezbędnych do podtrzymania jakichkolwiek form życia, lecz 3,6 miliarda lat temu pod jego powierzchnią nadal istniała woda, dzięki której mogły przetrwać jakieś istoty żywe. Później ALH84001 został wyrzucony w przestrzeń, rozpoczynając trwającą 15 milionów lat podróż, aby ostatecznie zakończyć ją w lodach Antarktydy.
W 1994 roku ALH84001 został przekazany Pavidowi McKay owi z należącego do NASA Johnson Space Center. McKay utworzył dziewięcioosobowy zespół, do którego weszli naukowcy z NASA, Stanford University, University of Georgia i McGill University w Montrealu. Zadaniem zespołu było zbadanie, czy meteoryt zawiera jakiekolwiek ślady życia. Przypuszczano, że skała została utworzona pod powierzchnią Marsa 4,5 miliarda lat temu, gdy z otaczającego nowo powstałe Słońce dysku planetarnego powstał Układ Słoneczny. Meteoryt znajdował się blisko powierzchni Marsa 3,6 miliarda lat temu, gdy podpowierzchniowa woda mogła nadal utrzymywać życie na planecie. Naukowcy chcieli stwierdzić, czy ich kamień nosi jakiekolwiek ślady marsjańskiego życia.
Zespół McKaya poddał meteoryt serii skomplikowanych testów. ALH84001 był bombardowany promieniami lasera w celu rozdzielenia różnych związków chemicznych, które mógł zawierać. Odkryto wielopierścieniowe węglowodory aromatyczne, cząsteczki organiczne podobne do tych, które znajdują się w złożach węgla lub gazu ziemnego. Cząsteczki takie powstają, gdy giną mikroorganizmy. Czy związki znalezione w meteorycie mogły być pozostałością po marsjańskich organizmach? Wiemy, że chondryty węgliste zawierają materię organiczną pochodzącą z przestrzeni kosmicznej. ALH84001 nie był jednak chondrytem węglistym, lecz raczej meteorytem kamiennym, a jednak zawierał te związki organiczne. Potężny mikroskop elektronowy ujawnił wewnątrz meteorytu maleńkie mineralne depozyty. Znaleziono minerał zwany magnetytem, związek żelaza i tlenu wydzielany przez ziemskie organizmy. Czy magnetyt w meteorycie został wyprodukowany przez organizmy marsjańskie? Znaleziono także inne minerały, siarkowe związki zwane pirotynami i greigitami, również znane jako produkty bakterii i mikrobów. Związki te powstają na Ziemi wyłącznie w wyniku procesów związanych z istnieniem organizmów żywych. W końcu w meteorycie odkryto także mikroskopowe struktury - maleńkie tunele i kanały, które mogły wydrążyć organizmy żywe. Zespół McKaya stwierdził wielkie podobieństwo tych mikrostruktur do skutków działania ziemskich bakterii.
Krytycy szybko zwrócili uwagę, że żadne z zaobserwowanych w wyniku analizy ALH84001 zjawisk samo w sobie nie jest rozstrzygającym dowodem istnienia życia na Marsie. Inne meteoryty również zawierały materię organiczną. Minerały znalezione w ALH84001 mogły zostać wyprodukowane pod wpływem działania sił natury nie mających nic wspólnego z życiem. Mikroskopowe tunele, odkryte wewnątrz meteorytu, mogły powstać w wyniku reakcji chemicznych i obecności wody, a nie życia. Zespół McKaya zgodził się tymi zarzutami, lecz stwierdził, że nie można w całości odrzucić wszystkich dowodów. Zdaniem badaczy zajmujących się analizą ALH84001 jej wyniki potwierdzały istnienie życia na Marsie. W 1996 roku ogłoszono całemu światu, że naukowcy odkryli dowody wskazujące na możliwość istnienia wczesnych form życia na Marsie.
Przekonanie o obecności życia na Marsie 3,5 miliarda lat temu, gdy ALH84001 był wciąż jeszcze na Czerwonej Planecie, wsparły obserwacje prowadzone za pośrednictwem „Vikinga” i innych próbników, które dostarczyły dowodów, że w owym czasie na powierzchni Marsa znajdowała się woda. Naukowcy uważają, że skoro była tam woda, to mogło pojawić się życie. Co więcej, najwcześniejsze ślady życia na Ziemi pochodzą mniej więcej z tego samego okresu. Na podstawie pozostawionych przez mikroorganizmy skamielin wiemy, że życie istniało na Ziemi już 3,5 miliarda lat temu. Chemiczne ślady aktywności mikroskopowego życia na Ziemi sięgają 3,9 miliarda lat temu. Jak na ironię, to właśnie te odkrycia, oparte na naukowych technikach datowania, skłoniły Francisa Cricka do przyjęcia hipotezy panspermii. Crick odjął 3,9 miliarda lat od 4,5 miliarda (na tyle ocenia się wiek Układu Słonecznego) i otrzymał 600 milionów lat. Zdaniem wybitnego genetyka DNA nie mogło powstać na Ziemi w ciągu zaledwie 600 milionów lat. Aby z przypadkowych zderzeń atomów węgla, wodoru, fosforu i innych mogła powstać niezmiernie złożona cząsteczka DNA, potrzebny byłby znacznie dłuższy czas. Crick doszedł więc do wniosku, że życie musiało powstać gdzie indziej i zostać w jakiś sposób przeszczepione na Ziemię. Doniesienia o możliwych śladach życia w pochodzącym z Marsa kamieniu ponownie ożywiły teorię panspermii. W czasopismach naukowych zaczęły pojawiać się artykuły zatytułowane: „Czy jesteśmy Marsjanami?”
ALH84001 nie był jedyną znalezioną na Ziemi skałą pochodzenia marsjańskiego. Istnieje dwanaście meteorytów, które naukowcy mogą z dużą dozą pewności zakwalifikować jako pochodzące z Czerwonej Planety. Jednak zdaniem niektórych z nich, tylko ALH84001, ze względu na swój wiek, może zawierać dowody istnienia życia. Mars był wilgotny w czasie, gdy ALH84001 spoczywał w pobliżu jego powierzchni. Cała koncepcja wydarzeń, które spowodowały wyrzucenie skały z Marsa, a także w czasie jej długiej podróży w kierunku Ziemi aż do jej odkrycia w 1984 roku, wydawała się w elegancki sposób odpierać wszelkie zarzuty wobec hipotezy panspermii. Z pewnością zadowoliłaby ona Carla Sagana, który niegdyś, podczas konferencji w Biurakan w 1971 roku, niechętnie wystąpił jako advocatus diaboli wobec teorii, którą poparłby z przyjemnością, zważywszy na jego powszechnie znane próby wykazania, że życie gdzie indziej we wszechświecie musi istnieć.
Głównym argumentem Sagana przeciw hipotezie panspermii było przekonanie, że intensywne promieniowanie w otwartej przestrzeni zniszczyłoby każdą formę życia w ciągu godzin, dni lub co najwyżej tygodni. Jednak w czasie konferencji w Biurakan Sagan i jego koledzy rozważali organizmy, które były dostatecznie małe, aby przedostać się na najwyższy poziom stratosfery Ziemi lub innej planety, a następnie zyskać dostatecznie dużo energii, by wyruszyć w przestrzeń. Małe, pozbawione osłony organizmy wyruszające swobodnie w przestrzeń byłyby rzeczywiście narażone na uszkodzenie ich wrażliwego DNA przez promieniowanie, które ostatecznie zniszczyłoby je całkowicie. Jednak ALH84001 to zupełnie inna historia. Jeżeli jakiś organizm znalazł się wewnątrz kamienia, gdy znajdował się on jeszcze na Marsie, to został objęty naturalną ochroną przed promieniowaniem - w postaci warstwy skały. Czy taka pozaziemska skała mogła zasiać życie na Ziemi?
Każdy zapewne widział spadające gwiazdy. Spadająca gwiazda, czyli meteor, stanie się meteorytem, jeżeli przeżyje przejście przez atmosferę Ziemi i dotrze do powierzchni planety. Widzimy meteory, ponieważ świecą jasno i wyglądają jak biegnące na niebie gwiazdy. Świecenie meteorów przy przejściu przez atmosferę powoduje ich wysoka temperatura, wywołana przez tarcie o powietrze. Wytworzone przy tym ciepło jest tak duże, że większość wpadających w atmosferę Ziemi małych obiektów ulega spaleniu, zanim dotrą one do powierzchni. W tym momencie pojawia się kolejny problem związany z hipotezą panspermii. Gdy ALH84001 został wyrzucony w przestrzeń, rozgrzał się tak bardzo, że bąble atmosfery marsjańskiej zostały uwięzione na jego stopionej powierzchni, dzięki czemu zdołaliśmy ustalić jego pochodzenie. Jednak wysoka temperatura, która uwięziła charakterystyczne dla Czerwonej Planety gazy, mogła również zabić żywe istoty, które wybierały się w podróż wraz z ALH84001. Jeżeli nawet to, co naukowcy obecnie znajdują pod powierzchnią meteorytu, stanowi dowód istnienia życia, to są to jedynie ślady dawno wymarłego życia. Podczas wchodzenia w atmosferę Ziemi kamień niewątpliwie został poddany powtórnemu ogrzewaniu, podobnie jak przy starcie z Marsa. Możemy założyć, że w sprzyjających warunkach ALH84001 mógł ochronić organizm i jego DNA przed promieniowaniem kosmicznym. Możemy również przypuszczać, że ewentualni żywi pasażerowie mogli przetrwać podróż w stanie hibernacji wywołanej niską temperaturą próżni kosmicznej. Jednak nadal pozostaje do rozwiązania problem wysokiej temperatury podczas startu i lądowania.
Czy problem ten da się rozwiązać? Może niosąca życie skała wyrzucona w przestrzeń z jakiejś odległej planety była zbudowana z materii odpornej na ciepło, na przykład z azbestu? A może istotny jest stosunek powierzchni do objętości? Kamień takiej wielkości jak ALH84001 może zostać podgrzany do wysokiej temperatury, lecz co z większymi obiektami? Księżyc był niegdyś częścią Ziemi, dopóki gigantyczna kolizja nie spowodowała, że znalazł się na orbicie wokół nas. Nietrudno wyobrazić sobie obiekty większe od ALH84001,lecz mniejsze od Księżyca, wylatujące z jakiejś planety na skutek kolizji z asteroidą i niosące głęboko wewnątrz - zabezpieczone zarówno przed promieniowaniem, jak i przed ciepłem - organizmy żywe. Po trwającej miliony lat międzygwiezdnej podróży obiekty takie mogą wylądować na planecie krążącej wokół innej gwiazdy i zasiać na niej życie za pomocą zamrożonych zarodników, ukrytych głęboko wewnątrz gwiezdnego kuriera.
Atmosfera Ziemi jest nieustannie bombardowana przez promieniowanie kosmiczne, które rozbija jądra azotu, tworząc atomy radioaktywnego węgla, C-14. Radioaktywny węgiel rozchodzi się w całej objętości atmosfery, docierając również do Ziemi i przenikając nasze środowisko. Wprawdzie przeważająca część węgla na świecie to izotopy stabilne (C-12 oraz w mniejszej ilości C-13), ale niewielki, w miarę stały ułamek stanowi izotop radioaktywny, C-14. Istoty żywe nieustannie pobierają węgiel z otaczającego je środowiska, pochłaniając go w pożywieniu, wdychając i absorbując z powietrza. Ułamek radioaktywnego węgla w organizmach żywych jest zatem taki sam jak w środowisku, lecz tylko do chwili ich śmierci. Od tego momentu ustaje wymiana węgla ze środowiskiem. Pozostały w organizmie radioaktywny węgiel kontynuuje swój naturalny rozpad. W miarę upływu czasu poziom radioaktywności obniża się. Po 5730 latach rozpadnie się połowa radioaktywnych atomów, które były obecne w organizmie w chwili śmierci. Jest to tak zwany okres połowicznego zaniku, który w przypadku węgla C-14 wynosi właśnie 5730 lat. Po upływie 11 460 lat poziom radioaktywności obniży się do jednej czwartej początkowej wartości itd. Ta charakterystyczna cecha radioaktywnego węgla stała się podstawą techniki datowania wynalezionej w latach czterdziestych przez W.F. Libby'ego.
Metoda ta została udoskonalona w 1993 roku przez Minze'a Stuivera z University of Washington i jego współpracowników, którzy przeprowadzili kalibrację datowania metodą aktywnego węgla, wykorzystując najbardziej precyzyjny sposób określania wieku drzew - za pomocą liczenia słojów na przekroju pnia. Znając wiek oraz datę ścięcia poszczególnych drzew, dokonali analizy radiowęglowej kawałków drewna, a następnie porównali wiek drzew określony na podstawie obu metod, dzięki czemu zdołali zredukować błąd pomiaru metodą radiowęglową do 10-20 lat. Datowanie metodą radioaktywnego węgla zostało między innymi zastosowane do określenia wieku Całunu Turyńskiego, dzięki czemu udowodniono, że jest on wykonany z lnu ściętego w trzynastym wieku, a nie za życia Jezusa. Wyznaczono także datę zdobycia Jerycha przez Jozuego - 1580 r. p.n.e. oraz określono wiek kości neandertalczyka na około 100 000 lat. Do wyznaczania wieku znacznie starszych obiektów, a zwłaszcza do wyznaczania przynależności skał do różnych okresów geologicznych stosuje się podobne techniki, lecz oparte na innych pierwiastkach, na przykład metodę potasowo-argonową.
W 1998 roku A.J.T. Juli z wydziału nauk o Ziemi University of Arizona ogłosił wyniki badań małych fragmentów meteorytu ALH84001, które poddał analizie radiowęglowej. Wyodrębnił znalezione w meteorycie wielopierścieniowe węglowodory aromatyczne, a następnie spalił je w specjalnej komorze laboratoryjnej, wydzielając w ten sposób z tych organicznych związków czysty węgiel. Osobno wyodrębnił węgiel z fragmentów ALH84001 zawierających nieorganiczny minerał węglanu wapnia, który stanowił część samej skały. Następnie dla obu uzyskanych w ten sposób próbek węgla wykonał analizę zawartości izotopu C-14, w stosunku do pozostałych dwóch izotopów, C-12 i C-13. Wyniki Julia były zaskakujące. Dla węgla organicznego proporcja radioaktywnego izotopu była identyczna jak w przypadku węgla ziemskiego. Dla węgla wyodrębnionego z węglanu, pochodzącego prawdopodobnie z Marsa, proporcja była inna. Juli doszedł do wniosku, że organizmy żywe, które mogły być źródłem znalezionych w ALH84001 węglowodorów, musiały się tam dostać w okresie, gdy meteoryt spoczywał w antarktycznym lodzie. Inne badania, wykonane mniej więcej w tym samym okresie, również podały w wątpliwość przypuszczenia o marsjańskim pochodzeniu obecnego w ALH84001 życia.
Na początku 1998 roku wśród naukowców panowała zgoda wyłącznie co do tego, że na temat tajemnicy ALH84001 nie można stwierdzić nic rozstrzygającego. Meteoryt najprawdopodobniej pochodził z Marsa, lecz nic poza tym nie wydawało się pewne. Każde z odkryć, które pierwotnie doprowadziły naukowców do przekonania, że na małej marsjańskiej skale istniały ewidentne ślady przeszłego życia, zostało podane w wątpliwość. Wszyscy uważali, że wielka zagadka, czy w pewnym okresie w przeszłości na Marsie istniało życie, zostanie rozwiązana dopiero wtedy, gdy marsjańskie skały - albo przywiezione na Ziemię, albo badane przez pojazdy kosmiczne na powierzchni Czerwonej Planety - zostaną poddane analizie. Mamy nadzieję, że odpowiedź przyniosą wyprawy na Marsa w pierwszej dekadzie dwudziestego pierwszego wieku. Jeżeli odpowiedź będzie pozytywna, to być może dowiemy się, czy DNA jest tworem unikatowym - przynajmniej w skali Układu Słonecznego - czy też możliwe są inne formy kodu genetycznego.
Czy istnieją kosmiczni kurierzy?
Czy międzygwiezdna panspermia rzeczywiście może działać, przenosząc życie z jednego układu słonecznego do innego? Większość ciał pozaziemskich - meteoryty, asteroidy, komety - pochodzi z naszego Układu Słonecznego. Asteroidy żyją w tzw. pasie asteroid, między orbitami Marsa i Jowisza, gdzie zgodnie z prawem Bodego powstałaby kolejna planeta. Prawo to (zwane także prawem Titiusa--Bodego) określa odległości planet od Słońca. Aby je wyznaczyć, należy wziąć szereg liczb: 0, 3, 6, 12, 24,48, 96, 192... i dodać 4 do każdego wyrazu, co w rezultacie da szereg: 4,7,10, 16, 28, 52,100, 196... Następnie należy każdy wyraz podzielić przez 10, co da: 0,4; 0,7; 1; 1,6; 2,8; 5,2; 10; 19,6... Liczby te są w przybliżeniu równe odległościom - w jednostkach astronomicznych (AU) - planet od Słońca. Odległość Merkurego wynosi w rzeczywistości 0,39 AU, Wenus - 0,72 AU, Ziemi - 1 AU, Marsa - 1,52 AU. Następnie pojawia się odstępstwo od prawa Bodego, gdyż w odległości 2,8 AU nie ma żadnej planety. Później mamy Jowisza w odległości 5,2 AU od Słońca, Saturna - 9,5 AU i Urana - 19,2 AU (dla Neptuna i Plutona prawo Bodego nie daje dobrego przybliżenia). Gdy w szeregu Bodego pojawiła się przerwa, G. Piazzi odkrył w 1801 roku asteroidę Ceres, a później wiele innych asteroid, w odległości 2,8 AU od Słońca. Strefa ta obecnie określana jest mianem pasa asteroid. Asteroidy stanowią pozostałości z okresu formowania się Układu Słonecznego. Gdy otaczający nowo powstałe Słońce dysk protoplanetarny koagulował w odległościach z grubsza zgodnych z prawem Bodego, w odległości 2,8 AU było nieco za mało materii, aby mogła powstać nowa planeta, i fragmenty tego, co miało stanowić jej części składowe, pozostały w postaci asteroid krążących wokół Słońca w obszarze pasa asteroid, niekiedy opuszczając go i „włócząc się” po okolicy. Ceres, największa z asteroid, ma średnicę 1025 kilometrów. Pallas, Juno, Westa i 200 innych znanych asteroid ma rozmiary rzędu kilkuset kilometrów, a oprócz nich istnieją tysiące mniejszych asteroid, o średnicach 1 kilometra lub mniejszych.
Poza obszarem planet, na zewnątrz orbity Plutona, znajduje się tak zwany Pas Kuipera, który składa się z lodowych ciał pozostałych z okresu narodzenia Układu Słonecznego. Od czasu do czasu któreś z tych ciał zostaje wytrącone ze swojej orbity i spada w kierunku Słońca jako kometa. Pas Kuipera stanowi źródło krótkookresowych komet, które okrążają Słońce z okresem nie większym niż 200 lat. Włóczące się po Układzie Słonecznym asteroidy i komety mogą przenosić materię z jednego miejsca w drugie. Jednak czy mogą one transportować życie?
Znacznie dalej w przestrzeni, w odległości tysięcy AU od środka Układu Słonecznego, znajduje się kolejny zbiór krążących wokół Słońca ciał. Jest to tak zwana Chmura Oorta, nazwana na cześć holenderskiego astronoma Jana Oorta, który w 1932 roku odkrył istnienie ciemnej materii galaktycznej. Chmura Oorta powstała prawdopodobnie we wczesnym okresie życia Układu Słonecznego, jako skupiska materii odrzucone od środka Układu Słonecznego przez grawitacyjne oddziaływanie wielkich planet - Jowisza, Saturna, Urana i Neptuna. Chmura Oorta stanowi źródło komet o okresach obiegu sięgających tysięcy lat: orbity zbudowanych z lodu ciał z Chmury Oorta są niekiedy zaburzane przez grawitacyjne przyciąganie zewnętrznych planet, na skutek czego powstają komety, których jedno okrążenie wokół Słońca trwa tysiące lat.
Od czasu do czasu zdarza się, że krążące wokół masywnego środka Galaktyki dwie gwiazdy zbliżają się do siebie. Ich Chmury Oorta - zakładając, że inne gwiazdy również je mają - mogą się wówczas mieszać ze sobą. Zrodzony w jednym układzie skalisty, lodowy obiekt może przenieść się do drugiego. Naukowcy sądzą obecnie, że oprócz Chmur Oorta w międzygwiezdnej przestrzeni wędrują również samotne, nie związane z żadnym układem słonecznym komety-łazi ki. Są to komety, które zostały grawitacyjnie pociągnięte przez którąś z zewnętrznych planet, a następnie na skutek „efektu procy” katapultowane w przestrzeli. Obecnie - pod wpływem bezwładności - przemierzają one olbrzymią, otwartą międzygwiezdną pustkę. Według jednego z niedawnych oszacowań przestrzeń między nami a najbliższym układem gwiazdowym, Alfą Centauri, może zawierać aż 50 miliardów takich bezpańskich komet. W całej Drodze Mlecznej może znajdować się aż 6 bilionów bilionów (6 z 24 zerami) komet. Przy tak olbrzymiej liczbie międzygwiezdnych podróżników nie można wykluczyć, że chemiczne nośniki życia jednak podróżują przez Galaktykę, a hipoteza panspermii może ostatecznie okazać się słuszna, jeżeli założymy, że DNA potrafi przetrwać uciążliwości długotrwałej podróży w ekstremalnych warunkach.
Rozdział 6
ASTEROIDY, WULKANY I NEMEZIS
Życie na Ziemi - i zapewne na jakiejkolwiek planecie we wszechświecie -jest pełne niebezpieczeństw. Zagrożenie ekstynkcją oraz niebezpieczeństwo, że życie, nawet jeżeli gdzieś się pojawi, nie będzie miało szansy się rozwinąć, skłoniły Franka Drake'a i jego współpracowników z programu SETI do włączenia do równania Drake'a czynnika, który odzwierciedla niepewność i kruchość życia: czynnik L. Jest on miarą czasu trwania cywilizacji, czyli musi uwzględniać wiele różnych elementów wpływających na ewolucję i „długowieczność” życia - a w szczególności życia inteligentnego - na jakiejkolwiek planecie. Chodzi tu między innymi o autodestrukcyjne skłonności naszego gatunku przejawiające się w produkcji i magazynowaniu broni masowej zagłady, a przecież podobne cechy mogą mieć też inne zaawansowane cywilizacje. Jednak zagrożenie czyha z wielu stron. Każdy astronom wie, że wszechświat to niebezpieczne miejsce. Wciąż zachodzą w nim eksplozje i rozbłyski intensywnego promieniowania, a każdej planecie grożą kolizje z innymi obiektami. Podstawowe pytanie brzmi: Jak bardzo jest prawdopodobne, że gdzieś w przestrzeni istnieją dostatecznie sprzyjające warunki i że będą trwać wystarczająco długo, aby życie mogło powstać i ewoluować?
W lipcu 1994 roku kometa Shoemaker-Levy 9 trafiła w Jowisza. Zdarzenie to stało się najczęściej oglądanym zjawiskiem w historii astronomii. Przez wiele dni każdy profesjonalny teleskop skierowany był na olbrzymią planetę. Na skutek oddziaływania grawitacji Jowisza kometa rozpadła się na fragmenty, które uderzały w powierzchnię planety z taką siłą, że nawet przez małe teleskopy widoczne były ślady uderzeń rozmiarami porównywalne z Ziemią. Nad krajobrazem Jowisza pojawiły się olbrzymie, ogniste kule gorącego gazu i pyłu, a atmosfera wyraźnie pociemniała. Na powierzchni pozostał trwały ślad pouderzeniowy. Każdy z nas zadawał sobie pytanie, czy zdarzenie to stanowi wyjątek, czy też jest rozpowszechnione w kosmosie? I co właściwie dzieje się ze środowiskiem uderzonej przez gościa z przestrzeni kosmicznej planety? Czy życie potrafi przetrwać takie naturalne katastrofy? Czy wszelkie życie, w całym wszechświecie, musi ostatecznie zginąć w ognistej eksplozji? Czy Ziemię również czeka taki los jak Jowisza?
Jeszcze dwadzieścia lat temu niewielu naukowców zdawało sobie sprawę, że Ziemi także zagrażają obiekty kosmiczne. A wystarczy przecież rzut oka na pocięty kraterami krajobraz Księżyca, aby dojść do wniosku, że kosmos jest niebezpiecznym miejscem. Księżyc jest uderzany częściej niż Ziemia, ponieważ ma bardzo cienką atmosferę, w której - w odróżnieniu od Ziemi - niewiele ciał ulega spaleniu w trakcie spadania na powierzchnię. Niewielkie obiekty wkraczające w atmosferę Ziemi ulegają całkowitemu spaleniu, zanim dotrą do powierzchni. Ponadto na Ziemi aktywność geologiczna - nieobecna na Księżycu - powoduje erozję powierzchni, na skutek wzajemnych ruchów płyt tektonicznych usuwających ślady starych kraterów uderzeniowych. Jednak mimo braku takich śladów wiemy, że w przeszłości w Ziemię wielokrotnie uderzały duże ciała kosmiczne. Zderzenia te były na ogół przyczyną wielkich katastrof.
W 1978 roku Louis i Walter Alvarezowie z University of California w Berkeley badali we włoskich Apeninach warstwy geologiczne pochodzące z okresu między kredą a trzeciorzędem (zwane granicą K/T), sprzed 65 milionów lat. Dwaj naukowcy odkryli coś zupełnie nieoczekiwanego: cienką warstwę skały wyjątkowo bogatą w iryd. Pierwiastek ten jest pod pewnymi względami spokrewniony z platyną i jest niezwykle słabo reaktywny. Nie rozpuszcza się nawet w wodzie królewskiej. Iryd rzadko występuje na Ziemi, lecz spotka się go w meteorytach. Fakt, że jest on skoncentrowany w tak cienkiej i dobrze wyodrębnionej warstwie skały, doprowadził A. Warezów do konkluzji, że pojawił się on z przestrzeni, wraz z asteroidą. Na podstawie gęstości odkrytej przez siebie warstwy irydu i przy założeniu, że jest ona równomiernie rozłożona na całej powierzchni Ziemi, obliczyli, że łączna ilość irydu w takiej globalnej warstwie musiała pochodzić z asteroidy o średnicy 10 kilometrów. Najbardziej uderzającym aspektem tego odkrycia była zbieżność czasowa między powstaniem warstwy irydu - i hipotetycznego uderzenia asteroidy - a zagładą dinozaurów.
Jeżeli rzeczywiście w okresie przełomu K/T w Ziemię trafiła asteroida, to gdzie znajdują się jej pozostałości? Gdzie znajduje się krater po uderzeniu ciała o tak dużej masie? Musiałby on być olbrzymi, a w latach, gdy Alvarezowie dokonali swego odkrycia, nie wiedziano o istnieniu żadnego krateru o takich rozmiarach. Nowa teoria o przyczynach zagłady dinozaurów, oparta na hipotezie o uderzeniu asteroidy, nie miała więc swojego potwierdzenia, którym mógłby być krater pouderzeniowy. Warstwa irydu mogła przecież pojawić się w tym samym okresie zupełnie przypadkowo.
W 1991 roku na półwyspie Jukatan odkryto gargantuiczny krater. Warstwa irydu, a także znalezione tymczasem ślady irydu w różnych miejscach globu oraz początkowe odkrycie Alvarezów w Apeninach - wszystkie one pochodzą z okresu przełomu K/T, sprzed 65 milionów lat. Stało się jasne, że Ziemia, podobnie jak Jowisz w 1994 roku, stała się niegdyś celem gigantycznego najeźdźcy z kosmosu, nazwanego Wielkim Ekstynktorem. Na podstawie rozmiarów krateru naukowcy obliczyli, że wybuch spowodowany uderzeniem asteroidy był 5 miliardów razy silniejszy niż zrzucona na Hiroszimę bomba atomowa lub - w skali stosowanej w podobnych sytuacjach - równoważny 100 milionom megaton TNT.
W ciągu kilku sekund od wybuchu wysoko nad powierzchnię Ziemi wzbiła się wielka ognista kula. Znacznie wzrosła temperatura atmosfery. Jednak niektóre zwierzęta i rośliny, zwłaszcza z tych gatunków, które mogły się ukryć i nie znajdowały się zbyt blisko miejsca uderzenia, zdołały przetrwać okres wzmożonego ciepła. Większa część szkód na Ziemi została spowodowana później. Nad powierzchnię Ziemi wzbiły się olbrzymie chmury sadzy i pyłu, które rozprzestrzeniły się na całą atmosferę, tworząc ciemną pokrywę nad całą planetą. Przez wiele miesięcy do powierzchni Ziemi nie docierały promienie słoneczne. Spowodowaną przez eksplozję wysoką temperaturę zastąpiły trwające wiele lat mrozy. Ciężka pokrywa czarnych chmur nie pozwalała promieniom Słońca ogrzewać planety i przerwała roczny cykl wzrostu i obniżenia temperatury. Powierzchnia Ziemi przez wiele lat pozostawała bardzo zimna.
Brak światła uniemożliwiał roślinom fotosyntezę, wskutek czego większość z nich wymarła. Wszystko na lądzie zamarzło. Dinozaury, a wraz z nimi większość innych żywych istot na Ziemi, wyginęły. Nadal pozostaje zagadką, które formy życia przetrwały tę katastrofę i w jaki sposób z zagłady wyłoniła się tętniąca obecnie życiem planeta.
Naukowa analiza eksplozji K/T oraz skutków, jakie wywołała wśród istot żywych, doprowadziła Alvarezów do jeszcze jednego nieoczekiwanego odkrycia. W początkowym okresie zimnej wojny oba supermocarstwa kierowały się założeniem, że wojnę nuklearną można wygrać. Na podstawie obliczeń siły i zniszczeń wywołanych przez pojedynczą eksplozję nuklearną oraz informacji uzyskanych dzięki wykonywanym przez 40 lat testom jądrowym, początkowo w powietrzu, a następnie pod ziemią, radzieccy i amerykańscy naukowcy sądzili, że bomby atomowe dokonują zniszczeń przez działanie trzech czynników: fali uderzeniowej, ognia oraz promieniowania. Jednak od pewnego czasu zaczęto zdawać sobie sprawę, że istnieje jeszcze jeden skutek dużych eksplozji jądrowych. Gdyby równocześnie zdetonowano wiele bomb atomowych, tak jak podczas hipotetycznej wojny jądrowej, ich skutki nie byłyby terytorialnie ograniczone. Płonące miasta wyrzuciłyby do atmosfery takie ilości sadzy i pyłu, że temperatura na Ziemi spadłaby do niebezpiecznie niskiego poziomu, a promieniowanie słoneczne nie mogłoby dotrzeć do gruntu. Naukowcy określają ten efekt terminem „nuklearnej zimy”. W znacznym stopniu przypomina on skutki katastrofy K/T. Hipoteza nuklearnej zimy odegrała ważną rolę w polityce zimnej wojny, przekonując supermocarstwa, że wojny jądrowej prawdopodobnie nie da się wygrać, a próba jej wywołania skazałaby nas na zagładę przypominającą los dinozaurów. Teoria nuklearnej zimy, głoszona przez naukowców obu supermocarstw, zwróciła w końcu uwagę światowych przywódców i dopomogła w zakończeniu zimnej wojny.
Wydaje się, że utrzymanie życia na Ziemi - lub na jakiejkolwiek innej planecie - może na dłuższą metę okazać się trudne. Już sam proces formowania się układów słonecznych od dysków protoplanetarnych do planet stwarza zagrożenie dla ciągłości życia. Asteroidy, komety i inne kawałki materii są równie naturalnymi składnikami układu słonecznego jak planety. Wprawdzie hipoteza panspermii, zgodnie z którą pochodzące z przestrzeni kosmicznej ciała mogą się stać zarodkiem życia, jest w najlepszym razie kontrowersyjna, ale niszcząca moc tych samych ciał - oraz zagrożenie, jakie stwarzają one dla rozwoju i ciągłości życia - jest jak najbardziej realna. Zagrożenie to może się przejawiać na wielu różnych poziomach.
W dniu 30 czerwca 1908 roku mieszkańcy wsi w Okręgu Tunguskim na środkowej Syberii usłyszeli donośny wybuch. Na niebie pojawiła się olbrzymia kula ognia, wszystko wokół stało się czerwone, a temperatura gwałtownie wzrosła, jak w pobliżu gigantycznego ogniska. Pożary strawiły 2000 kilometrów kwadratowych lasów. Ze względu na położenie geograficzne i uwarunkowania geopolityczne ekspedycje naukowe, mające na celu zbadanie przyczyn tego zjawiska, pojawiły się na Syberii dopiero po 17 latach od wybuchu. Obecnie wiemy, że sprawcą wybuchu była kamienna asteroida o rozmiarach sporego biurowca. Spowalniany przez opór powietrza kosmiczny najeźdźca rozgrzewał się coraz bardziej, aż w końcu eksplodował na wysokości 8 kilometrów nad powierzchnią Ziemi, wzniecając ogień wokół miejsca wybuchu. Uwolniona przez eksplozję energia odpowiadała 15 megatonom TNT - była tysiąc razy większa niż energia bomby zrzuconej na Hiroszimę.
Naukowcy szacują, że ciała o rozmiarach asteroidy tunguskiej - mające około 50 metrów średnicy - trafiają w Ziemię średnio raz na 300 lat. Gdyby obiekt taki spadł na miasto, uległoby ono całkowitemu zniszczeniu. Miejsca trafień są jednak przypadkowe, więc dotychczasowe eksplozje asteroidów następowały w słabo zaludnionych obszarach, takich jak Okręg Tunguski na Syberii. Zakładając, że 10% powierzchni Ziemi jest gęsto zaludnione, naukowcy obliczają, że obiekty o podobnych rozmiarach jak asteroida tunguska trafiają w zamieszkane obszary raz na 10 000 lat. Te względnie małe obiekty stwarzają jednak różnego rodzaju zagrożenia nawet wtedy, gdy spadną na nie zamieszkane obszary. Trafienie w ocean spowodowałoby fale pływowe, które zniszczyłyby gęsto zaludnione obszary przybrzeżne. Przeprowadzone symulacje komputerowe wskazują, że nawet nieduża asteroida, wpadając do Oceanu Atlantyckiego, wytworzyłaby tak potężną falę pływową, że miasta na wschodnim wybrzeżu Ameryki zostałyby obrócone w (mokrą) perzynę.
Uderzenie większej asteroidy, o promieniu 100 metrów, uwolniłoby energię równą energii 100 megatonowych bomb, niszcząc cały kontynent. Przy średnicy 1 kilometra energia osiągnęłaby równowartość 100 000 megatonowych bomb, a zasięg zniszczeń rozciągałby się na całą półkulę. Wielki Ekstynktor z ery K/T, mający średnicę 10 kilometrów, wyzwolił energię 1 miliona megaton, niszcząc życie w globalnej skali. Naukowcy oceniają, że katastrofy o podobnych rozmiarach zdarzają się średnio co 30 milionów lat.
Istnieje teoria, aczkolwiek nie poparta żadnymi dowodami obserwacyjnymi, że nasze Słońce nie jest pojedynczą gwiazdą, lecz elementem układu podwójnego, podobnie jak większość gwiazd w naszej Galaktyce. Zgodnie z tą teorią towarzysz Słońca, zwany Nemezis, obiega Słońce po eliptycznej orbicie z częstością raz na 30 milionów lat. Gdy zbliża się do nas, jego grawitacyjne oddziaływanie zaburza trajektorie asteroid i komet, posyłając je w kierunku Słońca i jego planet. Według tej teorii to właśnie Nemezis była przyczyną uderzenia w Ziemię Wielkiego Ekstynktora, który 65 milionów lat temu sprowadził zagładę na dinozaury i większość innych form życia na naszej planecie.
Asteroida 1997 XF11
Większość asteroid pozostaje wprawdzie w pasie asteroid, ale istnieje jedna grupa - zwana asteroidami Apolla - której orbity krzyżują się z orbitą Ziemi. Należy do niej ponad 30 obiektów. Jedna z asteroid Apolla, Ikar, w 1968 roku zbliżyła się do Ziemi na odległość 4 milionów mil (ok. 6,5 min km). W kategoriach astronomicznych taka odległość uważana jest prawie za trafienie. Nieco później odkryto asteroidy, które mijały Ziemię w odległości mniejszej niż 300 000 mil (ok. 480 000 km). W dniu 6 grudnia 1997 roku James V. Scotti z University of Arizona odkrył nową asteroidę, nazwaną później asteroidą 1997 XF11, której orbita przechodziła bardzo blisko Ziemi. W marcu 1998 roku ogłoszono, że nowo odkryta asteroidą znajduje się na kursie, który doprowadzi ją do Ziemi na odległość 30 000 mil (ok. 48 000 km) - bliżej niż jakiekolwiek inne zaobserwowane ciało niebieskie. Asteroidą okrąża Słońce raz na 21 miesięcy. Obliczono, że w czwartek 26 października 2028 roku o 13.30 asteroidą 1997 XF11 znajdzie się najbliżej Ziemi. Zbliżenie na odległość 30 000 mil (ok. 48 000 km), jedną ósmą odległości od Księżyca, może grozić bezpośrednim zderzeniem. Późniejsze obliczenia, wykonane przez naukowców z Jet Propulsion Laboratory [Laboratorium Napędu Odrzutowego] w Kalifornii, dały bardziej optymistyczne oceny największego zbliżenia XF11 do Ziemi - od 54 000 do 600 000 mil (ok. 87 000-965 000 km). Gdyby mająca milę średnicy asteroidą trafiła w Ziemię, spowodowałaby zniszczenia w skali globalnej, wzniecając ogień na całym kontynencie. W roku 2000 i 2002, podczas kolejnych zbliżeń, zostaną wykonane ponowne obliczenia, które pozwolą lepiej oszacować zagrożenie zderzeniem. Jak na ironię jedną z możliwości odsunięcia bezpośredniego zagrożenia jest prewencyjne uderzenie asteroidy rakietą niosącą ładunek jądrowy, którego wybuch mógłby zmienić jej kurs. Nietrudno uświadomić sobie, że wśród licznych bliskich spotkań Ziemi z asteroidami i kometami, w ciągu wielu milionów lat może się zdarzyć i takie, które zakończy się bezpośrednim trafieniem.
Nuklearna zima, promieniowanie, zniszczenia wywołane przez samą eksplozję oraz uwolnione przez nią ciepło mogą zniszczyć każdą zaawansowaną cywilizację, znajdującą się w stanie globalnej wojny. Asteroidy i komety - zakładając, że w innych układach słonecznych również znajdują się takie pozostałości z wczesnych okresów ich formowania się, wędrujące w ich przestrzeni między, planetarnej, a może także i w międzygwiezdnej - stwarzają kolejne zagrożenie dla cywilizacji pozaziemskiej. Wiemy, że na Ziemi przynajmniej raz zdarzyła się globalna katastrofa wywołana uderzeniem asteroidy. Jak na ironię, gdyby nie zagłada dinozaurów, spowodowana przez eksplozję K/T oraz jej konsekwencje klimatyczne, na Ziemi mogłoby nigdy nie pojawić się inteligentne życie. Istnieje jaszcze trzecie zagrożenie, czające się na każdej zdolnej do podtrzymania życia planecie. Wiemy, że dla utrzymania życia potrzebna jest geologiczna aktywność planety. Geologicznie martwe ciało, takie jak Księżyc, nie ma wielu niezbędnych dla ewolucji życia elementów. Jednak ożywiająca planetę aktywność geologiczna może równie łatwo zniszczyć życie. Na każdej geologicznie aktywnej planecie występują wulkany. Io, satelita Jowisza, jest tak aktywny, że na zdjęciach wykonanych przez Kosmiczny Teleskop Hubble'a widać olbrzymie plamy wulkanicznego dymu. Częste i intensywne Przejawy aktywności wulkanicznej mogą zniszczyć życie równie łatwo i gruntownie jak nuklearna zima.
Gdy 65 milionów lat temu wyginęły dinozaury, na Ziemi nie było ludzi, więc - nie licząc danych geologicznych i paleontologicznych - nie mamy żadnych zapisów na temat poziomu zniszczeń spowodowanych przez Wielkiego Ekstynktora. W jakim stopniu podobna katastrofa dotknęłaby ludzi? To pytanie przyszło mi do głowy w 1991 roku, gdy zbierałem informacje na temat statystycznych metod poprawiania wyników radiowęglowej metody datowania. Zastosowałem wtedy metodę matematyczną zwaną bootstrap, dzięki której można uzyskać wąski przedział ufności dla kreślonych metodą aktywnego węgla dat prehistorycznych wydarzeń. W ramach tego projektu chciałem odwiedzić miejsce, gdzie zdarzyła się najpotężniejsza naturalna katastrofa w historii ludzkości.
Wśród pozostałości starożytnej cywilizacji, która w tajemniczy sposób zniknęła z powierzchni Ziemi około 1630 r. p.n.e., archeolodzy znaleźli naczynia zawierające ziarna jęczmienia pozostawione przez ludzi, którzy zginęli w wielkiej katastrofie. Ziarna te zostały wykorzystane jako materiał do określenia daty metodą węgla aktywnego.
Wspiąłem się na krawędź olbrzymiego wulkanu na wyspie Thira. Na tarasie, z którego rozciągał się widok na położoną poniżej kalderę, znajdował się napis: „Przejście tylko dla klientów”. Skierowałem się na południe i po półgodzinnym marszu obszedłem dookoła otoczone niewielką krawędzią wgłębienie wulkanu i ponownie znalazłem się na wprost położonej poniżej krateru olbrzymiej niebieskiej kaldery. tym razem od północy. Patrząc z tego miejsca, łatwo było zdać sobie sprawę z wielkich rozmiarów krateru. Był jasny dzień, a mimo to z trudem dostrzegałem położone na północnym krańcu, na wprost kaldery, miasteczko la. Ilość ziemi i skał, wyrzuconych w powietrze owego dnia, lub dni, w siedemnastym wieku przed naszą erą, musiała być olbrzymia. Wszędzie wokół znajdowały się duże, czarne, bazaltowe bloki. Bezładnie porozrzucane, wyglądały, jakby spadły z nieba wprost na szarożółtą ziemię. Ten sam północny wiatr musiał wiać również wtedy, gdy zaczęła się erupcja (co zresztą zostało udowodnione przez badania złóż popiołu w podmorskim gruncie), a niesione przez wiatr na południe i na wschód skały, popiół i pumeks spowodowały straszną dewastację. Gruba warstwa popiołu pokryła pola oddalonej o 70 mil (ok. 110 km) na południe Krety. Współczesne badania wykazały, że grunty rolne pokryte tak grubą warstwą popiołu, jaką odkryto na Krecie, byłyby przez wiele lat nieprzydatne do upraw. Silne wiatry poniosły olbrzymią chmurę popiołu na południowy wschód, w kierunku Egiptu, powodując trwające wiele dni ciemności. Dzień był niezwykle gorący i suchy. W palących promieniach słońca dotarłem w końcu do wioski Akrotiri.
Gdy w 1967 roku archeolog Spyridon Marinatos rozpoczął prace wykopaliskowe na południe od Akrotiri, jego zespół bardzo szybko natknął się na niezwykłe znalezisko. Pod warstwą popiołu i pumeksu znajdowało się starożytne miasto, niczym Pompeje, lecz o siedemnaście stuleci starsze. Wzdłuż ulic i wokół rynku mieściły się dwupiętrowe domy z bieżącą wodą i spłukiwanymi wodą ubikacjami. Wewnątrz tych domów zespół Marinatosa znalazł bogate freski i piękne wazy wykonane przez przedstawicieli cywilizacji, która zniknęła nagle i bez powodu. Odkrycie Marinatosa znalazło się w centrum uwagi światowych mediów, a „National Geographic”, który w 1967 roku opublikował piękne fotografie fresków i innych odkrytych w Akrotiri dzieł sztuki, przyrównał jego prace do odkrycia Atlantydy.
W 1932 roku Marinatos prowadził prace wykopaliskowe w Amnisos. Był to port obsługujący wielki pałac w Knossos na Krecie. Badając pozostałości położonej dosyć wysoko nad portem minojskiej willi, odkrył coś, co wydało mu się dosyć dziwne. Willa robiła wrażenie, jakby jakaś tajemnicza siła przesunęła ją w stosunku do fundamentów. Gdy w innych miejscach na Krecie zauważył podobne oznaki działania niewyjaśnionej, niszczącej siły, doszedł do przekonania, że cywilizacja minojska nie upadła wskutek wojny lub innej konwencjonalnej przyczyny, lecz stała się ofiarą naturalnej katastrofy o złowieszczej, niespotykanej sile.
W 1939 roku Marinatos opublikował w angielskim czasopiśmie „Antiąuity” artykuł zatytułowany The Volcanic Destruction of Minoan Crete [Wulkaniczna destrukcja minojskiej Krety]. Wysunął w nim hipotezę, zgodnie z którą przyczyną zniszczenia cywilizacji minojskiej na Krecie był gwałtowny wybuch wulkanu Santoryn. Zdaniem Marinatosa erupcji wulkanu towarzyszyło silne trzęsienie ziemi, które wywołało olbrzymie fale pływowe. Minojskie osadnictwo na Krecie zostało zniszczone przez uderzenia fal oraz przez znaczne ilości osiadłego na polach popiołu wulkanicznego, który położył kres rolniczej cywilizacji.
Atlantyda nie jest jedyną legendą o całkowitej i nagłej zagładzie cywilizacji ludzkiej, dokonanej przez powszechnie występujące w przyrodzie gwałtowne siły. Przyczyna upadku kultury minojskiej została w dużej mierze potwierdzona dzięki pracom Marinatosa i innych badaczy. Istnieją inne legendy, których wyjaśnienie można również z jakąś dozą pewności przypisać działaniu naturalnych katastrof. Potop za Deukaliona, potop ze starożytnego sumeryjskiego eposu o Gilgameszu oraz potop za Noego mogą stanowić ludowe zapisy katastrof spowodowanych przez fale pływowe, których przyczyną mogły być trzęsienia ziemi, wybuchy wulkanów lub uderzenia asteroid w powierzchnię morza. Ludzkie doświadczenie na Ziemi jest zaledwie momentem w kosmicznej skali czasowej, więc fakt, że nasza cywilizacja nie zniknęła całkowicie w ciągu zapisanej historii, nie dowodzi jeszcze, że życie może trwać wiecznie. W hierarchii kosmicznych wypadków większe zdarzają się rzadziej, a mniejsze częściej. Gdybyśmy jednak żyli na Ziemi tak długo jak dinozaury - 180 milionów lat - moglibyśmy także zostać unicestwieni przez globalną katastrofę. Czynnik L w równaniu Drake'a jest zwodniczy - nie wiemy, jak długo cywilizacja może trwać, lecz wiemy, że czas ten jest skończony, co niesie implikacje zarówno dla ewentualnych założeń o nieskończonym okresie trwania cywilizacji pozaziemskich, jak i dla niepewności sprzyjających życiu warunków na pozasłonecznych planetach. Nawet jeżeli znajdziemy planety w zamieszki walnej strefie jakiejś gwiazdy, z wodą w stanie ciekłym, ze stałymi i łagodnymi temperaturami, to aktywność wulkaniczna, uderzenia komet lub asteroidów mogą uniemożliwić utrzymanie i rozwój życia.
Zasada antropiczna stwierdza, iż sam fakt istnienia życia jest dowodem, że występują sprzyjające życiu - w takiej formie, w jakiej je znamy - warunki. Zgodnie z tą zasadą gdyby masa elektronu była tylko nieznacznie większa lub mniejsza, życie nie mogłoby powstać. Gdyby atom węgla miał inne rozmiary, nie istniałyby cząsteczki, z których zbudowane są istoty żywe. Gdyby nasz Układ Słoneczny był w jakikolwiek sposób inny, niż jest, nie byłoby nas tutaj. Zasada stwierdza, że wszystko we wszechświecie musi być dokładnie takie, jakie jest, gdyż w przeciwnym razie nie istnielibyśmy. W pewnym sensie zasada antropiczna stanowi odbicie idei, że Ziemia jest środkiem wszechświata, która panowała aż do szesnastego stulecia, gdy Kopernik stwierdził, że nie Ziemia, lecz Słońce jest środkiem Układu Słonecznego. Sto lat później Galileusz zaobserwował księżyce Jowisza, co stanowiło pierwszy obserwacyjny dowód, że Ziemia nie jest środkiem wszystkiego. Pewne właściwości Jowisza, a także naszego Księżyca, były jednak podstawą do formułowania argumentów, których natura wydaje się całkowicie antropiczna.
Jowisz jest olbrzymią planetą, 318 razy większą od Ziemi. Ze względu na jego znaczną masę oraz na fakt, że jego orbita jest bardziej oddalona od Słońca niż nasza, Jowisz jest uważany za wielkiego obrońcę Ziemi. Gdy komety lub asteroidy zbaczają z własnych orbit i zaczynają zagrażać ziemskiemu życiu, masywny Jowisz przyciąga je o wiele silniej niż lekka Ziemia. Grawitacyjne oddziaływanie Jowisza chroni nas przed wszystkim, co mogłoby zniszczyć życie na Ziemi. Również Saturn, o masie równej 95 masom Ziemi, działa - aczkolwiek w mniejszym stopniu - jako nasz obrońca przed kosmicznymi intruzami. Zgodnie z tą teorią kometa Shoemaker-Levy 9 nie spadła na Jowisza przez przypadek, lecz z powodu jego rozmiarów i masy przyciągającej komety i asteroidy. Teoria o roli, jaką Jowisz i inne duże planety odgrywają w ochronie Ziemi przed kosmicznymi odpadkami, mówi, że gdyby planety owe nie istniały, Ziemia byłaby bombardowana przez komety i asteroidy ze znacznie większą częstością niż obecnie. Jedna z ocen przewiduje, że zamiast upadku dużej asteroidy lub komety raz na 30 do 60 milionów lat, bez ochrony dużych planet dochodziłoby do takiej katastrofy raz na 100 000 lat. Życie nie mogłoby się rozwinąć, gdyby te gigantyczne planety nie istniały.
Rozważając szanse istnienia życia gdzie indziej we wszechświecie, niektórzy naukowcy twierdzą, że musimy wziąć pod uwagę ewentualność obecności dużych planet, które mogłyby osłaniać niosącą życie, małą, podobną do Ziemi planetę. Argument taki można uważać za odbicie zasady antropicznej: skoro my mamy Jowisza i Saturna, to istoty zamieszkujące inny układ słoneczny również muszą je mieć.
Podobna teoria, wysunięta w 1993 roku przez francuskiego astronoma, Jacques'a Laskara, sugeruje, że życie na Ziemi nie rozwinęłoby się bez obecności Księżyca. We wczesnej fazie kształtowania się Układu Słonecznego w młodą Ziemię uderzył jakiś duży obiekt z taką siłą, że fragment Ziemi został wyrzucony w przestrzeń. Jego masa była na tyle duża, że przyciąganie grawitacyjne doprowadziło do ukształtowania się kulistego Księżyca. Pozostał on na tyle blisko Ziemi, że zdołała utrzymać go na swojej orbicie. Oba ciała oddziałują na siebie grawitacyjnie, a siła grawitacji Księżyca jest przyczyną ziemskich pływów. Niektórzy naukowcy sądzą, że bez obecności omywających kontynenty pływów życie pozostałoby w oceanach. Teoria Laskara posuwa się jeszcze dalej, utrzymując, że obecność Księżyca była niezbędna do powstania życia na Ziemi.
Księżyc jest większy niż Pluton i niewiele mniejszy niż Merkury. Znajduje się jednak bardzo blisko Ziemi, kilka dni lotu statkiem kosmicznym zamiast miesięcy lub lat, które są potrzebne, aby dolecieć do innych planet. W rezultacie układ Ziemia-Księżyc można traktować niemal jako złożony z dwóch planet podsystem w ramach większego Układu Słonecznego. Znajdując się tak blisko Ziemi i mając znaczną masę, Księżyc jest grawitacyjnie „uwięziony” na swej wokółziemskiej orbicie i nie może swobodnie wirować wokół własnej osi. Dlatego zawsze widzimy tę samą stronę Księżyca. Według Laskara ten grawitacyjny taniec Księżyca zapewnia stabilne pochylenie osi wirowania Ziemi względem jej osi obrotu wokół Słońca. Ziemia krąży wokół Słońca z osią wirowania ustawioną nie prostopadle do płaszczyzny orbity, lecz pod kątem ostrym. Oś wirowania jest ustawiona pod kątem 23,4 stopnia względem osi obrotu wokół Słońca. Dzięki temu nachyleniu na Ziemi występują pory roku. Gdy północna półkula Ziemi jest ustawiona w ciągu dnia na wprost Słońca, mamy lato, gdy południowa - mamy zimę. Gdy promienie słoneczne padają prostopadle na równik, następuje równonoc wiosenna lub jesienna.
Nachylenie osi Ziemi nie jest jednak stałe w czasie: w okresie tysięcy lat zmienia się od minimalnej wartości 22,0 stopni do maksymalnej 24,6 stopni. Zjawisko to, zwane precesją, jest odpowiedzialne za niewielką składową długofalowego ruchu gwiazd wokół nas. W starożytności rolę Gwiazdy Północnej, Polaris, odgrywała inna gwiazda. Trzy tysiąclecia temu nad biegunem północnym znajdowała się Beta Ursae Minoris. Na skutek precesji osi Ziemi starożytna Gwiazda Polarna stopniowo oddaliła się od bieguna. W dzisiejszych czasach jej miejsce zajmuje inny element gwiazdozbioru Małej Niedźwiedzicy: Alpha Ursae Minoris, którą obecnie nazywamy Polaris.
Według Laskara Księżyc zapewnia Ziemi względną stabilność jej osi wirowania. Gdyby nie okrążał nas Księżyc, uwięziony na tak bliskiej orbicie i skierowany zawsze jedną stroną do nas, oś rotacji Ziemi wykonywałaby dziki taniec, wahając się w znacznie większym stopniu niż w rzeczywistości. Laskar twierdzi, że bez Księżyca nachylenie ziemskiej osi wirowania wahałoby się od 0 do 85 stopni względem osi obrotu wokół Słońca. Spowodowałoby to zróżnicowane zmiany pór roku: niekiedy nie byłoby żadnych zmian (gdy kąt wynosiłby zero), a w innych okresach lato i zima różniłyby się tak bardzo pod względem temperatury, że zima powodowałaby powszechne zamarzanie, a lato spaliłoby ziemię na popiół. Trudno ocenić, w jakim stopniu scenariusz ten okazałby się prawdziwy i czy teoria ta podpada pod zasadę antropiczną: skoro Księżyc jest tam, gdzie jest, to musimy go mieć, w przeciwnym razie życie nie mogłoby istnieć.
Problemy związane z oczywistą potrzebą istnienia Jowisza i innych dużych planet w celu ochrony przed intruzami z kosmosu, których uderzenia w naszą planetę mogłyby zniszczyć życie, oraz Księżyca - w celu utrzymania stabilnego klimatu - wydają się sugerować, że prawdopodobieństwo istnienia w przestrzeni kosmicznej właściwych dla życia warunków jest małe. Jaka bowiem jest szansa znalezienia innego układu słonecznego, który składałby się z właściwego rodzaju gwiazdy, właściwego rodzaju planety - małego, kamiennego świata z wszystkimi niezbędnymi dla życia elementami, krążącego wokół gwiazdy w takiej odległości, aby utrzymać wodę w stanie ciekłym - mającej podobny do naszego księżyc, a na dodatek jeszcze duże, zewnętrzne planety, by chroniły przed kosmicznymi odpadkami?
Jednak w 1997 roku D. Williams i J. Kastings z Pennsylvania State University przeprowadzili obszerną komputerową symulację warunków życia na pozasłonecznych planetach bez księżyca. Ich wyniki, opublikowane we wrześniowym numerze czasopisma „Ica-rus” z 1997 roku, wskazują, że wiele takich pozbawionych księżyców planet może jednak utrzymać sprzyjające życiu warunki. Być może to, co Ziemia zawdzięcza Księżycowi - względną stabilność nachylenia osi wirowania planety - nie jest absolutnie niezbędne, a badania Laskara zostały zinterpretowane zbyt dosłownie i wyłącznie w ramach zasady antropicznej. Miło jest mieć księżyc, lecz być może życie potrafi utrzymać się na planecie bez księżyca.
Jeśli chodzi o duże planety, których przyciąganie grawitacyjne chroni przed zderzeniami z kometami i asteroidami, to odkrycia Michela Mayora i Didiera Queloza oraz innych łowców planet dały nam już dowód, że gigantyczne gazowe planety, takie jak Jowisz, rzeczywiście istnieją we wszechświecie. W istocie astronomowie znajdowali dotąd wyłącznie planety o rozmiarach Jowisza. A skoro Jowiszy jest we wszechświecie tak dużo, małe, kamienne, podobne do Ziemi planety - gdy już je znajdziemy - powinny być dobrze chronione przed kosmicznymi śmieciami.
Niebezpieczeństwa czyhające na życie zarówno na Ziemi, jak i na jakiejkolwiek pozasłonecznej planecie są znaczące, lecz trudno ocenić ich rzeczywisty wpływ na rozwój i ciągłość życia. Zagrożenia przychodzą zarówno z zewnątrz - w postaci asteroidów i komet - jak i od wewnątrz - na skutek naturalnej aktywności geologicznej planety, która powoduje wybuchy wulkanów, niekiedy dostatecznie silnych, aby wywołać efekt nuklearnej zimy nie mniej niszczący niż uderzenie dużego obiektu kosmicznego. Na dodatek zmiany klimatyczne wywołane niestabilnością nachylenia osi wirowania względem płaszczyzny obrotu wokół gwiazdy mogą również stać się przeszkodą na drodze do podtrzymania życia. Otwarte pozostaje pytanie, na ile powyższe kwestie wynikają z zasady antropicznej i czy odzwierciedlają one rzeczywiste zagrożenia. Nowe odkrycia astronomiczne w pewnym stopniu zdołały już osłabić nasze obawy.
Wśród katastrof przypisywanych erupcji wulkanu Santoryn niektórzy wymieniają dziesięć plag egipskich, a także cofnięcie się Morza Czerwonego, które umożliwiło przejście Mojżeszowi. Opierają się oni na założeniu, że efekt nuklearnej zimy spowodował opisane w Biblii trzydniowe ciemności, a pozostałe plagi były wtórnymi skutkami tego samego zdarzenia. Cofnięcie się morza zostało przypisane fali pływowej, która powstała w wyniku erupcji wulkanu. Sam Marinatos interesował się wyłącznie Atlantydą i nigdy nie był zwolennikiem hipotezy dotyczącej dziesięciu plag lub cofnięcia się Morza Czerwonego. Marinatos zmarł w 1974 roku w Akrotiri. Raport policyjny i mass media podały, że przyczyną jego śmierci był udar, w wyniku którego stracił równowagę, spadł z wysokiej skarpy i zabił się.
Był sobotni wieczór. Panayotis oraz jego żona i córka mieli na sobie obowiązujące na wyspie kostiumy festiwalowe: haftowane białe bluzy i eleganckie niebieskie spodnie lub spódnice. „Dziś idziemy razem” - oznajmił mi po śniadaniu Panayotis. Starałem się ubrać jak najlepiej, ale podróżowanie z małą walizką nie dawało zbyt wielu możliwości. O siódmej spotkałem wszystkich troje w hallu. Wsiedliśmy do czerwonego minivana - oni z przodu, a ja z tyłu. Panayotis wybrał wyboistą, pełną kurzu drogę łączącą miasto Naxos z górską wioską Filoti. Mijaliśmy pola uprawne oraz nagie wzgórza, na których tu i ówdzie pasły się owce. Wszyscy troje w doskonałych humorach śpiewali greckie pieśni.
Po pół godzinie dotarliśmy na dobrze oświetlony plac w centrum wioski. Gdy skręciliśmy, brodaty, trzydziestoletni mężczyzna, stojący dotychczas na poboczu obok swojego auta, wbiegł na ulicę, śmiejąc się i machając rękami. Panayotis zatrzymał się i obaj zaczęli z ożywieniem rozmawiać po grecku. Zaparkowaliśmy i dołączyliśmy do spotkanego mężczyzny, jego żony i córki. Wszyscy całowali się na powitanie, a mnie podawali rękę. „Synadelphos sas - powiedział Panayotis, gdy przedstawiał mnie swojemu znajomemu. - Twój kolega”. Andreas był profesorem archeologii, więc w pewnym sensie byliśmy kolegami, gdyż Panayotis i jego rodzina wiedzieli, że jestem profesorem.
Andreas nie mówił po angielsku, lecz jego dwunastoletnia córka, Eleni, okazała się dobrym tłumaczem. W doskonałych humorach weszliśmy do restauracji. Najpierw podano mezedes - przystawkę, za którą przepadają turyści w Grecji: sałatka ogórkowo-jogurtowa, sałatka kawiorowa, siekana ośmiornica. Później przyniesiono pizzę oraz butelki retsiny i czerwonego wina. Przez cały czas trwała ożywiona konwersacja. Obie rodziny były najwidoczniej bardzo zaprzyjaźnione, a ja czułem się zaszczycony udziałem w tak intymnym przyjęciu.
„Byłem na Santorynie - powiedziałem, gdy Andreas w końcu zwrócił się do mnie z pytaniem. - Widziałem grób Marinatosa. Wcześniej nie wiedziałem, że został pochowany w tym samym miejscu, gdzie spadł, na Akrotiri”. Andreas uśmiechnął się. „O tak, Marinatos. Był wspaniałym archeologiem. Jednak on nie spadł, lecz został zamordowany”. Spojrzałem na niego zaskoczony. Zamordowany?! Eleni tłumaczyła słowo po słowie, gdy Andreas wyjaśniał. „Nie wiedziałeś? - zapytał. - Ludziom nie podobały się te wszystkie jego teorie. Wiesz, o cofaniu się morza i o plagach egipskich. Robotnicy, których Marinatos zatrudniał przy pracach wykopaliskowych, byli bardzo religijni, a przy tym prymitywni i przesądni. Dla nich wszystko to było dziełem Boga, anie wulkanu. Musieli go zabić, aby powstrzymać herezje”.
Rozdział 7
EWOLUCJA INTELIGENCJI
W jaki sposób życie ewoluuje od momentu, gdy powstanie cząsteczka DNA, w tym tętniącym od przemocy wszechświecie, pełnym niebezpieczeństw zarówno z zewnątrz, jak i ze strony samej planety? Jak zachodzi progresja od DNA i najprostszych form życia, takich jak wirusy i jednokomórkowe organizmy, do ryb, płazów, gadów, a potem do ssaków, z których najbardziej rozwinięte formy stanowią naczelne i ludzie? W jaki sposób pojawiła się ewolucja i czy możemy spodziewać się, że nastąpi ona gdzie indziej we wszechświecie?
Sześćset milionów lat temu, na początku kambru, gdy zakończyła się era prekambryjska, na terenie obecnych Chin zdarzyła się gigantyczna erupcja wulkaniczna. Rezultaty tej erupcji, zbadane przez naukowców w 1998 roku, spowodowały rewolucję w naszym rozumieniu rozwoju życia na Ziemi. Dwa zespoły paleontologów znalazły różne, zachowane w fosforytach, ślady dawnych zwierząt. Zwierzęta te były bardziej złożone niż gąbki i meduzy, o których wiemy, że rozwinęły się właśnie w tym okresie. Były to w istocie pierwsze znane pozostałości zwierząt dwustronnych, czyli mających dwie symetryczne strony, jak twarz człowieka z dwojgiem oczu, dwojgiem uszu oraz z ustami i nosem, które można rozciąć na symetryczne połowy. Odkrycia te wykazały, że wczesne formy życia na Ziemi były liczne i zróżnicowane, zaprzeczając tym samym konwencjonalnej chronologii, zgodnie z którą „eksplozja kambryjska” - biologiczny wielki wybuch, który stworzył taką różnorodność form życia na Ziemi - zaszła około 40 milionów lat później.
Te rewolucyjne odkrycia zostały zbadane metodami datowania radioaktywnego; stwierdzono, że pochodzą sprzed około 600 milionów lat. Obecnie naukowcy oceniają, że wielokomórkowe organizmy mogły pojawić się na Ziemi nawet pół miliarda lat przed eksplozją kambryjska. Datowanie metodą radioaktywnego węgla nie nadaje się do tak odległych w czasie wydarzeń, więc zastosowano pokrewną metodę datowania, opartą na rozpadzie uranu i jego zamianie w ołów. Znając okres połowicznego rozpadu uranu i mierząc proporcję ołowiu w złożach uranu znajdujących się w skałach na obszarze pokrytym lawą z erupcji wulkanu, naukowcy mogli stwierdzić, że znalezione przez nich pozostałości dwustronnych organizmów liczą około 600 milionów lat.
W książce The Lives of a Celi [Życia komórki], znany biolog Lewis Thomas (zmarły w 1993 roku) stwierdził, że jednorodność wszelkich form życia na Ziemi, przejawiająca się na poziomie mikrobiologicznym, prowadzi do nieuniknionej konkluzji, że wszystkie ziemskie formy życia pochodzą od jednej żywej komórki. Od tej pojedynczej komórki otrzymaliśmy nasz wygląd i cechy, w miarę jak żywe istoty ewoluowały przez miliardy lat kształtowane przez dobór naturalny. Wszystkie istoty żywe, począwszy od drzew i traw, a na delfinach, wilkach i ludziach skończywszy, mają wspólne geny, enzymy i strukturę komórek. Jak przebiegała ewolucja, która od jednokomórkowego organizmu doprowadziła do istot ludzkich, które rozumują i tworzą?
Już jednokomórkowe organizmy stanowią wyższe formy życia niż wirusy - zwykłe nici DNA. Potrafią poruszać się w wodzie, wywijając rzęskami, wiciami lub całym ciałem. Te najbardziej elementarne żywe istoty potrafią reagować na zmiany środowiska. Jednokomórkowy organizm - zamknięta w białkowej osłonie komórka wraz z zawierającym materiał genetyczny jądrem oraz z mitochondriami - potrafi zareagować na dotykanie igłą, próbując uniknąć wniknięcia igły do jego wnętrza. Umie także zareagować na chemiczne zmiany środowiska, poszukując lepszych warunków, gdy aktualne zaczynają się pogarszać. Jednokomórkowce mogą nawet reagować na światło. To niewiarygodne, że tak proste formy życia mają właściwości znacznie bardziej złożonych istot: zdolność do poszukiwania pożywienia, do ucieczki przed niebezpieczeństwem oraz dążenie do reprodukcji.
Gdy na drabinie życia przechodzimy od prostych jednokomórkowych organizmów do wielokomórkowych, napotykamy większe zróżnicowanie materii ożywionej. Jednym z najbardziej odludnych miejsc na Ziemi jest Dolina Taylora na Antarktydzie. Jej odkrywca, angielski podróżnik Robert F. Scott, nazwał ją „martwą doliną”. Późniejsze ekspedycje ujawniły jednak obecność prostych form życia pod lodem, w skałach oraz w glebie. Badacze byli zaskoczeni, gdy znaleźli miliony mikroskopijnych roślin, jednokomórkowych zwierząt oraz nicieni. Niszę ekologiczną w Dolinie Taylora uznano za najprostszy ekosystem na naszej planecie. Nicienie są jedynymi żyjącymi w niej wielokomórkowymi zwierzętami. Ekosystem funkcjonuje w ten sposób, że bakterie w glebie żywią się algami z jeziora, a nicienie zjadają bakterie. Badacze uważają ten system za doskonały model zamkniętego układu ekologicznego i studiują łańcuch pokarmowy, śledząc przemieszczanie się węgla z wody i powietrza do alg, z alg do bakterii i w końcu od bakterii do nicieni. System ten pokazuje, jak rozwinęły się w glebie pierwsze organizmy wielokomórkowe, zdolne do odżywiania się jednokomórkowcami. Trzy i pół miliarda lat temu był to jedyny system ekologiczny na Ziemi: węgiel wchłaniany przez algi, a następnie - wraz z algami - przez bakterie i nicienie.
Jednak w pewnym momencie rozwoju życia na planecie pojawiły się organizmy o wyższym stopniu zorganizowania. W miarę rozwijania się coraz bardziej zaawansowanych zwierząt ich struktury komórkowe stawały się również coraz bardziej wyspecjalizowane. Ryba lub płaz ma układ komórek przeznaczony do poruszania się, zmysły do uzyskiwania informacji ze środowiska, układ trawienny itd. U robaka, stanowiącego przykład prostej formy życia, istnieją mięśnie okrężne i podłużne, które umożliwiają mu skracanie i wydłużanie swojego ciała oraz zwijanie go. Układ mięśni umożliwia mu nawet pływanie.
Różnorodność życia na Ziemi jest niezwykła, lecz aby w pełni docenić tę olbrzymią rozmaitość istot, musimy uwzględnić także zwierzęta i rośliny, które już wymarły. Wśród licznych rodzin istot żywych dostrzegamy rozwój różnych narządów i funkcji ciała. Wszystkie żyjące i wymarłe rodziny istot żywych łączy jedna interesująca cecha: każda z nich, na swój sposób, rozwinęła jakąś formę inteligencji. Istotą inteligencji jest uczenie się i przewidywanie zmian w środowisku. Inteligentne zwierzę może uczyć się środowiska, dzięki czemu potrafi przewidywać skutki i - ostatecznie - zmienić swoje położenie względem środowiska, aby dostosować się do niego w najlepszy możliwy sposób. Godną uwagi cechę inteligencji na Ziemi stanowi fakt, że są nią obdarzone wszystkie gatunki. Ofiary - ryby, ptaki, ssaki - uczą się, jak uciec drapieżnikowi. Drapieżniki - rekin, tygrys, mięsożerny dinozaur - uczą się, jak najskuteczniej ścigać swoje ofiary. W tym sensie nawet jednokomórkowy organizm, który wije się, aby uniknąć ostrza szpilki, przejawia pewną formę inteligencji. Nie oznacza to jeszcze, że jest zdolny do myślenia lub do tworzenia, lecz na swój prymitywny sposób reaguje na środowisko.
W miarę jak z istniejących przez trzy miliardy lat jednokomórkowych istot rozwijały się wielokomórkowce, ze swoimi specjalizowanymi układami komórek, pojawiły się również komórki nerwowe zwane neuronami. Proces ich ewolucji doprowadził do powstania inteligencji, jako części układu zmysłów istot żywych. Komórki nerwowe są rozgałęzione jak drzewa. Podobnie jak w innych komórkach, w neuronach znajduje się jądro zawierające materiał genetyczny. Ze środka komórki rozciąga się pewna liczba rozgałęzień zwanych dendrytami. Dendryty jednej komórki łączą się z dendrytami innych komórek - ich połączenia służą do przekazywania informacji. Połączenia między zakończeniami nerwów zwane są synapsami. Komórka nerwowa może mieć długie odgałęzienie, zwane aksonem, które służy do wysyłania sygnałów. Informacja otrzymywana z sąsiadujących komórek jest integrowana w danej komórce nerwowej, a następnie wzdłuż aksonu zostaje wysłany sygnał. Znajdujące się wewnątrz i na zewnątrz aksonu jony potasu i sodu produkują prądy elektryczne, za pomocą których przesyłane są informacje. W ramach typowego procesu funkcjonowania układu komórek nerwowych ich komunikacja za pośrednictwem dendrytów prowadzi do sformułowania decyzji, która zostaje przetłumaczona na instrukcję wysłaną za pośrednictwem aksonu do mięśnia, w wyniku czego następuje określona akcja mięśnia. Proces taki zachodzi zarówno u prymitywnych, jak i u najbardziej zaawansowanych form życia.
Pierwsze komórki nerwowe u istot żywych pojawiły się w postaci narządów zmysłów: oczu, uszu, nosa. Znajdujący się w głowie centralny układ nerwowy odbiera i przetwarza informacje pochodzące ze zmysłów. W odpowiedzi na reakcje zmysłów komórki nerwowe wydają mięśniom polecenia i następuje ruch. Mózg i inteligencja to wynik ewolucji nerwów.
Mózg, centralny narząd układu zmysłów organizmu, pojawił się jako zbiór komórek nerwowych, wraz z ich dendrytami i aksonami. Sterowały one ruchami zwierzęcia, zmysłami i większością innych funkcji organizmu. W miarę jak we wszystkich gałęziach królestwa zwierząt ewoluowały coraz bardziej zaawansowane organizmy, mózg stawał się coraz bardziej złożony i przejawiał coraz wyższy stopień inteligencji. Mysz przejawia pewną inteligencję, gdy uczy się znajdować drogę w labiryncie. Lis uczy się polowania od swoich rodziców. Ryba uczy się jak znajdować pożywienie, a bóbr - jak zbudować tamę Ta ostatnia umiejętność jest uważana za przejaw wyższej inteligencji, gdyż wymaga nie tylko umiejętności dostosowania do środowiska, lecz także konstruowania.
Karol Darwin napisał w O pochodzeniu człowieka: „Nikt, jak sądzę, nie wątpi że stosunek wielkości mózgu do wielkości ciała - znacznie większy u człowieka niż u goryla lub orangutana - jest ściśle związany z możliwościami umysłu”. Dziewiętnastowieczny twórca teorii ewolucji doboru naturalnego dostrzegł związek między względnymi rozmiarami mózgu a inteligencją żywej istoty. W odniesieniu do względnych rozmiarów mózgów zwierząt używamy dzisiaj określenia: „współczynnik cefalizacji”. Jest on zdefiniowany jako stosunek rozmiarów mózgu do całkowitych rozmiarów ciała podniesionych do potęgi dwóch trzecich. Naukowcy przekonali się, że tak zdefiniowana miara lepiej wyjaśnia możliwości umysłu niż prosty stosunek rozmiarów mózgu do rozmiarów ciała.
Paleontolodzy potrafią ocenić rozmiary mózgów oraz całkowite rozmiary ciała dawno wymarłych zwierząt na podstawie rozmiarów i kształtu znalezionych w czasie wykopalisk kości. Dzięki temu dysponujemy danymi nie tylko na temat współczesnych zwierząt, lecz mamy także pewne pojęcie o cefalizacji dinozaurów. W tym kontekście pojawił się zadziwiający fakt: dinozaury nie miały małych mózgów, jak się powszechnie uważa. Naukowcy stwierdzili, że statystyczny związek między rozmiarami mózgów i całych ciał jest stały, zarówno u obecne żyjących, jak i u wymarłych przedstawicieli gromady gadów. Spośród dziesięciu zbadanych dinozaurów, wszystkie miały taki sam stopień cefalizacji jak współczesne jaszczurki. Wszystkie gromady - ryby, płazy, gady i ssaki - mają charakterystyczny stopień cefalizacji. Najwyższy stopień występuje u ssaków. W każdej gromadzie istnieją jednak pewne wewnętrzne różnice.
Stopień cefalizacji naczelnych jest najwyższy w gromadzie ssaków, która z kolei stoi pod tym względem najwyżej w całym królestwie zwierząt Istnieje także związek stopnia cefalizacji z czasem geologicznym Wszystkie zwierzęta żyjące w okresie paleocenu i eocenu - 40 do 60 bilionów lat temu - miały stosunkowo małe mózgi. W następnym okresie, około 25 do 55 milionów lat temu, względne rozmiary mózgów wszystkich zwierząt uległy mniej więcej podwojeniu. W okresie od 5 do 20 milionów lat temu zaszło kolejne podwojenie rozmiarów mózgu, a następnie - do naszych czasów - jeszcze jedno. Widzimy, że ewolucja systematycznie zwiększała rozmiary mózgów, a wraz z nimi rosła inteligencja ich „właścicieli”. W każdej gromadzie zwierząt naukowcy postulowali „spodziewane” względne rozmiary mózgu, będące odzwierciedleniem poziomu cefalizacji całej gromady. Dla określonego zwierzęcia można zmierzyć odchylenie od spodziewanego poziomu. Okazuje się, że w rzędzie naczelnych niektóre gatunki małp mają wyższy od oczekiwanego poziom cefalizacji, a najwyższe odchylenia od średniej wykazują ludzie, delfiny i małpy człekokształtne oraz neandertalczyk i inne formy hominidów.
Badacze zajmujący się poszukiwaniami inteligencji pozaziemskiej (SETI) usiłują stwierdzić, czy w kosmosie istnieją inteligentne formy życia. Nie zadowoli ich znalezienie planety zamieszkanej przez krowy. Niektórzy biolodzy uważają jednak, że inteligencja - rozumiana jako zdolność do myślenia, planowania, rozwiązania krzyżówki i przekonującego argumentowania na posiedzeniu rady nadzorczej - stanowi ewolucyjny przypadek. Dowodzą oni, że spośród wszystkich kategorii taksonomicznych w królestwie zwierząt tylko jedna - człowiek - obdarzona jest inteligencją, więc prawdopodobieństwo jej pojawienia się gdzie indziej jest niewielkie.
Wszystko, co na podstawie badań” zwierząt i ich mózgów wiemy o ewolucji i doborze naturalnym, świadczy jednak, że tak nie jest. Prawdą jest, że małpa nie napisze Hamleta, a pies nie umie grać w szachy. Jednak na podstawie danych wykopaliskowych i badań zwierząt widzimy, że w ciągu milionów lat ewolucji istniał wyraźny i stały postęp w kierunku większych rozmiarów mózgu w stosunku do rozmiarów ciała oraz wzrost inteligencji, w miarę jak życie ewoluowało na coraz wyższe poziomy. Niedawne badania reakcji zwierząt na zmiany w środowisku potwierdzają teorię, że życie ewoluuje w kierunku inteligencji. Jaszczurki zamieszkujące zamkniętą niszę ekologiczną na odizolowanej wyspie zostały w ciągu ostatnich kilkudziesięciu lat wystawione na dodatkowe niebezpieczeństwo, gdy na wyspie pojawiły się nowe gatunki drapieżników. Ku zaskoczeniu badaczy, w ciągu kilku pokoleń jaszczurki nauczyły się wspinać na drzewa, aby uciec przed nowymi drapieżnikami. To szybkie dostosowanie się do środowiska w tak krótkim czasie jest silnym argumentem na rzecz tezy, że inteligencja potrafi szybko ewoluować - znacznie szybciej, niż spodziewali się tego naukowcy. W książce The Number Sense [Zmysł liczenia] badacz mechanizmów percepcji, S. Dehaene, opisuje eksperymenty na szczurach, w których uczono je naciskać dwie dźwignie różną liczbę razy (na przykład cztery razy dźwignię A i dwa razy dźwignię B) w celu uzyskania pożywienia. Następnie zwiększano stopień złożoności eksperymentów, łącznie z liczeniem sygnałów świetlnych i dźwiękowych. Doświadczenia te wykazały, że szczury potrafią liczyć. Autor książki uważa, że zdolność człowieka do rozumienia matematyki stanowi ewolucyjne rozwinięcie prostszego zmysłu liczenia, obecnego nawet u szczurów. Pewne formy inteligencji, w tym podstawowe zdolności matematyczne, są najwidoczniej obecne także u innych istot żywych.
Człowiek jest wprawdzie jedynym zwierzęciem, które definiujemy jako inteligentne - zdolne do rozumowania, zdolne do rozwiązywania złożonych problemów, zdolne do komunikowania się na wysokim poziomie - lecz godne uwagi odkrycia w dziedzinie ewolucji inteligencji dowodzą, że niższe formy inteligencji rozwinęły się równolegle u wszystkich gromad zwierząt. Ptak, królik czy owad może adaptować się do środowiska i uczyć się skuteczniej szukać pożywienia i ochrony przed drapieżnikami.
Odkrycia te stanowią silny argument na rzecz przekonania, że ewolucja inteligencji jest nieodłącznie związana z życiem i że z czasem nastąpi ona w każdym sprzyjającym życiu środowisku.
W ostatnich latach uwagę wielu naukowców przyciągnęła teoria systemów. We wczesnych latach siedemdziesiątych Stephen Smale, profesor matematyki na University of California w Berkeley, jeden z najwybitniejszych ekspertów od równań różniczkowych, rozpoczął badania związków między populacjami drapieżników i ich ofiar. W owym czasie Smale był już sławnym matematykiem oraz laureatem Medalu Fieldsa - matematycznym odpowiednikiem Nagrody Nobla - który zdobył za rozwiązanie hipotezy Poincarego, jednego z najbardziej znanych problemów w matematyce. Smalę próbował znaleźć matematyczne równanie, które opisywałoby naturę związku między obiema populacjami. Wiedziano wówczas, że istnieje pewnego rodzaju cykliczna zmienność w czasie liczby łosi i wilków, a także innych kombinacji drapieżników i ofiar. Nikt nie umiał jednak matematycznie opisać tej zależności. W pewnych latach łosie dominowały, a liczba wilków malała, natomiast w innych okresach sytuacja w niewytłumaczalny sposób ulegała odwróceniu - liczba wilków rosła, a liczba łosi malała. Zmiany proporcji następowały ni stąd, ni zowąd. Smalę podejrzewał, że klucza do tej zagadki należy szukać w wyższej matematyce.
Równanie różniczkowe to wzór matematyczny uwzględniający zmiany parametrów: zazwyczaj występuje w nim funkcja zawierająca pewną zmienną (w tym przypadku aktualny poziom populacji zwierząt) oraz tempo zmian tej zmiennej (tempo rocznych zmian populacji). Smale sformułował określone równanie różniczkowe, a jego parametry oszacował na podstawie obserwowanych zmian populacji wilków i łosi. Studiował także przypadek kanadyjskiego rysia, na którego polowano przez ponad sto lat - zanim Kanada wprowadziła prawa o ochronie gatunków - dzięki czemu istniały obszerne dane na temat jego liczebności, a także liczebności jego ofiar. Smale przekonał się, że jego równanie przekroczyło oczekiwania w opisie matematycznej zależności między liczebnością drapieżników i ofiar. Okazało się, że liczby nie są bynajmniej przypadkowe: istnieje dokładny matematyczny wzór, który przewiduje liczebność obu populacji oraz ich zmiany w kolejnych latach. Populacje drapieżników i ofiar wykonują tajemniczy taniec wokół siebie: gdy jedna rośnie, druga maleje, następnie sytuacja się odwraca, nieustannie zachowując doskonały rytm życia. W pewnym sensie obie populacje potrzebują się nawzajem. Drapieżniki żywią się ofiarami, a ofiary zawdzięczają drapieżnikom utrzymanie zdrowia i prężności swego gatunku, gdyż drapieżniki przede wszystkim usuwają osobniki stare i chore. Istnieje matematyczna harmonia między dwiema populacjami, a właściwie między populacjami wszystkich zamieszkujących dany obszar gatunków. Odkrycie matematycznego wzoru opisującego naturalne zjawisko zależności między populacjami gatunków jest uważane za znaczący postęp w naszym rozumieniu biologii.
Badania związków między populacjami drapieżników i ofiar zwróciły uwagę naukowców na fakt, że zrozumienie życia wymaga analizy całego systemu, a nie pojedynczych osobników. Zycie nie sprowadza się do kwestii istnienia pojedynczej istoty. Istoty żywe są elementem szerszego obrazu. Nie można zrozumieć życia pojedynczego rysia w wyższym stopniu niż życia pojedynczej komórki ciała rozpatrywanej jako niezależna jednostka: W ostatecznym rachunku wszyscy przynależymy do grupy istot żywych, obejmującej całe życie na Ziemi. Stwierdzenie to stało się znane jako teoria Gai.
Hipoteza Gai została wysunięta w latach sześćdziesiątych przez Jamesa Lovelocka, specjalistę w dziedzinie chemii atmosfery z NASA. Lovelock analizował długoterminowe zmiany temperatury Ziemi i zauważył, że promieniowanie Słońca wzrosło wprawdzie o 25% od momentu pojawienia się życia na Ziemi, lecz powierzchniowa temperatura planety pozostała niezmienna. Lovelock doszedł do wniosku, że Ziemia powinna być znacznie cieplejsza, lecz jakiś nieznany czynnik spowodował, że jej temperatura nie uległa zmianie przez tak długi czas. Gdy przestudiowano stężenia tlenu, dwutlenku węgla i innych gazów atmosferycznych, stało się jasne, że za stałość temperatury planety przynajmniej w części były odpowiedzialne procesy życia. Jedną z cech życia jest jego aktywność energetyczna - istoty żywe pobierają energię i materię oraz produkują odpady. Żywa, bogata we florę i faunę planeta powinna mieć znaczną ilość reaktywnych gazów. Na Ziemi gazem tym jest tlen. Na tej samej zasadzie martwa planeta powinna zawierać gazy, które powstały w wyniku dawno zakończonych reakcji chemicznych - na przykład stabilny dwutlenek węgla. Ciągła produkcja tlenu przez istoty żywe utrzymuje niski poziom dwutlenku węgla na Ziemi, zapobiegając przegrzaniu planety. Tak więc planeta podtrzymuje życie, a życie zapewnia planecie stabilne warunki, niezbędne dla istnienia życia.
Niekiedy całe systemy życia mają własną zbiorową inteligencję. Najlepszym przykładem są mrówki. Jedna mrówka ma niewiele neuronów i raczej nie należy się po niej spodziewać umiejętności tworzenia, planowania, analizowania sytuacji i podejmowania złożonych decyzji. Jednak kolonia mrówek, jako całość, potrafi uprawiać grzyby, hodować mszyce jako żywy inwentarz oraz rozpylać środki chemiczne w walce z intruzami. Mrówki wymieniają między sobą informacje i w tym sensie każdą z nich można uważać za pojedynczą komórkę nerwową, komunikującą się z innymi komórkami za pośrednictwem dendrytów w mózgu zwierzęcia. Kolonia mrówek ma własną zbiorową inteligencję, którą wykorzystuje w procesach życiowych dotyczących całej kolonii.
Pszczoły, ze względu na metodę wymiany informacji, są kolejnym przykładem istnienia zbiorowej inteligencji złożonego systemu istot żywych. Pszczoła wykonuje skomplikowany taniec, za pomocą którego wysyła innym pszczołom wiadomość: „Koniczyna znajduje się w kierunku północno-wschodnim w odległości ośmiuset metrów”. Przy budowie plastra współpracuje cały rój, każda pszczoła wykonuje dokładnie określone zadanie, a w wyniku ich wspólnej pracy powstaje złożony z symetrycznych wielokątów kompletny plaster miodu. Także i w tym przypadku, w sensie inteligencji, każda pszczoła działa jak pojedyncza komórka nerwowa w mózgu zwierzęcia.
Neurolodzy, a także i inni naukowcy zajmujący się działaniem mózgu, przez wiele lat starali się dociec, czym jest inteligencja. Jedna z ostatnio wysuniętych teorii sugeruje, że istnieje wiele form inteligencji. Niektórzy ludzie sądzą, że komputery obdarzone są inteligencją. Garri Kasparow, najlepszy szachista świata, został w 1997 roku pokonany przez komputer. Ale czy oznacza to, że komputer rzeczywiście ma inteligencję? Komputer jest maszyną zaprogramowaną do wykonywania rozmaitych matematycznych operacji. Podstawowe operacje to dodawanie oraz porównywanie dwóch liczb (binarnych, czyli złożonych z cyfr 0 i 1). Jednak szybkość wykonywania tych operacji, w połączeniu z faktem, że komputery można łączyć, aby wykonywały swe operacje równolegle, daje w wyniku olbrzymią moc obliczeniową. Czy jednak istnieje coś, co odróżnia inteligencję zwierząt wyższych od surowej mocy maszyn obliczeniowych?
Komputer nie dba o to, czy działa, czy też jest wyłączony. Żywa istota uczyni wszystko, aby uniknąć takiego losu. W naturze inteligencji ludzi i zwierząt leży zdolność do podejmowania działań, których cel stanowi podtrzymanie życia własnego lub - w przypadku mrówek lub pszczół - całej kolonii. Ludzie i zwierzęta obdarzeni są emocjami i uczuciami. U ludzi sztuka i muzyka stanowią przejaw inteligencji. Komputery mogą wprawdzie zostać zaprogramowane do tworzenia pewnych form sztuki lub muzyki, lecz brak im naturalnego dążenia do twórczej aktywności. Naukowcy i eksperci od komputerów i sztucznej inteligencji twierdzą, że w niedalekiej przyszłości powstaną komputery, które nie będą się różnić od ludzkiego mózgu. Będą zdolne do tworzenia, będą czuć i chcieć. Na razie mogę jednak spokojnie wyłączyć mój komputer, nie obawiając się oporu ani zemsty z jego strony. Komputery nauczyły nas wiele o procesie myślenia, pomogły nam w poszukiwaniach rozwiązań złożonych problemów matematycznych, opanowały grę w szachy, lecz nie są kluczem do zrozumienia inteligencji w takiej postaci, w jakiej obserwujemy ją w naturze.
Dowodem na to, że inteligencja to nie przypadek, jest fakt, iż wyewoluowała ona niezależnie w różnych gałęziach królestwa zwierząt. Jest ona naturalnym rezultatem ewolucji materii ożywionej Jako narzędzie przetrwania pojedynczych istot oraz całego społeczeństwa. Niższe formy życia produkują liczne potomstwo, z którego przeżywają tylko niektóre osobniki. Zwierzęta, którym łatwiej przetrwać, wymagają mniej licznego potomstwa, ponieważ ich inteligencja ułatwia im uniknięcie niebezpieczeństw. W końcu to ewolucja doprowadziła do sytuacji, że rodzi się naga, bezbronna małpa, która musi być obdarzona dostateczną inteligencją, aby zbudować gniazdo, znaleźć lub upolować pożywienie za pomocą stworzonych przez jej społeczeństwo narzędzi oraz komunikować się z innymi członkami grupy, używając skomplikowanego języka. Ewolucja mowy stanowi jeden z najbardziej złożonych przejawów inteligencji, który wyróżnia nas pośród innych istot. Niedawno badacze z University of California w Los Angeles odkryli, że poczucie humoru oraz zdolność do śmiechu są zlokalizowane w pewnym określonym miejscu w mózgu, w pobliżu ośrodka mowy i komunikacji. Wysunięto teorię, zgodnie z którą te dwa obszary mózgu ewoluowały łącznie wtedy, gdy z naczelnych powstały hominidy oraz Homo sapiens.
Teoria ewolucji ptaków stanowi kolejny dowód, że inteligencja ewoluowała niezależnie w różnych obszarach materii ożywionej i że rozwój inteligencji jest nieodzownym warunkiem coraz lepszej adaptacji do środowiska. Jeszcze do niedawna pochodzenie ptaków było jedną z największych zagadek w biologii. W ciągu ostatnich dwudziestu lat dokonano odkryć, które pomogły naukowcom rozwiązać tę zagadkę.
Ptaki pod wieloma względami różnią się od wszystkich innych istot żywych. Obdarzone są piórami, bezzębnymi dziobami, pneumatycznymi kośćmi, przystosowanymi do siadania na grzędzie stopami, kośćmi kruczymi, krótkimi kośćmi ogonowymi i całą gamą cech szkieletu, których nie mają żadne inne zwierzęta. Wkrótce po tym, jak w 1859 roku Karol Darwin opublikował O powstawaniu gatunków, w złożach wapieni w Bawarii odkryto pojedyncze ptasie pióro. Obecnie wiemy, że należało ono do przypominającej ptaka istoty żyjącej 150 milionów lat temu, tuż przed tym, jak okres jurajski ustąpił kredowemu.
Następnie w 1861 roku na tym samym obszarze w Bawarii odkryto szkielet zwierzęcia, które miało ptasie skrzydła i pióra, lecz miało także długi, gadzi ogon oraz zęby nie spotykane u współczesnych, znanych nam ptaków. Ta mała, podobna do ptaka istota stała się znana jako Archaeopteryx, Dziewięć lat później, na posiedzeniu Geological Society of London [Londyńskie Towarzystwo Geologiczne], po raz pierwszy w naukowej dyskusji pojawiła się hipoteza łącząca ptaki z dinozaurami. Liczący 150 milionów lat Archaeopteryx, najstarszy znany ptak, miałby być ogniwem między dinozaurami i ptakami. W ciągu następnych 50 lat opublikowano liczne traktaty zawierające argumenty zarówno za, jak i przeciw tej teorii. Wskazywano liczne podobieństwa anatomii ptaków i - wydedukowanej z wykopalisk - dinozaurów. Głównym argumentem przeciwników teorii był fakt, że teropody - dinozaury najbardziej anatomicznie zbliżone do ptaków - nie miały dwóch kości obojczykowych, które u ptaków są złączone i tworzą kość kruczą. Gerhard Heilmann, duński lekarz i paleontolog, dowodził w 1916 roku, iż brak kości obojczykowych u dinozaurów jest nieodpartym dowodem, iż ptaki nie mogą od nich pochodzić, mimo godnych uwagi podobieństw między kośćmi teropodów i ptaków.
W 1936 roku Charles Camp odkrył pozostałości małego teropoda z wczesnego okresu jurajskiego. Kalifornijskiego paleontologa zaskoczyły znajdujące się wśród szczątków dinozaura kości obojczykowe. Brakujące ogniwo, łącząc dinozaury i ptaki, zostało ostatecznie znalezione. W ostatnich latach odkryto wiele - między innymi w Hiszpanii, Chinach i Mongolii - pozostałości teropodów oraz wczesnych ptaków. Jedne i drugie miały kości obojczykowe. Argumenty Heilmanna zostały obalone. Obecnie dostępne dowody wykopaliskowe jednoznacznie świadczą o słuszności teorii o pochodzeniu ptaków od dinozaurów. Naukowcy znaleźli wiele wspólnych cech ptaków i dinozaurów, których nie mają żadne inne współczesne lub wymarłe grupy zwierząt.
Pierwszym znanym dinozaurem o ptasich cechach był Velocirator. Miał on długie, chwytne, zakończone ruchomymi nadgarstkami kończyny przednie. Polował, ścigając swe ofiary na tylnych nogach i zabijając je uderzeniami przednich kończyn, które pod pewnymi względami przypominały ptasie skrzydła. Archaeopteryx miał już przeznaczone do lotu skrzydła i pióra. Jego ogon był krótszy niż u Velociraptora, gdyż poruszał się on raczej jak ptak, a nie jak jaszczurka z długim ogonem. Latanie zaczęło się na drzewach. Niektóre dinozaury opanowały wspinanie się na drzewa dla ochrony przed drapieżnikami oraz w poszukiwaniu pożywienia. W miarę jak. rozwijały się u nich dłuższe kończyny przednie, krótsze ogony, a na przednich kończynach zaczęły wyrastać pióra, dinozaury te mogły szybować z drzew w dół. Machając przy tym przednimi kończynami, dokonywały pierwszych prób latania. Inna oparta na wykopaliskach hipoteza zakłada, że niektóre dinozaury nauczyły się latać jak ptaki, biegnąc po ziemi i machając opierzonymi skrzydłami. Iberomesornis, ptak, którego szczątki odkryto niedawno w Hiszpanii, umiał latać znacznie lepiej i nie musiał ograniczać się do szybowania z drzew lub do krótkich lotów z rozbiegu. Szczątki tego przodka współczesnych ptaków wykazują zmiany szkieletowe w kierunku małego, aerodynamicznego, przystosowanego do długotrwałych lotów ciała. Jeszcze późniejsze ptaki zaczęły zakładać gniazda na drzewach, wykorzystywać latanie jako główny sposób poruszania się, i w końcu straciły zęby, obecne jeszcze u wczesnych ptaków anatomicznie bardziej zbliżonych do ich wspólnych przodków - dinozaurów.
Istotnym elementem tej teorii jest fakt, że ogniwo łączące ptaki i dinozaury jest w rzeczywistości ogniwem łączącym gady i ptaki. Gady mają małe, słabo rozwinięte mózgi. Gdy ptaki zaczęły ewoluować i odłączać się od gadów, ich mózgi wykształciły się w stopniu przewyższającym poziom rozwoju mózgu dinozaurów. W ślad za rozwojem mózgów poszła inteligencja ptaków. Badania poziomu cefalizacji dowodzą, że najniższy stosunek masy mózgu do masy ciała wśród kręgowców wykazują kostnoszkieletowe ryby. Następną grupę stanowią gady. Ptaki znajdują się jeszcze wyżej na skali, a ich współczynniki cefalizacji plasują je nawet bliżej ssaków niż gadów. Na wykresie przedstawiającym poziom cefalizacji gatunków ptaki w pewnym stopniu pokrywają się ze ssakami i układają się znacznie wyżej niż gady. Na samym szczycie skali znajdują się naczelne i człowiek. Proces ewolucyjny, który od gadów przez wymarłe dinozaury doprowadził do powstania ptaków, charakteryzował się wzrostem objętości mózgu oraz wzrostem inteligencji. Ptak dodo należy do wymarłych gatunków, ponieważ brakowało mu zdolności do adaptacji w nie sprzyjającym środowisku, lecz wiele współczesnych gatunków ptaków wykazuje zadziwiająco wysoki poziom inteligencji i. F. Nottebohm z Rockefeller University przeprowadził zakrojone na dużą skalę badania neuronowych podstaw śpiewu u śpiewających gatunków ptaków. Odkrył on, że u większości przebadanych gatunków specjalizacja do śpiewu rozwija się po lewej stronie mózgu. Specjalizacja ta ma jednak odmienny charakter niż ewolucja mózgu u ssaków, u których pojawiła się całkowicie nowa, nieobecna u gadów i ptaków część mózgu: neokorteks. U ludzi i naczelnych 70% neuronów, składających się na centralny układ nerwowy, znajduje się w neokorteksie. Człowiek ma oddzielny obszar mózgu, który odróżnia go od ptaków. Nie sposób nie podziwiać faktu, że inteligencja oraz względne rozmiary mózgu wykazywały ewidentne oznaki wzrostu, gdy z gadów rozwijały się ptaki. Ta ogólna tendencja wzrostowa wydaje się cechą natury.
Pod pewnymi względami człowiek z pewnością jest wyjątkową istotą żywą. Jako jedyny gatunek na Ziemi jesteśmy obdarzeni taką inteligencją, która umożliwia nam komunikację na wszystkich poziomach oraz warunkuje zdolność do myślenia, analizowania, tworzenia. Nie możemy jednak ignorować oczywistego faktu, że inne istoty żywe również są obdarzone - w takim czy innym stopniu - inteligencją, która także ewoluowała w podobnym kierunku jak nasza. Nie zapominajmy przy tym, że upłynął ponad miliard lat, zanim na naszej planecie pojawiły się najprostsze formy życia, a przez ponad 3 miliardy lat powstały z nich wielokomórkowe organizmy, które istnieją na Ziemi dopiero od 600 milionów lat. Mniej więcej w tym czasie pojawiły się pierwsze mózgi, prymitywne układy neuronów kontrolujące ruchy i zmysły tych wczesnych istot. Pierwsze ssaki rozwinęły się dopiero po 400 milionach lat, około 200 milionów lat temu. Nasi małpokształtni przodkowie zajęli scenę zaledwie 4 miliony lat temu, a wiek Homo sapiens liczy się w tysiącach lat. Gdy weźmie się pod uwagę, jak długo trwał ten proces, widoczny staje się rozwój w kierunku wzrostu inteligencji. Jeżeli od pierwszego pojawienia się lub przybycia na planetę cząsteczki DNA upłynie dostatecznie dużo czasu, to inteligencja bez wątpienia stanie się końcowym produktem ewolucji.
Rozdział 8
CZY BÓG GRA W KOŚCI?
Gdy badamy rozwój życia na Ziemi i zastanawiamy się nad możliwością pojawienia się życia gdzie indziej we wszechświecie, powstaje interesujące pytanie: Czy materia ożywiona oraz inne złożone systemy we wszechświecie są dziełem przypadku, czy też są one zdeterminowane? Przypadkowość oznaczałaby, że do kwestii pojawienia się życia we wszechświecie należałoby podejść z punktu widzenia teorii prawdopodobieństwa. Determinizm miałby zupełnie inne implikacje. Czy DNA powstało przez przypadek, czy zostało stworzone zgodnie z jakąś matematyczną regułą?
Po wysłuchaniu wykładu z równań różniczkowych profesora Smale'a długo pozostawałem pod wrażeniem porządku i regularności, z jaką rozwija się życie na naszej planecie. Fakt, że porządek ten może zostać precyzyjnie opisany i wymodelowany przez równania matematyczne, wydał mi się zachwycający. Wygląda na to, że nic nie pozostało dziełem przypadku - świat, natura, wszechświat zostały zaprogramowane przez precyzyjne matematyczne reguły, wyrażone przez liczby i symbole, które zdeterminowały wszystko, co się zdarzyło i zdarzy ponownie. Prawa Keplera rządzą ruchami planet wokół Słońca, prawa grawitacji regulują ruch, prędkość i czas, a biologiczne równania determinują, w jaki sposób gatunki ewoluują, rozmnażają się, rozkwitają, adaptują się do środowiska i do świata, który dzielą z innymi gatunkami w wahadłowym rytmie wzrostu oraz spadku siły i liczebności. Skoro układ równań potrafi opisać złożone zależności między gatunkami, to co można powiedzieć o wszechświecie jako całości? Czy natura ma wewnętrzną strukturę - której postronny obserwator może nie dostrzec - dającą się wyrazić w języku matematyki?
Pytanie o naturę wszechświata pochodzi z czasów, gdy współczesna fizyka zaczęła się rozwijać jako teoria opisująca i wyjaśniająca zawiłości fizycznego świata. Na początku dwudziestego wieku powstały dwie ważne teorie fizyczne, które zrewolucjonizowały naukę - szczególna i ogólna teoria względności oraz mechanika kwantowa. Teoria względności była dziełem Alberta Einsteina, który w 1905 roku odkrył szczególną, a w 1917 roku ukończył prace nad ogólną teorią względności. To dzięki teoriom Einsteina rozumiemy dzisiaj naturę przestrzeni, czasu i grawitacji, wraz z jej implikacjami dotyczącymi granicznej prędkości w przyrodzie, czarnych dziur, wielkiego wybuchu oraz losu wszechświata. Teoria względności dotyczy fizyki bardzo dużych obiektów i bardzo dużych prędkości (dla których graniczną wartością jest prędkość światła). Z natury swej teoria ta jest deterministyczna: daje odpowiedzi na zadziwiająco skomplikowane pytania bez jakichkolwiek odwołań do przypadku. Jeżeli fizyk zna prędkość, masę, siłę itd., to może rozwiązać równanie i uzyskać dokładną odpowiedź. Przypadek i szansa nie odgrywa żadnej roli w teorii względności.
W latach dwudziestych została sformułowana teoria kwantowa - teoria bardzo małych obiektów: atomów, elektronów, protonów i innych elementów mikroświata. Mechanika kwantowa została odkryta przez austriackiego fizyka Erwina Schrodingera (1887-1961), i niezależnie przez Wernera Heisenberga (1901-1976), fizyka niemieckiego. Pierwszy z nich użył równań różniczkowych, drugi macierzy, lecz obaj uzyskali równoważne sformułowania teorii opisującej zachowanie cząstek, z których składa się materia. Jednym z podstawowych elementów teorii kwantowej jest równanie falowe dla cząstki. Idea tego równania opiera się na założeniu, że cząstka o rozmiarach elektronu jest nie tylko cząstką, lecz także falą. Koncepcja dualizmu między cząstkami i falami została wysunięta przez francuskiego fizyka, Louisa de Broglie'a. Interesujący aspekt stowarzyszonego z cząstką równania falowego stanowi fakt, że kwadrat funkcji falowej jest równy rozkładowi prawdopodobieństwa.
Gdy funkcja opisująca falowy ruch elektronu zostanie podniesiona do kwadratu, w wyniku otrzymuje się gaussowski rozkład prawdopodobieństwa. Mechanika kwantowa opisuje między innymi orbitale elektronów w atomach. Orbitale te zawsze są podane w formie prawdopodobieństw - jako obszary przestrzeni wokół jądra, gdzie p r a w d o p o d o b i e ń s t w o znalezienia elektronu w danym momencie ma pewną określoną wartość. Słynna zasada nieokreśloności Heisenberga mówi, że nie można dokładnie i równocześnie poznać położenia oraz pędu elektronu w danej chwili. Wszystko, co możemy stwierdzić na temat elektronu na orbicie atomowej, sprowadza się do rozkładu prawdopodobieństwa, który mówi nam, gdzie elektron mógłby się w danym momencie znajdować. Orbitale stanowią przestrzenne rozkłady prawdopodobieństwa i określają obszar w trójwymiarowej przestrzeni - na przykład w kształcie sfery lub hantli - w którym może znajdować się elektron.
Mechanika kwantowa jest z natury teorią probabilistyczną, ze względu na to, że w zasadzie operuje prawdopodobieństwami, a nie ściśle określonymi parametrami ruchu cząstek - to zasadniczo odróżniają od czysto deterministycznej teorii względności, w której z wielką precyzją można określić siłę grawitacyjną, prędkość, a nawet dylatację czasu. Związki między teorią prawdopodobieństwa a mechaniką kwantową idą nawet dalej niż opis atomu w kategoriach orbitali elektronowych. Część teorii kwantowej stanowi mechanika statystyczna, teoria opisująca zachowanie dużej liczby małych cząstek, na przykład wszystkich molekuł powietrza w jakimś pomieszczeniu. Tutaj ponownie pojawia się gaussowski rozkład prawdopodobieństwa - funkcja w kształcie dzwonu, normalna krzywa błędów, jak niekiedy się ją nazywa - jako główny element teorii, ponieważ w opisie statystycznego zachowania dużej liczby cząstek musimy opierać się na rozkładach statystycznych. Rozkład statystyczny - rozkład dużej liczby elementów - w naturalny sposób służy także jako rozkład prawdopodobieństwa dla pojedynczego elementu z dużego zbioru, „LAK więc rozkład gaussowski, lub normalny, jest zarówno rozkładem prawdopodobieństwa, jak i rozkładem statystycznym. Co to jest rozkład Gaussa?
Carl Friedrich Gauss (1777-1855), wielki niemiecki matematyk, autor wielu ważnych osiągnięć w matematyce, odkrył również rozkład normalny. W granicy dużych liczb, gdy zsumowanych zostanie wiele przypadkowych czynników, rozkład ich sumy będzie wyglądał jak krzywa dzwonowa.
W 1909 roku angielski statystyk, Karl Pearson, odkrył broszurę napisaną około roku 1720 przez Abrahama de Moivre'a, zubożałego matematyka i hugenota, który w obawie przez prześladowaniami uciekł z Francji i schronił się w Anglii, gdzie zarabiał na życie jako „kawiarniany konsultant” studentów matematyki. DeMoivre wyprowadził twierdzenie, zwane obecnie centralnym twierdzeniem granicznym, które demonstruje zbieżność sumy wielu przypadkowych czynników do tajemniczej krzywej dzwonowej. Jednym z rozważanych przez de Moivre'a przykładów była liczba wyrzuconych orłów w trakcie wielokrotnego powtarzania rzutu monetą. Gdy narysuje się wykres liczby orłów uzyskanych przy wielokrotnym powtarzaniu ustalonej, długiej serii rzutów, niespodziewanie pojawia się normalny rozkład błędów. De Moivre odkrył normalny rozkład prawdopodobieństwa sto lat przed Gaussem.
Krzywa normalna Gaussa pojawia się w tak wielu sytuacjach, niekiedy zupełnie nieoczekiwanie, że wielu osiemnasto- i dziewiętnastowiecznych uczonych uważało ją za prawo dane przez Boga. Obecnie wiemy, że stosuje się ona do rozkładu wzrostu ludzi (oddzielnie dla mężczyzn i dla kobiet), jak również do wielu zjawisk w przyrodzie. Gauss odkrył krzywą normalną w trakcie studiowania rozkładów gwiazd i innych obserwacji astronomicznych. Krzywa normalna pojawia się nawet w finansach i w ekonomii. Wiemy, że rozkład prawdopodobieństwa zmian cen akcji na giełdzie jest dany krzywą normalną.
Rozkład normalny pozwala uzyskać prawdopodobieństwo, że pewna zmienna mieści się w określonym zakresie. Na przykład prawdopodobieństwo, że wzrost przypadkowo wybranego mężczyzny będzie mieścił się w przedziale od 66 do 72 cali (od 167,64 do 182,88 cm), jest dane jako pole powierzchni obszaru pod krzywą normalną, ograniczonego przez te dwie wartości, tak jak na rysunku poniżej. Prawdopodobieństwo to wynosi 68%.
Wyniki badań ilorazu inteligencji układają się zgodnie z rozkładem normalnym, aczkolwiek fakt ten ostatnio podważano w związku z pozbawionymi podstaw twierdzeniami o różnicach poziomu inteligencji między przedstawicielami różnych ras. W ogólnym przypadku z krzywej rozkładu normalnego wynika, że większość populacji układa się w odległości kilku standardowych odchyleń (standardowych jednostek, odzwierciedlających naturalną, charakterystyczną zmienność danego zbioru danych) wokół średniej. Im dalej od średniej - im bliżej „skrzydeł” rozkładu - tym mniejsze prawdopodobieństwo. Skrzydła rozciągają się aż do minus nieskończoności po lewej i do plus nieskończoności po prawej stronie. Prawdopodobieństwo znalezienia się w bardzo dużej odległości od średniej jest infinitezymalnie małe. Oznacza to, że teoretycznie biorąc, można znaleźć osobę o ujemnej inteligencji, jak również kogoś o ilorazie inteligencji równym 300, ponieważ prawdopodobieństwa tych zdarzeń, mimo że bardzo małe, są różne od zera.
Jasność gwiazd układa się zgodnie z rozkładem normalnym, podobnie jak wiele innych cech gwiazd: kolor, temperatura, rozmiary itd. Pod względem jasności nasze Słońce znajduje się w obszarze pokrywającym 5% powierzchni pod krzywą rozkładu, więc prawdopodobieństwo, że jasność losowo wybranej gwiazdy będzie podobna do jasności Słońca, wynosi 5%. Krzywa rozkładu normalnego może zatem być użyta do obliczenia prawdopodobieństwa, że różne właściwości gwiazdy będą miały określone wartości. Zgodnie z prawem rozkładu normalnego powinniśmy znaleźć ekstremalnie ciemne gwiazdy, o jasności równej zeru lub nawet ujemnej: czarne dziury, które w rzeczywistości pochłaniają promieniowanie z zewnątrz. Powinniśmy także znaleźć gwiazdy o ekstremalnie dużej jasności: gigantyczne gwiazdy świecące jak Syriusz. Co więcej, skoro gwiazda o właściwościach takich jak nasze Słońce istnieje, a gwiazdy stosują się do prawa rozkładu normalnego, to mamy pewność, że znajdziemy we wszechświecie inne gwiazdy pod każdym względem i d e n t y c z n e ze Słońcem. Możemy się o tym przekonać, ustalając znany punkt (odpowiadający Słońcu) na osi pod krzywą dzwonową i sprawdzając, że krzywa ma w tym punkcie określoną wysokość. Dla niewielkiego odchylenia właściwości gwiazdy (nieznacznie większej lub mniejszej jasności czy energii) istnieje dodatnie prawdopodobieństwo, że gwiazda podobna do naszego Słońca istnieje. Dzięki temu prawdopodobieństwo istnienia życia gdzieś we wszechświecie rzeczywiście staje się realne, ponieważ muszą istnieć gwiazdy o właściwościach Słońca zasilające energią planety o właściwościach Ziemi.
Krzywa rozkładu normalnego najbardziej użyteczne zastosowania znalazła jednak w fizyce kwantowej, ponieważ z natury swej stanowi ona graniczne twierdzenie dla bardzo dużej (nieskończonej) liczby przypadkowych czynników. W większości klasycznych zastosowań liczba czynników - na przykład liczba rzutów monetą - jest skończona i na ogół niezbyt duża. W mechanice statystycznej fizycy badają kolektywne zachowania niezmiernie dużej liczby atomów, cząsteczek lub elektronów. W tym przypadku, ze względu na olbrzymią liczbę badanych elementów, krzywa rozkładu normalnego nie stanowi jedynie dobrego przybliżenia, jak w innych dziedzinach, lecz działa jak dokładna reguła prawdopodobieństwa. Krzywa ta jest niezastąpiona w fizyce kwantowej, gdyż dzięki niej fizycy uzyskują dokładne wyniki.
Albert Einstein był jednym z tych fizyków, których nie satysfakcjonowała statystyczna natura teorii kwantowej. Jego prace w dziedzinie związanej z elektronami, dotyczące zjawiska fotoelektrycznego - które przyniosły mu Nagrodę Nobla - nie prowadziły w kwantowym kierunku. Wydaje się, że Einstein był przeciwnikiem koncepcji prawdopodobieństwa w opisie świata. W obliczu nieuniknionych probabilistycznych aspektów teorii kwantowej Einstein wypowiedział słynną uwagę: „Nigdy nie uwierzę, że Bóg gra w kości ze światem!”
W 1892 roku francuski matematyk, Henri Poincare, zauważył, że niektóre systemy mechaniczne, na przykład wahadła, dla których prawa ruchu były znane i dobrze modelowane przez równania fizyki, przejawiały czasami niewytłumaczalnie chaotyczne zachowania. Badał także znany w fizyce problem trzech ciał, dla którego otrzymał zadziwiająco skomplikowane równanie. Badając numerycznie rozwiązania tego równania, Poincare stwierdził, że układają się one w dwie krzywe, których przecięcia tworzyły złożoną sieć, gdzie każda krzywa nakłada się sama na siebie nieskończenie wiele razy. Nie zdając sobie sprawy z doniosłości swego odkrycia, Poincare spoglądał na jeden z najbardziej zadziwiających obiektów matematycznych: na coś, co dzisiaj nazywamy dziwnym atraktorem. Doszedłszy do wniosku, że badane przez niego krzywe są zbyt złożone, aby mogły mieć jakieś znaczenie, Poincare zaprzestał prób ich zrozumienia i nigdy już do nich nie wrócił. Obecnie wiemy, że rozwiązanie Poincarego stanowi manifestację chaosu.
Minęło niemal 70 lat i w 1963 roku meteorolog E.N. Lorenz z Massachusetts Institute of Technology dokonał odkrycia, które na zawsze miało zmienić sposób, w jaki matematycy, fizycy i inni naukowcy traktują zachowanie układów chaotycznych. Lorenz studiował układy pogody, modelując je za pomocą systemu trzech sprzężonych ze sobą równań. Równania te są nieliniowe, co oznacza, że ich wykres nie jest linią prostą. Nieliniowe równania często prowadzą do chaosu, a chaos stanowi w istocie szczególny rodzaj nieliniowości w przyrodzie. W przypadku równania liniowego zmiana jednej zmiennej powoduje proporcjonalną zmianę innej. Jeżeli cena jednostkowa jakiegoś artykułu wynosi 5 dolarów, to 10 sztuk będzie kosztować 50 dolarów. W obecności zjawisk nieliniowych, ich skutek staje się nieproporcjonalny do przyczyny. W powyższym przykładzie efekt nieliniowości można by osiągnąć w ten sposób, że cena byłaby wynikiem pomnożenia 5 dolarów przez kwadrat liczby sztuk (tak więc 10 sztuk kosztowałoby teraz 500 dolarów). Chaos stanowi ekstremalną formę nieliniowości w tym sensie, że sygnał wyjściowy nie tylko nie jest proporcjonalny do wejściowego, lecz jest także nieprzewidywalny.
Lorenz rozwiązał swoje skomplikowane nieliniowe równania dla układów pogody i narysował ich wykres. Na wykresie pojawił się dziwny atraktor: obszar, do którego w granicy przyciągane są wszystkie dostatecznie bliskie trajektorie, lecz dowolnie bliskie punkty stają się z czasem wykładniczo odległe. Poniższy rysunek demonstruje dziwny atraktor Lorenza.
Znaleziony przez Lorenza dziwny atraktor wykazuje tak zwany efekt motyla. Układ Lorenza jest tak czuły na warunki początkowe, że mówi się, iż jedno uderzenie skrzydeł motyla w Chinach może spowodować niewielką zmianę warunków początkowych, w wyniku czego w tydzień później u wschodnich wybrzeży Stanów Zjednoczonych pojawi się huragan. W ten sposób narodziła się matematyczna teoria chaosu, dziedziny wiedzy, dzięki której uzyskaliśmy całkowicie nowy punkt widzenia na świat i która w nowym świetle ukazała wyzwanie, jakie Einstein rzucił nauce.
Słowo „chaos” pochodzi z języka greckiego, w którym oznaczało nieskończoną, pustą przestrzeń, istniejącą przed stworzeniem świata. W codziennym języku przywołuje ono obrazy ludzi biegających bez celu tam i z powrotem lub obiektów latających w powietrzu bez widocznego uporządkowania. Stanowi ono niemal synonim przypadkowości. Jednak matematyczna teoria chaosu jest daleka od przypadkowości. Układ chaotyczny stanowi dokładne przeciwieństwo układu przypadkowego. Układ jest chaotyczny wtedy, gdy jest całkowicie deterministyczny - nie zawiera absolutnie żadnych elementów przypadkowości. Wygląda wprawdzie jak przypadkowy, lecz wszystko jest w nim precyzyjnie określone przez matematyczną regułę - przez równanie. W przypadku chaosu nikt nie rzuca kośćmi. Gdyby każde niewytłumaczalnie chaotyczne zachowanie we wszechświecie mogło być opisane przez równanie matematyczne, to Einstein miałby rację, uważając, że Bóg nie gra w kości.
Najlepszym przykładem układu chaotycznego jest przekształcenie piekarza oraz odwzorowanie logistyczne: prosta, powtarzalna transformacja tworząca sekwencję liczb i dana przez przyporządkowanie: x ε kx( 1 - x ). Symbol x reprezentuje zmienną, liczbę z przedziału od 0 do 1, natomiast k jest stałą, na przykład równą 3. Każdą kolejną liczbę otrzymuje się z poprzedniej przez wstawienie jej do równania. Zacznijmy od k = 0.2 . Pozostając przy k = 3, otrzymamy 3(0,2)(0,8) = 0,48. Następnie liczba 0,48, wstawiona do równania, da nam kolejną liczbę ciągu: 3(0,48)(0,52) = 0,7488. Kontynuując ten proces, uzyskamy długi ciąg liczb, który jest przykładem układu chaotycznego. Gdybyśmy zaczęli ciąg od liczby nieznacznie tylko odbiegającej od 0,2, wyniki byłyby bardzo różne.
Odwzorowanie logistyczne „składa” odcinek od 0 do 1, w tym sensie, że liczby między 0 a 0,5 są transformowane w liczby między 0 a 0.75. Liczby między 0.5 a 1 są przez transformację odwzorowywane w ten sam odcinek, od 0 do 0.75, lecz w odwrotnym porządku. Tak więc za każdym razem, gdy nowa liczba powstaje z poprzedniej, zachodzi „składanie” odcinka. To składanie odcinka stanowi proces równoważny ugniataniu ciasta przez piekarza. Przypuśćmy, że do ciasta zostały wciśnięte jeden obok drugiego dwa rodzynki. Piekarz rozciąga ciasto, wałkując je, a następnie składa na pół, powtarzając ten proces wielokrotnie i nie interesując się położeniem rodzynków. Po chwili - niezależnie od tego, jak blisko siebie rodzynki znajdowały się na początku - nie sposób już przewidzieć, gdzie znajdą się rodzynki, gdy ciasto będzie gotowe do wypieku. Jest to przykład chaosu. Nawet bardzo niewielka zmiana początkowego położenia rodzynków może oznaczać dużą zmianę ich ostatecznego położenia.
Układy chaotyczne występują często w przyrodzie. Jednym z przykładów jest wahadło wymuszone. Popchnięte wahadło zaczyna się poruszać. Popchnięte powtórnie zaczyna poruszać się szybciej. Ponownie popchnięte - porusza się jeszcze szybciej. Po kilku popchnięciach nadchodzi jednak moment, gdy wahadło zaczyna się wahać w sposób nieprzewidywalny. Mamy chaos. Położenie i prędkość wahadła można przedstawić na wykresie, gdzie jedną zmienną jest położenie, a drugą prędkość. Jest to tak zwany diagram fazowy. Na jego podstawie można stwierdzić, że rozwiązanie równania rządzącego ruchem wahadła jest ekstremalnie czułe na warunki początkowe, podobnie jak badany przez Lorenza układ pogodowy, gdzie coś tak małego jak motyl może wywołać znaczne zmiany pogody w odległym obszarze.
Istnieje wiele innych chaotycznych układów fizycznych. Niektóre reakcje chemiczne również zachodzą w sposób chaotyczny. Zakres i czas trwania takich reakcji silnie zależy od warunków początkowych. Reakcja może na przykład zachodzić gładko przy pewnych określonych warunkach początkowych, lecz mała - nawet niezauważalna - zmiana warunków może zmienić charakter reakcji i zamienić ją w eksplozję.
Stephen Smale, który wyprowadził ważne równania różniczkowe, opisujące zależność drapieżnik - ofiara, napisał wiele prac na temat równań nieliniowych i chaosu. W 1967 roku opublikował fundamentalną pracę, w której wyjaśnił wiele zagadnień dotyczących chaosu i dziwnych atraktorów. Wiele lat później poszedłem do kina na Park Jurajski. Było oczywiste, że grany przez Jeffa Goldbluma matematyk to nikt inny tylko Stephen Smale: nosił tę samą czarną, skórzaną marynarkę, mówił w ten sam charakterystyczny sposób i zajmował się dziwnymi atraktorami. Michael Crichton wykorzystał ideę chaosu w znacznie większym stopniu w książce niż w scenariuszu filmu. W trakcie klonowania dinozaurów naukowcom brakowało małego fragmentu DNA, więc pobrali go od żaby. Ta niewielka zmiana warunków początkowych doprowadziła do spektakularnego finału, podobnie jak we wszystkich układach chaotycznych. W tym fikcyjnym przypadku zmiany wywołały amok u sklonowanych dinozaurów. Czy podobna historia może się wydarzyć naprawdę w naturze?
Kwestia, czy materia ożywiona, a także inne układy we wszechświecie, są systemami przypadkowymi czy chaotycznymi (a zatem deterministycznymi), stanowi jedną z wielkich niewiadomych współczesnej nauki. Nie ma wątpliwości, że w biologii, fizyce i w innych dziedzinach występują zjawiska ekstremalnie nieliniowe i chaotyczne. Możliwe, że przyczyną niektórych chorób psychicznych są niewielkie zmiany poziomu hormonów w mózgu. Nas interesuje jednak pytanie, czy pojawienie się życia na Ziemi było wynikiem przypadkowej reakcji w pierwotnej zupie, prowadzącej do powstania DNA, czy raczej DNA, a wraz z nim życie zostało stworzone przez niewielkie fluktuacje w ramach nieprzypadkowego, deterministycznego procesu, którym rządziło jakieś nieliniowe równanie. Czy życie na Ziemi było rezultatem przypadku czy wyboru (rozumianego jako złożony, nieliniowy przepis)? To głębokie pytanie jest kluczem do możliwości istnienia życia gdzie indziej we wszechświecie.
Jedną z zadziwiających właściwości dziwnych atraktorów jest fakt, że wykres fazowy układu chaotycznego nie zapełnia całej przestrzeni wykresu. Wyobraźmy sobie dym rozchodzący się powoli w zamkniętym pokoju lub w innym pomieszczeniu. Po pewnym czasie zajmie on cały trójwymiarowy obszar pomieszczenia. Przyczyna leży w termodynamice: we wszechobecnym prawie wzrostu entropii. Olbrzymia liczba cząsteczek dymu rozchodzi się na wszystkie strony, gdyż istnieje znacznie więcej możliwości ich ułożenia w całym pomieszczeniu niż w jednej jego części. Prawdopodobieństwo, że - po dostatecznie długim czasie - cząsteczki dymu pozostaną w jednym kącie pokoju, jest fantastycznie małe. Argument ten pochodzi z dziedziny statystyki matematycznej, gdzie niepodzielnie rządzi rozkład normalny. Układy chaotyczne, które na pierwszy rzut oka mogą robić wrażenie przypadkowych, są jednak ściśle zdeterminowane. Kontynuując analogię z cząsteczkami dymu - gdyby ich ruchem rządził nieliniowy układ równań chaotycznych, wypełniłyby pewną podprzestrzeń pokoju, mniejszą od całości i o wymiarze mniejszym niż trzy. Spójrzmy na rysunek przedstawiający atraktor Lorenza (s. 127). Przestrzeń jest wprawdzie trójwymiarowa, lecz atraktor nie wypełnia jej w całości. Wyglądający jak pochylone skrzydła motyla atraktor przywodzi na myśl analogię do chaotycznych układów pogodowych, które jakoby wywołuje. Dwuwymiarowa figura atraktora składa się pod kątem w trzeci wymiar. Matematycy mówią, że wymiar Hausdorffa (od nazwiska niemieckiego matematyka) atraktora - reprezentujący rzeczywisty wymiar zajmowanej przez niego figury geometrycznej, będący liczbą z przedziału od 2 do 3 - wynosi D = 2,06.
Prace nad chaosem i nad dziwnymi atraktorami postępowały w najlepsze, gdy do Stanów Zjednoczonych przybył francuski naukowiec, Benoit Mandelbrot, jeden z tych ostatnich, wielkich francuskich matematyków - pozostających pod wpływem tradycji sięgającej czasów Fermata i Poincarego - których zainteresowania obejmowały wiele różnych dziedzin wiedzy. Mandelbrot, pracujący w laboratoriach IBM oraz w Yale University, dokonał epokowego odkrycia, które początkowo wydawało się nie mieć nic wspólnego z chaosem. Jest on także autorem ważnych odkryć - dokonanych jeszcze w latach sześćdziesiątych - które ułatwiły analitykom giełdowym zrozumienie ruchów cen akcji, oraz pionierskich prac z dziedziny teorii kodowania, termodynamiki statystycznej, statystyki lingwistycznej, teorii komunikacji i błądzenia przypadkowego. W 1974 roku Mandelbrot zainteresował się procesami związanymi z życiem i przyrodą. Początkowo podchodził do tych zagadnień z punktu widzenia teorii prawdopodobieństwa i statystyki, zakładając, że we wszystkich zmiennych tkwi nieodłączny składnik przypadku. Zastosował te metody do przewidywania liczby mutantów w koloniach bakterii, a później badał inne naturalne zjawiska, takie jak struktury geologiczne i kratery na Księżycu. To, co odkrył, było bardzo dalekie od przypadku. Aby opisać naturalne procesy, Mandelbrot stwórz; nowe pojęcie matematyczne i nazwał je f r a k t a l e m.
Mandelbrot zadał sobie pytanie, w jaki sposób można by zmierzyć długość wybrzeża Anglii. Należałoby zacząć od jakiegoś punktu na brzegu, rozciągnąć linę od tego punktu do następnego, a następnie kontynuować ten proces tak długo, aż obejdzie się dookoła całą Wielką Brytanię. Czy jednak pomiar ten będzie dokładny - zastanawiał się - skoro proste odcinki liny ominą niektóre krzywizny zatok i półwyspów? Lepszą miarę uzyska się, jeżeli wierzchołki odcinków będą położone bliżej jeden drugiego, dzięki czemu łatwiej będzie naśladować krzywizny zatok i półwyspów. Spoglądając na poszarpane brzegi Anglii, Mandelbrot zdał sobie sprawę, że pomiar powinien być wykonany jeszcze dokładniej, tak aby uwzględnić nadmorskie skały wraz z ich nierównymi krawędziami. To znacznie skomplikuje pomiary, ponieważ lina będzie musiała biec nie tylko wzdłuż zatok, lecz także wzdłuż skał. Prowadząc coraz precyzyjniejsze rozważanie, uświadomił sobie, że na brytyjskich brzegach znajdują się obiekty jeszcze mniejsze niż skały, aczkolwiek mające tę samą ogólną formę, na przykład leżące na brzegu małe kamienie. Aby uwzględnić także i te nierówności, należałoby zaprojektować dokładniejszą metodę pomiarową. A gdy już się to zrobi, okaże się, iż istnieją jeszcze mniejsze obiekty niż kamienie, lecz o takiej samej ogólnej formie jak kamienie, skały i małe wzgórza. I tak dalej, aż do ziarenek piasku, które mają taką samą poszarpaną granicę jak skały, zatoki i całe wybrzeże. Mandelbrot zdał sobie sprawę, że argumentację tę można kontynuować w nieskończoność: na wybrzeżu Anglii istnieją coraz mniejsze obiekty, mające właściwość samopodobieństwa: ich ogólny kształt jest taki sam jak w przypadku większych obiektów. W jaki sposób można zatem zmierzyć całkowitą długość liny potrzebnej do ułożenia wzdłuż krzywizny coraz mniejszych obiektów?
Mandelbrot uświadomił sobie, że wymiar wypełniającej powierzchnię krzywej, która wykonuje coraz mniej sze zakręty wokół coraz mniejszych obiektów, mieści się gdzieś między wymiarem liny a wymiarem płaszczyzny. Poszukując definicji tego zjawiska, do szedł do koncepcji wymiaru ułamkowego: wymiaru, który nie jest liczbą całkowitą, taką jak 1 (dla liny), 2 (dla płaszczyzny) lub 3 (dla przestrzeni trójwymiarowej). Odkryty przez siebie ułamkowy wymiar Mandelbrot nazwał f r a k t a l e m. Wybrzeże Wielkiej Brytanii jest fraktalem, czyli wypełniającą powierzchnię krzywą, której kształt jest samopodobny w każdej skali i której wymiar jest większy od 1 i mniejszy od 2 - nie jest jeszcze płaszczyzną, lecz nie jest już także i krzywą: fraktal jest nieskończenie zakrzywiony wokół samego siebie.
Mandelbrot zrozumiał, że odkryta przez niego w naturze właściwość wybrzeża Wielkiej Brytanii istnieje także jako czysto matematyczna konstrukcja. Jako matematyk o wszechstronnym wykształceniu, doskonale wiedział o zbiorze Cantora. Jest to dziwny matematyczny obiekt, odkryty przez Georga Cantora (1845-1918), duńsko--niemieckiego matematyka, który poświęcił całe życie na zrozumienie pojęcia nieskończoności. Sformułował on całą teorię, aby opisać tę trudną ideę, i zakończył życie w zakładzie dla obłąkanych w niemieckim mieście Halle pod koniec pierwszej wojny światowej. Cantor następująco zdefiniował swój zbiór. Na początek weźmy odcinek od 0 do 1. Podzielmy go na trzy równe części. Usuńmy środkową część, pozostawiając dwie pozostałe. Z kolei z każdej z pozostałych części usuńmy środkową trzecią część. Kontynuujmy to postępowanie, za każdym razem usuwając środkową jedną trzecią część z każdego małego odcinka, pozostałego po kolejnych operacjach. Gdy proces ten wykona się nieskończoną liczbę razy, powstanie zbiór Cantora.
Zbiór Cantora leży na linii prostej, lecz jego wymiar jest mniejszy od wymiaru linii, gdyż znajduje się w nim nieskończenie wiele dziur. Jego miara jest zatem mniejsza od 1. Obliczony przez matematyków wymiar Hausdorffa zbioru Cantora wynosi 0,63 {jest on równy logarytmowi liczby 2 podzielonemu przez logarytm liczby 3). Zbiór Cantora jest fraktalem. Żyje on w przestrzeni mniejszej od linii.
Istnieje także interesujący fraktal, żyjący w przestrzeni pośredniej między linią a płaszczyzną, zwany krzywą Kocha. Aby ją uzyskać, należy zacząć od narysowania trójkąta równobocznego. Następnie trzeba podzielić każdy bok na trzy równe części. Na środkowej części należy zbudować nowy trójkąt równoboczny. Kontynuując ten proces nieskończenie wiele razy, uzyska się krzywą Kocha, jak na poniższym rysunku (s. 134).
Wymiar Hausdorffa krzywej Kocha powinien mieścić się między wymiarem linii, a wymiarem płaszczyzny, ponieważ krzywa ta ma nieskończenie wiele załamań, przez co niemal zapełnia płaski obszar, lecz jednak nie do końca. Jej wymiar wynosi 1,26 (log 4 podzielony przez
Krzywa Kocha pod pewnymi względami przypomina wybrzeże Wielkiej Brytanii. Jest poszarpana w taki sposób, że jej nierówności powtarzają się ad infinitum w coraz mniejszej skali. Jeżeli spojrzymy na krawędź krzywej przez mikroskop, to zobaczymy ten sam wzór, który widać gołym okiem. Jeżeli zwiększymy powiększenie mikroskopu, to ponownie zobaczymy ten sam charakterystyczny, samopowtarzający się, właściwy fraktalom wzór. Odkryte przez Mandelbrota podobieństwo między tworem natury - wybrzeżem Wielkiej Brytanii - a matematyczną konstrukcją, będącą produktem równania lub matematycznej reguły, prowadzi również do związków z chaosem. Układ chaotyczny może bowiem być reprezentowany w przestrzeni fazowej przez dziwny atraktor, a atraktor ma właściwości fraktalne. Wymiar atraktora Lorenza oraz wymiary innych atraktorów z teorii chaosu są zawsze mniejsze od wymiarów przestrzeni, w której są zawarte - i równe liczbom ułamkowym.
Mandelbrot kontynuował poszukiwania fraktali w przyrodzie i zwrócił uwagę na pewne zjawiska w astronomii. Od czasu, gdy w latach dwudziestych Edwin Hubble odkrył, że Droga Mleczna nie jest jedyną galaktyką i że oprócz niej istnieją miliardy innych galaktyk, a każda zawiera miliardy gwiazd, astronomowie poczynili wielkie postępy na drodze do zrozumienia struktury galaktyk (określenie „galaktyka” pochodzi od greckich słów oznaczających Drogę Mleczną; gala znaczy mleko). Obecnie wiemy, że galaktyki łączą się w grupy. Istnieje Lokalna Grupa Galaktyk - gromada, gromady łączą się w supergromady itd. Okazuje się - ku zdziwieniu astronomów - że galaktyki i ich gromady nie są przypadkowo rozrzucone we wszechświecie, lecz ułożone według jakiegoś dziwnego porządku. Jaki to porządek?
Mandelbrot spoglądał na galaktyki z kilku różnych, hipotetycznych punktów obserwacyjnych. Jako pierwszy punkt wybrał Ziemię. Obserwowane z Ziemi galaktyki układają się na płaszczyźnie nieba w pewien charakterystyczny sposób. Następnie Mandelbrot skonstruował widok nieba z punktu widzenia gwiazdozbioru Centaura i zauważył, że galaktyki i ich gromady przejawiają taki sam wzór zapełniania powierzchni jak wtedy, gdy punktem odniesienia jest Ziemia. Jako kolejny punkt obserwacyjny wybrał ponownie Ziemię, lecz zmienił ogniskową i obserwował galaktyki położone w odległości kilku tysięcy lat świetlnych od Ziemi. Ponownie pojawił się ten sam wzór. Mandelbrot doszedł do wniosku, że struktura zapełniania przestrzeni jest fraktalem i obliczył jego wymiar - 12.
Od tego czasu Mandelbrot i inni badacze odkryli wiele przykładów występowania fraktali w naturze, od kształtów liści drzew po turbulencje powietrzne. Pojawiła się nawet sugestia, że w procesach myślowych w ludzkim mózgu mogą również występować struktury fraktalne. Chaos, fraktale i dziwne atraktory reprezentują struktury, których występowanie w przyrodzie wydaje się sugerować, że życiem wszechświata rządzą pewne reguły, niektóre z nich bardzo skomplikowane i -jak dotąd - nie znane nam. Powstaje pytanie, czy życie na Ziemi pojawiło się w wyniku matematycznego przepisu czy przypadku lub sekwencji przypadków. Czy Bóg gra w kości, czy rządzi za pośrednictwem równań?
Czy złożona struktura cząsteczki DNA powstała na skutek przypadkowej sekwencji reakcji chemicznych, czy została stworzona zgodnie z określoną regułą, jak fraktal z chaosu stworzenia? To, co stało się tutaj, na Ziemi, stanowi klucz do zagadki, czy życie istnieje gdzie indziej we wszechświecie. Gdy rozważamy tę alternatywę - możliwość przypadkowego powstania życia wobec pewnego ukrytego, zdeterminowanego mechanizmu - przychodzi na myśl kolejne pytanie: Z jakiego powodu wszystkie aminokwasy występujące w procesach życia na Ziemi są typu L? Gdyby rządził tym wyłącznie przypadek, powinniśmy oczekiwać, że połowa z nich będzie typu L, a połowa typu D. Obie cząsteczki są identyczne pod względem struktury, reaktywności i każdego innego parametru, z wyjątkiem symetrii. Skoro wszystkie te ważne dla życia cząsteczki są tylko jednego rodzaju, czy oznacza to, że zmusiła je do tego jakaś tajemnicza siła? Fakt ten może być silnym argumentem przeciwko przypadkowym fluktuacjom, a za determinizmem. Nie oznacza to jednak, że nie dostrzegamy roli przypadku we wszystkich zjawiskach na Ziemi. Wydaje się, że zarówno przypadek, jak i czynniki deterministyczne są nieodzowne w procesach natury. Przypadek to bez wątpienia coś, z czym należy się liczyć.
Czym więc jest przypadek? Czy rzeczywiście jest czymś odrębnym od świata równań matematycznych - prostych, nieliniowych lub chaotycznych? Przypadek często utożsamia się z grami losowymi. Kostka zostaje rzucona i wydaje się nam, że jej toczenie się stanowi manifestację czystego przypadku - miejsca, w którym się zatrzyma, i liczby, która się ukaże, nikt nie jest w stanie przewidzieć, gdyż jednym i drugim rządzi ślepy los. Gdybyśmy jednak dysponowali nieograniczonymi możliwościami pomiarowymi i obliczeniowymi, gdybyśmy mogli zaobserwować, jak kostka spada, zmierzyć jej prędkość i moment pędu z nieskończoną dokładnością, zobaczyć, jak uderza w stół jedną z krawędzi, zmierzyć kąt padania, a następnie użyć wszystkich tych parametrów, łącznie z ciśnieniem powietrza oraz prądami i wirami wytworzonymi przez poruszającą się kostkę - potrafilibyśmy dokładnie wyznaczyć liczbę, która zostanie wyrzucona.
Przypadek jest przypadkiem tylko dzięki naszej ignorancji. Gdybyśmy znali wartości wszystkich fizycznych parametrów ruchu danego obiektu, na przykład kostki do gry, moglibyśmy zapisać równania ruchu, rozwiązać je (co nie zawsze jest łatwe) i poznać wynik. Gdy kostka uderza w stół jedną ze swych krawędzi, mamy manifestację chaosu. Dwa różne rzuty kostką pod niemal tym samym kątem i z niemal tym samym pędem na ogół dają różne wyniki. Uderzenie krawędzią o powierzchnię stołu powoduje, że końcowy wynik jest niezwykle czuły na warunki początkowe. Jeden rzut kostką może dać szóstkę, a następny rzut - gdy wszystko jest identyczne, z wyjątkiem tego, że kąt, pod jakim krawędź kostki uderza w stół, tym razem jest o 0,00001 stopnia większy - może dać inny wynik. Gdybyśmy znali dokładnie wszystkie parametry, moglibyśmy przewidzieć wynik. Przypadek i chaos nie są w istocie tak bardzo różnymi koncepcjami. Różnicę między nimi stanowi informacja. I w istocie cała teoria prawdopodobieństwa zależy od informacji. Prawdopodobieństwa są miarą naszej wiedzy lub ignorancji na temat świata - są uwarunkowane naszymi zasobami informacji.
Gdy wykładam teorię prawdopodobieństwa, wkrótce po wprowadzeniu samej koncepcji prawdopodobieństwa zadaję studentom pytanie: „Jaka jest waszym zdaniem szansa, że ceny akcji (małej firmy komputerowej) pójdą jutro w górę?” Studenci zazwyczaj wahają się z odpowiedzią, ponieważ prawie nic o tej firmie nie wiedzą. Jeżeli jednak wyjaśnię im, że koncepcja prawdopodobieństwa może mieć różne znaczenie w zależności od kontekstu i że mogą mi podać swoje „osobiste” prawdopodobieństwo tego zdarzenia, oszacowane w jakimś logicznym kontekście, zazwyczaj słyszę odpowiedź: „No cóż, może jakieś 60%... rynek idzie w górę, a firmy komputerowe całkiem nieźle stoją...” Następnie mówię im: „Przypuśćmy, że otrzymaliście informację, o której nie wie nikt inny. Wiecie, że Bill Gates i Microsoft zamierzają kupić tę małą firmę. Jutro rano zostanie podana informacja o zamierzonym połączeniu. Jaka jest teraz szansa, że akcje firmy pójdą w górę?” Odpowiedź brzmi: „Bliska 100%”, co (prawidłowo) odzwierciedla fakt, że akcje małych firm niemal zawsze idą w górę, gdy jakaś większa firma ogłosi zamiar ich kupienia. Morał tej historyjki: prawdopodobieństwo silnie zależy od informacji. Z tego powodu insider traders - wykorzystujący posiadane informacje w celu przechylenia szans na swoją korzyść - idą do więzienia. W ramach i c h zasobu informacji rynek akcji przestaje być losowy. Przypadek lub determinizm zależą całkowicie od tego, co wiemy lub czego nie wiemy. Szansa i prawdopodobieństwo są dobrym modelem w sytuacji, gdy dominuje niepewność, gdy nie wiemy niczego dokładnie.
Komputer nie może wykonać losowej operacji. Komputery, z natury swej, robią dokładnie to, co im się każe. Nie sposób powiedzieć komputerowi, aby zrobił coś „przypadkowego” - me będzie wiedział, jak. Być może na tym polega różnica między inteligencją człowieka i komputera. Istota ludzka może czasem bez żadnego powodu zrobić coś dziwnego, wyłącznie dla zabawy, lecz nigdy nie widziano komputera, który zachowywałby się kapryśnie. Komputer może wygenerować prawdziwie losową liczbę tylko dzięki sztucznej ręce, która rzuci kostką i zanotuje wynik za pomocą sztucznego oka. Byłby to jednak tak mało wydajny sposób - zwłaszcza w sytuacjach, gdy istotna jest olbrzymia prędkość, z jaką komputery wykonują swoje zadania - że nikt go nie stosuje. Komputery generują jednak liczby losowe. Cała teoria symulacji, która opiera się na losowaniu przypadkowych liczb, jest zaimplementowana i intensywnie wykorzystywana w komputerach. Gry komputerowe prawie zawsze zawierają jakiś element przypadku. Jak więc to działa?
Komputery generują liczby pseudolosowe. Procedura ich uzyskiwania jest ściśle określona, gdyż komputer musi zostać dokładnie poinstruowany, co i jak ma zrobić. Liczby pseudolosowe są wynikiem deterministycznego programu komputerowego (funkcję tę mają nawet niektóre bardziej zaawansowane kalkulatory), który stosuje metodę chaotyczną. Komputer zaczyna od prostej, z góry podanej liczby startowej. Następnie na liczbie tej wykonuje operację arytmetyczną - podobną do transformacji piekarza lub algorytmu, który posłużył do wygenerowania szeregu wynikającego z odwzorowywania logistycznego. Uzyskana w ten sposób liczba jest uważana za „losową”. Następnie z liczby tej generuje się kolejną, za pomocą tego samego algorytmu. Liczby te są dokładnie zdeterminowane przez równanie transformacji, lecz - jak wszystko w chaosie - wyglądają, jakby były całkowicie przypadkowe. Problem polega na tym, że gdy potrzebny jest nowy zestaw liczb losowych, komputer wygeneruje tę samą serię, jeśli liczba startowa nie zostanie zmieniona. Tak więc we wszystkich operacjach komputerowych chaos służy do symulowania przypadku. Obie te koncepcje są nierozerwalnie związane.
Gdzie zatem leży granica między absolutnym przypadkiem a ścisłym determinizmem? Statystycy dysponują testem, który mówi im, kiedy liczby lub symbole są rezultatem losowym, a kiedy układają się według jakiegoś wzoru. Test ten zwany jest testem serii. Wchodzimy do baru i widzimy dwanaście krzeseł i sześć osób siedzących przy kontuarze. Oznaczając puste krzesła literą E, a zajęte literą O, możemy następująco opisać sposób obsadzenia krzeseł: OEOEOEOEOEOE. Czy układ ten jest dziełem przypadku, czy też klienci baru celowo usiedli w taki sposób, aby znaleźć się jak najdalej od sąsiadów? Zdrowy rozsądek mówi nam, że zachodzi ta druga możliwość, lecz statystycy mają swoje sposoby ilościowego przedstawienia właściwej odpowiedzi. Jedna seria stanowi nieprzerwany ciąg symboli tego samego rodzaju. W tym przypadku mamy dwanaście serii (co jest maksymalną liczbą serii dla dwunastu obiektów, po sześć z każdego rodzaju), więc sekwencja ta najprawdopodobniej nie jest przypadkowa. Weźmy teraz pod uwagę drugie ekstremum - wchodzimy do baru i widzimy, że krzesła zajęte są w następujący sposób: OOOOOOEEEEEE. Zdrowy rozsądek mówi nam, że tym razem są to znajomi, siedzący razem przy kontuarze, którzy nie wybrali swoich miejsc przypadkowo spośród dwunastu dostępnych krzeseł. Statystycy widzą tu dwie serie (seria sześciu O i seria sześciu E). Jest to najmniejsza możliwa liczba serii dwunastu obiektów dwóch rodzajów. Także i w tym przypadku prawie na pewno nie jest to przypadkowy wybór. Co będzie jednak w sytuacji, gdy krzesła zostaną obsadzone następująco: O E E O O E O E E O O E. Na pierwszy rzut oka odpowiedź nie jest oczywista. Liczba serii wynosi 8. W tej sytuacji mówimy, że nie jest ona statystycznie znacząca. Nie ma dowodu, że krzesła nie zostały wybrane przypadkowo. Tablica statystyczna może nam dać zakres statystycznie znaczących liczb serii, czyli takich, dla których istnieje silny dowód nieprzypadkowości. Test serii może zostać użyty także w sytuacji, gdy mamy do czynienia z liczbami. Czy poniższy szereg liczb jest przypadkowy: 53 1 7 3 7 8 4 2 4 6 6? Oznaczmy liczby parzyste symbolem E, a nieparzyste symbolem O. Otrzymamy wtedy następujący szereg: OOOOOOEEEEEE, i mamy taką samą sytuację jak w barze z krzesłami. Najprawdopodobniej nie jest to losowy ciąg liczb (aczkolwiek na pierwszy rzut oka wygląda na losowy!).
Gdy wygenerowane przez komputer pseudolosowe liczby zostaną poddane testowi serii, test będzie zaliczony -- w tym sensie, że liczby zostaną uznane za losowe. Generujący liczby pseudolosowe algorytm komputerowy - który, ściśle rzecz biorąc, jest algorytmem deterministycznym, pozbawionym elementów przypadkowych, z góry i precyzyjnie określającym wybrane liczby - z praktycznego punktu widzenia działa jak kostka do gry, ruletka lub talia kart. Przypadek oraz ekstremalna nieliniowość są bardzo blisko spokrewnione, często nie do odróżnienia.
Co to wszystko oznacza z punktu widzenia DNA i jego pojawienia się 3,5 miliarda lat temu na Ziemi? Jakie są szanse, że ta niewiarygodnie złożona cząsteczka życia istnieje gdzieś w olbrzymim wszechświecie? Czy powstanie DNA było dziełem przypadku, czy też było zdeterminowane? Szansa i przewidywalność są w istocie tylko dwoma sposobami patrzenia na sprawę. Czy insider trader rzuca kośćmi, czy działa na podstawie jakiegoś równania? Czy pseudolosowe liczby są losowe, czy tworzą jakiś ciąg o dokładnej, lecz nie znanej nam strukturze? Odpowiedź zależy od punktu widzenia. Równanie reprezentuje całkowitą wiedzę (przy założeniu, że w równaniu występują wszystkie niewiadome, które odgrywają rolę w danym zjawisku). Przypadek odzwierciedla przynajmniej jakiś poziom ignorancji. Istnieje dziedzina matematyki stosowanej, w której badane są tak zwane procesy stochastyczne. Występują w niej równania, w których także pojawia się element przypadku. Podejście to jest próbą działania na oba sposoby równocześnie: równanie obejmuje to, co wiemy o danym procesie, natomiast jego losowy składnik odzwierciedla wszystko to, czego jeszcze nie wiemy w danej sytuacji. Znane parametry są wstawiane do równania, natomiast w miejsce składników losowych - które reprezentują rozmycie naszej wiedzy o świecie - wstawiane są wartości średnie i odchylenia standardowe. Takie hybrydowe modele, łączące precyzyjną wiedzę z niepewnością, bardzo dobrze się spisują w niektórych dziedzinach nauki.
Lekcja płynąca z powyższych rozważań sprowadza się do wniosku, że musimy użyć wszystkiego, co wierny dokładnie, a dla nie znanych aspektów życia możemy zastosować teorię prawdopodobieństwa, która powinna być dobrym narzędziem w naszych próbach oszacowania szans istnienia życia gdzie indziej we wszechświecie. Jest bardzo prawdopodobne, że cząsteczka DNA powstała jako rezultat skomplikowanego układu nieliniowych równań określających tempo reakcji chemicznych - w obecności katalizatorów - w bogatym roztworze wody, metanu, dwutlenku węgla, fosforu, azotu i innych składników, przy właściwej temperaturze, we właściwym czasie i w sprzyjających warunkach. Mając dokładny układ równań i ich chaotycznych oddziaływań, znając dokładnie warunki na jakiejś pozasłonecznej planecie, moglibyśmy stwierdzić, czy istnieje na niej życie. Nie dysponujemy niestety tak dokładną wiedzą, lecz możemy zastosować podejście probabilistyczne, potężne narzędzie do traktowania niepewności we wszystkich sytuacjach. Jeżeli poczynimy właściwe założenia i użyjemy ich we właściwy sposób do skonstruowania modelu probabilistycznego, to powinniśmy otrzymać dobry wynik. Informacja o planach zakupu firmy przez bogatych inwestorów zwiększa prawdopodobieństwo, że jej akcje pójdą w górę - oto przykład rozsądnego założenia w ramach modelu probabilistycznego.
Argumenty statystyczne działają równie dobrze w konstruowaniu modeli probabilistycznych. Jeżeli znamy statystyczny rozkład wzrostu pewnej grupy ludzi, to możemy - mimo że nie znamy wzrostu losowo wybranego osobnika, a więc jesteśmy w stanie ignorancji - dokładnie obliczyć prawdopodobieństwo, że jego wzrost mieści się w określonym przedziale wartości. W taki sposób wiedza (o całej populacji) może być użyta do oszacowania czegoś, o czym nic nie wiemy (o pojedynczym osobniku). Jeżeli na temat dziewięciu nowo odkrytych pozasłonecznych planet wiadomo, że jedna z nich okrąża swoją gwiazdę w strefie zamieszkiwalnej - w której woda pozostaje w stanie ciekłym - to szansa na to, że jakaś inna planeta trafi do strefy zamieszkiwalnej, może zostać oszacowana jako 1/9. Nie znamy wprawdzie statystycznego rozkładu dla wszystkich planet we wszechświecie, lecz wiedza, którą czerpiemy z naszej bardzo ograniczonej próbki, powinna nadal dać nam przybliżoną wartość tego parametru.
Fizycy od kilkudziesięciu lat próbują stwierdzić, czy chaos odgrywa jakąś rolę w teorii kwantowej. Czy są tam małe kwantowe „wahadła”, które przechodzą w tryb chaotyczny, gdy siła wymuszająca osiągnie pewien graniczny poziom, podobnie jak to się dzieje w większych, niekwantowych systemach? Pewne wyniki sugerują, że jakaś forma chaosu może istnieć w mikroświecie mechaniki kwantowej, lecz natura tego chaosu jest bardzo słaba. Nie pojawia się gwałtowny przeskok do chaosu, jaki często występuje w makroświecie. W świecie kwantów funkcja falowa wydaje się rządzić niepodzielnie i kierować większością ruchów małych cząstek. Wydaje się, że nie sposób wyrwać się z silnych kleszczy teorii prawdopodobieństwa, przypadku i szansy. Rozwiązania równań kwantowych istnieją w formie rozkładów prawdopodobieństwa - a nie dokładnych stwierdzeń - aczkolwiek może to tylko oznaczać, że nie potrafimy uniknąć naszej ignorancji na temat układów kwantowych. Położenie elektronu w określonym momencie czasu nadal nie może zostać dokładnie podane - dysponujemy tylko rozkładem prawdopodobieństwa. W świecie kwantów Bóg gra w kości. Jednak On zawsze zna wynik.
Rozdział 9
PARADOKS INSPEKCJI
Skoro zdecydowaliśmy, że - niezależnie od tego, czy wszechświat jest układem losowym, deterministycznym, czy też i jednym, i drugim - teoria prawdopodobieństwa może być użyta do modelowania zjawisk, o których nasza wiedza jest ograniczona lub zgoła żadna, to możemy rozważać modele probabilistyczne rozwiązania problemu istnienia życia gdzie indziej we wszechświecie. Prawdopodobieństwo jest ściśle związane ze statystyką - nauką o informacji.
W dzisiejszych czasach wszyscy jesteśmy codziennie bombardowani przez statystyki. Telewizja, radio, gazety, czasopisma nieustannie bombardują nas taką ilością liczb, że stajemy się na nie głusi i tracimy wyczucie, jakiego rodzaju informację owe liczby niosą. Statystyki niekiedy stają się mylące, gdy jeden wskaźnik ekonomiczny sugeruje wzrost, a inny - stagnację. Ludzie, których uważamy za „ekspertów”, często nie mają pojęcia, jak należy te liczby interpretować, co nie powstrzymuje ich od wygłaszania swoich opinii. We współczesnej ekonomii bywają liczby tak duże, że często nie potrafimy ocenić ich wielkości. Gdy słyszymy, że ktoś jest wart 30 miliardów dolarów, słowo „miliard” w jakiś sposób oznacza dla nas mniej, niż powinno. Miliard jest bardzo dużą, olbrzymią liczbą, lecz inflacja liczb w mediach powoduje, że koncepcje astronomiczne niewiele znaczą dla opinii publicznej. Nasza Galaktyka liczy około 300 miliardów gwiazd. To jest wiele, bardzo wiele gwiazd. Nawet gdybyśmy mogli zobaczyć każdą z nich, nie potrafilibyśmy ich policzyć, gdyż licząc jedną gwiazdę na sekundę i nie robiąc przerw - zliczenie wszystkich gwiazd Drogi Mlecznej zajęłoby nam 10 000 lat.
A Droga Mleczna jest tylko jedną z wielu miliardów galaktyk w znanym nam wszechświecie. Liczba gwiazd we wszechświecie przekracza wszystko, co potrafimy sobie wyobrazić. Fakt, iż federalny deficyt budżetowy był niegdyś tak duży, że do jego obliczania używano równie wielkich liczb, nie powinien przysłaniać nam rzeczywistych rozmiarów wszechświata. Gdy będziemy poszukiwać życia w kosmosie, musimy pamiętać, jak wiele miejsc trzeba przeszukać. A odległości między gwiazdami są równie zatrważające jak liczba gwiazd. Najbliższa gwiazda, Proxima Centauri, znajduje się w odległości 25 bilionów mil (40 bilionów kilometrów) od nas. Statek kosmiczny poruszający się z prędkością 30 000 mil na godzinę (48 000 kilometrów na godzinę), potrzebowałby prawie 10 000 lat, aby do niej dotrzeć.
Inflacja liczb nie jest jednak jedynym problemem w zrozumieniu statystyki przez ogół społeczeństwa. Oszukiwanie za pomocą statystyki - aczkolwiek nie zawsze zamierzone - zdarza się codziennie, zarówno w mediach, jak i gdzie indziej. Często nie rozumiemy tego, co liczby próbują nam powiedzieć. Najpowszechniejszą formą „oszustwa za pomocą statystyki” są wielkości nieprawidłowo przedstawiane na wykresach. W wielu wypadkach nie jest łatwo zdecydować, jaka powinna być skala na obu osiach wykresu.
Aby rozumieć liczby i statystykę oraz umieć wyciągać z nich wnioski, trzeba znać dwa pojęcia: wartość średnią i odchylenie standardowe. Wartość średnia stanowi miarę centralności rozkładu statystycznego: jest to średnia dla całej rozważanej populacji. Jeżeli rozkład jest rozkładem prawdopodobieństwa, a nie rozkładem częstości statystycznych, to średnia reprezentuje wartość oczekiwaną odpowiedniej wielkości losowej. Jest to wartość, która powstałaby po uśrednieniu dużej liczby losowych realizacji z danego rozkładu prawdopodobieństwa. W przypadku giełdy wartość oczekiwana byłaby równa oczekiwanej (spodziewanej) wartości akcji, czyli wartości uśrednionej po wielu potencjalnych realizacjach dzisiejszych warunków giełdowych. Dla wspomnianego w poprzednim rozdziale rozkładu normalnego (Gaussa) wartość średnia rozkładu znajduje się dokładnie na środku krzywej dzwonowej.
Odchylenie standardowe rozkładu jest miarą szerokości rozkładu statystycznego lub rozkładu prawdopodobieństwa. Im szersza krzywa, tym bardziej zmienne lub niepewne stają się możliwe wartości danej wielkości losowej. W przypadku giełdy, szersza krzywa rozkładu zysków oznacza bardziej ryzykowny rynek.
Wartość średnia, oczekiwana wartość wielkości losowej, stanowi najważniejszy parametr statystyczny, który jednak w wielu sytuacjach może się okazać zdradliwy. Po pierwsze, wartość średnia jest bardzo czuła na obecność błędów grubych (tak zwanych skrajnych danych obserwacyjnych). Oto zestawienie jasności dla próbki dziesięciu gwiazd: 2,3; 2,5; 2,1; 3,0; 2,8; 2,9; 2,8; 2,6; 2,3; 7,1. Średnia wartość jasności dla tej próbki wynosi 3,04. Na skutek obecności wartości skrajnej - nietypowej danej, różniącej się znacznie od pozostałych, 7,1 - średnia wartość została przesunięta poza obszar zajęty przez pozostałe dziewięć wyników obserwacji. Gdyby nie było wartości skrajnej, średnia wyniosłaby 2,59, co byłoby bardziej reprezentatywną wartością dla całego zestawu danych, z pominięciem skrajnej. W tego rodzaju sytuacjach powstaje potrzeba użycia alternatywnej statystyki, tak zwanej mediany. Mediana jest wartością położoną w środku zbioru danych, mniej czułą na obecność błędów grubych. W powyższym przypadku mediana wynosiłaby 2,7.
Zadziwiającą konsekwencją użycia średniej jest tak zwany paradoks inspekcji. Jedno z praw Murphy'ego mówi, że jeżeli coś może się zepsuć, to prędzej czy później się zepsuje. Źródłem tej pesymistycznej maksymy są prawdopodobnie codzienne doświadczenia. Przypuśćmy, że mieszkasz w mieście i jeździsz do pracy autobusem. Z rozkładu jazdy wiadomo, że autobus zatrzymuje się na przystanku średnio co 10 minut, więc dochodzisz do wniosku, że jeżeli pójdziesz na przystanek w losowo wybranym momencie, to - średnio rzecz biorąc - będziesz czekać na autobus około 5 minut. Między kolejnymi autobusami upływa średnio 10 minut, powinieneś trafić na przystanek - średnio rzecz biorąc - w połowie między dwoma autobusami, więc średni czas twojego oczekiwania powinien wynieść 5 minut. Z doświadczenia wiadomo jednak, że tak nie jest - wydaje ci się, że zwykle czekasz dłużej. Dlaczego tak się dzieje? Czy pesymizm Murphy'ego jest zawsze uzasadniony?
Fakt, że powinieneś oczekiwać dłużej niż połowę średniego czasu między autobusami, jest absolutnie prawdziwy. Stanowi on manifestację paradoksu inspekcji i może być udowodniony matematycznie. Nie oznacza to bynajmniej, że pesymistyczne poglądy Murphy'ego są zawsze uzasadnione, gdyż paradoks inspekcji równie często działa na twoją korzyść. Przypuśćmy, że producent baterii w twojej latarce gwarantuje, że przeciętny czas jej działania wynosi 3,5 godziny. Ty jednak używałeś tej latarki dłużej niż 3,5 godziny, z tą samą baterią i wiesz, że ona nadal działa. Bateria w twojej latarce będzie działać dłużej niż przeciętna bateria. To jest także prawdziwy fakt - manifestacja paradoksu inspekcji - który można udowodnić matematycznie. Gdy jedziesz do pracy, czekasz na autobus dłużej niż „średnio”. Gdy kupujesz baterię, będzie ona działać dłużej niż przeciętna bateria.
Próba zrozumienia paradoksu inspekcji jest ćwiczeniem z teorii prawdopodobieństwa, a zarazem rzuca nieco światła na problem istnienia życia pozaziemskiego. Przypuśćmy, że w tej chwili idziemy na przystanek autobusu. Na skutek działania paradoksu inspekcji (oraz prawa Murphy'ego i ciągłego pecha) będziemy zapewne czekać dłużej niż wynosi średni czas oczekiwania. Zobaczmy, dlaczego tak musi być. Autobusy pojawiają się losowo na przystanku i średni czas między jednym a drugim wynosi 10 minut. Oznacza to, że między kolejnymi autobusami niekiedy upływa mniej, a niekiedy więcej niż 10 minut. Poniższy rysunek przedstawia przykładowy wykres czasów odjazdów autobusów. Literą x oznaczono czas odjazdu. Zwróćmy uwagę, że niektóre odstępy między kolejnymi autobusami są długie (dłuższe niż średni czas 10 minut), a inne krótkie (krótsze niż średni czas 10 minut).
Wyobraźmy sobie teraz, że (losowy) czas twojego przybycia na przystanek zostanie wyznaczony przez rzut strzałką do tarczy, z tą różnicą, że tarcza jest jednowymiarowa - jest nią linia prosta, będąca osią czasu na powyższym rysunku. Przybywasz w przypadkowym momencie czasu, czyli w losowo wybranym punkcie na osi czasu. To podstawowa kwestia, gdyż zjawiskami losowymi rządzą prawa prawdopodobieństwa. Co mówią prawa prawdopodobieństwa na temat twojego momentu przybycia na przystanek, reprezentowanego przez punkt na osi czasu? Mówią, że prawdopodobieństwo twojego pojawienia się na przystanku w długim odcinku jest większe niż w krótkim. Dlaczego? Ponieważ długi odcinek czasu daje ci więcej możliwości - więcej chwil, w których możesz się zjawić - niż krótki. Zakładając równe prawdopodobieństwa wszystkich pododcinków czasu, masz większe szanse, że ktoś do ciebie zatelefonuje w ciągu godziny niż w ciągu minuty. Jeżeli ktoś losowo zatelefonuje do ciebie wieczorem, to ma większe szanse zastać cię w domu, gdy czekasz na telefon między godziną 19 a 20, niż między 19.23 a 19.24. Wróćmy jednak do oczekiwania na autobus. Gdy udajesz się na przystanek, masz większe szanse, że trafisz na długi odcinek czasu między autobusami, więc twój czas oczekiwania na autobus będzie dłuższy niż średnia. Na tym właśnie polega paradoks. Na pierwszy rzut oka wydaje się, że powinieneś z jednakowym prawdopodobieństwem trafić na przystanek zarówno w długim odcinku, jak i w krótkim, a zatem twój średni czas oczekiwania powinien być równy połowie średniego odcinka między autobusami. W rzeczywistości jednak wybierając losowo moment przybycia na przystanek, masz większe szanse trafienia na długi odcinek, więc musisz się spodziewać, że będziesz czekał dłużej, niż wynosi średni czas oczekiwania.
Ta sama argumentacja pracuje jednak i w dobrą stronę: bateria w twojej latarce działa dłużej niż przeciętna bateria. Wymiany baterii w twojej latarce odpowiadają odjazdom autobusów z przystanku. Gdy włączasz latarkę, wybierasz losowo moment na osi czasu, podobnie jak moment przybycia na przystanek autobusowy. Jest bardziej prawdopodobne, że losowy moment włączenia latarki zdarzy się w długim odcinku czasu między kolejnymi wymianami baterii, niż w krótkim, więc bateria w twojej latarce - średnio rzecz biorąc - powinna działać dłużej niż bateria przeciętna.
Za paradoksem inspekcji kryje się prosty fakt, że rozkład, który rozpoczął już swoje życie, trwa dłużej niż przeciętne rozkłady życia. Gdybyś zjawiał się na przystanku, czekał na autobus, pozwalał mu odjechać, a następnie mierzył czas od tego momentu do przybycia kolejnego autobusu, to możesz spodziewać się, że - średnio rzecz biorąc - zmierzony czas będzie równy średniej długości odcinka czasu między autobusami. W tej sytuacji paradoks inspekcji nie działa, ponieważ rozkład odcinków zaczyna się od początku (poprzedni autobus właśnie odjechał). Tym razem nie zjawiasz się na przystanku w czasie trwania rozkładu, który już rozpoczął swoje życie - tak jak w poprzednio opisanej sytuacji, gdy przybywałeś już po odjeździe poprzedniego autobusu. Fakt, że rozkłady, które już rozpoczęły swoje życie, żyją dłużej niż wynosi średnia (paradoks inspekcji), ma swoje konsekwencje w badaniach długowieczności. Osoba już żyjąca ma dłuższy oczekiwany czas życia, niż ktoś, kto jeszcze się nie narodził. Trzydziestolatek nie może już umrzeć w dzieciństwie, a właściwie nie może umrzeć w młodszym wieku niż 30 lat, więc ma większe szanse na dłuższe życie niż noworodek, który nadal może umrzeć w młodości. Osiemdziesięciosześcioletnia kobieta nie może umrzeć w młodszym wieku niż 86 lat, więc jej oczekiwany (czyli średni) wiek w chwili śmierci jest dłuższy niż w przypadku przeciętnej kobiety.
Paradoks inspekcji stał się ostatnio przyczyną wpadki izraelskiego biura statystycznego. Z opublikowanych w 1994 roku danych statystycznych wynika, że Japonia jest światowym liderem pod względem długości życia mieszkańców. Na drugim miejscu uplasował się Izrael, gdzie średnia długość życia mężczyzn wyniosła 75,1 roku. Podczas gdy cały kraj entuzjastycznie celebrował dobre wieści, nikomu nie przyszło do głowy, że radosna interpretacja danych statystycznych pomija pewien mały, ale istotny problem. Statystyczna długość życia jest nieco myląca w kraju, gdzie znaczną część populacji stanowią imigranci. Oczekiwana długość życia żyjącej osoby jest większa niż jeszcze nie narodzonej, a do Izraela wyemigrowało wielu starych ludzi z innych krajów - jeszcze bardziej zwiększając średnią długość życia jego mieszkańców - więc statystyka jest obarczona systematycznym błędem i w rezultacie przecenia rzeczywistą długowieczność osób urodzonych w Izraelu.
Co paradoks inspekcji ma wspólnego z kwestią życia pozaziemskiego? Wróćmy ponownie do przykładu z autobusem. Wybierasz losowo moment wyjścia z domu i idziesz na przystanek. Masz większą szansę, że trafisz na długi odcinek między kolejnymi autobusami, więc twój spodziewany czas oczekiwania na autobus jest dłuższy od średniego. Pojawiając się losowo na przystanku, na ogół „łapiesz” długi odcinek. Im dłuższy odcinek, tym większa szansa, że na niego trafisz.
Przypuśćmy teraz, że w przestrzeni kosmicznej istnieją inne kultury, żyjące na innych planetach. Niektóre są zaawansowane, inne pierwotne, niektóre inteligentne, inne prymitywne. Niektóre z tych siedlisk istot pozaziemskich istnieją dopiero 100 milionów lat i obecnie znajdują się tam tylko proste formy życia. Inne istnieją od 4 miliardów lat i wyewoluowały tam cywilizacje podobne do naszej. W kategoriach długości istnienia niektóre z nich trwają długo, inne krótko. Pomyślmy teraz o tobie, o twoich narodzinach - o początku twojego życia. Wyobraźmy sobie, że Bóg gra w kości i że obowiązują proste reguły prawdopodobieństwa. Bóg cię stworzył i wysyła cię losowo - zgodnie z regułami prawdopodobieństwa - na jedną z tych planet. Dokąd zostaniesz wysłany?
Wyobraźmy sobie cywilizacje jako odcinki, których długości odpowiadają czasom ich istnienia:
Masz większe szanse, że trafisz do dłużej istniejącej cywilizacji, niż do takiej, która istnieje od niedawna. Podobnie jak pasażer oczekujący na autobus, raczej wylądujesz na długim odcinku niż na krótkim. W naszych rozważaniach trzeba uwzględnić jeszcze jeden czynnik, który sięga znacznie dalej niż prosty paradoks inspekcji. Gdybyś wylądował w młodym świecie, gdzie istnieją wyłącznie bakterie, byłbyś bakterią. A bakteria nie interesuje się prawdopodobieństwem istnienia życia we wszechświecie. Sam fakt, że jesteśmy zaawansowaną i inteligentną cywilizacją, tworzy inspekcyjny błąd systematyczny. Dokonujemy inspekcji naszej własnej cywilizacji, lecz nasza zdolność do inspekcji nas samych stanowi rezultat faktu, że istniejemy na tej planecie dostatecznie długo, aby rozwinęła się na niej inteligencja zdolna do zadawania tego rodzaju pytań. Warunkowe prawdopodobieństwo, że istniejemy dłużej niż inne cywilizacje - warunek stanowi informacja, że jesteśmy dostatecznie zaawansowani, aby rozumować i zastanawiać się nad życiem i wszechświatem - jest wysokie.
Zestawiając te fakty z paradoksem inspekcji, widzimy, że jeżeli twoje pojawienie się na Ziemi jest traktowane jako zdarzenie losowe, to masz większe szanse pojawienia się na długo żyjącej planecie niż na niedawno powstałej, na podobnej zasadzie jak strzałka, która ma większe szanse trafienia w większą sekcję tarczy.
Na skutek działania paradoksu inspekcji, średnio rzecz biorąc, trafiamy w środek odcinka, a długość trafionego odcinka jest większa od średniego. Astronomowie mówią, że dokładnie tak stało się z naszym pojawieniem się w Układzie Słonecznym. Oczekiwana długość życia Słońca jest większa od średniej długości życia gwiazd. Niektóre gwiazdy, te o większej masie, żyją miliony lat i spalają się szybko, zanim życie może się rozwinąć. Inne, takie jak Słońce, żyją miliardy lat, gdyż nie palą się zbyt jasno i zbyt szybko ze względu na mniejszą masę. Oczekiwany czas życia Słońca wynosi nieco powyżej 10 miliardów lat, a my trafiliśmy w sam środek tego dłuższego od średniego odcinka: Słońce istnieje już około 5 miliardów lat i powinno żyć jeszcze 5 miliardów. Jest bardzo prawdopodobne, że w skali cywilizacji galaktycznych znajdujemy się powyżej średniego poziomu rozwoju, a możliwe, że całkiem wysoko, wśród najbardziej zaawansowanych. Nie zapominajmy także o innych czynnikach. We wczesnym wszechświecie nie było dostatecznie dużej chemicznej różnorodności niezbędnej do powstania życia. Wiele gwiazd musiało przeżyć swoje życie i eksplodować jako supernowe lub odrzucić bogate w pierwiastki chemiczne atmosfery, zanim z pierwotnego gazu i pyłu powstał protoplanetarny dysk dostatecznie bogaty i chemicznie zróżnicowany, aby zrodzić życiodajną planetę, taką jak Ziemia. Taki proces wymaga czasu liczonego w miliardach lat. Nasz Układ Słoneczny liczy 5 miliardów lat, a wszechświat - w takiej formie, w jakiej go znamy - 14 miliardów, więc nie można wykluczyć, że jesteśmy jedną z najbardziej zaawansowanych cywilizacji we wszechświecie.
Wydaje się, że astronomowie i członkowie zespołu SETI dobrze zdają sobie sprawę z konsekwencji paradoksu inspekcji, nawet jeżeli nie do końca rozumieją stojącą za nim teorię. Nie poszukują planet wokół młodych, jasnych gwiazd, takich jak Syriusz, które palą się znacznie szybciej niż Słońce i inne mniejsze gwiazdy. Naukowcy ci intuicyjnie zgadują, że życie nie miałoby szans rozwoju na planecie, która istnieje zaledwie miliony lat.
Zajmijmy się teraz głębszymi konsekwencjami paradoksu inspekcji dla kwestii istnienia życia na Ziemi. Jesteśmy tutaj, ponieważ potrzebowaliśmy dużo czasu, aby stać się tym, kim jesteśmy - zaawansowanymi istotami o wysokiej inteligencji. Podobnie jak osiemdziesięcioletnia kobieta, która nie może już umrzeć w wieku 70 lat i której oczekiwana długość życia jest znacznie większa niż przeciętna, nie możemy już być naczelnymi, jaszczurkami lub algami. Ziemia potrzebowała 1,5 miliarda lat, zanim życie mogło w ogóle się zacząć. Niektórzy naukowcy sądzą, iż trwało to tak długo, ponieważ DNA jest tak złożoną cząsteczką, że potrzebna była olbrzymia liczba losowych prób, zanim przypadkowe fluktuacje doprowadziły do jej powstania. Przyczyną może być także fakt, że wczesna Ziemia nie miała sprzyjających życiu warunków. Szalona aktywność geologiczna - trzęsienia ziemi i wulkany, które wypełniały atmosferę pyłem, uniemożliwiały światłu dotarcie do powierzchni i przeszkadzały w stabilizowaniu się temperatury - oraz kolizje z asteroidami i kometami w nowo powstałym Układzie Słonecznym, pełnym chaotycznie poruszających się obiektów, mogły uniemożliwiać powstanie życia przez ponad miliard lat. Niższe formy życia istnieją na Ziemi od 3,5 miliarda lat, wczesne zwierzęta od 700 milionów lat, zwierzęta lądowe od 400 milionów, ssaki od 200 milionów, pierwsze naczelne od 100 milionów lat. Goryl pojawił się 10 milionów lat temu, australopitek - 2 miliony lat temu, Homo habilis 1,5 miliona lat temu, neandertalczyk - 150 000 lat temu, a Homo sapiens istnieje mniej niż 0,5 miliona lat.
Wiek naszej planety przypomina wiek osoby, której życie zaczęło się dawno temu. Słońce jest gwiazdą o średnim czasie trwania, a połowa jego życia jest jeszcze przed nim. Ziemia prawdopodobnie znajduje się w podobnej sytuacji. Jednak w jednym i w drugim przypadku - dzięki paradoksowi inspekcji - oczekiwany czas życia jest większy od średniego. Dlatego życie na innych planetach prawdopodobnie znajduje się we wcześniejszej fazie rozwoju niż u nas, co może wytłumaczyć fakt, że nie zalały nas oznaki życia spoza naszego Układu Słonecznego. Zestawienie na stronie 152 ilustruje ewolucję życia na Ziemi, obrazując odcinek czasu, w którym istniejemy - oczekiwaną połowę całkowitego czasu istnienia Układu Słonecznego - przypuszczalnie dłuższy niż okresy życia innych cywilizacji.
Wymienione wyżej argumenty probabilistyczne rozwiązują jedną istotną kwestię: skoro istnieją liczne cywilizacje pozaziemskie, to dlaczego dotychczas nie skomunikowały się z nami? Pytanie to często zadawano członkom zespołu SETI. Odpowiedź jest jasna: Zakładając, że inne cywilizacje są obecne w naszej Galaktyce, istnieje duże prawdopodobieństwo, że jesteśmy jedną z pierwszych, które osiągnęły tak wysoki poziom rozwoju. Na podstawie paradoksu inspekcji możemy wnioskować, że prawdopodobnie jesteśmy bardziej zaawansowani niż większość innych cywilizacji we wszechświecie. Nasuwa się poza tym pytanie, dlaczego inni mieliby kontaktować się z nami akurat za pośrednictwem fal radiowych. Być może fale radiowe nie stanowią preferencyjnego środka komunikacji u innych cywilizacji. Rozwój telewizji kablowej i sieci światłowodowych znacznie osłabił zapał zespołu SETI. Jeżeli tak wygląda przyszłość naszej komunikacji i jeżeli inne cywilizacje odkryły lub odkryją, że środki te są znacznie lepsze niż pozbawione umiaru rozsiewanie wszędzie dookoła fal radiowych, to nasze szanse na kontakt radiowy staną się niewielkie. Być może nie powinniśmy skupiać całego wysiłku na próbach uzyskania kontaktu radiowego. Olbrzymie opóźnienia czasowe, nieodłączne w tego typu „komunikacji” nawet z najbliżej położonymi gwiazdami (przynajmniej 4,25 roku wiadomość podróżowałaby w jedną stronę), czynią z fal radiowych mało praktyczny środek łączności.
Paradoks inspekcji tłumaczy więcej niż prawdopodobne przyczyny, dla których znajdujemy się zapewne wśród najbardziej zaawansowanych cywilizacji we wszechświecie (zakładając, że w ogóle istnieją inne cywilizacje), dzięki czemu nie słyszymy sygnałów od innych kultur, ani też nie staliśmy się niewolnikami intergalaktycznych najeźdźców, którzy przekroczyli nasz poziom rozwoju eony temu i podbili nas. Pokazuje również, że intuicja nie zawsze dobrze działa w problemach probabilistycznych. W następnych dwóch rozdziałach poznamy więcej sprzecznych z intuicją faktów z teorii prawdopodobieństwa oraz zobaczymy, że ta potężna teoria pozwala obliczyć prawdopodobieństwo istnienia życia gdzie indziej w kosmosie.
Rozdział 10
PROBLEM URODZIN
Paradoks inspekcji nie jest jedynym przykładem z dziedziny prawdopodobieństwa, w którym intuicja prowadzi nas na manowce. W procesie rozwiązania łączącego się z nim zagadnienia probabilistycznego matematycy muszą zbudować stosowny model, który obejmuje zasadnicze elementy problemu. Model pomaga stworzyć myślowy obraz problemu, zrozumieć jego istotę i ułatwia znalezienie rozwiązania.
W rozwiązywaniu problemów probabilistycznych dużymi sukcesami cieszą się modele urnowe, pozwalające zobrazować koncepcję łączenia w pary (tzw. matching), które odgrywa ważną rolę w wielu zagadnieniach probabilistycznych. Problem urodzin stanowi najsłynniejsze zagadnienie probabilistyczne, do którego rozwiązania może zostać użyty model urnowy. Rozwiązanie to okazuje się całkiem nieoczekiwane.
Jakie jest prawdopodobieństwo, że w grupie ludzi zgromadzonych w jednym pokoju znajdują się przynajmniej dwie osoby, które w tym samym dniu obchodzą urodziny? Od razu widać, że odpowiedź zależy od liczby osób. Jeżeli jest ich 367, to prawdopodobieństwo zaistnienia przynajmniej jednej koincydencji wynosi 1,00, czyli 100%. Rozwiązanie to uwzględnia rok przestępny, czyli fakt, że liczba możliwych dat wynosi 366 (365 dni w roku zwykłym + 29 lutego w roku przestępnym). Wyobraźmy sobie te 366 dni jako szereg otwartych od góry przegródek, a ludzi jako małe, spadające z góry kulki. Każda kulka losowo wybiera jedną przegródkę i wpada do środka. Przy liczbie kulek równej 367, nawet jeżeli każda z nich trafi do pustej przegródki (jak wkrótce zobaczymy, jest to niezwykle rzadkie zdarzenie), trzysta sześćdziesiąta siódma będzie musiała wpaść do przegródki zajętej uprzednio przez inną kulkę. Zatem wśród 367 osób muszą znaleźć się przynajmniej dwie o tej samej dacie urodzin, czyli prawdopodobieństwo takiego zdarzenia wynosi 100%.
Prawdopodobieństwa rosną jednak znacznie szybciej niż liniowo. Przypuśćmy, że ludzie wchodzą pojedynczo do pokoju i każdy podaje swoją datę urodzin. Proces ten dokładnie odpowiada spadającym kulkom, po kolei i losowo trafiającym do przegródek. Dla prostoty zignorujmy rok przestępny i załóżmy, że mamy 365 dni. Spadające kulki pozornie celują w środek szeregu przegródek, lecz należy pamiętać, że w tym modelu ich docelowe miejsca trafienia są losowe i jednakowo rozłożone na wszystkie 365 przegródek. Odpowiada to sytuacji, w której każdy dzień roku, od 1.01 do 31.12, ma jednakową szansę złapania kulki. Jednak prawdopodobieństwo, że każda przegródka otrzyma jedną kulkę, jest niezwykle małe, natomiast szansa na match, czyli na spotkanie dwóch kulek w jednej przegródce, staje się całkiem wysoka dosyć wcześnie w trakcie procesu spadania kolejnych kulek.
Okazuje się, że przy 23 osobach w pokoju szansa na przynajmniej jedne wspólne urodziny wynosi ponad 50%! Przy 56 osobach szansa ta rośnie do 99%! Już przy 10 osobach szansa wynosi 12%, czyli przy zaledwie 10 kulkach wpadających losowo do szeregu 365 przegródek prawdopodobieństwo, że każda z 10 kulek zajmie osobną przegródkę, jest równa zaledwie 88% (ponieważ pozostałe 12% obejmują wszystkie zdarzenia, w których co najmniej dwie kulki trafią do wspólnej przegródki).
Zbadajmy matematyczną stronę tego procesu. Pierwsza kulka ma do wyboru 365 przegródek. Druga kulka, aby nie spotkać się z pierwszą, musi trafić do jednej z pozostałych 364 przegródek, więc prawdopodobieństwo, że ominie przegródkę zajętą przez pierwszą kulkę, wynosi 364η· 365, Jeżeli trzecia kulka ma ominąć przegródki zajęte przez pierwszą i drugą, to musi trafić do jednej z pozostałych 363 spośród całkowitej liczby 365 przegródek. Proces trwa dalej, aż wszystkie kulki wpadną do przegródek. Jeżeli jest ich 23 (23 osoby w pokoju), to jakie jest prawdopodobieństwo, że żadne dwie z nich nie trafiły do tej samej przegródki (czyli wszystkie 23 osoby mają urodziny w różne dni)? Musimy pomnożyć prawdopodobieństwa dla wszystkich kulek, ponieważ chodzi nam o łączne prawdopodobieństwo (kulka 2 w innej przegródce niż kulka 1 oraz kulka 3 w innej przegródce niż pierwsze dwie itd.). Otrzymujemy: prawdopodobieństwo, że 23 kulki zajmują 23 różne przegródki = (365η· 365)( 364η· 365)( 363η· 365) ... ( 343η· 365) = 0.4927
Wynik ten łatwo sprawdzić za pomocą zwykłego kalkulatora. Natomiast prawdopodobieństwo przynajmniej jednych wspólnych urodzin jest równe jeden minus prawdopodobieństwo, że wszystkie urodziny są w różne dni (wszystkie kulki znajdują się w różnych przegródkach). Odejmujemy powyższy wynik od jedności, ponieważ prawdopodobieństwa zdarzeń przeciwnych sumują się do 1. Jeżeli na przykład prawdopodobieństwo deszczu wynosi 30%, to prawdopodobieństwo, że nie będzie padać, wynosi 70% (0,7 = 1 - 0,3). Zatem prawdopodobieństwo przynajmniej jednych wspólnych urodzin wśród 23 osób wynosi: 1 - 0,4927 = 0,5073, czyli nieco więcej niż 50%.
Wynik ten jest zaskakujący, ponieważ intuicyjnie nie spodziewamy się, aby prawdopodobieństwo spotkania przynajmniej dwóch kulek było tak wysokie, gdy nadal tak wiele przegródek pozostaje pustych. Jednak już przy 23 kulkach szansa na dwie w jednej przegródce przekracza 50%. Teoria prawdopodobieństwa i intuicja nie zawsze chadzają tymi samymi drogami. Matematyka zawsze wygrywa, zostawiając intuicję i zdrowy rozsądek na straconej pozycji.
Przykład z kulkami w urnie pomoże nam także w próbach oszacowania prawdopodobieństwa, że nie jesteśmy sami w kosmosie. Zanim przejdziemy do tego zagadnienia, zajmijmy się innym wariantem koncepcji kulek w urnie, w którym kulki spadają w kierunku środka szeregu przegródek, z malejącym prawdopodobieństwem trafienia daleko od środka. W dziale matematycznym Museum of Science [Muzeum Nauki] w Bostonie znajduje się osłonięty szkłem układ - szereg przegródek, do których kulki wpadają od góry, lecz na każdym poziomie na drodze w kierunku przegródek natrafiają na szereg kołków. Gdy kulka napotyka kołek, może skręcić albo w lewo, albo w prawo, a ponieważ trafia prosto w niego, na każdym poziomie ma 50% szans skrętu w lewo i 50% szans, że skręci w prawo. W miarę jak kulki spadają w dół i lądują w przegródkach, pojawia się charakterystyczny wzór: krzywa normalna Gaussa. W pobliżu środka wylądowały te kulki, które mniej więcej tyle samo razy skręciły w lewo, ile w prawo. Im bardziej w prawo, tym mniej kulek, ponieważ trafiły tam te kulki, które po drodze w dół częściej skręcały w prawo niż w lewo, a prawdopodobieństwo, że dana kulka częściej skręcała w prawo niż w lewo jest tym mniejsze, im dalej w prawo. Podobnie działo się po lewej stronie. Końcowy rezultat demonstruje działanie centralnego twierdzenia granicznego. Jest to prawo średnich. Średnio rzecz biorąc, w środku ląduje wiele kulek. Im dalej od środka układu przegródek, tym mniej kulek. Układ kulek jest symetryczny - tyle samo po lewej i po prawej stronie - ponieważ 6 skrętów w lewo i 4 w prawo jest tak samo prawdopodobne, jak 6 skrętów w prawo i 4 w lewo. Poniższy rysunek przedstawia omówiony układ przegródek z Museum of Science w Bostonie.
Z naszego punktu widzenia interesujący jest fakt, że nawet rzadkie kombinacje (na przykład kulka skręcająca dziesięć razy w lewo i zero w prawo) od czasu do czasu się zdarzają. Upewnia nas w tym (w granicy, gdy liczba kołków dąży do nieskończoności) krzywa rozkładu normalnego. Z praw prawdopodobieństwa wynika bowiem, że istnieje niezerowa szansa na dowolnie daleko w prawo lub w lewo położoną kulkę.
Rozważmy teraz problem istnienia życia gdzie indziej we wszechświecie. Wiemy już od astronomów, że poza Układem Słonecznym istnieją inne planety. Wiemy również, że niektóre z nich krążą wokół swoich gwiazd w strefie zamieszki walnej, więc życie mogło się na nich rozwinąć. Wiemy także, a naukowcy wiedzieli o tym od dziesiątków lat, że pierwiastki i związki chemiczne, które istnieją na Ziemi - łącznie ze złożonymi węglowodorami i aminokwasami - są również obecne w znanym nam wszechświecie. Nie wiemy natomiast, czy podstawowy składnik życia, cząsteczka DNA, istnieje poza Ziemią.
Rozważmy teraz konstrukcję cząsteczki DNA i załóżmy, że jest ona budowana sekwencyjnie. Przypuśćmy, że zaczynamy od dwutlenku węgla, metanu, tlenu, wodoru, fosforu i siarki - o wszystkich tych składnikach wiadomo, że istnieją wszędzie we wszechświecie. Załóżmy dalej, że na każdym etapie tworzone jest jedno wiązanie spośród setek wiązań chemicznych, które utrzymują gigantyczną cząsteczkę. Załóżmy, że istnieje pewne niewielkie prawdopodobieństwo, że wiązanie powstanie, gdy tworzące go pierwiastki są ze sobą wymieszane w jakimś naturalnym środowisku. Prawdopodobieństwa te - inne dla każdego rodzaju wiązania - mogą być dowolnie małe, lecz różne od zera. Powstanie jednego wiązania przypomina ruch małej kuleczki spadającej o jeden poziom w szklanym układzie demonstracyjnym w muzeum w Bostonie, z tą różnicą, że prawdopodobieństwo skrętu w prawo (na przy kład) jest bardzo małe, natomiast w lewo - bardzo duże. Jeżeli jednak spadnie bardzo dużo kulek, któraś z nich w końcu skręci w prawo. Dochodzimy wtedy do kolejnego poziomu - kolejnego wiązania chemicznego w powstającej cząsteczce DNA. W tym przypadku wiązanie powstanie, jeżeli kulka skręci w prawo. Także i teraz, nawet jeżeli prawdopodobieństwo skrętu w prawo jest bardzo małe, niektóre kulki skręcą w prawo. Przy dużej liczbie spadających kulek zawsze pewna ich część skręci w prawo - niezależnie od tego, jak małe jest prawdopodobieństwo skrętu w prawo w danym kroku.
Tak więc przy olbrzymiej liczbie prób (spadających kulek) - co oznacza olbrzymią liczbę kombinacji chemicznych zup na powierzchni pewnej planety krążącej w zamieszkiwalnej strefie pewnej gwiazdy, pogody, temperatury, ciśnienia i warunków katalitycznych - istnieje małe, lecz niezerowe prawdopodobieństwo powstania DNA. Dokładnie na tej samej zasadzie, gdy bardzo wiele kulek spada do szklanych przegródek, niektóre z nich w końcu trafią na sam koniec granicznego rozkładu normalnego. Skąd wiemy, że to się zdarzy? No cóż, cząsteczka DNA istnieje, więc jej konstrukcja jest możliwa. Pozostaje pytanie, jak często się to zdarza - jakie jest prawdopodobieństwo, że pojawi się gdzie indziej. Nasza odpowiedź na to pytanie jest następująca: Istnieje małe (nawet bardzo małe), lecz niezerowe prawdopodobieństwo, że zdarzy się to na określonej pozasłonecznej planecie, bogatej w pierwiastki chemiczne, o sprzyjającej temperaturze itd.
Przykład ze spadającymi kulkami jest nawet bardziej adekwatny do opisu tworzenia się wiązań chemicznych, niż mogłoby się na pierwszy rzut oka wydawać. Chemicy często wyobrażają sobie atomy jako małe okrągłe kulki, natomiast wiązania chemiczne - uwspólnianie elektronów między atomami - jako proste odcinki o określonej długości, łączące atomy pod określonymi kątami (120 stopni, 90 stopni itd). Wiązanie ma szanse powstania, gdy dwa atomy zderzą się pod określonym kątem. Z mechaniki statystycznej znamy prawdopodobieństwa takich reakcji (sklejania się dwóch kulek) przy określonej temperaturze, ciśnieniu i innych warunkach. A w mechanice statystycznej rozkład normalny jest kluczem do wszystkiego. Tempo reakcji, a zatem częstość formowania się dowolnego typu wiązania jest statystycznie określona dla dużego zbioru atomów bezpośrednio z krzywej normalnej.
Częstość zachodzenia danej reakcji w dużym zbiorze atomów jest dokładnie równa prawdopodobieństwu zajścia pojedynczej reakcji między dwoma atomami. Z mechaniki statystycznej: wiemy, że istnieją małe, lecz niezerowe prawdopodobieństwa powstania każdego złożonego wiązania. Gdy te małe kulki uderzają w siebie nawzajem (lub - w przykładzie ze szklanymi przegródkami; - w kołki), występują rozmaite prawdopodobieństwa tworzenia kolejnych wiązań, aż pojawi się kompletna cząsteczka DNA. W rzeczywistości problem jest nawet prostszy, ponieważ niektóre części składowe molekuły DNA istnieją jako niezależne cząsteczki. Na podstawie badań chondrytów węglistych wiemy, że nawet cząsteczki białek istnieją poza Ziemią. Jeżeli submolekuły - zasady: adenina, guanina, cytozyna i tymina, cząsteczka cukru oraz fosfaty, które tworzą rdzeń DNA - istnieją także poza Ziemią, to wszystko, czego potrzeba do utworzenia DNA, sprowadza się do zderzania tych submolekuł (zamiast dużej liczby pojedynczych atomów). Jeżeli warunki reakcji okażą się właściwe, to pojawi się DNA. Warunkowe prawdopodobieństwo zmaterializowania się DNA w kosmosie (przy warunku, że istnieją tworzące ją submolekuły) jest większe, jeżeli wiadomo, że molekuły owe rzeczywiście istnieją.
Zagadnienie tempa reakcji chemicznych jest silnie związane z teorią prawdopodobieństwa. Pierwsze pytanie, jakie pada w związku z badaniem określonej reakcji chemicznej, to, czy reakcja w ogóle może zajść. Czy produkty reakcji są stabilne? Odpowiedź na to pytanie zależy od termodynamiki. Czy układ poziomów energii umożliwia substratom utworzenie produktów reakcji? W przypadku DNA odpowiedź jest znana. Skoro związek chemiczny istnieje na Ziemi, wiemy z całą pewnością, że reakcje chemiczne, które prowadzą do powstania DNA, muszą być możliwe niezależnie od ich formy. To załatwia bardzo wiele, ponieważ jedyne pytanie, na jakie wciąż nie znamy odpowiedzi, dotyczy warunków, które są niezbędne do powstania produktu końcowego. Wiemy jednak, że i one muszą istnieć. Jakie zatem jest tempo reakcji?
Tempo reakcji chemicznych zależy od czynników statystycznych. Atomy i cząsteczki poruszają się względem siebie, a ich prędkości zależą bezpośrednio od temperatury. Gdy temperatura rośnie, wzrastają również prędkości. Poruszające się atomy i cząsteczki zderzają się ze sobą, a przy każdym zderzeniu istnieje szansa utworzenia wiązania chemicznego. Wiązanie może okazać się trwałe lub ponownie się rozpaść. Niektóre reakcje chemiczne są bardzo szybkie. Gdy kwas spotyka zasadę w roztworze wodnym, reakcja jest natychmiastowa: tworzy się sól. Inne reakcje, na przykład utlenianie żelaza i powstawanie rdzy, mogą trwać znacznie dłużej. Tempo reakcji chemicznej zależy od rozwiązania określonego równania różniczkowego. Równaniem, podobnie jak i samym procesem, rządzą prawa statystyki. Gdy dwa pierwiastki spotykają się w roztworze, a prawdopodobieństwo utworzenia wiązania chemicznego w wyniku ich zderzenia jest małe, tempo reakcji jest powolne. Potrzeba dużo czasu i wielu zderzeń, ponieważ za każdym razem tylko niewielka liczba zderzeń prowadzi do powstania wiązania (a prawdopodobieństwo powstania wiązania w wyniku pojedynczego zderzenia jest równe - w dużym, statystycznym systemie wielu atomów - częstości zderzeń, w wyniku których powstaje wiązanie). Gdy reakcja jest szybka, prawdopodobieństwo utworzenia wiązania w wyniku pojedynczego zderzenia jest duże, a zatem w określonym czasie powstaje wiele wiązań.
Reakcje niezbędne do utworzenia DNA są oczywiście możliwe, lecz - sądząc z naszych doświadczeń na Ziemi -- ich tempo może być bardzo, bardzo wolne. Niektóre reakcje potrzebują ułamka sekundy, inne kilku godzin, a jeszcze inne dni lub tygodni. Wystarczy uświadomić sobie, że rdza tworzy się niekiedy przez dziesiątki lat. Reakcje prowadzące do powstania DNA mogą trwać nawet miliardy lat. Tak długo mogły trwać zderzenia między coraz większymi submolekułami, z których składa się DNA. Większość z nich, podobnie jak skręcające w niewłaściwą stronę kulki, prowadziła donikąd, lecz raz na jakiś bardzo długi czas zdarzała się właściwa sekwencja zderzeń: kulki skręcały w mało prawdopodobnym kierunku, dając szansę zajścia rzadkiej reakcji. Prawdopodobieństwo i czas są ściśle związane, przez tempo reakcji chemicznych. Gdy prawdopodobieństwo jest bardzo małe (lecz niezerowe), bardzo duża liczba prób jest konieczna, aby odnieść sukces. Tak właśnie się stało, gdy DNA po raz pierwszy powstało na Ziemi. Reakcja trwała bardzo długo, ponieważ prawdopodobieństwo było bardzo małe. Nasze najlepsze oszacowanie czasu - niezbędnego, aby reakcja ta zaszła gdzieś w kosmosie - opiera się na tym, co wiemy z naszych własnych doświadczeń na Ziemi, gdzie trwało to około miliarda lat. Ocena ta zgadza się z przypuszczeniem, że prawdopodobnie jesteśmy wśród najbardziej zaawansowanych cywilizacji w naszej Galaktyce.
Powróćmy teraz do przykładu z kulkami, który posłużył do wyjaśnienia problemu urodzin, i rozważmy sytuację z innego punktu widzenia. Załóżmy, że każdy pierwiastek oraz każdy warunek - temperatura, ciśnienie, gęstość, obecność katalizatora itd. - reprezentuje mała kulka. Kulki te spadają losowo na otwarty układ przegródek, lecz tym razem środkowe przegródki nie są faworyzowane. Każda kulka ma jednakową szansę trafienia do którejkolwiek przegródki, podobnie jak w oryginalnym problemie urodzin. Zamiast 365 przegródek, tym razem mamy bardzo dużą liczbę, a każda z nich reprezentuje pozasłoneczną planetę krążącą w zamieszkiwalnej strefie swojej gwiazdy. Na podstawie odkryć łowców planet wiemy, że istnieje wiele takich planet w naszej Galaktyce i poza nią.
Za każdym razem, gdy kulka wpada do przegródki, jest spełniony jakiś warunek istnienia życia. Będą to gwiazdy z właściwym natężeniem pola grawitacyjnego, właściwe ciśnienie atmosferyczne, właściwa temperatura itd. Pozostałe kulki reprezentują pierwiastki i związki chemiczne niezbędne dla życia. Wiemy, że istnieją one tutaj, więc muszą mieć niezerowe prawdopodobieństwo istnienia gdzie indziej. Jedna z wpadających do przegródki kulek to dostateczna ilość węgla. Ten warunek prawdopodobnie łatwo spełnić, ponieważ wiemy, że węgla jest dość dużo we wszechświecie. Inna kulka to wodór, jeszcze inna to dostateczna ilość wody itd.
Na podstawie paradoksu urodzin wiemy, że jest niezwykle mało prawdopodobne, aby wszystkie kulki wpadły do różnych przegródek - czyli żeby sprzyjające życiu warunki zostały jednorodnie rozłożone na różnych planetach. Szansa na to, że wszystkie niezbędne rodzaje kulek trafią przynajmniej do niektórych spośród wielu przegródek, jest wysoka, dopóki dla każdego określonego warunku istnieje dostatecznie duża liczba kulek. Jeżeli we wszechświecie istnieje dostatecznie dużo cząstek elementarnych - a nauka mówi nam, że nie brakuje wodoru, węgla, siarki, tlenu itd. - to w końcu przynajmniej niektóre planety oprócz Ziemi zostaną zasypane dostateczną liczbą małych kulek niosących wszystkie składniki niezbędne do ewolucji życia. W następnym rozdziale obliczymy w końcu prawdopodobieństwo, że życie pojawiło się poza Ziemią.
Rozdział 11
PRAWDOPODOBIEŃSTWO ŻYCIA NA PRZYNAJMNIEJ JEDNEJ PLANECIE OPRÓCZ ZIEMI
Doszliśmy do momentu, gdy możemy w końcu oszacować prawdopodobieństwo życia na przynajmniej jednej innej (niż Ziemia) planecie. Aby jednak obliczyć złożone prawdopodobieństwo istnienia życia w jakimś innym miejscu kosmosu, musimy najpierw poznać regułę obliczania prawdopodobieństw złożonych zdarzeń. Reguła ta stanowi jedno z najważniejszych narzędzi w teorii prawdopodobieństwa, a ponadto ma ona bardzo interesującą historię - została opracowana 350 lat temu, wraz z większością podstaw teorii, na skutek nienasyconej chciwości pewnego francuskiego hazardzisty.
Blaise Pascal (1623-1662) był jednym z największych francuskich matematyków swoich czasów. Jego nazwisko nosi między innymi prawo fizyczne dotyczące ciśnienia cieczy. Matematycy pamiętają go najlepiej dzięki esejowi o przecięciach stożkowych - jednej stronie napisanej w wieku szesnastu lat i zawierającej twierdzenie zwane obecnie twierdzeniem Pascala, która stała się najsłynniejszą pojedynczą stroną w historii matematyki. Twierdzenie to mówi, że proste, zawierające przeciwległe boki wpisanego w krzywą stożkową sześciokąta, przecinają się w trzech współliniowych punktach. Po udowodnieniu tego twierdzenia nastoletni Pascal sformułował i wykazał wiele innych. Gdy miał osiemnaście lat, wynalazł maszynę liczącą, protoplastę współczesnych, młodszych o 300 lat komputerów (maszyna licząca Pascala znajduje się na wystawie w Arts and Sciences Department of IBM [Dziale Sztuk i Nauk firmy IBM]).
W 1654 roku, gdy Pascal miał 31 lat i był już jednym z najbardziej znanych wtedy matematyków, złożył mu wizytę jego przyjaciel, Antoine Gombaud (1610-1685), znany jako Kawaler de Merę, bogaty francuski szlachcic i niepoprawny hazardzista. De Merę próbował znaleźć sposób na rozbicie banku w którymś z zasobnych europejskich kasyn i zwrócił się do swego sławnego przyjaciela o pomoc w opracowaniu strategii, które dawałyby wysokie prawdopodobieństwo wygranej. W owych czasach nie znano metod obliczania prawdopodobieństw złożonych zdarzeń. Wiedziano wprawdzie, że prawdopodobieństwo wyrzucenia szóstki w rzucie kostką wynosi 1/6, lecz nikt nie wiedział, jakie jest prawdopodobieństwo wyrzucenia przynajmniej dwóch szóstek w 24 rzutach parą kości, co w owych czasach było dosyć popularną grą w europejskich kasynach. Inna popularna gra polegała na próbie wyrzucenia przynajmniej jednej szóstki w czterech rzutach jedną kostką, i także w tej grze nikt nie znał szans wygranej.
De Mere sądził, że prawdopodobieństwo wygranej w pierwszej z wyżej wymienionych gier wynosi 24 'P (1/36) = 2/3, natomiast w drugiej: 4 'P (1/6) = 2/3, czyli że obie gry dają takie same szanse wygranej. Jednak doświadczenie pokazywało, że gracze częściej wygrywają w drugiej grze, czyli że prawdopodobieństwo wyrzucenia przynajmniej jednej szóstki w czterech rzutach kostką jest większe niż prawdopodobieństwo wyrzucenia przynajmniej dwóch szóstek w 24 rzutach parą kości. Ta pozorna sprzeczność stała się znana jako paradoks Kawalera de Merego. Przyczyną paradoksu był fakt, że de Mere nie wiedział, jak obliczać prawdopodobieństwa tych złożonych zdarzeń. Prawdopodobieństwo przynajmniej jednej szóstki w czterech rzutach kostką nie jest równe pomnożonemu przez cztery prawdopodobieństwu wyrzucenia szóstki w jednym rzucie kostką. Potrzebna jest tutaj reguła obliczania łącznego prawdopodobieństwa sumy czterech zdarzeń: 1 szóstka w 4 rzutach, 2 szóstki w 4 rzutach, 3 szóstki w 4 rzutach oraz 4 szóstki w 4 rzutach.
De Merę zjawił się w końcu u Pascala z pytaniem, dlaczego gracze częściej wygrywają w drugiej grze niż w pierwszej. Pascal szybko zdał sobie sprawę, że bywalcy kasyn nie umieją obliczać prawdopodobieństw zdarzeń złożonych. Przez pewien czas analizował ten problem i dyskutował o nim z innym matematykiem, Pierre'em de Fermatem (1601-1665), tym samym, który sformułował wielkie twierdzenie Fermata. Pascal i Fermat doszli do wniosku, że prawdopodobieństwo wygranej w pierwszej grze wynosi 49,1%, natomiast w drugiej jest ono większe od 50% - wynosi 51,8%, Dyskusja między Pascalem i Fermatem doprowadza do sformułowania podstaw nowoczesnej teorii prawdopodobieństwa. W jaki sposób dwaj matematycy obliczyli te prawdopodobieństwa i jak wygląda reguła znajdowania prawdopodobieństwa sumy kilku zdarzeń, którą wyprowadzili?
Zdarzenia, które nie wpływają wzajemnie na swoje prawdopodobieństwa, zwane są zdarzeniami nienależnymi. Wynik rzutu kostką jest niezależny od wyniku innego rzutu kostką. Podobnie, gdy rzucimy dwiema kostkami, ich wyniki są wzajemnie niezależne. Dla zdarzeń niezależnych możemy pomnożyć ich prawdopodobieństwa, aby otrzymać prawdopodobieństwo ujścia obu zdarzeń. Inna właściwość polega na tym, że prawdopodobieństwo zdarzenia dopełniającego jest równe jeden minus prawdopodobieństwo zdarzenia danego (jeżeli prawdopodobieństwo deszczu wynosi 0,3, to prawdopodobieństwo, że nie będzie padało, wynosi 1 - 0,3 = 0,7). Pascal i Fermat wykorzystali te fakty do wyprowadzenia reguły obliczania prawdopodobieństwa sumy niezależnych zdarzeń. Rozumowali oni w taki oto sposób: jeżeli przynajmniej jedno spośród szeregu zdarzeń zachodzi, to nieprawdą jest, że wszystkie one nie zachodzą. Aby więc otrzymać prawdopodobieństwo zajścia przynajmniej jednego zdarzenia, trzeba odjąć od jedności prawdopodobieństwo, że zajdą wszystkie zdarzenia dopełniające. To ostatnie - dzięki niezależności zdarzeń dopełniających - jest równe iloczynowi ich prawdopodobieństw. W rezultacie otrzymali następującą regułę:
P(przynajmniej jedno z A, B,C...) = 1 - P(nie A) 'P P(nie B) 'P P(nie C)...
W przypadku pierwszej gry -- postawieniu na przynajmniej jedną podwójną szóstkę w 24 rzutach dwiema kostkami - reguła sumy dla niezależnych zdarzeń daje następujący wynik:
1 - (35ή36) 'P (35ή36) 'P (35ή36) ... (24 razy) = 1 - 0,509 = 0,491, czyli 49,1%
Dla drugiej gry Pascal i Fermat otrzymali wynik:
1 - (5ή6) 'P (5ή6) 'P (5ή6) 'P (5ή6) = 1 - 0,482 = 0,518, czyli 51,8%.
Zastosowanie reguły do prawdopodobieństwa istnienia życia pozaziemskiego
Reguła dla sumy zdarzeń niezależnych pozwala nam obliczyć prawdopodobieństwo, że istnieje przynajmniej jedna obdarzona życiem planeta poza Ziemią. Zacznijmy od pewnych rozsądnych (i minimalnych, czyli mniej korzystnych dla naszej konkluzji) założeń o podstawowych prawdopodobieństwach istnienia życia na planecie okrążającej jakąkolwiek gwiazdę oprócz Słońca.
Załóżmy, że liczba gwiazd mających planety, fp w równaniu Drake'a, wynosi 0,5. Następnie wykorzystamy fakt, że spośród dziewięciu dotychczas odkrytych pozasłonecznych planet, jedna znajduje się w zamieszkiwalnej strefie swojej gwiazdy, co dodatkowo znajduje potwierdzenie w naszym Układzie Słonecznym (w którym Ziemia znajduje się w strefie zamieszkiwalnej, a pozostałe osiem planet prawdopodobnie nie). Przyjmiemy zatem, że parametr ten wynosi 1/9. Teraz pora na najtrudniejszy problem, oszacowanie dolnej granicy faktycznego prawdopodobieństwa życia: Jaka jest szansa, że DNA powstanie i utrzyma się w formach ożywionych na planecie krążącej w zamieszkiwalnej strefie swojej gwiazdy? Musimy wziąć pod uwagę, że DNA stanowi niezwykle złożoną cząsteczkę, dla której szansa samoistnego powstania jest bardzo mała, a życie jest niepewne, ponieważ wszechświat jest niebezpiecznym miejscem. Załóżmy więc, że prawdopodobieństwo pojawienia się życia na pojedynczej planecie, znajdującej się w zamieszkiwalnej strefie swojej gwiazdy, jest ekstremalnie, ekstremalnie małe: j e d n a s z a n s a na b i l i o n. Mnożąc tę niezwykle małą liczbę przez uprzednio oszacowane czynniki 0,5 i 1/9, otrzymujemy nasze ostateczne założenie, że prawdopodobieństwo istnienia życia wokół dowolnej pojedynczej gwiazdy wynosi nieco więcej niż 0,00000000000005.
Nasza Galaktyka liczy około 300 miliardów gwiazd. Załóżmy, że we wszechświecie istnieje około 100 miliardów galaktyk. Wstawiając wszystkie te oszacowania do reguły obliczania prawdopodobieństw dla sumy niezależnych zdarzeń, otrzymujemy:
P(życie na orbicie przynajmniej jednej innej niż Słońce gwiazdy w znanym nam wszechświecie) = = 1 - (0,99999999999995)30 000 000 000 000 000 000 000
Liczba powyższa nie różni się od jedności na dowolnym poziomie dziesiętnej dokładności dowolnego komputera. Praktycznie rzecz biorąc, jest ona równa 1,czyli 100%.
Nawet jeżeli założymy, że w naszej Galaktyce znajduje się tylko 100 miliardów gwiazd i że we wszechświecie istnieje tylko miliard galaktyk, to odpowiedź nadal okazuje się nieodróżnialna od 1. Tak czy inaczej, wynik jest nieodparty - prawdopodobieństwo istnienia życia poza Ziemią nie zależy bardzo silnie od liczby gwiazd we wszechświecie, przynajmniej dopóty, dopóki liczba ta jest bardzo duża, co wydaje się niepodważalnym faktem astronomicznym. Nowe, uzyskane dzięki Kosmicznemu Teleskopowi Hubble'a wyniki wskazujące na istnienie wielu miliardów galaktyk podtrzymują hipotezę istnienia wielu możliwych miejsc, gdzie życie mogłoby się rozwinąć. W naszym modelu końcowy wynik nie zależy również od założeń na temat liczby gwiazd obdarzonych planetami oraz liczby planet w strefie zamieszki walnej. Użyliśmy najlepszych dostępnych oszacowań, lecz niższe parametry również prowadzą do tej samej odpowiedzi - liczby zbliżonej do 1. Prawdopodobieństwo staje się w istocie pewnością.
Z matematycznego punktu widzenia problem sprowadza się do faktu, że prawdopodobieństwo życia na pojedynczej planecie może wprawdzie być niezwykle małe, ale złożone prawdopodobieństwo, że życie istnieje na przynajmniej jednej pozaziemskiej planecie, systematycznie wzrasta, ponieważ tak wiele miejsc - tak wiele gwiazd - wchodzi w grę. W przypadku reguły dla sumy niezależnych zdarzeń zawsze zachodzi tego rodzaju zbieżność wraz ze wzrostem liczby prób. Jeżeli dasz czemuś dostatecznie wiele szans, to w końcu się zdarzy.
Na koniec jeszcze jedna uwaga. Nie znamy rozmiarów wszechświata. Niektórzy sądzą, że jest on nieskończony. Gdyby istniało nieskończenie wiele gwiazd, to odpowiedź na nasze pytanie brzmiałaby, że prawdopodobieństwo istnienia życia pozaziemskiego jest identycznie równe 1 (już nie jest to liczba nieodróżnialna od 1, lecz równa 1), niezależnie od tego, jak bardzo małe byłoby prawdopodobieństwo istnienia życia na pojedynczej planecie - jeśli tylko nie jest ono dokładnie równe zeru (a to, że nie jest równe zeru wiemy, ponieważ sami istniejemy).
Epilog
W styczniu 1998 roku Michel Mayor udał się do Chile, do nowo zbudowanego obserwatorium w chilijskich Andach. Kilka miesięcy wcześniej Paul Butler, łowca planet z San Francisco State University, poleciał do Australii. Obaj poszukują obecnie pozasłonecznych planet na niebie półkuli południowej, mając nadzieję znaleźć planetę podobną do Ziemi i krążącą wokół podobnej do Słońca gwiazdy. Być może któregoś dnia na planecie takiej zobaczymy życie.
Prawdopodobieństwo istnienia życia pozaziemskiego jest równe 1 lub liczbie, która w zasadzie jest równa 1. Nie jesteśmy sami. Mimo że nie widzieliśmy jeszcze nikogo spoza naszej planety, a odległości do gwiazd są tak odstraszająco olbrzymie, któregoś dnia być może nastąpi kontakt. Odważne, przenikliwe jednostki w naszej historii potrafiły przeciwstawić się starym, utartym opiniom. Galileusz twierdził, że Ziemia nie jest środkiem wszechświata i został ukarany przez inkwizycję. Giordano Bruno, który w szesnastym wieku nie miał dostępu do astronomicznych obserwacji pozasłonecznych planet ani nawet dowodów, że gwiazdy rzeczywiście są odległymi Słońcami, trwał przy swoim poglądzie o wielości światów i zapłacił zań życiem. Nawet w naszych czasach historie takie jak ta o śmierci Marinatosa dowodzą, że w świecie opornym na nowe idee wysuwanie daleko idących naukowych hipotez nadal może być ryzykowne.
Stojąc na plaży na wyspie Aruba, spoglądałem na majestatyczne nocne niebo nad południowym horyzontem. Jasny Canopus, drogowskaz wielu pokoleń marynarzy, powoli zachodził po mojej prawej ręce. Wprost nad głową widziałem trzy wielkie gwiazdozbiory składające się na statek Jazona, „Argo”. Nietrudno wyobrazić sobie, jak żegluje po Morzu Czarnym w poszukiwaniu złotego runa. Dalej na lewo majaczył nad horyzontem podobny do latawca Krzyż Południa, a jeszcze dalej wschodziła Alfa Centauri, nasz najbliższy sąsiad. Czy wokół którejś z tych gwiazd krąży obdarzona życiem planeta?
Bibliografia
Aczel A.D., Statistics: Concepts and Applications. Burr Ridge, 111.: Ir-win/McGraw-Hill, 1993.
Boyer C, A History of Mathematics. New York: Wiley, 1968.
Capra F., The Web of Life. New York: Anchor, 1996.
Colata G,, Clone. New York: Morrow, 1998.
Crosswell K., Planet Quest. New York: Free Press, 1997.
Crowe M, The Extraterrestrial Life Debatę. New York: Cambridge University Press, 1988.
Dehaene S., The Number Sense. Oxford: Oxford University Press, 1997.
Drake F., Sobel D., Is Anyone Out There? New York: Delacorte, 1992.
Encrenaz T., The Solar System. New York: Springer-Verlag, 1990.
Freedman D. i in., Statistics. New York: Norton, 1990.
Gehrels T. (red.), Asteroids. Tucson: University of Arizona Press, 1979.
Goldsmith D., Worlds Unnumbered. Sausalito, Calif.: University Science Books, 1997.
Gould S.J., Ever Since Darwin. New York: Norton, 1977.
Hoskin M. (red.), The Illustrated History of Astronomy. New York: Cambridge University Press, 1997.
Llinas R.R. (red.), The Workings of the Brain. New York: Freeman, 1990.
McDonough T., The Search for Extraterrestrial Intelligence. New York: Wiley, 1987.
Murray B. i in., Earthlike Planets. New York: Freeman, 1981.
Pasachoff J.M., Astronomy: From the Earth to the Universe, wyd. 5. Ft. Worth: Saunders, 1998.
Pauling L., General Chemistry, New York: Dover, 1988.
Sagan C. (red.), Communications with Extraterrestrial Intelligence. Cambridge, Mass.: MIT Press, 1973.
Shklovskii I.S., Sagan C, Intelligent Life in the Universe. San Francisco: Holden-Day, 1966.
Thomas L., The Lives of a Celi. New York: Penguin, 1973.
Watson J.D., The Double Helix. New York: Penguin, 1968.
Dosłownie: szkatułka na klejnoty (przypisy oznaczone asteryskiem pochodzą od tłumacza).
Amerykańskie święto pracy, obchodzone w pierwszy poniedziałek września; weekend zwyczajowo
Epicurus, „Letter to Herodotus”, w: W.J. Oates (red.), The Stoic and Epicurean Philosophers, Random House, New York 1957.
Titus Lucretius Carus, O naturze wszechrzeczy, przeł. Edward Szymański, Państwowe Wydawnictwo Naukowe, Krakowska Drukarnia Naukowa, 1957, s. 78.
Platon, Timajos i Kritias, przeł. Władysław Witwicki, Państwowe Wydawnictwo Naukowe, Warszawa 1960, s. 40.
Och, bądź miłym/miłą chłopcem/dziewczyną, pocałuj mnie!
W oryginale: habitable - nadająca się do zamieszkania.
Jest to średnia odległość Ziemi od Słońca. Orbita Ziemi jest eliptyczna, więc niekiedy znajduje się ona w odległości większej niż 93 miliony mil od Słońca, a niekiedy w mniejszej. Eliptyczna orbita Ziemi jest jednak bardzo zbliżona do okręgu, więc odchylenia od średniej odległości są niewielkie.
Od ang.: astronomical unit.
Układ Alfa Centauri jest w rzeczywistości złożony z trzech gwiazd, jednak nieuzbrojone oko widzi ją jako obiekt pojedynczy. Są to: dwie jasne gwiazdy Alfa Centauri A i B oraz ciemniejsza Proxima Centauri. Krążą one wokół siebie po stosunkowo niedużych orbitach.
Niedawno wykonane obliczenia wskazują, że stała Hubble'a wynosi około 64 kilometrów na sekundę na megaparsek. Tempo rozszerzania się wszechświata służy kosmologom do szacowania czasu, jaki upłynął od stworzenia wszechświata w wielkim wybuchu. Stała Hubble'a równa 64 km/s P Mps oznacza, że wszechświat liczy około 14 miliardów lat.
Teleskop z wmontowanym układem fotograficznym.
Ściśle biorąc - że sam eter nie istnieje, a jeszcze ściślej - że jego istnienie nie jest konieczne do wyjaśnienia ruchu światła.
Należy zwrócić uwagę, że grawitacyjne przyciąganie Słońca przez pozostałe osiem planet Układu Słonecznego jest wprawdzie znacznie mniejsze niż wpływ wywierany przez największą z nich, Jowisza, lecz rzeczywisty ruch Słońca okaże się nieco bardziej skomplikowany, gdy uwzględni się wpływ wszystkich planet.
Sirrah należy obecnie do gwiazdozbioru Andromedy. W średniowieczu najlepszymi astronomami byli Arabowie, dlatego większość nazw gwiazd jest pochodzenia arabskiego.
Astronomowie definiują brązowego karła jako obiekt o masie mniejszej, a nie większej od 0,08 masy Słońca, czyli od około 80 mas Jowisza, lecz z punktu widzenia poszukiwań planet nadających się na siedlisko życia jest to i tak ciało o wiele za duże.
Ang.: bardzo duży układ.
Nazwa ta jest wynikiem interesującej pomyłki. Astronomowie, którzy po raz pierwszy zaobserwowali mgławice gazu i pyłu otaczające takie ginące gwiazdy, sądzili, że patrzą na przyćmione, mgliste planety, podobne do Urana, i nazwali je mgławicami planetarnymi.
Por. Linus Pauling, Peter Pauling, Chemia, przeł. Józef Kępiński, Aleksander Przepiera, Jadwiga Deles, Wydawnictwo Naukowe PWN, Warszawa 1998, s. 380-381.
Sagan zwraca uwagę, że zarówno p, jak i g są odwrotnie proporcjonalne do odległości r organizmu od Słońca, a zatem wypadkowa siła popychająca organizm, P~g, również spełnia tę zależność.
Tu: rekurencyjna metoda szacowania wariancji rozkładu.
Amir D. Aczel, Improved Radiocarbon Age Estimation Using the Bootstrap, „Radiocarbon”, t. 37, nr 3, 1995, s. 845-849.
Niektóre z tych danych szacowano na podstawie liczby futer skupowanych w poszczególnych latach przez Kompanię Zatoki Hudsona od traperów.
Więcej na temat fascynującej historii ewolucji ptaków i ich pochodzenia od dinozaurów można znaleźć w: K. Padian, L.M. Chiappe, Skąd się wzięły ptaki, przel. K. Sabath, „Świat Nauki”, kwiecień 1998. s. 26-35.
Angielskie słowo neocortex znaczy dosłownie: nowa kora. Autor używa go w znaczeniu zbliżonym do polskiego określenia „kresomózgowie”. W dalszej części tekstu stosowane będzie tłumaczenie dosłowne - neokorteks.
Dosyć niefortunny przykład. Rozkłady „inteligencji”, wzrostu i innych dodatnich zmiennych losowych dane są przez nieco inne funkcje rozkładu, które wprawdzie w pobliżu centrum rozkładu bardzo dobrze zgadzają się z rozkładem normalnym, lecz różnią się od niego na skrzydłach.
Ujemną inteligencję można by zapewne zdefiniować w logicznie poprawny sposób, lecz nie da się tego zrobić w przypadku rozkładu wzrostu lub masy mózgu.
Autor książki i scenariusza do filmu Park Jurajski.
Należy zwrócić uwagę, że chaos nie jest jedynym układem, którym rządzą równania matematyczne. Istnieje wiele innych rodzajów układów równań. Najprostsze z nich, równania liniowe (których wykresami są linie proste), są łatwe do odkrycia. Równania nieliniowe, łącznie z chaotycznymi, są trudniejsze do rozróżnienia i zarazem znacznie częściej występują w przyrodzie.
Tu: osoby wykorzystujące dostęp do poufnych informacji spółek giełdowych w obrocie akcjami na giełdzie.
W oryginale: seed - dosłownie: nasienie.
Przy dwunastu elementach, po sześć z każdego rodzaju, dwie, trzy, jedenaście lub dwanaście serii byłoby statystycznie znaczących - na rzecz nieprzypadkowości (przy poziomie istotności zbliżonym do 5%), natomiast od czterech do dziesięciu serii oznaczałoby wybór losowy (na tym poziomie hipoteza przypadkowości nie może być odrzucona).
W literaturze polskiej zwany niekiedy paradoksem czasu oczekiwania.
Stosując logikę de Merego. doszlibyśmy do wniosku, że prawdopodobieństwo przynajmniej ednego orła w dwóch rzutach monetą powinno wynosić2fP (1/2) - 1, co jest oczywistą nieprawdą.
Należy zwrócić uwagę, że uznając zasługi siedemnasto- i osiemnastowiecznych matematyków w sformułowaniu podstaw współczesnej teorii prawdopodobieństwa, musimy pamiętać, iż pewne pojęcia probabilistyczne były znane w licznych kulturach wiele wieków wcześniej. Hinduski epos, Mahabharata, napisany przed rokiem 400 n.e., opisuje półboga, patrona hazardu, który potrafił obliczać proste prawdopodobieństwa, a nawet rozumiał niektóre koncepcje szacowania statystycznego. W Talmudzie, spisanym mniej więcej w tym samym czasie, rabini dyskutują o prawdopodobieństwach łamania praw koszerności, ojcostwa i wierności małżeńskiej, opierając swoje kalkulacje na prostych regułach, które przypisują równe szanse dwóm jednakowo prawdopodobnym zdarzeniom (por. N. Rabinovitch, Pmb(fbility in the Talmud, „Biometrika”, t.56, nr 2, 1969, s. 437-441).
Uzyskany przez autora wynik różni się od jedności o nieco mniej niż 10 -700 000 000 czyli o ułamek dziesiętny, w którym po przecinku występuje ponad siedemset milionów zer - zanim pojawią się cyfry znaczące.