Krauss Lawrence M Fizyka podróży międzygwiezdnych

background image

LAWRENCE M. KRAUSS

FIZYKA PODRÓŻY

MIĘDZYGWIEZDNYCH

( Przełożyli: Ewa L. Łokas; Bogumił Bieniok)

background image

PRZEDMOWA

Było ml bardzo miło, że Data zdecydował się zaprosić Newtona, Einsteina i mnie na

partyjkę pokera na pokładzie kosmicznego statku Enterprise. Miałem okazję zdobyć przewagę

nad dwoma wielkimi ludźmi grawitacji, zwłaszcza nad Einsteinem, który nie wierzył w

przypadek, czyli w to, że Bóg gra w kości. Niestety, nie udało mi się zabrać ze sobą wygranej,

ponieważ musieliśmy porzucić grę z powodu alarmu. Kontaktowałem się później ze studiem

Paramount, aby zamienić żetony na gotówkę, ale jego przedstawiciele nie znali kursu

wymiany.

Fantastyka naukowa, do której należy Star Trek, służy nie tylko dobrej zabawie, ale

także poważniejszym celom, takim jak rozszerzanie ludzkiej wyobraźni. Być może nie

potrafimy dotrzeć tam, gdzie nie stanęła dotąd ludzka stopa, ale możemy spróbować dokonać

tego przynajmniej w wyobraźni. Możemy przewidywać reakcje ludzkości na przyszły postęp

w nauce i spekulować na temat charakteru tego postępu. Wymiana myśli między fantastyką

naukową a nauką zachodzi w obie strony. Fantastyka dostarcza pomysłów, które naukowcy

włączają do swoich teorii, ale czasami to właśnie nauka stwarza pojęcia, które nie przyszłyby

do głowy żadnemu autorowi science fiction. Przykładem są czarne dziury, do których

rozgłosu walnie przyczyniła się trafna nazwa nadana im przez Johna Archibalda Wheelera. O

„zamarzniętych gwiazdach” lub „obiektach całkowicie zapadniętych grawitacyjnie”, jak

początkowo nazywano czarne dziury, nie napisano by zapewne nawet połowy tego, co

mieliśmy okazję przeczytać.

Zarówno Stor Trek, jak i inne utwory fantastycznonaukowe, poświęcają szczególnie

dużo uwagi podróżom z prędkościami ponadświetlnymi. Rzeczywiście, trudno wyobrazić

sobie bez nich fabułę Star Trek. Gdyby Enterprise mógł przemieszczać się jedynie z

prędkościami choćby niewiele mniejszymi od prędkości światła, podróż do środka Galaktyki i

z powrotem trwałaby dla załogi tylko kilka lat, ale na Ziemi upłynęłoby w tym czasie 80

tysięcy lat. Nie byłoby mowy o ponownym spotkaniu z rodziną!

Na szczęście ogólna teoria względności Einsteina stwarza możliwość obejścia tej

trudności: można zakrzywić czasoprzestrzeń i stworzyć drogę na skróty między miejscami,

które chce się odwiedzić. Mimo pojawiających się wtedy problemów z ujemną energią, takie

zakrzywianie czasoprzestrzeni może być dla nas w przyszłości wykonalne. Jak dotąd nie

prowadzono w tej dziedzinie zbyt wielu poważnych badań, po części, jak sądzę, dlatego, że za

bardzo przypomina to fantastykę naukową. Jedną z konsekwencji szybkich podróży

background image

międzygwiezdnych byłaby możliwość podróży wstecz w czasie. Można sobie jednak

wyobrazić krzyk, jaki podniosłaby opinia publiczna w obronie pieniędzy podatników, gdyby

ogłoszono, że rządowe agendy wspierają finansowo badania nad podróżami w czasie.

Naukowcy pracujący w tej dziedzinie muszą zatem ukrywać swoje prawdziwe

zainteresowania, używając technicznych terminów, takich jak „zamknięte krzywe czasowe”,

które oznaczają po prostu podróże w czasie. Jednakże dzisiejsza fantastyka naukowa staje się

często naukowym faktem jutra. Fizyka leżąca u podstaw Star Trek jest niewątpliwie warta

zbadania. Ograniczenie poszukiwań do spraw czysto ziemskich byłoby równoznaczne z

narzucaniem ograniczeń ludzkiemu duchowi.

STEPHEN HAWKING

background image

WSTĘP

Dlaczego zajmując się fizyką podróży międzygwiezdnych, zagłębimy się w świat Stor

Trek? Dzieło Gene'a Rodden-berry'ego jest przecież fantastyką i nie przedstawia faktów

naukowych. Wiele cudów techniki w tym serialu odwołuje się więc z konieczności do pojęć,

które mogą być niewłaściwie zdefiniowane lub w inny sposób pozostają w sprzeczności z

naszą obecną wiedzą o Wszechświecie. Nie chciałem napisać książki poświęconej tylko

wyliczeniu kwestii, w których twórcy Star Trek nie mieli racji.

Nie mogłem jednak uwolnić się od myśli o tej książce. Przyznam się, że tak naprawdę

oczarował mnie transporter. Myślenie o tym, jakim wyzwaniom należałoby sprostać tworząc

taką fantastyczną technologię, zmusza do rozważenia szerokiego wachlarza tematów: od

komputerów i przekazu informacji po zagadnienia fizyki cząstek elementarnych, mechaniki

kwantowej, fizyki jądrowej, budowy teleskopów, zawiłości biologii, a nawet problem

istnienia ludzkiej duszy! Do tego doszły jeszcze takie pojęcia, jak zakrzywiona

czasoprzestrzeń i podróże w czasie, i tak temat ten wciągnął mnie bez reszty.

Wkrótce zdałem sobie sprawę, że to, co było dla mnie tak fascynujące, bliskie jest

temu, co niezmiennie pociąga dzisiejszych wielbicieli Star Trek, prawie trzydzieści lat po

wyemitowaniu pierwszego odcinka serialu. Tym czymś, jak to ujął Q, wszechmocny

żartowniś ze Star Trek, jest „badanie nieznanych możliwości istnienia”. Q zapewne zgodziłby

się ze mną, że samo wyobrażanie sobie tych możliwości to już dobra zabawa.

W przedmowie do tej książki Stephen Hawking stwierdza, że fantastyka naukowa

pomaga rozwijać ludzką wyobraźnię. Rzeczywiście, badanie nieskończonych możliwości,

jakie niesie przyszłość - łącznie ze światem, w którym, przezwyciężywszy napięcia

międzynarodowe i uprzedzenia rasowe, ludzkość wyrusza, by w pokoju badać Wszechświat -

jest częścią nie słabnącego powodzenia Stor Trek. Ponieważ wydaje mi się to istotną cechą

cudu współczesnej fizyki, na tych właśnie możliwościach postanowiłem się skoncentrować w

niniejszej książce.

Jak wynika z przeprowadzonych przeze mnie pewnego dnia nieformalnych badań w

trakcie spaceru po miasteczku uniwersyteckim, liczba ludzi w Stanach Zjednoczonych, którzy

nie znają wyrażenia „prześlij mnie, Scotty”, jest w zasadzie porównywalna z liczbą ludzi,

którzy nigdy nie słyszeli o ketchupie. Jeśli weźmiemy pod uwagę, że wystawa na temat statku

Enterprise, zorganizowana przez Smithsonian Institution w Waszyngtonie, cieszyła się

background image

największym powodzeniem w całej historii tamtejszego Muzeum Lotnictwa i Lotów

Kosmicznych -większym nawet, niż pokazywany tam prawdziwy statek kosmiczny - staje się

oczywiste, iż Star Trek jest dla wielu ludzi symbolem zaciekawienia Wszechświatem. Czy

istnieje lepszy kontekst, w którym można by przedstawić jedne z najciekawszych teorii fizyki

dnia dzisiejszego i wskazać, w jakim kierunku podąży fizyka jutra? Mam nadzieję, że ta

podróż będzie dla czytelników tej książki równie fascynująca, jak dla mnie.

Szerokiej drogi!

background image

CZĘŚĆ I

KOSMICZNY POKER

W części tej fizyka amortyzatorów bezwładności

i wiązek holowniczych przeciera szlak dla podróży w czasie,

napędu czasoprzestrzennego, deflektorów,

tuneli czasoprzestrzennych i innych osobliwości czasoprzestrzeni.

background image

ROZDZIAŁ I

OTWARCIE NEWTONA

Gdziekolwiek pójdziesz, tam będziesz.

Z tablicy na statku Exctlsior.

Star Trek VI: Nieznany kraj

(prawdopodobnie zapożyczenie z Przygód Buckaroo Banzai)

Znajdujesz się za sterem statku kosmicznego Defiant (NCC-1764), krążącego właśnie

po orbicie wokół planety Iconia, w pobliżu strefy neutralnej. Masz spotkać się na drugim

końcu tego układu słonecznego ze statkiem będącym składem części zamiennych, by zdobyć

części potrzebne do zreperowania głównych cewek zasilających transporter. Nie musisz

rozwijać prędkości czasoprzestrzennych; ustawiasz tylko na pełną moc silnik pulsacyjny, aby

spokojnie podróżować z prędkością równą połowie prędkości światła. Powinno to wystarczyć

do osiągnięcia celu w ciągu kilku godzin; w tym czasie będziesz mógł zaktualizować dziennik

pokładowy. W miarę oddalania się od orbity zaczynasz jednak odczuwać silny ucisk w klatce

piersiowej. Ręce ci ciążą i przyklejasz się do fotela. Twoje usta zamierają w grymasie, masz

wrażenie, że za chwilę oczy wyskoczą ci z orbit, a płynąca w twoim cie le krew nie chce

dochodzić do głowy. Powoli tracisz świadomość... i w ciągu kilku minut umierasz.

Co się stało? Nie są to pierwsze oznaki międzyfazowego znoszenia przestrzennego,

które później obejmie cały statek, ani atak ukrytego dotąd statku romulańskie go. Padłeś ofiarą

czegoś znacznie potężniejszego. Pomysłowi twórcy serialu Star Trek, od których jesteś

uzależniony, nie wynaleźli jeszcze amortyzatorów bezwładności; urządzenia te dopiero

później zostaną wprowadzone do serialu. Zostałeś pokonany przez coś tak zwykłego, jak

prawa ruchu Izaaka Newtona, o których uczymy się w szkole, lecz zazwyczaj szybko

zapominamy.

Już słyszę głosy trekkerów:

1

„Ale beznadzieja! Nie częstuj mnie Newtonem.

Opowiedz mi o czymś naprawdę interesującym, na przykład jak działa napęd

czasoprzestrzenny lub co to za błysk pojawia się przy osiąganiu prędkości

czasoprzestrzennych (czy przypomina uderzenie dźwiękowe przy przekraczaniu prędkości

dźwięku?), albo co to takiego ten kryształ dwulitu?” W tej chwili mogę jedynie powiedzieć,

1

W taki sposób mówią o sobie miłośnicy serialu Star Trek. W sieci Internet znaleźć mo żna wie le

redagowanych przez tre kkerów list dyskusyjnych i stron poświęconych serialowi (p rzyp. tłu m.).

background image

że dojdziemy i do tego. Podróżowanie po świecie Stor Trek wiąże się z najbardziej

niezwykłymi pojęciami w fizyce. Zetkniemy się z wieloma różnymi problemami, zanim

będziemy mogli zadać najbardziej fundamentalne pytanie związane ze Star Trek: czy coś z

tego może zdarzyć się naprawdę, a jeśli tak, to w jaki sposób?

Zanim udamy się tam, gdzie nikt jeszcze nie dotarł - zanim nawet wyjdziemy z

Kwatery Głównej Gwiezdnej Floty - musimy stawić czoło tym samym zagadnieniom, z

którymi ponad trzysta lat temu zmagali się Galileusz i Newton. W przeciwnym razie nigdy

nie uda nam się rozstrzygnąć kosmicznego pytania, tkwiącego u źródeł wizji Gene'a

Roddenberry'ego, twórcy Star Trek: co, na podstawie współczesnej nauki, możemy

powiedzieć na temat przyszłości naszej cywilizacji? Pytanie to leży u podstaw tej książki.

Każdy, kto kiedykolwiek znajdował się w samolocie lub szybkim samochodzie, zna

uczucie wgniatania w fotel, gdy pojazd rusza z dużym przyspieszeniem. Zjawisko to jeszcze

silniej daje się odczuć na pokładzie statku kosmicznego. Reakcje syntezy w silniku

pulsacyjnym wytwarzają olbrzymie ciśnienia, które wypychają z dużymi prędkościami gazy i

promieniowanie ze statku. To właśnie siła reakcji wywierana na silniki przez uciekający gaz i

promieniowanie powoduje „odrzut” w przód. Ponieważ statek jest połączony z silnikami,

również zostaje „odrzucony”. Także osoba siedząca przy sterach jest popychana do przodu za

sprawą siły wywieranej przez fotel na ciało, które z kolei działa taką samą siłą na fotel.

I tu właśnie tkwi sedno sprawy. Młotek uderzający z dużą prędkością w Twoją

czaszkę działa z siłą, która może okazać się śmiertelna. Na podobnej zasadzie może Cię zabić

fotel, na którym siedzisz, jeśli siła, którą zadziała on na Twoje ciało, będzie zbyt wielka.

Piloci samolotów odrzutowych i statków kosmicznych nazywają siły, jakim poddawane są ich

ciała w trakcie dużych przyspieszeń (w samolocie lub podczas wystrzeliwania statku

kosmicznego) siłami G. Mogę je opisać posługując się przykładem swoich bolących pleców.

Kiedy pracuję na komputerze, zawsze czuję nacisk krzesła na pośladki - presję, z którą

nauczyłem się żyć (choć, mógłbym dodać, moje pośladki reagują na to w bardzo

niehigieniczny sposób). Siła działająca na moje pośladki ma swoje źródło w grawitacji, która,

gdyby nic jej nie przeciwdziałało, spowodowałaby mój ruch w kierunku Ziemi. Powstrzymuje

mnie przed tym - czyli przed upadkiem na podłogę - Ziemia, wywierając skierowaną

przeciwnie siłę na żelbetonową konstrukcję mojego domu, która działa siłą skierowaną ku

górze na drewnianą podłogę mojego gabinetu na pierwszym piętrze; z kolei pod łoga działa na

krzesło, wywierające siłę na tę część mojego ciała, która znajduje się z nim w kontakcie...

Gdyby Ziemia miała dwa razy większą masę, ale taką samą średnicę, nacisk wywierany na

moje pośladki byłby dwa razy większy. Siły skierowane ku górze musiałyby być dwukrotnie

background image

większe, aby zrównoważyć siłę grawitacji.

Te same czynniki należy wziąć pod uwagę w przypadku podróży kosmicznych. Jeśli

siedzisz w fotelu kapitana i wydajesz polecenie przyspieszenia statku, musisz wziąć pod

uwagę siłę, z jaką będzie na Ciebie oddziaływał fotel. Gdy zwiększysz przyspieszenie

dwukrotnie, działająca na Ciebie siła również wzrośnie dwa razy. Im większe przyspieszenie,

tym większa siła. Jedyny problem polega na tym, że żaden materiał - a już na pewno nie

Twoje ciało - nie wytrzyma działania siły potrzebnej do przyspieszenia statku do prędkości

pulsacyjnych.

Ten sam problem pojawia się wielokrotnie w serialu Stor Trek, nawet wówczas, gdy

akcja filmu dzieje się na Ziemi. Na początku Star Trek V: Ostateczna granica James K irk,

bawiący na wakacjach w Parku Narodowym Yosemite, wspina się bez asekuracji. Nagle

potyka się i spada. Spock, który ma na sobie buty rakietowe, pędzi na ratunek i chwyta

kapitana, gdy ten znajduje się już metr czy dwa nad ziemią. Niestety, jest to jede n z tych

przypadków, kiedy rozwiązanie może być tak samo fatalne w skutkach, jak sam problem. To

właśnie proces hamowania na dystansie kilku centymetrów może być śmiercionośny,

niezależnie od tego, czy spada się na Ziemię czy w objęcia Spocka Vulcana.

Zanim jeszcze pojawią się siły reakcji, które rozerwą lub połamią Twoje ciało, na

scenę wkroczą inne poważne fizjologiczne problemy. Co najważniejsze, Twoje serce nie

będzie już mogło pompować krwi wystarczająco silnie, aby docierała ona do głowy. Dlatego

właśnie piloci wojskowi czasami tracą świadomość w trakcie wykonywania manewrów

wymagających dużych przyspieszeń. Aby temu zapobiec, wynaleziono nawet specjalne

skafandry wymuszające przepływ krwi z nóg pilotów. Te zaburzenia fizjologiczne są jednym

z czynników, które należy wziąć pod uwagę przy określaniu, jak wielkie może być

przyspieszenie współczesnego statku kosmicznego. Dlatego też NASA nigdy nie wystrzeliła

na orbitę ludzi z wielkiej armaty, jak proponował Juliusz Verne w powieści Podróż na

Księżyc.

Jeśli chcę przyspieszyć rakietę od stanu spoczynku do, powiedzmy, 150 tyś. Km/s,

czyli do połowy prędkości światła, muszę to robić stopniowo - tak, by moje ciało nie uległo

rozerwaniu. Abym uniknął wgniatania w fotel z siłą większą niż 3G, moje przyspieszenie nie

może przekroczyć trzykrotnej wartości przyspieszenia, z jakim przedmioty spadają na ziemię.

W tym tempie osiągnięcie połowy prędkości światła zajęłoby około 5 milionów sekund, czyli

blisko 2,5 miesiąca! Nie byłoby to ekscytujące wydarzenie.

Wkrótce po wyprodukowaniu pierwszego statku kosmicznego klasy konstytucyjnej -

Enterprise (NCC-1701) - autorzy Star Trek musieli odpowiedzieć na krytykę dotyczącą tego,

background image

że olbrzymie przyspieszenia na pokładzie statku kosmicznego powinny zmieniać jego załogę

w marmoladę

2

. Aby rozwiązać ten problem, wynaleźli „amortyzatory bezwładności”, rodzaj

kosmicznych pochłaniaczy uderzenia, bardzo przemyślne urządzenie, zaprojektowane w celu

rozwiązania tego dokuczliwego problemu.

Amortyzatory bezwładności najłatwiej zauważyć, gdy ich nie ma. Na przykład statek

Enterprise ledwie uniknął zniszczenia po utracie kontroli nad swoimi amortyzatorami

bezwładności, kiedy elektroniczne formy życia, znane jako Nanici, zaczęły, w ramach

swojego procesu ewolucyjnego, chrupać pamięć centralnego komputera statku. Łatwo

zauważyć, że prawie każdą katastrofę Enterprise (która zdarza się zwykle w najmniej

odpowiedniej chwili) poprzedza awaria amortyzatorów bezwładności. Skutki podobnej utraty

kontroli na romulan-skim statku Wdrbird umożliwiły nam przekonanie się, że krew Romulan

jest zielona.

Niestety, podobnie jak w przypadku większości technologii we wszechświecie Stor

Trek, o wiele łatwiej jest opisać problem, który rozwiązują amortyzatory bezwładności, niż

dokładnie wyjaśnić, jak mogłyby one działać. Pierwsze Prawo Fizyki Star Trek musi więc

brzmieć: im bardziej podstawowy jest problem, który chce się rozwiązać, tym bardziej

niezwykłe musi być rozwiązanie. Przyczyną, dla której doszliśmy tak daleko i dla której

możemy w ogóle spodziewać się przyszłości takiej, jaką pokazano w Star Trek, jest specyfika

fizyki, która rozwija się odwołując się do własnych podstaw. Przyszłość będzie więc musiała

poradzić sobie nie tylko z danym problemem w fizyce, ale także z każdym fragmentem

wiedzy fizycznej, który wiąże się z tym właśnie problemem. Postęp w fizyce dokonuje się nie

dzięki rewolucjom, które znoszą wszystko, co było przedtem, ale drogą ewo lucji, która

wykorzystuje to, co najlepsze w dotychczasowym rozumieniu świata. Prawa Newtona będą

tak samo prawdziwe za milion lat jak obecnie, bez względu na to, jak dalece rozszerzymy

granice nauki. Upuszczona piłka zawsze spadnie na ziemię. Jeśli będę s iedział przy biurku i

pisał przez całą wieczność, moje pośladki zawsze będą tak samo cierpiały.

Czego by nie powiedzieć, nie byłoby w porządku, gdybyśmy zostawili amortyzatory

bezwładności bez jakiegokolwiek dokładniejszego opisu ich działania. Jak już wcześniej

stwierdziłem, muszą one tworzyć wewnątrz statku kosmicznego sztuczny świat, w którym

znika siła reakcji na siłę przyspieszającą. Przedmioty znajdujące się wewnątrz statku zostają

2

Michael Okuda, Denise Okuda, Debbie Mirak: The Star Trek Encyclopedia, Pocket Books,

Nowy Jork 1994.

background image

„oszukane”; mają zachowywać się tak, jak gdyby nie było przyspieszenia. Opisywałem już, w

jaki sposób przyspieszenie imituje grawitację. Związek ten, który stał się podstawą ogólnej

teorii względności Einsteina, jest o wiele głębszy, niż mogłoby się wydawać na pierwszy rzut

oka. Amortyzatory bezwładności mogą więc działać tylko na jednej zasadzie: muszą

wytwarzać wewnątrz statku sztuczne pole grawitacyjne, które znosi siły reakcji.

Nawet, jeśli przyjmiemy tę możliwość, pozostają jeszcze inne praktyczne sprawy, jak

choćby to, że włączenie się amortyzatorów bezwładności po pojawieniu się nieoczekiwanego

impulsu wymaga czasu. Kiedy na przykład Enterprise został uwięziony w pętli przyczynowej

przez Bozemana, gdy ten ostatni wynurzał się z zakrzywienia czasowego, załoga została

rozrzucona po całym obszarze mostka (zanim jeszcze nastąpiła awaria napędu

czasoprzestrzennego i amortyzatorów). W opisie technicznym Enterprise wyczytałem, że czas

reakcji amortyzatorów bezwładności wynosi około 60 milisekund

3

. Wydaje się on krótki, ale

takie opóźnienie podczas zaprogramowanych okresów przyspieszania wystarczyłoby, żeby

Cię zabić. Aby się o tym przekonać, pomyśl, ile czasu potrzebuje spadający z wysoka młotek,

by rozbić ci głowę, lub ziemia, by zabić człowieka spadającego ze stromego urwiska w Parku

Narodowym Yosemite? Wystarczy pamiętać, że zderzenie z prędkością 20 km/h jest

równoważne kolizji biegacza z murem z cegieł! Lepiej więc, żeby amortyzatory bezwładności

miały krótki czas reakcji. Kilku znajomych trekkerów zauważyło, że kiedy statek zostaje

uderzony, nikogo z załogi nie odrzuca na odległość większą niż parę metrów.

Zanim opuścimy znany świat fizyki klasycznej, chciałbym wspomnieć o innym cudzie

technologii, który, aby działać, musi brać pod uwagę prawa Newtona, a mianowicie o wiązce

holowniczej na Enterprise. Odegrała ona pewną rolę w czasie ratowania kolonii Genomów na

Moabie IV, odchylając zbliżający się fragment jądra gwiazdy, a także w podobnej próbie,

(choć zakończonej niepowodzeniem) uratowania Bre'ela IV przez skierowanie

planetoidalnego księżyca z powrotem na orbitę. Na pierwszy rzut oka wiązka holownicza

wygląda prosto - mniej więcej tak jak niewidzialna lina lub wędka - nawet jeśli wywierana

przez nią siła jest niezwykła. Podobnie jak mocna lina, wiązka holownicza świetnie sobie

radzi z wciąganiem wahadłowca, holowaniem innego pojazdu lub zapobieganiem ucieczce

wrogiego statku kosmicznego. Jedyny problem polega na tym, że kiedy ciągniemy coś na

linie, musimy się uczepić Ziemi lub innego ciężkiego przedmiotu. Każdy, kto kiedykolwiek

jeździł na łyżwach, wie, co się dzieje, gdy znajdujemy się na lodzie i próbujemy odepchnąć

3

Ric k Ste mbach, Michael Okuda: Star Tre k: The Ne xt Gene ration - Technical Manual, Pocket Books, Nowy

Jork 1991.

background image

kogoś od siebie. Udaje nam się rozdzielić, ale bez punktu zaczepienia stajemy się bezradną

ofiarą własnej bezwładności.

Ta właśnie zasada skłoniła kapitana Jeana-Luca Picarda w odcinku pod tytułem Bitwa

do wydania polecenia porucznikowi Rikerowi, aby wyłączył wiązkę holowniczą; Picard

zauważył, że holowany statek będzie przemieszczał się obok nich dzięki swojemu własnemu

pędowi - własnej bezwładności. Na tej samej zasadzie, gdyby Enterprise spróbował użyć

wiązki holowniczej do oddalenia od siebie Stargazera, powstała siła popchnęłaby Enterprise

do tyłu tak samo, jak Stargazera do przodu.

To zjawisko ma duży wpływ na sposób, w jaki obecnie pracuje się w przestrzeni

kosmicznej. Załóżmy na przykład, że jesteś astronautą, który ma dokręcić śrubę w

Kosmicznym Teleskopie Hubble'a. Jeśli zabierzesz ze sobą w tym celu śrubokręt elektryczny,

po dotarciu na miejsce może Cię czekać niemiła niespodzianka. To, że uda Ci się dokręcić

śrubę, jest tak samo prawdopodobne jak to, że Ty sam zaczniesz się wtedy obracać.

Dzieje się tak dlatego, że teleskop Hubble'a jest o wiele cięższy od Ciebie. Kiedy

śrubokręt działa pewną silą na śrubę, silą reakcji, jaką odczuwasz, obróci raczej Ciebie niż

śrubę, zwłaszcza Jeśli śruba trzyma się dość mocno. Jeśli jednak - podobnie jak zabójcy

Kanclerza Gorkona - jesteś szczęśliwym posiadaczem butów grawitacyjnych, które utrzymują

Cię pewnie na każdym podłożu, możesz się przemieszczać tak samo skutecznie jak na Ziemi.

Można też zobaczyć, co się stanie, gdy Enterprise spróbuje przyciągnąć do siebie inny

statek kosmiczny. O ile Enterprise nie jest znacznie cięższy od tego statku, po włączeniu się

wiązki holowniczej to on będzie się przysuwał do drugiego obiektu, a nie odwrotnie. W

przestrzeni kosmicznej to rozróżnienie nie ma wielkiego znaczenia. Bez znajdującego się w

pobliżu układu odniesienia skąd możemy wiedzieć, kto kogo ciągnie? Jeżeli znajdujesz się

jednak na planecie tak pechowej, jak Moab IV, na drodze zagubionej gwiazdy, to nie jest bez

znaczenia., czy Enterprise odsuwa na bok gwiazdę, czy gwiazda statek.

Jeden z moich znajomych trekkerów utrzymuje, że sposób obejścia tego problemu

został już pośrednio zasugerowany przynajmniej w jednym odcinku: gdyby Enterprise użył

swoich silników pulsacyjnych, kiedy włączona jest wiązka holownicza, działając w

przeciwnym kierunku siłą swoich silników mógłby skompensować wywieraną nart siłę, gdy

jest ciągnięty lub na coś pchany. Jak twierdzi ów trekker, powiedziano gdzieś, że aby wiązka

holownicza mogła działać, musi być uruchomiony napęd pulsacyjny. Nigdy jednak nie

zauważyłem, by Kirk lub Picard wydawali polecenie włączenia silników pulsacyjnych w

trakcie używania wiązki holowniczej. Poza tym nie sądzę, aby społeczeństwo, które potrafi

zaprojektować i zbudować amortyzatory bezwładności, potrzebowało takich siłowych

background image

rozwiązań. Pamiętając o tym, że Geordi LaForge musiał zakrzywić czasoprzestrzeń, aby

spróbować cofnąć księżyc Bre'ela IV, sądzę, że ostrożna - choć na razie nieosiągalna -

manipulacja przestrzenią i czasem równie skutecznie pomogłaby wykonać to zadanie. Aby

lepiej to zrozumieć, musimy użyć amortyzatorów bezwładności i przeskoczyć jak najszybciej

do współczesnego świata zakrzywionej przestrzeni i czasu.

background image

ROZDZIAŁ 2

EINSTEIN PODNOSI STAWKĘ

Pewna młoda dama imieniem Aurora

Gdy nie pędziła szybciej od światła, była chora.

Kiedy razu pewnego w podróż wyjechała,

Na relatywny sposób się zdecydowała

i powróciła poprzedniego wieczora.

ANONIM

„Czas, ostateczna granica” - tak lub podobnie powinien zaczynać się każdy odcinek

serialu Star Trek. Trzydzieści lat temu, w klasycznym odcinku Jutro będzie wczoraj,

Enterprise rozpoczął podróże w czasie. (Właściwie już pod koniec wcześniejszego odcinka

Nagi czas statek zostaje przerzucony w czasie o trzy dni wstecz - jest to jednak podróż tylko

w jedną stronę). W wyniku bliskiego spotkania z „czarną gwiazdą” (termin „czarna dziura”

nie funkcjonował jeszcze wtedy w kulturze masowej) statek przenosi się na Ziemię XX

wieku. Dziś pojęcia tak niezwykłe, jak „tunele czasoprzestrzenne” i „osobliwości kwantowe”,

pojawiają się regularnie w odcinkach najnowszej serii Star Trek: Voyager. Dzięki Albertowi

Einsteinowi i tym, którzy poszli jego śladem, tkanina czasoprzestrzeni utkana jest z

dramatów.

Chociaż każdy z nas jest podróżnikiem w czasie, przekonanie, iż jesteśmy skazani na

podróż tylko w jednym kierunku -w przyszłość - podnosi historię ludzkości do rangi tragedii.

Czego byśmy nie dali za możliwość podróży w przeszłość, ponownego przeżycia chwil

chwały, naprawienia błędów, spotkania historycznych bohaterów, a może nawet uniknięcia

katastrof lub po prostu powtórnego przeżycia młodości, korzystając z nabytej z wiekiem

mądrości? Podróże w czasie przychodzą nam na myśl za każdym razem, gdy spoglądamy w

gwiazdy, ale wydaje się, że jesteśmy na stałe uwięzieni w teraźniejszości. Pytanie, które

inspiruje nie tylko twórczość dramatyczną, ale i zadziwiająco dużą część badań we

współczesnej fizyce teoretycznej, można sformułować następująco: Jesteśmy czy nie

Jesteśmy więźniami w kosmicznym pociągu czasu, który nie może zmieniać toru?

Początki nowoczesnego gatunku literackiego, który nazywamy fantastyką naukową, są

ściśle związane z motywem podróży w czasie. Wczesny utwór Marka Twaina Jankes na

dworze króla Artura jest bardziej beletrystyką niż fantastyką naukową, mimo że treść książki

background image

obraca się wokół przygód wynikających z przeniesienia nieszczęsnego Amerykanina do

średniowiecznej Anglii. (Być może Twain nie zastanawiał się szczególnie nad naukowymi

aspektami podróży w czasie, gdyż obiecał Picardowi na pokładzie Enterprise, że nie opisze

swojego spojrzenia w przyszłość, kiedy już powróci do dziewiętnastego stulecia,

przeskakując przez szczelinę czasową na Devidii II, w odcinku Strzałka czasu). Dopiero

niezwykłe dzieło H. G. Wellsa Wehikuł czasu stworzyło paradygmat, na którym oparł się Stor

Trek, Wells był absolwentem Imperiał College of Science and Technology w Londynie i

rozmowy jego bohaterów, podobnie jak wypowiedzi załogi Enterprise, przesiąknięte są

językiem naukowym.

Te odcinki serialu Star Trek, które opowiadają o podróżach w czasie, są niewątpliwie

najbardziej twórcze i zmuszają do myślenia. W pierwszych dwóch seriach doliczyłem się

ponad dwudziestu dwóch odcinków zajmujących się tym tematem. Podobnie jest w trzech

pełnometrażowych filmach Star Trek oraz w odcinkach z serii Voyager i Stacja kosmiczna,

które wyemitowano do chwili obecnej. Jeśli chodzi o Stor Trek, prawdopodobnie najbardziej

fascynującym aspektem podróży w czasie jest niechęć do łamania Najwyższego Zakazu.

Załogi Gwiezdnej Flory przestrzegane są przed ingerencją w normalny historyczny rozwój

obcych cywilizacji, które odwiedzają. Cofnięcie się w czasie umożliwia jednak całkowitą

likwidację teraźniejszości. Może nawet całkowicie zniweczyć historię!

Zarówno w literaturze fantastycznonaukowej, jak i w fizyce, pojawia się ten sam

słynny paradoks: co się stanie, jeśli cofniesz się w czasie i zabijesz swoją matkę przed

własnymi narodzinami? Niewątpliwie przestaniesz wtedy istnieć. Ale jeśli przestaniesz

istnieć, nie będziesz mógł wrócić i zabić swojej matki. Skoro zaś nie zabiłeś swojej matki, nie

przestałeś istnieć. Innymi słowy, jeśli istniejesz, to nie możesz istnieć, a jeśli nie istniejesz, to

musisz istnieć.

Są jeszcze inne, mniej oczywiste, ale równie dramatyczne i zdumiewające pytania,

które piętrzą się, gdy zaczynamy myśleć o podróżach w czasie. Na przykład w zakończeniu

Strzałki czasu Picard pomysłowo wysyła wiadomość z XIX do XXIV wieku - wprowadza kod

binarny do głowy Daty, wiedząc, że zostanie ona odnaleziona i połączona z jego ciałem

prawie pięć wieków później. Patrzymy, jak wpisuje wiadomość, a następnie widzimy

LaForge'a, który w XXIV stuleciu przytwierdza Dacie głowę. Widzowi te wydarzenia wydają

się jednoczesne, ale takie nie są; po tym, jak Picard wprowadza wiadomość do głowy Daty,

leży ona jeszcze przez pół tysiąclecia. Ale jeśli badam głowę Daty w XXIV wieku, a Picard

nie odbył jeszcze podróży w przeszłość, aby zmienić przyszłość, czy mógłbym taką

wiadomość odczytać? Można by się spodziewać, że jeśli Picard nie odbył jeszcze podróży,

background image

nie mogła ona mieć wpływu na głowę Daty. Jednak działania zmieniające oprogramowanie

Daty zostały podjęte w XIX wieku, bez względu na to, kiedy Picard wyruszył w podróż w

czasie, aby je wykonać. A więc to już się stało, nawet jeśli Picard jeszcze nie wyruszył! W ten

sposób przyczyna w XIX wieku (wprowadzanie kodu przez Picarda) może wywołać efekt w

dwudziestym czwartym stuleciu (zmiana obwodów elektrycznych Daty), zanim przyczyna w

XXIV wieku (wyprawa Picarda) wywoła skutek w dziewiętnastym stuleciu (przybycie

Picarda do jaskini, gdzie znajduje się głowa Daty), który pozwoli, aby początkowa przyczyna

(wprowadzenie kodu przez Picarda) w ogóle miała miejsce.

Jeśli powyższe rozumowanie jest niejasne, to co powiedzieć o największym ze

wszystkich paradoksów czasowych, który pojawia się w ostatnim odcinku serii Stor Trek:

Następne pokolenie.

Picard zapoczątkowuje w nim łańcuch wydarzeń, które cofną się w czasie i unicestwią

nie tylko jego przodków, ale i całe życie na Ziemi. Dokładniej, „podprzestrzenne

zakrzywienie czasu” związane z „antyczasem” narasta wstecz w czasie, pochłaniając w końcu

zbudowaną z aminokwasów protoplazmę na młodej Ziemi, zanim jeszcze powstaną pierwsze

proteiny - cegiełki, z których zbudowane są żywe organizmy. Jest to jaskrawy przykład

skutku powodującego przyczynę. Zakrzywienie czasu powstaje w przyszłości. Gdyby w

odległej przeszłości podprzestrzenne zakrzywienie czasu zniszczyło pierwsze żywe

organizmy na Ziemi, życie nigdy nie mogłoby się rozwinąć i zbudować cywilizacji zdolnej do

wytwarzania takich zakrzywień w przyszłości!

Popularnym wśród wielu fizyków typowym rozwiązaniem takich paradoksów jest

przyjęcie a priori, że w racjonalnym wszechświecie, podobnym do tego, w którym żyjemy,

takie wydarzenia są niemożliwe. Problem polega na tym, że równania ogólnej teorii

względności Einsteina nie tylko nie wykluczają takich możliwości, lecz wręcz je przewidują.

W ciągu trzydziestu lat badań nad równaniami ogólnej teorii względności znaleziono

rozwiązanie, w którym wyraźnie pojawia się możliwość podróży w czasie. Jego autorem jest

słynny matematyk Kurt Godel, który pracował razem z Einsteinem w Institute for Advanced

Study w Princeton. Mówiąc językiem Star Trek, rozwiązanie to pozwala na stworzenie

„czasowej pętli przyczynowej”, analogicznej do tej, w jaką został złapany Enterprise po ataku

Bozemana. Bardziej sucha terminologia współczesnej fizyki określa to zjawisko jako

„zamkniętą krzywą czasową”. Jakkolwiek je nazwiemy, wynika z niego możliwość

podróżowania w czasie w obie strony i powracania do punktu wyjścia zarówno w przestrzeni,

jak i w czasie! Rozwiązanie Godła dotyczy wszechświata, który, w przeciwieństwie do

znanego nam, nie rozszerza się, ale jednostajnie obraca. Okazuje się, że w takim

background image

wszechświecie w zasadzie można cofnąć się w czasie, zataczając jedynie duże koło w

przestrzeni. Choć ten hipotetyczny wszechświat dramatycznie różni się od naszego, sam fakt,

że takie rozwiązanie w ogóle istnieje, wskazuje jasno, że ogólna teoria względności

dopuszcza podróże w czasie.

Istnieje pewna maksyma o Wszechświecie, którą zawsze przekazuję moim studentom:

To, co nie jest jawnie zakazane, na pewno się zdarzy, lub, jak powiedział Data w odcinku

Wszechświaty równolegle, mając na myśli prawa mechaniki kwantowej: „wszystkie zjawiska,

które mogą zajść, zachodzą”. Sądzę, że w tym duchu należy podchodzić do praw fizyki

rządzących światem Star Trek. Powinniśmy rozróżniać nie miedzy tym, co praktyczne, a tym,

co niepraktyczne, lecz między tym, co możliwe, a tym, co niemożliwe.

Fakt ten oczywiście nie pozostał nie zauważony przez samego Einsteina, który

napisał: „Problem [rozwiązania] Kurta Godła [dopuszczającego podróże w czasie] niepokoił

mnie już podczas tworzenia ogólnej teorii względności i nie udało mi się go wyjaśnić. [...]

Interesujące będzie rozważenie, czy rozwiązań tych nie należy wykluczyć ze względów

fizycznych”.

Od tej pory wyzwaniem dla fizyków stało się określenie konsekwencji istnienia takich

„fizycznych powodów”, które wykluczałyby możliwość podróży w czasie, przewidywanych

przez równania ogólnej teorii względności. Aby przedyskutować te problemy, będziemy

musieli wyjść poza klasyczny świat teorii względności i wkroczyć w mroczny obszar, gdzie

mechanika kwantowa decyduje o naturze przestrzeni i czasu. Po drodze, podobnie jak

Enterprise, napotkamy czarne dziury i tunele czasoprzestrzenne. Najpierw jednak musimy

przenieść się w czasie do drugiej połowy XIX wieku.

Mariaż przestrzeni i czasu, który ogłosił nadejście ery nowoczesności, rozpoczął się

wraz z połączeniem zjawisk elektryczności i magnetyzmu w 1864 roku. To niezwykłe

osiągnięcie intelektualne, u podstaw którego legł wspólny wysiłek takich wielkich fizyków,

jak Andre-Marie Ampere, Charles-Augustin de Coulomb i Michael Faraday, zostało

uwieńczone przez błyskotliwego fizyka brytyjskiego Jamesa Gierka Maxwella. Odkrył on nie

tylko, że prawa elektryczności i magnetyzmu są ze sobą ściśle związane, ale że wynika z nich

istnienie fal elektromagnetycznych, które powinny poruszać się w przestrzeni z określoną

prędkością, wynikającą ze znanych własności elektryczności i magnetyzmu. Prędkość ta

okazała się równa prędkości światła, którą zmierzono już wcześniej.

Od czasów Newtona spierano się o to, czy światło jest falą - to znaczy

przemieszczającym się w pewnym ośrodku zaburzeniem - czy też cząstką, która podróżuje

niezależnie od obecności ośrodka. Odkrycie fal elektromagnetycznych i tego, że poruszają się

background image

one z prędkością światła, zakończyło tę debatę: światło okazało się falą elektromagnetyczną.

Każda fala jest po prostu przemieszczającym się zaburzeniem. Jeśli światło to

zaburzenie elektromagnetyczne, czym w takim razie jest ośrodek, który ulega zaburzeniu, gdy

rozchodzi się w nim fala? Pod koniec XIX wieku wiele uwagi poświęcono temu problemowi.

Ośrodek ów miał już swoją nazwę od czasów Arystotelesa. Nazywano go eterem, ale

wszystkie próby jego bezpośredniego wykrycia kończyły się niepowodzeniem. W roku 1887

Albert A. Michelson i Edward Morley (pracujący w instytucjach, które połączyły się w 1967

roku, tworząc Case Western Reserve University - obecne miejsce mojej pracy) przeprowadzili

eksperyment, gwarantujący wykrycie nie tyle samego eteru, co efektów jego istnienia.

Ponieważ przypuszczano, że eter wypełnia całą przestrzeń, Ziemia musiała się poruszać

względem niego. Światło podróżujące w różnych kierunkach względem kierunku ruchu Ziemi

w eterze powinno zatem wykazywać różnice w prędkości. Eksperyment ten uważa się obecnie

za jeden z najważniejszych w ubiegłym stuleciu, mimo że Michelson i Morley nigdy nie

zaobserwowali efektu, którego poszukiwali. Właśnie dlatego, że nie udało im się

zaobserwować efektu ruchu Ziemi względem eteru, pamiętamy dziś ich nazwiska (A. A.

Michelson został pierwszym amerykańskim laureatem Nagrody Nobla z fizyki za swoje

badania eksperymentalne nad prędkością światła, a ja czuję się zaszczycony, zajmując

obecnie pozycję, którą on piastował ponad sto lat temu. Edward Morley zasłynął jako chemik

między innymi dzięki wyznaczeniu masy atomowej helu).

Negatywny wynik eksperymentu wywołał pewien niepokój wśród fizyków, ale, jak w

przypadku wielu przełomowych odkryć, z jego implikacji zdawało sobie w pełni sprawę

bardzo niewielu uczonych, którzy zaczynali już zauważać paradoksy związane z teorią

elektromagnetyzmu. Mniej więcej w tym czasie pewien uczeń szkoły średniej, który miał

osiem lat w chwili, gdy Michelson i Morley przeprowadzali swój eksperyment, spróbował

niezależnie stawić czoło tym paradoksom. W 1905 roku, zanim skończył 26 lat, Albert

Einstein - bo o nim tu mowa - rozwiązał ten problem. Ale jak to zwykle bywa, kiedy fizyka

stawia wielkie kroki naprzód, wyniki Einsteina stworzyły więcej problemów niż rozwiązały.

Rozwiązanie Einsteina, które stanowi jądro szczególnej teorii względności, wynikało z

prostego, choć pozornie absurdalnego założenia: jedynym sposobem na to, by teoria

elektromagnetyzmu Maxwella pozostała spójna, było przyjęcie, że obserwowana prędkość

światła jest niezależna od prędkości obserwatora względem światła. Problem polega na tym,

że stwierdzenie to całkowicie przeczy zdrowemu rozsądkowi. Jeśli z poruszającego się z

prędkością pulsacyjną statku Enterprise wypuszczona zostanie sonda, obserwator na

pobliskiej planecie zobaczy, jak przelatuje ona z prędkością dużo większą niż ta, którą

background image

zmierzyłby członek załogi Enterprise patrzący przez okno statku. Einstein uświadomił sobie

jednak, że teoria Maxwella może być nie-sprzeczna tylko wtedy, gdy fale światła zachowują

się inaczej: jeśli ich prędkość mierzona przez obydwu obserwatorów jest taka sama,

niezależnie od ich względnego ruchu. Jeśli więc wystrzelę wiązkę fazera z dziobu Enterprise i

będzie się ona poruszała z prędkością światła w kierunku mostka romulanskiego statku

Warbird, który sam zbliża się do Enterprise z prędkością pulsacyjną równą 3/4 prędkości

światła, obserwatorzy na wrogim statku zauważą, że wiązka zbliża się do nich dokładnie z

prędkością światła, a nie z prędkością l i 3/4 rażą większą. Tego rodzaju problemy sprawiają

trudności wielu trekkerom, którzy wyobrażają sobie, że jeżeli Enterprise porusza się z

prędkością bliską prędkości światła, a inny statek leci w przeciwnym kierunku z podobną

prędkością, światło wysłane z Enterprise nigdy nie dotrze do drugiego statku (a za tem

Enterprise pozostanie dla niego niewidoczny). Sprawa wygląda Jednak inaczej; obserwatorzy

na drugim statku powinni dostrzec, że światło z Enterprise zbliża się do nich z prędkością

światła.

Nie to odkrycie jednak przyniosło Einsteinowi sławę. Znacznie ważniejsze było to, że

chciał on badać wynikające z tego spostrzeżenia wnioski, które na pierwszy rzut oka

wydawały się absurdalne. W naszym codziennym doświadczeniu to czas i przestrzeń

sprawiają wrażenie absolutnych, natomiast prędkość jest czymś względnym: obserwowana

prędkość poruszającego się obiektu zależy od tego, jak szybko się poruszamy. Kiedy jednak

zbliżamy się do prędkości światła, to prędkość staje się wielkością absolutną, a więc

przestrzeń i czas muszą stać się względne!

Dzieje się tak dlatego, że prędkość definiuje się ściśle jako odległość pokonaną w

pewnym określonym czasie. Tak więc jedynym sposobem, aby poruszający się względem

siebie obserwatorzy mogli stwierdzić, że pojedynczy promień światła przebywa względem

nich w ciągu jednej sekundy tę samą odległość - powiedzmy 300 milionów metrów -

konieczne jest, aby ich „sekundy” lub ich „metry” różniły się między sobą! Okazuje się, że

szczególna teoria względności wybiera rozwiązanie najgorsze, to znaczy zarówno sekundy,

jak i metry stają się wielkościami względnymi.

Wychodząc od prostego założenia, że prędkość światła mierzona przez różnych

obserwatorów jest zawsze taka sama, niezależnie od ich względnego ruchu, Einstein

wyciągnął następujące wnioski na temat przestrzeni, czasu i materii:

(a) Zdarzenia, które dla danego obserwatora zachodzą w tym samym czasie i w dwóch

różnych miejscach, nie muszą być równoczesne dla innego obserwatora, poruszającego się

względem pierwszego. Dla każdego z nich „teraz” znaczy co innego. Pojęcia „przed” i „po”

background image

są względne dla odległych zdarzeń.

(b) Wszystkie zegary na statkach kosmicznych, które poruszają się względem mnie,

chodzą wolniej niż mój zegar. Czas zwalnia dla obiektów w ruchu.

(c) Linijki znajdujące się na statkach, które poruszają się względem nas, wydają się

krótsze, niż gdyby spoczywały w naszym układzie odniesienia. Obiekty, ze statkami

kosmicznymi włącznie, ulegają skróceniu podczas ruchu.

(d) Wszystkie obiekty mające masę stają się tym cięższe, im szybciej się poruszają.

Gdy ich prędkość zbliża się do prędkości światła, ich masa staje się nieskończona. Innymi

słowy, tylko obiekty pozbawione masy, takie jak światło, mogą poruszać się z prędkością

światła.

Nie będę tu opowiadał o wszystkich wspaniałych pozornych paradoksach, jakie

pojawiają się w teorii względności. Niech nam wystarczy to, że - czy nam się to podoba, czy

nie - wszystkie cztery wnioski są prawdziwe, zostały bowiem sprawdzone. Na pokład

poruszających się z wielkimi prędkościami samolotów zabrano zegary atomowe i

zaobserwowano, że spóźniają się one po powrocie w stosunku do swoich ziemskich

odpowiedników. Na całym świecie w laboratoriach fizyki cząstek elementarnych

konsekwencje szczególnej teorii względności są chlebem powszednim eksperymentatorów.

Niestabilne cząstki przyspiesza się do prędkości bliskich prędkości światła, a ich mierzone

czasy życia zwiększają się wielokrotnie. Kiedy elektrony, które w spoczynku mają masę 2000

razy mniejszą niż protony, przyspieszy się do prędkości bliskich prędkości światła, niosą one

pęd równoważny pędom ich cięższych kuzynów. Elektron przyspieszony do prędkości równej

0,9999999999999999999999999999999999999999999999999999999999999999 prędkości

światła uderzyłby Cię z taką samą siłą, jak jadąca z przeciętną prędkością ciężarówka.

Oczywiście przyczyną, dla której tak trudno jest nam wziąć za dobrą monetę wnioski

dotyczące względności przestrzeni i czasu, jest to, że żyjemy i poruszamy się z prędkościami

znacznie mniejszymi niż prędkość światła. Każdy z wymienionych efektów staje się

zauważalny dopiero wtedy, gdy wchodzą w grę prędkości relatywistyczne. Nawet przy

prędkości równej połowie prędkości światła zegary zwalniają, a linijki kurczą się tylko o

około 15%. Na wahadłowcu NASA, który okrąża Ziemię z prędkością 8 km/s, zegary chodzą

tylko o jedną dziesięciomilionową procenta wolniej, niż ich odpowiedniki na powierzchni

Ziemi.

W świecie Enterprise lub innego statku kosmicznego, gdzie powszechne są duże

prędkości, z względnością mielibyśmy jednak do czynienia na co dzień. Można sobie

wyobrazić trudności w zarządzaniu Federacją, gdy konieczne byłoby zsynchronizowanie

background image

zegarów na dużym obszarze Galaktyki, zwłaszcza że znaczna część tych zegarów poruszałaby

się z prędkością bliską prędkości światła. W wyniku tego w gwiezdnej flocie przyjęto jako

regułę, że normalne manewry, wykonywane przy użyciu napędu pulsacyjnego, będą

ograniczone do prędkości 0,25c, czyli 1/4 prędkości światła: marnych 75 tysięcy km/s.

Nawet przy zastosowaniu tej zasady zegary na statkach podróżujących z taką

prędkością będą zwalniały o około 3% w stosunku do zegarów w Centrum Dowodzenia.

Oznacza to, że po miesiącu podróży zegary będą opóźnione o prawie jeden dzień. Gdyby po

takiej podróży Enterprise wrócił do Centrum Dowodzenia, na statku byłby piątek, a w bazie

sobota. Przypuszczam, że ta niedogodność nie sprawiałaby większego problemu niż

przestawianie zegarków przy przekraczaniu międzynarodowej granicy daty podczas podróży

na wschód, choć w tym przypadku załoga powróciłaby o jeden dzień młodsza, natomiast w

trakcie podróży na wschód i z powrotem zyskuje się jeden dzień jadąc w jednym kierunku, a

traci się go wracając.

Możemy się teraz przekonać, jak istotny dla Enterprise jest napęd czasoprzestrzenny.

Pozwala on nie tylko obejść zasadę nieprzekraczalności prędkości światła i w ten sposób

efektywnie podróżować przez Galaktykę, lecz także uniknąć problemów związanych z

dylatacją czasu, pojawiającą się, gdy statek porusza się z prędkością bliską prędkości światła.

Nie można przecenić tych faktów. Wielu autorów fantastyki naukowej (a tak

naprawdę wszyscy, którzy marzą o podróżach międzygwiezdnych) traktuje zjawisko

zwalniania chodu zegarów w miarę zbliżania się do prędkości światła jako otwarcie

możliwości pokonywania olbrzymich odległości między gwiazdami w czasie życia ludzkiego

- przynajmniej za życia osób znajdujących się na pokładzie statku kosmicznego.

Podróż z prędkością bliską prędkości światła do, powiedzmy, centrum naszej

Galaktyki zajęłaby ponad 25 tysięcy lat czasu ziemskiego. Dla osób znajdujących się na

pokładzie statku, gdyby poruszał się on z prędkością dostatecznie bliską prędkości światła,

podróż ta mogłaby trwać krócej niż 10 lat -czas długi, ale do przyjęcia. Jednak nawet gdyby

umożliwiło to odbywanie pojedynczych podróży, z pewnością nie pozwoliłoby na sprawne

zarządzanie federacją cywilizacji rozproszonych po całej Galaktyce. Jak słusznie

przypuszczali twórcy Star Trek, fakt, że dziesięcioletnia podróż Enterprise odpowiadałaby

okresowi 25 tysięcy lat w Centrum Dowodzenia, zniweczyłby szansę jakiegokolwiek

działania mającego na celu zorganizowanie i kontrolowanie ruchu wielu takich statków

kosmicznych. Jest więc niezwykle istotne, aby: po pierwsze, uniknąć ograniczenia

związanego z prędkością światła i nie powodować dezorganizacji Federacji; po drugie,

zastosować prędkości ponadświetlne, by swobodnie przemieszczać się po Galaktyce.

background image

Szkopuł w tym, że w ramach samej szczególnej teorii względności tej ostatniej

możliwości nie można zrealizować. Jeśli dopuści się prędkości ponadświetlne, fizyka staje się

pełna sprzeczności. Nie bez znaczenia jest tu między innymi to, że ponieważ w miarę

zbliżania się do prędkości światła wzrasta masa obiektów, potrzeba stopniowo coraz więcej

energii, aby przyspieszyć je o coraz mniejszą wartość. Jak w greckim micie o Syzyfie, który

skazany był na wtaczanie głazu pod górę przez całą wieczność po to tylko, aby za każdym

razem, gdy docierał do szczytu, ponosić klęskę, cała energia we Wszechświecie nie

wystarczyłaby na to, aby przyspieszyć ziarnko piasku, nie mówiąc już o statku kosmicznym,

do prędkości ponadśwłetlnej.

Na tej samej zasadzie nie tylko światło, ale każde bezmasowe promieniowanie musi

przemieszczać się z prędkością światła. Oznacza to, że wiele rodzajów istot zbudowanych z

„czystej energii”, jakie napotyka Enterprise, a później Voyager, nie mogłoby istnieć w

pokazanej postaci. Po pierwsze, nie mogłyby one pozostawać w bezruchu. Światło nie może

zwolnić, nie mówiąc już o zatrzymaniu. Po drugie, zegary każdej inteligentnej, zbudowanej z

energii istoty - na przykład fotonowi osobnicy w serii Voyager, zbudowani z energii

mieszkańcy obłoku Beta Renna w serii Następne pokolenie, Zetarianie w pierwszej serii, czy

Dal’Rok w serii Stacja kosmiczna - która zmuszona jest poruszać się z prędkością światła,

miałyby nieskończenie duże opóźnienie w stosunku do naszych zegarów. Cała historia

Wszechświata przebiegałaby dla niej w ciągu krótkiej chwili. Gdyby zbudowane z energii

istoty mogły czegokolwiek doświadczać, doświadczałyby wszystkiego narazi Nie trzeba

dodawać, że zanim skontaktowałyby się z istotami cielesnymi, te ostatnie już dawno byłyby

martwe.

Skoro mówimy o czasie, myślę, że nadeszła już pora, by zapoznać się z manewrem

Picarda. Jean-Luc zdobył sławę, wprowadzając tę taktykę, gdy przebywał na pokładzie

Stargazera. Chociaż dotyczy ona podróży z prędkościami czasoprzestrzennymi, czyli

ponadświetlnymi, które - jak dowodziłem - są niemożliwe w ramach samej szczególnej teorii

względności, wymaga zastosowania takich prędkości tylko przez moment, tak że nie przeczy

temu, co do tej pory powiedzieliśmy. W trakcie manewru Picarda, mającego na celu

pomieszanie szyków atakującemu statkowi wroga, przyspiesza się własny statek na krótką

chwilę do prędkości czasoprzestrzennej. Jest on wtedy widoczny w dwóch miejscach naraz.

Dzieje się tak dlatego, że poruszając się przez moment szybciej niż światło wyprzedza on

promienie świetlne, które opuściły go tuż przed uruchomieniem napędu czasoprzestrzennego.

Chociaż jest to błyskotliwa strategia - i wydaje się na razie całkiem sensowna (jeśli

zapomnimy na chwilę o tym, że nie wiemy, czy możliwe jest osiąganie prędkości

background image

czasoprzestrzennych) - widać od razu, iż otwiera ona prawdziwą puszkę Pandory. Po

pierwsze, zaniedbuje kwestię podnoszoną przez wielu trekkerów przez lata: w jaki sposób

załoga Enterprise może „widzieć” obiekty zbliżające się do niej z prędkością

czasoprzestrzenną? Podobnie jak Stargazera wyprzedził swój własny obraz, to samo uczynią

wszystkie obiekty podróżujące z prędkością czasoprzestrzenną; obiekt poruszający się z taką

prędkością można zobaczyć dopiero długo po tym, jak przybędzie na miejsce. Możemy tylko

przypuszczać, że kiedy Kirk, Picard czy Janeway chcą obejrzeć obraz na ekranie, pojawia się

tam obraz uzyskany za pomocą czujników „podprzestrzennych” dalekiego zasięgu (to znaczy

komunikacji ponadświetlnej). Nawet jeśli przymkniemy oko na to wyraźne przeoczenie,

pokazany w Star Trek wszechświat, choć niewątpliwie ciekawy, byłby trudny do zarządzania

- pełen pozornych obrazów obiektów, które dawno temu dotarły do celu, podróżując z

prędkością czasoprzestrzenną.

Powróćmy do świata prędkości mniejszych niż prędkość światła; nie uporaliśmy się

bowiem do końca z Einsteinem. Jego słynny związek między masą a energią, E = mc

2

, będący

konsekwencją szczególnej teorii względności, stanowi kolejne wyzwanie dla podróży

międzygwiezdnych z prędkościami pulsacyjnymi. Rakieta, jak opisałem to w rozdziale

pierwszym, wyrzuca materię w tył, aby poruszać się do przodu. Łatwo sobie wyobrazić, że im

szybciej materia jest odrzucana w tył, tym większe będzie pchnięcie w przód. Spaliny nie

mogą jednak wydostawać się z prędkością większą niż prędkość światła. Nawet nadawanie im

prędkości światła nie jest łatwe: jedynym na to sposobem jest użycie paliwa spreparowanego

z materii i antymaterii, które (o czym przekonamy się w jednym z kolejnyc h rozdziałów)

może zupełnie anihilować i wytwarzać czyste promieniowanie poruszające się z prędkością

światła.

Chociaż napęd czasoprzestrzenny w Enterprise wykorzystuje takie właśnie paliwo,

napęd pulsacyjny działa na innej zasadzie. Jest on zasilany za po mocą syntezy jądrowej - tych

samych reakcji Jądrowych, dzięki którym wodór przemienia się w hel we wnętrzu Słońca. W

reakcjach jądrowych w energię zamienia się około 1% dostępnej masy. Przy takiej energii

wytwarzane atomy helu wydostają się z tyłu rakiety z prędkością około 1/8 prędkości światła.

Znając prędkość wypływu helu, możemy obliczyć ilość paliwa, jakiej potrzebuje Enterprise,

aby przyspieszyć, powiedzmy, do połowy prędkości światła. Obliczenie to nie jest trudne, ale

ograniczę się do podania odpowiedzi. Może ona być zaskakująca. Za każdym razem, kiedy

Enterprise przyspiesza do połowy prędkości światła, musi spalić 81 razy więcej paliwa

wodorowego niż sam waży. Statek klasy galaktycznej, taki jak Enterprise-D Picarda, ważyłby

ponad 4 miliony ton, a zatem, aby przyspieszyć ten statek do połowy prędkości światła za

background image

pomocą napędu pulsacyjnego, za każdym razem trzeba by było zużyć ponad 300 milionów

ton paliwa! Gdyby w silniku pulsacyjnym zastosować układ napędowy wykorzystujący

materię i antymaterię, sytuacja wyglądałaby nieco lepiej. W tym przypadku wystarczyłoby

spalić w trakcie przyspieszania tylko dwa razy więcej paliwa niż wynosiłaby waga statku.

Ale to nie wszystko. Obliczenie, które przedstawiłem powyżej, jest poprawne dla

pojedynczego przyspieszenia. Aby zatrzymać się po osiągnięciu celu, statek potrzebowałby

drugie tyle paliwa. Oznacza to, że aby udać się gdzieś z prędkością równą połowie prędkości

światła, a następnie zatrzymać się, potrzebne byłoby paliwo w ilości 81x81= 6561 razy

całkowita masa statku! Co więcej, przypuśćmy, że ktoś chciałby przyspieszyć do połowy

prędkości światła w ciągu kilku godzin (zakładamy oczywiście, że amortyzatory

bezwładności są włączone, osłaniając załogę oraz statek przed skutkami działania olbrzymich

sił G). Moc wypromieniowana przez silniki w postaci spalin wyniosłaby wtedy około l O

22

watów, czyli niemal miliard razy więcej niż całkowita średnia moc wytwarzana obecnie i

zużywana przez ludzkość na Ziemi!

Prawdopodobnie powiesz teraz (jak to zrobił pewien mój bystry kolega, gdy pewnego

dnia przedstawiłem mu tę argumentację), że jest tutaj pewna furtka. Rozumowanie to zakłada,

że paliwo podróżuje razem z rakietą. Co by się jednak stało, gdyby paliwo można było

zbierać w trakcie podróży? W końcu wodór jest najbardziej rozpowszechnionym

pierwiastkiem we Wszechświecie. Czy nie można by go gromadzić, podróżując przez

Galaktykę? Cóż, średnia gęstość materii w naszej. Galaktyce wynosi około 1 atom wodoru na

centymetr sześcienny.

Aby uzbierać tylko 1 gram wodoru w ciągu sekundy, poruszając się nawet z

prędkością będącą sporym ułamkiem prędkości światła, trzeba by było rozwinąć

powierzchnie zbierające o średnicy ponad 40 kilometrów. Nawet gdyby udało się całą tę

materię zamienić na energię, wystarczyłoby to tylko na około jedną stumilionową potrzebnej

do napędu mocy!

Można tu przytoczyć słowa fizyka, laureata Nagrody Nobla, Edwarda Purcella,

którego argumenty przedstawiłem i rozszerzyłem: „Jeśli wydaje Ci się to niedorzeczne, masz

rację”. Ta absurdalność bierze się z podstawowych praw mechaniki klasycznej i szczególnej

teorii względności. Argumenty przedstawione tutaj są tak pewne, jak to, że piłka spadnie,

kiedy upuści się ją na ziemię. Podróże międzygwiezdne przez Galaktykę w statkach z

napędem rakietowym z prędkością bliską prędkości światła nie są i nigdy nie będą

praktycznie wykonalne!

Czy należy więc w tym miejscu zakończyć książkę? Czy powinniśmy odesłać gadżety

background image

związane ze Star Trek i poprosić o zwrot pieniędzy? Otóż nie, gdyż wciąż jeszcze nie

skończyliśmy z Einsteinem. Jego ostatnie i chyba największe odkrycie daje nam iskierkę

nadziei.

Cofnijmy się do roku 1908: odkrycie przez Einsteina względności przestrzeni i czasu

zwiastuje jedno z tych doświadczeń ludzkości, które co jakiś czas nieodwołalnie zmieniają

nasz obraz Wszechświata. Jesienią 1908 roku fizyk i matematyk Her-mann Minkowski

napisał słynne zdanie: „Odtąd przestrzeń sama w sobie i czas sam w sobie są skazane na

odejście w cień, a tylko rodzaj związku tych dwóch wielkości zachowa niezależne istnienie”.

Minkowski zdał sobie sprawę z tego, że chociaż przestrzeń i czas są względne dla

obserwatorów poruszających się względem siebie - Twój zegar może tykać wolniej niż mój, a

mierzone przeze mnie odległości będą inne niż mierzone w Twoim układzie odniesienia - to

gdy zostają one połączone w jedną cztero-wymiarową całość (trzy wymiary przestrzenne i

jeden czasowy), pojawia się nagle znowu pewna „absolutna”, obiektywna rzeczywistość.

Przebłysk zrozumienia, który stał się udziałem Minkowskie-go, można wyjaśnić

uciekając się do analogii ze światem jednookich istot, które nie dostrzegają głębi.

Przypuśćmy, że zamknąłeś jedno oko, ograniczając w ten sposób swoją percepcję głębi, a ja

trzymam linijkę, tak abyś mógł ją widzieć. Następnie proszę kogoś innego, patrzącego pod

innym kątem, by również zamknął jedno oko. Wówczas trzymana przeze mnie linijka wyda

mu się krótsza niż Tobie; poniższy rysunek pokazuje opisaną sytuację z lotu ptaka:

Każdy obserwator pozbawiony możliwości bezpośredniej oceny głębi określi

„długość” linijki (L lub L’) jako dwuwymiarowy rzut rzeczywistej, trójwymiarowej długości

linijki na własną płaszczyznę widzenia. Ponieważ wiemy, że przestrzeń ma trzy wymiary,

taka sztuczka nas nie oszuka. Wiemy, że patrzenie na coś pod innym kątem nie zmienia

rzeczywistej długości przedmiotu, nawet jeśli zmienia ją pozornie. Minkowski wykazał, że w

podobny sposób można wyjaśnić różne paradoksy teorii względności. Trzeba tylko przyjąć,

że nasze widzenie przestrzeni to trójwymiarowy przekrój czegoś, co w rzeczywistości jest

czterowymiarowym obiektem, w którym przestrzeń i czas są połączone. Dwaj różni

obserwatorzy, poruszający się względem siebie, postrzegają różne trójwymiarowe przekroje

ukrytej czterowymiarowej przestrzeni w bardzo podobny sposób, jak obróceni względem

siebie obserwatorzy na rysunku widzą różne dwuwymiarowe przekroje przestrzeni

trójwymiarowej.

Minkowski wyobraził sobie, że odległość przestrzenna mierzona przez dwóch

poruszających się względem siebie obserwatorów jest projekcją ukrytej czterowymiarowej

odległości na trójwymiarową przestrzeń, którą mogą postrzegać; i podobnie, że czasowa

background image

„odległość” między dwoma zdarzeniami jest rzutem odległości w czterowymiarowej

czasoprzestrzeni na ich własny wymiar czasowy. Podobnie jak obrót przedmiotów w trzech

wymiarach może wymieszać szerokość i głębokość, tak względny ruch w czterowymiarowej

przestrzeni może pomieszać pojęcia „przestrzeni” i „czasu” różnych obserwatorów. Podobnie

jednak jak długość przedmiotu nie zmienia się, gdy obracamy go w przestrzeni, tak samo

odległość między dwoma zdarzeniami w czterowymiarowej czasoprzestrzeni jest stała -

niezależnie od tego, w jaki sposób różni, poruszający się względem siebie obserwatorzy

przypisują odległościom „przestrzenność” i „czasowość”.

I tak zadziwiająca niezmienność prędkości światła dla wszystkich obserwatorów stała

się kluczem do odsłonięcia prawdziwej, czterowymiarowej natury Wszechświata, w którym

żyjemy. Światło ukazuje ukryty związek między przestrzenią a czasem. W rzeczywistości

prędkość światła definiuje ów związek.

To właśnie w tym miejscu Einstein powrócił, aby uratować Stor Trek. Kiedy już

Minkowski wykazał, że czasoprzestrzeń szczególnej teorii względności jest jak

czterowymiarowa kartka papieru, Einstein spędził większą część następnego dziesięciolecia

napinając swoje matematyczne mięśnie, aż udało mu się zgiąć tę kartkę, co z kolei pozwala

nam nagiąć reguły gry. Jak się zapewne domyślasz, kluczem do tego okazało się znowu

światło.

background image

ROZDZIAŁ 3

HAWKING WYKŁADA KARTY

Jakże słabo wy, śmiertelnicy, rozumiecie czas. Czy musisz być taki liniowy, Jean-Luc?

Q do Picarda w odcinku Wszystko, co dobre...

Planeta Wulkan, z której pochodzi Spock, jest bardzo zasłużona dla fizyki XX wieku.

Na początku naszego stulecia wielką zagadkę astronomii stanowiło to, że peryhelium

Merkurego - czyli punkt orbity, w którym planeta znajduje się najbliżej Słońca - w trakcie

każdego jego obiegu wokół Słońca ulega niewielkiej precesji w sposób niezgodny z teorią

grawitacji Newtona. Aby rozwiązać ten problem, wysunięto hipotezę, że jeszcze bliżej Słońca

niż Merkury krąży inna planeta, która zaburza jego ruch. (Co ciekawe, podobne wyjaśnienie

anomalii w ruchu orbitalnym Urana zaowocowało wcześniej odkryciem Neptuna). Ową

hipotetyczną planetę nazwano Wulkanem.

Niestety, tajemnicza planeta Wulkan nie istnieje. Natomiast Einstein zaproponował,

aby zastąpić płaską przestrzeń Newtona i Minkowskiego zakrzywioną czasoprzestrzenią

ogólnej teorii względności. W tej zakrzywionej przestrzeni orbita Merkurego odchylałaby się

nieco od toru, jaki przewidywała teoria Newtona, co wyjaśniałoby obserwowaną niezgodność.

Chociaż w ten sposób znikła potrzeba istnienia planety Wulkan, pojawiły się o wiele

bardziej ekscytujące możliwości: z zakrzywioną przestrzenią związane są czarne dziury,

tunele czasoprzestrzenne, a być może realne stają się nawet podróże w czasie.

Rzeczywiście, jeszcze zanim twórcy Star Trek wymyślili pole zakrzywiające

czasoprzestrzeń, Einstein zakrzywiał ją podobnie jak oni, uzbrojony jedynie w swoją

wyobraźnię. Zamiast jednak wyobrażać sobie technologię podróży międzygwiezdnych w

XXII wieku, uczony przeprowadzał eksperymenty myślowe z windami. Einstein był

niewątpliwie wielkim fizykiem, ale pewnie nigdy nie sprzedałby scenariusza.

Jego argumenty można jednak w nienaruszonej postaci przenieść na pokład

Enterprise. Ponieważ światło jest nitką splatającą przestrzeń i czas, tory promieni świetlnych

tworzą mapę czasoprzestrzeni tak samo, jak osnowa i wątek ukazują wzory gobelinu.

Zazwyczaj światło podróżuje po liniach prostych. Co by się jednak stało, gdyby romulański

dowódca na pokładzie znajdującego się w pobliżu statku Warbird wystrzelił promień fazera w

kierunku Picarda, siedzącego na mostku swojego kapitańskiego jachtu Calypso, którego silnik

pulsacyjny został właśnie uruchomiony (w tym przykładzie przyjmujemy, że amortyzatory

bezwładności zostały wyłączone)? Picard ruszyłby gwałtownie naprzód, ledwo unikając

promienia fazera. Z punktu widzenia układu odniesienia Picarda sytuacja wyglądałaby tak jak

background image

na rysunku na następnej stronie.

Dla Picarda tor promienia fazera byłby więc zakrzywiony. Co jeszcze mógłby on

zauważyć? Jeśli przypomnimy sobie argumentację z rozdziału pierwszego, bez trudu

stwierdzimy, że gdy amortyzatory bezwładności są wyłączone, Picard zostanie wgnieciony w

fotel. Zwróciłem tam również uwagę na to, że gdyby Picard poruszał się naprzód z takim

samym przyspieszeniem, z jakim spadają na Ziemię ciała pod wpływem siły grawitacji,

odczułby, iż siła, która wgniata go w fotel, jest taka sama jak siła, która ciągnie go w dół,

kiedy stoi na Ziemi. Einstein dowodził, że Picard (lub na przykład ktoś znajdujący się w

jadącej w górę windzie) nie mógłby nigdy przeprowadzić eksperymentu, który wskazałby

różnicę między siłą reakcji wywołaną przyspieszeniem a działaniem grawitacji jakiegoś

ciężkiego obiektu znajdującego się w pobliżu statku. W ten sposób Einstein wszedł śmiało na

teren nie znany dotąd fizykom i dowodził, że wszelkie zjawiska zaobserwowane przez

przyspieszającego obserwatora wyglądałyby tak, jakby przebiegały w polu grawitacyjnym.

Z tego przykładu wynika co następuje: ponieważ Picard obserwuje zakrzywianie się

promienia fazera, gdy oddala się od niego z pewnym przyspieszeniem, promień taki musi się

również zakrzywiać w polu grawitacyjnym. Ale promienie świetlne wytyczają mapę

czasoprzestrzeni; a zatem zakrzywieniu w takim polu ulega sama czasoprzestrzeń. Skoro zaś

materia wytwarza pole grawitacyjne, to ona właśnie musi zakrzywiać czasoprzestrzeń!

Można jednak argumentować, że ponieważ światło ma energię, masa zaś i energia są

związane ze sobą słynnym równaniem Einsteina, zakrzywianie się promienia świetlnego w

polu grawitacyjnym nie jest wielkim zaskoczeniem - a już na pewno nie wynika z tego, że

musimy przyjąć, iż to sama czasoprzestrzeń się zakrzywia. W końcu tory, po jakich porusza

się materia, również ulegają zakrzywieniu (wystarczy chociażby podrzucić piłkę). Nawet

Galileusz mógłby wykazać - gdyby znał takie obiekty - że tory piłek baseballowych i rakiet

Pathfinder ulegają zakrzywieniu i wcale nie musiałby przy tym wspominać o zakrzywionej

przestrzeni.

Można jednak obliczyć, o ile powinien zakrzywić się promień świetlny, gdyby

zachowywał się tak samo, jak piłka baseballowa, a następnie zmierzyć rzeczywiste

zakrzywienie. Zrobił to

w 1919 roku sir Arthur Stanley Eddington, który kierował ekspedycją mającą określić

pozycje gwiazd na niebie w pobliżu Słońca w czasie jego zaćmienia. Eddington zmierzył ten

efekt i okazało się, że światło zakrzywia się dokładnie dwa razy bardziej, niż mógłby

przewidzieć Galileusz, zakładając, iż światło zachowuje się jak piłka baseballowa w płaskiej

przestrzeni. Jak łatwo się domyślić, ta dwukrotnie większa wartość jest dokładnie zgodna z

background image

przewidywaniami Einsteina, przy założeniu, że czasoprzestrzeń zakrzywia się w pobliżu

Słońca i światło (lub na przykład Merkury) porusza się w tym miejscu po „prostej” w

zakrzywionej przestrzeni! Nagle nazwisko Einsteina stało się powszechnie znane.

Zakrzywiona przestrzeń otwiera cały wszechświat możliwości, jeśli mogę posłużyć się

takim kalamburem. Podobnie jak Enterprise, uwalniamy się z okowów swego rodzaju

liniowego myślenia - narzuconego nam przez szczególną teorię względności - tak

znienawidzonego przez Q. W zakrzywionej przestrzeni możliwych jest wiele rzeczy, które nie

mają racji bytu w przestrzeni płaskiej. Można na przykład wędrować ciągle w tym samym

kierunku, a mimo to wrócić do punktu wyjścia - ludzie podróżujący dookoła świata robią to

przez cały czas.

Centralne założenie ogólnej teorii względności Einsteina przedstawia się bardzo

prosto i brzmi następująco: zakrzywienie czasoprzestrzeni jest określone przez rozkład

zawartej w niej materii i energii. Równania Einsteina ustanawiają ścisły matematyczny

związek między zakrzywieniem z jednej strony, a. materią i energią z drugiej:

lewa strona równania =

prawa strona równania

ZAKRZYWIENIE

=

MATERIA I ENERGIA

Tym, co czyni tę teorię tak piekielnie trudną w zastosowaniach, jest właśnie owo

proste sprzężenie zwrotne: zakrzywienie czasoprzestrzeni jest określone przez rozkład materii

i energii we Wszechświecie, z kolei rozkład ten jest uzależniony od zakrzywienia

czasoprzestrzeni. Można to porównać do problemu, co było pierwsze - jajko czy kura?

Materia jest źródłem zakrzywienia czasoprzestrzeni, które z kolei określa ewolucję materii, co

wpływa na zakrzywienie i tak dalej.

Dla zagadnienia podróży międzygwiezdnych jest to zapewne najważniejszy aspekt

ogólnej teorii względności. Złożoność tej teorii oznacza, że ciągle jeszcze nie rozumiemy w

pełni wszystkich jej konsekwencji, a zatem nie możemy wykluczyć różnych niezwykłych

możliwości. Te właśnie możliwości są wodą na młyn Star Trek. Jak się przekonamy, u ich

podstaw leży wielka niewiadoma, która przenika wszystko: od tuneli czasoprzestrzennych i

czarnych dziur po wehikuły czasu.

Pierwszym ważnym dla przygód statku Enterprise wnioskiem wynikającym z tego, że

czasoprzestrzeń nie musi być płaska, jest to, że sam czas staje się wielkością jeszcze bardziej

dynamiczną niż w szczególnej teorii względności. Czas może płynąć w różnym tempie dla

różnych obserwatorów, nawet jeśli nie poruszają się oni względem siebie. Wyobraźmy sobie,

że podziałka na tarczy zegara zachowuje się jak podziałka na linijce zrobionej z gumy. Jeżeli

rozciągniemy lub zegniemy linijkę, odległości między kreskami podziałki będą się zmieniać

background image

od punktu do punktu. Gdyby odległości te odpowiadały tyknięciom zegara, zegary

umieszczone w różnych miejscach chodziłyby w różnym tempie. W ogólnej teorii

względności Einsteina „zgiąć” linijkę może pole grawitacyjne, które z kolei wymaga

obecności materii.

Ujmując to bardziej praktycznie: jeśli umieścimy w pobliżu zegara ciężką kulę

żelazną, tempo jego tykania powinno ulec zmianie. Mówiąc jeszcze bardziej poglądowo: jeśli

podczas mego snu budzik znajduje się bardzo blisko mojego ciała, zostanę obudzony nieco

później, niż gdyby był daleko, przynajmniej w stosunku do reszty świata.

Słynny eksperyment, przeprowadzony w laboratoriach Uniwersytetu Harvarda w roku

1960, zademonstrował, że upływ czasu może zależeć od tego, gdzie się znajdujesz. Robert

Pound oraz George Rebka wykazali, że częstość promieniowania y mierzonego przy źródle w

piwnicy budynku różniła się od częstości tego promieniowania, gdy docierało ono na dach

budynku, 22 metry wyżej (detektory, oczywiście, dokładnie wykalibrowano, tak by same nie

powodowały żadnej różnicy). Przesunięcie było niezwykle małe - sięgało jednej

milionowomiliardowej. Jeśli każdy okres fali promieniowania y porównać z ryknięciem

zegara atomowego, z eksperymentu tego wynika, że zegar w piwnicy będzie chodził wolniej

niż jego odpowiednik na dachu. Na niższym piętrze czas zwalnia, ponieważ znajduje się ono

bliżej Ziemi niż dach, a więc pole grawitacyjne -a co za tym idzie również zakrzywienie

czasoprzestrzeni - jest tam większe. Chociaż efekt ten był bardzo mały, jego wielkość

dokładnie odpowiadała wartości przewidywanej przez ogólną teorię względności, przy

założeniu, że w pobliżu Ziemi czasoprzestrzeń ulega zakrzywieniu.

Drugi wniosek z tego, że przestrzeń się zakrzywia, jest, jeśli chodzi o podróże

międzygwiezdne, może jeszcze bardziej ekscytujący. Gdy przestrzeń jest zakrzywiona, linia

prosta nie musi być najkrótszą drogą między dwoma punktami. Oto przykład. Przyjrzyjmy się

okręgowi na kartce papieru. Zazwyczaj najkrótszą odległość między dwoma punktami A i B,

umieszczonymi po przeciwnych stronach okręgu, stanowi łączący je odcinek, który

przechodzi przez środek okręgu:

Gdybyśmy natomiast musieli przemieścić się z A do B po okręgu, podróż byłaby

background image

około 1,5 rażą dłuższa. Teraz narysujmy ten okrąg na kawałku gumy i odkształćmy środkowy

obszar w następujący sposób:

Jeśli popatrzymy z naszej trójwymiarowej perspektywy, stanie się jasne, że podróż z -

A do B przez środek tego obszaru będzie znacznie dłuższa niż po okręgu. Gdybyśmy jednak

sfotografowali ten układ z góry, tak że powstałby obraz dwuwymiarowy, linia łącząca punkty

A oraz B przez środek wyglądałaby jak linia prosta. Co ważniejsze, gdyby niewielki robaczek

(lub jedna z dwuwymiarowych istot, jakie napotkał Enterprise) miał przejść po torze

łączącym A i B przez środek, posuwając się po powierzchni, tor ten wydałby mu się prosty.

Byłby zdziwiony, że linia prosta biegnąca przez środek i łącząca A z B nie jest już najkrótszą

drogą między tymi dwoma punktami. Gdyby był inteligentny, musiałby dojść do wniosku, że

dwuwymiarowa przestrzeń, w której żyje, jest zakrzywiona. Tylko obserwując, jak

powierzchnia ta zanurzona jest w trójwymiarowej przestrzeni, możemy bezpoś rednio

zauważyć krzywiznę.

Należy pamiętać, że żyjemy w czterowymiarowej czasoprzestrzeni, która może być

zakrzywiona, i nasze możliwości postrzegania jej krzywizny są tak samo ograniczone, jak

możliwości robaczka idącego po powierzchni kartki. Nietrudno zgadnąć, do czego zmierzam:

jeśli w zakrzywionej przestrzeni najkrótsza odległość między dwoma punktami nie musi być

linią prostą, nie można wykluczyć, że dzięki znalezieniu krótszej drogi przez zakrzywioną

czasoprzestrzeń uda się przebyć odległość, która wzdłuż linii widzenia wydaje się duża.

Opisane własności czasoprzestrzeni pozwalają snuć marzenia o podróżach

międzygwiezdnych. Pozostaje oczywiście pytanie: ile z tych marzeń może się pewnego dnia

urzeczywistnić?

TUNELE CZASOPRZESTRZENNE: FAKTY I MITY. Tunel bajorański w serii

Stacja kosmiczna jest chyba najsłynniejszym tunelem czasoprzestrzennym w Star Trek, choć

było też wiele innych, na przykład niebezpieczny tunel, który Scotty stworzył powodując

zachwianie równowagi między materią i antymaterią w napęd zie czasoprzestrzennym

Enterprise, a także niestabilny tunel barzański, w którym zgubił się statek Ferengów w

background image

odcinku Cena serii Następne pokolenie, czy tunel czasowy, który napotkał Voyager, próbując

powrócić do domu z krańca Galaktyki.

Idea tuneli czasoprzestrzennych ma swoje źródło w hipotezach, o których pisałem

wcześniej. Jeśli czasoprzestrzeń jest zakrzywiona, mogą istnieć różne drogi łączące dwa

punkty, między innymi takie, wzdłuż których odległość między punktami jest o wiele krótsza,

niż gdybyśmy zmierzyli ją podróżując przez zakrzywioną przestrzeń wzdłuż „linii prostej”.

Ponieważ nie potrafimy sobie wyobrazić zjawisk w zakrzywionej cztero-wymiarowej

czasoprzestrzeni, jeszcze raz posłużymy się dwuwymiarowym kawałkiem gumy, którego

zakrzywienie możemy obserwować w przestrzeni trójwymiarowej.

Jeśli kawałek gumy zakrzywiony jest w dużej skali, można go sobie wyobrazić

następująco:

Gdybyśmy wbili ołówek w punkcie A i naciągnęli gumową po wierzchnię aż do

punktu B, a następnie zszyli obie części w ten sposób:

utworzylibyśmy znacznie krótszą drogę z A do B niż droga biegnąca między tymi

punktami po powierzchni. Zauważmy, że w pobliżu A i B powierzchnia wydaje się płaska.

Zakrzywienie, które powoduje, że te dwa punkty znajdują się wystarczająco blisko siebie, aby

można je było połączyć tunelem, związane jest z globalnym zagięciem powierzchni na

dużych odległościach. Robaczek (nawet inteligentny), znajdujący się w punkcie A i zmuszony

do podróży po powierzchni, nie miałby pojęcia, że punkt B leży tak „blisko”, nawet gdyby

potrafił przeprowadzać w okolicy A eksperymenty mające określić krzywiznę powierzchni.

Jak łatwo zgadnąć, tunel łączący na tym rysunku punkty A i B jest dwuwymiarowym

odpowiednikiem trójwymiarowego tunelu, który mógłby biec między odległymi obszarami

czasoprzestrzeni. Chociaż jest to fascynująca możliwość, należy zwrócić uwagę na kilka jej

zwodniczych aspektów. Po pierwsze, nawet jeśli gumowa powierzchnia jest zanurzona w

trójwymiarowej przestrzeni tak, abyśmy mogli „zobaczyć” jej zakrzywienie, ten powyginany

kawałek gumy może istnieć również bez otaczającej go trójwymiarowej przestrzeni. A zatem,

background image

chociaż tunel między A i B mógłby się pojawić, stwierdzenie, że A i B są „blisko siebie”, nie

ma sensu, jeśli nie ma tunelu. Nie można opuścić gumowej powierzchni i przemieścić się z A

do B w trójwymiarowej przestrzeni, w której jest ona osadzona. Bez trójwymiarowej

przestrzeni gumowa powierzchnia jest całym wszechświatem.

Wyobraź teraz sobie, że jesteś członkiem nieskończenie zaawansowanej w rozwoju

cywilizacji (ale nie aż tak zaawansowanej, jak wszechmocne istoty Q, które właściwie nie

liczą się

z prawami fizyki), potrafiącej budować tunele w przestrzeni. Urządzenie do budowy

tuneli działałoby w zasadzie tak, jak ołówek w podanym przeze mnie przykładzie. Gdybyś

posiadał moc wystarczającą, by wytwarzać olbrzymie, miejscowe zakrzywienia przestrzeni,

musiałbyś potem przekłuwać przestrzeń wokół na chybił trafił w nadziei, że uda Ci się jakoś

połączyć dwa obszary przestrzeni, które do momentu powstania tunelu znajdowały się bardzo

daleko od siebie. Aż do chwili, gdy tunel utworzy most między tymi obszarami, w żaden

sposób nie są one blisko siebie. To sam proces budowania tego mostu zmienia globalną naturę

czasoprzestrzeni.

Z tego powodu tworzenia tuneli nie należy lekceważyć. Kiedy barzańska premier

Bhavani odwiedziła Enterprise, aby odsprzedać prawa do barzańskiego tunelu, wykrzyknęła:

„Przed wami rozciąga się pierwszy i jedyny znany stabilny tunel czasoprzestrzenny!”

Niestety, nie był on stabilny: wszystkie tunele, których matematyczne istnienie zostało

udowodnione w ramach ogólnej teorii względności, są w istocie krótkotrwa łe. Powstają, gdy

dwie mikroskopijne „osobliwości” - obszary czasoprzestrzeni, w których krzywizna staje się

nieskończenie duża - odnajdują się i na chwilę łączą. Tunel zamyka się jednak szybko,

pozostawiając znowu dwie rozłączne osobliwości. Trwa to tak krótko, że przez tunel nie

zdążyłby się przedostać żaden amator podróży międzygwiezdnych. Nieszczęsny podróżnik

rozpadłby się na kawałki w jednej lub drugiej osobliwości jeszcze przed końcem podróży.

Problem polegający na tym, jak wejście do tunelu utrzymać otwarte, jest niezwykle

trudno sformułować w ścisły, matematyczny sposób, ale w sensie fizycznym można go łatwo

wyrazić: grawitacja wciąga! Każdy rodzaj zwyczajnej materii lub energii zapada się pod

wpływem własnego przyciągania grawitacyjnego, chyba że proces ten zostanie zatrzymany

przez coś innego. Podobnie, w normalnych warunkach wejście do tunelu zostanie rozerwane

w mgnieniu oka.

Sztuka polega więc na tym, aby pozbyć się owych normalnych warunków. W

ostatnich latach m.in. Kip Thorne, fizyk z Caltech, dowodził, że jedynym sposobem na

utrzymanie otwartych tuneli jest przymocowanie ich za pomocą „egzotycznej materii” o

background image

niezwykłych własnościach: przynajmniej dla niektórych obserwatorów miałaby ona „ujemną”

energię. Można by oczekiwać (choć naiwne pomysły rzadko się sprawdzają w teorii

względności), że taka materia „rozdmuchiwałaby”, a nie „wciągała”, przynajmniej jeśli

chodzi o grawitację.

Nie trzeba być zagorzałym trekkerem, aby przystać na pomysł materii o ujemnej

energii; chociaż, jak zauważyłem, w przypadku zakrzywionej przestrzeni nie należy zbytnio

ufać swoim wyobrażeniom. Kiedy jednak doda się jeszcze do tego niezwykłe zjawiska,

którymi zasypuje nas mechanika kwantowa i które rządzą zachowaniem materii w małej skali,

prawie wszystkie przewidywania okazują się błędne.

CZARNE DZIURY I DR HAWKING. Na scenę wkracza Stephen Hawking. Zdobył

on sławę wśród fizyków zajmujących się ogólną teorią względności dzięki udziałowi, jaki

miał w udowodnieniu ogólnych twierdzeń związanych z istnieniem osobliwości w

czasoprzestrzeni, a następnie - w latach siedemdziesiątych -dzięki wspaniałym odkryciom

teoretycznym dotyczącym zachowania czarnych dziur. Są to obiekty powstające z materii,

która zapadła się tak bardzo, że pole grawitacyjne uniemożliwia nawet światłu ucieczkę z ich

powierzchni.

Nawiasem mówiąc, termin „czarna dziura”, który tak zniewolił publiczną wyobraźnię,

wymyślił fizyk teoretyk John Archłbald Wheeler z Uniwersytetu w Princeton późną jesienią

1967 roku. Ta data jest bardzo interesująca, ponieważ, o ile mi wiadomo, pierwszy odcinek

Star Trek, w którym pojawiło się pojęcie czarnej dziury - jeszcze pod nazwą „czarnej

gwiazdy” -został wyemitowany w 1967 roku, zanim Wheeler użył tego terminu publicznie.

Kiedy oglądałem ów odcinek zbierając materiały do książki, wydało mi się zabawne, że

twórcy Stor Trek użyli nieprawidłowej nazwy. Teraz zdaję sobie sprawę, że oni niemal ją

wynaleźli!

Czarne dziury są niezwykłymi obiektami z rozmaitych powodów. Po pierwsze, każda

czarna dziura skrywa w swoim wnętrzu czasoprzestrzenną osobliwość, do której w

nieunikniony

sposób musi dotrzeć wszystko, co spada na czarną dziurę. W takiej osobliwości -

nieskończenie zakrzywionym „wierzchołku” czasoprzestrzeni - znane nam prawa fizyki się

załamują. W pobliżu osobliwości krzywizna jest tak duża na tak małym obszarze, że efektami

działania grawitacji rządzą prawa mechaniki kwantowej. Jak dotąd jednak nikomu nie udało

się stworzyć teorii, która spójnie pomieściłaby w sobie zarówno ogólną teorię względności

(czyli grawitację), jak i mechanikę kwantową. Autorzy Stor Trek potrafili właściwie ocenić

napięcie istniejące między mechaniką kwantową a teorią grawitacji: zwykle określają

background image

wszystkie osobliwości czasoprzestrzeni jako „osobliwości kwantowe”. Jedno jest pewne:

zanim pole grawitacyjne w środku czarnej dziury osiągnie wystarczająco duże natężenie, aby

załamały się znane nam prawa fizyki, każdy zwyczajny fizyczny przedmiot zostanie

rozerwany na strzępy. Nic nie przetrwa w stanie nietkniętym.

Powiedziałem, że czarna dziura „skrywa” w swoim wnętrzu osobliwość. Na krańcach

czarnej dziury znajduje się zdefiniowana matematycznie powierzchnia, zwana horyzontem

zdarzeń, która przesłania nam widok tego, co dzieje się z przedmiotami wpadającymi do

czarnej dziury. Wszystko, co znajdzie się wewnątrz horyzontu, musi nieuchronnie dotrzeć do

złowieszczej osobliwości. Jedynie obiekty będące na zewnątrz horyzontu zdarzeń mogą

uniknąć tego losu. Pechowy obserwator (który wkrótce przestanie już być obserwatorem),

spadający do czarnej dziury, nie zauważy niczego specjalnego w momencie przekraczania

horyzontu zdarzeń, natomiast obserwator przyglądający się temu z daleka ujrzy coś zupełnie

innego. Czas obserwatora spadającego swobodnie w pobliżu horyzontu zdarzeń zdaje się

zwalniać w stosunku do czasu obserwatora znajdującego się daleko. W związku z tym

odległemu obserwatorowi wydaje się, że ten, który spada, zwalnia swój ruch w miarę jak

zbliża się do horyzontu zdarzeń. Im bliżej horyzontu się znajduje, tym wolniej chodzi jego

zegar w stosunku do zegara zewnętrznego obserwatora. Chociaż spadającemu obserwatorowi

przekroczenie horyzontu zdarzeń może zająć tylko kilka chwil (czasu własnego) - przy czym,

powtarzam, nic specjalnego się tam nie dzieje i nic szczególnego nie znajduje - zewnętrzny

obserwator musiałby na to czekać przez wieczność. Spadający na czarną dziurę obiekt

sprawia wrażenie zamrożonego w czasie.

Co więcej, emitowane przez spadający obiekt światło coraz trudniej jest dostrzec z

zewnątrz. Gdy obiekt taki zbliża się do horyzontu zdarzeń, staje się coraz s łabiej widoczny

(ponieważ częstość docierającego od niego promieniowania przesuwa się poniżej częstości

widzialnych). A zatem nawet gdyby można było zobaczyć z zewnątrz moment przejścia

spadającego obiektu przez horyzont zdarzeń (co jest niemożliwe w jakimkolwiek

skończonym odstępie czasu), zniknąłby on w tej chwili zupełnie z pola widzenia, ponieważ

emitowane przezeń światło zostałoby schwytane razem z nim. Cokolwiek znajdzie się

wewnątrz horyzontu zdarzeń jest na zawsze stracone dla zewnętrznego świata. Ten brak

komunikacji wygląda jak jednokierunkowa ulica: zewnętrzny obserwator może wysyłać

sygnały do czarnej dziury, ale żaden z nich nigdy nie powróci.

W świetle tych faktów czarne dziury spotykane w Star Trek mają absurdalne

właściwości. Horyzont zdarzeń nie jest namacalnym przedmiotem, ale umowną

matematyczną granicą, którą wprowadzamy do opisu czarnej dziury, aby oddzielić obszar

background image

wewnętrzny od zewnętrznego. Oznacza to, że horyzont nie może wydawać z siebie trzasku,

jak tego oczekuje załoga Voyager, kiedy w cudowny sposób udaje jej się uciec z wnętrza

czarnej dziury. (Pomysł ten jest tak absurdalny, że dostał się na stworzoną przeze mnie listę

dziesięciu największych błędów popełnionych przez scenarzystów Stor Trek, które opisuję w

ostatnim rozdziale). Z kolei „istoty zamieszkujące osobliwości kwantowe”, napotkane przez

załogę Enterprise, gdy wraz z romulańskim statkiem Warbird podróżuje on w przeszłość i

przyszłość, wybierają niezbyt szczęśliwe miejsce na gniazdo dla swoich młodych:

umieszczają je wewnątrz powstałej w naturalny sposób czarnej dziury (za którą mylnie biorą

„sztuczną” osobliwość kwantową w rdzeniu silnika romulańskiego statku). Choć może to być

bezpieczne miejsce, trudno jednak wydobyć z niego swoje potomstwo. Przypominam, że nic,

coznajduje się wewnątrz czarnej dziury, nie może komunikować się z czymkolwiek na

zewnątrz.

Czarne dziury jednak, mimo tylu ciekawych własności, nie muszą być aż tak

niezwykłe. Jedyne czarne dziury, na których istnienie we Wszechświecie mamy jakiekolwiek

dowody, powstają w wyniku zapadania się gwiazd o wiele bardziej masywnych od Słońca. Te

zapadnięte obiekty stają się tak gęste, że łyżeczka znajdującej się wewnątrz nich materii

ważyłaby wiele ton. Kolejną niezwykłą właściwością czarnych dziur jest to, że im większą

mają masę, tym mniejsza musi być ich gęstość w chwili, gdy powstają. Na przykład gęstość

czarnej dziury, która utworzyła się w wyniku zapadnięcia się obiektu o masie sto milionów

razy większej od masy Słońca, nie musi być większa od gęstości wody. Obiekt o większej

masie zapadnie się i utworzy czarną dziurę nawet przy jeszcze mniejszej gęstości. Jeśli

będziemy dalej ekstrapolować tę zależność, okaże się, że gęstość konieczna do tego, aby

powstała czarna dziura o masie równej masie obserwowalnego Wszechświata, jest mniej

więcej taka sama jak średnia gęstość materii we Wszechświecie. Możliwe, że żyjemy

wewnątrz czarnej dziury!

W 1974 roku Stephen Hawking dokonał niezwykłego odkrycia, stwierdzając, że

czarne dziury nie są zupełnie czarne! Mogą emitować promieniowanie o pewnej

charakterystycznej temperaturze zależnej od ich masy. Chociaż natura tego promieniowania

nie zawiera żadnej informacji o tym, co wpadło do czarnej dziury, sama idea, że czarna dziura

może promieniować, była zdumiewająca. Wydawało się, że narusza ona wiele twierdzeń -z

których część Hawking sam wcześniej udowodnił - utrzymujących, iż materia może tylko

wpadać do czarnych dziur, ale nigdy nie może się z nich wydostać. Wszystko to prawda, tyle

że źródło promieniowania czarnej dziury nie jest zwykłą materią: promieniuje pusta

przestrzeń, która może zachowywać się całkiem nietypowo - zwłaszcza w pobliżu czarnej

background image

dziury.

Odkąd prawa mechaniki kwantowej zostały uzgodnione ze szczególną teorią

względności, do czego doszło wkrótce po drugiej wojnie światowej, wiemy, że pusta

przestrzeń nie jest całkiem pusta. Jest ona raczej kipiącym, bulgoczącym morzem

kwantowych zaburzeń. Te fluktuacje co jakiś czas wypluwają pary cząstek elementarnych,

które istnieją przez okres tak krótki, że nie możemy ich zaobserwować wprost, a następnie z

powrotem znikają w próżni, z której się narodziły. Zasada nieoznaczoności w mechanice

kwantowej mówi, że nie da się badać bezpośrednio pustej przestrzeni w tak krótkich

odcinkach czasu, a wiec nie można wykluczyć, iż owe cząstki, zwane wirtualnymi, pojawiają

się na mgnienie oka i znikają. Choć nie potrafimy wykryć tych cząstek bezpośrednio, ich

obecność ma wpływ na wielkości fizyczne, które możemy mierzyć, jak na przykład tempo i

energia przejść między pewnymi poziomami energetycznymi w atomach. Ów efekt udało się

doświadczalnie potwierdzić.

To przywodzi nas z powrotem do Hawkinga i jego niezwykłych odkryć. W

normalnych warunkach, gdy fluktuacja kwantowa tworzy wirtualną parę cząstek, para ta

anihiluje ł znika z powrotem w próżni w czasie tak krótkim, że nie można zaobserwować

złamania zasady zachowania energii (spowodowanego kreacją tej pary z nicości). Kiedy

jednak wirtualna para cząstek pojawia się w zakrzywionej przestrzeni w pobliżu czarnej

dziury, jedna z cząstek może do niej wpaść, druga zaś uciec, dzięki czemu staje się dostępna

obserwacjom. Dzieje się tak dlatego, że cząstka wpadająca do czarnej dziury może stracić w

tym procesie więcej energii, niż jest potrzebne na jej stworzenie z niczego. Dostarcza więc

ona do czarnej dziury „ujemnej energii” i w ten sposób energia czarnej dziury się obniża.

Zasada zachowania energii nie ulega przy tym złamaniu, gdyż ta ujemna energia równoważy

energię cząstki, która uciekła i została zaobserwowana. W ten sposób czarna dziura emituje

promieniowanie. Co więcej, zmniejszaniu się energii czarnej dziury towarzyszy w tym

procesie zmniejszanie się jej masy. W końcu może ona zupełnie wyparować, pozostawiając

po sobie jedynie wyprodukowane w czasie swojego istnienia promieniowanie.

Hawking i wielu innych uczonych wykroczyli poza początkowe rozważania

kwantowych fluktuacji materii w zakrzywionej przestrzeni i zajęli się czymś jeszcze bardziej

niezwykłym i nie

tak dobrze określonym. Jeśli mechanika kwantowa dotyczy nie tylko materii i

promieniowania, lecz również grawitacji, w wystarczająco małych skalach muszą pojawić się

fluktuacje samej czasoprzestrzeni. Niestety, nie dysponujemy teorią, którą moglibyśmy

wykorzystać do opisu takich procesów. Nie stanowiło to jednak przeszkody w podjęciu

background image

próbnych badań teoretycznych nad zjawiskami, które mogłyby z tego wyniknąć. Do

najbardziej interesujących należy przypuszczenie, że procesy kwantowomechaniczne

mogłyby pozwalać na spontaniczną kreację nie tylko cząstek, ale całych nowych

wszechświatów. Mechanika kwantowa określa, przynajmniej matematycznie, jak miałoby się

to odbywać, a formalny zapis tego procesu jest bardzo podobny do rozwiązań opisujących

tunele czasoprzestrzenne, odkrytych w klasycznej teorii względności. Za pośrednictwem

takich „euklidesowych” tuneli powstaje tymczasowy „most”, prowadzący do nowego

wszechświata. Możliwości związane z procesami dotyczącymi tuneli euklidesowych i

wszechświatów potomnych są tak fascynujące, że o kwantowych fluktuacjach wspomniano

nawet w czasie gry w pokera, do której zasiedli Hawking, Einstein i Newton w odcinku

Dziedzictwo z serii Następne pokolenie

1

. Jeśli twórcy Stor Trek byli zdezorientowani, mieli

do tego pełne prawo. Te zagadnienia pozostają niestety wciąż bardzo niejasne. Aż do chwili,

gdy odkryjemy właściwy formalizm matematyczny, za pomocą którego będzie można

opisywać procesy związane z kwantowaniem grawitacji, wszystkie tego rodzaju rozważania

przypominają błądzenie po omacku.

Dla nas jednak najbardziej istotne są nie zjawiska parowania czarnych dziur, czy

nawet wszechświatów potomnych, lecz raczej odkrycie, że kwantowe fluktuacje pustej

przestrzeni nabierają, przynajmniej w obecności silnych pól grawitacyjnych, własności

przypominających warunki konieczne do otwarcia tunelu czasoprzestrzennego. Zasadnicze

pytanie, na które również nie ma jeszcze ostatecznej odpowiedzi, brzmi: czy fluktuacje

kwantowe w pobliżu tunelu czasoprzestrzennego mogą się zachowywać wystarczająco

nietypowo, ażeby utrzymać otwarty tunel?

(Przy okazji należy wspomnieć, że autorzy Star Trek jeszcze raz okazali się

nadzwyczaj przewidujący w wyborze nazewnictwa. Mówi się, że tunele bajorariski i

barzański wykorzystują pola „werteronowe”. Nie mam pojęcia, czy ta nazwa została wzięta z

sufitu, czy nie. Ponieważ jednak cząstki wirtualne - fluktuacje kwantowe w pustej przestrzeni

- są obecnie najlepszym kandydatem do miana „egzotycznej materii” Kipa Thorne'a, sądzę, że

intuicja twórców Star Trek - o ile tym razem się nią posłużyli - zasługuje na uznanie).

Innymi słowy, jeśli fluktuacje kwantowe w próżni mogą być egzotyczne, czy nie

wystarczyłyby jakieś inne nieklasyczne konfiguracje materii i promieniowania - chociażby

wyrwa w środku zakrzywienia czasoprzestrzennego lub „mieszankowa” nierównowaga w

napędzie czasoprzestrzennym Scotty'ego? Ciągle nie znamy odpowiedzi na takie pytania.

Choć w żaden sposób nie wykluczają one istnienia stabilnych tuneli czasoprzestrzennych w

rzeczywistym Wszechświecie, pozostawiają otwarte ogólniejsze pytanie, dotyczące tego, czy

background image

podróże przez tunel są niemożliwe, czy jedynie prawie niemożliwe. Problem tuneli jest nie

tylko jednym z przedmiotów sporu pomiędzy nauką a fantastyką naukową: jest on kluczem,

mogącym otworzyć drzwi, które wielu wolałoby pozostawić zamknięte.

NOWE SPOJRZENIE NA WEHIKUŁY CZASU. Tunele, chociaż znakomicie by się

nadawały do pokonywania olbrzymich odległości w przestrzeni, kryją w sobie jeszcze

bardziej niezwykłą możliwość, zauważoną ostatnio w odcinku Ucho igielne z serii Voyager.

Załoga Voyager odkrywa mały tunel wiodący z powrotem do ich własnego „kwadrantu alfa”

Galaktyki. Po nawiązaniu łączności przez ten tunel okazało się ku ich przerażeniu, że

prowadzi on nie do kwadrantu alfa, który znali i kochali, ale do kwadrantu alfa o jedno

pokolenie wcześniej. Dwa końce tunelu łączyły przestrzeń w dwóch różnych czasach!

I tym razem twórcy serii Voyager uchwycili sedno sprawy. Jeśli istnieją tunele

czasoprzestrzenne, niewątpliwie mogą one być wehikułami czasu! Świadomość tego

zaskakującego faktu narastała w ciągu ostatniego dziesięciolecia, w miarę jak różni teoretycy,

nie mając nic lepszego do roboty, zaczęli badać fizykę tuneli czasoprzestrzennych nieco

poważniej. Wykorzystując ideę tuneli, łatwo jest zaprojektować wehikuł czasu. Najprostszy

chyba przykład znowu zawdzięczamy Kipowi Thorne'owi: tunel, którego jeden koniec

pozostaje zamocowany, drugi zaś porusza się z dużą, ale podświetlną prędkością w odległym

obszarze Galaktyki. W zasadzie jest to możliwe, nawet jeśli długość tunelu nie ulega

zmianom. Używając przedstawionego wcześniej dwuwymiarowego modelu tunelu,

przesuńmy po prostu dolną część powierzchni na lewo, pozwalając przestrzeni „prześlizgiwać

się” po dolnym otworze tunelu, który przez cały czas znajduje się w tym samym miejscu w

stosunku do drugiego otworu tunelu:

Ponieważ dolny wylot tunelu porusza się względem przestrzeni, w której jest

umieszczony, natomiast górny pozostaje w tym samym miejscu, zgodnie ze szczególną teorią

względności zegary na każdym z końców tunelu odmierzają czas w innym tempie. Jeśli

jednak długość tunelu nie ulega zmianie, dla kogoś znajdującego się wewnątrz tunelu te dwa

końce będą się znajdowały względem siebie w spoczynku. W tym układzie odniesienia zegary

w obu końcach powinny tykać w takim samym tempie. Cofnijmy teraz dolną część

powierzchni z powrotem w to samo miejsce, tak aby dolne wejście do tunelu znalazło się w

początkowym położeniu. Powiedzmy, że czynność ta - obserwowana przez kogoś

background image

znajdującego się w pobliżu dolnego wylotu tunelu - zajmuje jeden dzień. Z punktu widzenia

obserwatora znajdującego się przy górnym końcu tunelu ten sam proces może trwać dziesięć

dni. Gdyby ten drugi obserwator spojrzał przez tunel na obserwatora znajdującego się na dole,

zobaczyłby na jego ściennym kalendarzu datę o dziewięć dni wcześniejszą! Jeśli teraz

zdecyduje się on złożyć wizytę drugiemu obserwatorowi podróżując przez tunel, cofnie się w

czasie.

Jeśli istnieją stabilne tunele czasoprzestrzenne, musimy przyznać, że wehikuły czasu

są możliwe. Powróćmy teraz do uwag Einsteina, o których była mowa na początku

poprzedniego rozdziału. Czy podróże w czasie - a zatem stabilne tunele i egzotyczną materię

o ujemnej energii - można „wykluczyć ze względów fizycznych”?

Tunele są w końcu tylko jednym z przykładów wehikułów czasu, które

zaproponowano w ramach ogólnej teorii względności. Jeśli przypomnimy sobie naszą

poprzednią dyskusję o naturze tej teorii, nie powinno być zaskakujące, że podróże w czasie

stają się w niej możliwe. Powtórzmy jeszcze raz poglądowy zapis równań Einsteina, który

podałem wcześniej:

Lewa strona równania

=

Prawa strona równania

ZAKRZYWIENIE

=

MATERIA I ENERGIA

Lewa strona tego równania określa geometrię czasoprzestrzeni. Prawa strona opisuje

rozkład materii i energii. Moglibyśmy zapytać, jaka będzie krzywizna przestrzeni dla danego

rozkładu materii i energii. Ale możemy też działać odwrotnie. Dla danej geometrii

przestrzeni, włącznie z taką, która zawiera zamknięte krzywe czasowe - czyli pętle

przyczynowe, pozwalające powrócić do początkowego punktu w przestrzeni i czasie (w pętlę

taką wpadł Enterprise przed, w trakcie i po zderzeniu z Bozemanem) - równania Einsteina

określają dokładnie, jaki rozkład materii i energii musi jej towarzyszyć. W zasadzie można

więc zaprojektować dowolny rodzaj wszechświata z podróżami w czasie; równania Einsteina

szczegółowo podpowiedzą, jakiego rozkładu materii i energii należy użyć. Kluczowe pytanie

jest więc następujące: czy taki rozkład materii i energii jest fizycznie możliwy?

Przekonaliśmy się już, dlaczego to pytanie pojawia się, gdy dyskutujemy o tunelach

czasoprzestrzennych. Istnienie stabilnych tuneli wymaga egzotycznej materii o ujemnej

energii. Rozwiązanie umożliwiające podróże w czasie znalazł w ramach ogólnej teorii

względności Kurt Godeł. Wymaga ono istnienia wszechświata o stałej, jednorodnej gęstości

energii i zerowym ciśnieniu; wszechświata, który się obraca, ale nie rozszerza. Ostatnio

zaproponowano wehikuł czasu związany z istnieniem strun kosmicznych, który również

background image

wymaga konfiguracji o ujemnej energii. Niedawno udowodniono, że w ogólnej teorii

względności każda konfiguracja materii, która mogłaby pozwalać na podróże w czasie,

wymagałaby zastosowania egzotycznych rodzajów materii o ujemnej energii z punktu

widzenia przynajmniej jednego obserwatora.

Ciekawe, że prawie we wszystkich odcinkach Stor Trek mówiących o podróżach w

czasie lub pętlach czasowych dochodzi również do gwałtownego uwolnienia energii, zwykle

związanego z wyrwą w środku zakrzywienia czasoprzestrzennego. Na przykład czasowa pętla

przyczynowa, w którą został złapany Enterprise, powstała zaraz po (choć właściwie pojęcia

„przed” i „po” tracą sens w pętli przyczynowej) zderzeniu z Bozemanem, które spowodowało

naruszenie zakrzywienia czasoprzestrzennego i zniszc zenie Enterprise. Ta sama seria

wydarzeń powtarzała się wielokrotnie, aż w końcu w jednym cyklu załodze udało się uniknąć

zderzenia. Chwilowe zamrożenie czasu na pokładzie Enterprise, odkryte przez Picarda, Datę,

Troia i LaForge'a w odcinku Czasobroz, przypuszczalnie również było spowodowane przez

narastające naruszenie zakrzywienia czasoprzestrzeni w połączeniu z awarią rdzenia silnika

na pokładzie pobliskiego statku romulańskiego. W odcinku Czas do kwadratu rozległy „węzeł

energetyczny” cofnął Picarda w czasie. W klasycznym przykładzie podróży w czasie w Stor

Trek:. Nagi czas statek Enterprise zostaje przerzucony o trzy dni wstecz w wyniku implozji

zakrzywienia czasoprzestrzennego.

Natomiast olbrzymie zakrzywienie czasoprzestrzeni w ostatnim odcinku z serii

Następne pokolenie, podróżujące wstecz w czasie i grożące pochłonięciem całego

Wszechświata, zostało spowodowane jednoczesną eksplozją trzech wersji Enterprise, które -

choć pochodziły z różnych epok - znalazły się w tym samym punkcie przestrzeni.

Wygląda więc na to, że podróże w czasie w rzeczywistym Wszechświecie, podobnie

jak we wszechświecie Star Trek, związane są z możliwościami istnienia egzotycznych

konfiguracji materii. Czy jakaś wystarczająco zaawansowana obca cywilizacja mogłaby

skonstruować stabilny tunel czasoprzestrzenny? Czy potrafimy opisać wszystkie rozkłady

masy, które mogą prowadzić do podróży w czasie, a następnie wykluczyć je „ze względów

fizycznych”, jak zapewne życzyłby sobie tego Einstein? Na razie nie znamy odpowiedzi na te

pytania. Niektóre szczególne wehikuły czasu - takie jak wehikuł czasu Godła lub

wykorzystujący istnienie strun kosmicznych - okazały się nie-fizyczne. Chociaż podróże w

czasie przez tunele czasoprzestrzenne nie zostały jeszcze ostatecznie wykluczone, wstępne

badania sugerują, że kwantowe fluktuacje grawitacji mogą spowodować samozagładę tuneli,

zanim udałoby się je wykorzystać do podróży w czasie.

Ostateczne rozwiązanie problemu podróży w czasie pozostanie prawdopodobnie nie

background image

znane, dopóki nie powstanie teoria kwantowej grawitacji. Kilka odważnych osób, ze

Stephenem Hawkingiem na czele, zajęło już jednak stanowisko w tej sprawie. Hawking jest

przekonany, że podróże w czasie są niemożliwe z powodu oczywistych paradoksów z nimi

związanych. Zaproponował on „hipotezę zachowania chronologii”, twierdząc, że „prawa

fizyki nie pozwalają na pojawienie się zamkniętych krzywych czasowych”.

Osobiście przychylam się do poglądu Hawkinga. Fizyki nie uprawia się jednak za

pomocą dekretów. Jak stwierdziłem wcześniej, ogólna teoria względności często wykracza

poza nasze naiwne oczekiwania. Jako ostrzeżenie przytoczę dwa znane mi z historii

precedensy, kiedy to znani teoretycy utrzymywali,

że zaproponowane w teorii względności zjawisko powinno zostać uznane za

niemożliwe, ponieważ muszą go zabraniać prawa fizyki.

Pierwszy raz zdarzyło się to, kiedy młody astrofizyk Subrahmanyan Chandrasekhar

wysunął przypuszczenie, że jądra gwiazd o masie większej niż 1,4 masy Słońca nie mogą po

spaleniu całego swojego paliwa jądrowego ustabilizować się jako białe karły, lecz muszą

dalej zapadać się grawitacyjnie. Znany fizyk sir Arthur Eddington publicznie zakwestionował

ten wynik, mówiąc: „wiele przypadków może się przyczynić do uratowania gwiazdy, ale ja

chcę silniejszego zabezpieczenia. Sądzę, że powinno istnieć prawo natury, które

zapobiegałoby zachowaniu się gwiazdy w tak absurdalny sposób!” W tamtych czasach wielu

astrofizyków stanęło po stronie Eddington. Pół wieku później Chandrasekhar otrzymał

Nagrodę Nobla za swoje badania, których wyniki do tego czasu zostały już wielokrotnie

potwierdzone.

Nieco ponad 20 lat po tej historii do bardzo podobnego wydarzenia doszło na

konferencji w Brukseli. J. Robert Oppenheimer, znany amerykański fizyk teoretyk i ojciec

bomby atomowej, obliczył, że obiekty, zwane gwiazdami neutronowymi -czyli pozostałości

po supernowych, jeszcze gęstsze niż białe karły - nie mogą mieć masy większej od około

dwóch mas Słońca, w przeciwnym bowiem razie zapadają się dalej, tworząc coś, co dziś

nazywamy czarną dziurą. Równie znany uczony, John Archibald Wheeler, stwierdził, że

wynik ten jest niemożliwy, przytaczając ten sam argument, którego użył Eddington, aby

odrzucić twierdzenie Chandrasekhara: prawa fizyki muszą w jakiś sposób zapobiegać tak

absurdalnemu losowi obiektów fizycznych. W ciągu następnych dziesięciu lat Wheeler

zmienił zdanie i, jak na ironię, zasłynął jako ten, który nadał czarnym dziurom ich nazwę.

background image

ROZDZIAŁ 4

DATA KOŃCZY GRĘ

I jam w przyszłość się pogrążał i, jak oka sięgnie trud,

Świat widziałem, który idzie, i wszelaki jego cud.

ALFRED TENNYSON, Zamek w Lockslty

(cytat zawieszony na pokładzie statku Voyager)

Niezależnie od tego, czy w przyszłości opisywanej przez Star Trek może istnieć

stabilny tunel czasoprzestrzenny i czy załoga Enterprise mogła przenieść się w czasie do

dziewiętnastowiecznego San Francisco, prawdziwa stawka w tym kosmicznym pokerze wiąże

się z pytaniem, które doprowadziło nas do dyskusji nad zakrzywioną czasoprzestrzenią.

Brzmi ono: czy może istnieć napęd czasoprzestrzenny? Ponieważ nie wydaje się możliwe,

aby Galaktyka była podziurawiona stabilnymi tunelami czasoprzestrzennymi, z naszych

wcześniejszych dyskusji wynika niezbicie, że bez tego rodzaju napędu większość Drogi

Mlecznej pozostanie na zawsze poza naszym zasięgiem. Nadszedł w końcu czas, aby zająć się

tym irytującym pytaniem. Odpowiedzią jest głośne: Być może!

Po raz kolejny wiele zawdzięczamy językowej przenikliwości twórców Stor Trek.

Opisywałem już, dlaczego żaden rakietowy mechanizm napędowy nigdy nie ominie trzech

przeszkód stojących na drodze do podróży międzygwiezdnych, które ustanowiła szczególna

teoria względności. Po pierwsze, nic nie może poruszać się szybciej niż światło w pustej

przestrzeni. Po drugie, zegary obiektów podróżujących z prędkością bliską prędkości światła

zwalniają. Po trzecie, nawet gdyby rakieta mogła przyspieszyć statek kosmiczny do prędkości

bliskich prędkości światła, jej zapotrzebowanie na paliwo byłoby bardzo wygórowane.

Pomysł polega na tym, aby zamiast jakiegokolwiek typu rakiety używać samej

czasoprzestrzeni - zakrzywiając ją. Ogólna teoria względności wymaga, abyśmy byli nieco

bardziej dokładni w naszych stwierdzeniach na temat ruchu. Zamiast mówić, że nic nie może

poruszać się szybciej niż światło, winniśmy raczej twierdzić, iż nic nie może podróżować

lokalnie szybciej niż światło. Oznacza to, że nic nie może biec szybciej niż światło względem

lokalnych mierników odległości. Jeśli jednak czasoprzestrzeń jest zakrzywiona, lokalne

mierniki odległości nie muszą być takie same jak globalne.

Jako przykład niech posłuży nam sam Wszechświat. Według szczególnej teorii

względności zegary wszystkich obserwatorów znajdujących się w spoczynku względem

swojego otoczenia odmierzają czas w takim samym tempie. Zatem w trakcie przemieszczania

background image

się przez Wszechświat mogę co jakiś czas się zatrzymywać, umieszczając zegary w takich

samych odległościach od siebie w przestrzeni, i oczekiwać, że wszystkie one będą odmierzały

ten sam czas. Ogólna teoria względności tego nie zmienia. Zegary będące lokalnie w

spoczynku odmierzają ten sam czas. Ogólna teoria względności zezwala jednak, by

czasoprzestrzeń się rozszerzała. Obiekty, znajdujące się po przeciwnych stronach

obserwowalnego Wszechświata, oddalają się od siebie z prędkością bliską prędkości światła,

ale mimo to pozostają w spoczynku względem swojego otoczenia. Jeśli Wszechświat

rozszerza się jednorodnie ł jest wystarczająco duży - a oba te założenia wydają się prawdziwe

- istnieją obiekty, których nie możemy jeszcze zobaczyć i które w tej właśnie chwili oddalają

się od nas o wiele szybciej niż światło, chociaż cywilizacje na tych krańcach Wszechświata

mogą się znajdować lokalnie w spoczynku względem swojego otoczenia.

Krzywizna przestrzeni stwarza więc lukę w argumentach szczególnej teorii

względności - lukę wystarczająco dużą, aby mógł się przez nią przecisnąć statek kosmiczny

Federacji. Jeśli istnieje możliwość manipulowania samą czasoprzestrzenią, obiekty mogą się

poruszać lokalnie z małymi prędkościami, ale towarzyszące im rozszerzanie lub kurczenie się

przestrzeni pozwala na pokonywanie olbrzymich odległości w krótkim czasie. Widzieliśmy

już, w jaki sposób daleko idąca manipulacja - to znaczy wycinanie i sklejanie odległych

części Wszechświata za pomocą tunelu czasoprzestrzennego - może tworzyć skróty w

czasoprzestrzeni. Chcę tutaj pokazać, że nawet jeśli nie będziemy się uciekać do tak

drastycznych zabiegów, podróże z prędkością ponadświetlną mogą być globalnie możliwe,

nawet jeśli nie są możliwe lokalnie.

Zasadniczy dowód tego stwierdzenia został ostatnio przedstawiony przez Miguela

Alcubierre'a, fizyka z Uniwersytetu Walijskiego. Postanowił on dla zabawy zbadać, czy w

ramach ogólnej teorii względności można znaleźć spójne rozwiązanie dopuszczające tego

typu podróże. Udało mu się wykazać, że można uzyskać taką konfigurację czasoprzestrzeni,

w której statek kosmiczny podróżowałby między dwoma punktami w dowolnie krótkim

czasie. Co więcej, przez cały czas podróży statek ten poruszałby się względem swojego

otoczenia z prędkościami mniejszymi od prędkości światła, dzięki czemu zegary na jego

pokładzie byłyby zsynchronizowane z zegarami znajdującymi się w punkcie startu oraz w

punkcie docelowym. Wygląda więc na to, że ogólna teoria względności pozwala nam

jednocześnie mieć ciastko i je zjeść.

Pomysł jest prosty. Jeśli czasoprzestrzeń można lokalnie ukształtować tak, aby

rozszerzała się za statkiem, a kurczyła przed nim, statek będzie się poruszał wraz z

przestrzenią, w której się znajduje, niczym deska surfingowa na fali. Nie przekroczy on nigdy

background image

prędkości światła, ponieważ światło również będzie się unosiło wraz z rozszerzającą się falą

przestrzeni.

By lepiej to zrozumieć, wyobraźmy sobie, że znajdujemy się na pokładzie takiego

statku. Jeśli przestrzeń za nami nagle znacznie się rozszerzy, zauważymy, że stacja

kosmiczna, którą opuściliśmy przed kilkoma minutami, znajduje się teraz w odległości wielu

lat świetlnych. Podobnie, jeśli przestrzeń skurczy się przed nami, spostrzeżemy, że stacja

kosmiczna, do której zmierzamy i która znajdowała się uprzednio w odległości kilku lat

świetlnych, jest teraz bardzo blisko i można do niej dotrzeć w ciągu kilku minut, używając

zwykłego napędu rakietowego.

Można tak zaprojektować geometrię czasoprzestrzeni, aby olbrzymie pola

grawitacyjne, potrzebne do rozszerzania i kurczenia przestrzeni, nie miały nigdy dużych

wartości w pobliżu statku lub którejś ze stacji kosmicznych. W okolicach statku i stacji

przestrzeń może być niemal płaska i dzięki temu zegary na statku i w stacjach pozostaną

zsynchronizowane. Gdzieś między statkiem a stacjami grawitacyjne siły pływowe będą

olbrzymie, ale nie przeszkodzi to nam, dopóki się tam nie znajdziemy.

Takie właśnie rozwiązanie musieli mieć na myśli autorzy Star Trek, kiedy wymyślali

napęd czasoprzestrzenny, nawet jeśli nie przypomina ono zbytnio podanych przez nich

opisów technicznych. Czyni za to zadość wszystkim postawionym wcześniej wymaganiom,

które należy spełnić, aby odbywać z powodzeniem kontrolowane podróże międzygalaktyczne.

Mamy tu: (1) prędkość ponadświetlną, (2) brak dylatacji czasu i (3) brak napędu rakietowego.

Pominęliśmy oczywiście bardzo ważną kwestię. Nadając samej czasoprzestrzeni własności

dynamiczne, ogólna teoria względności pozwala na tworzenie „zaprojektowanych

czasoprzestrzeni”, w których możliwy jest niemal każdy rodzaj ruchu w przestrzeni i czasie.

Nie za darmo jednak: teoria względności wiąże te czasoprzestrzenie z pewnym rozkładem

materii i energii. Aby zatem pożądana czasoprzestrzeń była „fizyczna”, leżący u jej podstaw

rozkład materii i energii musi być osiągalny. Niedługo powrócimy do tego problemu.

Pierwszą ciekawą własnością takich zaprojektowanych czasoprzestrzeni jest to, że

pozwalają nam one powrócić do dawnych problemów Newtona i stworzyć amortyzatory

bezwładności oraz wiązki holownicze. Idea jest taka sama, jak w przypadku napędu

czasoprzestrzennego. Jeśli można zakrzywiać czasoprzestrzeń wokół statku, obiekty mogą się

poruszać osobno lub razem, nie doświadczając żadnego lokalnego przyspieszenia, co, jak

pamiętamy, było zmorą Newtona. Aby uniknąć niewiarygodnych przyspieszeń, koniec znych

do osiągnięcia prędkości bliskich prędkości światła przy wykorzystaniu napędu pulsacyjnego,

musimy uciekać się do takich samych trików z czasoprzestrzenią, jak w przypadku użycia

background image

napędu czasoprzestrzennego. Zanika więc różnica między napędem pulsacyjnym a napędem

czasoprzestrzennym. Podobnie, aby użyć wiązki holowniczej do przyciągnięcia ciężkiego

obiektu, takiego jak planeta, należy skurczyć przestrzeń po tej stronie planety, która jest bliżej

nas, a rozszerzyć po przeciwnej. To proste!

Zakrzywianie czasoprzestrzeni ma również inne zalety. Jeżeli przestrzeń przed

Enterprise Jest silnie zakrzywiona, jakikolwiek promień świetlny - albo na przykład wiązka

fazera - zostanie odchylony od statku. Niewątpliwie na tej zasadzie działają tarcze

deflektorów. I rzeczywiście, z serialu dowiadujemy się, że tarcze deflektorów pracują dzięki

„spójnej emisji grawitonów”. Ponieważ grawitony są z definicji cząstkami, które przenoszą

siłę grawitacji, spójna emisja grawitonów jest niczym innym, jak tworzeniem spójnego pola

grawitacyjnego. W języku współczesnej fizyki to właśnie spójne pole grawitacyjne zakrzywia

przestrzeń! Tak więc twórcy Stor Trek po raz kolejny wybrali właściwe słownictwo.

Wyobrażam sobie, że romulańskie urządzenie maskujące mogłoby działać w podobny

sposób. Enterprise z rozwiniętymi tarczami deflektora jest, w gruncie rzeczy, dobrze

zamaskowanym statkiem. W końcu coś, co samoistnie nie świeci, widzimy dlatego, że obiekt

ten odbija światło, które następnie trafia do nas. Maskowanie musi zatem polegać na

zakrzywieniu przestrzeni tak, aby promienie świetlne zakrzywiały się wokół statku, zamiast

się od niego odbijać. Nie różni się to prawie od odchylania promieni świetlnych od statku

Enterprise. W związku z tym, zanim wyemitowany został odcinek Pegaz serii Następne

pokolenie, wielu trekkerów gnębiło pytanie, dlaczego Federacja nie stosuje technologii

maskowania? A zatem każda cywilizacja, która potrafi wytwarzać deflektory, powinna

również umieć budować urządzenia maskujące. W odcinku Pegaz dowiadujemy się, że

ograniczeniem dla rozwoju urządzeń maskujących było raczej zawarte porozumienie, a nie

poziom technologii (w ostatnim odcinku serii Następne pokolenie pod tytułem Wszystko, co

dobre... okazuje się, że Federacja w końcu przyzwala na stosowanie maskowania s tatków).

Kiedy dysponujemy już napędem czasoprzestrzennym działającym zgodnie z

zasadami ogólnej teorii względności, prędkości uzyskiwane przy użyciu tego napędu

nabierają bardziej konkretnego znaczenia. Prędkość taka zależałaby od tego, jak bardzo

kurczy się lub rozszerza objętość przestrzeni przed lub za statkiem. Ustalenia dotyczące tych

prędkości nigdy nie były ostateczne: wygląda na to, że między pierwszą a drugą serią Gene

Roddenberry zdecydował, iż prędkości statków kosmicznych należy przekalibrować tak, by

nie przekraczały 10 warpów. Oznacza to, że prędkości tych nie można mierzyć prostą skalą

logarytmiczną, w której 10 warpów odpowiadałoby na przykład 2

10

= 1024 x prędkość

światła. Według instrukcji technicznej serii Następne pokolenie 9,6 warpa - największa

background image

prędkość osiągana przez Enterprise-D - odpowiada wartości 1909 x prędkość światła, a 10

warpów oznacza prędkość nieskończoną. Warto zauważyć, że mimo tego przekalibrowania,

co jakiś czas namierza się obiekty (takie jak sześcian Borga) poruszające się z prędkościami

większymi niż 10 warpów, sądzę więc, że nie powinniśmy się przejmować szczegółami.

I tyle dobrych wiadomości...

Skoro przekonaliśmy się już, że napęd czasoprzestrzenny nie jest czymś całkowicie

niemożliwym (przynajmniej w zasadzie), musimy w końcu stawić czoło konsekwencjom tego

zjawiska dla prawej strony równań Einsteina - to znaczy dla rozkładu materii i energii, jaki

jest konieczny do stworzenia wymaganego zakrzywienia czasoprzestrzeni. Cóż, pod tym

względem okazuje się, że sytuacja wygląda tu gorzej jeszcze niż w przypadku tuneli

czasoprzestrzennych. Obserwatorzy podróżujący z wielką prędkością przez tunel

czasoprzestrzenny mieliby do czynienia z ujemną energią. W przypadku materii potrzebnej do

stworzenia napędu czasoprzestrzennego nawet obserwator znajdujący się w spoczynku

względem statku kosmicznego - czyli obecny na jego pokładzie - zarejestrowałby ujemną

energię.

Ta sytuacja nie jest aż tak bardzo zaskakująca. Na pewnym poziomie wszystkie

niezwykłe rozwiązania ogólnej teorii względności - pozwalające utrzymywać otwarte tunele,

odbywać podróże w czasie i budować silniki czasoprzestrzenne -wymagają, by w pewnych

skalach materia odpychała grawitacyjnie inną materię. W ogólnej teorii względności istnieje

nawet twierdzenie mówiące, że warunek ten jest równoważny temu, by energia materii była

dla pewnych obserwatorów ujemna.

Jeszcze bardziej zaskakujące jest to, że z połączenia mechaniki kwantowej ze

szczególną teorią względności wynika, iż przynajmniej w skalach mikroskopowych lokalny

rozkład energii może być ujemny. Jak zauważyłem w rozdziale trzecim, fluktuacje kwantowe

często mają tę własność. Zasadnicze pytanie, na które na razie nie znamy odpowiedzi,

dotyczy tego, czy znane nam prawa fizyki pozwalają na to, aby materia była obdarzona taką

własnością w skali makroskopowej. Obecnie nie mamy najmniejszego pojęcia, jak można by

tworzyć taką materię w zgodzie z prawami fizyki.

Zapomnijmy jednak na chwilę o potencjalnych przeszkodach i przypuśćmy, że

pewnego dnia uda się stworzyć egzotyczną materię, wykorzystując jakąś zaawansowaną

kwanto-womechaniczną inżynierię materii lub pustej przestrzeni. Nawet w takim przypadku

wymagania energetyczne, jakie należałoby spełnić, aby w opisany sposób bawić się

czasoprzestrzenią, byłyby niewyobrażalnie większe od mocy koniecznej do osiągnięcia

prędkości pulsacyjnych. Rozważmy masę Słońca, która jest blisko milion razy większa od

background image

masy Ziemi. Pole grawitacyjne na powierzchni Słońca wystarcza, aby zakrzywić promień

świetlny o mniej niż jedną tysięczną stopnia. Jakież olbrzymie pola grawitacyjne należałoby

wytworzyć w pobliżu statku kosmicznego, aby odchylić o 90 stopni biegnący w jego kierunku

promień fazera! Jest to jedna z wielu przyczyn, dla których zupełnie niemożliwy jest słynny

„efekt katapulty”, którym posłużono się po raz pierwszy w klasycznym odcinku Jutro będzie

wczoraj, aby cofnąć Enterprise w czasie (później w Stor Trek IV: Podróż do domu, a także w

odcinku Czas do kwadratu z serii Następne pokolenie). Pole grawitacyjne w pobliżu

powierzchni Słońca jest bardzo małe w porównaniu z efektami grawitacyjnymi, jakie byłyby

potrzebne, aby zaburzyć przestrzeń w opisany tutaj sposób.

Jednym ze sposobów określenia potrzebnej w tym celu energii jest porównanie jej z

energią niezbędną do stworzenia czarnej dziury wielkości Enterprise - ponieważ czarna dziura

tej średnicy z pewnością wytworzyłaby pole grawitacyjne, które mogłoby znacząco zakrzywić

biegnący w pobliżu niej promień świetlny. Masa takiej czarnej dziury wynosiłaby 10% masy

Słońca. Gdy wyrazimy to w jednostkach energii, okaże się, że na wytworzenie takiej czarnej

dziury potrzebna byłaby całkowita energia, jaką wytwarza Słońce w ciągu swego istnienia.

Gdzie się więc znajdujemy pod koniec tej gry? Wiemy wystarczająco dużo o naturze

czasoprzestrzeni, aby opisać, w jaki sposób można by, przynajmniej teoretycznie,

wykorzystać zakrzywioną przestrzeń do podróży międzygwiezdnych pokazywanych w Stor

Trek. Wiemy, że bez tych niezwykłych możliwości prawdopodobnie nigdy nie będziemy

podróżować po Galaktyce. Z drugiej strony, nie mamy pojęcia, czy fizyczne warunki,

konieczne do osiągnięcia tego celu, są możliwe praktycznie lub nawet czy są w zasadzie

możliwe. Gdyby jednak były, każda cywilizacja próbująca je wykorzystać musiałaby zaprząc

do tego energię znacznie większą niż cokolwiek, co można sobie obecnie wyobrazić.

Można, jak sądzę, przyjąć optymistyczny pogląd, że te naprawdę niezwykłe cuda

przynajmniej a priori nie są niemożliwe, choć zależą od jednej mało prawdopodobnej

możliwości: umiejętności tworzenia i przechowywania egzotycznej materii i energii. Są

powody, aby mieć nadzieję, muszę jednak przyznać, że sam jestem tu raczej sceptykiem.

Podobnie jak mój kolega, Stephen Hawking, jestem przekonany, że paradoksy związane z

podróżami w czasie wykluczają taką możliwość w każdej rozsądnej teorii fizycznej.

Ponieważ mniej więcej takie same warunki muszą być spełnione dla stworzenia napędu

czasoprzestrzennego i tarczy deflektorów, nie spodziewam się, że kiedyś zostaną

skonstruowane - chociaż już raz się pomyliłem.

Mimo to wciąż jestem optymistą. Według mnie, najbardziej godna szacunku jest

olbrzymia ilość wiedzy, która przywiodła nas do tego fascynującego progu. Żyjemy w

background image

odległym zakątku jednej ze 100 miliardów galaktyk obserwowalnego Wszechświata.

Podobnie jak robaczki na kawałku gumy, mieszkamy we Wszechświecie, którego prawdziwa

forma jest ukryta przed naszym wzrokiem. W ciągu mniej niż dwudziestu pokoleń - od

czasów Newtona do dzisiaj - używaliśmy prostych praw fizyki, aby rozświetlić głębiny

przestrzeni i czasu. Możliwe, że nigdy nie będziemy mogli wejść na pokład statków i

wyruszyć do gwiazd, ale nawet uwięzieni na tej małej błękitnej planecie potrafiliśmy zbadać

nocne niebo i odkryć niezwykłe zjawiska, a niewątpliwie wiele jeszcze przed nami. Jeśli

nawet fizyka nie jest w stanie umożliwić nam międzygwiezdnych podróży i wędrówek po

Galaktyce, z pewnością nam ją przybliża.

background image

CZĘŚĆ II

MATERIA, WSZĘDZIE MATERIA

W części tej czytelnik zapoznaje się z transporterem,

napędem czasoprzestrzennym,

kryształami dwulitu, silnikami na materie

i antymaterię oraz z holodekiem.

background image

ROZDZIAŁ 5

ATOMY CZY BITY

Reg, przesyłanie naprawdę jest najbezpieczniejszym sposobem podróżowania.

GEORDI LaFORGE do porucznika Reginalda Barclaya

w odcinku Królestwo strachu

Życie naśladuje sztukę. Ostatnio ciągle słyszę to samo pytanie: atomy czy bity - gdzie

leży przyszłość? Trzydzieści lat temu Gene Roddenberry zajmował się tym samym

problemem z innych powodów. Miał piękny projekt statku kosmicznego oraz jeden mały

problem: podobnie jak pingwin w wodzie, Enterprise potrafił gładko szybować w przestrzeni

kosmicznej, lecz - tak jak pingwin na lądzie - miałby poważne problemy z podwoziem przy

lądowaniu. Co więcej, szczupły tygodniowy budżet telewizyjny wykluczał kręcenie co

tydzień lądowania olbrzymiego statku kosmicznego.

Jak więc rozwiązać ten problem? To proste: spowodować, aby statek nigdy nie musiał

lądować. Znaleźć jakiś sposób na przenoszenie członków załogi ze statku na powierzchnię

planety. Zanim można było powiedzieć: „Prześlij mnie”, musiał się narodzić transporter.

Chyba żadne inne urządzenie, może z wyjątkiem napędu czasoprzestrzennego, nie

ubarwia tak bardzo misji każdego statku Federacji. Nawet ci, którzy nigdy nie oglądali

żadnego odcinka Star Trek, znają przytoczone przed chwilą magiczne wyrażenie. Przeniknęło

ono do kultury masowej. Słyszałem ostatnio o młodym człowieku, który będąc w stanie

nietrzeźwym przejechał skrzyżowanie na czerwonym świetle i wjechał

na samochód policyjny. Gdy na przesłuchaniu zapytano go, czy ma coś do

powiedzenia, zrozpaczony młodzian wstał, wyjął portfel, otworzył go i wymamrotał: „Prześlij

mnie, Scotty!” Ta historyjka jest pewnie nieprawdziwa, lecz świadczy

0 wpływie, jaki hipotetyczna technologia wywarła na naszą kulturę; wpływie tym

bardziej godnym uwagi, że prawdopodobnie żaden przykład fantastycznonaukowej

technologii na pokładzie Enterprise nie jest tak kompletnie niewiarygodny. Aby stworzyć

takie urządzenie, należałoby przezwyciężyć więcej problemów - zarówno teoretycznych, jak i

praktycznych - niż można sobie wyobrazić. Problemy te związane są z rozległymi obszarami

fizyki i matematyki, włącznie z teorią informacji, mechaniką kwantową, równaniem Einsteina

łączącym masę i energię, fizyką cząstek elementarnych i tak dalej.

W ten sposób dochodzimy do dyskusji na temat atomów i bitów. Pojęcie transportera

background image

zmusza nas do zadania kluczowego pytania: jeśli mamy do czynienia z problemem

przeniesienia ze statku na powierzchnię planety około l O

28

(l z 28 zerami) atomów materii

wraz ze złożonym wzorem budowy konkretnej istoty ludzkiej, jaki jest najszybszy i

najbardziej efektywny sposób przeprowadzenia takiej operacji? Pytanie jest istotne, ponieważ

z tym samym dylematem spotykamy się rozważając problem, w jaki sposób najlepiej

zwielokrotnić skomplikowany układ około l O

26

atomów, znajdujących się w średniej

wielkości książce. Potencjalnie rewolucyjnym pomysłem, przynajmniej tak twierdzi wielu

guru mediów cyfrowych, jest uznanie, że atomy nie są aż tak ważne. Większe znaczenie mają

bity.

Rozważmy jako przykład książkę w bibliotece. Biblioteka kupuje zwykle jeden

egzemplarz książki (czasem kilka - w przypadku autorów, którzy mają więcej szczęścia),

przechowywany i wypożyczany jednej osobie na raz. Jednak w bibliotece cyfrowej tę samą

informację można przechowywać w postaci bitów. Bity to jedynki lub zera, które łączy się w

ośmioelementowe ciągi, zwane bajtami, mogące przedstawiać słowa lub liczby. Ta informacja

tkwi w pamięci magnetycznej komputerów, gdzie każdy bit jest reprezentowany przez

namagnesowany (1) lub nienamagnesowany (O) obszar. W takim przypadku do tego samego

miejsca w pamięci komputera może mieć dostęp - w zasadzie w tym samym czasie - dowolna

liczba użytkowników. Tak więc dzięki bibliotece cyfrowej każda osoba na Ziemi, która w

przeciwnym razie musiałaby kupić książkę, może ją przeczytać, korzystając tylko z jednego

źródła. Oczywiście, dysponowanie rzeczywistymi atomami, które składają się na książkę, nie

odgrywa już w tym wypadku wielkiego znaczenia i jest na pewno mniej efektywne, niż

przechowywanie bitów (chociaż pozbawia autora wpływów ze sprzedaży).

A co z ludźmi? Jeśli planuje się przenosić ludzi, czy należy przemieszczać ich atomy,

czy tylko informację, którą zawierają? Na pierwszy rzut oka można by sądzić, że

przeniesienie informacji jest o wiele łatwiejsze, choćby dlatego, że informacja może

podróżować z prędkością światła. W przypadku ludzi mamy jednak do czynienia z dwoma

problemami, które nie dotyczą książek: po pierwsze, należy wydobyć informację, co nie jest

takie łatwe; po drugie, informację trzeba połączyć z materią. W końcu ludzie - w

przeciwieństwie do książek - potrzebują atomów.

Wydaje się, że twórcy Star Trek nigdy nie wyjaśnili dokładnie, co ma robić ich

transporter. Czy przesyła on atomy i bity, czy tylko bity? Może się wyda wać dziwne, że

zajmuję się tym zagadnieniem, chociaż instrukcja techniczna serii Następne pokolenie opisuje

ten proces szczegółowo: najpierw transporter kieruje się na cel, następnie odczytuje obraz,

który ma być przesłany, „dematerializuje” go, przechowuje przez chwilę w „buforze wzorca”,

background image

a następnie transmituje „strumień materii” w postaci „pierścieniowo związanego promienia”

na miejsce przeznaczenia. Wygląda więc na to, że transporter przesyła materię razem z

informacją.

Jedyny problem związany z owym opisem polega na rym, że nie zgadza się on z

niektórymi funkcjami transportera. Przynajmniej w dwóch dobrze znanych przypadkach

transporter zabrał jedną osobę, a dostarczył dwie. W słynnym odcinku Wróg wewnętrzny źle

działający transporter dzieli Kirka na dwie różne wersje jego samego: dobrą i złą. Ciekawszy i

bardziej trwały w skutkach obrót sprawy wzięły w odcinku Jeszcze jedna szansa serii

Następne pokolenie, gdzie dowiadujemy się, że porucznik Riker w trakcie przesyłania z

planety Nervala IV na statek Potiomkin został podzielony na dwie kopie. Jedna z nich dotarła

bezpiecznie na Potiomkina, podczas gdy drugi egzemplarz wrócił na planetę, gdzie żył

samotnie przez osiem lat.

Jeśli transporter przesyła zarówno strumień materii, jak i sygnał informacyjny, podział

jest niemożliwy. Liczba atomów na końcu podróży musi być taka sama jak na początku. A

zatem nie da się powielać ludzi. Z drugiej strony, jeśli przesyłana jest tylko informacja,

można sobie wyobrazić, że zostaje ona połączona z atomami przechowywanymi na statku i że

wykonuje się w ten sposób dowolną liczbę kopii danej osoby.

Podobny problem dotyczący strumienia materii pojawia się, gdy rozpatrujemy los

obiektów przesyłanych w kosmos w postaci „czystej energii”. Na przykład w odcinku

Samotny wśród nas w serii Następne pokolenie Picard decyduje się w pewnym momencie na

przesłanie się w postaci czystej energii, bez ograniczeń, jakie nakłada materia. Okazuje się to

ponurym i niebezpiecznym doświadczeniem, ale udaje mu się odzyskać swą cielesną formę z

bufora wzorca. Gdyby jednak strumień materii został wysłany w przestrzeń kosmiczną, nie

byłoby czego odtwarzać.

Nie zważając na instrukcję techniczną Star Trek, przyjmę agnostyczny punkt widzenia

i zajmę się problemami, które wiążą się z przesyłaniem zarówno atomów, jak i bitów.

KIEDY CIAŁO NIE MA CIAŁA. Co składa się na ludzką istotę? To najbardziej

chyba fascynujące pytanie dotyczące przesyłania, na które zwykle nawet nie próbuje się

odpowiadać. Co składa się na istotę ludzką? Czy jesteśmy tylko sumą wszystkich naszych

atomów? Mówiąc dokładniej, czy gdybyśmy potrafili odtworzyć każdy atom swojego ciała w

dokładnie takim samym chemicznym stanie wzbudzenia, w jakim rzeczywiście znajduje się w

danej chwili, stworzylibyśmy funkcjonalnie identyczną osobę, mającą dokładnie te same

wspomnienia, nadzieje, marzenia, ducha? Należy oczekiwać, że tak właśnie się stanie, ale

warto zauważyć, że dotykamy tutaj wielu wierzeń dotyczących istnienia „duszy”, która jest w

background image

jakiś sposób odróżnialna od ciała. Co się dzieje z człowiekiem po śmierci? Czyż wiele religii

nie utrzymuje, że dusza może istnieć nawet wtedy, gdy ciało umrze? Co w takim razie dzieje

się z duszą w trakcie przesyłania? Transporter oferowałby wspaniałą możliwość

doświadczalnego rozstrzygnięcia tego problemu. Gdyby jakąś osobę przesłano na pokład

Enterprise, a ona pozostałaby nietknięta i nie zmieniona w dający się zaobserwować sposób,

świadczyłoby to zdecydowanie o tym, że istota ludzka nie jest niczym więcej niż sumą

swoich części, i podałoby w wątpliwość wiele wierzeń dotyczących duszy.

Z oczywistych powodów w Star Trek starannie unika się jasnego postawienia tej

sprawy. Jednakże mimo czysto fizycznego charakteru procesów dematerializacji i

przesyłania, idea jakiejś mglistej „siły życiowej”, istniejącej poza ograniczeniami ciała, jest w

serialu stale obecna. Z drugiego i trzeciego pełnometrażowego filmu Star Trek (Gniew Chana

i W poszukiwaniu Spocka) można wywnioskować, że przynajmniej Spock dysponuje „katrą”

- żyjącym duchem, który może istnieć poza ciałem. Ostatnio w odcinku Cathexis serii

Voyager „nerwowa energia” Chakotaya - pokrewna sile życiowej - zostaje oddzielona od

ciała i wędruje po statku, od osoby do osoby, próbując dostać się z powrotem do „domu”.

Nie sądzę, aby można było osiągnąć w tej kwestii jakiś kompromis. Albo „dusza”,

„katra”, „siła życiowa”, czy jakkolwiek zechcemy to nazwać, stanowi część ciała, a my nie

jesteśmy niczym więcej niż istotą materialną, albo nie. Starając się nie urazić uczuć

religijnych, nawet tych żywionych przez Vulcana, zajmę w tej dyskusji pozycję neutralną.

Uznałem jednak, że zanim pójdziemy dalej, należy zwrócić uwagę, iż nawet podstawowego

założenia funkcjonowania transportera - atomy i bity są wszystkim, co istnieje - nie należy

traktować lekceważąco.

PROBLEMY Z BITAMI. Wielu problemów, którymi się wkrótce zajmę, można by

uniknąć, gdybyśmy zrezygnowali z przenoszenia atomów razem z informacją. Każdy, kto ma

dostęp do sieci

Internet, wie, jak łatwo jest przesłać strumień danych zawierający, powiedzmy,

szczegółowe schematy nowego samochodu razem z jego zdjęciami. Przesłanie rzeczywistego

samochodu jest nieporównanie trudniejsze. Nawet jednak w przypadku przesyłania samych

bitów pojawiają się dwa bardzo poważne problemy. Pierwszy to znany kłopot, z jakim mieli

do czynienia na przykład ostatni ludzie, którzy widzieli żywego Jimmy'ego Hoffę: jak pozbyć

się ciała? Jeśli chcemy przesłać tylko informację, atomy należy pozostawić w punkcie

wyjścia, a nowy ich zbiór zebrać w punkcie docelowym. To dość poważny problem.

Zniszczenie l O

28

atomów stanowi nie lada kłopot. Przypuśćmy na przykład, że chcemy

zmienić całą tę materię w czystą energię. Ile energii otrzymamy? Odpowiedź da nam

background image

oczywiście wzór Einsteina E - mc

2

. Gdyby nagle przekształcić 50 kilogramów (tyle waży

nieduża dorosła osoba) materii w energię, uwolnilibyśmy energię równoważną tysiącowi

bomb wodorowych o sile jednej megatony. Trudno sobie wyobrazić, jak można by to zrobić

w sposób przyjazny dla środowiska.

Wiąże się z tym jeszcze inny problem. Gdyby można było przeprowadzić taką

operację, bardzo proste stałoby się powielanie ludzi. Co więcej, byłoby to o wiele prostsze,

niż ich przenoszenie i przesyłanie, ponieważ nie trzeba byłoby niszczyć oryginału. Do

kopiowania w ten sposób przedmiotów nieożywionych można się przyzwyczaić i wydaje się,

że członkowie załóg na pokładach statków potrafią z tym żyć. Powielanie żywych istot

ludzkich stałoby się jednak z pewnością przyczyną kłopotów, o czym świadczą perypetie

Rikera w odcinku Jeszcze jedna szansa Skoro już same badania nad rekombinacją DNA

spowodowały pojawienie się mnóstwa problemów etycznych, trudno sobie nawet wyobrazić,

jakie zamieszanie powstałoby, gdyby można było powielać na życzenie żywe istoty, łącznie z

ich pamięcią i osobowością. Ludzie przypominaliby programy komputerowe lub książki

zapisane na dysku. Gdyby ktoś uległ zniszczeniu lub infekcji, można by po prostu uruchomić

kopię zapasową.

POZOSTAŃMY PRZY ATOMACH. Podane argumenty sugerują, że zarówno z

praktycznego, jak i z etycznego punktu widzenia lepiej byłoby, gdyby transporter przenosił

strumień materii wraz z sygnałem informacyjnym, tak jak dzieje się to w serialu Star Trek.

Wówczas pojawia się jednak problem transportu atomów. Okazuje się. że znów wszystko

obraca się wokół energii, choć tym razem mamy do czynienia z nieco subtelniejszą sytuacją.

W jaki sposób można zdematerializować coś w transporterze? Aby odpowiedzieć na

to pytanie, musimy dokładniej rozważyć prostszą kwestię - czym jest materia? Każda

zwyczajna materia składa się z atomów, które z kolei zbudowane są z bardzo gęstych jąder

otoczonych chmurą elektronów. Każdy, kto pamięta szkolne lekcje chemii lub fizyki, wie, że

większość objętości atomu to tylko pusta przestrzeń. Obszar zajmowany przez zewnętrzne

elektrony jest około dziesięciu tysięcy razy większy niż przestrzeń, którą okupuje jądro.

Skoro atomy to w głównej mierze pusta przestrzeń, dlaczego materia nie przenika

przez inną materię? Otóż ściana jest twarda nie dlatego, że składa się z cząstek, lecz dzięki

obecności pól elektrycznych działających między nimi. Kiedy uderzam ręką w biurko, nie

przechodzi ona przez blat głównie z powodu odpychania elektrycznego działającego na

elektrony w atomach mojej ręki. Jest ono wywołane obecnością elektronów w atomach

biurka, a nie brakiem przestrzeni, w której elektrony mogłyby się poruszać.

Pola elektryczne nie tylko nadają materii cielesność - w tym sensie, że zapobiegają

background image

przenikaniu obiektów nawzajem przez siebie - lecz także utrzymują ją w całości. Aby to

zmienić, należy przezwyciężyć siły elektryczne działające między atomami. Wymaga to

pracy, do której wykonania potrzeba energii. W ten właśnie sposób zachodzą wszystkie

reakcje chemiczne. Konfiguracja poszczególnych skupisk atomów i łączących je wiązań może

ulec zmianie, gdy dojdzie do przepływu energii. Jeśli na przykład dostarczymy pewnej ilości

energii do mieszaniny azotanu amonowego i oleju napędowego, cząsteczki tych dwóch

substancji mogą zmienić swoje położenie i w procesie tym zostanie uwolniona „energia

wiązania”, łącząca substancje wyjściowe. Jeśli proces ten zajdzie wystarczająco szybko,

spowoduje potężny wybuch.

Energia wiązania między atomami jest jednak bardzo mała w porównaniu z energią

wiązania cząstek - protonów i neutronów - które tworzą niewiarygodnie gęste jądra atomowe.

Siły zespalające te cząstki w jądrze odpowiadają energiom wiązania miliony razy silniejszym

niż energie wiązania atomów. Reakcje jądrowe uwalniają więc znacznie więcej energii niż

reakcje chemiczne i dlatego broń jądrowa ma tak wielką siłę rażenia.

Z kolei energia wiązania, która spaja cząstki elementarne, zwane kwarkami,

wchodzące w skład protonów i neutronów, jest jeszcze większa niż energia wiązania

protonów i neutronów w jądrze. Panuje obecnie przekonanie - poparte obliczeniami, które

przeprowadzamy w ramach teorii opisującej oddziaływania kwarków - że całkowite

rozdzielenie kwarków, tworzących każdy proton i neutron, wymagałoby nieskończonej

energii.

Wynikałoby stąd, że całkowite rozbicie materii na jej fundamentalne składniki -

kwarki - jest niemożliwe; przynajmniej w temperaturze pokojowej. Ta sama teoria, która

opisuje oddziaływania kwarków wewnątrz protonów i neutronów, mówi jednak, że gdybyśmy

podgrzali jądro atomowe do 1000 miliardów stopni (czyli do temperatury mniej więcej milion

razy większej niż temperatura panująca w centrum Słońca), nie tylko kwarki utraciłyby swoją

energię wiązania, lecz materia nagle zostałaby pozbawiona prawie całej swojej masy. Materia

zmieniłaby się w promieniowanie, czyli - posługując się językiem opisującym działanie

transportera - uległaby dematerializacji.

Aby zatem przezwyciężyć energię wiązania materii na najbardziej podstawowym

poziomie (poziomie, do którego odwołuje się instrukcja techniczna Star Trek, wystarczy

podgrzać ją do 1000 miliardów stopni. W jednostkach energii oznacza to, że należy

dostarczyć w postaci ciepła około 10% masy spoczynkowej protonów i neutronów.

Podgrzanie do takiej temperatury zbioru atomów o rozmiarach istoty ludzkiej wymagałoby

mniej więcej 10% energii potrzebnej do zanihilowania tej ilości materii, czyli ener gii

background image

równoważnej stu bombom wodorowym o sile jednej megatony.

Zapoznawszy się z tym trudnym do spełnienia warunkiem, można by dyskutować, czy

scenariusz, który właśnie opisałem, nie jest przypadkiem przesadzony. Może nie musimy

rozbijać materii aż na kwarki. Może do celów przesyłania ciał wystarczy dematerializacja do

poziomu protonów i neutronów lub tylko atomów. Wymagania energetyczne byłyby wtedy na

pewno o wiele niższe, chociaż ciągle duże. Niestety, przymknięcie oka na ten problem

powoduje, że zaraz stajemy wobec następnego i to znacznie poważniejszego. Gdy uzyskamy

już strumień materii składający się z poszczególnych protonów, neutronów i elektronów (lub

nawet całych atomów), musimy go jeszcze przesłać - najlepiej z prędkością będącą znacznym

ułamkiem prędkości światła.

Aby zmusić cząstki, takie jak protony i neutrony, do poruszania się z prędkościami

bliskimi prędkości światła, należy im dostarczyć energii porównywalnej z energią

odpowiadającą ich masie spoczynkowej. Okazuje się, że ta ilość energii jest około dziesięciu

razy większa od ilości potrzebnej do podgrzania i „roztopienia” protonów na kwarki.

Niemniej - choć przyspieszenie protonów do prędkości bliskich prędkości światła wymaga

więcej energii na jedną cząstkę -jest to łatwiejsze, niż umieszczenie i utrzymanie wewnątrz

protonów wystarczająco dużej energii przez odpowiednio długi czas, aby podgrzać je i

rozłożyć na kwarki. Dlatego właśnie potrafimy dziś, chociaż bardzo dużym kosztem,

budować olbrzymie akceleratory cząstek - takie jak tewatron w Fermilabie w Batawii (stan

Illinois) - które potrafią przyspieszać pojedyncze protony do prędkości równej 99,9%

prędkości światła. Ciągle jednak nie udało nam się skonstruować akceleratora, w którym

można by bombardować protony z wystarczająco dużą energią, aby stopić je na ich części

składowe, czyli kwarki. Zaobserwowanie tego topnienia materii jest jednym z celów fizyków

zajmujących się projektowaniem olbrzymich akceleratorów nowej generacji -na przykład

urządzenia budowanego obecnie w Narodowym Laboratorium Brookhaven na Long Island.

Muszę znowu wspomnieć o trafnym doborze terminologii dokonanym przez twórców

Star Trek. Topienie protonów na kwarki nazywamy w fizyce przejściem fazowym. Proszę

sobie wyobrazić, że kiedy w poszukiwaniu nazw części transportera,

które dematerializują obiekty, przewertuje się instrukcję techniczną serii Następne

pokolenie, natrafia się na termin „cewki przejścia fazowego”.

Przyszli twórcy transporterów staną więc przed wyborem. Pierwsza możliwość

zakłada znalezienie źródła energii, które może przez jakiś czas produkować moc około 10

tysięcy razy większą niż całkowita moc zużywana obecnie na Ziemi, wtedy bowiem będzie

można przesyłać „strumień materii” i informacji z prędkością bliską prędkości światła. Druga

background image

możliwość związana jest z dziesięciokrotnym zmniejszeniem całkowitych wymagań

energetycznych, zakłada jednak, że znajdziemy sposób, aby w jednej chwili podgrzać istotę

ludzką do temperatury około miliona razy większej niż temperatura panująca we wnętrzu

Słońca.

JEŚLI TO AUTOSTRADA INFORMACYJNA, LEPIEJ JEDŹMY PASEM

SZYBKIEGO RUCHU. Pisząc te słowa na moim domowym komputerze Power PC, nie mogę

nadziwić się postępowi technicznemu od czasu, gdy ponad dziesięć lat temu kupiłem mojego

pierwszego Macintosha. Pamiętam, że wewnętrzna pamięć tej maszyny wynosiła 128

kilobajtów, co nie jest wielkością imponującą w porównaniu z 16 megabajtami w moim

obecnym komputerze i 128 megabajtami w szybkiej stacji roboczej, którą mam w swoim

biurze na Wydziale Fizyki Case Western Reserve University. A zatem w ciągu jednej dekady

pojemność wewnętrznej pamięci mojego komputera wzrosła tysiąckrotnie! W podobny

sposób zwiększyła się pojemność pamięci na twardym dysku. Mój pierwszy komputer w

ogóle nie miał twardego dysku ł trzeba było używać dyskietek, na których mieściło się 400

kilobajtów informacji. Mój obecny komputer domowy jest wyposażony w twardy dysk o

pojemności 500 megabajtów - co znowu oznacza tysiąckrotny wzrost możliwości

przechowywania informacji. Szybkość mojego domowego komputera również znac znie się

zwiększyła w ciągu ostatnich dziesięciu lat. Przypuszczam, że wykonuje on teraz

szczegółowe obliczenia numeryczne prawie sto razy szybciej niż mój pierwszy Macintosh.

Natomiast moja stacja robocza na uniwersytecie jest prawdopodobnie jeszcze 10 ra zy szybsza

i może wykonywać prawie pół miliarda operacji na sekundę.

Jakkolwiek by na to nie spojrzeć, dokonał się niewiarygodny postęp. Najlepsze

komputery ogólnego przeznaczenia w ciągu ostatniej dekady mniej więcej stukrotnie

zwiększyły swoją szybkość i pojemność pamięci. Pomijam tutaj komputery przeznaczone do

specjalnych zadań - te cudeńka osiągają prędkości przekraczające 10 miliardów operacji na

sekundę. Okazało się też, że niektóre urządzenia specjalnego przeznaczenia należałoby w

zasadzie budować, wykorzystując układy biologiczne oparte na DNA, co mogłoby

przyspieszyć ich działanie o kilka rzędów wielkości.

Można się zastanawiać, do czego to wszystko zmierza i czy należy spodziewać się tak

szybkiego rozwoju także w przyszłości. I czy konieczne jest utrzymanie tego tempa.

Zauważyłem już, że elementem określającym tempo przepływu informacji jest końcowy

użytkownik. Możemy przyswoić sobie tylko pewną ilość informacji. Aby się o tym

przekonać, wystarczy przez kilka godzin korzystać z sieci Internet. Często się dziwię,

dlaczego mimo niewiarygodnych możliwości, jakie mam do dyspozycji, moja własna

background image

produktywność nie wzrosła ani w części tak bardzo, jak możliwości mojego komputera.

Sądzę, że odpowiedź jest oczywista. Nie ograniczają mnie możliwości komputera, lecz moje

własne. Z tego powodu często się mówi, że komputery mogą być następną fazą ewolucji

człowieka. Nie ulega wątpliwości, że Data, chociaż pozbawiony uczuć, pod wieloma

względami znacznie przewyższa swoich kolegów z załogi. A jest on, jak to zostało

powiedziane w odcinku Miara człowieka, żywą istotą.

To tylko dygresja. Wspominam o tempie wzrostu możliwości komputerów w ciągu

ostatniej dekady, gdyż chcę rozpocząć dyskusję o potrzebach, którym należałoby sprostać,

aby poradzić sobie z przechowywaniem i odzyskiwaniem informacji koniecznej do działania

transporterów. Trzeba oczywiście przyznać, że daleko nam jeszcze do spełnienia tych

wymagań.

Spróbujmy w prosty sposób ocenić, jaka ilość informacji zapisana jest w ludzkim

ciele. Ustaliliśmy już, że ludzkie ciało składa się w przybliżeniu z l0

28

atomów. Dla każdego

atomu musimy zapisać miejsce, w którym się on znajduje, co wymaga podania trzech

współrzędnych (wartości na osiach x, y, z). Następnie powinniśmy zapisać wewnętrzny stan

każdego atomu, a więc między innymi informacje, które z jego poziomów energetycznych są

zajęte przez elektrony, czy jest związany z sąsiednim atomem i tworzy z nim cząsteczkę, czy

ta cząsteczka drga lub się obraca i tak dalej. Bądźmy ostrożni i przyjmijmy, że wszystko uda

się zapisać w jednym kilobajcie danych. (Mniej więcej tyle informacji mieści się na stronie

maszynopisu). Oznacza to, że aby przechować wzorzec człowieka w buforze wzorca,

potrzebowalibyśmy około l0

28

kilobajtów. Przypominam, że jest to l z 28 zerami.

Porównajmy to z całą informacją zawartą we wszystkich książkach, jakie

kiedykolwiek napisano. Największe biblioteki zgromadziły kilka milionów tomów, bądźmy

więc szczodrzy i przypuśćmy, że istnieje miliard różnych książek (jedna na każde pięć osób

żyjących obecnie na naszej planecie). Przypuśćmy, że każda książka zawiera informację

równoważną tysiącowi stron maszynopisu (znowu jest to ocena nieco zawyżona), czyli mniej

więcej jednemu megabajtowi. Cała informacja we wszystkich książkach, jakie kiedykolwiek

napisano, wymagałaby więc l O

12

, czyli około miliona milionów kilobajtów pamięci. Jest to

wartość o szesnaście rzędów wielkości mniejsza - czyli jedna dziesięciomilionowa jednej

miliardowej - od ilości pamięci potrzebnej do zapisania wzorca jednego człowieka! Mając do

czynienia z tak dużymi liczbami, trudno objąć cały ogrom zagadnienia. Spróbujmy takiego

porównania: wielkość pamięci potrzebna do zapisania wzorca człowieka w stosunku do ilości

informacji zawartej we wszystkich istniejących książkach jest 10 tysięcy razy większa niż

stosunek ilości informacji zawartej we wszystkich książkach do ilości informacji zawartej na

background image

jednej stronie tej książki.

Problem przechowywania takiej ilości informacji nie jest, jak lubią mówić fizycy,

trywialny. Największe dostępne dziś na rynku dyski twarde mogą pomieścić około 10

gigabajtów, czyli 10 tysięcy megabajtów. Jeśli przyjąć, że każdy dysk ma grubość 10

centymetrów, wszystkie dyski potrzebne do przechowania jednego wzorca człowieka,

ułożone jeden na drugim, miałyby wysokość równą 1/3 drogi dzielącej nas od środka

Galaktyki, czyli około 10 tysięcy lat świetlnych, a zatem 5 lat podróży statkiem Enterprise z

prędkością 9 warpów!

Odzyskanie tej informacji w czasie rzeczywistym to poważne wyzwanie. Najszybsze

obecnie urządzenia do przesyłania informacji cyfrowej mogą działać z prędkością nieco

mniejszą niż 100 megabajtów na sekundę. Gdybyśmy pracowali w tym tempie, zapisanie

danych określających wzorzec człowieka na taśmie wymagałoby czasu około dwóch tysięcy

razy dłuższego niż wiek Wszechświata (przyjmujemy, że wiek ten wynosi około 10

miliardów lat)! Wyobraźmy sobie to dramatyczne napięcie: Kirk i McCoy wydostali się na

powierzchnię kolonii karnej w Rura Penthe. Musimy ich przesłać, czyli przetransmitować

milion miliardów miliardów megabajtów informacji w czasie, którego potrzebuje strażnik,

aby wycelować w nich broń przed wystrzałem. Dysponujemy więc sekundami, a nie czasem

porównywalnym z wiekiem Wszechświata.

Myślę, że sytuacja jest jasna. Przy takim wyczynie niewielki wydaje się wysiłek

wkładany w trwające obecnie badania nad ludzkim genomem, których celem jest odczytanie i

zapisanie całego kodu genetycznego człowieka, zawartego w mikroskopijnych nitkach DNA.

Koszty tego przedsięwzięcia wynoszą wiele miliardów dolarów. W ciągu ostatniej dekady

badania te prowadzono w wielu laboratoriach na całym świecie. Łatwo się domyślić, że

wspominam o tym tylko po to, aby dodać kolejną pozycję do listy trudności wskazujących na

niewielkie szansę skonstruowania transportera. Nie możemy jednak wykluczyć, że w XXIII

wieku sprawy będą się przedstawiały inaczej. Mój optymizm bierze się z ekstrapolacji

obecnego tempa rozwoju technologii komputerowej. Biorąc pod uwagę postęp w

przechowywaniu informacji i prędkości jej przesyłania, dochodzę do wniosku, że zwiększają

się one stukrotnie co dziesięć lat. Jeśli nawet będziemy ostrożni i podzielimy to przez 10 oraz

przyjmiemy, że nasze możliwości są obecnie mniej więcej 10 do 21 potęgi (10

21

) za małe,

możemy oczekiwać, że za 210 lat - na początku dwudziestego trzeciego stulecia - technologia

komputerowa, potrafiąca zmierzyć się z problemem przesyłania informacji przy użyciu

transportera, znajdzie się w zasięgu ręki.

Mówię to nie mając oczywiście pojęcia, w jaki sposób mogłoby się to dokonać. Jasne

background image

jest, że aby w urządzeniu wielkości człowieka przechowywać ponad 10

25

kilobajtów

informacji, każdy jego atom musiałby być wykorzystywany jako komórka pamięci. Bardzo

obiecujące pod tym względem wydają się pojawiające się obecnie idee komputerów

biologicznych, w których dynamika molekularna naśladuje cyfrowe procesy logiczne,

umożliwiając jednoczesne działanie około 10

25

cząstek w makroskopowym zbiorze.

Powinienem wszakże ostrzec Czytelników: nie jestem informatykiem. Mój ostrożny

optymizm może być więc jedynie odbiciem mojej niewiedzy. Uspokaja mnie nieco przykład

ludzkiego mózgu, który o lata świetlne wyprzedza w złożoności i wszechstronności

jakikolwiek istniejący układ obliczeniowy. Jeśli dobór naturalny mógł stworzyć tak wspaniałe

urządzenie do przechowywania i odzyskiwania informacji, sądzę, że wiele jeszcze mamy do

odkrycia.

ACH, TE KWANTY! Aby jeszcze bardziej zbliżyć się do rzeczywistości, wystarczy

wypowiedzieć dwa słowa: mechanika kwantowa. Na poziomie mikroskopowym, na który

musimy zejść, aby zapisać wzór materii, a następnie odtworzyć go w transporterze, fizyką

rządzą niezwykłe prawa mechaniki kwantowej; to dzięki nim cząstki mogą zachowywać się

jak fale, a fale jak cząstki. Nie będę się tutaj wdawał w wykład mechaniki kwantowej.

Najważniejsza idea mówi, że w skalach mikroskopowych tego, co jest obserwowane, i tego,

co dokonuje obserwacji, nie można rozdzielić. Wykonanie pomiaru oznacza zmianę, zwykle

trwałą, układu. To proste prawo można ująć na wiele różnych sposobów, ale chyba

najsłynniejszym z nich jest zasada nieoznaczoności Helsenberga. To fundamentalne prawo -

które, jak się wydaje, znosi klasyczne pojęcie determinizmu w fizyce, chociaż faktycznie na

podstawowym poziomie tego nie robi -dzieli świat fizyczny na dwa zbiory obserwowalnych

wielkości; coś w rodzaju yin i yang. Mówi ono, że niezależnie od tego, jaka technologia

zostanie wynaleziona w przyszłości, nie można zmierzyć pewnych kombinacji wielkości z

dowolnie dużą dokładnością. W skalach mikroskopowych położenie cząstki można zmierzyć

z dowolną dokładnością. Jednak Heisenberg twierdzi, że nie możemy wtedy dokładnie

określić jej prędkości (a zatem również położenia w następnej chwili). Możemy również z

dowolną dokładnością sprawdzić stan energetyczny atomu. W tym jednak przypadku nie uda

nam się precyzyjnie określić, jak długo będzie on przebywał w tym stanie. Listę można by

ciągnąć dalej.

Te związki są istotą mechaniki kwantowej i nigdy nie stracą mocy. Jak długo mamy

do czynienia z odległościami, w których obowiązują prawa mechaniki kwantowej, musimy je

tolerować. (Wszystko wskazuje na to, że odległości te są większe od odległości, w których

stają się znaczące efekty kwantowej grawitacji, czyli od około 10

33

cm).

background image

Istnieje dość niezdarny, ale interesujący argument fizyczny, który pozwala lepiej

zrozumieć zasadę nieoznaczoności. Mechanika kwantowa obdarza wszystkie cząstki

własnościami falowymi, a fale mają pewną uderzającą cechę: ulegają zaburzeniu tylko przy

spotkaniu z przedmiotami większymi niż ich długość {odległość między kolejnymi

grzbietami fali). Aby się o tym przekonać, wystarczy obserwować fale oceanu. Niewielki

kamień wystający z wody nie będzie miał wpływu na fale uderzające o brzeg, natomiast za

dużym głazem powstanie obszar spokojnej wody.

Jeśli chcemy „oświetlić” atom - to znaczy odbić od niego światło tak, aby można było

zobaczyć, gdzie się znajduje - musimy użyć światła o długości fali wystarczająco małej, aby

atom mógł je zaburzyć. Prawa mechaniki kwantowej mówią jednak, że fale światła rozchodzą

się w małych porcjach, czyli kwantach, które nazywamy fotonami (jak w „torpedach

fotonowych” statków kosmicznych, nie składających się jednak z fotonów). Poszczególne

fotony o danej długości fali niosą energię odwrotnie proporcjonalną do tej długości. Z im

większą zdolnością rozdzielczą chcemy widzieć, tym mniejszej długości światła musimy

użyć. Im mniejsza jednak jest długość fali,

tym większa energia kwantów. Jeśli bombardujemy atom wysokoenergetycznym

fotonem, możemy stwierdzić, gdzie dokładnie znajdował się atom, kiedy uderzył w niego

foton, ale sam proces obserwacji - to znaczy uderzenie fotonu w atom - z pewnością dostarczy

atomowi znacznej energii, zmieniając w ten sposób jego prędkość i kierunek ruchu.

Nie można zatem określić położenia atomów i ich stanów energetycznych z

dokładnością konieczną do precyzyjnego odtworzenia wzorca człowieka. Zmierzone

wielkości zawsze będą nieco niedokładne. Co by to oznaczało dla produktu końcowego po

operacji przesłania, jest szczegółową kwestią biologiczną, na której temat mogę tylko

spekulować.

Problem ten nie pozostał nie zauważony przez twórców Star Trek, którzy byli

świadomi nieuniknionych ograniczeń, jakie nakłada na transporter mechanika kwantowa.

Mając jednak do dyspozycji coś, do czego fizycy zwykle nie mogą się odwołać - to znaczy

swobodę artystyczną - wprowadzili „kompensatory Heisenberga”, które umożliwiają

„kwantową analizę” obiektów. Kiedy konsultanta technicznego Star Trek, Michaela Okudę,

zapytano, jak działają kompensatory, odpowiedział po prostu: „Bardzo dobrze, dziękuję!”

Kompensatory Heisenberga odgrywają w filmie jeszcze jedną rolę. Zdziwiło mnie,

dlaczego transportery nie są również replikatorami form życia. W końcu replikatory istnieją

na pokładach statków i powodują, że szklanki wody lub wina pojawiają się w magiczny

sposób w kajucie na słowne żądanie każdego członka załogi. Wygląda na to, że technologia

background image

replikatorów operuje tylko na „poziomie cząsteczkowym” i nie osiąga „kwantowej zdolności

rozdzielczej”. Ma to wyjaśniać, dlaczego powielanie istot żywych za pomocą replikatora nie

jest możliwe. Pozwala to również wytłumaczyć ciągłe narzekania, że jedzenie pochodzące z

replikatorów nigdy nie jest zupełnie takie samo jak prawdziwe, oraz dlaczego Riker i inni

wolą przyrządzać omlety i inne przysmaki w tradycyjny sposób.

ZOBACZYĆ ZNACZY UWIERZYĆ. Jakby nie dość tego wszystkiego, istnieje

jeszcze jedna trudność związana z ideą przesyłanią. Przesyłanie osoby ze statku jest

wystarczająco trudne, ale zabranie jej z powrotem na pokład może być jeszcze trudniejsze.

Aby dostarczyć członka załogi z powrotem na statek, czujniki na pokładzie Enterprise muszą

odnaleźć go na planecie. Co więcej, powinny odczytać jego indywidualny wzorzec, zanim

ulegnie on dematerializacji i przesłaniu w postaci strumienia materii. Enterprise musi więc

być wyposażony w teleskop o mocy wystarczającej do oglądania z atomową zdolnością

rozdzielczą przedmiotów na powierzchni planety, a czasem nawet pod nią. W serialu

dowiadujemy się, że typowy zasięg działania transportera wynosi około 40 tysięcy

kilometrów, czyli jest mniej więcej trzy razy większy od średnicy Ziemi. Tę właśnie liczbę

wykorzystamy do przeprowadzenia odpowiednich obliczeń.

Niemal każdy widział zdjęcia kopuł wielkich teleskopów ziemskich, takich jak

teleskop Kecka na Hawajach (największy na świecie) czy teleskop na Mount Palomar w

Kalifornii. Budowa coraz większych teleskopów nie jest po prostu przejawem gigantomanii, o

którą niektórzy, włącznie z wieloma członkami Kongresu Stanów Zjednoczonych, lubią

oskarżać naukowców. Aby zobaczyć słabo widoczne i bardzo odd alone ciała niebieskie,

potrzebujemy po prostu coraz większych teleskopów; podobnie, gdy chcemy badać strukturę

materii w coraz mniejszych skalach, budujemy coraz większe akceleratory. Powód jest prosty:

ponieważ światło ma naturę falową, za każdym razem, gdy przechodzi przez otwór, ugina się,

czyli nieco rozmazuje. Gdy światło z odległego źródła punktowego przechodzi przez

soczewkę teleskopu, obraz nieco się rozmywa i zamiast punktowego źródła widzimy

rozmazaną plamkę światła. Jeśli dwa punktowe źródła światła znajdują się bliżej siebie, niż

wynoszą rozmiary ich obrazów, nie dostrzeżemy ich jako oddzielnych obiektów, ponieważ

obrazy będą się na siebie nakładały. Im większa jest soczewka, tym mniej rozmazany jest

obraz. Aby więc obserwować coraz mniejsze obiekty, należy wyposażać teleskopy w coraz

większe soczewki.

Jest jeszcze inne kryterium jakości teleskopowych obrazów. Bez względu na to,

jakiego promieniowania się używa, długość fali światła musi być mniejsza niż rozmiar

obiektu, który chce się zaobserwować (zgodnie z argumentacją przytoczoną przeze mnie

background image

wcześniej). Jeśli więc chce się oglądać materię z dobrą zdolnością rozdzielczą w skalach

atomowych, gdzie istotne są odległości sięgające kilku miliardowych centymetra, należy użyć

promieniowania, którego długość fali jest krótsza niż jedna miliardowa centymetra. Jeśli

zdecydujemy się na promieniowanie elektromagnetyczne, będzie to oznaczało, że musimy

użyć promieniowania rentgenowskiego lub y. I od razu pojawia się problem: takie

promieniowanie jest szkodliwe dla życia i atmosfera dowolnej planety klasy M zatrzyma je

tak, jak robi to atmosfera Ziemi. Transporter będzie więc musiał wykorzystywać nośniki

nieelektromagnetyczne, takie jak neutrina lub grawitony, co wiąże się z nowymi

problemami...

Tak czy owak, można przeprowadzić odpowiednie obliczenia, zakładając, że

Enterprise posługuje się promieniowaniem o długości fali mniejszej niż jedna miliardowa

centymetra ł ma za zadanie odczytanie wzorca obiektu znajdującego się w odległości 40

tysięcy kilometrów z atomową zdolnością rozdzielczą. Okazuje się, że aby wykonać to

zadanie, statek potrzebowałby teleskopu z soczewką o średnicy większej od około 50 tysięcy

kilometrów! Gdyby miała mniejsze rozmiary, nie istniałby żaden sposób, nawet w teorii, aby

zobaczyć pojedyncze atomy. Chociaż Enterprise-D ma imponujące rozmiary, nie jest aż tak

wielki...

Tak jak obiecałem, rozważania nad transporterami doprowadziły nas do mechaniki

kwantowej, fizyki cząstek, informatyki, odkrytego przez Einsteina związku między masą i

energią, a nawet do kwestii istnienia ludzkiej duszy. Nie powinniśmy być więc za bardzo

rozczarowani oczywistą niemożliwością zbudowania urządzenia, które mogłoby wykonywać

konieczne operacje. Podchodząc do sprawy z mniej negatywnym nastawieniem,

powiedzielibyśmy, że zbudowanie transportera wymagałoby podgrzewania materii do

temperatury milion razy większej od tej, jaka

panuje w środku Słońca, wyzwalania w jednym urządzeniu większej ilości energii niż

zużywa obecnie cala ludzkość, zbudowania teleskopów większych od Ziemi, zwiększenia

możliwości komputerów tysiąc miliardów miliardów razy oraz obejścia praw mechaniki

kwantowej. Nie powinniśmy się więc dziwić, że porucznik Barclay obawiał się przesyłania!

Sądzę, że nawet Gene Roddenberry, gdyby w prawdziwym życiu stanął przed taką

możliwością, wolałby raczej zafundować sobie statek kosmiczny potrafiący lądować na

powierzchni planety.

background image

ROZDZIAŁ 6

ILE CZADU ZA DOLARA?

Nie istnieje nic nierzeczywistego

Pierwsze prawo metafizyki Kir-kin-thy (Star Trek IV: Podróż do domu)

Gdy wyjeżdża się z Chicago na zachód drogą stanową numer 88, po przebyciu

niespełna 50 km, w pobliżu Aurory, można zobaczyć, jak chaotyczna, rzadka zabudowa

stopniowo ustępuje miejsca gładkiej, środkowozachodniej prerii, która rozpościera się jak

okiem sięgnąć. Nieco na północ od drogi znajduje się kolisty teren opasany przez coś, co

przypomina fosę. Wewnątrz tego okręgu pasą się bizony, a w licznych stawach pływa wiele

gatunków kaczek i gęsi.

To, co dzieje się sześć metrów pod ziemią, znacznie odbiega od spokojnej,

sielankowej atmosfery na powierzchni. Czterysta tysięcy razy na sekundę silna wiązka

antyprotonów zderza się tam czołowo z wiązką protonów, produkując strumień setek lub

tysięcy wtórnych cząstek: elektronów, pozytonów, pionów i innych.

Pod ziemią znajduje się Narodowe Laboratorium Akceleratorowe im. Enrico

Fermiego, w skrócie: Fermilab. Mieści ono akcelerator cząstek, w którym otrzymuje się

największe na świecie energie. Co więcej, znajduje się tu również największy na świecie

magazyn antyprotonów. Tutaj antymateria nie ma nic wspólnego z fantastyką naukową. Jest

powszednim chlebem tysięcy naukowców, którzy korzystają z urządzeń Fermilabu.

W tym właśnie Fermilab i Enterprise są do siebie podobne. Antymateria ma

podstawowe znaczenie dla działania statku:

zasila bowiem napęd czasoprzestrzenny. Jak wspomniałem wcześniej, nie ma bardziej

efektywnego sposobu zasilania układu napędowego (chociaż napęd czasoprzestrzenny działa

inaczej niż napęd rakietowy). Kiedy materia spotyka się z antymaterią, dochodzi do ich

anihilacji i powstaje czyste promieniowanie, które rozchodzi się z prędkością światła.

Należy oczywiście dołożyć wszelkich starań, by mieć pewność, że antymateria

znajduje się pod kontrolą, zwłaszcza jeśli przechowywana jest w dużych ilościach. Kiedy na

pokładzie statku przestaje działać układ przechowywania antymaterii - zdarzyło się to na

Enterprise po zderzeniu z Bozemanem, a także na statku Yamato, którego system przestał

działać po użyciu ikonianskiej broni komputerowej - w krótkim czasie grozi mu całkowite

zniszczenie. Układ przechowywania antymaterii ma tak podstawowe znaczenie dla działania

background image

statku kosmicznego, że trudno zrozumieć, dlaczego porucznik Federacji, Deanna Troi, nie

wiedziała o skutkach awarii tego układu, kiedy na pewien czas przejęła dowództwo na

Enterprise w odcinku Katastrofa z serii Następne pokolenie, po tym, jak statek zderzył się z

dwoma „włóknami kwantowymi”. Nie można w żadnym razie uznać za wytłumaczenie tego,

że z wykształcenia była psychologiem!

Konstrukcja układu przechowywania antymaterii na pokładzie statków kosmicznych

może odwoływać się do tej samej zasady, która pozwala w Fermilabie przechowywać przez

dłuższy czas antyprotony. Antyprotony i antyelektrony (nazywane pozytonami) są cząstkami

naładowanymi elektrycznie. W obecności pola magnetycznego naładowane cząstki poruszają

się po orbitach kołowych. Jeśli zatem przyspieszy się cząstki w polach elektrycznych, a

następnie włączy pole magnetyczne o właściwej sile, będą się one poruszały po okręgach o

odpowiednich rozmiarach. W ten sposób cząstki mogą na przykład krążyć wewnątrz

pojemnika w kształcie torusa (czyli obwarzanka), nie wchodząc nigdy w kontakt z jego

ściankami. Ta sama zasada jest wykorzystywana w urządzeniach, zwanych tokamakami. które

służą do przechowywania plazmy o wysokiej temperaturze, wykorzystywanej w badaniach

nad kontrolowaną syntezą jądrową.

W źródle antyprotonów w akceleratorze Fermilabu znajduje się duży pierścień

magnesów. Wyprodukowane w średnioener-getycznych zderzeniach antyprotony kierowane

są do tego pierścienia, gdzie można je przechowywać aż do czasu, kiedy będą potrzebne do

zderzeń wysokoenergetycznych, które odbywają się w tewatronie - potężnym akceleratorze w

Fermilabie. Tewatron jest o wiele większym pierścieniem: jego obwód wynosi około 6,4

kilometra. Do tego pierścienia wstrzykuje się protony, a następnie przyspiesza je w jednym

kierunku; antyprotony rozpędza się w kierunku przeciwnym. Jeśli pola magnetyczne zostaną

precyzyjnie dobrane, te dwie wiązki cząstek można trzymać z dala od siebie przez większą

część trasy w tunelu. W określonych punktach wiązki jednak zbliżają się do siebie i można

badać zderzenia cząstek.

Kolejnym problemem, który się pojawia, gdy chcemy używać napędu na materię i

antymaterię, jest kwestia, skąd wziąć antymaterię. O ile nam wiadomo, Wszechświat składa

się głównie z materii, a nie z antymaterii. Potwierdzają to badania zawartości

wysokoenergetycznego promieniowania kosmicznego, którego część pochodzi spoza naszej

Galaktyki. W czasie zderzeń wysokoenergetycznego promieniowania kosmicznego z materią

powinny powstawać niektóre antycząstki. Gdy bada się promieniowanie kosmiczne o różnej

energii, obecność w nim antymaterii można w zupełności wyjaśnić za pomocą tego właśnie

zjawiska; nic nie wskazuje na to, aby docierała do nas jakaś pierwotna antymateria. Kolejnym

background image

możliwym śladem obecności antymaterii we Wszechświecie mogłyby być charakterystyczne

cechy procesu anihilacji, zachodzącej w wyniku zderzeń cząstek i antycząstek. Gdziekolwiek

pary takie się pojawią, można oczekiwać charakterystycznego promieniowania, wysyłanego

w wyniku anihilacji. W ten właśnie sposób Enterprise poszukiwał Krystalicznej Istoty, która

zniszczyła nową placówkę Federacji; najwidoczniej pozostawiała ona ślad w postaci smugi

antyprotonów. Tropiąc ślady promieniowania anihilacyjnego, Enterprise wyśledził Istotę ł

przejął nad nią kontrolę, zanim zdążyła zaatakować następną planetę.

Chociaż autorzy Star Trek dobrze uchwycili ogólną ideę, mylili się co do szczegółów.

Dr Marr i Data poszukiwali ostrego maksimum promieniowania y w okolicy 10 keV, czyli 10

kilo-elektronowoltów, które są jednostkami energii promieniowania. Niestety, nie jest to

właściwa skala energii dla procesu anihilacji protonów i antyprotonów, a nawet nie

odpowiada ona żadnemu znanemu procesowi anihilacji. Najlżejszą znaną cząstką mającą

masę jest elektron. W czasie anihilacji elektronów i pozytonów powstaje ostre maksimum

promieniowania y w okolicy 511 keV, co odpowiada masie elektronu. Maksimum energii

anihilacji protonów i antyprotonów odpowiada z kolei spoczynkowej energii protonu, czyli l

GeV (gigaelektronowoltowi); to energia około sto tysięcy razy większa od tej, której

poszukiwali Marr i Data. (Nawiasem mówiąc, 10 keV znajduje się w rentgenowskim obszarze

widma, a nie w zakresie promieniowania y, które odpowiada energii przekraczającej 100 keV;

jest to jednak chyba zbyt subtelny szczegół, aby kruszyć o niego kopie).

W każdym razie astronomowie i fizycy poszukiwali rozproszonych sygnałów tła w

okolicy 511 keV i w zakresie GeV, mając nadzieję, że trafią na ślady anihilacji materii i

antymaterii; jak dotąd jednak niczego takiego nie znaleziono. Oznacza to, jeśli uwzględni się

również wyniki badań promieniowania kosmicznego, że gdyby nawet we Wszechświecie

istniały znaczne ilości antymaterii, nie mogą być one wymieszane ze zwykłą materią.

Ponieważ większości z nas o wiele bliższa jest materia niż antymateria, wydaje się

całkiem naturalne, że Wszechświat powinien być zbudowany z tej pierwszej. Nie ma w tym

jednak nic naturalnego. W rzeczywistości nadmiar materii w stosunku do antymaterii to

obecnie jeden z najbardziej interesujących nie rozwiązanych problemów w fizyce. Ta

przewaga ma wiele wspólnego z naszym istnieniem, a zatem także z istnieniem wszechświata

Star Trek. Wydaje się więc właściwe zatrzymać się dłużej nad tą kwestią.

Kiedy powstała mechanika kwantowa, zastosowano ją z powodzeniem do opisu

zjawisk fizyki atomowej; udało się na przykład wspaniale wytłumaczyć zachowanie

elektronów w atomach. Nie ulegało jednak wątpliwości, że jednym z ograniczeń tego obszaru

badań było to, że prędkości takich elektronów są zwykle dużo mniejsze od prędkości światła.

background image

Szczególnej teorii względności z mechaniką kwantową nie udało się pogodzić przez prawie

dwa dziesięciolecia, m.in. dlatego, że - w przeciwieństwie do szczególnej teorii względności,

która jest stosunkowo prosta w zastosowaniach - mechanika kwantowa wymagała nie tylko

całkiem nowego sposobu widzenia świata, lecz także skonstruowania nowych narzędzi

matematycznych. W ciągu pierwszych trzydziestu lat naszego wieku najwybitniejsi młodzi

fizycy poświęcili się całkowicie badaniu tego niezwykłego, nowego obrazu Wszechświata.

Jednym z nich był Paul Adrien Maurice Dirac. Podobnie jak jego następca Stephen

Hawking, a później Data, miał on pewnego dnia objąć profesurę Lucasa w katedrze

matematyki na Uniwersytecie w Cambridge. Był uczniem lorda Rutherforda, a następnie

pracował z Nielsem Bohrem - trudno o lepsze przygotowanie dla kogoś, kto chciał rozszerzyć

mechanikę kwantową na obszar superszybkich prędkości. W roku 1928 Dirac, podobnie jak

kiedyś Einstein, ułożył równanie, które miało zmienić świat. Równanie Diraca poprawnie

opisuje relatywistyczne zachowanie elektronów w sposób w pełni zgodny z teorią

kwantowomechaniczną.

Wkrótce po sformułowaniu tego równania Dirac uświadomił sobie, że zachowanie

spójności matematycznej wymaga istnienia w przyrodzie cząstki o ładunku, którego wartość

odpowiadałaby dokładnie ładunkowi elektronu, ale z przeciwnym znakiem. Oczywiście znano

już taką cząstkę: był nią proton. Jednak z równania Diraca wynikało, że cząstka ta powinna

mieć taką samą masę jak elektron, podczas gdy proton jest prawie 2 tysiące razy cięższy. Ta

rozbieżność między rezultatami obserwacji a „naiwną” interpretacją równania pozostawała

zagadką przez cztery lata, aż do chwili, gdy amerykański fizyk Carl Anderson odkrył w

promieniowaniu kosmicznym bombardującym Ziemię nową cząstkę, której masa równała się

masie elektronu, ale ładunek miał przeciwny znak - był dodatni. Ten „antyelektron” stał się

wkrótce znany jako pozyton.

W ten sposób zdano sobie sprawę z tego, że z połączenia szczególnej teorii

względności i mechaniki kwantowej wynika, iż wszystkie cząstki istniejące w przyrodzie

mają swoje anty-cząstki, których ładunek elektryczny (jeśli są nim obdarzone) i różne inne

własności powinny mieć przeciwne wartości. Jeśli wszystkim cząstkom odpowiadają

antycząstki, to jest sprawą umowną, które z nich nazwiemy cząstkami, a które antycząstkami,

o ile żaden proces fizyczny nie wykaże jakiejkolwiek przewagi cząstek nad antycząstkami. W

klasycznym świecie elektromagnetyzmu i grawitacji takich procesów jednak nie ma.

Znaleźliśmy się teraz w kłopotliwym położeniu. Jeśli cząstki i antycząstki są

równoprawne, dlaczego warunki początkowe we Wszechświecie zdecydowały, że to, co

nazywamy cząstkami, ma stanowić dominującą formę materii? Z pewnością bardziej

background image

rozsądnym - lub przynajmniej bardziej symetrycznym -stanem początkowym byłaby sytuacja,

w której liczba cząstek i antycząstek jest taka sama. Tymczasem musimy wyjaśnić, w jaki

sposób prawa fizyki, które, jak widać, nie rozróżniają cząstek i antycząstek, znalazły sposób,

aby wytworzyć więcej jednych niż drugich. A zatem albo istnieje we Wszechświecie

podstawowa wielkość - stosunek ilości cząstek do antycząstek - która została ustalona na

początku czasu i o której prawa fizyki nie mają nic do powiedzenia, albo musimy znaleźć

wytłumaczenie dla późniejszej dynamicznej kreacji większej ilości materii niż antymaterii.

W latach sześćdziesiątych słynny radziecki naukowiec i późniejszy dysydent Andriej

Sacharow zaproponował rozwiązanie tego problemu. Dowodził, że jeśli prawa fizyki w

młodym Wszechświecie spełniałyby trzy warunki, asymetria między materią i antymaterią

mogłaby się pojawić, nawet gdyby na początku tej asymetrii nie było. W czasach, gdy ta

propozycja została wysunięta, nie istniały teorie fizyczne, które spełniałyby warunki

postawione przez Sacharowa. W następnych latach jednak w fizyce cząstek i w kosmologii

dokonał się wielki postęp. Obecnie istnieje wiele teorii, które potrafią w zasadzie wyjaśnić

obserwowaną różnicę w ilości materii i antymaterii w przyrodzie. Niestety, wszystkie te teorie

wymagają nowej flzy7-Fizyka podróży...

ki oraz nowych cząstek elementarnych i dopóki natura nie wskaże nam właściwego

kierunku, nie będziemy wiedzieli, którą z nich wybrać. Jednakże wielu fizyków, ze mną

włącznie, znajduje wielką pociechę w tym, że kiedyś, wychodząc z pierwszych zasad,

poznamy odpowiedź na pytanie, dlaczego istnieje sama materia, będąca podstawą naszej

egzystencji.

Nawet gdybyśmy dysponowali odpowiednią teorią, nie wiemy, jaką właściwie liczbę,

określającą stosunek materii do antymaterii, miałaby ona wyjaśnić. Jaka musiałaby być w

młodym Wszechświecie nadwyżka protonów w stosunku do antyprotonów, abyśmy mogli

wyjaśnić obserwowaną obecnie przewagę materii? Wskazówką do znalezienia tej liczby jest

porównanie ilości istniejących dzisiaj protonów z ilością fotonów - cząstek elementarnych, z

których składa się światło. Gdyby w młodym Wszechświecie istniało tyle samo protonów i

antyprotonów, anihilowałyby one, wytwarzając promieniowanie, czyli fotony. Każda

anihilacja protonu ł antyprotonu powodowałaby powstanie średnio jednej pary fotonów. Jeśli

jednak przyjmiemy, że istniała pewna niewielka przewaga protonów nad antyprotonami, nie

wszystkie protony uległyby anihilacji. Obliczając liczbę protonów pozostałych po

anihilacjach i porównując ją z liczbą fotonów wyprodukowanych w czasie anihilacji (to

znaczy liczbą fotonów w promieniowaniu tła pozostałym po Wielkim Wybuchu),

moglibyśmy oszacować ułamek, o jaki materia dominowała nad antymaterią w młodym

background image

Wszechświecie.

Okazuje się, że dziś mniej więcej l proton przypada na każde 10 miliardów fotonów w

kosmicznym promieniowaniu tła. Oznacza to, że początkowy nadmiar protonów w stosunku

do antyprotonów wynosił tylko l na 10 miliardów! Innymi słowy, w młodym Wszechświecie

na każde 10 miliardów antyprotonów przypadało 10 miliardów i l protonów! A jednak nawet

ten malutki nadmiar (któremu towarzyszyła podobna przewaga neutronów i elektronów nad

ich antycząstkami) wystarczył, aby powstała cała obserwowana materia we Wszechświecie:

gwiazdy, galaktyki, planety i wszystko, co znamy i kochamy.

Sądzimy, że właśnie w ten sposób powstał Wszechświat złożony z materii. Historia ta

wprawdzie jest ciekawa sama w sobie, ale wynika z niej też pewien wniosek dla Star Trele

jeśli chce się stosować napęd na materię i antymaterię, nie można zbierać antymaterii w

przestrzeni kosmicznej, ponieważ nie ma jej tam wiele. Antymaterię trzeba wytwarzać. Aby

odkryć, jak można to zrobić, powróćmy do bizonów wędrujących po równinie nad

akceleratorem Fermilabu. Zastanawiając się nad teoretyczną i praktyczną stroną tego

zagadnienia, postanowiłem skontaktować się z dyrektorem Fermilabu, Johnem Peoplesem,

który prowadził badania mające na celu zaprojektowanie i zbudowanie źródła antyprotonów, i

zapytać go, czy mógłby mi pomóc określić, ile antyprotonów można obecnie wyprodukować ł

zmagazynować za cenę jednego dolara. Peoples zgodził się mi pomóc, zlecając kilk u osobom

ze swojego personelu dostarczenie potrzebnych informacji.

W Fermilabie wytwarza się antyprotony w średnioenerge-tycznych zderzeniach

protonów z tarczą wykonaną z litu. Od czasu do czasu zderzenia te produkują antyproton,

który następnie jest kierowany do pierścienia przechowującego, znajdującego się pod

pastwiskiem bizonów. Działając ze średnią mocą, Fermilab wytwarza w ten sposób około 50

miliardów antyprotonów na godzinę. Przyjmując, że źródło antyprotonów pracuje przez 75%

czasu w ciągu roku, otrzymujemy 6 tysięcy godzin pracy w roku, a więc średnio 300 tysięcy

miliardów antyprotonów na rok.

Koszt eksploatacji tych urządzeń akceleratora w Fermilabie, które biorą bezpośredni

udział w produkcji antyprotonów, wynosi około 500 milionów dolarów (wg ce n z 1995 roku).

Amortyzacja tego sprzętu podczas użytkowania go w ciągu 25 lat daje dalsze 20 milionów

dolarów na rok. Koszt pracy personelu (inżynierów, naukowców i obsługi technicznej) oraz

maszyn wynosi około 8 milionów dolarów rocznie. Dochodzi do tego jeszcze koszt

olbrzymiej ilości energii elektrycznej, koniecznej do wytwarzania wiązek cząstek oraz

przechowywania antyprotonów. Według obecnych cen w Illinois wynosi on około 5 milionów

dolarów rocznie. Są jeszcze koszty administracyjne, sięgające 15 milionów dolarów na rok.

background image

Wydaje się więc 48 milionów dolarów rocznie na wytworzenie 300 tysięcy miliardów

antyprotonów, które następnie używa się w Fermilabie do badania podstawowej struktury

materii we Wszechświecie. Oznacza to, że za dolara otrzymujemy 6 milionów antyprotonów!

Koszt ten prawdopodobnie mógłby być mniejszy. Fermilab produkuje

wysokoenergetyczną wiązkę antyprotonów, lecz gdybyśmy chcieli otrzymać tylko

antyprotony nie obdarzone tak wysokimi energiami, moglibyśmy obniżyć koszty około

dwóch do czterech razy.'Przyjmijmy więc, że dzisiejsza technologia pozwala uzyskać w

hurcie 10-20 milionów antyprotonów za jednego dolara.

Kolejne pytanie jest oczywiste: ile czadu za tego dolara? Jeśli całą masę kupionych za

dolara antyprotonów zamienimy na energię, uwolnimy około 1/1000 dżula, co wystarczyłoby

na podgrzanie 1/4 grama wody o około 1/1000 stopnia Celsjusza. Nic nadzwyczajnego.

Prawdopodobnie lepszym sposobem wyobrażenia sobie potencjalnej wydajności

źródła antyprotonów w Fermilabie jako części napędu czasoprzestrzennego jest

uwzględnienie energii, którą można by wytworzyć, zużywając na bieżąco każdy antyproton

produkowany przez źródło. Źródło antyprotonów może wytwarzać 50 miliardów cząstek na

godzinę. Gdyby te wszystkie antyprotony zostały zamienione na energię, otrzymalibyśmy

moc około l /1000 wata!

Innymi słowy, aby zasilić jedną żarówkę, potrzebnych byłoby 100 tysięcy takich

źródeł antyprotonów! Jako że całkowity roczny koszt działania źródła antyprotonów wynosi

48 milionów dolarów, oświetlenie pokoju przy użyciu antymaterii kosztowałoby obecnie

więcej niż wynosi roczny budżet rządu Stanów Zjednoczonych.

Główny problem polega na tym, że przy dzisiejszych możliwościach wyprodukowanie

jednego antyprotonu wymaga o wiele więcej energii, niż można by uzyskać, zamieniając jego

masę z powrotem w energię. Energia, jaką traci się w procesie produkcji, jest

prawdopodobnie co najmniej milion razy większa niż energia zawarta w masie antyprotonu.

Należałoby zatem znaleźć bardziej efektywne sposoby produkcji antyma terii, zanim zacznie

się myśleć o wykorzystaniu w napędzie statku kosmicznego silników na materię i

antymaterię.

Nie ulega również wątpliwości, że gdyby Enterprise miał wytwarzać własną

antymaterię, potrzebne byłyby nowe technologie - nie tylko po to, by zmniejszyć koszty, lecz

także rozmiary potrzebnych do tego urządzeń. Przy posługiwaniu się technikami

akceleratorowymi potrzebne byłyby urządzenia wytwarzające o wiele więcej energii na metr

tunelu niż obecnie. Mógłbym dodać, że stanowi to na Ziemi końca XX wieku przedmiot

intensywnych badań. Jeśli akceleratory cząstek, będące obecnie naszymi jedynymi

background image

narzędziami do bezpośredniego badania podstawowej struktury materii, nie mają się stać zbyt

kosztowne nawet dla międzynarodowych konsorcjów, muszą powstać nowe technologie

przyspieszania cząstek elementarnych. (Niedawno rząd Stanów Zjednoczonych zdecydował,

że koszty budowy akceleratora nowej generacji są zbyt wysokie. Kraje europejskie budują

natomiast akcelerator w Genewie, który ma zacząć działać na początku przyszłego stulecia).

Dotychczasowe doświadczenia dotyczące efektywności produkcji energii na jeden metr

akceleratora sugerują, że co 10-20 lat możliwy jest postęp dziesięciokrotny. Niewykluczone

więc, że za kilka stuleci będzie można sobie wyobrazić produkujący antymaterię akcelerator o

rozmiarach statku kosmicznego. Znając niechęć obecnych rządów do finansowania tego

rodzaju kosztownych badań podstawowych, trudno być optymistą, ale w ciągu dwóch stuleci

może przecież zajść wiele zmian politycznych.

Nawet gdyby można było wytwarzać antymaterię na pokładzie statku kosmicznego,

wciąż trzeba byłoby pamiętać o tym, że wyprodukowanie każdego antyprotonu wymagałoby

dużo więcej energii, niż można by później odzyskać. Dlaczego mielibyśmy zużywać tę

energię na produkcję antymaterii, zamiast wykorzystać ją bezpośrednio do napędzania statku?

Twórcy Stor 7Vefc, jak zawsze czujni, rozstrzygnęli i ten problem. Ich odpowiedź

była prosta. Innych form energii można używać do napędu pulsacyjnego, czyli do osiągania

prędkości podświetlnych, lecz do zasilania napędu czasoprzestrzennego nadają się tylko

reakcje materii i antymaterii. A ponieważ napęd

czasoprzestrzenny

może

o

wiele

skuteczniej

ochronić

statek

przed

niebezpieczeństwem niż napęd pulsacyjny, dodatkowe zużycie energii na produkcję

antymaterii może być opłacalne. Scenarzyści uniknęli również problemów związanych z

produkcją antymaterii za pomocą akceleratora, stając się wynalazcami nowej metody jej

wytwarzania. Zaproponowali hipotetyczne „urządzenia do odwracania ładunk u kwantowego”,

które miały po prostu zmieniać ładunek cząstek elementarnych, tak aby z protonów i

neutronów można było w efekcie końcowym otrzymać antyprotony i antyneutrony. Według

instrukcji technicznej serii Następne pokolenie, chociaż proces ten wymaga niezwykle dużych

mocy, strata energii netto wynosi tylko 24% - o wiele mniej, niż w przypadku użycia

akceleratora.

Mimo że brzmi to bardzo obiecująco, zmiana ładunku elektrycznego protonu, niestety,

nie wystarczy. Weźmy na przykład pod uwagę, że zarówno neutrony, jak i antyneutrony nie

mają ładunku. Liczby kwantowe antycząstek (wielkości opisujące ich własności) są zawsze

przeciwne niż u ich odpowiedników tworzących materię. Ponieważ kwarki, z których składają

się protony, mają wiele innych liczb kwantowych poza ładunkiem elektrycznym, dla

background image

dokończenia procesu zamiany materii w antymaterię należałoby posłużyć się jeszcze innymi

„urządzeniami do odwracania”.

W każdym razie w instrukcji technicznej czytamy, że z wyjątkiem sytuacji

awaryjnych, kiedy antymaterię można produkować na statkach, cała antymateria Gwiezdnej

Floty wytwarzana jest w jej stacjach paliwowych. Antyprotony i antyneutrony są tam łączone

w jądra ciężkiego antywodoru. Szczególnie zabawne jest to, że inżynierowie Floty dodają

później do tych naładowanych elektrycznie jąder antyelektrony (pozytony), tworząc neutralne

atomy ciężkiego antywodoru -prawdopodobnie dlatego, że neutralne antyatomy wydają się

scenarzystom Stor Trek łatwiejsze do przechowania niż naładowane elektrycznie antyjądra.

(W rzeczywistości nie udało się jak dotąd wyprodukować antyatomów w laboratorium -

chociaż ostatnie doniesienia z Uniwersytetu Harvarda sugerują, że pierwsze atomy

antywodoru uda się wytworzyć jeszcze w tym

dziesięcioleciu

1

). Niestety, stwarza to poważne problemy z przechowywaniem

antywodoru, ponieważ pola magnetyczne, które są absolutnie nieodzowne do utrzymywania

dużych ilości antymaterii, działają tylko na obiekty naładowane elektrycznie! Cóż, wracamy

do punktu wyjścia...

Statek kosmiczny może zabrać około 3 tysięcy m

3

paliwa z antymaterii, które

przechowywane jest w różnych zbiornikach (w Enterprise-D na Pokładzie 42). Ma to

wystarczać na trzyletnią wyprawę. Spróbujmy dla zabawy ocenić, ile energii można uzyskać z

tej ilości antymaterii, gdyby zgromadzono ją w postaci jąder ciężkiego antywodoru.

Zakładam, że jądra są transportowane w postaci rozrzedzonej plazmy, którą prawdopodobnie

łatwiej byłoby przechować za pomocą pól magnetycznych, niż gdyby tworzyły ciecz lub ciało

stałe. W tym przypadku 3 tysiące m

3

odpowiadałyby około 5 milionom gramów paliwa.

Gdyby w reakcjach anihilacji zużywano l gram na sekundę, wytwarzana w ten sposób energia

byłaby równa energii zużywanej dziś przez ludzkość w ciągu jednego dnia. Jak wspomniałem

wcześniej przy okazji opisu napędu czasoprzestrzennego, jest to minimalna ilość energii, jaką

należy wytwarzać na statku kosmicznym. Paliwo można by zużywać w tym tempie przez 5

milionów sekund, czyli z grubsza 2 miesiące. Przyjmując, że statek wykorzystuje napęd na

materię i antymaterię przez 5% całkowitego czasu trwania misji, otrzymamy żądane trzy lata,

na które ma wystarczać ta ilość paliwa.

Z kwestią ilości antymaterii wymaganej do produkcji energii związany jest jeszcze

inny problem (na który twórcy Stor Trek przymykają od czasu do c zasu oko): anihilacja

materii i antymaterii jest procesem podlegającym zasadzie „wszystko albo nic”. Nie można go

w sposób ciągły regulować. Nawet jeśli zmieni się stosunek ilości materii do antymaterii,

background image

tempo wytwarzania energii nie ulegnie zmianie. Stosunek uzyskanej mocy do ilości zużytego

paliwa może się zmniejszyć tylko przy stracie paliwa - to znaczy w sytuacji, gdy niektórym

cząstkom materii nie uda się znaleźć antymaterii, z którą mogłyby zanihilować, lub gdy będą

się one tylko zderzać, nie anihilując. W kilku odcinkach (Nogi czas. Dziecko Galaktyki,

Skóra diabla) stosunek ilości materii do antymaterii ulega zmianie, a instrukcja techniczna

Star Trek podaje nawet, że może się on zmieniać w sposób ciągły w zakresie od 25: l do l: l,

w zależności od prędkości czasoprzestrzennej, przy czym stosunek 1:1 odpowiada prędkości

8 warpów lub wyższej. Przy prędkościach wyższych niż 8 warpów zwiększana jest ilość

materii i antymaterii, ale ich stosunek pozostaje taki sam. Właściwa procedura jednak zawsze

polega na zmianie ilości materii i antymaterii przy ich stałym stosunku, co powinni wiedzieć

nawet kadeci Gwiezdnej Floty. Wyjaśnił to Wesley Crusher, wspominając w odcinku

Dorastanie, że stawiane w trakcie egzaminów do Gwiezdnej Floty pytanie na temat

właściwego stosunku ilości materii i antymaterii było podchwytliwe i że tylko jedna jego

wartość jest poprawna - mianowicie 1:1.

Autorzy Star Trek dodali jeszcze jeden istotny składnik napędu na materię i

antymaterię. Mam na myśli słynne kryształy dwu-litu (co ciekawe, wprowadzone przez nich

na długo przedtem, zanim inżynierowie w Fermilabie zdecydowali się na użycie tarczy z litu

w swoim źródle antyprotonów). Nie można ich pominąć, ponieważ są centralną częścią

napędu czasoprzestrzennego i jako takie zajmują znaczące miejsce w gospodarce Federacji i

wielu przedsięwzięciach inwestycyjnych. (Na przykład gdyby nie dwulit, Enterprise nigdy nie

zostałby wysłany do Układu Halkańskiego, aby uregulować prawa wydobywcze, i nigdy nie

poznalibyśmy „lustrzanego wszechświata”, w którym Federacja jest imperium zła!)

Na czym polega rola tych niezwykłych produktów wyobraźni twórców Star Trek?

Kryształy te (znane również pod dłuższą nazwą: 2<5>6 dwulit 2<:>1 dialokrzemian 1:9:1

heptożelazek) mogą regulować tempo anihilacji materii i antymaterii, ponieważ uważane są

za jedyną formę materii, która jest „przepuszczalna” dla antymaterii.

Można pozwolić sobie na zinterpretowanie tego następująco: kryształy zbudowane są

z regularnie uporządkowanych atomów, przypuszczam więc, że atomy antywodoru zostają

rozmieszczone w siatce kryształu dwulitu i dzięki temu pozostają w stałej odległości zarówno

od atomów zwykłej materii, jak i od siebie nawzajem. W ten sposób dwulit może regulować

gęstość antymaterii, a więc także tempo jej reakcji z materią.

Przyczyną, dla której zadaję sobie trud znalezienia hipotetycznego wyjaśnienia

działania hipotetycznego materiału, jest moje przekonanie, że twórcy Star Trek wyprzedzali

swój czas. Wiele lat po tym, kiedy w Star Trek wprowadzono sterowaną dwulitem anihilację

background image

materii i antymaterii, w podobny - przynajmniej co do zasady - sposób próbowano wyjaśnić

równie niezwykły proces: zimną fuzję. W czasie mniej więcej sześciomiesięcznej euforii

związanej z tym zjawiskiem twierdzono, że łącząc chemicznie różne pierwiastki można w

jakiś sposób skłonić jądra atomowe, by reagowały szybciej, i spowodować w temperaturze

pokojowej zajście takich samych reakcji, do których wytworzenia Słońce potrzebuje

olbrzymich gęstości i temperatur przekraczających milion stopni.

Zimna fuzja budzi podejrzliwość fizyków m.in. dlatego, że związane z nią reakcje

chemiczne musiałyby zachodzić na odległościach porównywalnych z rozmiarami atomu,

które są 10 tysięcy razy większe niż rozmiary jąder atomowych. Trudno uwierzyć, aby

reakcje zachodzące w obszarze tak znacząco większym od jąder mogły mieć jakiś wpływ na

tempo reakcji jądrowych. Dopóki jednak nie uświadomiono sobie, że innym grupom

naukowców nie udało się powtórzyć rezultatów osiągniętych rzekomo przez odkrywców

zimnej fuzji, wielu ludzi spędziło bardzo dużo czasu na próbach odgadnięcia, w jaki sposób

taki cud jest możliwy.

Ponieważ, w przeciwieństwie do zwolenników zimnej fuzji, twórcy Star Trek nigdy

nie udawali, że wymyślają coś więcej niż fantastykę naukową, sądzę, że nie powinniśmy być

dla nich tacy surowi. W końcu kryształy dwulitu wspomagają tylko coś, co niewątpliwie jest

najbardziej przekonującym i realistycznym aspektem kosmicznej technologii: silniki na

materię

i antymaterię. Mógłbym też dodać, że kryształy - chociaż wolframu, a nie dwulitu - są

rzeczywiście stosowane do spowalniania wiązek antyelektronów (pozytonów) w

prowadzonych obecnie eksperymentach; w tym przypadku antyelektrony rozpraszają się w

polu elektrycznym kryształu i tracą energię.

Nie ma we Wszechświecie innego sposobu, aby dostać więcej czadu za dolara, niż

wziąć cząstkę i anihilować ją z jej anty-cząstką, wytwarzając czystą energię promienistą. Jest

to jedyna możliwa do wyobrażenia technologia mogąca służyć do napędu rakiet i z pewnością

znajdzie takie zastosowanie, jeśli zdecydujemy się rozwijać przemysł statków kosmicznych

bez ograniczeń. Niewątpliwie będzie to trochę kosztowało, ale to już zmartwienie polityków

XXIII wieku.

background image

ROZDZIAŁ 7

HOLODEKI I HOLOGRAMY

Jesteśmy nami, proszę pana. Oni również są nami.

W takim razie wszyscy jesteśmy nami.

DATA do Picarda i Rikera w odcinku Zawsze zostanie nam Paryż

Kiedy na lotnisku w Casablance Humphrey Bogart powiedział do Ingrid Bergman:

„Zawsze zostanie nam Paryż”, miał oczywiście na myśli wspomnienie Paryża. Kiedy Picard

powiedział coś podobnego do Jenice Manheim w odtworzonej w holodeku Cafe des Artistes,

rozumiał to bardzo dosłownie. Dzięki holodekom można ponownie przeżyć swoje

wspomnienia, odwiedzić ulubione miejsca i odnaleźć utracone miłości... Holodek jest jedną z

najbardziej fascynujących technologii używanych na pokładzie Enterprise. Dla każdego, kto

oswoił się z rodzącym się światem wirtualnej rzeczywistości - czy to dzięki grom wideo, czy

bardziej wyrafinowanym współczesnym superszybkim komputerom - możliwości, jakie

oferuje holodek, są szczególnie kuszące. Kto nie chciałby w jednej chwili wejść całkowicie w

świat własnych fantazji?

Jest to tak nęcące, że nie wątpię, iż można by się od tego uzależnić o wiele bardziej,

niż pokazuje to serial. Domyślamy się „uzależnienia od holodeku” (czyli „holoholizmu”) w

odcinkach W pogoni za pustką i Dziecko galaktyki W pierwszym z nich lubiany przez

wszystkich nerwowo chory oficer, porucznik Reginald Barclay, uzależnia się od swojej

fantastycznej wizji starszych oficerów na pokładzie Enterprise i woli mieć z nimi do

czynienia raczej w holodeku, niż gdziekolwiek indziej.

W drugim z wymienionych odcinków Geordi LaForge nawiązuje w holodeku

znajomość z podobizną dr Leah Brahms, projektantki silników. Kiedy jednak spotyka

prawdziwą dr Brahms, sprawy znacznie się komplikują.

Mając na uwadze umysłowy charakter rozrywek, jakim zwykle oddaje się załoga w

holodeku, możemy się domyślać, że sterowane hormonami instynkty napędzające ludzkość

XX wieku ulegną pewnej zmianie do XXIII stulecia (chociaż, jeśli tak się stanie, Will Riker

nie jest typowym reprezentantem swych współczesnych). Znając dzisiejszy świat,

oczekiwałbym raczej, że głównym zajęciem w holodeku będzie seks. (Holodek zapewniałby

bezpieczny seks w zupełnie nowym znaczeniu). Nie żartuję. Holodek uosabia wszystko to, co

jest tak kuszące w fantazjach, zwłaszcza seksualnych: działanie bez konsekwencji,

background image

przyjemność bez bólu oraz sytuacje, które można powtarzać w najrozmaitszych wariantach.

W serialu tylko od czasu do czasu czyni się aluzje na temat ukrytych przyjemności

holodeku. Na przykład Geordi po tym, jak wpakował się niegrzecznie do prywatnej fantazji

Rega w holodeku, przyznaje: „Spędziłem w holodeku kilka godzin. Cóż, to, co robisz w

holodeku, jest twoją osobistą sprawą, o ile nie przeszkadza ci to w pracy”. Nie wiem, co

bardziej mogłoby się kojarzyć z upomnieniem, by nie oddawać się zbytnio cielesnym

przyjemnościom.

Nie wątpię, że pierwsze próby odkrywania wirtualnej rzeczywistości prowadzą nas w

kierunku czegoś bardzo podobnego do holodeku. Możliwe, że moje obawy wydadzą się w

XXIII wieku osobliwe, podobnie jak ostrzegawcze głosy towarzyszące wynalezieniu telewizji

pół wieku temu. W końcu, chociaż protesty te ciągle trwają z powodu nadmiaru seksu i

przemocy w telewizji, nie byłoby bez niej serialu Stor Trek.

Niebezpieczeństwo, że staniemy się nacją przesiadujących w domu leniuchów, nie

byłoby groźne w przypadku świata pełnego osobistych holodeków lub na przykład holodeków

dostępnych na każdej ulicy - zaangażowanie się w fantazję w holodeku wymagałoby sporej

aktywności. Ciągle jednak perspektywa wirtualnej rzeczywistości bardzo mnie niepokoi -

dlatego właśnie, że choć wydaje się ona rzeczywista, jest o wiele mniej groźna od

prawdziwego życia. Powab świata dającego zmysłową przyjemność bez konsekwencji

mógłby być nieodparty.

Każda nowa technologia ma jednak złe i dobre strony. To od nas zależy sposób jej

wykorzystywania. Z tonu tej książki wynika chyba jasno, że wierzę, iż technologia uczyniła

nasze życie lepszym. Wyzwanie polegające na rozsądnym jej użyciu jest tylko jednym z

wyzwań stojących przed każdym członkiem ewoluującego ludzkiego społeczeństwa.

Holodek różni się jednak w uderzający sposób od rozwijających się obecnie

technologii wirtualnej rzeczywistości. Dzięki urządzeniom, które przymocowuje się do ciała i

które mają wpływ na spostrzeżenia i wrażenia, wirtualna rzeczywistość ma za zadanie

umieścić całą „akcję” w naszym wnętrzu. W holodeku znajduje zastosowanie sprytniejsza

taktyka: to my jesteśmy przenoszeni na „scenę wydarzeń”. Dzieje się tak częściowo dzięki

pomysłowemu użyciu holografii, a częściowo przez powielanie.

Zasady, na których opiera się holografia, zostały sformułowane w roku 1947, zanim

jeszcze powstały technologie umożliwiające ich zastosowanie. Dokonał tego brytyjski fizyk

Dennis Gabor, który za swoją pracę otrzymał później Nagrodę Nobla. Obecnie większości

ludzi nieobce są trójwymiarowe obrazy holograficzne, spotykane chociażby na kartach

kredytowych czy okładkach książek. Słowo „hologram” pochodzi od greckich słów

background image

oznaczających „całość” i „pisać”. W przeciwieństwie do zwykłych fotografii, które zapisują

tylko dwuwymiarowy obraz trójwymiarowej rzeczywistości, hologramy dają obraz

całościowy. Za pomocą holografii odtwarza się trójwymiarowy obraz, który można obejść

dookoła ł obejrzeć ze wszystkich stron, tak jakby to był prawdziwy przedmiot. Jedyny

sposób, aby stwierdzić różnicę, to spróbować chwycić hologram. Dopiero wtedy można się

przekonać, że nie ma tam nic, czego można by dotknąć.

W jaki sposób dwuwymiarowy kawałek filmu, na którym zapisuje się obraz

holograficzny, może pomieścić pełną informację o trójwymiarowym obrazie? Aby

odpowiedzieć na to pytanie, musimy się zastanowić nad tym, co to znaczy, że coś widzimy, i

co tak naprawdę zapisane jest na kliszy.

Przedmioty widzimy albo dlatego, że wysyłają, albo dlatego, że odbijają światło, które

następnie dociera do naszych oczu. Kiedy oświetli się obiekt trójwymiarowy, odbija on

światło w wielu kierunkach właśnie z powodu swojej trójwymiarowości. Gdybyśmy potrafili

w jakiś sposób odtworzyć dokładny wzór rozproszonego przez rzeczywisty obiekt światła,

nasze oczy nie mogłyby odróżnić prawdziwego przedmiotu od samego rozproszonego

światła. Obracając głowę, moglibyśmy na przykład zobaczyć cechy wcześniej niewidoczne,

ponieważ zostałby odtworzony cały wzór światła odbitego od wszystkich części przedmiotu.

W jaki sposób można najpierw zapisać, a potem odtworzyć całą tę informację? Pewien

pogląd na to zagadnienie możemy sobie wyrobić, zastanawiając się najpierw, co zapisuje się

na zwyczajnej fotografii, za której pomocą przechowujemy, a następnie odtwarzamy obraz

dwuwymiarowy. Kiedy robimy zdjęcie, wystawiamy światłoczuły materiał na działanie

światła wpadającego przez obiektyw aparatu. Jeśli materiał ten potraktujemy następnie

różnymi chemikaliami, zaciemni się on proporcjonalnie do natężenia światła, jakie nań padło.

(Mówię tutaj o filmie czamo-białym, ale fotografia kolorowa jest równie prosta: wystarczy

pokryć błonę trzema różnymi substancjami, z których każda reaguje na inny podstawowy

kolor).

Cała informacja zawarta na filmie fotograficznym mieści się więc w natężeniu światła

docierającego do każdego punktu błony. Gdy wywołujemy film, punkty, które były

wystawione na działanie silniejszego światła, staną się pod wpływem chemikaliów

ciemniejsze, te zaś, na które padło mniej światła -jaśniejsze. Powstający w ten sposób na

filmie obraz jest negatywem dwuwymiarowego rzutu początkowego pola światła. Rzutując

przez ten negatyw światło na światłoczuły papier, otrzymamy ostatecznie zdjęcie. Kiedy

patrzymy na nie, światło padające na jaśniejsze obszary zdjęcia będzie w dużej mierze

odbijane, natomiast to, które trafia na obszary ciemniejsze, zostanie pochłonięte. Innymi

background image

słowy, patrzenie na światło odbite od fotografii

powoduje powstanie na naszych siatkówkach dwuwymiarowego rozkładu natężenia,

który następnie interpretujemy.

Powstaje teraz pytanie: co jeszcze - poza natężeniem światła w każdym punkcie -

można by zapisać? Aby na nie odpowiedzieć, znów wykorzystamy to, że światło jest falą.

Oznacza to, że do jego scharakteryzowania nie wystarczy natężenie. Przyjrzyjmy się fali

światła pokazanej poniżej:

W punkcie A fala, która w tym przypadku przedstawia natężenie pola elektrycznego,

ma wartość maksymalną odpowiadającą polu elektrycznemu o natężeniu E

A

skierowanemu do

góry. W punkcie B pole ma takie samo natężenie, ale jest skierowane w dół. Ktoś, kto

rejestruje tylko natężenie fali światła, stwierdzi, że pole ma takie samo natężenie w punkcie

A, jak w punkcie B. A przecież punkt B znajduje się w innej części fali niż punkt A. To

„położenie” nazywane jest fazą. Okazuje się, że aby określić całą informację związaną z falą

w danym punkcie, wystarczy pod ać jej natężenie i fazę. Aby więc zapisać całą informację o

falach światła odbitych od trójwymiarowego obiektu, należy znaleźć sposób na zapisywanie

na filmie zarówno natężenia, jak i fazy rozproszonego światła.

Można to zrobić rozdzielając wiązkę światła na dwie części i kierując jedną z nich

wprost na film, drugą zaś tak, by - zanim oświetli film - odbiła się od fotografowanego

obiektu. Dojdzie wówczas do jednego z dwóch przypadków. Jeśli dwie fale są „w fazie” -

czyli mają grzbiety w jakimś punkcie A - amplituda powstającej fali osiągnie w punkcie A

amplitudę dwa razy większą od każdej z fal składowych, Jak to pokazuje rysunek:

background image

Z drugiej strony, jeśli dwie fale nie są zgodne w fazie w punkcie A, zniosą się i

powstająca „fala” będzie miała w punkcie A zerową amplitudę:

Jeśli teraz w punkcie A umieścimy kliszę fotograficzną, która zapisuje tylko natężenie,

zarejestrujemy na niej „wzór interferencyjny” tych dwóch fal - wiązki odniesienia i wiązki

odbitej od przedmiotu. Wzór ten zawiera nie tylko informację o natężeniu światła odbitego od

obiektu, ale również o fazach. Przy odrobinie sprytu można tę informację wydobyć i

odtworzyć trójwymiarowy obraz obiektu, który odbił światło.

Okazuje się, że sprytu naprawdę nie trzeba zbyt wiele. Wystarczy po prostu oświetlić

kliszę światłem tej samej długości, jaką miało światło wykorzystane do stworzenia obrazu

interferencyjnego, a obraz przedmiotu - gdy popatrzy się przez kliszę - pojawi się dokładnie

tam, gdzie się znajdował względem filmu sam przedmiot. Jeśli przechyli się głowę, będzie

można „wyjrzeć” za krawędzie odtworzonego przedmiotu. Nawet jeśli większa część kliszy

zostanie przykryta, a następnie popatrzymy przez nią, trzymając ją blisko oczu, zobaczymy

cały przedmiot! W tym sensie doświadczenie to przypomina oglądanie przez okno sceny

dziejącej się na zewnątrz, z tą tylko różnicą, że to, co widać, nie znajduje się tam naprawdę.

Docierające do oczu obserwatora światło jest odkształcane przez kliszę w taki sposób, że

oczom wydaje się, iż światło to zostało odbite od przedmiotów, które „widzimy”. Tak właśnie

działa hologram.

Zazwyczaj, aby starannie kontrolować zarówno wiązkę odniesienia, jak i światio

odbite od przedmiotu, używa się światła laserowego, które jest spójne i dobrze skolimowane.

Istnieją także tak zwane hologramy światła białego, które z równie dobrym skutkiem można

oświetlać zwykłym światłem.

Można być bardziej pomysłowym i spowodować - używając różnych soczewek - aby

background image

oglądane przedmioty znajdowały się między oglądającym a kliszą. Wówcza s pojawi się przed

nami trójwymiarowy obraz przedmiotu, który można obejść i obejrzeć ze wszystkich stron.

Źródło światła może się też znajdować przed kliszą zamiast za nią - jak w przypadku

hologramów na kartach kredytowych.

W holodeku używa się przypuszczalnie pierwszego rodzaju hologramów: gdy na

przykład odtwarza się obraz doktora na oddziale chorych w serii Yoyager. Co więcej, aby

zrobić takie hologramy, nie potrzeba rzeczywistych przedmiotów. Komputery cyfrowe są

obecnie wystarczająco zaawansowane, aby prześledzić drogę poszczególnych promieni

światła, czyli obliczyć, jak powinno wyglądać światło odbite od dowolnego obiektu, który

zechcemy narysować na ekranie i oświetlić go pod dowolnym kątem. W taki sam sposób

komputer może określić wygląd obrazu interferencyjnego, który powstałby z połączenia

światła biegnącego wprost na kliszę ze światłem odbitym od przedmiotu. Wyprodukowany za

pomocą komputera obraz interferencyjny można następnie rzutować na przezroczysty ekran i,

gdy oświetli się ten ekran od tyłu, powstanie trójwymiarowy obraz przedmiotu, który w

rzeczywistości nigdy nie istniał. Jeśli komputer jest wystarczająco szybki, może rzutować na

ekran zmieniający się ciągle obraz interferencyjny, tworząc w ten sposób poruszający się

trójwymiarowy obraz. Holograflczny aspekt ho-lodeku nie jest więc specjalnie naciągany.

Hologramy jednak to jeszcze nie holodek. Powiedzieliśmy już, że nie są one

obiektami materialnymi. Można przez nie przechodzić lub strzelać, jak tego dowiodły

wspaniale hologra- ficzne obrazy stworzone przez Spocka i Datę, aby oszukać Ro- mulan w

odcinku jednoczenie. Ów brak cielesności przeszkadzałby jednak w przypadku obiektów, z

którymi chcemy wejść w kontakt - to znaczy dotknąć ich. Wówczas wymagane są bardziej

ezoteryczne techniki i twórcy Stor Trek musieli się posłużyć w tym celu transporterem lub

przynajmniej replłkatora-mi, które są prostszymi wersjami transportera. Można się domyślać,

że transporter pozwala odtwarzać i przemieszczać -w ścisłej współpracy z programami

komputerowymi kontrolującymi głos i ruchy - materię w holodeku tak, aby dokładnie

przypominała odpowiednie istoty. W podobny sposób replika-tory odtwarzają przedmioty

nieożywione: stoły, krzesła itd. Ta „holodekowa materia” zawdzięcza swoją formę informacji

przechowywanej w buforze replikatora. Kiedy transporter zostanie wyłączony lub przedmiot

usunięty z holodeku, materia ta może rozłożyć się równie łatwo jak wtedy, gdy bufor wzorca

zostaje wyłączony w trakcie przesyłania. Istoty stworzone z holode-kowej materii mogą więc

zostać uwięzione w holodeku, jak to odkryli, ku swemu przerażeniu, fikcyjni detektywi Cyrus

Red-block i Felix Leach w odcinku Wielkie pożegnanie serii Następne pokolenie.

Wyobrażam więc sobie holodek w następujący sposób: hologramy stanowiłyby

background image

„ściany”, symulując trójwymiarowe otoczenie, które rozciąga się po horyzont, oparte zaś na

technologii transportera replikatory stwarzałyby na tej scenie poruszające się cielesne obiekty.

Ponieważ opanowaliśmy już technikę holografii, natomiast (jak to wyjaśniłem wcześ niej)

zbudowanie transporterów jest mało prawdopodobne, aby stworzyć działajacy holodek,

należałoby znaleźć jakiś inny sposób nadawania materii kształtu i przemieszczania jej. Nie

jest jednak tak źle, skoro mamy w ręku jedną z dwóch koniecznych technologii.

Czy jednak same hologramy nie wystarczyłyby, jak w przypadku holograflcznego

lekarza w serii Yoyoger? Odpowiedź brzmi: absolutnie nie. Obawiam się, że obrazy te,

składające się tylko z rozproszonego światła, pozbawione grama materii, nie na wiele by się

zdały, gdybyśmy chcieli je podnieść, zbadać lub manipulować nimi. Niemniej dobrego

traktowania ł pełnych współczucia rad, które leżą u podstaw właściwej praktyki medycznej,

można oczekiwać tak od hologramu, jak od rzeczywistej istoty.

background image

CZĘŚĆ III

NIEWIDZIALNY

WSZECHŚWIAT,

CZYLI O CZYM NIE ŚNIŁO SIĘ

FILOZOFOM

W części tej mówimy o rzeczach, które mogą istnieć,

choć nikt ich jeszcze nie widział: życiu pozaziemskim,

wyższych wymiarach oraz egzotycznej menażerii

innych możliwości i niemożliwości fizyki.

background image

ROZDZIAŁ 8

W POSZUKIWANIU SPOCKA

Trudno jest pracować w grupie, gdy jest się wszechmocnym.

Q, dołączając do załogi Enterprise w odcinku Deja Q

Nieustająca agresja, podboje terytorialne i ludobójstwo... kiedy to tylko możliwe...

Kolonia połączona jest tak, jakby była w rzeczywistości jednym organizmem rządzonym

przez genom, który ogranicza zachowanie tak samo, jak je umożliwia... Ten fizyczny

superorganizm działa tak, aby przystosować demograficzną mieszankę w celu

zoptymalizowania swojej gospodarki energetyczne j... Surowe zasady nie pozwalają na

zabawę, sztukę czy współczucie”.

Borgowie należą do najbardziej przerażających i intrygujących gatunków obcych

stworzeń, jakie zostały kiedykolwiek sportretowane na telewizyjnym ekranie. Z mojego

punktu widzenia są tak fascynujący dlatego, że podobne do nich organizmy mogłyby w

zasadzie powstać drogą doboru naturalnego. Chociaż zacytowany powyżej fragment stanowi

trafny opis Borgów, nie pochodzi on z żadnego z odcinków Star Trek. Ów tekst pojawia się w

pracy Berta Holldoblera i Edwarda O. Wilsona Podróż do krainy mrówek i nie jest opisem

Borgów, lecz dobrze nam znanych ziemskich owadów. Mrówki osiągnęły niezwykłe sukcesy

ewolucyjne i nietrudno zgadnąć dlaczego. Czy można sobie wyobrazić, że obdarzone

świadomością społeczeństwo rozwija się w podobny superorganizm społeczny? Czy

intelektualne subtelności, takie jak empatia, byłyby w takim społeczeństwie potrzebne? A

może raczej przeszkadzałyby?

Gene Roddenberry przyznał, że podróże międzygwiezdne statku Enterprise są przede

wszystkim pretekstem do opowiadania coraz to nowych historii. Mimo wszystkich

technicznych cudów nawet umysł tak ścisły, jak mój, potrafi dostrzec, że tym, co napędza

Star Trek, jest dramat, te same wielkie tematy, które przepełniały opowieści od czasów

greckiej epiki: miłość, nienawiść, zdrada, zazdrość, zaufanie, radość, strach, zdziwienie...

Wszyscy przywiązujemy się do opowieści opisujących ludzkie uczucia, które rządzą naszym

własnym życiem. Gdyby napędu czasoprzestrzennego używano jedynie do przyspieszania

bezzałogowych sond, gdyby transportery zbudowano tylko po to, aby przenosić próbki gleby,

gdyby skanery medyczne wykorzystywano tylko do badania życia roślinnego, serial

zakończyłby się już po pierwszej serii odcinków.

background image

Rzeczywiście, „nieustająca misja” statku Enterprise nie służy badaniu praw fizyki,

lecz „poszukiwaniu niezwykłych nowych światów, nowego życia i nowych cywilizacji”.

Sądzę, że serial Stor Trek jest tak fascynujący dlatego, iż pozwala, by ludzki dramat przestał

być domeną człowieka. Wyobrażamy sobie, w jaki sposób inne gatunki próbują radzić sobie z

tymi samymi problemami i zadaniami, jakie stoją przed ludzkością. Poznajemy nowe,

wymyślone kultury, nowe zagrożenia. Jest to równie niezwykłe, jak zwiedzanie po raz

pierwszy obcego kraju, czy studiowanie historii i odkrywanie zarówno tego, co jest zupełnie

inne, jak i tego, co jest dokładnie takie same w zachowaniu ludzi, którzy żyli przed setkami

lat.

Aby się dobrze bawić, musimy oczywiście pozbyć się chociaż na chwilę sceptycyzmu.

Co ciekawe, niemal wszystkie obce gatunki, które spotyka Enterprise, przypominają ludzi i

mówią po angielsku! (Twórcy Star Trek znaleźli dla tej sytuacji usprawiedliwienie w serii

Następne pokolenie. Archeolog Richard Galen odkrywa bowiem, że wiele z tych cywilizacji

ma wspólny materiał genetyczny, który został „zasiany” w pierwotnych oceanach wielu

różnych światów przez pewną bardzo starą cywilizację. Przypomina to nieco żartobliwą teorię

panspermii, lansowaną ostatnio przez Francisa Cricka, laureata Nagrody Nobla).

Niewątpliwie nie uszło to uwagi żadnego trekkera, a najbarwniej wyłożył mi to fizyk teoretyk

i laureat Nagrody Nobla - Sheldon Glashow, który powiedział o obcych istotach: „Wszyscy

oni wyglądają jak ludzie cierpiący na słoniowatość!” Jednak i on - podobnie jak większość

trekkerów - aby móc podziwiać sposób ujęcia psychologii obcych cywilizacji przez

scenarzystów, stara się nie zważać na ich posunięcia. Hollywoodzcy scenarzyści nie są

naukowcami ani inżynierami, dlatego wydaje się naturalne, że większość ich energii twórczej

pochłania wymyślanie obcych kultur niż obcej biologii.

A mieli oni rzeczywiście bardzo wiele pomysłów. Poza Borga-mi i wszechmocnym

kawalarzem Q wszechświat Stor Trek zaludniło ponad dwieście różnych form życia; potem

przestałem je już liczyć. Wygląda na to, że nasza Galaktyka pełna jest inteligentnych

cywilizacji, bardziej i mniej zaawansowanych w rozwoju. Niektóre z nich - takie jak

Federacja, Klingonowie, Romulanie i Kardasowie - zarządzają olbrzymimi imperiami,

podczas gdy inne żyją w odosobnieniu na pojedynczych planetach lub w pustce przestrzeni

kosmicznej.

Znalezienie inteligentnych istot pozaziemskich, jak podkreślają to ludzie prowadzący

ich poszukiwania, byłoby największym odkryciem w historii ludzkości. Trudno sobie

wyobrazić odkrycie, które mogłoby bardziej zmienić nasze poglądy na człowieka i jego

miejsce we Wszechświecie. Jednak po 30 latach poszukiwań ciągle jeszcze czekamy na

background image

znalezienie ostatecznego dowodu na istnienie jakiejkolwiek formy życia poza Ziemią. Może

się to wydawać zaskakujące. Jeśli gdzieś w kosmosie istnieje życie, natrafienie nań wydaje się

nieuniknione, podobnie jak nieuniknione było to, że cywilizacje, które pojawiły się

niezależnie od siebie na kilku ziemskich kontynentach, w końcu spotkały się, co zresztą

doprowadziło do wielu spustoszeń.

Kiedy zastanowimy się głębiej nad prawdopodobieństwem odkrycia inteligentnego

życia gdzieś we Wszechświecie, łatwo się zniechęcić. Przypuśćmy na przykład, że pewna

obca cywilizacja w naszej Galaktyce została w jakiś sposób poinformowana, na którą z około

400 miliardów gwiazd w Drodze Mlecznej należy skierować przyrządy, aby odnaleźć

zamieszkaną planetę. Powiedzmy, że kazano im patrzeć w kierunku Słońca. Jakie jest

prawdopodobieństwo, że odkryją wtedy naszą obecność? Życie istnieje na Ziemi przez

większość z 4,5 miliarda lat, jakie upłynęły od czasu, gdy powstała. Jednak dopiero w

ostatnim półwieczu zaczęliśmy wysyłać jakiekolwiek sygnały świadczące o naszym istnieniu.

Co więcej, dopiero od 25 lat dysponujemy radioteleskopami o wystarczającej sile, aby mogły

one służyć innym cywilizacjom jako radiolatarnie. Zatem w ciągu 4,5 miliarda lat, w czasie

których obce cywilizacje mogły przyglądać się Ziemi z kosmosu, byłyby w stanie odkryć

nasze istnienie tylko w trakcie ostatniego półwiecza. Jeśli przyjmiemy, że obca cywilizacja

zdecydowała się przeprowadzić swoje obserwacje w przypadkowym momencie historii naszej

planety, okaże się, że prawdopodobieństwo odkrycia naszego istnienia byłoby jak 1 do 100

milionów. Przypominam, że ocena ta ma sens tylko wtedy, gdy wiadomo dokładnie, gdzie

należy patrzeć!

Napisano całe książki na temat prawdopodobieństwa istnienia życia w naszej

Galaktyce, jak również o możliwościach jego wykrycia. Oceny liczby zaawansowanych

cywilizacji wahają się od milionów (w najlepszym razie) do jednej (w najgorszym, gdy

założymy, że nasza cywilizacja jest zaawansowana). Nie chcę tu szczegółowo rozważać

wszystkich argumentów. Pragnę jednak opisać kilka bardziej interesujących problemów

fizycznych związanych z początkami życia, na którego poszukiwanie wysłano Enterprise.

Chciałbym się również zająć stosowanymi obecnie na Ziemi metodami poszukiwania obcych

cywilizacji.

Twierdzenie, że życie pozaziemskie powinno istnieć gdzieś w naszej Galaktyce,

wydaje mi się przekonujące. Jak powiedziałem, w Galaktyce jest około 400 miliardów

gwiazd. Byłoby więc rzeczą niezwykłą, gdyby nasze Słońce okazało się jedyną gwiazdą,

wokół której rozwinęło się inteligentne życie. Aby ocenić prawdopodobieństwo, że życie

podobne do naszego pojawiło się gdzieś indziej, można rozumować w sposób, który na

background image

pierwszy rzut oka wydaje się dość skomplikowany. Na początek można postawić oczywiste

pytania w rodzaju: „Jakie jest prawdopodobieństwo tego, że wokół większości gwiazd krążą

planety?” lub „Jakie jest prawdopodobieństwo, że dana gwiazda będzie żyła wystarczająco

długo, aby zapewnić odpowiednie warunki dla rozwoju życia w swoim układzie

planetarnym?” Następnie należy się zająć sprawami związanymi z samymi planetami: „Czy

planeta jest dostatecznie duża, aby mogła utrzymać atmosferę?”, „Jakie jest

prawdopodobieństwo, że procesy wulkaniczne rozpoczęły się na niej wystarczająco wcześnie,

aby wytworzyć na powierzchni odpowiednią ilość wody?”, albo „Jak prawdopodobne jest to,

że ma ona księżyc, którego masa i bliskość powodują, że na planecie występują pływy, a

zatem mogą się tworzyć baseny przypływowe - kolebki życia?” Zajmę się dalej tymi

kwestiami, jednak problem określenia rzeczywistych prawdopodobieństw polega na tym, że,

po pierwsze, wiele potrzebnych parametrów pozostaje nieokreślonych ł, po drugie, nie

wiemy, jak parametry te są ze sobą związane. Trudno określić nawet prawdopodobieństwo

codziennych zdarzeń. Kiedy natomiast chce się oszacować cały ciąg bardzo małych

prawdopodobieństw, możliwości wykorzystania w praktyce takiej oceny są bardzo niewielkie.

Należy też pamiętać, że nawet jeśli obliczy się dobrze zdefiniowane

prawdopodobieństwo, jego interpretacja może być bardzo niejasna. Prawdopodobieństwo

jakiegoś ciągu zdarzeń - na przykład tego, że siedzę na krześle określonego rodzaju, pisząc na

komputerze (jednym z milionów komputerów wytwarzanych każdego roku), w tym

konkretnym miejscu (w jednym z wielu miast na świecie), o określonej porze dnia (spośród

86 tysięcy 400 sekund doby) - jest niezwykle małe. To samo można powiedzieć o każdym

innym zbiorze okoliczności w moim życiu. Podobnie, w świecie nieożywionym

prawdopodobieństwo, że, powiedzmy, radioaktywne jądro rozpadnie się w dokładnie

określonym momencie, jest również niezwykle małe. Jednak nie obliczamy takich

prawdopodobieństw. Pytamy raczej, jak prawdopodobne jest to, że jądro rozpadnie się w

pewnym niezerowym przedziale czasu, lub o ile bardziej prawdopodobny jest rozpad w

jakimś momencie w stosunku do rozpadu w innym momencie.

Próbując ocenić prawdopodobieństwo istnienia życia w naszej Galaktyce, należy być

bardzo ostrożnym, aby nie narzucić zbyt dużych ograniczeń na ciąg wydarzeń, który się

rozważa.. Jeśli się tak zrobi, a znamy takie oceny, dojść można do wniosku, że

prawdopodobieństwo powstania życia na Ziemi jest niezwykle małe, co czasami wysuwa się

jako argument za koniecznością boskiej interwencji. Jednak równie znikomo małe jest

prawdopodobieństwo, że światło na skrzyżowaniu, które widzę ze swojego okna, zmieni się

na czerwone, gdy będę czekał tam w swoim samochodzie dokładnie o godzinie 11:57, 3

background image

czerwca 1999 roku. A przecież nie oznacza to, że do tego nie dojdzie.

Warto uświadomić sobie, że życie jednak powstało w Galaktyce - przynajmniej raz.

Trudno przecenić wagę tego faktu. Z doświadczenia wiemy, że przyroda rzadko kiedy

wytwarza jakieś zjawisko tylko raz. Nasze istnienie stanowi precedens; dowodzi, że

powstanie życia jest możliwe. Gdy wiemy już, że życie może pojawić się w naszej Galaktyce,

prawdopodobieństwo tego, że narodzi się również gdzie indziej, gwałtownie wzrasta. (Nie

musi jednak, jak sądzą niektórzy biologowie ewolucyjni, rozwinąć się w formę inteligentną).

Chociaż nasza wyobraźnia jest niewątpliwe zbyt uboga, aby rozważyć wszystkie

kombinacje warunków, które mogłyby doprowadzić do powstania inteligentnego życia,

możemy posłużyć się przykładem własnego istnienia i zastanowić się, jakie cechy

Wszechświata były decydujące lub ważne w naszej ewolucji. Zacznijmy od Wszechświata

jako całości. Wspomniałem już o jednym z kosmicznych zbiegów okoliczności, o tym, że w

młodym Wszechświecie na każde 10 miliardów protonów i antyprotonów przypadał jeden

dodatkowy proton. Bez tych dodatkowych cząstek materia zanihilowałaby z antymaterią i w

dzisiejszym Wszechświecie nie byłoby już materii, ani inteligentnej, ani żadnej innej.

Następną oczywistą cechą Wszechświata, w którym żyjemy, jest jego sędziwy wiek.

Powstawanie inteligentnego życia na Ziemi trwało około 3,5 miliarda lat. Abyśmy więc mogli

się pojawić we Wszechświecie, musiał on istnieć przez miliardy lat. Wedle najlepszych

obecnie ocen wieku Wszechświata ma on 10-20 miliardów lat, co jest okresem wystarczająco

długim. Okazuje się jednak, że nie tak łatwo a priori zaprojektować wszechświat, który -

podobnie jak nasz - rozszerza się, a nie zapada bardzo szybko w Wielkim Kolapsie

(odwrotności Wielkiego Wybuchu), i jednocześnie nie rozszerza się zbyt szybko,

uniemożliwiając materii grupowanie się w gwiazdy i galaktyki. Warunki początkowe we

Wszechświecie - lub pewien dynamiczny proces fizyczny we wczesnych etapach jego historii

- musiały być bardzo dobrze zestrojone, aby wszystko się powiodło.

Kwestia ta znana jest jako problem płaskości Wszechświata, a jej zrozumienie stało

się jednym z głównych zadań dzisiejszej kosmologii. Przyciąganie grawitacyjne, związane z

obecnością materii, spowalnia rozszerzanie się Wszechświata. W związku z tym pojawiają się

dwie możliwości. Albo we Wszechświecie jest wystarczająco dużo materii, by zatrzymać i

odwrócić ekspansję (Wszechświat zamknięty), albo jest jej zb yt mało i Wszechświat będzie

się rozszerzał wiecznie (Wszechświat otwarty). Zaskakującą cechą obecnego Wszechświata

jest to, że kiedy dodamy do siebie całą widoczną materię, otrzymana ilość jest podejrzanie

bliska wielkości granicznej między tymi dwoma możliwościami. Taka wielkość graniczna

odpowiada Wszechświatowi płaskiemu, w którym tempo ekspansji maleje, ale na to, aby

background image

ekspansja zupełnie ustała, potrzeba byłoby nieskończonego czasu.

Szczególnie zadziwia to, że Wszechświat, który nie jest doskonale płask i, w trakcie

swej ewolucji coraz bardziej oddala się od tego granicznego stanu. Ponieważ Wszechświat ma

dzisiaj co najmniej 10 miliardów lat i wyniki obserwacji wskazują, że jest obecnie niemal

zupełnie płaski, we wcześniejszych okresach swojego istnienia musiał być jeszcze bardziej

płaski. Trudno sobie wyobrazić, w jaki sposób miałoby to nastąpić przypadkiem, bez udziału

jakiegoś wymuszającego to procesu fizycznego.

Około 15 lat temu zaproponowano opis takiego procesu - nosi on nazwę inflacji. W

młodym Wszechświecie mógł on zachodzić powszechnie w wyniku efektów

kwantowomechanicznych.

Przypomnijmy sobie, że pusta przestrzeń nie jest tak naprawdę pusta, lecz istnieją w

niej kwantowe fluktuacje, które mogą przenosić energię. Okazuje się, że ponieważ natura sił

działających między cząstkami elementarnymi zmieniała się wraz z temperaturą młodego

Wszechświata, energia zmagazynowana we fluktuacjach kwantowych próżni mogła stać się

dominującą formą energii. Owa energia próżni może odpychać grawitacyjnie, zamiast

przyciągać. Istnieje hipoteza, że Wszechświat przeszedł kiedyś przez krótką fazę inflacji, w

czasie której dominowała energia próżni, co zaowocowało bardzo szybką ekspansją. Można

wykazać, że kiedy ten okres dobiegł końca i energia próżni zamieniła się w energię materii i

promieniowania, Wszechświat mógł stać się niemal dokładnie płaski.

Pozostaje jednak inny, być może poważniejszy problem. Pojawił się on po raz

pierwszy, gdy Einstein spróbował zastosować swoją ogólną teorię względności do opisu

Wszechświata. W tym czasie nie wiedziano jeszcze, że Wszechświat się rozszerza, wierzono

raczej, że jest on statyczny i niezmienny. Einstein musiał więc znaleźć jakiś sposób, aby

powstrzymać całą materię przed zapadnięciem się w wyniku przyciągania grawitacyjnego.

Dodał więc do swoich równań człon, zwany stałą kosmologiczną, który wprowadzał

kosmiczne odpychanie, aby zrównoważyć przyciąganie grawitacyjne materii w dużych

skalach. Gdy się okazało, że Wszechświat nie jest statyczny, Einstein uświadomił sobie, iż nie

ma potrzeby dodawać do równań stałej kosmologicznej, i nazwał to największą pomyłką, jaką

kiedykolwiek popełnił. Niestety, tak jak w przypadku pasty do zębów, która - wyciśnięta - nie

chce wejść z powrotem do tubki, gdy raz podniesiono kwestię istnienia stałej kosmologicznej,

nie było już odwrotu. Jeśli taki człon może się znajdować w równaniach Einsteina, należy

wyjaśnić, dlaczego nie ma po nim śladu w obserwowanym Wszechświecie. Okazuje się, że

energia próżni daje dokładnie ten sam efekt, jaki chciał uzyskać Einstein, wprowadzając stałą

kosmologiczną. Powstaje więc pytanie: jak to się stało, że energia próżni nie dominuje w

background image

dzisiejszym Wszechświecie? Innymi słowy, jak to się dzieje, że Wszechświat nie trwa wciąż

w fazie inflacji?

Nie znamy odpowiedzi na te pytania. Są to prawdopodobnie jedne z najbardziej

głębokich, dotąd nie zbadanych problemów w fizyce. Każde obliczenie wykonywane przy

użyciu znanych teorii sugeruje, że energia próżni powinna być obecnie o wiele rzędów

wielkości większa, niż to wynika z obserwacji. Zaproponowano pewne mechanizmy

odwołujące się do tak niezwykłych tworów, jak tunele euklidesowe, które mogłyby

powodować znikanie energii, ale żadnej z tych hipotez nie udało się dobrze uzasadnić. Co

więcej, ostatnie obserwacje wykazują, że stała kosmologiczna, chociaż znacznie niniejsza niż

moglibyśmy się spodziewać, może być jednak różna od zera i w związku z tym wywierać

zauważalny wpływ na ewolucję Wszechświata, na przykład postarzając go. Zagadnienia te

budzą wielkie zainteresowanie i zajmują dużo miejsca także w moich własnych badaniach.

Niezależnie od tego, jak ów problem zostanie rozwiązany, nie ulega wątpliwości, że

płaskość Wszechświata była jednym z warunków koniecznych powstania życia na Ziemi i że

warunki kosmologiczne, które się do tego przyczyniły, są takie same w całym

Wszechświecie.

Do licznych kosmicznych zbiegów okoliczności, które pozwoliły na rozwój życia na

Ziemi, doszło również na podstawowym, mikrofizycznym poziomie. Gdyby którakolwiek z

fundamentalnych stałych fizycznych przyrody była tylko nieco inna, nigdy nie powstałyby

warunki konieczne do ewolucji ziemskich form życia. Gdyby na przykład bardzo małą

różnicę masy między neutronem i protonem (około 1/1000) zmienić tylko dwukrotnie,

rozpowszechnienie we Wszechświecie pierwiastków istotnych dla życia na Ziemi byłoby

znacznie mniejsze. Podobnie, gdyby nieco zmienić poziom energetyczny jednego ze stanów

wzbudzonych jądra atomu węgla, reakcje, w których wyniku ten pierwiastek powstaje we

wnętrzach gwiazd, nie zachodziłyby i w dzisiejszym Wszechświecie nie byłoby węgla

stanowiącego podstawowy składnik cząsteczek organicznych.

Oczywiście, trudno powiedzieć, jaką wagę należy przypisać tym zbiegom

okoliczności. Ponieważ pojawiliśmy się we Wszechświecie, nie należy się dziwić, że stałe

przyrody mają wartości, które pozwoliły na nasze zaistnienie. Można by sobie wyobrazić, że

Wszechświat, który obserwujemy, jest częścią o wiele większego metawszechświata. W

każdym z wszechświatów, wchodzących w skład tego metawszechświata, stałe przyrody

mogłyby mieć inne wartości. We wszechświatach, w których stałe fizyczne nie pozwalają na

pojawienie się życia, nie ma nikogo, kto mógłby cokolwiek zmierzyć. Parafrazując

sformułowanie rosyjskiego kosmologa Andrieja Linde, który popiera tę postać zasady

background image

antropicznej, jesteśmy w sytuacji inteligentnej ryby: dziwi się ona, dlaczego wszechświat, w

którym żyje (wnętrze akwarium), składa się z wody. Odpowiedź jest prosta: gdyby nie był z

wody, nie byłoby tam ryby i nie mogłaby zadawać pytań.

Ponieważ większość z tych interesujących problemów nie może obecnie zostać

rozwiązana na drodze empirycznej, najlepiej chyba pozostawić je filozofom, teologom i

autorom literatury fantastycznonaukowej. Przyjmijmy więc, że Wszechświat zdołał rozwinąć

się zarówno w skali mikroskopowej, jak i makroskopowej w sposób sprzyjający powstaniu

życia. Zajmiemy się teraz naszym własnym domem - Drogą Mleczną.

Kiedy zastanawiamy się, które układy gwiezdne w naszej Galaktyce mogłyby

zawierać inteligentne życie, problemy fizyczne są o wiele lepie j określone. Wiedząc, że w

Drodze Mlecznej istnieją gwiazdy liczące sobie co najmniej 10 miliardów lat (podczas gdy

życie na Ziemi nie jest starsze niż 3,5 miliarda lat), musimy zapytać, od jak dawna życie

mogło się rozwijać w naszej Galaktyce, zanim pojawiło się na Ziemi.

Kiedy 10-20 miliardów lat temu nasza Galaktyka zaczęła tworzyć się w

rozszerzającym się Wszechświecie, pierwsze pokolenie jej gwiazd składało się wyłącznie z

wodoru i helu, jedynych pierwiastków, które powstały w dużych ilościach zaraz po Wielkim

Wybuchu. Synteza jądrowa wewnątrz tych gwiazd powodowała zamianę wodoru w hel, a gdy

paliwo wodorowe się wyczerpywało, zaczynał się spalać hel, tworząc jeszcze cięższe

pierwiastki. Reakcje syntezy zasilają gwiazdę aż do chwili, gdy jej jądro składa się głównie z

żelaza. Żelaza nie można już spalać i paliwo jądrowe gwiazdy ulega wyczerpaniu. Tempo, w

jakim gwiazda zużywa swoje paliwo jądrowe, zależy od jej masy. Słońce po 5 miliardach lat

spalania wodoru nie jest jeszcze nawet w połowie pierwszej fa zy gwiezdnej ewolucji.

Gwiazdy dziesięciokrotnie masywniejsze od Słońca spalają swoje paliwo około 1000 razy

szybciej niż ono. Takie gwiazdy zużywają swoje paliwo wodorowe w ciągu mniej niż 100

milionów lat, podczas gdy Słońce potrzebuje na to 10 miliardów lat.

Co dzieje się z taką masywną gwiazdą, gdy wyczerpie już ona swoje paliwo jądrowe?

W ciągu sekund po spaleniu resztek zewnętrzne części gwiazdy zostają odrzucone w

eksplozji, nazywanej supernową, która jest jednym z najwspanialszych fajerwerków we

Wszechświecie. Supernowe świecą przez krótki czas z jasnością miliarda gwiazd. Obecnie

pojawiają się one w Galaktyce w tempie 2-3 na stulecie. Prawie tysiąc lat temu astronomowie

chińscy dostrzegli na niebie nową gwiazdę, widoczną nawet w dzień, którą nazwali „gwiazdą-

gościem”. Supernowa ta wytworzyła coś, co obecnie możemy obserwować za pomocą

teleskopów jako Mgławicę Krab. Ciekawe, że nigdzie w Europie Zachodniej nie zauważono

tego krótkotrwałego zjawiska. W owych czasach kościelny dogmat głosił, że niebiosa są

background image

wieczne i niezmienne, i o wiele łatwiej było niczego nie widzieć niż narażać się na spalenie

na stosie. Niemal 500 lat później europejscy astronomowie wyzwolili się już na tyle z tego

dogmatu, że duński astronom Tycho Brahe mógł prowadzić obserwacje ko lejnej supernowej

w Galaktyce.

Wiele ciężkich pierwiastków powstałych w czasie ewolucji gwiazdy oraz stworzonych

podczas eksplozji ulega rozproszeniu w ośrodku międzygwiazdowym, a część tego

„gwiezdnego pyłu” wchodzi później w skład gazu, który zapada się, aby gdzie indziej

utworzyć nową gwiazdę. W ciągu miliardów lat powstają nowe pokolenia gwiazd - tak zwane

gwiazdy populacji I, do których należy Słońce. Wiele z nich może otaczać wirujący dysk

gazu i pyłu, z którego następnie powstają planety zawierające ciężkie pierwiastki, takie jak

wapń, węgiel i żelazo. Z tego właśnie materiału jesteśmy zbudowani. Każdy atom w naszych

ciałach powstał miliardy lat temu w ognistym piecu jakiejś dawno umarłej gwiazdy. Uważam

to za jeden z najbardziej fascynujących l romantycznych faktów dotyczących Wszechświata:

wszyscy jesteśmy - dosłownie! - dziećmi gwiazd.

Niewiele byłoby jednak pożytku, gdyby planeta taka jak Ziemia uformowała się w

pobliżu bardzo masywnej gwiazdy: takie gwiazdy ewoluują i umierają w ciągu mniej więcej

100 milionów lat. Tylko gwiazdy o masie naszego Słońca lub mniejszej będą przez dłużej niż

5 miliardów lat spokojnie spalać wodór. Trudno sobie wyobrazić, w jaki sposób mogłoby

powstać życie na planecie obiegającej gwiazdę, która w trakcie ewolucji znacznie zmienia

swoją jasność. I odwrotnie, gdyby układ planetarny znajdował się wokół gwiazdy dużo

mniejszej i słabszej od naszego Słońca, planeta, by otrzymywać ilość ciepła, potrzebną do

podtrzymania życia, musiałaby prawdopodobnie znajdować się tak blisko gwiazdy, że

zostałaby zniszczona przez siły pływowe. Jeśli zatem chcemy poszukiwać życia, należy

przyglądać się gwiazdom, które nie różnią się zbytnio od naszej. Tak się składa, że Słońce jest

raczej typowym członkiem Galaktyki. Około 25% wszystkich gwiazd Drogi Mlecznej - czyli

blisko 100 miliardów - spełnia ten warunek. Większość z nich jest nawet starsza od Słońca,

mogły więc stać się ogniskami życia nawet 4-5 miliardów lat wcześniej niż Słońce.

Wróćmy jednak na Ziemię. Co czyni naszą piękną zielononiebieską planetę tak

wyjątkową? Po pierwsze, znajduje się ona w wewnętrznej części Układu Słonecznego. To

ważne, ponieważ planety zewnętrzne zawierają procentowo o wiele więcej wodoru i helu -

ich skład jest znacznie bliższy słonecznemu. Większość ciężkich pierwiastków znajdujących

się w dysku gazu i pyłu, który otaczał Słońce w trakcie jego narodzin, pozostała w

wewnętrznej części układu. Można się więc spodziewać, że potencjalne ogniska życia wokół

gwiazdy o masie Słońca będą się znajdowały w odległościach mniejszych niż, powiedzmy,

background image

promień orbity Marsa.

Jak zauważyli Złotowłosi, Ziemia jest w sam raz - nie za duża i nie za mała, nie za

zimna i nie za gorąca. Ponieważ planety wewnętrzne prawdopodobnie nie miały atmosfer,

gdy się rodziły, ich atmosfery musiały zostać wytworzone później z gazów wydzielanych

przez wulkany. Woda na powierzchni Ziemi powstała w ten sam sposób. Mniejsza planeta

mogłaby wypromieniować ciepło ze swojej powierzchni tak szybko, że procesy wulkaniczne

nie zachodziłyby na odpowiednio dużą skalę. Przypuszczalnie tak właśnie było w przypadku

Merkurego i Księżyca. Mars jest przypadkiem granicznym, natomiast Ziemi i Wenus udało

się utworzyć atmosferę. Pomiary radioaktywnych izotopów gazów w ziemskich skałach

sugerują, że 4,5 miliarda lat temu, po początkowym okresie bombardowań, w czasie którego

Ziemia uformowała się poprzez wychwyt materii spadającej na protoplanetę w ciągu 100-150

milionów lat, podczas następnych kilku milionów lat procesy wulkaniczne wytworzyły około

85% atmosfery

3

. Nie jest zaskakujące, że życie organiczne powstało właśnie na Ziemi, a nie

na żadnej innej planecie Układu Słonecznego, i podobnych tendencji można oczekiwać także

gdzie indziej w Galaktyce - na planetach klasy M, jak się je nazywa we wszechświecie Stor

Trek. Następne pytanie brzmi: ile czasu mogło potrzebować życie, a potem życie inteligentne,

aby powstać ł się rozwinąć? Odpowiedź na pierwszą część tego pytania brzmi: niezwykle

krótkiego czasu. Znalezione na Ziemi skamieniałości niebieskozielonych glonów mają 3,5

miliarda lat, a niektórzy badacze twierdzą, że życie kwitło na naszej planecie już 3,8 miliarda

lat temu. Życie na Ziemi pojawiło się najwcześniej, jak to tylko było możliwe -w ciągu

pierwszych kilkuset milionów lat jej istnienia. To bardzo obiecujące.

Oczywiście od czasu, kiedy na Ziemi powstało życie, do chwili pojawienia się

skomplikowanych struktur wielokomórkowych, a później życia inteligentnego, upłynęły

prawie 3 miliardy lat. Wszystko wskazuje na to, że okresem tym rządziła raczej fizyka niż

biologia. Po pierwsze, pierwotna atmosfera Ziemi nie zawierała tlenu. Znajdował się w niej

dwutlenek węgla, azot oraz śladowe ilości metanu, amoniaku, dwutlenku siarki i kwasu

solnego, ale nie tlen. Tlen jest istotny nie tylko dla zaawansowanych, organicznych form

życia na Ziemi, ale pełni jeszcze inną ważną funkcję. Tylko wtedy, gdy w atmosferze

znajduje się wystarczająca ilość tlenu, może powstać ozon. Jego obecność, jak sobie to coraz

lepiej uświadamiamy, ma fundamentalne znaczenie dla życia na Ziemi, ponieważ odb ija on

promieniowanie ultrafioletowe, które jest szkodliwe dla większości istot. Nic więc dziwnego,

że eksplozja życia na Ziemi rozpoczęła się dopiero wtedy, gdy w atmosferze pojawiły się

duże ilości tlenu. Ostatnie pomiary wykazują, że tlen pojawił się w atmosferze około dwóch

miliardów lat temu i w ciągu następnych 600 milionów lat osiągnął poziom zbliżony do

background image

obecnego. Chociaż tlen wytwarzały już wcześniej w procesach fotosyntezy niebie-sko-zielone

glony żyjące w pierwotnych oceanach, z początku nie mógł on na stałe wejść w skład

atmosfery. Reaguje on bowiem z tak wieloma substancjami (na przykład z żelazem), że każda

jego ilość wyprodukowana w procesach fotosyntezy łączyła się z innymi pierwiastkami,

zanim dotarła do atmosfery. W końcu, gdy wystarczająca ilość materiału w oceanie się

utleniła, wolny tlen mógł zacząć zbierać się w atmosferze. (Nigdy nie doszło do tego na

Wenus, ponieważ panowała tam zbyt wysoka temperatura, aby mogły powstać oceany; na

planecie nigdy nie pojawiły się niebiesko-zielone glony).

Gdy zapanowały już odpowiednie warunki, na pojawienie się złożonych form życia

trzeba było czekać jeszcze miliard lat. Nie oznacza, to wcale, że taka jest właśnie

charakterystyczna skala czasowa. Zarówno na biologiczną skalę czasu, jak i wyniki końcowe

miały wpływ przypadki: ślepe zaułki ewolucji, zmiany klimatu i kataklizmy, które

spowodowały masowe wymierania.

Wyniki te wskazują jednak, że życie inteligentne może rozwinąć się w ciągu miliarda

lat - w okresie dość krótkim w porównaniu z kosmiczną skalą czasu. O długości tego okresu

decydują jedynie czynniki fizyczne, takie jak produkcja ciepła czy tempo zachodzenia reakcji

chemicznych. Z ziemskiego doświadczenia wynika, że nawet jeśli ograniczymy nasze

oczekiwania w stosunku do inteligentnego życia do form organicznych i tlenowców - co z

pewnością jest bardzo ostrożnym założeniem, którego chcieli uniknąć twórcy Stor Trek

(jednym z moich ulubieńców jest Horta, istota krzemowa) - dobrymi kandydatami są planety

krążące wokół gwiazd o masie zbliżonej do Słońca i mających kilka miliardów lat.

Przyjmijmy, że powstanie organicznego życia jest procesem stabilnym i stosunkowo

szybkim. Jakie mamy dowody na to, że gdzieś we Wszechświecie istnieją niezbędne do tego

składniki: mianowicie cząsteczki organiczne i inne planety? I w tym przypadku wynikł

ostatnich badań napawają optymizmem. Cząsteczki organiczne znaleziono na planetoidach, w

kometach, meteorytach i przestrzeni międzygwiezdnej. Niektóre z nich są złożone, jak na

przykład aminokwasy, podstawowe cegiełki życia. Mikrofalowe badania międzygwiezdnego

gazu i pyłu pozwoliły wykryć dziesiątki związków organicznych, prawdopodobnie złożonych

węglowodorów. Wygląda więc na to, że materia organiczna jest dość rozpowszechniona w

Galaktyce.

A co z planetami? Chociaż na razie zaobserwowano bezpośrednio tylko jeden układ

planetarny poza naszym, powszechne jest przekonanie, że wokół większości gwiazd krążą

planety.

4

Na pewno duża część obserwowanych gwiazd ma gwiezdnych towarzyszy, z

którymi tworzy tak zwane układy podwójne. Co więcej, obserwuje się, że wiele młodych

background image

gwiazd jest otoczonych przez dyski pyłowo-gazowe, z których prawdopodobnie powstają

planety. Różne modele numeryczne, których używa się do badania rozkładu mas planet i ich

orbit w takich dyskach, sugerują (podkreślam słowo „sugerują”), że powstaje z nich

zazwyczaj co najmniej jedna planeta podobna do Ziemi, krążąca po orbicie zbliżonej

rozmiarami do orbity ziemskiej. Całkiem niedawno został wreszcie odkryty pierwszy poza

Układem Słonecznym system planetarny, znajdujący się 1400 lat świetlnych od Ziemi. Nieco

zaskakujące jest to, że ów system istnieje w jednym z najmniej gościnnych miejsc, w jakich

mogłyby pojawić się planety: trzy planety krążą wokół pulsara -zapadniętego jądra

supernowej - w odległości mniejszej, niż wynosi odległość Wenus od Słońca. Planety te

mogły powstać raczej po niż przed wybuchem gwiazdy, niemniej odkrycie to wskazuje, że

powstawanie planet nie jest zjawiskiem rzadkim.

Nie traćmy jednak z oczu głównego wątku. To prawie cud, że zwykłe prawa fizyki i

chemii, obowiązujące w rozszerzającym się Wszechświecie, mającym ponad 10 miliardów

lat, prowadzą do powstania świadomych umysłów, które mogą badać ów Wszechświat.

Chociaż okoliczności, którym zawdzięczamy powstanie życia na naszej planecie, są

specyficzne, nie wygląda na to, aby miały one być właściwe tylko Ziemi. Powyższe

argumenty sugerują, że w Galaktyce może istnieć ponad miliard potencjalnych ognisk życia

organicznego. A ponieważ nasza Galaktyka jest tylko jedną ze 100 miliardów galak tyk w

obser-wowalnym Wszechświecie, trudno uwierzyć w naszą samotność. Co więcej, większość

gwiazd populacji I powstała wcześniej niż Słońce - nawet o 5 miliardów lat. Znając skale

czasu, o których mówiliśmy wcześniej, można przypuszczać, że życie intelige ntne pojawiło

się w wielu miejscach jeszcze miliardy lat przed narodzinami Słońca. Można nawet

oczekiwać, że większość cywilizacji pozaziemskich w Galaktyce istniała przed nami. Zatem

Galaktyka mogłaby być pełna cywilizacji, które są miliardy lat starsze od naszej. Z drugiej

strony, znając historię ludzkości, możemy przypuszczać, że takie cywilizacje, podobnie jak

my, stawały w obliczu niebezpieczeństwa wojny czy głodu i wiele z nich mogło nie przetrwać

kilku tysięcy lat; w tym przypadku większość inteligentnego życia we Wszechświecie już

dawno wymarłaby. Jak trafnie to ujął pewien badacz ponad dwadzieścia lat temu: „Kwestia,

czy istnieje gdzieś w kosmosie inteligentne życie, zależy w gruncie rzeczy od tego, jak bardzo

jest ono inteligentne”.

Jak więc je poznamy? Czy wyślemy najpierw statki kosmiczne, aby badać niezwykłe

nowe światy i dotrzeć tam, gdzie nie stanęła jeszcze ludzka stopa? Czy raczej odkryją nas nasi

galaktyczni sąsiedzi, nastawiwszy swoje odbiorniki na serial Stor Trek, gdyż takie sygnały

przemieszczają się przez Galaktykę z prędkością światła? Nie sądzę, aby którykolwiek z tych

background image

scenariuszy został zrealizowany, i nie jestem w swym sądzie odosobniony.

Po pierwsze, przekonaliśmy się już, jak wielkim problemem mogą być podróże

międzygwiezdne. Wymagałyby one wydatków energetycznych, jakich obecnie nie umiemy

sobie nawet wyobrazić - i to bez względu na to, czy posłużylibyśmy się napędem

czasoprzestrzennym, czy jakimkolwiek innym. Przypomnijmy sobie, że aby przyspieszyć

rakietę za pomocą napędu na materię i antymaterię do prędkości około 3/4 prędkości światła,

tak aby mogła się ona udać w dziesięcioletnią podróż tam i z powrotem do najbliższej

gwiazdy, potrzeba byłoby energii, która mogłaby zaspokoić całkowite dzisiejsze

zapotrzebowanie Stanów Zjednoczonych na okres ponad 100 tysięcy lat! To jednak niewiele

w porównaniu z energią, której potrzebowalibyśmy, aby naprawdę zakrzywiać

czasoprzestrzeń. Co więcej, aby zwiększyć szansę znalezienia życia, należałoby przeszukać

co najmniej kilka tysięcy gwiazd. Obawiam się, że nawet podróżując z prędkością światła nie

moglibyśmy tego dokonać w ciągu następnego tysiąclecia.

Takie są złe wieści. Dobrą nowiną, jak przypuszczam, jest to, że z tego samego

powodu prawdopodobnie nie musimy się za bardzo martwić tym, że zostaniemy porwani

przez przybyszów z kosmosu. Oni pewnie też ocenili swe możliwości energetyczne i odkryli,

że o wiele łatwiej będzie im poznawać nas z daleka.

Czy powinniśmy więc poświęcać energię, aby rozgłaszać, że istniejemy? Na pewno

byłoby to o wiele tańsze. Wydając mniej niż dolara na energię elektryczną, potrafilibyśmy

przesiać do najbliższego układu gwiezdnego dziesięciowyrazową wiadomość, którą można by

odebrać za pomocą anteny radiowej odpowiednich rozmiarów. Jeśli jednak - tutaj znowu

zapożyczę argument od laureata Nagrody Nobla, Edwarda Purcella - będziemy nadawać,

zamiast nasłuchiwać, umknie naszej uwadze większość inteligentnych form życia.

Cywilizacje, które znacznie nas wyprzedzają, potrafią na pewno o wiele lepiej od nas

emitować silne sygnały. A ponieważ uczestniczymy w radiowym biznesie dopiero od 80 lat,

wiele cywilizacji powinno dysponować znacznie bardziej zaawansowaną technologią niż my.

Tak więc, jak mówiła moja matka, powinniśmy słuchać, zanim coś powiemy. Mam jednak

nadzieję, że nie wszystkie zaawansowane technicznie cywilizacje pozaziemskie myślą w ten

sam sposób.

Czego jednak powinniśmy słuchać? Jeśli nie wiemy, który kanał wybrać, sytuacja

wygląda beznadziejnie. Tutaj może nam pomóc Stor Trek. W odcinku Dziecko galaktyki

(serii Następne pokolenie) Enterprise spotyka obcą formę życia, która zamieszkuje pustą

przestrzeń, karmiąc się energią. Szczególnie smakuje jej promieniowanie o częstości 1420

milionów cykli na sekundę, co odpowiada długości fali 21 centymetrów.

background image

Jak powiedziałby Pitagoras: gdyby istniała muzyka sfer niebieskich, z pewnością to

byłby jej dźwięk podstawowy. Tysiąc czterysta dwadzieścia megaherców jest naturalną

częstością precesji spinu elektronu, gdy okrąża on jądro wodoru - najpowszechniejszego

pierwiastka we Wszechświecie. Jest to częstość tysiąckrotnie bardziej wyróżniająca się

spośród innych częstości w Galaktyce. Co więcej, znajduje się ona dokładnie w oknie

częstości, które - podobnie jak światło widzialne - można odbierać na powierzchni planety i

przesyłać przez warstwy atmosfery chroniącej życie organiczne. Poza tym w okolicach tej

częstości szum tła jest bardzo słaby. Radioastronomowie posłużyli się tą częstością, aby

znaleźć obszary występowania wodoru w Galaktyce - co jest oczywiście równoważne

występowaniu materii - ł w ten sposób określić jej kształt. Każdy gatunek wystarczająco

inteligentny, aby wiedzieć choć trochę o falach radiowych i o Wszechświecie, powinien znać

tę częstość. To taka uniwersalna latarnia morska. Trzydzieści sześć lat temu astrofizycy

Giuseppe Cocconi i Philip Morrison stwierdzili, że jest to najbardziej naturalna częstość, na

jakiej należałoby nadawać lub odbierać sygnały, i od tego czasu nikt się z nimi nie spierał.

W Hollywood nie tylko odgadnięto właściwą częstość nasłuchu, ale zdobyto również

część pieniędzy na jego prowadzenie. Chociaż nasłuch kosmosu na niewielką skalę trwa od

trzydziestu lat, pierwszy zakrojony na większą skalę wszechstronny program badawczy zaczął

funkcjonować jesienią 1985 roku. Wówczas to Steven Spielberg wysup łał trochę grosza, co

pozwoliło na formalne zainicjowanie projektu META, czyli Mega-channel Extra Terrestrial

Assay (Milionkanałowe urządzenie do poszukiwania cywilizacji pozaziemskich). Ojcem tego

urządzenia jest spec od elektroniki Paul Horowitz z Uniwersytetu Harvarda. META tkwi w

26-metrowym harwardzkim radioteleskopie w stanie Massachusetts i funkcjonuje za

pieniądze prywatnego Planetary Society (Towarzystwa Planetarnego) łącznie z wkładem 100

tysięcy dolarów od samego ET. META wykorzystuje układ 128 równoległych procesorów,

które jednocześnie odczytują 8 388 608 kanałów częstości w pobliżu 1420 megaherców i jej

tak zwanej drugiej harmonicznej - równej 2840 megaherców. Jak dotąd zebrano dane z ponad

pięciu lat i w tym czasie META trzykrotnie przemiotło całe niebo.

Oczywiście w trakcie nasłuchu należy się wykazać pewnym sprytem. Trzeba sobie

przede wszystkim uświadomić, że nawet jeśli wysyłany sygnał ma częstość 1420

megaherców, może nie być z taką samą częstością odbierany. Dzieje się tak z powodu

niecnego efektu Dopplera - przejawiającego się na przykład w ten sposób, że dźwięk gwizdka

pociągu brzmi wyżej, gdy się on zbliża, a niżej, gdy się od nas oddala. Zasada ta obowiązuje

dla każdego rodzaju promieniowania emitowanego przez poruszające się źródło. Ponieważ

większość gwiazd w Galaktyce porusza się względem nas z prędkościami kilkuset kilometrów

background image

na sekundę, przesunięcia Dopplera nie można zaniedbać. {Twórcy Star Trek nie zaniedbywali

go; dodawali do transportera „kompensatory efektu Dopplera”, aby zrównoważyć względny

ruch statku kosmicznego i celu transportera). Przyjmując, że nadawcy jakiegokolwiek sygnału

byliby tego świadomi, grupa META poszukiwała sygnału 1420 megaherców przesuniętego

tak, jak gdyby pochodził z jednego z trzech układów odniesienia: (a) układu poruszającego

się wraz z naszym lokalnym systemem gwiazd; (b) układu poruszającego się wraz z centrum

Galaktyki; (c) układu zdefiniowanego przez kosmiczne mikrofalowe promieniowanie tła,

pozostałe po Wielkim Wybuchu. Zauważmy, że ułatwia to znacznie odróżnienie tych

sygnałów od sygnałów pochodzenia ziemskiego, które są emitowane w układzie związanym z

powierzchnią Ziemi, różniącym się od każdego z trzech wymienionych. Ziemskie sygnały

można więc bardzo łatwo wyłowić spośród danych zebranych przez META.

Jak wyglądałby sygnał pozaziemski? Cocconi i Morrison zaproponowali, aby

poszukiwać kilku początkowych liczb pierwszych: l, 3, 5, 7, 11, 13... Dokładnie taki sam ciąg

wystukuje Picard w odcinku Hołd, kiedy będąc w niewoli próbuje pokazać strażnikom, że

mają do czynienia z przedstawicielem inteligentnego gatunku. Sygnały wyemitowane na

przykład podczas burzy na powierzchni gwiazdy raczej nie utworzą takiego ciągu. Grupa

META poszukiwała nawet jeszcze prostszego sygnału - jednostajnego, stałego tonu o

określonej częstości. Taką falę „nośną” stosunkowo łatwo odnaleźć.

Horowitz i jego współpracownik, astronom z Uniwersytetu Cornella, Carl Sagan,

opublikowali pracę zawierającą analizę danych zgromadzonych w ciągu 5 lat realizowania

programu META. Ze 100 tysięcy miliardów odebranych sygnałów wyodrębniono 37

kandydatów. Niestety, żaden z tych „sygnałów” nigdy się nie powtórzył. Horowitz i Sagan

interpretują dotychczasowe dane, stwierdzając, że jak dotąd nie zawierają one żadnego

prawdziwego sygnału. W wyniku tego mogli oni ograniczyć domniemaną liczbę wysoko

zaawansowanych cywilizacji - w zależności od odległości od Słońca - które próbowały się z

nami skontaktować.

Trzeba jednak pamiętać, że pomimo niewiarygodnego rozmachu przeprowadzonych

badań, przeanalizowano dotychczas jedynie mały zakres częstości, a wymagania co do mocy

sygnału, który mógłby zostać zarejestrowany przez teleskop META, są raczej duże: do jego

nadania potrzebne są moce przekraczające całkowitą moc otrzymywaną przez Ziemię od

Słońca (około 10

17

watów). Nie ma jednak na razie powodów do pesymizmu. Sam nasłuch to

trudne przedsięwzięcie. Grupa META buduje obecnie większy i lepszy detektor (BETA),

który ma tysiąckrotnie zwiększyć zakres poszukiwań.

Poszukiwania trwają. Choć jak dotąd niczego nie usłyszeliśmy, nie powinno nas to

background image

zniechęcać. Przypomina to opowieść, którą usłyszałem kiedyś od mego przyjaciela Sydneya

Colemana, profesora fizyki na Uniwersytecie Harvarda: Gdy chcesz kupić dom, nie

powinieneś się zniechęcać, jeśli obejrzysz setkę i nic nie znajdziesz. Musisz znaleźć ten

jeden... Jeden zdecydowany sygnał - jakkolwiek mało prawdopodobne jest to, że go

kiedykolwiek usłyszymy - zmieniłby nasz sposób widzenia Wszechświata i oznaczałby

początek nowej ery w dziejach ludzkości.

Ci, którzy czują się rozczarowani stwierdzeniem, że nasz pierwszy kontakt z

pozaziemską cywilizacją nie odbędzie się na pokładzie statku kosmicznego, powinni pamiętać

o Cyterianach. Ta bardzo zaawansowana cywilizacja, którą napotkał na swej drodze

Enterprise, kontaktowała się z innymi cywilizacjami w oryginalny sposób: zamiast wędrować

w przestrzeni kosmicznej, zabierała podróżników do siebie. W pewnym sensie robimy to

samo nasłuchując sygnałów z gwiazd.

background image

ROZDZIAŁ 9

WACHLARZ MOŻLIWOŚCI

Takie właćnie odkrycia na was czekają! Zamiast obserwowania gwiazd i studiowania

mgławic, badanie nieznanych możliwości istnienia.

Q do Picarda w odcinku Wszystko, co dobre...

Ponad trzynaście lat obecności w telewizji kilku różnych seriali Star Trek pozwoliło

scenarzystom poruszyć wiele najbardziej ekscytujących tematów ze wszystkich dziedzin

fizyki. Czasami udaje im się uchwycić sedno sprawy, czasem się mylą. Niekiedy używają

tylko terminów, którymi posługują się fizycy, a czasem włączają także idee z nimi związane.

Tematy, które podejmował serial, stanowią przegląd współczesnej fizyki: szczególna i ogólna

teoria względności, kosmologia, fizyka cząstek, podróże w czasie, zakrzywienie

czasoprzestrzeni i fluktuacje kwantowe, by wymienić tylko kilka z nich.

Pomyślałem, że w przedostatnim rozdziale tej książki warto byłoby zaprezentować

krótko kilka najbardziej interesujących problemów współczesnej fizyki, które wykorzystali

scenarzyści Star Trek - zwłaszcza zagadnienia dokładnie dotąd nie omawiane. Ponieważ są

tak różnorodne, podaję je w formie słownika, nie porządkując ich w jakiś szczególny sposób.

W rozdziale ostatnim w podobnej formie zajmę się najbardziej rażącymi -z punktu widzenia

fizyki - błędami, jakie popełniono w serialu, dostrzeżonymi zarówno przeze mnie, jak i przez

niektórych kolegów fizyków i wielu trekkerów. W obydwu tych rozdziałach ograniczyłem się

do wybrania dziesięciu najciekawszych przykładów, choć można by ich podać znacznie

więcej.

ROZMIARY GALAKTYKI I WSZECHŚWIATA. Nasza Galaktyka jest sceną, na

której rozgrywa się akcja serialu Star Trek. W każdym odcinku różnego rodzaju skale

odległości galaktycznych odgrywają istotną rolę w przebiegu wydarzeń. Pojawiają się różne

jednostki: od j.a., czyli jednostek astronomicznych (l j.a. odpowiada 149 milionom

kilometrów, czyli odległości Ziemi od Słońca), których używano, aby opisać średnicę obłoku

Vger w pierwszym filmie Star Trek, do lat świetlnych. Poza tym wspomina się o wielu

cechach naszej Galaktyki, łącznie z „Wielką Barierą” w jej centrum (Star Trek V: Ostateczna

granica] i -w pierwszej serii - „barierą galaktyczną” na jej krańcach (odcinki Gdzie nie stanęła

ludzka stopa, Jakiekolwiek inne imię i Czyż prawda nie może być piękna?. Aby opisać

miejsce akcji Star Trek, należy przedstawić nasz obecny pogląd na strukturę Galaktyki i jej

background image

okolic oraz na skalę odległości we Wszechświecie.

Odległości astronomiczne rzadko wyraża się w zwykłych jednostkach, takich jak

kilometry czy mile, gdyż wymagałoby to używania bardzo wielkich liczb. W zamian

astronomowie stworzyli kilka umownych jednostek, które są bardziej użyteczne. Jedna z nich

to jednostka astronomiczna (j.a.), czyli odległość między Ziemią a Słońcem. Jest to skala

właściwa dla odległości w Układzie Słonecznym; Pluton, wyznaczający jego krańce, znajduje

się w odległości 40 j.a. od Słońca. W wersji kinowej Star Trek obłok Vger ma średnicę 82 j.a.,

co jest wartością niezwykle dużą - większą niż rozmiary naszego Układu Słonecznego!

Dla porównania tego dystansu z odległościami międzygwiezdnymi warto wyrazić

odległość Ziemia-Słońce jako czas potrzebny światłu (lub statkowi Enterprise, rozwijającemu

prędkość l warpa) na jej przebycie. Równa się on mniej więcej ośmiu minutom. (Tyle czasu

powinno wędrować światło od gwiazdy do krążącej wokół niej planety klasy M). Możemy

więc powiedzieć, że jednostka astronomiczna równa się ośmiu minutom świetlnym. Dla

porównania: odległość do najbliższej gwiazdy, a Centauri - układu podwójnego gwiazd, gdzie

miał mieszkać wynalazca napędu czasoprzestrzennego, Zefrem Cochrane - wynosi około 4 lat

świetlnych! Jest to typowa odległość między gwiazdami w naszej części Galaktyki. Przy

osiągalnych obecnie prędkościach rakiety podróżowałyby do a Centauri ponad 10 tysięcy lat.

Przy prędkości 9 warpów, która 1500 razy przewyższa prędkość światła, przebycie jednego

roku świetlnego zajęłoby około 6 godzin.

Odległość Słońca od centrum Galaktyki wynosi około 25 tysięcy lat świetlnych. Przy

prędkości 9 warpów dystans ten pokonywałoby się w ciągu 15 lat, Jest więc mało

prawdopodobne, aby Sybok, dowodząc Enterprise, mógł dolecieć nim do centrum Galaktyki

(Stor Trek V: Ostateczna granica), chyba że statek znajdował się bardzo blisko tego miejsca.

Droga Mleczna jest galaktyką spiralną z dużym centralnym dyskiem gwiazd. Jej

średnica sięga 100 tysięcy lat świetlnych, a grubość kilku tysięcy lat świetlnych. Voyager,

rzucony w pierwszym odcinku tej serii 70 tysięcy lat świetlnych od Ziemi, znalazł się więc po

drugiej stronie Galaktyki. Jego powrót w okolice Słońca zająłby przy prędkości 9 warpów

około 50 lat.

W środku naszej Galaktyki tkwi jej jądro - gęste skupisko gwiazd, którego średnica

wynosi kilka tysięcy lat świetlnych. Przypuszcza się, że kryje się w nim czarna dziura o masie

około miliona mas Słońca. Prawdopodobnie w centrum wielu innych galaktyk również

znajdują się czarne dziury; ich masy mogą wynosić od 100 tysięcy do ponad miliarda mas

Słońca.

Galaktykę otacza niemal sferyczne halo bardzo starych gwiazd. Znajdujące się tam

background image

skupiska tysięcy gwiazd, zwane gromadami kulistymi, uważa się za bodaj najstarsze obiekty

w naszej Galaktyce. Ich wiek ocenia się aż na 18 miliardów lat; są zatem starsze nawet od

„czarnej gromady”, której w odcinku Chwalą bohaterom przypisano wiek 9 miliardów lat.

Wysunięto również hipotezę, że Galaktykę otacza jeszcze większe sferyczne halo, składające

się z „ciemnej materii” {o której jeszcze będzie mowa). Tego halo nie można zobaczyć za

pomocą żadnego teleskopu; o jego istnieniu wnioskuje się na podstawie ruchów gwiazd i gazu

w Galaktyce. Może ono zawierać nawet 10 razy więcej masy niż widzialna część Galaktyki.

Droga Mleczna jest galaktyką spiralną średnich rozmiarów; można się w niej doliczyć

kilkuset miliardów gwiazd. W całym dostępnym naszym obserwacjom Wszechświecie

istnieje około

100 miliardów galaktyk, z których każda zawiera mniej więcej tyle samo gwiazd!

Wśród galaktyk, które obserwujemy, około 70% stanowią galaktyki spiralne; reszta ma

bardziej sferyczne kształty i nosi nazwę galaktyk eliptycznych. Największe spośród nich to

olbrzymie galaktyki eliptyczne, ponad 10 razy bardziej masywne niż Droga Mleczna.

Większość galaktyk tworzy grupy. W naszej Grupie Lokalnej najbliżej Drogi

Mlecznej znajdują się małe galaktyki-satelity, krążące wokół niej. Obiekty te można

zaobserwować na południowej półkuli nieba; są to Wielki i Mały Obłok Magellana. Około 6

milionów lat świetlnych dzieli nas od najbliższej dużej galaktyki, Wielkiej Mgławicy w

Andromedzie - domu Kelwanów, którzy w odcinku Jakiekolwiek inne imię próbowali przejąć

Enterprise i powrócić do swojej galaktyki. Przy prędkości 9 warpów podróż ta trwałaby

blisko tysiąc lat!

Ponieważ światło potrzebuje określonego czasu, by przebyć dany dystans, patrząc

coraz dalej, cofamy się w czasie. Obecnie, posługując się elektromagnetycznymi czujnikami,

możemy spojrzeć wstecz w czasie aż do okresu, gdy Wszechświat miał około 300 tysięcy lat.

Wcześniej materia istniała w postaci gorącego, zjonizowanego gazu, nieprzezroczystego dla

promieniowania elektromagnetycznego. Gdy patrzymy we wszystkich kierunkach,

obserwujemy promieniowanie wyemitowane w chwili, gdy mat eria i promieniowanie

„odłączyły się od siebie”. Promieniowanie to nosi nazwę mikrofalowego promieniowania tła.

Obserwacje tego promieniowania, zwłaszcza ostatnie, prowadzone za pomocą satelity COBE,

wystrzelonego przez NASA w 1989 roku, pozwoliły nam uzyskać obraz Wszechświata z

okresu, kiedy miał on tylko 300 tysięcy lat.

Wszechświat rozszerza się jednorodnie. W wyniku tego odległe galaktyki oddalają się

od nas; im dalej się znajdują, tym szybciej uciekają, a ich prędkość jest wprost proporcjonalna

do dzielącej nas od nich odległości. Tempo ekspansji Wszechświata, opisywane przez

background image

wielkość, zwaną stałą Hubble'a, jest takie, że galaktyki znajdujące się w odległości 10

milionów lat świetlnych od nas oddalają się ze średnią prędkością 150-300 km/s. Gdy cofamy

się w czasie, okazuje się, że mniej więcej

10-20 miliardów lat temu wszystkie obserwowane galaktyki we Wszechświecie

znajdowały się blisko siebie. To wówczas nastąpił Wielki Wybuch.

CIEMNA MATERIA. Jak już wcześniej wspomniałem, wiele świadczy o tym, że

nasza Galaktyka zanurzona jest w oceanie niewidocznej materii. Badając ruchy gwiazd,

obłoków gazu wodorowego, a nawet Wielkiego i Małego Obłoku Magellana wokół centrum

Drogi Mlecznej i posługując się prawami Newtona, które wiążą prędkość krążących obiektów

z przyciągającą je grawitacyjnie masą, stwierdzono, że naszą Galaktykę otacza sferyczne halo

ciemnej materii. Rozciąga się ono od galaktycznego centrum na odległość być może nawet 10

razy większą niż odległość między centrum a Układem Słonecznym. Materia ta stanowi co

najmniej 90% masy Drogi Mlecznej. Co więcej, z obserwacji ruchów innych galaktyk, z

galaktykami eliptycznymi włącznie, a także ruchów grup galaktyk wynika, że z tymi

układami związana jest większa ilość materii, niż można by twierdzić na podstawie liczby

widocznych obiektów. Wygląda więc na to, że cały dostępny naszym obserwacjom

Wszechświat zdominowany jest przez ciemną materię. Ocenia się, że stanowi ona 90-99%

masy Wszechświata.

Pojęcie ciemnej materii wkradło się zarówno do serii Następne pokolenie, jak i do

serii Voyager w bardzo zabawny sposób. W odcinku Catnexls serii Voyager statek zanurza

się na przykład w „mgławicy ciemnej materii”, która, jak łatwo można sobie wyobrazić,

przypomina ciemny obłok, tak że nie można zajrzeć do jej wnętrza. Enterprise spotkał się już

wcześniej z podobnymi obiektami, na przykład ze wspomnianą wcześniej „czarną gromadą”.

Uderzającą cechą ciemnej materii jest jednak nie to, że w jakiś sposób przesłania światło, lecz

że nie świeci - to znaczy nie emituje promieniowania - a nawet nie pochłania znaczących jego

ilości. W przeciwnym razie można byłoby ją wykryć za pomocą teleskopów. Gdybyśmy się

jednak znajdowali wewnątrz obłoku ciemnej materii, a tak prawdopodobnie jest, nawet byśmy

jej nie zauważyli.

Kwestia natury, pochodzenia i rozkładu ciemnej materii we Wszechświecie jest

jednym z najbardziej ekscytujących i dotąd nie rozwiązanych problemów współczesnej

kosmologii. Ponieważ ta nieznana materia wnosi dominujący wkład do gęstości masy we

Wszechświecie, jej rozkład musiał określić, kiedy ł w jaki sposób obserwowalna materia

zapadła się grawitacyjnie, tworząc gromady galaktyk, galaktyki, gwiazdy i planety, które

czynią Wszechświat tak interesującym. Nasze istnienie bezpośrednio zależy od ciemnej

background image

materii. Co więcej, ilość ciemnej materii we Wszechświecie będzie miała decydujący wpływ

na jego ostateczny los: czy Wszechświat zakończy swoje istnienie z wielkim hukiem (poprzez

zapadnięcie się), czy też będzie się rozszerzał w nieskończoność (nawet gdy gwiazdy już się

wypalą), będzie zależało od tego, ile materii - i jakiego rodzaju -zawiera, ponieważ

przyciąganie grawitacyjne spowalnia ekspansję.

Wiele wskazuje na to, że ciemna materia może się składać z cząstek zupełnie innych

niż protony i neutrony, tworzące zwykłą materię. Niezależne oceny ilości zwykłej materii we

Wszechświecie - oparte na obliczeniach tempa reakcji jądrowych w młodym Wszechświecie

oraz teorii powstawania lekkich pierwiastków - sugerują, że w kosmosie może być za mało

protonów, aby mogła się z nich składać ciemna materia wokół galaktyk i gromad. Co więcej,

wygląda na to, że aby z niewielkich fluktuacji w gorącej plazmie młodego Wszechświata

powstały galaktyki i gromady, które obserwujemy dzisiaj, musiał istnieć jakiś nowy rodzaj

cząstek elementarnych, nie oddziałujących z promieniowaniem elektromagnetycznym. Jeśli

ciemna materia rzeczywiście składa się z cząstek elementarnych nieznanego rodzaju,

wówczas:

(a) Ciemna materia nie tylko znajduje się gdzieś w kosmosie, lecz również w pokoju,

w którym czytasz tę książkę, i niezauważalnie przenika przez Twoje ciało. Te egzotyczne

cząstki elementarne nie tworzą obiektów astronomicznych, lecz raczej rozproszony „gaz”

płynący przez Galaktykę. Ponieważ nie oddziałują one wcale lub, w najlepszym razie, bardzo

słabo z materią, mogą swobodnie przenikać przez obiekty tak duże jak Ziemia, podobnie jak

znane nam neutrina (które nie powinny być obce trekkerom i o których będzie jeszcze mowa).

(b) Ciemną materię można by bezpośrednio wykryć na Ziemi za pomocą

skomplikowanych technik do detekcji cząstek elementarnych. Obecnie buduje się detektory,

które powinny zarejestrować różne rodzaje cząstek-kandydatów na składniki ciemnej materii.

(c) Odkrycie takich cząstek mogłoby zrewolucjonizować fizykę cząstek

elementarnych. Jest dosyć prawdopodobne, że cząstki takie są pozostałościami po procesach

zachodzących w bardzo młodym Wszechświecie - zanim jeszcze osiągnął on wiek jednej

sekundy; wiązałyby się one wówczas z fizyką energii porównywalnych lub nawet większych

od tych, które możemy obecnie badać za pomocą akceleratorów.

Hipotezy te są ekscytujące, nie możemy jednak wykluczyć, że ciemna materia jest

zbudowana z czegoś mniej egzotycznego. Istnieje wiele sposobów na połączenie protonów i

neutronów tak, aby nie świeciły. Gdybyśmy na przykład zapełnili Galaktykę śniegowymi

kulami lub głazami, trudno byłoby je wykryć. Najbardziej chyba prawdopodobną

możliwością jest w tym przypadku sytuacja, w której Galaktykę zapełniają obiekty niewiele

background image

mniejsze od gwiazd, choć zbyt małe, aby rozpoczęły się w ich wnętrzach reakcje jądrowe.

Takie obiekty noszą nazwę brązowych karłów, a Data i jego towarzysze na pokładzie

Enterprise mówili o nich wielokrotnie (na przykład w odcinku Polowanie na człowieka).

Obecnie prowadzone są ciekawe programy badawcze, mające na celu ustalenie, czy brązowe

karły - znane także jako MACHO (od ang. Massive Astrophysical Compact Halo Objects -

masywne astrofizyczne zwarte obiekty [wchodzące w skład] halo [galaktycznego]) stanowią

istotny składnik halo ciemnej materii, otaczającego Drogę Mleczną. Chociaż obiektów tych

nie można bezpośrednio zaobserwować, jeśli jeden z nich przejdzie przed gwiazdą, jego

grawitacja zaburzy bieg promieni świetlnych dochodzących do nas z tej gwiazdy, tak że

będzie się ona wydawała jaśniejsza. Zjawisko to, zwane soczewkowaniem grawitacyjnym,

przewidział Einstein już w latach trzydziestych, a obecnie dysponujemy technologią, która

pozwala na wykrycie tego efektu. W trakcie wspomnianych programów badawczych każdej

nocy obserwuje się miliony gwiazd naszej Galaktyki w poszukiwaniu tego zjawiska. Czułość

używanych przyrządów jest wystarczająca, aby wykryć halo zbudowane z obiektów

MACHO, jeśli rzeczywiście są one dominującym składnikiem ciemnej materii otaczającej

naszą Galaktykę. Pierwsze wyniki pozwoliły stwierdzić, że prawdopodobnie halo nie składa

się z obiektów typu MACHO, ale kwestia ta pozostaje ciągle otwarta.

GWIAZDY NEUTRONOWE. Wspomniałem już, że obiekty te są pozostałością po

zapadniętych jądrach masywnych gwiazd, które przeszły stadium supernowe j. Chociaż

gwiazdy neutronowe mają zwykle masę nieco większą niż Słońce, są tak ściśnięte, że ich

średnica nie jest większa od Manhattanu! Jeszcze raz twórcy Star Trek przeszli sami siebie w

kwestii nazewnictwa. Enterprise kilkakrotnie znajduje materię, która została wyrzucona z

gwiazdy neutronowej, a którą scenarzyści określają mianem „neutronium”. Jest to właściwa

nazwa, gdyż gwiazdy neutronowe składają się niemal wyłącznie z neutronów przylegających

tak ściśle do siebie, że tworzą w zasadzie jedno wielkie jądro atomowe. Maszyna Dnia Sądu

Ostatecznego - w odcinku o tej samej nazwie - miała być zbudowana z czystego neutronium i

dlatego mogłaby pozostawać niewrażliwa na broń Federacji. Aby jednak materia ta była

stabilna, musi się ona znajdować pod niezwykle wysokim ciśnieniem, wytworzonym przez

przyciąganie grawitacyjne kuli o masie gwiazdy i promieniu zaledwie 15 kilometrów. W

rzeczywistym świecie taka materia może istnieć tylko jako część gwiazdy neutronowej.

Enterprise kilka razy znajdował się w pobliżu gwiazd neutronowych. W odcinku

Ewolucja, w chwili gdy Nanici zaczęli zjadać komputery statku, załoga zajmowała się

właśnie badaniem mającej wkrótce wybuchnąć gwiazdy neutronowej. W odcinku

Społeczeństwo doskonałe statek musi odchylić tor fragmentu jądra gwiazdy, lecącego w

background image

kierunku Moabu IV.

Nie ma wątpliwości, że w naszej Galaktyce istnieją miliony gwiazd neutronowych.

Większość z nich rodzi się z niewiarygodnie dużymi polami magnetycznymi. Gdy takie

gwiazdy szybko się obracają, stają się wspaniałymi radiolatarniami. Każdy ich biegun emituje

promieniowanie i jeśli kierunek pola magnetycznego jest nachylony względem osi obrotu,

powstaje omiatająca przestrzeń wiązka fal radiowych. Takie periodyczne sygnały radiowe

możemy rejestrować na Ziemi, a ich źródła nazywamy pulsarami. Obracając się gwiazdy te są

najlepszymi zegarami we Wszechświecie. Sygnały pulsarów mogą odmierzać czas z

dokładnością większą niż jedna mikrosekunda na rok. Niektóre pulsary wysyłają więcej niż

1000 impulsów na sekundę. Oznacza to, że obiekt będący w zasadzie olbrzymim jądrem

atomowym o masie Słońca i średnicy 10-20 kilometrów obraca się ponad tysiąc razy w ciągu

sekundy. Trudno to sobie nawet wyobrazić. Prędkość obrotu na powierzchni gwiazdy

neutronowej równa jest zatem prawie połowie prędkości światła! Pulsary udowadniają, że

natura potrafi stworzyć obiekty bardziej niezwykłe, niż mógłby wymyślić jakikolwiek

scenarzysta Star Trek.

INNE WYMIARY. Gdy James T. Kirk na przemian zanurza się i wynurza z naszego

Wszechświata w odcinku Sieć tholionsko, dowiadujemy się, że przyczyną tego jest

„przestrzenna granica faz”, łącząca płaszczyzny o różnej liczbie wymiarów, które w

normalnych warunkach są „wszechświatami równoległymi”. Kirk już wcześniej miał

dwukrotnie do czynienia z wszechświatami równoległymi: jeden z nich był zbudowany z

antymaterii (w odcinku Czynnik alternatywny), a do drugiego dostał się za pomocą

transportera (w odcinku Lustro, lustro). W serii Następne pokolenie spotykamy się z

kontinuum Q, nieliniowym czasowym „oknem do innych wymiarów” drą Paula Manheima i,

oczywiście, samą podprzestrzenią, zawierającą nieskończoną liczbę wymiarów, gdzie mogą

ukrywać się obce istoty, takie jak te, które porwały porucznika Rikera w odcinku Rozłamy.

Przypuszczenie, że cztery wymiary przestrzeni i czasu, w których żyjemy, nie są

wszystkim, co istnieje, jest trwałym składnikiem potocznej świadomości. Niedawno

psychiatra z Harvardu napisał książkę, która odniosła sukces (przysparzając mu zresztą

kłopotów na tamtejszym Wydziale Medycyny), poświęconą badaniom pacjentów, którzy

twierdzili, że zostali porwani przez obcych. Pytając, skąd pochodzą ci obcy i jak się tu dostali,

sugerował, że odpowiedź brzmi: „Z innego wymiaru”.

U korzeni tego romansu z wyższymi wymiarami leży niewątpliwie szczególna teoria

względności. Gdy Hermann Minkowski połączył trójwymiarową przestrzeń i czas, tworząc

czterowymiarową czasoprzestrzeń, przypuszczenie, że proces ten można kontynuować,

background image

wydawało się naturalne. Co więcej, gdy ogólna teoria względności pokazała, że to, co

postrzegamy jako siłę grawitacji, może wiązać się z krzywizną czasoprzestrzeni, nie było już

nic oburzającego w hipotezie, że pozostałe siły są wynikiem zakrzywienia w innych jeszcze

wymiarach.

Jako jeden z pierwszych rozważał ten pomysł w 1919 roku fizyk polskiego

pochodzenia, Theodor Kałuża; niezależnie od niego uczynił to w 1926 roku szwedzki fizyk

Oskar Klein. Zaproponowali oni zjednoczenie elektromagnetyzmu i grawitacji w

pięciowymiarowym świecie. Może siła elektromagnetyczna jest związana z pewnym

„zakrzywieniem” w piątym wymiarze, tak jak siła grawitacji to wynik zakrzywienia

czterowymiarowej czasoprzestrzeni? Ten bardzo piękny pomysł nie jest wolny od

problemów. Każdy scenariusz, który wprowadza dodatkowe wymiary we Wszechświecie,

powinien wyjaśniać, dlaczego nie doświadczamy tych wymiarów tak, jak doświadczamy

przestrzeni i czasu. Odpowiedź na to pytanie ma wielkie znaczenie, ponieważ pojawia się

wielokrotnie, gdy fizycy rozważają możliwość istnienia wyższych wymiarów we

Wszechświecie.

Wyobraźmy sobie cylinder i poruszającego się po nim inteligentnego robaczka.

Dopóki obwód cylindra jest duży w porównaniu z rozmiarem robaczka, może on wędrować w

obu wymiarach i będzie mu się zdawało, że przemieszcza się po dwuwymiarowej

powierzchni.

Jeśli jednak obwód cylindra stanie się bardzo mały, robaczek będzie się poruszał po

obiekcie jednowymiarowym - to znaczy po linie lub strunie - tylko w górę lub w dół:

Zastanówmy się teraz, w jaki sposób robaczek mógłby dowiedzieć się, że istnieje inny

wymiar, odpowiadający obwodowi cylindra. Za pomocą mikroskopu mógłby określić

szerokość „struny”. Długość fali promieniowania potrzebnego do wykrycia tak małych

rozmiarów musiałaby dorównać średnicy cylindra lub być mniejsza, ponieważ, jak

zauważyłem w rozdziale

background image

piątym, fale rozpraszają się tylko na tych obiektach, których rozmiary są co najmniej

porównywalne z długością fal. Ponieważ energia promieniowania rośnie, gdy długość fali

maleje, aby zobaczyć ten dodatkowy wymiar, potrzebna byłaby pewna minimalna energia.

Gdyby piąty wymiar był w jakiś sposób „zwinięty” w ciasny okrąg, dopóki nie

zogniskowalibyśmy dużej ilości energii na małej przestrzeni, nie moglibyśmy wysyłać

przezeń fal, umożliwiających stwierdzenie, że istnieje, i świat nadal wydawałby się nam

czterowymiarowy. Wiemy, że przestrzeń jest trójwymiarowa, ponieważ możemy ją badać za

pomocą fal rozchodzących się we wszystkich trzech wymiarach. Jeśli okazałoby się, że fale,

które chcemy wysłać do piątego wymiaru, wymagają znacznie większych energii, niż

potrafimy wyprodukować nawet w największych akceleratorach, nie moglibyśmy

doświadczać tego dodatkowego wymiaru.

Teoria Kaluzy-Kleina, mimo że sama w sobie interesująca, nie jest kompletna. Po

pierwsze, nie wyjaśnia ona, dlaczego piąty wymiar miałby być zwinięty w mały okrąg. Po

drugie, wiemy obecnie o istnieniu dwóch innych, poza elektromagnetyzmem i grawitacją,

podstawowych oddziaływań w naturze -silnych i słabych oddziaływań jądrowych. Dlaczego

mielibyśmy się zatrzymać na piątym wymiarze? Czy nie należałoby włączyć do teorii

wystarczającej liczby dodatkowych wymiarów, by pomieścić wszystkie fundamentalne

oddziaływania?

Współczesna fizyka cząstek poszła tą właśnie drogą. Badania w dziedzinie, zwanej

teorią superstrun, skupiały się początkowo na próbach rozszerzenia ogólnej teorii

względności, tak aby można było skonstruować spójną teorię kwantowej grawitacji. W końcu

jednak powrócił problem zunifikowanej teorii wszystkich oddziaływań.

Wspominałem już o kłopotach związanych ze stworzeniem teorii, w której ogólna

teoria względności byłaby zgodna z mechaniką kwantową. Główną trudnością jest tutaj próba

zrozumienia, w jaki sposób należy traktować kwantowe fluktuacje czasoprzestrzeni. W teorii

cząstek elementarnych kwantowe wzbudzenia pól - na przykład pola elektrycznego –

przejawiają się jako cząstki elementarne, czyli kwanty. Gdy jednak próbujemy zrozumieć

background image

kwantowe wzbudzenia pola grawitacyjnego -które w ogólnej teorii względności odpowiadają

kwantowym wzbudzeniom czasoprzestrzeni - obliczenia matematyczne prowadzą do

absurdalnych przewidywań.

Postęp, jaki dokonał się w teorii strun, polegał na wysunięciu hipotezy, że na poziomie

mikroskopowym, czyli w bardzo małych skalach (bliskich 10~

33

centymetra), gdzie efekty

kwantowej grawitacji mogą być istotne, to, co uważamy za punktowe cząstki elementarne,

można w rzeczywistości opisać jako wibrujące struny. Masa każdej cząstki odpowiadałaby w

pewnym sensie energii drgań tych strun.

Tę raczej dziwaczną propozycję wysunięto dlatego, że w latach siedemdziesiątych

odkryto, iż taka teoria wymaga istnienia cząstek o tych samych własnościach, co kwantowe

wzbudzenia czasoprzestrzeni, zwane grawitonami. Ogólna teoria względności byłaby więc w

pewnym sensie zawarta w teorii strun w sposób zgodny z mechaniką kwantową.

Kwantowa teoria strun nie może być jednak matematycznie spójna w czterech, pięciu,

ani nawet w sześciu wymiarach. Okazuje się, że potrzeba do tego albo dziesięciu, albo

dwudziestu sześciu wymiarów! Porucznik Reginald Barclay - gdy na chwilę po zderzeniu z

sondą cyteriańską osiągnął iloraz inteligencji równy 1200 - odbył nawet w holodeku poważną

dyskusję z Albertem Einsteinem na temat tego, która z tych dwóch możliwości bardziej

sprzyja włączeniu mechaniki kwantowej do teorii względności.

Ów nadmiar wymiarów może się wydawać kłopotliwy, ale szybko uświadomiono

sobie, że otwiera on także pewne możliwości. Niewykluczone, że wszystkie fundamentalne

oddziaływania w przyrodzie dałoby się włączyć do teorii dziesięciu lub więcej wymiarów, z

których wszystkie, z wyjątkiem znanych nam czterech, zwijają się do rozmiarów Plancka

(10

33

centymetra) -jak przypuszczał porucznik Barclay - i są obecnie niewykrywalne.

Niestety, wielkie nadzieje okazały się płonne. Nie mamy obecnie pojęcia, czy

nieśmiałe postulaty teorii strun mogą prowadzić do stworzenia zunifikowanej Teorii

Wszystkiego. Podobnie jak w przypadku teorii Kaluzy-Kleina, nie jest jasne, dlaczego wyższe

wymiary, jeśli istnieją, miałyby się zwijać, pozostawiając czterowymiarową czasoprzestrzeń.

Morał z tej opowieści jest następujący: możliwe, że we Wszechświecie istnieją

wyższe wymiary. Te dodatkowe wymiary nie mają jednak nic wspólnego z przestrzeniami

zamieszkiwanymi przez obce istoty, lubujące się w porywaniu pacjentów oddziałów

psychiatrycznych (lub na przykład komandora Ri-kera). Nie są one „równoległymi

wszechświatami”. Nie należy ich także mieszać z czterema wymiarami czasoprzestrzeni,

twierdząc, że możliwe jest przenoszenie przedmiotów z jednego miejsca w drugie poprzez

inny wymiar, na co wydaje się pozwalać „podprzestrzeń” we wszechświecie Stor Trek.

background image

Nie możemy jednak wykluczyć istnienia mikroskopowych, czy nawet

makroskopowych „pomostów” pomiędzy innymi (równoległymi) wszechświatami, które bez

nich są rozłączone. W ogólnej teorii względności obszary o bardzo dużej krzywiźnie - we

wnętrzu czarnej dziury lub w tunelu czasoprzestrzennym - mogą łączyć zwykle nie powiązane

i potencjalnie bardzo rozległe obszary czasoprzestrzeni. Biorąc pod uwagę obecny obraz

Wszechświata, nie widzę powodu, dla którego należałoby spodziewać się występowania

takich zjawisk poza czarnymi dziurami i tunelami czasoprzestrzennymi. Ponieważ jednak nie

możemy tego wykluczyć, powinniśmy pogodzić się z tym, że statki Federacji wciąż je

napotykają.

ANYONY. W odcinku Następna faza serii Następne pokolenie w wyniku

jednoczesnego działania transportera i romulanskiego urządzenia maskującego, które

powoduje, że materia jest „niezgodna w fazie” z inną materią, Geordi LaForge i Ro Laren

znikają. Uznani za zmarłych, pozostają niewidoczni i oddzieleni od świata aż do czasu, gdy

Data modyfikuje w innym celu „emiter anyonów” i w cudowny sposób „odfazowuje” ich.

Jeśli twórcy Stor Trek nigdy nie słyszeli o anyonach - a założę się, że tak było - ich

umiejętność dobierania właściwych słów jest naprawdę niesamowita. Anyony to teoretyczne

twory, które wymyślił i nazwał - wraz ze swoimi współpracownikami mój przyjaciel Frank

Wilczek, fizyk z Institute for Advanced Study w Princeton. Nawiasem mówiąc, wynalazł on

również inną cząstkę - będącą być może składnikiem ciemnej materii -którą nazwał aksjonem

- od nazwy proszku do prania. „Aksjonowe układy scalone” również pojawiają się w Star

Trek - jako część sieci neuronowej skomplikowanego urządzenia. Wróćmy jednak do tematu.

W trójwymiarowej przestrzeni, w której żyjemy, cząstki elementarne określa się jako

fermiony lub bozony, w zależności od ich spinu. Z każdym rodzajem cząstki elementarnej

łączymy liczbę kwantową, która podaje wartość jej spinu. Liczba ta może być całkowita (O, l,

2,...) lub połówkowa (1/2, 3/2, 5/2,...). Cząstki o spinie całkowitym nazywamy bozonami, a o

spinie połówkowym - fermionamł. Fermiony zachowują się inaczej niż bozony: kiedy

zamienimy miejscami dwa identyczne fermiony, funkcję falową opisującą ich własności

należy pomnożyć przez -l, natomiast gdy zamieniamy bozony, z funkcją falową nic się nie

dzieje. Zatem dwa fermiony nigdy nie mogą znajdować się w tym samym miejscu, ponieważ

w takim przypadku ich zamiana dałaby konfigurację identyczną, ale funkcję falową

należałoby pomnożyć przez -l, a jedyną wartością, która po pomnożeniu przez -l nie ulega

zmianie, jest O. Funkcja falowa musi więc znikać. Stąd właśnie bierze się słynny zakaz

Pauliego - pierwotnie stosowany do elektronu - który mówi, że dwa identyczne fermiony nie

mogą zajmować tego samego stanu kwantowomechanicznego.

background image

Okazuje się, że jeśli pozwolimy cząstkom poruszać się tylko w dwóch wymiarach -

jak są do tego zmuszane dwuwymiarowe istoty napotkane przez Enterprise lub, co dla nas

istotniejsze, jak to się dzieje w rzeczywistym świecie, gdy ustawienie atomów w krysztale

zmusza elektrony do poruszania się tylko w płaszczyźnie dwuwymiarowej - reguły mechaniki

kwantowej, znane z trójwymiarowej przestrzeni, ulegają zmianie. Spin nie jest już

skwantowany i jego wartość dla danej cząstki może być dowolna. Stąd zamiast fermionów

czy bozonów mamy anyony (od ang. any -jakikolwiek). Takie było pochodzenie tej nazwy i

problemu, który badał Wilczek z innymi naukowcami.

Wracając do scenarzystów Star Trele to zabawne, że liczba, przez którą należy

pomnożyć funkcję falową cząstek, gdy się je zamienia, nazywana jest „fazą”. Funkcje falowe

fermionów mnoży się przez fazę równą -l, natomiast bozonów przez fazę równą l, dzięki

czemu funkcje tych ostatnich nie ulegają zmianie. Funkcje falowe anyo nów mnoży się przez

kombinację l i liczby urojonej (liczby urojone to pierwiastki kwadratowe z liczb ujemnych),

więc rzeczywiście anyony są „niezgodne w fazie” z normalnymi cząstkami. Czyż nie wynika

stąd, że „emiter anyonów” mógłby zmieniać fazę?

STRUNY KOSMICZNE. W odcinku pod tytułem Strata serii Następne pokolenie

załoga Enterprise spotyka zagubione dwuwymiarowe istoty. Żyją one na „kawałku struny

kosmicznej”. W odcinku tym strunę opisuje się jako nieskończenie cienkie włókno o bardzo

dużej sile przyciągania grawitacyjnego, które drga z charakterystycznymi częstościami

„podprzestrzennymi”.

W fizyce struny kosmiczne pojawiły się jako obiekty, które powstały podczas

przejścia fazowego w młodym Wszechświecie. Ostatnio mam okazję wiele słyszeć o strunach

kosmicznych, gdyż na Wydziale Fizyki mojego uniwersytetu pojawił się jeden ze światowych

ekspertów od tych teoretycznych obiektów. Ich własności pod pewnymi względami miałyby

przypominać własności obiektu napotkanego przez Enterprise.

W czasie przejścia fazowego - na przykład gdy woda gotuje się lub zamarza -

konfiguracja cząstek składających się na daną substancję ulega zmianie. Zamarzając woda

tworzy strukturę krystaliczną. Ustawione w różnych kierunkach kryształy stopniowo rosną i

spotykają się, wyznaczając przypadkowe linie, które układają się następnie we wzory tak

pięknie wyglądające zimą na okiennej szybie. Podczas przejścia fazowego w młodym

Wszechświecie zmienia się konfiguracja materii, promieniowania i pustej przestrzeni (która,

przypominani, może również zawierać energię). Czasami w trakcie takich przejść fazowych

różne obszary Wszechświata rozrastają się w różne konfiguracje. W miarę jak konfiguracje te

rosną, mogą się również spotykać - czasem w jakimś punkcie, a czasem wzdłuż linii,

background image

zaznaczając w ten sposób granicę między tymi obszarami. W owej linii granicznej zostaje

uwięziona energia i linia ta tworzy to, co nazywamy struną kosmiczną.

Nie mamy pojęcia, czy struny kosmiczne rzeczywiście powstały we wczesnym

Wszechświecie, ale jeśli tak się stało i jeśli dotrwały do obecnych czasów, mogłyby

wywoływać niezwykłe efekty. Byłyby nieskończenie cienkie - cieńsze niż średnica protonu -

ale miałyby olbrzymią gęstość, sięgającą nawet miliona milionów ton na centymetr. Struny

mogłyby układać się w ogniska, wokół których zapadałaby się materia, tworząc na przykład

galaktyki. Mogłyby również „drgać”, nie emitując jednak fal podprzestrzennych, lecz

grawitacyjne. Dzięki tym falom grawitacyjnym można by nawet wykryć obecność struny

kosmicznej, zanim jeszcze udałoby sieją zaobserwować bezpośrednio.

I na tym koniec podobieństw strun w fizyce do strun w Star Trek. Zajmijmy się teraz

różnicami. Dzięki sposobowi, w jaki powstają, struny kosmiczne nie mogą istnieć we

fragmentach. Mogą pojawiać się jedynie w postaci zamkniętych pętli lub pojedynczych

długich włókien, wijących się we Wszechświecie. Co więcej, mimo ich olbrzymiej gęstości,

struny kosmiczne nie oddziałują grawitacyjnie na oddalone od nich obiekty. Działanie nagłej

siły grawitacyjnej odczujemy tylko wtedy, gdy struna kosmiczna będzie nas mijała. Są to

jednak dość subtelne kwestie i ogólnie rzecz biorąc twórcy Star Trek poradzili sobie ze

strunami kosmicznymi całkiem nieźle.

POMIARY KWANTOWE. W serii Następne pokolenie znalazł się wspaniały odcinek

pod tytułem Wszechświaty równolegle, w którym Worf przeskakuje między różnymi

„rzeczywistościa-mi kwantowymi”. Odcinek ten porusza, chociaż niepoprawnie, jeden z

najbardziej fascynujących aspektów mechaniki kwantowej: teorię pomiaru kwantowego.

Ponieważ nie możemy bezpośrednio zaobserwować zjawisk kwantowych, cały nasz

intuicyjny fizyczny obraz Wszechświata ma charakter klasyczny. Gdy mówimy o mechanice

kwantowej, posługujemy się w zasadzie językiem mechaniki klasycznej, próbując wyjaśniać

świat kwantowy za pomocą znajomych nam pojęć. Podejście to, które zwykle określa się jako

„interpretację mechaniki kwantowej” i które tak fascynuje filozofów nauki, jest błędne.

Naprawdę powinniśmy się zajmować „interpretacją mechaniki klasycznej”, to znaczy tym, w

jaki sposób klasyczny świat, który widzimy - a który jest tylko przybliżeniem leżącej głębiej

rzeczywistości mającej naturę kwantową -można wyjaśnić, posługując się odpowiednimi

wielkościami kwantowymi.

Jeśli będziemy się upierać przy interpretacji zjawisk kwantowych za pomocą pojęć

klasycznych, w nieunikniony sposób niektóre zjawiska wydadzą się nam paradoksalne lub

niemożliwe. Tak właśnie powinno być. Mechanika klasyczna nie może poprawnie wyjaśnić

background image

zjawisk kwantowych, nie ma więc powodu, aby klasyczne opisy miały sens.

Wyraziwszy ten sprzeciw, dalej będę posługiwał się pojęciami mechaniki klasycznej,

ponieważ tylko takie narzędzia językowe są mi dostępne. Chociaż do opisu mechaniki

kwantowej używam narzędzi matematycznych, podobnie jak inni fizycy mogę się uciekać

jedynie do klasycznego obrazu, ponieważ moje bezpośrednie doświadczenie ma charakter

klasyczny.

Jak już wspominałem w rozdziale piątym, jedną z najbardziej niezwykłych cech

mechaniki kwantowej jest to, że nawet jeśli zaobserwujemy pewną cechę obiektu, nie

możemy stwierdzić, czy istniała ona na chwilę przed obserwacją. Sam proces obserwacji

może zmienić charakter rozważanego układu fizycznego. Kompletny opis konfiguracji

danego układu w określonym czasie zapewnia jego funkcja falowa i ewoluuje ona zgodnie z

deterministycznymi prawami fizyki. Sprawy komplikuje jednak to, że funkcja falowa może

obejmować dwie lub więcej wzajemnie rozłącznych konfiguracji w tym samym czasie.

Gdy na przykład cząstka obraca się zgodnie z kierunkiem ruchu wskazówek zegara,

mówimy, że jej spin jest skierowany „w górę”. Gdy obraca się w kierunku przeciwnym, jej

spin skierowany jest „w dół”. Funkcja falowa tej cząstki może zawierać sumę tych dwóch

stanów o równych prawdopodobieństwach: zarówno spin skierowany w górę, jaki i spin

skierowany w dół. Gdy zmierzymy kierunek spinu, okaże się, że jest on skierowany albo w

górę, albo w dół. Kiedy już dokona się pomiaru, funkcja falowa cząstki będzie od tego

momentu zawierała tylko zmierzony składnik. Jeśli pomiar wykazał spin skierowany w górę,

taki sam wynik dadzą dla danej cząstki następne pomiary.

Obraz ten stwarza pewne problemy. Można by zapytać, w jaki sposób cząstka może

przed pomiarem mieć spin skierowany zarówno w górę, jak i w dół. Prawidłowa odpowiedź

brzmi, że nie ma żadnego z nich. Kierunek spinu był przed pomiarem nieokreślony.

Owo dziwne zachowanie kwantowej funkcji falowej jest szczególnie niepokojące, gdy

myślimy o istotach żywych. Przypomnijmy sobie na przykład słynny paradoks kota Schródin-

gera. (Erwin Schródłnger był jednym z tych młodych ludzi, którzy na początku naszego

stulecia przyczynili się do odkrycia praw mechaniki kwantowej. Równanie opisujące

ewolucję czasową funkcji falowej nazywa się równaniem Schrodingera). Wyobraźmy sobie

pudełko, w którym siedzi kot. Wewnątrz pudełka znajduje się rewolwer wycelowany w kota i

połączony z radioaktywnym źródłem. Możliwość rozpadu źródła w zadanym czasie określona

jest przez pewne kwantowe prawdopodobieństwo. Gdy dojdzie do rozpadu, rewolwer wypali i

zabije kota. Czy funkcja falowa opisująca kota przed otwarciem pudełka jest liniową

superpozycją żywego i martwego kota? Brzmi to absurdalnie. Podobnie nasza świadomość

background image

jest zawsze określona. Czy akt świadomości jest pomiarem? Jeśli tak, można powiedzieć, że

w każdej chwili istnieje niezerowe kwantowe prawdopodobieństwo zaistnienia kilku różnych

zdarzeń i to akt naszej świadomości określa, którego ze zdarzeń doświadczamy.

Rzeczywistość ma więc nieskończoną liczbę odgałęzień. W każdej chwili nasza świadomość

określa, w którym odgałęzieniu się znajdujemy, ale a priori istnieje nieskończona liczba

innych możliwości.

Hipoteza istnienia „wielu światów” - jedna z interpretacji mechaniki kwantowej,

według której jest możliwe, że w jakimś innym odgałęzieniu kwantowej funkcji falowej to

Stephen Hawking pisze tę książkę, a ja przedmowę - stała się prawdopodobnie przyczyną

nieszczęścia biednego Worfa; potwierdza to sam Data. Gdy statek Worfa wędruje przez

„kwantową szczelinę w czasoprzestrzeni”, wysyłając jednocześnie „sygnał podprzestrzenny”,

granice między rzeczywistościami kwantowymi „załamują się” i Worf zaczyna co pewien

czas przeskakiwać z jednego odgałęzienia funkcji falowej do innego, doświadczając licznych

alternatywnych rzeczywistości kwantowych. Oczywiście jest to niemożliwe, ponieważ w

chwili dokonania pomiaru cały układ, z aparaturą pomiarową włącznie (w tym przypadku z

Worfem), ulega zmianie. Gdy Worf raz już czegoś doświadczy, nie ma powrotu... czy raczej

nie ma żadnych odgałęzień. Samo doświadczenie wystarcza, aby ustalić rzeczywistość. Żąda

tego natura mechaniki kwantowej.

Jest jeszcze inna cecha mechaniki kwantowej, o której była mowa w tym samym

odcinku. Załoga Enterprise odkrywa, że Worf przybywa z innej „rzeczywistości kwantowej”,

stwierdzając, iż jego „sygnatura kwantowa na poziomie atomowym” różni się od

wszystkiego, co istnieje w ich świecie. Według Daty ta sygnatura jest niepowtarzalna i nie

może ulec zmianie w wyniku żadnego procesu fizycznego. Mamy tu oczywiście do czynienia

z technicznym pseudożargonem, wiąże się on jednak z pewną inte resującą cechą mechaniki

kwantowej. Pełny zbiór wszystkich możliwych stanów układu nazywamy przestrzenią

Hilberta - od nazwiska Davida Hilberta, słynnego matematyka niemieckiego, który między

innymi był bliski stworzenia przed Einsteinem ogólnej teorii względności. Zdarza się

czasami, że przestrzeń Hilberta rozpada się na oddzielne obszary, zwane sektorami

superwyboru. W takim przypadku żaden proces fizyczny nie może przenieść układu z jednego

sektora do drugiego. Każdy sektor określony jest przez pewną wie lkość - na przykład

całkowity ładunek elektryczny układu. Gdybyśmy chcieli wyrazić się bardziej obrazowo,

moglibyśmy powiedzieć, że wielkość ta nadaje temu sektorowi niepowtarzalną „sygnaturę

kwantową”, ponieważ wszystkie lokalne operacje kwantowe zachowują ten sam sektor, a

zachowanie operacji i mierzalnych wielkości, z którymi są związane, jest określone przez tę

background image

właśnie sygnaturę.

Różne odgałęzienia funkcji falowej układu muszą się jednak znajdować w jednym

sektorze superwyboru, ponieważ każde z nich jest w zasadzie fizycznie dostępne. Niestety, w

przypadku Worfa, nawet gdyby udało mu się złamać zasady mechaniki kwantowej,

przeskakując z jednego odgałęzienia do drugiego, nie istniałaby żadna zewnętrzna mierzalna

wielkość, która mogłaby dowieść prawdziwości jego relacji.

Cały problem z interpretacją mechaniki kwantowej odwołującą się do idei wielu

światów (czy z jakąkolwiek inną) sprowadza się do tego, że nigdy nie można doświadczać

więcej niż jednej rzeczywistości jednocześnie. Na szczęście, także inne pra wa fizyki nie

pozwalają, by pojawiły się miliony statków Enterprise z różnych rzeczywistości, jak to się

dzieje na końcu wspomnianego odcinka. Zapobiega temu chociażby prosta zasada

zachowania energii - pojęcie najzupełniej klasyczne.

SOLITONY. W odcinku Nowa ziemia serii Następne pokolenie załoga Enterprise

obserwuje eksperyment przeprowadzany przez drą Ja'Dora z planety Bilana III. W

doświadczeniu tym używa się „fali solitonowej” - nie ulegającego rozproszeniu czoła fali

odkształcenia podprzestrzennego - do przyspieszania prototypu statku do prędkości

czasoprzestrzennych bez użycia napędu czasoprzestrzennego. Metoda ta wymaga, aby na

końcu podróży znajdowała się planeta wytwarzająca pole, na którym rozproszy się fala.

Eksperyment niemal kończy się tragedią, której oczywiście udaje się uniknąć w ostatniej

chwili.

Solitony nie są wymysłem twórców Star Trek. Termin ten oznacza tyle, co „samotne

fale”, i odnosi się do zjawiska zaobserwowanego po raz pierwszy w roku 1834 na falach

wodnych przez szkockiego inżyniera Johna Scotta Russella. Prowadząc własnym sumptem

badania nad projektem barek rzecznych dla Union Canal Society w Edynburgu, zauważył on

coś niezwykłego. Oto jego relacja:

Obserwowałem ruch barki, ciągniętej z dużą szybkością wzdłuż wąskiego kanału

przez parę koni, gdy nagle barka się zatrzymała - cała zaś masa wody w kanale, wprawiona w

ruch przez barkę, nie zatrzymała się, lecz zgromadziła w pobliżu dzioba barki w formie

burzliwego kłębowiska, a potem nagle oddzieliła się i potoczyła bardzo prędko napr zód,

przybierając postać samotnego wzniesienia. Był to zaokrąglony, gładki i zdecydowanie

wyróżniający się pagórek na powierzchni wody, który poruszał się wzdłuż kanału pozornie

bez zmiany kształtu i bez utraty prędkości. Podążyłem konno jego śladem i gdy go

dogoniłem, wciąż przetaczał się naprzód z prędkością ośmiu lub dziewięciu mil na godzinę,

zachowując swój pierwotny kształt, długi na trzydzieści stóp i na stopę lub półtorej wysoki.

background image

Jego wysokość powoli malała i po mili lub dwóch straciłem go z oczu wśród zakrętów

kanału. W ten sposób w sierpniu 1834 roku miałem szczęście napotkać po raz pierwszy to

osobliwe i piękne zjawisko, które nazwałem falą przesuniętą.

Później Scott Russell ukuł na określenie tego cudu termin „samotna fala”, który

utrzymał się do dziś, choć solitony pojawiły się w wielu różnych działach fizyki. Według

ogólnej definicji, solitony są nie ulegającymi rozproszeniu, klasycznie rozciągłymi, ale

skończonych rozmiarów obiektami, które mogą przemieszczać się z miejsca na miejsce. Z

tego właśnie powodu nie mogły się wydarzyć katastrofy, które napędzają akcję odcinka Nowa

ziemia. Po pierwsze, soliton nie „emitowałby dużej ilości zakłóceń radiowych”. Gdyby tak

było, rozpraszałby swoją energię. Z tej samej przyczyny nie mógłby uzyskiwać energii czy

zmieniać częstości.

Zwykłe fale są obiektami rozciągłymi, które podróżując tracą swoją energię. Jednak

klasyczne siły - pochodzące z różnych oddziaływań w przestrzeni, zwanych polami -

zazwyczaj pozostawiają solitony w stanie nietkniętym, tak że mogą się one rozchodzić, nie

tracąc energii na rzecz ośrodka. Ponieważ są one kompletnymi rozwiązaniami

energetycznymi równań opisujących ruch, zachowują się w zasadzie tak samo, jak zwyczajne

obiekty - na przykład cząstki elementarne. W pewnych matematycznych modelach silnych

oddziaływań, które utrzymują razem kwarki, można traktować proton jako soliton, a wówczas

wszyscy składamy się z solitonów! W fizyce cząstek elementarnych wymyślono nowe pola,

które mogłyby łączyć się w „gwiazdy solitonowe” - obiekty o rozmiarach gwiazd, istniejące

dzięki jednemu spójnemu polu. Obiektów takich nie udało się jeszcze zaobserwować, ale ich

istnienie jest prawdopodobne.

KWAZARY. W odcinku Pegaz - dowiadujemy się w nim o Traktacie Algońskim,

który zakazuje Federacji używania urządzeń maskujących - mamy okazję zobaczyć Enterprise

Picarda w trakcie badania kwazaru Mecoria. Wcześniej, w odcinku Galileusz siedem

emitowanym w pierwszej serii, dowiedzieliśmy się, że regulamin obowiązujący na pokładzie

Enterprise nakazywał badanie tych obiektów przy każdej nadarzającej się okazji. Jest jednak

mało prawdopodobne, aby jakiś statek, podróżując po peryferiach Galaktyki, rzeczywiście

napotkał kwazar. Sądzi się bowiem, iż kwazary - obiekty o największej we Wszechświecie

energii (emitują one tyle energii, co całe galaktyki, choć są tak małe, że nie można ich

dokładnie zbadać nawet za pomocą teleskopów) - są olbrzymimi czarnymi dziurami w

centralnych częściach niektórych galaktyk i dosłownie połykają materię swoich gospodarzy.

Jest to jedyny znany nam mechanizm, który mógłby wyjaśniać obserwowane energie i

rozmiary kwazarów. Gdy materia wpada do czarnej dziury, wypromieniowuje dużą ilość

background image

energii (w miarę jak traci swoją grawitacyjną energię potencjalną). Jeśli w centralnych

obszarach niektórych galaktyk istnieją czarne dziury o masach milion czy miliard razy

większych od masy Słońca, mogą one połykać całe układy gwiezdne. Z tego powodu kwazary

są często częścią tego, co nazywamy aktywnymi jądrami galaktyk. Dla tej samej przyczyny

odradzałbym bliskie spotkanie z jednym z takich obiektów, gdyż mogłoby się okazać fatalne

w skutkach.

NEUTRINA. Neutrina są moimi ulubionymi cząstkami i dlatego ten temat zostawiłem

sobie na koniec. Stworzonkom tym poświęciłem wiele lat mojej pracy naukowej, tak mało

bowiem o nich wiemy, a przecież mogą wiele nas nauczyć o strukturze materii i naturze

Wszechświata.

Wielokrotnie w różnych odcinkach Stor Trek używa się neutrin lub mierzy je na

pokładach statków kosmicznych. Zwiększone odczyty neutrin występują na przykład wted y,

gdy statki przemierzają bajorański tunel czasoprzestrzenny. W odcinku Wróg dowiadujemy

się, że maska Geordiego LaForge'a potrafi wykrywać neutrina, gdy dociera do niego ich

wiązka, wysłana, żeby go zlokalizować; w ten sposób można go ewakuować z nieprzyjaznej

planety. W odcinku Koncentracja sil załoga Enterprise napotyka „pole neutrinowe”, które

zakłóca transport bezcielesnych, przestępczych form życia na pokład statku.

Istnienie neutrin przewidziano w wyniku niejasności związanej z procesem rozpadu

neutronów. Neutrony są stabilne w jądrach atomowych, lecz w stanie nie związanym ulegają

rozpadowi na protony i elektrony po mniej więcej dziesięciu minutach. Z zachowaniem

ładunku elektrycznego w takich reakcjach nie ma problemu, ponieważ neutron jest

elektrycznie obojętny, natomiast proton ma ładunek dodatni, a elektron -ujemny, przy czym

ich wartość bezwzględna jest taka sama. Masa protonu i elektronu daje w sumie niemal masę

neutronu, nie zostaje więc wiele energii na wytworzenie innych masywnych cząstek w tym

rozpadzie.

Czasami jednak obserwuje się, że proton i elektron po rozpadzie neutronu wybiegają

w tym samym kierunku. Jest to niemożliwe, ponieważ każda wyemitowana cząstka niesie

pęd. Jeśli neutron znajdował się w spoczynku, jego pęd wynosił zero, konieczne jest więc w

tym rozpadzie wyemitowanie czegoś jeszcze, aby cząstka taka mogła unieść pęd w kierunku

przeciwnym.

Istnienie takiej hipotetycznej cząstki zaproponował w latach trzydziestych Wolfgang

Pauli, a Enrico Fermi nazwał ją neutrinem (czyli małym neutronem). Wybrał tę nazwę

dlatego, że cząstka Pauliego musiała być elektrycznie obojętna, aby nie została naruszona

zasada zachowania ładunku, i mieć bardzo małą masę, aby mogła powstać nawet z niedużej

background image

ilości energii dostępnej po wyemitowaniu protonu i elektronu.

Jako że neutrina są elektrycznie obojętne i nie odczuwają silnych oddziaływań (które

wiążą kwarki i pomagają utrzymać jądro w całości), bardzo słabo oddziałują one ze zwykłą

materią. Ponieważ jednak neutrina produkowane są w reakcjach jądrowych, które zachodzą

we wnętrzu Słońca, są wszechobecne. W ciągu każdej sekundy każdego dnia każdy centymetr

kwadratowy naszego ciała przeszywa sześćset miliardów neutrin pochodzących ze Słońca - ta

nieustanna inwazja stała się nawet inspiracją wiersza Johna Updike'a. Nie zauważamy tego

ostrzału, ponieważ neutrina przenikają przez nasze ciała bez śladu. Średnio neutrina słoneczne

musiałyby przejść przez blok materii grubości 10 tysięcy lat świetlnych, zanim wywarłaby

ona na nie jakikolwiek wpływ.

Jeśli rzeczywiście tak jest, można by zapytać, skąd możemy mieć pewność, że

neutrina istnieją. Cóż, wspaniałą cechą mechaniki kwantowej jest to, że określa

prawdopodobieństwa. Dlatego właśnie w poprzednim paragrafie użyłem określenia „średnio”.

Chociaż większość neutrin przebędzie 10 tysięcy lat świetlnych, nie oddziałując z materią,

jeśli będziemy mieć wystarczająco dużo neutrin i odpowiednio grubą tarczę, możemy się

przekonać o ich istnieniu.

Tę zasadę wykorzystali po raz pierwszy w roku 1956 Frede-rick Reines i Clyde

Cowan, którzy umieściwszy w pobliżu reaktora jądrowego kilkutonową tarczę, rzeczywiście

zaobserwowali kilka zdarzeń, świadczących o istnieniu neutrina. To doświadczalne wykrycie

neutrina (a właściwie antyneutrina) nastąpiło ponad 20 lat po wysunięciu hipote zy przez

Pauliego i długo po tym, jak większość fizyków ją zaakceptowała.

Obecnie używa się o wiele większych detektorów. Pierwsze obserwacje neutrin

słonecznych przeprowadził w latach sześćdziesiątych Ray Davis ze swoimi

współpracownikami, używając prawie 400 tysięcy litrów płynu do czyszczenia,

umieszczonego w podziemnym zbiorniku w kopalni złota Homestake w Południowej

Dakocie. Średnio każdego dnia jedno neutrino pochodzące ze Słońca oddziaływało z jednym

atomem chloru i zmieniało go w atom argonu. Eksperymentatorom należą się wyrazy uznania

za to, że potrafili wykryć zachodzącą w tak wolnym tempie jądrową alchemię. Okazuje się

jednak, że tempo reakcji zmierzone przez ich detektor - i wszystkie następne detektory neutrin

słonecznych -jest odmienne od przewidywanego. Ta tak zwana zagadka neutrin słonecznych

może sygnalizować potrzebę stworzenia nowej fizyki neutrin.

Największy detektor neutrin na świecie buduje się obecnie w kopalni Kamiokande w

Japonii. Będzie on zawierał 30 tysięcy ton wody i zastąpi detektor wykorzystujący 5 tysięcy

ton, za pomocą którego udało się zarejestrować pewną ilość neutrin pochodzących z

background image

supernowej. Wybuch ten zaobserwowano w 1987 roku w Wielkim Obłoku Magellana, który

znajduje się ponad 150 tysięcy lat świetlnych od nas!

W ten sposób wracamy do punktu wyjścia. Neutrina są jednym z nowych narzędzi,

używanych przez fizyków do badania Wszechświata. Wykorzystując każdy możliwy rodzaj

detekcji cząstki elementarnej oraz konwencjonalne detektory elektromagnetyczne, możemy

odkryć tajemnice Galaktyki, zanim odważymy się wyruszyć na jej podbój. Wynalezienie

detektora neutrin wielkości maski Geordiego byłoby w tym oczywiście bardzo pomocne!

background image

ROZDZIAŁ 10

KRAINA NIEMOŻLIWOŚCI: TO, CZEGO NIE DA SIĘ ODKRYĆ

Geordi: Nagle prawa fizyki jakby wyskoczyły f rzeź okno.

Q: Dlaczego nie miałyby tego zrobić? Są takie niewygodne!

W odcinku Prawdziwy Q

Bones, cha żebyś sprawdził także to, co niemożliwe.

KIRK do McCoya w odcinku Nagi czas

To, co opisujesz, to... niebyt !

KIRK do Spocka w odcinku Czynnik alternatywny

Każdy rozsądny flzyktrekker zdaje sobie sprawę z tego, że Star Trek należy traktować

z pewną dozą pobłażliwości. Zdarzały się jednak przypadki, gdy z takiego lub innego powodu

twórcy Stor Trek przekraczali granicę między tym, co jest po prostu niejasne lub mało

prawdopodobne, a tym, co zupełnie niemożliwe. Wynajdywanie w każdym odcinku

niewielkich nawet uchybień jest popularną rozrywką trekkerów, nie tym jednak najbardziej

rozkoszują się fizycy i studenci fizyki. W czasie obiadów i przerw na kawę podczas

zawodowych spotkań dyskutuje się najczęściej o naprawdę poważnych wpadkach.

Trzeba jednak przyznać, że zdarza, się, iż okruch fizyki w serialu - nawet jeśli dotyczy

niewielkiego epizodu - potrafi następnego dnia wywołać żarliwą dyskusję. Dobrze pamiętam

dzień, kiedy mój student z Yale - Martin White, który obecnie pracuje na Uniwersytecie w

Chicago - przyszedł do mojego pokoju zaraz po obejrzeniu Stor Trek VI: Nieznany kraj.

Myślałem, że będziemy rozmawiać o fałach grawitacyjnych w bardzo młodym

Wszechświecie. Martin zaczał się jednak zachwycać pewną szczególną sceną z filmu, która

nie trwała dłużej niż 15 sekund. Dwóch ubranych w hełmy zabójców wchodzi na pokład

statku kanclerza Gorkona - statek został unieruchomiony za pomocą torped fotonowych,

wystrzelonych z Enterprise, i dzięki temu nie ma na nim grawitacji - i strzela do wszystkich

znajdujących się w zasięgu wzroku, łącznie z Gorkonem. Szczególne wrażenie na Martmie i,

ku mojemu zaskoczeniu, na wielu innych studentach fizyki oraz pracownikach wydziału

wywarto to, że krążące po statku krople krwi miały sferyczne kształty. Na Ziemi wszystkie

krople cieczy są wydłużone z powodu wszechobecnej siły grawitacji. W obszarach jej

pozbawionych, takich jak statek Gorkona, nawet łzy byłyby małymi kulkami. Fizycy wiedzą

o tym, ale rzadko mają okazję to zobaczyć. Pracujący nad Star Trek fachowcy od efektów

background image

specjalnych dostarczyli wielu fizykom sporej przyjemności. Wystarczy tak niewiele...

Oczywiście błędy również nas poruszają. Co ciekawe, najbardziej chyba pamiętny

błąd w Star Trek nie dotyczył wcale fizyki. Doniósł mi o nim Steven Weinberg, fizyk cząstek

elementarnych (a także autor książek popularnonaukowych) i laureat Nagrody Nobla, którą

otrzymał za udział w stworzeniu tego, co obecnie nazywamy modelem standardowym

oddziaływań cząstek elementarnych. Ponieważ wiedziałem, że wykonuje on najbardziej

zawiłe obliczenia przy włączonym telewizorze, napisałem do niego i zapytałem o refleksje

związane ze Star Trek. Weinberg odpowiedział, że głównymi b łędami popełnianymi w Stor

Trek są błędy językowe.

Znacznie częściej jednak uwagę fizyków przykuwają błędy z dziedziny, którą

uprawiają. Dzieje się tak zapewne dlatego, że te właśnie błędy utwierdzają w wielu fizykach

przekonanie, iż fizyka jest bardzo oddalona od kultury masowej; nie mówiąc o poczuciu

wyższości, które dają nam żarty na temat absolwentów filologii piszących scenariusz. Trudno

sobie wyobrazić, aby w dużej produkcji filmowej Napoleon mówił po niemiecku, zamiast po

francusku, a Deklaracja Niepodległości została podpisana w XIX wieku. Kiedy więc

podobnego kalibru błędy fizyczne wkradają się do serialu, który ma przecież mieć charakter

naukowy, fizycy przechodzą do ataku. Byłem zaskoczony, gdy się dowiedziałem, jak wielu

moich szacownych kolegów - Kip Thome, Weinberg, Sheldon Glashow, nie mówiąc o

Stephenie Hawkingu, najbardziej chyba znanym fizyku-trekkerze - ogląda serial Star Trek.

Oto lista moich ulubionych pomyłek, zebranych w trakcie dyskusji z fizykami oraz

przesłanych do mnie pocztą elektroniczną przez licznych trekkerów. Starałem się skupić

głównie (ale nie wyłącznie) na gafach dotyczących „ziemskiej fizyki”. Nie zajmuję się więc

tutaj takimi częstymi zarzutami, jak ten, że światło gwiazd się rozmazuje, gdy mamy do

czynienia z prędkościami czasoprzestrzennymi. Nie walczę też z technicznym

pseudożargonem - nieodpowiedzialnym użyciem terminologii naukowej i pseudonaukowej,

jaką posługują się w każdym odcinku scenarzyści, aby stworzyć wrażenie technologii

przyszłości. Poza tym starałem się wybrać przykłady, o których nie było wcześniej mowy.

„W PRZESTRZENI KOSMICZNEJ NIKT NIE USŁYSZY TWOJEGO KRZYKU”.

Zwiastun Obcego ujął to trafnie, ale w serialu Star Trek zwykle popełnia się w tej kwestii

błędy. Fale dźwiękowe nie rozchodzą się w pustej przestrzeni! Gdy jednak wybucha stacja

kosmiczna krążąca wokół planety Tanuga IV, z dogodnego punktu obserwacyjnego na

pokładzie Enterprise słyszymy to wydarzenie tak samo dobrze, jak widzimy. Co gorsza,

słyszymy je w tej samej chwili, w której je widzimy. Nawet gdyby fale dźwiękowe mogły

rozchodzić się w pustej przestrzeni, co jest niemożliwe, prędkość fali ciśnienia, takiej jak

background image

dźwięk, jest na ogół o kilka rzędów wielkości mniejsza od prędkości światła. Wystarczy

wybrać się na mecz piłki nożnej, aby się przekonać, że widzimy zdarzenia, zanim możemy je

usłyszeć.

Poglądowy eksperyment, który przeprowadza się na szkolnych lekcjach fizyki, polega

na umieszczeniu elektrycznego dzwonka pod szklanym kloszem i wypompowaniu spod niego

powietrza. Gdy powietrze zostanie usunięte, dzwonienie zanika. Już w XVII wieku

uświadomiono sobie, że dźwięk potrzebuje jakiegoś ośrodka, aby się rozchodzić. W próżni,

takiej jaka panuje wewnątrz klosza, nie ma nic, co mogłoby przenosić fale dźwiękowe, więc

nie słyszymy znajdującego się w środku dzwonka. Mówiąc dokładniej, dźwięk jest falą

ciśnienia, czyli zaburzeniem, które przemieszcza się w miarę jak obszary ciśnienia wyższego

lub niższego niż średnie rozchodzą się w ośrodku. Gdy wyeliminujemy ośrodek, nie będzie

ciśnienia, które można by zaburzać. Nawiasem mówiąc, przykład z kloszem leżał u podstaw

tajemnicy, o której wcześniej wspomniałem, a która miała duże znaczenie w historii fizyki.

Chociaż nie słyszymy dzwonka, wciąż go widzimy! Jeśli więc światło ma być rodzajem fali,

w jakim to ośrodku, którego nie można usunąć wraz z powietrzem, się ono porusza? Był to

jeden z głównych argumentów przemawiających za istnieniem eteru.

Oglądając serial, nigdy nie zwracałem większej uwagi na obecność bądź nieobecność

dźwięku w przestrzeni kosmicznej. Po tym jednak, jak Steven Weinberg i kilka innych osób

wspomniało, że pamiętają dźwięk towarzyszący wybuchom w Star Trek, zwróciłem na to

uwagę przy okazji oglądanego właśnie odcinka pod tytułem Kwestia perspektywy, w którym

wybucha stacja kosmiczna krążąca wokół planety Tanuga IV. I oczywiście: bum! To samo

zdarzyło się w następnym odcinku - statek przewożący skradzione z Enterprise kryształy

trójlitu z wielkim hukiem eksplodował w pobliżu planety Arkaria. Potem obejrzałem ostatni

pełnometrażowy film Star Trek: Pokolenia, w którym nawet butelka szampana wydaje odgłos,

gdy eksploduje w przestrzeni kosmicznej.

Mark Srednicki, mój kolega fizyk z Uniwersytetu Kalifornijskiego w Santa Barbara,

zwrócił uwagę na o wiele poważniejszą pomyłkę w pewnym odcinku, w którym fale

dźwiękowe wykorzystuje się jako broń przeciwko statkowi znajdującemu się na orbicie.

Jakby tego było mało, słyszymy, że fale te osiągają liczbę decybeli równą „18 do potęgi

dwunastej”. Fizykowi wielkość ta wydaje się szczególnie duża, ponieważ ska la, w której

natężenie mierzy się w decybelach, jest logarytmiczna, podobnie jak skala Richtera. Oznacza

to, że liczba decybeli to już potęga 10, a wartości znormalizowane są w ten sposób, że 20

decybeli jest 10 razy głośniejsze od 10 decybeli, a 30 decybeli jeszcze 10 razy głośniejsze.

Zatem 18 do potęgi dwunastej decybeli to 10

1812

, czyli l z 11 568 313 814 300 zerami razy

background image

głośniej niż samolot odrzutowy!

SZYBCIEJ NIŻ FAZER. Do podróży z prędkościami ponad-świetlnymi musimy się w

Star Trek przyzwyczaić; ta możliwość, jak już mówiłem, wiąże się z subtelnościami ogólnej

teorii względności i istnieniem egzotycznych, nowych form materii. Dla zwyczajnych

obiektów w zwyczajnych sytuacjach prędkość światła jest i zawsze będzie nieprzekraczalną

barierą. Czasami zapomina się o tym prostym fakcie. W zwariowanym odcinku pod tytułem

Mgnienie oka Skalozjanie podstępnie skłaniają Kirka do wypicia napoju, który przyspiesza

wielokrotnie jego ruchy. Dzięki temu osiąga on szybkość ruchów Ska-lozjan i może stać się

partnerem ich królowej Deeli. Skalozjanie wiodą superszybkie życie, w związku z czym

załoga Enterprise nie potrafi ich dostrzec. Zanim jednak Kirk znajdzie się w łożu królowej,

próbuje zastrzelić ją z fazera. Ponieważ królowa potrafi przemieszczać się w mgnieniu oka,

przynajmniej z punktu widzenia ludzi, uchyla się z drogi promienia, zanim ten w nią trafi. Co

mija się z prawdą w tej historii? Odpowiedź brzmi: wszystko!

Kilku trekkerów zauważyło, że jeśli Deela może się poruszyć w czasie, który

wystarcza, by promień fazera przebiegł pokój z prędkością światła, cała reszta tego odcinka

jest niemożliwa. Prędkość światła wynosi 300 milionów metrów na sekundę. Deela znajduje

się w odległości około metra od strzelającego Kirka, z czego wynika, że światło będzie

podróżowało przez około 1/300 milionowej sekundy. Aby ten czas wydał się Deeli sekundą,

zegar Skalozjan musi odmierzać czas 300 milionów razy szybciej. Jeśli tak jest, trzysta

milionów sekund dla Skalozjan trwa około jednej sekundy zwykłego czasu Enterprise.

Niestety, trzysta milionów sekund to około 10 lat.

Wybaczmy twórcom Star Trek ten lapsus. Pojawia się jednak o wiele poważniejszy

problem, którego nie można rozwiązać i na który natknęło się kilku znanych fizyków. Z

serialu dowiadujemy się, że fazery są bronią mogącą wysyłać ukierunkowaną energię; wiązka

fazera zatem przemieszcza się z prędkością światła. Niestety, w tym miejscu tkwi pułapka.

Jeśli promień fazera składa się z czystej energii, a nie z cząstek, jak twierdzi Instrukcja

techniczna Star Trek, musi biec z prędkością światła. Niezależnie od tego, jak szybko może

się ktoś poruszać, nawet jeśli robi to 300 milionów razy szybciej niż zwykły człowiek, nigdy

nie zdąży się usunąć z drogi promienia fazera. Dlaczego? Ponieważ aby się dowiedzieć, że

zbliża się do niego wiązka, musiałby najpierw zobaczyć wystrzał fazera. Potrzebne do tego

światło porusza się jednak z tą samą prędkością, co wiązka. Innymi słowy, nie możesz się

dowiedzieć, że wiązka zmierza w Twoim kierunku, dopóki w Ciebie nie trafi! Dopóki wiązka

fazera jest wiązką energii, nie ma przed nią ucieczki. Podobny problem związany z próbą

uniknięcia promienia fazera pojawia się w odcinku Bakteriofagi z serii Yoyager.

background image

Czasami to jednak krytycy Stor Trek popełniają błędy. Powiedziano mi kiedyś, że

powinienem zwrócić uwagę na scenę w filmie Pokolenia, kiedy gwiazda oświetlająca planetę

znika i w tym samym momencie planeta ciemnieje. Jest to oczywiście niemożliwe, ponieważ

światło potrzebuje pewnego skończonego czasu, aby przebyć drogę od gwiazdy do planety.

Jeśli zatem wyłączymy światło gwiazdy, obserwatorzy na planecie przez pewien czas nie

będą o tym wiedzieli. W filmie Pokolenia jednak cały ten proces obserwuje się z powierzchni

planety. Z tego punktu widzenia powierzchnia planety powinna pociemnieć w tej samej

chwili, w której gwiazda się zapada. Wynika to stąd, że zarówno informacja o tym, że

gwiazda się zapadła, jak i informacja o braku światła dotrą do planety w tym samym czasie:

spóźnione, ale równoczesne! Chociaż ten aspekt zagadnienia został ukazany popra wnie,

scenarzyści popełnili błąd, skracając bardzo czas opóźnienia. Dowiadujemy się, że sonda

mająca zniszczyć gwiazdę dotrze do niej w ciągu 11 sekund od wystrzelenia z powierzchni

planety. Sonda porusza się z prędkością podświetlną; możemy być tego pewni, ponieważ do

czasu, gdy mieszkańcy planety ujrzą zapadającą się gwiazdę, upływa znacznie mniej niż 2

razy po 11 sekund, co oznacza, że podróż powrotna światła musiała trwać o wiele krócej niż

11 sekund. Dla porównania, Ziemia znajduje się w odległości 8 minut świetlnych do Słońca.

Gdyby Słońce eksplodowało w tej chwili, dowiedzielibyśmy się o tym dopiero za 8 minut.

Trudno uwierzyć, żeby planeta klasy M mogła istnieć w odległości 10 sekund świetlnych od

spalającej wodór gwiazdy, takiej jak Słońce. Jest to odległość tylko pięciokrotnie większa od

rozmiarów Słońca - o wiele za blisko, by można było tam wygodnie żyć.

TO SCENARIUSZ TRZESZCZY, A NIE HORYZONT ZDARZEŃ. Chociaż

obiecałem, że nie będę się zajmował technicznym pseudożargonem, nie mogę nie wspomnieć,

że seria Voyager jest pod tym względem bezkonkurencyjna. Gdy Voyager próbuje dotrzeć do

domu, podróżując w czasie z regularnością metra w godzinach szczytu, można usłyszeć każde

żargonowe wyrażenie znane współczesnej fizyce. Terminy fizyczne zwykle jednak coś

znaczą, więc gdy używa się ich tylko po to, by pchnąć akcję do przodu, błędy są

nieuniknione. W rozdziale trzecim wspomniałem, że odgłos towarzyszący wyrwaniu się z

horyzontu zdarzeń - ratuje to Voyagera w nieudanym odcinku Bakteriofagi - brzmi dla

fizyków szczególnie niedorzecznie. „Trzask” horyzontu zdarzeń jest mniej więcej tak samo

prawdopodobny, jak odcięcie jednego końca koła lub bycie trochę w ciąży. Horyzont zdarzeń

wokół czarnej dziury nie jest obiektem fizycznym, lecz miejscem określającym obs zar, w

którym wszystkie tory obiektów pozostają wewnątrz czarnej dziury. To, że trajektoria

jakiejkolwiek cząstki, ze światłem włącznie, ulega zakrzywieniu w kierunku czarnej dziury,

gdy znajdzie się wewnątrz obszaru o pewnym promieniu, jest własnością zakrzywionej

background image

przestrzeni. Albo horyzont zdarzeń istnieje - a wtedy istnieje także czarna dziura - albo nie.

Nie istnieje obszar pośredni, przez który mogłaby się prześlizgnąć igła, nie mówiąc o

Voyagerze.

CZY MOŻNA DOTKNĄĆ DOKTORA? Muszę przyznać, że moim ulubionym

technicznym błędem w serii Voyager jest holograficzny doktor. W trakcie pewnej wspaniałej

sceny pacjent pyta doktora, w jaki sposób może on go dotykać, skoro jest tylko hologramem.

Dobre pytanie. W odpowiedzi doktor wyłącza „wiązkę magnetycznie wiążącą”, aby pokazać,

że bez niej jest równie bezcielesny jak fatamorgana. Później rozkazuje, aby ponownie

włączono wiązkę, gdyż musi dokończyć badanie pacjenta. Jest to wspaniały epizod, ale,

niestety, nieprawdopodobny. Jak pisałem w rozdziale szóstym, magnetyczne wiązanie czyni

cuda w przypadku naładowanych cząstek, na które w stałym polu magnetycznym działa siła

zmuszająca je do ruchu po orbitach kołowych. Światło nie ma jednak ładunku elektrycznego.

W polu magnetycznym nie działa na nie żadna siła. Hologram, a zatem i doktor, jest jedynie

obrazem świetlnym.

CO JEST BARDZIEJ WRAŻLIWE: TWOJE RĘCE CZY TYŁEK? ALBO:

ZMIENIAĆ CZY NIE ZMIENIAĆ FAZY? Twórcom Star Trek udało się popełnić kiedyś

coś, co nazywam haniebnym błędem ducha. Mam na myśli nakręcony niedawno film pod

tytułem Uwierz w ducha, w którym główny bohater, duch, przechodzi przez ściany i nie

potrafi podnosić przedmiotów, ponieważ jego ręce przenikają przez nie. Kiedy jednak siada

na krześle lub kanapie, w cudowny sposób jego pośladki znajdują wygodne oparcie. Podobnie

ziemia pod jego stopami pozostaje całkiem twarda. W poprzednim rozdziale wspominałem,

że w jednym z odcinków Geordi LaForge i Ro Laren byli „niezgodni w fazie” ze zwykłą

materią dzięki romulanskiemu „generatorowi interfazy”. Ku swojemu zaskoczeniu

odkrywają, że są niewidzialni ł mogą przechodzić przez ludzi i ściany. Ro zaczyna wierzyć,

że umarła (może w młodości widziała w jakimś starym kinie powtórkę Uwierz w ciucha).

Geordi i Ro mogą jednak bezkarnie stać na podłodze i siedzieć na krzesłach. Materia jest

materią, a krzesła i podłogi niczym się nie różnią od ścian i, o ile wiem, stopy ł pośladki nie

są bardziej ani mniej cielesne niż ręce.

Nawiasem mówiąc, w tym samym odcinku był jeszcze jeden słaby punkt, który łamie

spójność wielu innych wydarzeń w serialu. W fizyce dwa przedmioty, które oddziałują z

czymś trzecim, zawsze mogą oddziaływać ze sobą. Prowadzi nas to z powrotem do

pierwszego prawa Newtona. Jeśli wywieram na Ciebie siłę, Ty działasz na mnie z siłą równą

co do wartości i przeciwnie skierowaną. Jeśli zatem Geordi i Ro mogli obserwować

Enterprise ze swojej nowej „fazy”, musieli oddziaływać ze światłem falą elektromagnetyczną.

background image

Wystarczy posłużyć się prawem Newtona, aby stwierdzić, że oni również powinni być

widoczni. Szkło pozostaje niewidoczne, ponieważ nie pochłania

widzialnego światła. Aby widzieć - to znaczy odczuwać światło -musisz je pochłaniać.

Pochłaniając je, wywierasz na nie wpływ. A skoro tak, musisz być widoczny dla kogoś

innego. Tak samo dzieje się w przypadku niewidzialnych owadów z innej fazy, które

zaatakowały Enterprise, przyczepiając się do ciał załogi w odcinku Urojenia serii Następne

pokolenie. Siła, która pozwala im spoczywać na zwyczajnej materii, nie przechodząc przez

nią, to właśnie elektromagnetyzm - elektrostatyczne odpychanie między naładowanymi

cząstkami wchodzącymi w skład atomów jednego i drugiego ciała. Jeśli oddziałujesz

elektromagnetycznie, jesteś częścią naszego świata. Coś za coś.

WYLEWANIE DZIECKA Z KĄPIELĄ. W odcinku Kopalnia serii Następne

pokolenie statek Enterprise dokuje w Ciągu Remmleranskim, aby poddać się „usuwaniu

barionów”. Wygląda na to, że te cząstki osadzają się na konstrukcjach statku w wyniku

długotrwałej podróży z prędkościami czasoprzestrzennymi i muszą zostać usunięte. Podczas

tego „odkurzania” załoga musi się ewakuować, ponieważ wiązka oczyszczająca jest zabójcza

dla żywej tkanki. Nie da się jednak ukryć, że jedynymi stabilnymi barionami są protony i

neutrony, tworzące jądra atomowe. Ponieważ wszystko, co widzimy, składa się z tych

cząstek, po usunięciu ich z Enterprise nie zostałoby ze statku zbyt wiele na następne odcinki.

JAK ZIMNE MOŻE BYĆ ZIMNO? Ulubiona gafa mojego kolegi i wielbiciela Star

Trek, Chucka Rosenblatta, to ochładzanie przedmiotów do temperatury -295°C. Jest to bardzo

ekscytujące odkrycie, ponieważ w skali Celsjusza absolutnemu zeru odpowiada -273°. Jak

wynika z samej nazwy, zero absolutne to najniższa temperatura, jaką może osiągnąć ciało,

gdyż w tej temperaturze ustają wszelkie ruchy cząsteczkowe i atomowe, drgania i obroty.

Chociaż osiągnięcie tej teoretycznej granicy jest niemożliwe, układy atomowe udało się

schłodzić do temperatury nie większej niż jedna milionowa stopnia powyżej zera absolutnego

(ostatnio osiągnięto nawet temperaturę dwóch miliardowych stopnia). Temperatura związana

jest z ruchami cząsteczek i atomów, a nigdy nie można mieć mniej niż zero ruchu. A zatem

nawet za 400 lat absolutne zero ciągle będzie absolutne.

WIDZIAŁEM ŚWIATŁO! Czuję się nieco zakłopotany, gdyż muszę przyznać, że na

ten oczywisty błąd, który sam powinienem był zauważyć, zwrócił mi uwagę student

pierwszego roku fizyki, Ryan Smith, gdy podczas wykładu wspomniałem, iż piszę tę książkę.

Za każdym razem, gdy Enterprise wysyła promień fazera, widzimy go. Oczywiście jest to

niemożliwe, jeśli fazer nie emituje światła we wszystkich kierunkach. Światło widoczne jest

dopiero wtedy, gdy się od czegoś odbije. Każdy, kto kiedykolwiek uczestniczył w pokazie, na

background image

którym prelegent posługiwał się wskaźnikiem laserowym - zazwyczaj są to czerwone lasery

helowo-neonowe - pamięta zapewne, że widoczna jest tylko plamka w miejscu, gdzie

promień pada na ekran, nie widać natomiast nic pomiędzy wskaźnikiem a ekranem. Cały

promień można dostrzec tylko wówczas, gdy w pomieszczeniu rozpyli się kurz, na przykład

uderzając o siebie dwie suche gąbki do wycierania tablicy. (Warto tego spróbować - widok

jest rzeczywiście niezwykły). Podczas widowisk laserowych światło przepuszcza się przez

dym lub wodę. Jeśli zatem pusta przestrzeń nie jest szczególnie zapylona, nie powinniśmy

zobaczyć promienia fazera aż do momentu, gdy dotrze on do celu.

ASTRONOMOWIE SĄ WYBREDNI. Nie powinno nas dziwić, że wielu ludzi

znajduje w serialu błędy fizyczne związane z ich własnym obszarem zainteresowań. Gdy

pytałem różne osoby o przykłady, po odpowiedziach można było odgadnąć, czym się

zajmują. Za pomocą poczty elektronicznej otrzymałem kilka sugestii od astronomów-

trekkerów, którzy zauważyli niektóre subtelne błędy w Stor Trek. Pewien student astronomii

wykazał, że mimo dużego wysiłku scenarzystów, by wykorzystać nieco prawdziwej

astronomii, rezultat rozminął się z prawdą. Żywiąca się energią forma życia w odcinku

Dziecko galaktyki okazuje się młodą istotą, która bierze Enterprise za swoją matkę i zaczyna

wysysać jego energię. LaForge w samą porę wpada na pomysł, w jaki sposób pozbyć się

„dziecka”. Reaguje ono na promieniowanie o długości fali 21 centymetrów, emitowane przez

Enterprise. Zmieniając częstość emisji, załoga psuje „mleko” i „dziecko” daje za wygraną.

Odcinek ten jest interesujący, choć zawiera błąd. Scenarzyści chcieli wykorzystać to, że

promieniowanie o długości 21 centymetrów jest najpowszechniejszym promieniowaniem

emitowanym przez wodór; astronomowie posługują się nim do stworzenia map występowania

gazu międzygwiazdowego (wspomniałem o tym w rozdziale ósmym). Scenarzyści przyjęli

jednak, że wszystko, łącznie z Enterprise, emituje takie promieniowanie. Tymczasem

przejście atomowe w wodorze, odpowiedzialne za to promieniowanie, jest niezwykle rzadkie:

konkretny atom w przestrzeni międzygwiazdowej może wysłać falę o takiej długości średnio

tylko raz na 400 lat. Ponieważ jednak Wszechświat jest wypełniony wodorem,

promieniowanie to jest wystarczająco silne, aby można je było wykryć na Ziemi. W tym

przypadku oceniłbym więc wysiłki scenarzystów na 6 i obniżył tę ocenę na 5+ za złą

interpretację; uchodzę jednak za pobłażliwego egzaminatora.

Pewien pracownik NASA zwrócił mi uwagę na błąd, którego sam nie zauważyłem, a

który ktoś pracujący dla NASA powinien wychwycić. Standardowym sposobem poruszania

się statków kosmicznych jest okrążanie planet po orbitach geostacjonarnych - okres orbitalny

statku jest wtedy taki sam jak okres obrotu planety wokół osi. Statek powinien się więc

background image

znajdować cały czas nad tym samym miejscem na powierzchni planety, jak w przypadku

satelitów meteorologicznych, krążących wokół Ziemi. Gdy jednak Enterprise obiega planetę,

zazwyczaj pokazane jest, że porusza się na tle jej powierzchni. A jeśli nie znajduje się on na

orbicie geostacjonarnej, pojawiają się poważne problemy z przesyłaniem za pomocą

transportera.

TE PRZEKLĘTE NEUTRINA. Muszę chyba jeszcze raz powrócić do neutrin.

Ponieważ niewiele dotąd pisałem o serii Stacja kosmiczna, wspomnę przynajmniej o błędzie,

o którym powiedział mi David Brahm, jeszcze jeden fizyk-trekker. W jednym z odcinków

Quark

dysponuje

urządzeniem,

które

w

swoim

otoczeniu

zmienia

prawa

prawdopodobieństwa. Można sobie wyobrazić, jak użyteczne byłoby ono przy jego stołach do

gry, dając mu przewagę; tej pokusie jako Fereng nie mógłby się oprzeć. Podstęp odkrywa

jednak Dax, która przypadkowo analizuje strumień neutrin przepływający przez stację. Ku

swojemu zaskoczeniu zauważa ona, że wszystkie neutrina są lewo-skrętne - to znaczy

wszystkie obracają się w jednym kierunku względem swojego ruchu. Coś musi być nie w

porządku! Wygląda na to, że brakuje neutrin obracających się w przeciwnym kierunku!

Niestety, ze wszystkich zjawisk, jakimi mogli posłużyć się scenarzyści Star Trek, aby

zdemaskować oszustwa Quarka, wybrali wariant, który jest zawsze prawdziwy. O ile nam

wiadomo, neutrina są tylko lewoskrętne! To jedyne znane nam cząstki w przyrodzie, które

mogą istnieć tylko w jednym stanie spinu. A zatem na podstawie wyników swej analizy Dax

miałaby wszelkie powody, aby wierzyć, że wszystko jest w porządku.

Przykład ten jest bardzo przewrotny, przynajmniej dla mnie, z tego samego powodu,

dla którego fizyka świata Star Trek jest tak ciekawa: czasem prawda jest dziwniejsza od

fikcji.

background image

EPILOG

I to by było wszystko, jeśli chodzi o błędy i fizykę. Jeżeli nie wymieniłem Twojego

ulubionego błędu w serialu lub nie nawiązałem do Twojej ulubionej dziedziny fizyki, możesz

przesłać swe uwagi memu wydawcy. Jeśli uzbiera się ich wystarczająco dużo, pomyślimy,

podobnie jak w przypadku serialu Stor Trek, o dalszym ciągu. Mam już nawet tytuł: Fizyka

podróży międzygwiezdnych II: Gniew Kraussa.

Zakończenie książki rozdziałem na temat naukowych nieścisłości w serialu nie miało

na celu przesadnego karcenia twórców Stor Trek. Chciałem raczej pokazać, że podczas

oglądania serialu można się dobrze bawić na wiele sposobów. Jestem pewien, że dopóki

emitowany będzie serial Star Trek, coraz to nowe fizyczne fawc pas będą dostarczać

wszystkim trekkerom - od uczniów szkół średnich do profesorów uniwersytetu - tematów do

rozmów. A dla scenarzystów i producentów wyzwaniem będzie nadążanie za wciąż

poszerzającym swe horyzonty światem fizyki.

Zakończę tę książkę tam, gdzie ją zacząłem: mówiąc nie o błędach, lecz o

możliwościach. Naszą kulturę ukształtowały cuda współczesnej fizyki - do współczesnych

zaliczam tutaj Galileusza i Newtona - na równi z każdym innym wysiłkiem intelektualnym

ludzkości. Obecnie tak się nieszczęśliwie składa, że nauka uważana jest niesłusznie za coś

odrębnego od kultury, lecz w rzeczywistości jest ona żywą częścią składową naszej

cywilizacji. Wyniki badań nad Wszechświatem to najbardziej godne uwagi odkrycia

ludzkiego intelektu i szkoda, że

nie dzieli ich z nami publiczność tak szeroka, jak w przypadku dzieł wielkiej

literatury, malarstwa czy muzyki.

Podkreślając potencjalną rolę nauki w rozwoju rodzaju ludzkiego, Star Trek w

zabawny sposób ukazuje silny związek między nauką i kulturą. Kilkakrotnie wyrażałem

opinię, że nauka XXIII stulecia w bardzo małym stopniu ma szansę przypominać wytwory

wyobraźni scenarzystów Star Trek; przypuszczam, że może okazać się jeszcze wspanialsza.

W każdym razie jestem przekonany, że fizyka dnia dzisiejszego i jutra z pewnością określi

charakter naszej przyszłości, podobnie jak fizyka Newtona i Galileusza ubarwia nasze

istnienie w chwili obecnej. Zostałem naukowcem po części dlatego, że wierzyłem, iż nasz

gatunek obdarzony jest potencjałem, który jeszcze przez długi czas będzie umożliwiał

odkrywanie cudów Wszechświata. Podobny duch ożywia serial Stor Trek. Niech ostatnie

słowo należy do Gene'a Roddenberry'ego. Przy okazji dwudziestopięciole-cia serialu Star

background image

Trek, na rok przed swoją śmiercią, powiedział on: „Człowiek jest niezwykłym stworzeniem o

olbrzymim potencjale i mam nadzieję, że Star Trek pomógł nam uświadomić sobie, jac y

możemy być, jeśli będziemy wierzyć w siebie i w swoje możliwości”.

background image

PODZIĘKOWANIA

Pozostaję dłużnikiem wielu osób, które przyczyniły się do powstania tej książki.

Jestem wdzięczny kolegom fizykom, którzy niezawodnie odpowiadali na prośby o pomoc. W

szczególności dziękuję Stephenowi Hawkingowi za natychmiastową zgodę na napisanie

przedmowy oraz Stevenowi Wein-bergowi, Sheldonowi Glashowowi i Kipowi Thorne'owi za

podzielenie się ze mną swoimi przemyśleniami na temat serialu Star Trek. John Peoples,

dyrektor Narodowego Laboratorium Akceleratorowego im. Enrico Fermiego, umożliwił mi

opisanie sposobu produkcji i przechowywania antymaterii w Fermila-bie. Szczególnie

dziękuję Judy Jackson z administracji Fermi-labu za pomoc i zdjęcia oraz mojemu koledze z

Case Western Reserve University, Cyrusowi Taylorowi, który obecnie pracuje w Fermilabie,

za udzielenie odpowiedzi na różne pytania natury technicznej. Paul Horowitz z Uniwersytetu

Harvarda odpowiedział na moją prośbę o informacje na temat programów SETI oraz META,

które prowadził; otworzył przede mną prawdziwą skarbnicę wiadomości na temat poszukiwań

cywilizacji pozaziemskich oraz dostarczył zdjęcia ilustrujące te badania. George'owi

Smootowi zawdzięczam wspaniałe zdjęcie naszej Galaktyki, wykonane przez COBE, a

Philipowi Taylorowi źródło cytatu dotyczącego solitonów.

Wielu flzyków-trekkerów podzieliło się ze mną swoimi przemyśleniami na temat

praw fizyki w świecie Star Trek. Szczególnie jestem wdzięczny: Markowi Srednickiemu,

Martinowi Whi-te'owi, Chuckowi Rosenblattowi i Davidowi Brahmowi za

wskazanie użytecznych przykładów z serialu. Chciałbym również podziękować

trekkerom, którzy odpowiedzieli na moje pytanie (przesłane pocztą elektroniczną) o ulubione

zagadnienia fizyczne i najciekawsze pomyłki, a zwłaszcza: Scottowi Specko-wi, „Westy'emu”

z NASA, T. J. Goldstelnowi, Denysowi Proteau i J. Dildayowi - za utwierdzenie mnie w

moim własnym wyborze lub zasugerowanie innych użytecznych przykładów. Jestem również

wdzięczny wielu studentom z Case Western Reserve University, a zwłaszcza Ryanowi

Smithowi, za gotowość do udzielania informacji.

Znaczący wkład wnieśli również inni trekkerzy. Chciałbym podziękować Annie

Fortunato za przeczytanie l skomentowanie pierwszych wersji rękopisu i wiele użytecznych

sugestii. Swoją opinię przekazał mi również Mark Landau z wydawnictwa HarperCollins.

Jeffrey Robbins, w tym czasie redaktor w Oxford University Press, był łaskaw wskazać

ważne źródło traktujące o napędzie czasoprzestrzennym. Mój wuj Herb Title, zapalony

trekker, przeczytał rękopis, podobnie jak mój współpracownik Peter Keman. Obydwaj

background image

podzielili się ze mną cennymi uwagami. W wiele fragmentów rękopisu znaczący wkład

wniosła moja żona Kate.

Jestem bardzo wdzięczny Gregowi Sweeneyowi i Janelle Ke-berle za udostępnienie

mi ich kompletnej, skatalogowanej kolekcji kaset wideo ze Star Trek, którymi mogłem

dysponować przez cztery miesiące w czasie pisania tej książki. Miały one dla mnie

podstawowe znaczenie i posługiwałem się nimi nieustannie.

Szczególne podziękowania jestem winien redaktorce z Basic Books, Susan Rabiner,

bez której ta książka nigdy by nie powstała. To Susan ostatecznie przekonała mnie, bym zajął

się tym tematem, i zaraziła tym pomysłem wydawnictwa Basic i HarperCollins. Dziękuję

również Kermitowi Hummelowi, prezesowi Basic Books, za jego poparcie i entuzjazm.

Ostateczny kształt tej książki zależał w znacznym stopniu od wiedzy i umiejętności

korektorki Sary Lipplncott. Wierzę, że liczne godziny spędzone przy faksie i telefonie

znalazły odbicie w jakości tekstu.

Na koniec chciałbym podziękować dziekanowi, pracownikom i studentom College of

Arts and Sciences oraz Wydziału Fizyki Case Western Reserve University za wsparcie, a

często także wyrozumiałość, zwłaszcza w okresie, gdy praca nad książką dobiegała końca.

Przyczynili się oni do utrzymania przyjacielskiej i pełnej zaangażowania atmosfery, która

dodawała mi otuchy, kiedy tego najbardziej potrzebowałem.

Jak zawsze na wiele sposobów wspierała moje wysiłki rodzina. Kate i moja córka

Lilly wiele razy do późna w nocy oglądały odcinki Star Trek, mimo że pewnie wolałyby

wtedy spać.


Wyszukiwarka

Podobne podstrony:
Krauss Lawrence M Fizyka podróży międzygwiezdnych
Krauss M Lawrence Fizyka podróży międzygwiezdnych
Fizyka Podrozy Miedzygwiezdnych Krauss p131
Krauss Fizyka podróży międzygwiezdnych
Podróż Międzyplanetarna (m76)
podróże miedzygwiezdne i grawitacja
245 Lawrence Kim Podróż do Irlandii
UFO, grawitacja i podróże międzygwiezdne
Między fizyką a magią, fizyka, ciekawostki
Przedstawić graficznie i omówić oddziaływania międzyatomowe w ciele stałym, Akademia Morska Szczecin
Kartografowie dziwnych podróży 3, DWUDZIESTOLECIE MIĘDZYWOJENNE
kartografowie dziwnych podróży 4, DWUDZIESTOLECIE MIĘDZYWOJENNE
kartografowie dziwnych podróży 5, DWUDZIESTOLECIE MIĘDZYWOJENNE
lawrence m krauss i glenn d starkman(dalsze losy zycia we ws
30 Struktury zaleznosci miedzy wskaznikami zrow rozw K Chmura
w 3 monitorowanie podróży

więcej podobnych podstron