background image

LAWRENCE M. KRAUSS 

 

 

 

FIZYKA PODRÓŻY 

MIĘDZYGWIEZDNYCH 

( Przełożyli: Ewa L. Łokas; Bogumił Bieniok) 

background image

PRZEDMOWA 

 

Było  ml bardzo  miło,  że  Data  zdecydował się  zaprosić Newtona,  Einsteina  i  mnie  na 

partyjkę pokera na pokładzie kosmicznego statku Enterprise. Miałem okazję zdobyć przewagę 

nad  dwoma  wielkimi  ludźmi  grawitacji,  zwłaszcza  nad  Einsteinem,  który  nie  wierzył  w 

przypadek, czyli w to, że Bóg gra w kości. Niestety, nie udało mi się zabrać ze sobą wygranej, 

ponieważ  musieliśmy porzucić  grę  z powodu alarmu. Kontaktowałem  się później  ze  studiem 

Paramount,  aby  zamienić  żetony  na  gotówkę,  ale  jego  przedstawiciele  nie  znali  kursu 

wymiany. 

Fantastyka  naukowa,  do  której  należy  Star  Trek,  służy  nie  tylko  dobrej  zabawie,  ale 

także  poważniejszym  celom,  takim  jak  rozszerzanie  ludzkiej  wyobraźni.  Być  może  nie 

potrafimy dotrzeć tam,  gdzie nie stanęła dotąd  ludzka stopa, ale  możemy spróbować dokonać 

tego przynajmniej w  wyobraźni. Możemy przewidywać reakcje  ludzkości  na przyszły postęp 

w  nauce  i spekulować  na temat charakteru tego postępu. Wymiana  myśli  między  fantastyką 

naukową  a  nauką  zachodzi  w  obie  strony.  Fantastyka  dostarcza  pomysłów,  które  naukowcy 

włączają do swoich teorii, ale czasami to właśnie nauka stwarza pojęcia, które nie przyszłyby 

do  głowy  żadnemu  autorowi  science  fiction.  Przykładem  są  czarne  dziury,  do  których 

rozgłosu walnie przyczyniła się trafna nazwa  nadana  im przez Johna Archibalda Wheelera. O 

„zamarzniętych  gwiazdach”  lub  „obiektach  całkowicie  zapadniętych  grawitacyjnie”,  jak 

początkowo  nazywano  czarne  dziury,  nie  napisano  by  zapewne  nawet  połowy  tego,  co 

mieliśmy okazję przeczytać. 

Zarówno  Stor  Trek,  jak  i  inne  utwory  fantastycznonaukowe,  poświęcają  szczególnie 

dużo  uwagi  podróżom  z  prędkościami  ponadświetlnymi.  Rzeczywiście,  trudno  wyobrazić 

sobie  bez  nich  fabułę  Star  Trek.  Gdyby  Enterprise  mógł  przemieszczać  się  jedynie  z 

prędkościami choćby niewiele mniejszymi od prędkości światła, podróż do środka Galaktyki i 

z  powrotem  trwałaby  dla  załogi  tylko  kilka  lat,  ale  na  Ziemi  upłynęłoby  w  tym  czasie  80 

tysięcy lat. Nie byłoby mowy o ponownym spotkaniu z rodziną! 

Na  szczęście  ogólna  teoria  względności  Einsteina  stwarza  możliwość  obejścia  tej 

trudności:  można  zakrzywić  czasoprzestrzeń  i  stworzyć  drogę  na  skróty  między  miejscami, 

które chce się odwiedzić. Mimo pojawiających się wtedy problemów z  ujemną energią,  takie 

zakrzywianie  czasoprzestrzeni  może  być  dla  nas  w  przyszłości  wykonalne.  Jak  dotąd  nie 

prowadzono w tej dziedzinie zbyt wielu poważnych badań, po części, jak sądzę, dlatego, że za 

bardzo  przypomina  to  fantastykę  naukową.  Jedną  z  konsekwencji  szybkich  podróży 

background image

międzygwiezdnych  byłaby  możliwość  podróży  wstecz  w  czasie.  Można  sobie  jednak 

wyobrazić krzyk,  jaki  podniosłaby opinia publiczna  w obronie pieniędzy podatników,  gdyby 

ogłoszono,  że  rządowe  agendy  wspierają  finansowo  badania  nad  podróżami  w  czasie. 

Naukowcy  pracujący  w  tej  dziedzinie  muszą  zatem  ukrywać  swoje  prawdziwe 

zainteresowania,  używając technicznych  terminów,  takich jak  „zamknięte krzywe czasowe”, 

które oznaczają po prostu podróże w czasie. Jednakże dzisiejsza  fantastyka  naukowa staje się 

często  naukowym  faktem  jutra.  Fizyka  leżąca  u  podstaw  Star  Trek  jest  niewątpliwie  warta 

zbadania.  Ograniczenie  poszukiwań  do  spraw  czysto  ziemskich  byłoby  równoznaczne  z 

narzucaniem ograniczeń ludzkiemu duchowi. 

STEPHEN HAWKING 

background image

 

WSTĘP 

 

Dlaczego zajmując się fizyką podróży międzygwiezdnych, zagłębimy się w świat Stor 

Trek?  Dzieło  Gene'a  Rodden-berry'ego  jest  przecież  fantastyką  i  nie  przedstawia  faktów 

naukowych. Wiele cudów  techniki w tym serialu odwołuje się  więc  z konieczności do pojęć, 

które  mogą  być  niewłaściwie  zdefiniowane  lub  w  inny  sposób  pozostają  w  sprzeczności  z 

naszą  obecną  wiedzą  o  Wszechświecie.  Nie  chciałem  napisać  książki  poświęconej  tylko 

wyliczeniu kwestii, w których twórcy Star Trek nie mieli racji.  

Nie mogłem jednak uwolnić się od myśli o tej książce. Przyznam się, że tak naprawdę 

oczarował  mnie transporter. Myślenie o tym, jakim  wyzwaniom  należałoby sprostać tworząc 

taką  fantastyczną  technologię,  zmusza  do  rozważenia  szerokiego  wachlarza  tematów:  od 

komputerów  i  przekazu  informacji  po  zagadnienia  fizyki  cząstek  elementarnych,  mechaniki 

kwantowej,  fizyki  jądrowej,  budowy  teleskopów,  zawiłości  biologii,  a  nawet  problem 

istnienia  ludzkiej  duszy!  Do  tego  doszły  jeszcze  takie  pojęcia,  jak  zakrzywiona 

czasoprzestrzeń i podróże w czasie, i tak temat ten wciągnął mnie bez reszty.  

Wkrótce  zdałem  sobie  sprawę,  że  to,  co  było  dla  mnie  tak  fascynujące,  bliskie  jest 

temu,  co  niezmiennie  pociąga  dzisiejszych  wielbicieli  Star  Trek,  prawie  trzydzieści  lat  po 

wyemitowaniu  pierwszego  odcinka  serialu.  Tym  czymś,  jak  to  ujął  Q,  wszechmocny 

żartowniś ze Star Trek, jest „badanie nieznanych możliwości istnienia”. Q zapewne zgodziłby 

się ze mną, że samo wyobrażanie sobie tych możliwości to już dobra zabawa. 

W  przedmowie  do  tej  książki  Stephen  Hawking  stwierdza,  że  fantastyka  naukowa 

pomaga  rozwijać  ludzką  wyobraźnię.  Rzeczywiście,  badanie  nieskończonych  możliwości, 

jakie  niesie  przyszłość  -  łącznie  ze  światem,  w  którym,  przezwyciężywszy  napięcia 

międzynarodowe  i  uprzedzenia rasowe,  ludzkość wyrusza, by w pokoju badać Wszechświat  -

jest  częścią  nie  słabnącego  powodzenia  Stor  Trek.  Ponieważ  wydaje  mi  się  to  istotną  cechą 

cudu współczesnej fizyki, na tych właśnie możliwościach postanowiłem się skoncentrować w 

niniejszej książce. 

Jak  wynika  z  przeprowadzonych  przeze  mnie  pewnego  dnia  nieformalnych  badań  w 

trakcie spaceru po miasteczku uniwersyteckim, liczba ludzi w Stanach Zjednoczonych, którzy 

nie  znają  wyrażenia  „prześlij  mnie,  Scotty”,  jest  w  zasadzie  porównywalna  z  liczbą  ludzi, 

którzy nigdy nie słyszeli o ketchupie. Jeśli weźmiemy pod uwagę, że wystawa na temat statku 

Enterprise,  zorganizowana  przez  Smithsonian  Institution  w  Waszyngtonie,  cieszyła  się 

background image

największym  powodzeniem  w  całej  historii  tamtejszego  Muzeum  Lotnictwa  i  Lotów 

Kosmicznych -większym  nawet, niż pokazywany tam prawdziwy statek kosmiczny  - staje się 

oczywiste,  iż  Star  Trek  jest  dla  wielu  ludzi  symbolem  zaciekawienia  Wszechświatem.  Czy 

istnieje lepszy kontekst, w którym można by przedstawić jedne z najciekawszych teorii fizyki 

dnia  dzisiejszego  i  wskazać,  w  jakim  kierunku  podąży  fizyka  jutra?  Mam  nadzieję,  że  ta 

podróż będzie dla czytelników tej książki równie fascynująca, jak dla mnie.  

Szerokiej drogi! 

background image

CZĘŚĆ I 

KOSMICZNY POKER 

W części tej fizyka amortyzatorów bezwładności 

i wiązek holowniczych przeciera szlak dla podróży w czasie, 

napędu czasoprzestrzennego, deflektorów, 

tuneli czasoprzestrzennych i innych osobliwości czasoprzestrzeni.  

background image

ROZDZIAŁ  I 

OTWARCIE NEWTONA 

Gdziekolwiek pójdziesz, tam będziesz. 

Z tablicy na statku Exctlsior

Star Trek VI: Nieznany kraj 

(prawdopodobnie zapożyczenie z Przygód Buckaroo Banzai) 

 

 

Znajdujesz się  za sterem statku kosmicznego  Defiant (NCC-1764), krążącego  właśnie 

po  orbicie  wokół  planety  Iconia,  w  pobliżu  strefy  neutralnej.  Masz  spotkać  się  na  drugim 

końcu tego układu słonecznego  ze statkiem będącym składem części  zamiennych, by  zdobyć 

części  potrzebne  do  zreperowania  głównych  cewek  zasilających  transporter.  Nie  musisz 

rozwijać prędkości czasoprzestrzennych; ustawiasz tylko  na pełną  moc silnik pulsacyjny, aby 

spokojnie podróżować z prędkością równą połowie prędkości światła. Powinno to wystarczyć 

do osiągnięcia celu w ciągu kilku godzin; w tym czasie będziesz mógł zaktualizować dziennik 

pokładowy. W miarę oddalania się od orbity zaczynasz jednak odczuwać silny ucisk w klatce 

piersiowej. Ręce ci ciążą  i przyklejasz się do  fotela.  Twoje  usta  zamierają  w  grymasie,  masz 

wrażenie,  że  za  chwilę  oczy  wyskoczą  ci  z  orbit,  a  płynąca  w  twoim  cie le  krew  nie  chce 

dochodzić do głowy. Powoli tracisz świadomość... i w ciągu kilku minut umierasz.  

Co  się  stało?  Nie  są  to  pierwsze  oznaki  międzyfazowego  znoszenia  przestrzennego, 

które później obejmie cały statek, ani atak ukrytego dotąd statku romulańskie go. Padłeś ofiarą 

czegoś  znacznie  potężniejszego.  Pomysłowi  twórcy  serialu  Star  Trek,  od  których  jesteś 

uzależniony,  nie  wynaleźli  jeszcze  amortyzatorów  bezwładności;  urządzenia  te  dopiero 

później  zostaną  wprowadzone  do  serialu.  Zostałeś  pokonany  przez  coś  tak  zwykłego,  jak 

prawa  ruchu  Izaaka  Newtona,  o  których  uczymy  się  w  szkole,  lecz  zazwyczaj  szybko 

zapominamy. 

Już  słyszę  głosy  trekkerów:

1

  „Ale  beznadzieja!  Nie  częstuj  mnie  Newtonem. 

Opowiedz  mi  o  czymś  naprawdę  interesującym,  na  przykład  jak  działa  napęd 

czasoprzestrzenny  lub  co  to  za  błysk  pojawia  się  przy  osiąganiu  prędkości 

czasoprzestrzennych  (czy  przypomina  uderzenie  dźwiękowe  przy  przekraczaniu  prędkości 

dźwięku?), albo co  to takiego  ten kryształ dwulitu?” W tej chwili  mogę jedynie powiedzieć, 

                                                                 

1

  W  taki  sposób  mówią  o  sobie  miłośnicy  serialu  Star  Trek.  W  sieci  Internet  znaleźć  mo żna  wie le 

redagowanych przez tre kkerów list dyskusyjnych i stron poświęconych serialowi (p rzyp. tłu m.).  

background image

że  dojdziemy  i  do  tego.  Podróżowanie  po  świecie  Stor  Trek  wiąże  się  z  najbardziej 

niezwykłymi  pojęciami  w  fizyce.  Zetkniemy  się  z  wieloma  różnymi  problemami,  zanim 

będziemy  mogli  zadać  najbardziej  fundamentalne  pytanie  związane  ze  Star  Trek:  czy  coś  z 

tego może zdarzyć się naprawdę, a jeśli tak, to w jaki sposób? 

Zanim  udamy  się  tam,  gdzie  nikt  jeszcze  nie  dotarł  -  zanim  nawet  wyjdziemy  z 

Kwatery  Głównej  Gwiezdnej  Floty  -  musimy  stawić  czoło  tym  samym  zagadnieniom,  z 

którymi  ponad  trzysta  lat  temu  zmagali  się  Galileusz  i  Newton.  W  przeciwnym  razie  nigdy 

nie  uda  nam  się  rozstrzygnąć  kosmicznego  pytania,  tkwiącego  u  źródeł  wizji  Gene'a 

Roddenberry'ego,  twórcy  Star  Trek:  co,  na  podstawie  współczesnej  nauki,  możemy 

powiedzieć na temat przyszłości naszej cywilizacji? Pytanie to leży u podstaw tej książki.  

Każdy,  kto  kiedykolwiek  znajdował  się  w  samolocie  lub  szybkim  samochodzie,  zna 

uczucie  wgniatania  w  fotel,  gdy pojazd  rusza  z dużym przyspieszeniem.  Zjawisko  to jeszcze 

silniej  daje  się  odczuć  na  pokładzie  statku  kosmicznego.  Reakcje  syntezy  w  silniku 

pulsacyjnym  wytwarzają olbrzymie ciśnienia, które  wypychają  z dużymi prędkościami  gazy  i 

promieniowanie ze statku. To właśnie siła reakcji wywierana na silniki przez uciekający gaz i 

promieniowanie  powoduje  „odrzut”  w  przód.  Ponieważ  statek  jest  połączony  z  silnikami, 

również zostaje „odrzucony”. Także osoba siedząca przy sterach jest popychana do przodu za 

sprawą siły wywieranej przez fotel na ciało, które z kolei działa taką samą siłą na fotel.  

I  tu  właśnie  tkwi  sedno  sprawy.  Młotek  uderzający  z  dużą  prędkością  w  Twoją 

czaszkę działa z siłą, która może okazać się śmiertelna. Na podobnej zasadzie może Cię zabić 

fotel,  na  którym  siedzisz,  jeśli  siła,  którą  zadziała  on  na  Twoje  ciało,  będzie  zbyt  wielka. 

Piloci samolotów odrzutowych i statków kosmicznych nazywają siły, jakim poddawane są  ich 

ciała  w  trakcie  dużych  przyspieszeń  (w  samolocie  lub  podczas  wystrzeliwania  statku 

kosmicznego) siłami G.  Mogę je opisać posługując się przykładem swoich bolących pleców. 

Kiedy  pracuję  na  komputerze,  zawsze  czuję  nacisk  krzesła  na  pośladki  -  presję,  z  którą 

nauczyłem  się  żyć  (choć,  mógłbym  dodać,  moje  pośladki  reagują  na  to  w  bardzo 

niehigieniczny sposób). Siła działająca na moje pośladki ma swoje źródło w grawitacji, która, 

gdyby nic jej nie przeciwdziałało, spowodowałaby mój ruch w kierunku Ziemi. Powstrzymuje 

mnie  przed  tym  -  czyli  przed  upadkiem  na  podłogę  -  Ziemia,  wywierając  skierowaną 

przeciwnie  siłę  na  żelbetonową  konstrukcję  mojego  domu,  która  działa  siłą  skierowaną  ku 

górze na drewnianą podłogę mojego gabinetu na pierwszym piętrze; z kolei pod łoga działa na 

krzesło,  wywierające  siłę  na  tę  część  mojego  ciała,  która  znajduje  się  z  nim  w  kontakcie... 

Gdyby  Ziemia  miała  dwa  razy  większą  masę,  ale  taką  samą  średnicę,  nacisk  wywierany  na 

moje pośladki byłby dwa razy  większy. Siły  skierowane ku  górze  musiałyby być dwukrotnie 

background image

większe, aby zrównoważyć siłę grawitacji. 

Te same  czynniki  należy  wziąć pod  uwagę  w przypadku podróży kosmicznych. Jeśli 

siedzisz  w  fotelu  kapitana  i  wydajesz  polecenie  przyspieszenia  statku,  musisz  wziąć  pod 

uwagę  siłę,  z  jaką  będzie  na  Ciebie  oddziaływał  fotel.  Gdy  zwiększysz  przyspieszenie 

dwukrotnie, działająca  na Ciebie siła również wzrośnie dwa razy. Im większe przyspieszenie, 

tym  większa  siła.  Jedyny  problem  polega  na  tym,  że  żaden  materiał  -  a  już  na  pewno  nie 

Twoje  ciało  -  nie  wytrzyma  działania  siły  potrzebnej  do  przyspieszenia  statku  do  prędkości 

pulsacyjnych. 

Ten sam problem pojawia się  wielokrotnie  w serialu Stor  Trek,  nawet  wówczas,  gdy 

akcja  filmu  dzieje  się  na  Ziemi.  Na  początku  Star  Trek  V:  Ostateczna  granica  James  K irk, 

bawiący  na  wakacjach  w  Parku  Narodowym  Yosemite,  wspina  się  bez  asekuracji.  Nagle 

potyka  się  i  spada.  Spock,  który  ma  na  sobie  buty  rakietowe,  pędzi  na  ratunek  i  chwyta 

kapitana,  gdy  ten  znajduje  się  już  metr  czy  dwa  nad  ziemią.  Niestety,  jest  to  jede n  z  tych 

przypadków, kiedy rozwiązanie  może być tak samo  fatalne w skutkach, jak sam problem. To 

właśnie  proces  hamowania  na  dystansie  kilku  centymetrów  może  być  śmiercionośny, 

niezależnie od tego, czy spada się na Ziemię czy w objęcia Spocka Vulcana.  

Zanim  jeszcze  pojawią  się  siły  reakcji,  które  rozerwą  lub  połamią  Twoje  ciało,  na 

scenę  wkroczą  inne  poważne  fizjologiczne  problemy.  Co  najważniejsze,  Twoje  serce  nie 

będzie już  mogło pompować krwi  wystarczająco silnie, aby docierała ona do  głowy. Dlatego 

właśnie  piloci  wojskowi  czasami  tracą  świadomość  w  trakcie  wykonywania  manewrów 

wymagających  dużych  przyspieszeń.  Aby  temu  zapobiec,  wynaleziono  nawet  specjalne 

skafandry wymuszające przepływ krwi  z  nóg pilotów. Te  zaburzenia  fizjologiczne są  jednym 

z  czynników,  które  należy  wziąć  pod  uwagę  przy  określaniu,  jak  wielkie  może  być 

przyspieszenie współczesnego statku kosmicznego.  Dlatego  też NASA  nigdy  nie wystrzeliła 

na  orbitę  ludzi  z  wielkiej  armaty,  jak  proponował  Juliusz  Verne  w  powieści  Podróż  na 

Księżyc. 

Jeśli  chcę  przyspieszyć  rakietę  od  stanu  spoczynku  do,  powiedzmy,  150  tyś.  Km/s, 

czyli do połowy prędkości światła,  muszę to  robić stopniowo  - tak, by  moje ciało  nie  uległo 

rozerwaniu. Abym  uniknął wgniatania w  fotel  z siłą większą  niż 3G,  moje przyspieszenie  nie 

może przekroczyć trzykrotnej wartości przyspieszenia, z jakim przedmioty spadają na ziemię. 

W tym tempie osiągnięcie połowy prędkości światła zajęłoby około 5 milionów sekund, czyli 

blisko 2,5 miesiąca! Nie byłoby to ekscytujące wydarzenie. 

Wkrótce  po  wyprodukowaniu  pierwszego  statku  kosmicznego  klasy  konstytucyjnej  - 

Enterprise (NCC-1701) - autorzy Star  Trek  musieli odpowiedzieć  na krytykę dotyczącą tego, 

background image

że olbrzymie przyspieszenia  na pokładzie statku kosmicznego powinny  zmieniać jego załogę 

w  marmoladę

2

.  Aby  rozwiązać  ten  problem,  wynaleźli  „amortyzatory  bezwładności”,  rodzaj 

kosmicznych pochłaniaczy  uderzenia, bardzo przemyślne  urządzenie,  zaprojektowane  w celu 

rozwiązania tego dokuczliwego problemu. 

Amortyzatory bezwładności  najłatwiej  zauważyć,  gdy  ich  nie  ma. Na przykład statek 

Enterprise  ledwie  uniknął  zniszczenia  po  utracie  kontroli  nad  swoimi  amortyzatorami 

bezwładności,  kiedy  elektroniczne  formy  życia,  znane  jako  Nanici,  zaczęły,  w  ramach 

swojego  procesu  ewolucyjnego,  chrupać  pamięć  centralnego  komputera  statku.  Łatwo 

zauważyć,  że  prawie  każdą  katastrofę  Enterprise  (która  zdarza  się  zwykle  w  najmniej 

odpowiedniej chwili) poprzedza awaria amortyzatorów bezwładności. Skutki podobnej  utraty 

kontroli  na  romulan-skim statku Wdrbird  umożliwiły  nam przekonanie się,  że krew Romulan 

jest zielona. 

Niestety,  podobnie  jak  w  przypadku  większości  technologii  we  wszechświecie  Stor 

Trek,  o  wiele  łatwiej  jest  opisać  problem,  który  rozwiązują  amortyzatory  bezwładności,  niż 

dokładnie  wyjaśnić,  jak  mogłyby  one  działać.  Pierwsze  Prawo  Fizyki  Star  Trek  musi  więc 

brzmieć:  im  bardziej  podstawowy  jest  problem,  który  chce  się  rozwiązać,  tym  bardziej 

niezwykłe  musi  być  rozwiązanie.  Przyczyną,  dla  której  doszliśmy  tak  daleko  i  dla  której 

możemy w ogóle spodziewać się przyszłości takiej, jaką pokazano w Star Trek, jest specyfika 

fizyki, która rozwija się odwołując się do własnych podstaw. Przyszłość będzie więc  musiała 

poradzić  sobie  nie  tylko  z  danym  problemem  w  fizyce,  ale  także  z  każdym  fragmentem 

wiedzy fizycznej, który wiąże się z tym właśnie problemem. Postęp w fizyce dokonuje się nie 

dzięki  rewolucjom,  które  znoszą  wszystko,  co  było  przedtem,  ale  drogą  ewo lucji,  która 

wykorzystuje  to,  co  najlepsze  w  dotychczasowym  rozumieniu  świata.  Prawa  Newtona  będą 

tak  samo  prawdziwe  za  milion  lat  jak  obecnie,  bez  względu  na  to,  jak  dalece  rozszerzymy 

granice  nauki.  Upuszczona piłka  zawsze spadnie  na  ziemię.  Jeśli będę s iedział przy biurku  i 

pisał przez całą wieczność, moje pośladki zawsze będą tak samo cierpiały.  

Czego by  nie powiedzieć,  nie byłoby  w porządku,  gdybyśmy  zostawili  amortyzatory 

bezwładności  bez  jakiegokolwiek  dokładniejszego  opisu  ich  działania.  Jak  już  wcześniej 

stwierdziłem,  muszą  one  tworzyć  wewnątrz  statku  kosmicznego  sztuczny  świat,  w  którym 

znika siła  reakcji  na siłę przyspieszającą. Przedmioty  znajdujące się wewnątrz statku  zostają 

                                                                 

2

 

Michael Okuda, Denise Okuda,  Debbie  Mirak:  The Star  Trek  Encyclopedia, Pocket  Books, 

Nowy Jork 1994. 

 

background image

„oszukane”; mają zachowywać się tak, jak gdyby nie było przyspieszenia. Opisywałem już, w 

jaki  sposób  przyspieszenie  imituje  grawitację.  Związek  ten,  który  stał  się  podstawą  ogólnej 

teorii względności Einsteina, jest o wiele głębszy, niż mogłoby się wydawać na pierwszy rzut 

oka.  Amortyzatory  bezwładności  mogą  więc  działać  tylko  na  jednej  zasadzie:  muszą 

wytwarzać wewnątrz statku sztuczne pole grawitacyjne, które znosi siły reakcji.  

Nawet, jeśli przyjmiemy  tę  możliwość, pozostają  jeszcze  inne praktyczne sprawy, jak 

choćby to,  że włączenie się amortyzatorów bezwładności po pojawieniu się  nieoczekiwanego 

impulsu wymaga czasu. Kiedy  na przykład  Enterprise został  uwięziony w pętli przyczynowej 

przez  Bozemana,  gdy  ten  ostatni  wynurzał  się  z  zakrzywienia  czasowego,  załoga  została 

rozrzucona  po  całym  obszarze  mostka  (zanim  jeszcze  nastąpiła  awaria  napędu 

czasoprzestrzennego i amortyzatorów). W opisie technicznym Enterprise wyczytałem, że czas 

reakcji  amortyzatorów bezwładności  wynosi około 60  milisekund

3

. Wydaje się on krótki, ale 

takie  opóźnienie  podczas  zaprogramowanych  okresów  przyspieszania  wystarczyłoby,  żeby 

Cię zabić. Aby się o tym przekonać, pomyśl, ile czasu potrzebuje spadający z wysoka młotek, 

by rozbić ci głowę, lub ziemia, by zabić człowieka spadającego ze stromego urwiska w Parku 

Narodowym  Yosemite?  Wystarczy  pamiętać,  że  zderzenie  z  prędkością  20  km/h  jest 

równoważne kolizji biegacza z murem z cegieł! Lepiej więc, żeby amortyzatory bezwładności 

miały  krótki  czas  reakcji.  Kilku  znajomych  trekkerów  zauważyło,  że  kiedy  statek  zostaje 

uderzony, nikogo z załogi nie odrzuca na odległość większą niż parę metrów.  

Zanim opuścimy znany świat fizyki klasycznej, chciałbym wspomnieć o innym cudzie 

technologii, który, aby działać,  musi brać pod uwagę prawa Newtona, a mianowicie o wiązce 

holowniczej na Enterprise. Odegrała ona pewną rolę w czasie ratowania kolonii Genomów na 

Moabie  IV,  odchylając  zbliżający  się  fragment  jądra  gwiazdy,  a  także  w  podobnej  próbie, 

(choć  zakończonej  niepowodzeniem)  uratowania  Bre'ela  IV  przez  skierowanie 

planetoidalnego  księżyca  z  powrotem  na  orbitę.  Na  pierwszy  rzut  oka  wiązka  holownicza 

wygląda  prosto  -  mniej  więcej  tak  jak  niewidzialna  lina  lub  wędka  -  nawet  jeśli  wywierana 

przez  nią  siła  jest  niezwykła.  Podobnie  jak  mocna  lina,  wiązka  holownicza  świetnie  sobie 

radzi  z  wciąganiem  wahadłowca,  holowaniem  innego  pojazdu  lub  zapobieganiem  ucieczce 

wrogiego  statku  kosmicznego.  Jedyny  problem  polega  na  tym,  że  kiedy  ciągniemy  coś  na 

linie,  musimy  się  uczepić  Ziemi  lub  innego  ciężkiego  przedmiotu.  Każdy,  kto  kiedykolwiek 

jeździł  na  łyżwach,  wie, co się dzieje,  gdy  znajdujemy się  na  lodzie  i próbujemy odepchnąć 

                                                                 

3

  Ric k  Ste mbach,  Michael  Okuda:  Star  Tre k:  The  Ne xt  Gene ration  -  Technical  Manual,  Pocket  Books,  Nowy 

Jork 1991. 

background image

kogoś  od  siebie.  Udaje  nam  się  rozdzielić,  ale  bez  punktu  zaczepienia  stajemy  się  bezradną 

ofiarą własnej bezwładności. 

Ta właśnie zasada skłoniła kapitana Jeana-Luca Picarda w odcinku pod tytułem Bitwa 

do  wydania  polecenia  porucznikowi  Rikerowi,  aby  wyłączył  wiązkę  holowniczą;  Picard 

zauważył,  że  holowany statek będzie przemieszczał się obok  nich dzięki swojemu  własnemu 

pędowi  -  własnej  bezwładności.  Na  tej  samej  zasadzie,  gdyby  Enterprise  spróbował  użyć 

wiązki  holowniczej do oddalenia od  siebie Stargazera, powstała  siła popchnęłaby  Enterprise 

do tyłu tak samo, jak Stargazera do przodu. 

To  zjawisko  ma  duży  wpływ  na  sposób,  w  jaki  obecnie  pracuje  się  w  przestrzeni 

kosmicznej.  Załóżmy  na  przykład,  że  jesteś  astronautą,  który  ma  dokręcić  śrubę  w 

Kosmicznym Teleskopie Hubble'a. Jeśli zabierzesz ze sobą w tym celu śrubokręt elektryczny, 

po  dotarciu  na  miejsce  może  Cię  czekać  niemiła  niespodzianka.  To,  że  uda  Ci  się  dokręcić 

śrubę, jest tak samo prawdopodobne jak to, że Ty sam zaczniesz się wtedy obracać.  

Dzieje  się  tak  dlatego,  że  teleskop  Hubble'a  jest  o  wiele  cięższy  od  Ciebie.  Kiedy 

śrubokręt  działa  pewną  silą  na  śrubę,  silą  reakcji,  jaką  odczuwasz,  obróci  raczej  Ciebie  niż 

śrubę,  zwłaszcza  Jeśli  śruba  trzyma  się  dość  mocno.  Jeśli  jednak  -  podobnie  jak  zabójcy 

Kanclerza Gorkona - jesteś szczęśliwym posiadaczem butów grawitacyjnych, które utrzymują 

Cię pewnie na każdym podłożu, możesz się przemieszczać tak samo skutecznie jak na Ziemi.  

Można też zobaczyć, co się stanie, gdy Enterprise spróbuje przyciągnąć do siebie inny 

statek kosmiczny. O  ile  Enterprise  nie  jest  znacznie cięższy od  tego statku, po  włączeniu  się 

wiązki  holowniczej  to  on  będzie  się  przysuwał  do  drugiego  obiektu,  a  nie  odwrotnie.  W 

przestrzeni  kosmicznej  to  rozróżnienie  nie  ma  wielkiego  znaczenia.  Bez  znajdującego  się  w 

pobliżu  układu  odniesienia  skąd  możemy  wiedzieć,  kto  kogo  ciągnie?  Jeżeli  znajdujesz  się 

jednak na planecie tak pechowej, jak Moab IV,  na drodze  zagubionej gwiazdy, to nie jest bez 

znaczenia., czy Enterprise odsuwa na bok gwiazdę, czy gwiazda statek.  

Jeden  z  moich  znajomych  trekkerów  utrzymuje,  że  sposób  obejścia  tego  problemu 

został  już  pośrednio  zasugerowany  przynajmniej  w  jednym  odcinku:  gdyby  Enterprise  użył 

swoich  silników  pulsacyjnych,  kiedy  włączona  jest  wiązka  holownicza,  działając  w 

przeciwnym kierunku siłą swoich  silników  mógłby skompensować wywieraną  nart  siłę,  gdy 

jest ciągnięty  lub na coś pchany. Jak twierdzi ów trekker, powiedziano  gdzieś, że aby wiązka 

holownicza  mogła  działać,  musi  być  uruchomiony  napęd  pulsacyjny.  Nigdy  jednak  nie 

zauważyłem,  by  Kirk  lub  Picard  wydawali  polecenie  włączenia  silników  pulsacyjnych  w 

trakcie  używania  wiązki  holowniczej.  Poza  tym  nie  sądzę,  aby  społeczeństwo,  które  potrafi 

zaprojektować  i  zbudować  amortyzatory  bezwładności,  potrzebowało  takich  siłowych 

background image

rozwiązań.  Pamiętając  o  tym,  że  Geordi  LaForge  musiał  zakrzywić  czasoprzestrzeń,  aby 

spróbować  cofnąć  księżyc  Bre'ela  IV,  sądzę,  że  ostrożna  -  choć  na  razie  nieosiągalna  - 

manipulacja  przestrzenią  i  czasem  równie  skutecznie  pomogłaby  wykonać  to  zadanie.  Aby 

lepiej to zrozumieć,  musimy  użyć amortyzatorów bezwładności  i przeskoczyć jak najszybciej 

do współczesnego świata zakrzywionej przestrzeni i czasu. 

background image

ROZDZIAŁ 2 

EINSTEIN PODNOSI STAWKĘ 

Pewna młoda dama imieniem Aurora 

Gdy nie pędziła szybciej od światła, była chora. 

Kiedy razu pewnego w podróż wyjechała, 

Na relatywny sposób się zdecydowała 

i powróciła poprzedniego wieczora. 

ANONIM 

 

 

„Czas,  ostateczna  granica”  -  tak  lub  podobnie  powinien  zaczynać  się  każdy  odcinek 

serialu  Star  Trek.  Trzydzieści  lat  temu,  w  klasycznym  odcinku  Jutro  będzie  wczoraj, 

Enterprise  rozpoczął  podróże  w  czasie.  (Właściwie  już  pod  koniec  wcześniejszego  odcinka 

Nagi czas statek  zostaje przerzucony  w czasie o  trzy dni  wstecz  - jest  to jednak podróż  tylko 

w  jedną  stronę).  W  wyniku  bliskiego  spotkania  z  „czarną  gwiazdą”  (termin  „czarna  dziura” 

nie  funkcjonował  jeszcze  wtedy  w  kulturze  masowej)  statek  przenosi  się  na  Ziemię  XX 

wieku. Dziś pojęcia tak niezwykłe, jak „tunele czasoprzestrzenne” i „osobliwości kwantowe”, 

pojawiają  się  regularnie  w odcinkach  najnowszej serii Star  Trek:  Voyager.  Dzięki  Albertowi 

Einsteinowi  i  tym,  którzy  poszli  jego  śladem,  tkanina  czasoprzestrzeni  utkana  jest  z 

dramatów. 

Chociaż każdy  z  nas jest podróżnikiem w  czasie, przekonanie,  iż  jesteśmy skazani  na 

podróż tylko w jednym kierunku -w przyszłość - podnosi  historię  ludzkości do rangi  tragedii. 

Czego  byśmy  nie  dali  za  możliwość  podróży  w  przeszłość,  ponownego  przeżycia  chwil 

chwały,  naprawienia  błędów,  spotkania  historycznych  bohaterów,  a  może  nawet  uniknięcia 

katastrof  lub  po  prostu  powtórnego  przeżycia  młodości,  korzystając  z  nabytej  z  wiekiem 

mądrości? Podróże w  czasie przychodzą  nam  na  myśl  za każdym  razem,  gdy spoglądamy w 

gwiazdy,  ale  wydaje  się,  że  jesteśmy  na  stałe  uwięzieni  w  teraźniejszości.  Pytanie,  które 

inspiruje  nie  tylko  twórczość  dramatyczną,  ale  i  zadziwiająco  dużą  część  badań  we 

współczesnej  fizyce  teoretycznej,  można  sformułować  następująco:  Jesteśmy  czy  nie 

Jesteśmy więźniami w kosmicznym pociągu czasu, który nie może zmieniać toru?  

Początki nowoczesnego gatunku literackiego, który nazywamy fantastyką naukową, są 

ściśle  związane  z  motywem  podróży  w  czasie.  Wczesny  utwór  Marka  Twaina  Jankes  na 

dworze króla Artura  jest bardziej beletrystyką niż  fantastyką  naukową,  mimo  że treść książki 

background image

obraca  się  wokół  przygód  wynikających  z  przeniesienia  nieszczęsnego  Amerykanina  do 

średniowiecznej  Anglii.  (Być  może  Twain  nie  zastanawiał  się  szczególnie  nad  naukowymi 

aspektami  podróży  w  czasie,  gdyż  obiecał  Picardowi  na  pokładzie  Enterprise,  że  nie  opisze 

swojego  spojrzenia  w  przyszłość,  kiedy  już  powróci  do  dziewiętnastego  stulecia, 

przeskakując  przez  szczelinę  czasową  na  Devidii  II,  w  odcinku  Strzałka  czasu).  Dopiero 

niezwykłe dzieło H. G. Wellsa Wehikuł czasu stworzyło paradygmat, na którym oparł się Stor 

Trek,  Wells  był  absolwentem  Imperiał  College  of  Science  and  Technology  w  Londynie  i 

rozmowy  jego  bohaterów,  podobnie  jak  wypowiedzi  załogi  Enterprise,  przesiąknięte  są 

językiem naukowym. 

Te odcinki  serialu Star Trek, które opowiadają o podróżach  w czasie, są niewątpliwie 

najbardziej  twórcze  i  zmuszają  do  myślenia.  W  pierwszych  dwóch  seriach  doliczyłem  się 

ponad  dwudziestu  dwóch  odcinków  zajmujących  się  tym  tematem.  Podobnie  jest  w  trzech 

pełnometrażowych  filmach  Star  Trek  oraz  w  odcinkach  z  serii  Voyager  i  Stacja  kosmiczna, 

które wyemitowano do chwili obecnej. Jeśli chodzi o Stor Trek, prawdopodobnie  najbardziej 

fascynującym  aspektem  podróży  w  czasie  jest  niechęć  do  łamania  Najwyższego  Zakazu. 

Załogi  Gwiezdnej  Flory  przestrzegane  są  przed  ingerencją  w  normalny  historyczny  rozwój 

obcych  cywilizacji,  które  odwiedzają.  Cofnięcie  się  w  czasie  umożliwia  jednak  całkowitą 

likwidację teraźniejszości. Może nawet całkowicie zniweczyć historię! 

Zarówno  w  literaturze  fantastycznonaukowej,  jak  i  w  fizyce,  pojawia  się  ten  sam 

słynny  paradoks:  co  się  stanie,  jeśli  cofniesz  się  w  czasie  i  zabijesz  swoją  matkę  przed 

własnymi  narodzinami?  Niewątpliwie  przestaniesz  wtedy  istnieć.  Ale  jeśli  przestaniesz 

istnieć, nie będziesz mógł wrócić i zabić swojej matki. Skoro zaś nie zabiłeś swojej matki, nie 

przestałeś istnieć. Innymi słowy, jeśli istniejesz, to nie możesz istnieć, a jeśli nie istniejesz, to 

musisz istnieć. 

Są  jeszcze  inne,  mniej  oczywiste,  ale  równie  dramatyczne  i  zdumiewające  pytania, 

które piętrzą się,  gdy  zaczynamy  myśleć o podróżach  w czasie. Na przykład  w  zakończeniu 

Strzałki czasu Picard pomysłowo wysyła wiadomość z XIX do XXIV wieku - wprowadza kod 

binarny  do  głowy  Daty,  wiedząc,  że  zostanie  ona  odnaleziona  i  połączona  z  jego  ciałem 

prawie  pięć  wieków  później.  Patrzymy,  jak  wpisuje  wiadomość,  a  następnie  widzimy 

LaForge'a, który w XXIV stuleciu przytwierdza Dacie głowę. Widzowi te wydarzenia wydają 

się  jednoczesne, ale takie  nie są; po tym, jak Picard  wprowadza  wiadomość do  głowy  Daty, 

leży ona  jeszcze przez pół tysiąclecia.  Ale jeśli badam  głowę Daty w XXIV wieku, a Picard 

nie  odbył  jeszcze  podróży  w  przeszłość,  aby  zmienić  przyszłość,  czy  mógłbym  taką 

wiadomość  odczytać?  Można  by  się  spodziewać,  że  jeśli  Picard  nie  odbył  jeszcze  podróży, 

background image

nie  mogła  ona  mieć  wpływu  na  głowę  Daty.  Jednak  działania  zmieniające  oprogramowanie 

Daty  zostały  podjęte  w  XIX  wieku,  bez  względu  na  to,  kiedy  Picard  wyruszył  w  podróż  w 

czasie, aby je wykonać. A więc to już się stało, nawet jeśli Picard jeszcze nie wyruszył! W ten 

sposób przyczyna  w  XIX wieku (wprowadzanie kodu przez Picarda)  może wywołać efekt w 

dwudziestym  czwartym stuleciu  (zmiana obwodów elektrycznych  Daty),  zanim przyczyna w 

XXIV  wieku  (wyprawa  Picarda)  wywoła  skutek  w  dziewiętnastym  stuleciu  (przybycie 

Picarda do jaskini, gdzie znajduje się głowa Daty), który pozwoli, aby początkowa przyczyna 

(wprowadzenie kodu przez Picarda) w ogóle miała miejsce.  

Jeśli  powyższe  rozumowanie  jest  niejasne,  to  co  powiedzieć  o  największym  ze 

wszystkich  paradoksów  czasowych,  który  pojawia  się  w  ostatnim  odcinku  serii  Stor  Trek: 

Następne pokolenie. 

Picard zapoczątkowuje w nim łańcuch wydarzeń, które cofną się w czasie i unicestwią 

nie  tylko  jego  przodków,  ale  i  całe  życie  na  Ziemi.  Dokładniej,  „podprzestrzenne 

zakrzywienie czasu” związane z „antyczasem” narasta wstecz w czasie, pochłaniając w końcu 

zbudowaną  z aminokwasów protoplazmę  na  młodej  Ziemi,  zanim jeszcze powstaną pierwsze 

proteiny  -  cegiełki,  z  których  zbudowane  są  żywe  organizmy.  Jest  to  jaskrawy  przykład 

skutku  powodującego  przyczynę.  Zakrzywienie  czasu  powstaje  w  przyszłości.  Gdyby  w 

odległej  przeszłości  podprzestrzenne  zakrzywienie  czasu  zniszczyło  pierwsze  żywe 

organizmy na Ziemi, życie nigdy nie mogłoby się rozwinąć i zbudować cywilizacji zdolnej do 

wytwarzania takich zakrzywień w przyszłości! 

Popularnym  wśród  wielu  fizyków  typowym  rozwiązaniem  takich  paradoksów  jest 

przyjęcie  a  priori,  że  w  racjonalnym  wszechświecie,  podobnym  do  tego,  w  którym  żyjemy, 

takie  wydarzenia  są  niemożliwe.  Problem  polega  na  tym,  że  równania  ogólnej  teorii 

względności Einsteina nie tylko nie wykluczają takich możliwości, lecz wręcz je przewidują.  

W ciągu  trzydziestu  lat badań  nad równaniami ogólnej teorii  względności  znaleziono 

rozwiązanie,  w którym wyraźnie pojawia się  możliwość podróży  w czasie. Jego autorem jest 

słynny  matematyk Kurt  Godel, który pracował razem  z  Einsteinem  w Institute  for  Advanced 

Study  w  Princeton.  Mówiąc  językiem  Star  Trek,  rozwiązanie  to  pozwala  na  stworzenie 

„czasowej pętli przyczynowej”, analogicznej do tej, w jaką został złapany Enterprise po ataku 

Bozemana.  Bardziej  sucha  terminologia  współczesnej  fizyki  określa  to  zjawisko  jako 

„zamkniętą  krzywą  czasową”.  Jakkolwiek  je  nazwiemy,  wynika  z  niego  możliwość 

podróżowania w czasie w obie strony i powracania do punktu wyjścia zarówno w przestrzeni, 

jak  i  w  czasie!  Rozwiązanie  Godła  dotyczy  wszechświata,  który,  w  przeciwieństwie  do 

znanego  nam,  nie  rozszerza  się,  ale  jednostajnie  obraca.  Okazuje  się,  że  w  takim 

background image

wszechświecie  w  zasadzie  można  cofnąć  się  w  czasie,  zataczając  jedynie  duże  koło  w 

przestrzeni. Choć ten hipotetyczny wszechświat dramatycznie różni się od  naszego, sam  fakt, 

że  takie  rozwiązanie  w  ogóle  istnieje,  wskazuje  jasno,  że  ogólna  teoria  względności 

dopuszcza podróże w czasie. 

Istnieje pewna maksyma o Wszechświecie, którą zawsze przekazuję moim studentom: 

To,  co  nie  jest  jawnie  zakazane,  na  pewno  się  zdarzy,  lub,  jak  powiedział  Data  w  odcinku 

Wszechświaty równolegle, mając na myśli prawa mechaniki kwantowej: „wszystkie zjawiska, 

które  mogą  zajść,  zachodzą”.  Sądzę,  że  w  tym  duchu  należy  podchodzić  do  praw  fizyki 

rządzących światem Star Trek. Powinniśmy rozróżniać nie miedzy tym, co praktyczne, a tym, 

co niepraktyczne, lecz między tym, co możliwe, a tym, co niemożliwe.  

Fakt  ten  oczywiście  nie  pozostał  nie  zauważony  przez  samego  Einsteina,  który 

napisał:  „Problem [rozwiązania] Kurta  Godła [dopuszczającego podróże w czasie]  niepokoił 

mnie  już  podczas  tworzenia  ogólnej  teorii  względności  i  nie  udało  mi  się  go  wyjaśnić.  [...] 

Interesujące  będzie  rozważenie,  czy  rozwiązań  tych  nie  należy  wykluczyć  ze  względów 

fizycznych”. 

Od tej pory wyzwaniem dla fizyków stało się określenie konsekwencji istnienia takich 

„fizycznych  powodów”,  które  wykluczałyby  możliwość  podróży  w  czasie,  przewidywanych 

przez  równania  ogólnej  teorii  względności.  Aby  przedyskutować  te  problemy,  będziemy 

musieli  wyjść poza klasyczny świat  teorii  względności  i wkroczyć  w  mroczny obszar,  gdzie 

mechanika  kwantowa  decyduje  o  naturze  przestrzeni  i  czasu.  Po  drodze,  podobnie  jak 

Enterprise,  napotkamy  czarne  dziury  i  tunele  czasoprzestrzenne.  Najpierw  jednak  musimy 

przenieść się w czasie do drugiej połowy XIX wieku. 

Mariaż  przestrzeni  i  czasu,  który  ogłosił  nadejście  ery  nowoczesności,  rozpoczął  się 

wraz  z  połączeniem  zjawisk  elektryczności  i  magnetyzmu  w  1864  roku.  To  niezwykłe 

osiągnięcie  intelektualne,  u  podstaw  którego  legł  wspólny  wysiłek  takich  wielkich  fizyków, 

jak  Andre-Marie  Ampere,  Charles-Augustin  de  Coulomb  i  Michael  Faraday,  zostało 

uwieńczone przez błyskotliwego fizyka brytyjskiego Jamesa Gierka Maxwella. Odkrył on nie 

tylko, że prawa elektryczności i magnetyzmu są ze sobą ściśle związane, ale że wynika z nich 

istnienie  fal  elektromagnetycznych,  które  powinny  poruszać  się  w  przestrzeni  z  określoną 

prędkością,  wynikającą  ze  znanych  własności  elektryczności  i  magnetyzmu.  Prędkość  ta 

okazała się równa prędkości światła, którą zmierzono już wcześniej.  

Od  czasów  Newtona  spierano  się  o  to,  czy  światło  jest  falą  -  to  znaczy 

przemieszczającym  się  w  pewnym  ośrodku  zaburzeniem  -  czy  też  cząstką,  która  podróżuje 

niezależnie od obecności ośrodka. Odkrycie fal elektromagnetycznych i tego, że poruszają się 

background image

one z prędkością światła, zakończyło tę debatę: światło okazało się falą elektromagnetyczną.  

Każda  fala  jest  po  prostu  przemieszczającym  się  zaburzeniem.  Jeśli  światło  to 

zaburzenie elektromagnetyczne, czym w takim razie jest ośrodek, który ulega zaburzeniu, gdy 

rozchodzi się w nim fala? Pod koniec XIX wieku wiele uwagi poświęcono temu problemowi. 

Ośrodek  ów  miał  już  swoją  nazwę  od  czasów  Arystotelesa.  Nazywano  go  eterem,  ale 

wszystkie próby jego bezpośredniego wykrycia kończyły się  niepowodzeniem. W roku 1887 

Albert A. Michelson  i  Edward Morley (pracujący w  instytucjach, które połączyły się w 1967 

roku, tworząc Case Western Reserve University - obecne miejsce mojej pracy) przeprowadzili 

eksperyment,  gwarantujący  wykrycie  nie  tyle  samego  eteru,  co  efektów  jego  istnienia. 

Ponieważ  przypuszczano,  że  eter  wypełnia  całą  przestrzeń,  Ziemia  musiała  się  poruszać 

względem niego. Światło podróżujące w różnych kierunkach względem kierunku ruchu Ziemi 

w eterze powinno zatem wykazywać różnice w prędkości. Eksperyment ten uważa się obecnie 

za  jeden  z  najważniejszych  w  ubiegłym  stuleciu,  mimo  że  Michelson  i  Morley  nigdy  nie 

zaobserwowali  efektu,  którego  poszukiwali.  Właśnie  dlatego,  że  nie  udało  im  się 

zaobserwować  efektu  ruchu  Ziemi  względem  eteru,  pamiętamy  dziś  ich  nazwiska  (A.  A. 

Michelson  został  pierwszym  amerykańskim  laureatem  Nagrody  Nobla  z  fizyki  za  swoje 

badania  eksperymentalne  nad  prędkością  światła,  a  ja  czuję  się  zaszczycony,  zajmując 

obecnie pozycję, którą on piastował ponad sto lat temu. Edward Morley zasłynął jako chemik 

między innymi dzięki wyznaczeniu masy atomowej helu). 

Negatywny wynik eksperymentu wywołał pewien niepokój  wśród  fizyków, ale, jak w 

przypadku  wielu  przełomowych  odkryć,  z  jego  implikacji  zdawało  sobie  w  pełni  sprawę 

bardzo  niewielu  uczonych,  którzy  zaczynali  już  zauważać  paradoksy  związane  z  teorią 

elektromagnetyzmu.  Mniej  więcej  w  tym  czasie  pewien  uczeń  szkoły  średniej,  który  miał 

osiem  lat  w  chwili,  gdy  Michelson  i  Morley  przeprowadzali  swój  eksperyment,  spróbował 

niezależnie  stawić  czoło  tym  paradoksom.  W  1905  roku,  zanim  skończył  26  lat,  Albert 

Einstein - bo o nim  tu  mowa - rozwiązał ten problem. Ale  jak to  zwykle bywa, kiedy  fizyka 

stawia wielkie kroki naprzód, wyniki Einsteina stworzyły więcej problemów niż rozwiązały.  

Rozwiązanie Einsteina, które stanowi jądro szczególnej teorii względności, wynikało z 

prostego,  choć  pozornie  absurdalnego  założenia:  jedynym  sposobem  na  to,  by  teoria 

elektromagnetyzmu  Maxwella  pozostała  spójna,  było  przyjęcie,  że  obserwowana  prędkość 

światła jest  niezależna od prędkości  obserwatora  względem światła. Problem polega  na  tym, 

że  stwierdzenie  to  całkowicie  przeczy  zdrowemu  rozsądkowi.  Jeśli  z  poruszającego  się  z 

prędkością  pulsacyjną  statku  Enterprise  wypuszczona  zostanie  sonda,  obserwator  na 

pobliskiej  planecie  zobaczy,  jak  przelatuje  ona  z  prędkością  dużo  większą  niż  ta,  którą 

background image

zmierzyłby  członek  załogi  Enterprise patrzący przez okno statku.  Einstein  uświadomił  sobie 

jednak,  że teoria  Maxwella  może być  nie-sprzeczna  tylko  wtedy,  gdy  fale  światła  zachowują 

się  inaczej:  jeśli  ich  prędkość  mierzona  przez  obydwu  obserwatorów  jest  taka  sama, 

niezależnie od ich względnego ruchu. Jeśli więc wystrzelę wiązkę fazera z dziobu Enterprise i 

będzie  się  ona  poruszała  z  prędkością  światła  w  kierunku  mostka  romulanskiego  statku 

Warbird,  który  sam  zbliża  się  do  Enterprise  z  prędkością  pulsacyjną  równą  3/4  prędkości 

światła,  obserwatorzy  na  wrogim  statku  zauważą,  że  wiązka  zbliża  się  do  nich  dokładnie  z 

prędkością światła, a nie  z prędkością  l  i 3/4 rażą większą.  Tego rodzaju problemy sprawiają 

trudności  wielu  trekkerom,  którzy  wyobrażają  sobie,  że  jeżeli  Enterprise  porusza  się  z 

prędkością  bliską  prędkości  światła,  a  inny  statek  leci  w  przeciwnym  kierunku  z  podobną 

prędkością,  światło  wysłane  z  Enterprise  nigdy  nie  dotrze  do  drugiego  statku  (a  za tem 

Enterprise pozostanie dla  niego  niewidoczny). Sprawa wygląda Jednak  inaczej; obserwatorzy 

na  drugim  statku  powinni  dostrzec,  że  światło  z  Enterprise  zbliża  się  do  nich  z  prędkością 

światła. 

Nie to odkrycie jednak przyniosło  Einsteinowi sławę.  Znacznie  ważniejsze było to,  że 

chciał  on  badać  wynikające  z  tego  spostrzeżenia  wnioski,  które  na  pierwszy  rzut  oka 

wydawały  się  absurdalne.  W  naszym  codziennym  doświadczeniu  to  czas  i  przestrzeń 

sprawiają  wrażenie  absolutnych,  natomiast  prędkość  jest  czymś  względnym:  obserwowana 

prędkość poruszającego się obiektu  zależy od  tego,  jak szybko się poruszamy. Kiedy  jednak 

zbliżamy  się  do  prędkości  światła,  to  prędkość  staje  się  wielkością  absolutną,  a  więc 

przestrzeń i czas muszą stać się względne! 

Dzieje  się  tak  dlatego,  że  prędkość  definiuje  się  ściśle  jako  odległość  pokonaną  w 

pewnym  określonym  czasie.  Tak  więc  jedynym  sposobem,  aby  poruszający  się  względem 

siebie  obserwatorzy  mogli  stwierdzić,  że  pojedynczy  promień  światła  przebywa  względem 

nich  w  ciągu  jednej  sekundy  tę  samą  odległość  -  powiedzmy  300  milionów  metrów  - 

konieczne  jest,  aby  ich  „sekundy”  lub  ich  „metry”  różniły  się  między  sobą!  Okazuje  się,  że 

szczególna  teoria  względności  wybiera  rozwiązanie  najgorsze,  to  znaczy  zarówno  sekundy, 

jak i metry stają się wielkościami względnymi. 

Wychodząc  od  prostego  założenia,  że  prędkość  światła  mierzona  przez  różnych 

obserwatorów  jest  zawsze  taka  sama,  niezależnie  od  ich  względnego  ruchu,  Einstein 

wyciągnął następujące wnioski na temat przestrzeni, czasu i materii: 

(a) Zdarzenia, które dla danego obserwatora zachodzą w tym samym czasie i w dwóch 

różnych  miejscach,  nie  muszą  być  równoczesne  dla  innego  obserwatora,  poruszającego  się 

względem pierwszego.  Dla każdego  z  nich  „teraz”  znaczy co  innego. Pojęcia  „przed”  i  „po” 

background image

są względne dla odległych zdarzeń. 

(b)  Wszystkie  zegary  na  statkach  kosmicznych,  które  poruszają  się  względem  mnie, 

chodzą wolniej niż mój zegar. Czas zwalnia dla obiektów w ruchu.  

(c)  Linijki  znajdujące  się  na  statkach,  które  poruszają  się  względem  nas,  wydają  się 

krótsze,  niż  gdyby  spoczywały  w  naszym  układzie  odniesienia.  Obiekty,  ze  statkami 

kosmicznymi włącznie, ulegają skróceniu podczas ruchu. 

(d)  Wszystkie  obiekty  mające  masę  stają  się  tym  cięższe,  im  szybciej  się  poruszają. 

Gdy  ich  prędkość  zbliża  się  do  prędkości  światła,  ich  masa  staje  się  nieskończona.  Innymi 

słowy,  tylko  obiekty  pozbawione  masy,  takie  jak  światło,  mogą  poruszać  się  z  prędkością 

światła. 

Nie  będę  tu  opowiadał  o  wszystkich  wspaniałych  pozornych  paradoksach,  jakie 

pojawiają się w teorii  względności. Niech  nam  wystarczy to,  że - czy  nam  się to podoba, czy 

nie  -  wszystkie  cztery  wnioski  są  prawdziwe,  zostały  bowiem  sprawdzone.  Na  pokład 

poruszających  się  z  wielkimi  prędkościami  samolotów  zabrano  zegary  atomowe  i 

zaobserwowano,  że  spóźniają  się  one  po  powrocie  w  stosunku  do  swoich  ziemskich 

odpowiedników.  Na  całym  świecie  w  laboratoriach  fizyki  cząstek  elementarnych 

konsekwencje  szczególnej  teorii  względności  są  chlebem  powszednim  eksperymentatorów. 

Niestabilne  cząstki  przyspiesza  się  do  prędkości  bliskich  prędkości  światła,  a  ich  mierzone 

czasy życia zwiększają się wielokrotnie. Kiedy elektrony, które w spoczynku mają masę 2000 

razy  mniejszą  niż protony, przyspieszy się do prędkości bliskich prędkości  światła,  niosą one 

pęd równoważny pędom ich cięższych kuzynów. Elektron przyspieszony do prędkości równej 

0,9999999999999999999999999999999999999999999999999999999999999999  prędkości 

światła uderzyłby Cię z taką samą siłą, jak jadąca z przeciętną prędkością ciężarówka.  

Oczywiście przyczyną, dla której tak trudno  jest  nam wziąć  za dobrą  monetę wnioski 

dotyczące względności przestrzeni  i  czasu, jest to,  że  żyjemy  i poruszamy się  z prędkościami 

znacznie  mniejszymi  niż  prędkość  światła.  Każdy  z  wymienionych  efektów  staje  się 

zauważalny  dopiero  wtedy,  gdy  wchodzą  w  grę  prędkości  relatywistyczne.  Nawet  przy 

prędkości  równej  połowie  prędkości  światła  zegary  zwalniają,  a  linijki  kurczą  się  tylko  o 

około 15%. Na wahadłowcu NASA, który okrąża Ziemię  z prędkością 8 km/s,  zegary chodzą 

tylko  o  jedną  dziesięciomilionową  procenta  wolniej,  niż  ich  odpowiedniki  na  powierzchni 

Ziemi. 

W  świecie  Enterprise  lub  innego  statku  kosmicznego,  gdzie  powszechne  są  duże 

prędkości,  z  względnością  mielibyśmy  jednak  do  czynienia  na  co  dzień.  Można  sobie 

wyobrazić  trudności  w  zarządzaniu  Federacją,  gdy  konieczne  byłoby  zsynchronizowanie 

background image

zegarów na dużym obszarze Galaktyki, zwłaszcza że znaczna część tych zegarów poruszałaby 

się  z  prędkością  bliską  prędkości  światła.  W  wyniku  tego  w  gwiezdnej  flocie  przyjęto  jako 

regułę,  że  normalne  manewry,  wykonywane  przy  użyciu  napędu  pulsacyjnego,  będą 

ograniczone do prędkości 0,25c, czyli 1/4 prędkości światła: marnych 75 tysięcy km/s.  

Nawet  przy  zastosowaniu  tej  zasady  zegary  na  statkach  podróżujących  z  taką 

prędkością  będą  zwalniały  o  około  3%  w  stosunku  do  zegarów  w  Centrum  Dowodzenia. 

Oznacza  to,  że po  miesiącu podróży  zegary będą opóźnione o prawie  jeden dzień. Gdyby po 

takiej podróży Enterprise wrócił do Centrum  Dowodzenia,  na statku byłby piątek, a w bazie 

sobota.  Przypuszczam,  że  ta  niedogodność  nie  sprawiałaby  większego  problemu  niż 

przestawianie  zegarków przy przekraczaniu  międzynarodowej  granicy daty podczas podróży 

na  wschód,  choć  w  tym  przypadku  załoga  powróciłaby  o  jeden  dzień  młodsza,  natomiast  w 

trakcie podróży  na wschód  i  z powrotem  zyskuje się jeden dzień jadąc w jednym kierunku, a 

traci się go wracając. 

Możemy się teraz przekonać,  jak  istotny dla  Enterprise  jest  napęd czasoprzestrzenny. 

Pozwala  on  nie  tylko  obejść  zasadę  nieprzekraczalności  prędkości  światła  i  w  ten  sposób 

efektywnie  podróżować  przez  Galaktykę,  lecz  także  uniknąć  problemów  związanych  z 

dylatacją czasu, pojawiającą się, gdy statek porusza się z prędkością bliską prędkości światła.  

Nie  można  przecenić  tych  faktów.  Wielu  autorów  fantastyki  naukowej  (a  tak 

naprawdę  wszyscy,  którzy  marzą  o  podróżach  międzygwiezdnych)  traktuje  zjawisko 

zwalniania  chodu  zegarów  w  miarę  zbliżania  się  do  prędkości  światła  jako  otwarcie 

możliwości pokonywania olbrzymich odległości  między  gwiazdami w czasie  życia  ludzkiego 

- przynajmniej za życia osób znajdujących się na pokładzie statku kosmicznego.  

Podróż  z  prędkością  bliską  prędkości  światła  do,  powiedzmy,  centrum  naszej 

Galaktyki  zajęłaby  ponad  25  tysięcy  lat  czasu  ziemskiego.  Dla  osób  znajdujących  się  na 

pokładzie  statku,  gdyby  poruszał  się  on  z  prędkością  dostatecznie  bliską  prędkości  światła, 

podróż ta  mogłaby  trwać krócej  niż 10  lat -czas długi, ale do przyjęcia.  Jednak  nawet  gdyby 

umożliwiło  to  odbywanie  pojedynczych  podróży,  z  pewnością  nie  pozwoliłoby  na  sprawne 

zarządzanie  federacją  cywilizacji  rozproszonych  po  całej  Galaktyce.  Jak  słusznie 

przypuszczali  twórcy  Star  Trek,  fakt,  że  dziesięcioletnia  podróż  Enterprise  odpowiadałaby 

okresowi  25  tysięcy  lat  w  Centrum  Dowodzenia,  zniweczyłby  szansę  jakiegokolwiek 

działania  mającego  na  celu  zorganizowanie  i  kontrolowanie  ruchu  wielu  takich  statków 

kosmicznych.  Jest  więc  niezwykle  istotne,  aby:  po  pierwsze,  uniknąć  ograniczenia 

związanego  z  prędkością  światła  i  nie  powodować  dezorganizacji  Federacji;  po  drugie, 

zastosować prędkości ponadświetlne, by swobodnie przemieszczać się po Galaktyce. 

background image

Szkopuł  w  tym,  że  w  ramach  samej  szczególnej  teorii  względności  tej  ostatniej 

możliwości nie można zrealizować. Jeśli dopuści się prędkości ponadświetlne, fizyka staje się 

pełna  sprzeczności.  Nie  bez  znaczenia  jest  tu  między  innymi  to,  że  ponieważ  w  miarę 

zbliżania  się  do  prędkości  światła  wzrasta  masa  obiektów,  potrzeba  stopniowo  coraz  więcej 

energii,  aby przyspieszyć  je o coraz  mniejszą wartość.  Jak w  greckim  micie o Syzyfie, który 

skazany  był  na  wtaczanie  głazu  pod  górę  przez  całą  wieczność  po  to  tylko,  aby  za  każdym 

razem,  gdy  docierał  do  szczytu,  ponosić  klęskę,  cała  energia  we  Wszechświecie  nie 

wystarczyłaby  na to, aby przyspieszyć  ziarnko piasku,  nie  mówiąc już o statku kosmicznym, 

do prędkości ponadśwłetlnej. 

Na  tej  samej  zasadzie  nie  tylko  światło,  ale  każde  bezmasowe  promieniowanie  musi 

przemieszczać się  z prędkością światła. Oznacza  to,  że wiele rodzajów  istot  zbudowanych  z 

„czystej  energii”,  jakie  napotyka  Enterprise,  a  później  Voyager,  nie  mogłoby  istnieć  w 

pokazanej postaci. Po pierwsze,  nie  mogłyby one  pozostawać  w bezruchu. Światło  nie  może 

zwolnić, nie  mówiąc już o zatrzymaniu. Po drugie,  zegary każdej  inteligentnej, zbudowanej  z 

energii  istoty  -  na  przykład  fotonowi  osobnicy  w  serii  Voyager,  zbudowani  z  energii 

mieszkańcy obłoku Beta Renna w serii Następne pokolenie, Zetarianie  w pierwszej serii, czy 

Dal’Rok  w  serii  Stacja  kosmiczna  -  która  zmuszona  jest  poruszać  się  z  prędkością  światła, 

miałyby  nieskończenie  duże  opóźnienie  w  stosunku  do  naszych  zegarów.  Cała  historia 

Wszechświata  przebiegałaby  dla  niej  w  ciągu  krótkiej  chwili.  Gdyby  zbudowane  z  energii 

istoty  mogły  czegokolwiek  doświadczać,  doświadczałyby  wszystkiego  narazi  Nie  trzeba 

dodawać,  że  zanim skontaktowałyby się  z  istotami cielesnymi, te ostatnie już dawno byłyby 

martwe. 

Skoro  mówimy  o  czasie,  myślę,  że  nadeszła  już  pora,  by  zapoznać  się  z  manewrem 

Picarda.  Jean-Luc  zdobył  sławę,  wprowadzając  tę  taktykę,  gdy  przebywał  na  pokładzie 

Stargazera.  Chociaż  dotyczy  ona  podróży  z  prędkościami  czasoprzestrzennymi,  czyli 

ponadświetlnymi, które - jak dowodziłem - są niemożliwe  w ramach samej szczególnej teorii 

względności, wymaga  zastosowania  takich prędkości  tylko przez  moment, tak  że  nie przeczy 

temu,  co  do  tej  pory  powiedzieliśmy.  W  trakcie  manewru  Picarda,  mającego  na  celu 

pomieszanie  szyków  atakującemu  statkowi  wroga,  przyspiesza  się  własny  statek  na  krótką 

chwilę  do  prędkości  czasoprzestrzennej.  Jest  on  wtedy  widoczny  w  dwóch  miejscach  naraz. 

Dzieje  się  tak  dlatego,  że  poruszając  się  przez  moment  szybciej  niż  światło  wyprzedza  on 

promienie świetlne, które opuściły  go tuż przed  uruchomieniem  napędu czasoprzestrzennego. 

Chociaż  jest  to  błyskotliwa  strategia  -  i  wydaje  się  na  razie  całkiem  sensowna  (jeśli 

zapomnimy  na  chwilę  o  tym,  że  nie  wiemy,  czy  możliwe  jest  osiąganie  prędkości 

background image

czasoprzestrzennych)  -  widać  od  razu,  iż  otwiera  ona  prawdziwą  puszkę  Pandory.  Po 

pierwsze,  zaniedbuje  kwestię  podnoszoną  przez  wielu  trekkerów  przez  lata:  w  jaki  sposób 

załoga  Enterprise  może  „widzieć”  obiekty  zbliżające  się  do  niej  z  prędkością 

czasoprzestrzenną? Podobnie  jak Stargazera wyprzedził swój własny obraz, to  samo  uczynią 

wszystkie obiekty podróżujące  z prędkością czasoprzestrzenną; obiekt poruszający się  z taką 

prędkością  można zobaczyć dopiero długo po tym, jak przybędzie na  miejsce. Możemy  tylko 

przypuszczać,  że kiedy Kirk, Picard czy Janeway chcą obejrzeć obraz  na ekranie, pojawia się 

tam obraz  uzyskany  za pomocą czujników „podprzestrzennych” dalekiego  zasięgu (to  znaczy 

komunikacji  ponadświetlnej).  Nawet  jeśli  przymkniemy  oko  na  to  wyraźne  przeoczenie, 

pokazany  w Star Trek wszechświat, choć  niewątpliwie ciekawy, byłby trudny do  zarządzania 

-  pełen  pozornych  obrazów  obiektów,  które  dawno  temu  dotarły  do  celu,  podróżując  z 

prędkością czasoprzestrzenną. 

Powróćmy  do  świata  prędkości  mniejszych  niż  prędkość  światła;  nie  uporaliśmy  się 

bowiem do końca z Einsteinem. Jego słynny związek między masą a energią, E = mc

2

, będący 

konsekwencją  szczególnej  teorii  względności,  stanowi  kolejne  wyzwanie  dla  podróży 

międzygwiezdnych  z  prędkościami  pulsacyjnymi.  Rakieta,  jak  opisałem  to  w  rozdziale 

pierwszym, wyrzuca materię w tył, aby poruszać się do przodu. Łatwo sobie wyobrazić, że im 

szybciej  materia  jest  odrzucana  w  tył,  tym  większe  będzie  pchnięcie  w  przód.  Spaliny  nie 

mogą jednak wydostawać się z prędkością większą niż prędkość światła. Nawet nadawanie im 

prędkości światła  nie jest  łatwe:  jedynym  na  to sposobem  jest  użycie paliwa spreparowanego 

z  materii  i  antymaterii,  które  (o  czym  przekonamy  się  w  jednym  z  kolejnyc h  rozdziałów) 

może  zupełnie  anihilować  i  wytwarzać  czyste  promieniowanie  poruszające  się  z  prędkością 

światła. 

Chociaż  napęd  czasoprzestrzenny  w  Enterprise  wykorzystuje  takie  właśnie  paliwo, 

napęd pulsacyjny działa na innej zasadzie. Jest on zasilany za po mocą syntezy jądrowej - tych 

samych reakcji Jądrowych, dzięki którym  wodór przemienia się  w hel  we wnętrzu Słońca. W 

reakcjach  jądrowych  w  energię  zamienia  się  około  1%  dostępnej  masy.  Przy  takiej  energii 

wytwarzane atomy helu wydostają się z tyłu rakiety z prędkością około 1/8 prędkości światła. 

Znając prędkość  wypływu  helu,  możemy obliczyć  ilość paliwa, jakiej potrzebuje  Enterprise, 

aby przyspieszyć, powiedzmy, do połowy prędkości światła. Obliczenie to nie jest trudne, ale 

ograniczę  się  do  podania  odpowiedzi.  Może  ona  być  zaskakująca.  Za  każdym  razem,  kiedy 

Enterprise  przyspiesza  do  połowy  prędkości  światła,  musi  spalić  81  razy  więcej  paliwa 

wodorowego niż sam waży. Statek klasy galaktycznej, taki jak Enterprise-D Picarda, ważyłby 

ponad  4  miliony  ton,  a  zatem,  aby  przyspieszyć  ten  statek  do  połowy  prędkości  światła  za 

background image

pomocą  napędu  pulsacyjnego,  za  każdym  razem  trzeba  by  było  zużyć  ponad  300  milionów 

ton  paliwa!  Gdyby  w  silniku  pulsacyjnym  zastosować  układ  napędowy  wykorzystujący 

materię  i  antymaterię,  sytuacja  wyglądałaby  nieco  lepiej.  W  tym  przypadku  wystarczyłoby 

spalić w trakcie przyspieszania tylko dwa razy więcej paliwa niż wynosiłaby waga statku.  

Ale  to  nie  wszystko.  Obliczenie,  które  przedstawiłem  powyżej,  jest  poprawne  dla 

pojedynczego  przyspieszenia.  Aby  zatrzymać  się  po  osiągnięciu  celu,  statek  potrzebowałby 

drugie tyle paliwa. Oznacza to,  że aby udać się  gdzieś  z prędkością równą połowie prędkości 

światła,  a  następnie  zatrzymać  się,  potrzebne  byłoby  paliwo  w  ilości  81x81=  6561  razy 

całkowita  masa  statku!  Co  więcej,  przypuśćmy,  że  ktoś  chciałby  przyspieszyć  do  połowy 

prędkości  światła  w  ciągu  kilku  godzin  (zakładamy  oczywiście,  że  amortyzatory 

bezwładności są włączone, osłaniając załogę oraz statek przed skutkami działania olbrzymich 

sił  G).  Moc  wypromieniowana  przez  silniki  w  postaci  spalin  wyniosłaby  wtedy  około  l  O

22

 

watów,  czyli  niemal  miliard  razy  więcej  niż  całkowita  średnia  moc  wytwarzana  obecnie  i 

zużywana przez ludzkość na Ziemi! 

Prawdopodobnie powiesz  teraz (jak to  zrobił pewien  mój bystry kolega,  gdy pewnego 

dnia przedstawiłem mu tę argumentację), że jest tutaj pewna furtka. Rozumowanie to zakłada, 

że  paliwo  podróżuje  razem  z  rakietą.  Co  by  się  jednak  stało,  gdyby  paliwo  można  było 

zbierać  w  trakcie  podróży?  W  końcu  wodór  jest  najbardziej  rozpowszechnionym 

pierwiastkiem  we  Wszechświecie.  Czy  nie  można  by  go  gromadzić,  podróżując  przez 

Galaktykę? Cóż, średnia gęstość materii w naszej. Galaktyce wynosi około 1 atom wodoru na 

centymetr sześcienny. 

Aby  uzbierać  tylko  1  gram  wodoru  w  ciągu  sekundy,  poruszając  się  nawet  z 

prędkością  będącą  sporym  ułamkiem  prędkości  światła,  trzeba  by  było  rozwinąć 

powierzchnie  zbierające  o  średnicy  ponad  40  kilometrów.  Nawet  gdyby  udało  się  całą  tę 

materię  zamienić  na energię, wystarczyłoby to tylko  na około  jedną stumilionową potrzebnej 

do napędu mocy! 

Można  tu  przytoczyć  słowa  fizyka,  laureata  Nagrody  Nobla,  Edwarda  Purcella, 

którego argumenty przedstawiłem  i rozszerzyłem:  „Jeśli wydaje Ci się to  niedorzeczne,  masz 

rację”.  Ta  absurdalność bierze się  z podstawowych praw  mechaniki klasycznej  i szczególnej 

teorii  względności.  Argumenty  przedstawione  tutaj  są  tak  pewne,  jak  to,  że  piłka  spadnie, 

kiedy  upuści  się  ją  na  ziemię.  Podróże  międzygwiezdne  przez  Galaktykę  w  statkach  z 

napędem  rakietowym  z  prędkością  bliską  prędkości  światła  nie  są  i  nigdy  nie  będą 

praktycznie wykonalne! 

Czy należy więc w tym miejscu zakończyć książkę? Czy powinniśmy odesłać gadżety 

background image

związane  ze  Star  Trek  i  poprosić  o  zwrot  pieniędzy?  Otóż  nie,  gdyż  wciąż  jeszcze  nie 

skończyliśmy  z  Einsteinem.  Jego  ostatnie  i  chyba  największe  odkrycie  daje  nam  iskierkę 

nadziei. 

Cofnijmy  się do  roku 1908: odkrycie przez  Einsteina względności przestrzeni  i czasu 

zwiastuje  jedno  z  tych  doświadczeń  ludzkości,  które  co  jakiś  czas  nieodwołalnie  zmieniają 

nasz  obraz  Wszechświata.  Jesienią  1908  roku  fizyk  i  matematyk  Her-mann  Minkowski 

napisał  słynne  zdanie:  „Odtąd  przestrzeń  sama  w  sobie  i  czas  sam  w  sobie  są  skazane  na 

odejście w cień, a tylko rodzaj związku tych dwóch wielkości zachowa niezależne istnienie”.  

Minkowski  zdał  sobie  sprawę  z  tego,  że  chociaż  przestrzeń  i  czas  są  względne  dla 

obserwatorów poruszających się względem siebie - Twój zegar może tykać wolniej niż mój, a 

mierzone przeze  mnie odległości będą  inne  niż  mierzone w Twoim  układzie odniesienia  - to 

gdy  zostają  one  połączone  w  jedną  cztero-wymiarową  całość  (trzy  wymiary  przestrzenne  i 

jeden czasowy), pojawia się nagle znowu pewna „absolutna”, obiektywna rzeczywistość.  

Przebłysk  zrozumienia,  który  stał  się  udziałem  Minkowskie-go,  można  wyjaśnić 

uciekając  się  do  analogii  ze  światem  jednookich  istot,  które  nie  dostrzegają  głębi. 

Przypuśćmy,  że  zamknąłeś  jedno oko, ograniczając  w ten sposób swoją percepcję  głębi, a ja 

trzymam  linijkę,  tak  abyś  mógł  ją  widzieć.  Następnie  proszę  kogoś  innego,  patrzącego  pod 

innym kątem, by  również  zamknął jedno oko. Wówczas trzymana przeze  mnie  linijka  wyda 

mu się krótsza niż Tobie; poniższy rysunek pokazuje opisaną sytuację z lotu ptaka: 

Każdy  obserwator  pozbawiony  możliwości  bezpośredniej  oceny  głębi  określi 

„długość”  linijki  (L  lub  L’)  jako dwuwymiarowy rzut rzeczywistej, trójwymiarowej długości 

linijki  na  własną  płaszczyznę  widzenia.  Ponieważ  wiemy,  że  przestrzeń  ma  trzy  wymiary, 

taka  sztuczka  nas  nie  oszuka.  Wiemy,  że  patrzenie  na  coś  pod  innym  kątem  nie  zmienia 

rzeczywistej długości przedmiotu,  nawet jeśli  zmienia ją pozornie. Minkowski wykazał,  że w 

podobny  sposób  można  wyjaśnić  różne  paradoksy  teorii  względności.  Trzeba  tylko  przyjąć, 

że  nasze  widzenie  przestrzeni  to  trójwymiarowy  przekrój  czegoś,  co  w  rzeczywistości  jest 

czterowymiarowym  obiektem,  w  którym  przestrzeń  i  czas  są  połączone.  Dwaj  różni 

obserwatorzy,  poruszający  się  względem  siebie,  postrzegają  różne  trójwymiarowe  przekroje 

ukrytej  czterowymiarowej  przestrzeni  w  bardzo  podobny  sposób,  jak  obróceni  względem 

siebie  obserwatorzy  na  rysunku  widzą  różne  dwuwymiarowe  przekroje  przestrzeni 

trójwymiarowej. 

Minkowski  wyobraził  sobie,  że  odległość  przestrzenna  mierzona  przez  dwóch 

poruszających  się  względem  siebie  obserwatorów  jest  projekcją  ukrytej  czterowymiarowej 

odległości  na  trójwymiarową  przestrzeń,  którą  mogą  postrzegać;  i  podobnie,  że  czasowa 

background image

„odległość”  między  dwoma  zdarzeniami  jest  rzutem  odległości  w  czterowymiarowej 

czasoprzestrzeni  na  ich  własny  wymiar  czasowy.  Podobnie  jak  obrót  przedmiotów  w  trzech 

wymiarach  może  wymieszać szerokość  i  głębokość, tak względny ruch  w czterowymiarowej 

przestrzeni  może pomieszać pojęcia  „przestrzeni”  i  „czasu” różnych obserwatorów. Podobnie 

jednak  jak  długość  przedmiotu  nie  zmienia  się,  gdy  obracamy  go  w  przestrzeni,  tak  samo 

odległość  między  dwoma  zdarzeniami  w  czterowymiarowej  czasoprzestrzeni  jest  stała  - 

niezależnie  od  tego,  w  jaki  sposób  różni,  poruszający  się  względem  siebie  obserwatorzy 

przypisują odległościom „przestrzenność” i „czasowość”. 

I tak  zadziwiająca  niezmienność prędkości światła dla wszystkich obserwatorów stała 

się  kluczem  do  odsłonięcia  prawdziwej,  czterowymiarowej  natury  Wszechświata,  w  którym 

żyjemy.  Światło  ukazuje  ukryty  związek  między  przestrzenią  a  czasem.  W  rzeczywistości 

prędkość światła definiuje ów związek. 

To  właśnie  w  tym  miejscu  Einstein  powrócił,  aby  uratować  Stor  Trek.  Kiedy  już 

Minkowski  wykazał,  że  czasoprzestrzeń  szczególnej  teorii  względności  jest  jak 

czterowymiarowa  kartka  papieru,  Einstein  spędził  większą  część  następnego  dziesięciolecia 

napinając swoje  matematyczne  mięśnie,  aż  udało  mu się  zgiąć  tę kartkę,  co  z kolei pozwala 

nam  nagiąć  reguły  gry.  Jak  się  zapewne  domyślasz,  kluczem  do  tego  okazało  się  znowu 

światło. 

background image

ROZDZIAŁ 3 

HAWKING WYKŁADA KARTY 

Jakże słabo wy, śmiertelnicy, rozumiecie czas. Czy musisz być taki liniowy, Jean-Luc? 

Q do Picarda w odcinku Wszystko, co dobre...  

Planeta Wulkan,  z której pochodzi Spock, jest bardzo  zasłużona dla  fizyki  XX  wieku. 

Na  początku  naszego  stulecia  wielką  zagadkę  astronomii  stanowiło  to,  że  peryhelium 

Merkurego  -  czyli  punkt  orbity,  w  którym  planeta  znajduje  się  najbliżej  Słońca  -  w  trakcie 

każdego  jego  obiegu  wokół  Słońca  ulega  niewielkiej  precesji  w  sposób  niezgodny  z  teorią 

grawitacji Newtona. Aby rozwiązać ten problem, wysunięto hipotezę, że jeszcze bliżej Słońca 

niż Merkury krąży  inna planeta, która  zaburza  jego ruch. (Co ciekawe, podobne wyjaśnienie 

anomalii  w  ruchu  orbitalnym  Urana  zaowocowało  wcześniej  odkryciem  Neptuna).  Ową 

hipotetyczną planetę nazwano Wulkanem. 

Niestety,  tajemnicza  planeta  Wulkan  nie  istnieje.  Natomiast  Einstein  zaproponował, 

aby  zastąpić  płaską  przestrzeń  Newtona  i  Minkowskiego  zakrzywioną  czasoprzestrzenią 

ogólnej teorii  względności. W tej  zakrzywionej przestrzeni orbita Merkurego odchylałaby się 

nieco od toru, jaki przewidywała teoria Newtona, co wyjaśniałoby obserwowaną niezgodność. 

Chociaż w  ten sposób  znikła potrzeba  istnienia planety Wulkan, pojawiły  się o  wiele 

bardziej  ekscytujące  możliwości:  z  zakrzywioną  przestrzenią  związane  są  czarne  dziury, 

tunele czasoprzestrzenne, a być może realne stają się nawet podróże w czasie.  

Rzeczywiście,  jeszcze  zanim  twórcy  Star  Trek  wymyślili  pole  zakrzywiające 

czasoprzestrzeń,  Einstein  zakrzywiał  ją  podobnie  jak  oni,  uzbrojony  jedynie  w  swoją 

wyobraźnię.  Zamiast  jednak  wyobrażać  sobie  technologię  podróży  międzygwiezdnych  w 

XXII  wieku,  uczony  przeprowadzał  eksperymenty  myślowe  z  windami.  Einstein  był 

niewątpliwie wielkim fizykiem, ale pewnie nigdy nie sprzedałby scenariusza.  

Jego  argumenty  można  jednak  w  nienaruszonej  postaci  przenieść  na  pokład 

Enterprise. Ponieważ światło  jest  nitką  splatającą przestrzeń  i czas,  tory promieni świetlnych 

tworzą  mapę  czasoprzestrzeni  tak  samo,  jak  osnowa  i  wątek  ukazują  wzory  gobelinu. 

Zazwyczaj światło podróżuje po  liniach prostych. Co by się jednak stało,  gdyby romulański 

dowódca na pokładzie znajdującego się w pobliżu statku Warbird wystrzelił promień fazera w 

kierunku Picarda, siedzącego na mostku swojego kapitańskiego jachtu Calypso, którego silnik 

pulsacyjny  został  właśnie  uruchomiony  (w  tym  przykładzie  przyjmujemy,  że  amortyzatory 

bezwładności  zostały  wyłączone)?  Picard  ruszyłby  gwałtownie  naprzód,  ledwo  unikając 

promienia fazera. Z punktu widzenia układu odniesienia Picarda sytuacja wyglądałaby tak jak 

background image

na rysunku na następnej stronie. 

Dla  Picarda  tor  promienia  fazera  byłby  więc  zakrzywiony.  Co  jeszcze  mógłby  on 

zauważyć?  Jeśli  przypomnimy  sobie  argumentację  z  rozdziału  pierwszego,  bez  trudu 

stwierdzimy,  że  gdy amortyzatory bezwładności są wyłączone, Picard zostanie wgnieciony w 

fotel.  Zwróciłem  tam  również  uwagę  na  to,  że  gdyby  Picard  poruszał  się  naprzód  z  takim 

samym  przyspieszeniem,  z  jakim  spadają  na  Ziemię  ciała  pod  wpływem  siły  grawitacji, 

odczułby,  iż  siła,  która  wgniata  go  w  fotel,  jest  taka  sama  jak  siła,  która  ciągnie  go  w  dół, 

kiedy  stoi  na  Ziemi.  Einstein  dowodził,  że  Picard  (lub  na  przykład  ktoś  znajdujący  się  w 

jadącej  w  górę  windzie)  nie  mógłby  nigdy  przeprowadzić  eksperymentu,  który  wskazałby 

różnicę  między  siłą  reakcji  wywołaną  przyspieszeniem  a  działaniem  grawitacji  jakiegoś 

ciężkiego obiektu znajdującego się w pobliżu statku. W ten sposób Einstein wszedł śmiało na 

teren  nie  znany  dotąd  fizykom  i  dowodził,  że  wszelkie  zjawiska  zaobserwowane  przez 

przyspieszającego obserwatora wyglądałyby tak, jakby przebiegały w polu grawitacyjnym.  

Z  tego  przykładu  wynika  co  następuje:  ponieważ  Picard  obserwuje  zakrzywianie  się 

promienia  fazera,  gdy oddala się od niego z pewnym przyspieszeniem, promień taki  musi  się 

również  zakrzywiać  w  polu  grawitacyjnym.  Ale  promienie  świetlne  wytyczają  mapę 

czasoprzestrzeni; a  zatem  zakrzywieniu w  takim polu  ulega sama czasoprzestrzeń. Skoro  zaś 

materia wytwarza pole grawitacyjne, to ona właśnie musi zakrzywiać czasoprzestrzeń!  

Można jednak argumentować,  że ponieważ  światło  ma energię,  masa  zaś  i energia są 

związane  ze  sobą  słynnym  równaniem  Einsteina,  zakrzywianie  się  promienia  świetlnego  w 

polu  grawitacyjnym  nie  jest  wielkim  zaskoczeniem  -  a  już  na  pewno  nie  wynika  z  tego,  że 

musimy przyjąć,  iż to sama czasoprzestrzeń się  zakrzywia. W końcu tory, po jakich porusza 

się  materia,  również  ulegają  zakrzywieniu  (wystarczy  chociażby  podrzucić  piłkę).  Nawet 

Galileusz  mógłby  wykazać -  gdyby  znał takie obiekty - że tory piłek baseballowych  i rakiet 

Pathfinder  ulegają  zakrzywieniu  i  wcale  nie  musiałby  przy  tym  wspominać  o  zakrzywionej 

przestrzeni. 

Można  jednak  obliczyć,  o  ile  powinien  zakrzywić  się  promień  świetlny,  gdyby 

zachowywał  się  tak  samo,  jak  piłka  baseballowa,  a  następnie  zmierzyć  rzeczywiste 

zakrzywienie. Zrobił to 

w 1919 roku sir Arthur Stanley  Eddington, który kierował ekspedycją  mającą określić 

pozycje  gwiazd  na  niebie w pobliżu Słońca  w czasie  jego  zaćmienia. Eddington  zmierzył ten 

efekt  i  okazało  się,  że  światło  zakrzywia  się  dokładnie  dwa  razy  bardziej,  niż  mógłby 

przewidzieć  Galileusz,  zakładając,  iż światło  zachowuje się jak piłka baseballowa w płaskiej 

przestrzeni.  Jak  łatwo  się  domyślić,  ta  dwukrotnie  większa  wartość  jest  dokładnie  zgodna  z 

background image

przewidywaniami  Einsteina,  przy  założeniu,  że  czasoprzestrzeń  zakrzywia  się  w  pobliżu 

Słońca  i  światło  (lub  na  przykład  Merkury)  porusza  się  w  tym  miejscu  po  „prostej”  w 

zakrzywionej przestrzeni! Nagle nazwisko Einsteina stało się powszechnie znane.  

Zakrzywiona przestrzeń otwiera cały wszechświat możliwości, jeśli mogę posłużyć się 

takim  kalamburem.  Podobnie  jak  Enterprise,  uwalniamy  się  z  okowów  swego  rodzaju 

liniowego  myślenia  -  narzuconego  nam  przez  szczególną  teorię  względności  -  tak 

znienawidzonego przez Q. W zakrzywionej przestrzeni możliwych jest wiele rzeczy, które nie 

mają  racji  bytu  w  przestrzeni  płaskiej.  Można  na  przykład  wędrować  ciągle  w  tym  samym 

kierunku, a  mimo to wrócić do punktu  wyjścia -  ludzie podróżujący dookoła  świata robią to 

przez cały czas. 

Centralne  założenie  ogólnej  teorii  względności  Einsteina  przedstawia  się  bardzo 

prosto  i  brzmi  następująco:  zakrzywienie  czasoprzestrzeni  jest  określone  przez  rozkład 

zawartej  w  niej  materii  i  energii.  Równania  Einsteina  ustanawiają  ścisły  matematyczny 

związek między zakrzywieniem z jednej strony, a. materią i energią z drugiej: 

lewa strona równania   =  

prawa strona równania  

ZAKRZYWIENIE 

 =  

MATERIA I ENERGIA 

Tym,  co  czyni  tę  teorię  tak  piekielnie  trudną  w  zastosowaniach,  jest  właśnie  owo 

proste sprzężenie zwrotne: zakrzywienie czasoprzestrzeni jest określone przez rozkład materii 

i  energii  we  Wszechświecie,  z  kolei  rozkład  ten  jest  uzależniony  od  zakrzywienia 

czasoprzestrzeni.  Można  to  porównać  do  problemu,  co  było  pierwsze  -  jajko  czy  kura? 

Materia jest źródłem zakrzywienia czasoprzestrzeni, które z kolei określa ewolucję materii, co 

wpływa na zakrzywienie i tak dalej. 

Dla  zagadnienia  podróży  międzygwiezdnych  jest  to  zapewne  najważniejszy  aspekt 

ogólnej  teorii  względności.  Złożoność  tej  teorii  oznacza,  że ciągle jeszcze  nie  rozumiemy w 

pełni  wszystkich  jej  konsekwencji,  a  zatem  nie  możemy  wykluczyć  różnych  niezwykłych 

możliwości.  Te  właśnie  możliwości  są  wodą  na  młyn  Star  Trek.  Jak  się  przekonamy,  u  ich 

podstaw  leży  wielka  niewiadoma,  która  przenika  wszystko:  od  tuneli  czasoprzestrzennych  i 

czarnych dziur po wehikuły czasu. 

Pierwszym ważnym dla przygód statku  Enterprise wnioskiem  wynikającym  z tego,  że 

czasoprzestrzeń  nie  musi być płaska, jest to,  że sam czas staje się wielkością jeszcze bardziej 

dynamiczną  niż  w  szczególnej  teorii  względności.  Czas  może  płynąć  w  różnym  tempie  dla 

różnych obserwatorów, nawet jeśli  nie poruszają się oni  względem siebie. Wyobraźmy  sobie, 

że podziałka  na tarczy zegara  zachowuje się jak podziałka na  linijce  zrobionej  z  gumy. Jeżeli 

rozciągniemy  lub  zegniemy  linijkę, odległości  między kreskami podziałki będą się  zmieniać 

background image

od  punktu  do  punktu.  Gdyby  odległości  te  odpowiadały  tyknięciom  zegara,  zegary 

umieszczone  w  różnych  miejscach  chodziłyby  w  różnym  tempie.  W  ogólnej  teorii 

względności  Einsteina  „zgiąć”  linijkę  może  pole  grawitacyjne,  które  z  kolei  wymaga 

obecności materii. 

Ujmując  to  bardziej  praktycznie:  jeśli  umieścimy  w  pobliżu  zegara  ciężką  kulę 

żelazną, tempo jego tykania powinno ulec zmianie. Mówiąc jeszcze bardziej poglądowo: jeśli 

podczas  mego  snu  budzik  znajduje  się  bardzo  blisko  mojego  ciała,  zostanę  obudzony  nieco 

później, niż gdyby był daleko, przynajmniej w stosunku do reszty świata. 

Słynny eksperyment, przeprowadzony w  laboratoriach Uniwersytetu Harvarda w roku 

1960,  zademonstrował,  że  upływ  czasu  może  zależeć  od  tego,  gdzie  się  znajdujesz.  Robert 

Pound oraz George Rebka wykazali, że częstość promieniowania y mierzonego przy źródle w 

piwnicy  budynku  różniła  się  od  częstości  tego  promieniowania,  gdy  docierało  ono  na  dach 

budynku, 22  metry  wyżej  (detektory, oczywiście, dokładnie  wykalibrowano, tak by same  nie 

powodowały  żadnej  różnicy).  Przesunięcie  było  niezwykle  małe  -  sięgało  jednej 

milionowomiliardowej.  Jeśli  każdy  okres  fali  promieniowania  y  porównać  z  ryknięciem 

zegara atomowego,  z eksperymentu  tego  wynika,  że  zegar  w piwnicy będzie chodził  wolniej 

niż  jego odpowiednik  na dachu. Na  niższym piętrze czas  zwalnia, ponieważ  znajduje się ono 

bliżej  Ziemi  niż  dach,  a  więc  pole  grawitacyjne  -a  co  za  tym  idzie  również  zakrzywienie 

czasoprzestrzeni  -  jest  tam  większe.  Chociaż  efekt  ten  był  bardzo  mały,  jego  wielkość 

dokładnie  odpowiadała  wartości  przewidywanej  przez  ogólną  teorię  względności,  przy 

założeniu, że w pobliżu Ziemi czasoprzestrzeń ulega zakrzywieniu.  

Drugi  wniosek  z  tego,  że  przestrzeń  się  zakrzywia,  jest,  jeśli  chodzi  o  podróże 

międzygwiezdne,  może  jeszcze  bardziej  ekscytujący.  Gdy  przestrzeń  jest  zakrzywiona,  linia 

prosta nie musi być najkrótszą drogą między dwoma punktami. Oto przykład. Przyjrzyjmy się 

okręgowi  na kartce papieru. Zazwyczaj  najkrótszą odległość  między dwoma punktami  A  i B, 

umieszczonymi  po  przeciwnych  stronach  okręgu,  stanowi  łączący  je  odcinek,  który 

przechodzi przez środek okręgu: 

 

Gdybyśmy  natomiast  musieli  przemieścić  się  z  A  do  B  po  okręgu,  podróż  byłaby 

background image

około 1,5 rażą dłuższa. Teraz narysujmy ten okrąg na kawałku gumy i odkształćmy środkowy 

obszar w następujący sposób: 

 

Jeśli popatrzymy z naszej trójwymiarowej perspektywy, stanie się jasne, że podróż z -

A do B przez środek  tego obszaru będzie  znacznie dłuższa  niż po okręgu.  Gdybyśmy  jednak 

sfotografowali ten układ z góry, tak że powstałby obraz dwuwymiarowy, linia łącząca punkty 

A oraz B przez środek wyglądałaby jak linia prosta. Co ważniejsze, gdyby niewielki robaczek  

(lub  jedna  z  dwuwymiarowych  istot,  jakie  napotkał  Enterprise)  miał  przejść  po  torze 

łączącym A  i  B przez środek, posuwając się po powierzchni, tor ten  wydałby  mu się prosty. 

Byłby zdziwiony, że linia prosta biegnąca przez środek i łącząca A z B nie jest już najkrótszą 

drogą  między tymi dwoma punktami. Gdyby był  inteligentny,  musiałby dojść do wniosku,  że 

dwuwymiarowa  przestrzeń,  w  której  żyje,  jest  zakrzywiona.  Tylko  obserwując,  jak 

powierzchnia  ta  zanurzona  jest  w  trójwymiarowej  przestrzeni,  możemy  bezpoś rednio 

zauważyć krzywiznę. 

Należy  pamiętać,  że  żyjemy  w  czterowymiarowej  czasoprzestrzeni,  która  może  być 

zakrzywiona,  i  nasze  możliwości  postrzegania  jej  krzywizny  są  tak  samo  ograniczone,  jak 

możliwości  robaczka  idącego po powierzchni kartki. Nietrudno zgadnąć, do czego  zmierzam: 

jeśli w  zakrzywionej przestrzeni  najkrótsza odległość  między dwoma punktami  nie  musi być 

linią  prostą,  nie  można  wykluczyć,  że  dzięki  znalezieniu  krótszej  drogi  przez  zakrzywioną 

czasoprzestrzeń uda się przebyć odległość, która wzdłuż linii widzenia wydaje się duża. 

Opisane  własności  czasoprzestrzeni  pozwalają  snuć  marzenia  o  podróżach 

międzygwiezdnych. Pozostaje oczywiście pytanie:  ile  z tych  marzeń  może się pewnego dnia 

urzeczywistnić? 

TUNELE  CZASOPRZESTRZENNE:  FAKTY  I  MITY.  Tunel  bajorański  w  serii 

Stacja kosmiczna jest chyba  najsłynniejszym tunelem czasoprzestrzennym  w Star  Trek, choć 

było  też  wiele  innych,  na  przykład  niebezpieczny  tunel,  który  Scotty  stworzył  powodując 

zachwianie  równowagi  między  materią  i  antymaterią  w  napęd zie  czasoprzestrzennym 

Enterprise,  a  także  niestabilny  tunel  barzański,  w  którym  zgubił  się  statek  Ferengów  w 

background image

odcinku Cena serii Następne pokolenie, czy tunel czasowy, który napotkał Voyager, próbując 

powrócić do domu z krańca Galaktyki. 

Idea  tuneli  czasoprzestrzennych  ma  swoje  źródło  w  hipotezach,  o  których  pisałem 

wcześniej.  Jeśli  czasoprzestrzeń  jest  zakrzywiona,  mogą  istnieć  różne  drogi  łączące  dwa 

punkty, między innymi takie, wzdłuż których odległość między punktami jest o wiele krótsza, 

niż  gdybyśmy  zmierzyli  ją  podróżując  przez  zakrzywioną  przestrzeń  wzdłuż  „linii  prostej”. 

Ponieważ  nie  potrafimy  sobie  wyobrazić  zjawisk  w  zakrzywionej  cztero-wymiarowej 

czasoprzestrzeni,  jeszcze  raz  posłużymy  się  dwuwymiarowym  kawałkiem  gumy,  którego 

zakrzywienie możemy obserwować w przestrzeni trójwymiarowej. 

Jeśli  kawałek  gumy  zakrzywiony  jest  w  dużej  skali,  można  go  sobie  wyobrazić 

następująco: 

 

Gdybyśmy  wbili  ołówek  w  punkcie  A  i  naciągnęli  gumową  po wierzchnię  aż  do 

punktu B, a następnie zszyli obie części w ten sposób: 

 

utworzylibyśmy  znacznie  krótszą  drogę  z  A  do  B  niż  droga  biegnąca  między  tymi 

punktami  po  powierzchni.  Zauważmy,  że  w  pobliżu  A  i  B  powierzchnia  wydaje  się  płaska. 

Zakrzywienie, które powoduje, że te dwa punkty znajdują się wystarczająco blisko siebie, aby 

można  je  było  połączyć  tunelem,  związane  jest  z  globalnym  zagięciem  powierzchni  na 

dużych odległościach. Robaczek (nawet inteligentny), znajdujący się w punkcie A i zmuszony 

do  podróży  po  powierzchni,  nie  miałby  pojęcia,  że  punkt  B  leży  tak  „blisko”,  nawet  gdyby 

potrafił przeprowadzać w okolicy A eksperymenty mające określić krzywiznę powierzchni.  

Jak  łatwo  zgadnąć, tunel  łączący na  tym rysunku punkty A  i  B jest dwuwymiarowym 

odpowiednikiem  trójwymiarowego  tunelu,  który  mógłby  biec  między  odległymi  obszarami 

czasoprzestrzeni.  Chociaż  jest  to  fascynująca  możliwość,  należy  zwrócić  uwagę  na  kilka  jej 

zwodniczych  aspektów.  Po  pierwsze,  nawet  jeśli  gumowa  powierzchnia  jest  zanurzona  w 

trójwymiarowej przestrzeni  tak, abyśmy  mogli  „zobaczyć”  jej  zakrzywienie, ten powyginany 

kawałek gumy może istnieć również bez otaczającej go trójwymiarowej przestrzeni. A zatem, 

background image

chociaż tunel między A i B mógłby się pojawić, stwierdzenie, że A i B są „blisko siebie”, nie 

ma sensu, jeśli nie ma tunelu. Nie można opuścić gumowej powierzchni i przemieścić się z A 

do  B  w  trójwymiarowej  przestrzeni,  w  której  jest  ona  osadzona.  Bez  trójwymiarowej 

przestrzeni gumowa powierzchnia jest całym wszechświatem.  

Wyobraź  teraz  sobie,  że  jesteś  członkiem  nieskończenie  zaawansowanej  w  rozwoju 

cywilizacji  (ale  nie  aż  tak  zaawansowanej,  jak  wszechmocne  istoty  Q,  które  właściwie  nie 

liczą się 

z  prawami  fizyki),  potrafiącej  budować  tunele  w  przestrzeni.  Urządzenie  do  budowy 

tuneli  działałoby  w  zasadzie  tak,  jak  ołówek  w  podanym  przeze  mnie  przykładzie.  Gdybyś 

posiadał  moc  wystarczającą,  by  wytwarzać  olbrzymie,  miejscowe  zakrzywienia  przestrzeni, 

musiałbyś potem przekłuwać przestrzeń  wokół  na chybił trafił  w nadziei,  że  uda Ci się  jakoś 

połączyć dwa obszary przestrzeni, które do momentu powstania tunelu znajdowały się bardzo 

daleko  od  siebie.  Aż  do  chwili,  gdy  tunel  utworzy  most  między  tymi  obszarami,  w  żaden 

sposób nie są one blisko siebie. To sam proces budowania tego mostu zmienia globalną naturę 

czasoprzestrzeni. 

Z  tego  powodu  tworzenia  tuneli  nie  należy  lekceważyć.  Kiedy  barzańska  premier 

Bhavani odwiedziła  Enterprise, aby odsprzedać prawa do barzańskiego tunelu,  wykrzyknęła: 

„Przed  wami  rozciąga  się  pierwszy  i  jedyny  znany  stabilny  tunel  czasoprzestrzenny!” 

Niestety,  nie  był  on  stabilny:  wszystkie  tunele,  których  matematyczne  istnienie  zostało 

udowodnione  w ramach ogólnej teorii względności, są  w  istocie krótkotrwa łe. Powstają,  gdy 

dwie  mikroskopijne  „osobliwości” - obszary czasoprzestrzeni,  w których krzywizna staje  się 

nieskończenie  duża  -  odnajdują  się  i  na  chwilę  łączą.  Tunel  zamyka  się  jednak  szybko, 

pozostawiając  znowu  dwie  rozłączne  osobliwości.  Trwa  to  tak  krótko,  że  przez  tunel  nie 

zdążyłby  się  przedostać  żaden  amator  podróży  międzygwiezdnych.  Nieszczęsny  podróżnik 

rozpadłby się na kawałki w jednej lub drugiej osobliwości jeszcze przed końcem podróży.  

Problem  polegający  na  tym,  jak  wejście  do  tunelu  utrzymać  otwarte,  jest  niezwykle 

trudno sformułować w ścisły,  matematyczny sposób, ale w sensie  fizycznym  można  go  łatwo 

wyrazić:  grawitacja  wciąga!  Każdy  rodzaj  zwyczajnej  materii  lub  energii  zapada  się  pod 

wpływem  własnego  przyciągania  grawitacyjnego,  chyba  że  proces  ten  zostanie  zatrzymany 

przez coś  innego. Podobnie,  w  normalnych  warunkach wejście do tunelu  zostanie rozerwane 

w mgnieniu oka. 

Sztuka  polega  więc  na  tym,  aby  pozbyć  się  owych  normalnych  warunków.  W 

ostatnich  latach  m.in.  Kip  Thorne,  fizyk  z  Caltech,  dowodził,  że  jedynym  sposobem  na 

utrzymanie  otwartych  tuneli  jest  przymocowanie  ich  za  pomocą  „egzotycznej  materii”  o 

background image

niezwykłych własnościach: przynajmniej dla niektórych obserwatorów miałaby ona „ujemną” 

energię.  Można  by  oczekiwać  (choć  naiwne  pomysły  rzadko  się  sprawdzają  w  teorii 

względności),  że  taka  materia  „rozdmuchiwałaby”,  a  nie  „wciągała”,  przynajmniej  jeśli 

chodzi o grawitację. 

Nie  trzeba  być  zagorzałym  trekkerem,  aby  przystać  na  pomysł  materii  o  ujemnej 

energii; chociaż, jak  zauważyłem,  w przypadku  zakrzywionej przestrzeni  nie  należy  zbytnio 

ufać  swoim  wyobrażeniom.  Kiedy  jednak  doda  się  jeszcze  do  tego  niezwykłe  zjawiska, 

którymi zasypuje nas mechanika kwantowa i które rządzą zachowaniem materii w małej skali, 

prawie wszystkie przewidywania okazują się błędne. 

CZARNE DZIURY  I  DR  HAWKING. Na scenę wkracza Stephen Hawking.  Zdobył 

on  sławę  wśród  fizyków  zajmujących  się  ogólną  teorią  względności  dzięki  udziałowi,  jaki 

miał  w  udowodnieniu  ogólnych  twierdzeń  związanych  z  istnieniem  osobliwości  w 

czasoprzestrzeni,  a  następnie  -  w  latach  siedemdziesiątych  -dzięki  wspaniałym  odkryciom 

teoretycznym  dotyczącym  zachowania  czarnych  dziur.  Są  to  obiekty  powstające  z  materii, 

która  zapadła się tak bardzo,  że pole  grawitacyjne  uniemożliwia  nawet światłu  ucieczkę  z  ich 

powierzchni. 

Nawiasem mówiąc, termin „czarna dziura”, który tak zniewolił publiczną wyobraźnię, 

wymyślił  fizyk  teoretyk John  Archłbald Wheeler  z Uniwersytetu  w Princeton późną  jesienią 

1967  roku.  Ta  data  jest  bardzo  interesująca,  ponieważ,  o  ile  mi  wiadomo,  pierwszy  odcinek 

Star  Trek,  w  którym  pojawiło  się  pojęcie  czarnej  dziury  -  jeszcze  pod  nazwą  „czarnej 

gwiazdy”  -został  wyemitowany  w  1967  roku,  zanim  Wheeler  użył  tego  terminu  publicznie. 

Kiedy  oglądałem  ów  odcinek  zbierając  materiały  do  książki,  wydało  mi  się  zabawne,  że 

twórcy  Stor  Trek  użyli  nieprawidłowej  nazwy.  Teraz  zdaję  sobie  sprawę,  że  oni  niemal  ją 

wynaleźli!  

Czarne dziury są  niezwykłymi obiektami  z  rozmaitych powodów. Po pierwsze, każda 

czarna  dziura  skrywa  w  swoim  wnętrzu  czasoprzestrzenną  osobliwość,  do  której  w 

nieunikniony 

sposób  musi  dotrzeć  wszystko,  co  spada  na  czarną  dziurę.  W  takiej  osobliwości  - 

nieskończenie  zakrzywionym  „wierzchołku”  czasoprzestrzeni  -  znane  nam  prawa  fizyki  się 

załamują. W pobliżu osobliwości krzywizna jest tak duża na tak małym obszarze, że efektami 

działania  grawitacji  rządzą prawa  mechaniki kwantowej. Jak dotąd jednak  nikomu  nie  udało 

się  stworzyć  teorii,  która  spójnie  pomieściłaby  w  sobie  zarówno  ogólną  teorię  względności 

(czyli  grawitację),  jak  i  mechanikę  kwantową.  Autorzy  Stor  Trek  potrafili  właściwie  ocenić 

napięcie  istniejące  między  mechaniką  kwantową  a  teorią  grawitacji:  zwykle  określają 

background image

wszystkie  osobliwości  czasoprzestrzeni  jako  „osobliwości  kwantowe”.  Jedno  jest  pewne: 

zanim pole  grawitacyjne w środku czarnej dziury osiągnie wystarczająco duże  natężenie, aby 

załamały  się  znane  nam  prawa  fizyki,  każdy  zwyczajny  fizyczny  przedmiot  zostanie 

rozerwany na strzępy. Nic nie przetrwa w stanie nietkniętym.  

Powiedziałem,  że czarna dziura  „skrywa”  w swoim wnętrzu osobliwość. Na krańcach 

czarnej  dziury  znajduje  się  zdefiniowana  matematycznie  powierzchnia,  zwana  horyzontem 

zdarzeń,  która  przesłania  nam  widok  tego,  co  dzieje  się  z  przedmiotami  wpadającymi  do 

czarnej dziury. Wszystko, co znajdzie się wewnątrz  horyzontu,  musi  nieuchronnie dotrzeć do 

złowieszczej  osobliwości.  Jedynie  obiekty  będące  na  zewnątrz  horyzontu  zdarzeń  mogą 

uniknąć  tego  losu.  Pechowy  obserwator  (który  wkrótce  przestanie  już  być  obserwatorem), 

spadający  do  czarnej  dziury,  nie  zauważy  niczego  specjalnego  w  momencie  przekraczania 

horyzontu  zdarzeń,  natomiast obserwator przyglądający  się  temu  z daleka  ujrzy  coś  zupełnie 

innego.  Czas  obserwatora  spadającego  swobodnie  w  pobliżu  horyzontu  zdarzeń  zdaje  się 

zwalniać  w  stosunku  do  czasu  obserwatora  znajdującego  się  daleko.  W  związku  z  tym 

odległemu  obserwatorowi  wydaje  się,  że  ten,  który  spada,  zwalnia  swój  ruch  w  miarę  jak 

zbliża  się  do  horyzontu  zdarzeń.  Im  bliżej  horyzontu  się  znajduje,  tym  wolniej  chodzi  jego 

zegar w stosunku do zegara  zewnętrznego obserwatora. Chociaż spadającemu obserwatorowi 

przekroczenie horyzontu zdarzeń może zająć tylko kilka chwil (czasu własnego) - przy czym, 

powtarzam,  nic  specjalnego  się  tam  nie  dzieje  i  nic  szczególnego  nie  znajduje  -  zewnętrzny 

obserwator  musiałby  na  to  czekać  przez  wieczność.  Spadający  na  czarną  dziurę  obiekt 

sprawia wrażenie zamrożonego w czasie. 

Co  więcej,  emitowane  przez  spadający  obiekt  światło  coraz  trudniej  jest  dostrzec  z 

zewnątrz.  Gdy  obiekt  taki  zbliża  się  do  horyzontu  zdarzeń,  staje  się  coraz  s łabiej  widoczny 

(ponieważ  częstość  docierającego  od  niego  promieniowania  przesuwa  się  poniżej  częstości 

widzialnych).  A  zatem  nawet  gdyby  można  było  zobaczyć  z  zewnątrz  moment  przejścia 

spadającego  obiektu  przez  horyzont  zdarzeń  (co  jest  niemożliwe  w  jakimkolwiek 

skończonym  odstępie  czasu),  zniknąłby  on  w  tej  chwili  zupełnie  z  pola  widzenia,  ponieważ 

emitowane  przezeń  światło  zostałoby  schwytane  razem  z  nim.  Cokolwiek  znajdzie  się 

wewnątrz  horyzontu  zdarzeń  jest  na  zawsze  stracone  dla  zewnętrznego  świata.  Ten  brak 

komunikacji  wygląda  jak  jednokierunkowa  ulica:  zewnętrzny  obserwator  może  wysyłać 

sygnały do czarnej dziury, ale żaden z nich nigdy nie powróci.  

W  świetle  tych  faktów  czarne  dziury  spotykane  w  Star  Trek  mają  absurdalne 

właściwości.  Horyzont  zdarzeń  nie  jest  namacalnym  przedmiotem,  ale  umowną 

matematyczną  granicą,  którą  wprowadzamy  do  opisu  czarnej  dziury,  aby  oddzielić  obszar 

background image

wewnętrzny  od  zewnętrznego.  Oznacza  to,  że  horyzont  nie  może  wydawać  z  siebie  trzasku, 

jak  tego  oczekuje  załoga  Voyager,  kiedy  w  cudowny  sposób  udaje  jej  się  uciec  z  wnętrza 

czarnej dziury. (Pomysł  ten jest tak absurdalny,  że dostał się  na stworzoną przeze  mnie  listę 

dziesięciu  największych błędów popełnionych przez scenarzystów Stor  Trek, które opisuję w 

ostatnim  rozdziale).  Z  kolei  „istoty  zamieszkujące  osobliwości  kwantowe”,  napotkane  przez 

załogę  Enterprise,  gdy  wraz  z  romulańskim  statkiem  Warbird  podróżuje  on  w  przeszłość  i 

przyszłość,  wybierają  niezbyt  szczęśliwe  miejsce  na  gniazdo  dla  swoich  młodych: 

umieszczają  je wewnątrz powstałej w  naturalny sposób czarnej dziury (za którą  mylnie biorą 

„sztuczną” osobliwość kwantową w rdzeniu silnika romulańskiego statku). Choć może to być 

bezpieczne  miejsce, trudno jednak  wydobyć  z niego swoje potomstwo. Przypominam,  że  nic, 

coznajduje  się  wewnątrz  czarnej  dziury,  nie  może  komunikować  się  z  czymkolwiek  na 

zewnątrz. 

Czarne  dziury  jednak,  mimo  tylu  ciekawych  własności,  nie  muszą  być  aż  tak 

niezwykłe. Jedyne czarne dziury, na których  istnienie we Wszechświecie  mamy  jakiekolwiek 

dowody, powstają w wyniku zapadania się gwiazd o wiele bardziej masywnych od Słońca. Te 

zapadnięte  obiekty  stają  się  tak  gęste,  że  łyżeczka  znajdującej  się  wewnątrz  nich  materii 

ważyłaby  wiele  ton.  Kolejną  niezwykłą  właściwością  czarnych  dziur  jest  to,  że  im  większą 

mają  masę,  tym  mniejsza  musi być  ich  gęstość  w chwili,  gdy powstają. Na przykład  gęstość 

czarnej  dziury,  która  utworzyła  się  w  wyniku  zapadnięcia  się  obiektu  o  masie  sto  milionów 

razy  większej  od  masy  Słońca,  nie  musi  być  większa  od  gęstości  wody.  Obiekt  o  większej 

masie  zapadnie  się  i  utworzy  czarną  dziurę  nawet  przy  jeszcze  mniejszej  gęstości.  Jeśli 

będziemy  dalej  ekstrapolować  tę  zależność,  okaże  się,  że  gęstość  konieczna  do  tego,  aby 

powstała  czarna  dziura  o  masie  równej  masie  obserwowalnego  Wszechświata,  jest  mniej 

więcej  taka  sama  jak  średnia  gęstość  materii  we  Wszechświecie.  Możliwe,  że  żyjemy 

wewnątrz czarnej dziury! 

W  1974  roku  Stephen  Hawking  dokonał  niezwykłego  odkrycia,  stwierdzając,  że 

czarne  dziury  nie  są  zupełnie  czarne!  Mogą  emitować  promieniowanie  o  pewnej 

charakterystycznej  temperaturze  zależnej  od  ich  masy.  Chociaż  natura  tego  promieniowania 

nie zawiera żadnej informacji o tym, co wpadło do czarnej dziury, sama idea, że czarna dziura 

może  promieniować,  była  zdumiewająca.  Wydawało  się,  że  narusza  ona  wiele  twierdzeń  -z 

których  część  Hawking  sam  wcześniej  udowodnił  -  utrzymujących,  iż  materia  może  tylko 

wpadać do czarnych dziur, ale nigdy nie  może się  z  nich wydostać. Wszystko to prawda, tyle 

że  źródło  promieniowania  czarnej  dziury  nie  jest  zwykłą  materią:  promieniuje  pusta 

przestrzeń,  która  może  zachowywać  się  całkiem  nietypowo  -  zwłaszcza  w  pobliżu  czarnej 

background image

dziury. 

Odkąd  prawa  mechaniki  kwantowej  zostały  uzgodnione  ze  szczególną  teorią 

względności,  do  czego  doszło  wkrótce  po  drugiej  wojnie  światowej,  wiemy,  że  pusta 

przestrzeń  nie  jest  całkiem  pusta.  Jest  ona  raczej  kipiącym,  bulgoczącym  morzem 

kwantowych  zaburzeń.  Te  fluktuacje  co  jakiś  czas  wypluwają  pary  cząstek  elementarnych, 

które  istnieją przez okres  tak krótki,  że  nie  możemy  ich  zaobserwować wprost,  a  następnie  z 

powrotem  znikają  w  próżni,  z  której  się  narodziły.  Zasada  nieoznaczoności  w  mechanice 

kwantowej  mówi,  że  nie  da  się  badać  bezpośrednio  pustej  przestrzeni  w  tak  krótkich 

odcinkach czasu, a wiec  nie  można wykluczyć,  iż owe cząstki,  zwane wirtualnymi, pojawiają 

się  na  mgnienie  oka  i  znikają.  Choć  nie  potrafimy  wykryć  tych  cząstek  bezpośrednio,  ich 

obecność  ma wpływ  na  wielkości  fizyczne, które  możemy  mierzyć, jak  na przykład  tempo  i 

energia przejść  między pewnymi poziomami  energetycznymi w atomach. Ów efekt  udało się 

doświadczalnie potwierdzić. 

To  przywodzi  nas  z  powrotem  do  Hawkinga  i  jego  niezwykłych  odkryć.  W 

normalnych  warunkach,  gdy  fluktuacja  kwantowa  tworzy  wirtualną  parę  cząstek,  para  ta 

anihiluje  ł  znika  z  powrotem  w  próżni  w  czasie  tak  krótkim,  że  nie  można  zaobserwować 

złamania  zasady  zachowania  energii  (spowodowanego  kreacją  tej  pary  z  nicości).  Kiedy 

jednak  wirtualna  para  cząstek  pojawia  się  w  zakrzywionej  przestrzeni  w  pobliżu  czarnej 

dziury, jedna  z cząstek  może do  niej wpaść, druga  zaś  uciec, dzięki czemu  staje się dostępna 

obserwacjom.  Dzieje się tak dlatego,  że cząstka  wpadająca do czarnej dziury  może stracić w 

tym  procesie  więcej  energii,  niż  jest  potrzebne  na  jej  stworzenie  z  niczego.  Dostarcza  więc 

ona  do  czarnej  dziury  „ujemnej  energii”  i  w  ten  sposób  energia  czarnej  dziury  się  obniża. 

Zasada  zachowania energii  nie  ulega przy tym  złamaniu,  gdyż  ta  ujemna energia równoważy 

energię  cząstki,  która  uciekła  i  została  zaobserwowana.  W  ten  sposób  czarna  dziura  emituje 

promieniowanie.  Co  więcej,  zmniejszaniu  się  energii  czarnej  dziury  towarzyszy  w  tym 

procesie  zmniejszanie  się  jej  masy.  W  końcu  może  ona  zupełnie  wyparować,  pozostawiając 

po sobie jedynie wyprodukowane w czasie swojego istnienia promieniowanie.  

Hawking  i  wielu  innych  uczonych  wykroczyli  poza  początkowe  rozważania 

kwantowych  fluktuacji  materii  w zakrzywionej przestrzeni  i  zajęli się czymś jeszcze bardziej 

niezwykłym i nie 

tak  dobrze  określonym.  Jeśli  mechanika  kwantowa  dotyczy  nie  tylko  materii  i 

promieniowania,  lecz również  grawitacji, w wystarczająco  małych skalach  muszą pojawić się 

fluktuacje  samej  czasoprzestrzeni.  Niestety,  nie  dysponujemy  teorią,  którą  moglibyśmy 

wykorzystać  do  opisu  takich  procesów.  Nie  stanowiło  to  jednak  przeszkody  w  podjęciu 

background image

próbnych  badań  teoretycznych  nad  zjawiskami,  które  mogłyby  z  tego  wyniknąć.  Do 

najbardziej  interesujących  należy  przypuszczenie,  że  procesy  kwantowomechaniczne 

mogłyby  pozwalać  na  spontaniczną  kreację  nie  tylko  cząstek,  ale  całych  nowych 

wszechświatów.  Mechanika kwantowa określa, przynajmniej  matematycznie, jak  miałoby się 

to  odbywać,  a  formalny  zapis  tego  procesu  jest  bardzo  podobny  do  rozwiązań  opisujących 

tunele  czasoprzestrzenne,  odkrytych  w  klasycznej  teorii  względności.  Za  pośrednictwem 

takich  „euklidesowych”  tuneli  powstaje  tymczasowy  „most”,  prowadzący  do  nowego 

wszechświata.  Możliwości  związane  z  procesami  dotyczącymi  tuneli  euklidesowych  i 

wszechświatów  potomnych  są  tak  fascynujące,  że  o  kwantowych  fluktuacjach  wspomniano 

nawet  w  czasie  gry  w  pokera,  do  której  zasiedli  Hawking,  Einstein  i  Newton  w  odcinku 

Dziedzictwo  z serii Następne pokolenie

1

. Jeśli twórcy Stor  Trek byli  zdezorientowani,  mieli 

do tego pełne prawo.  Te  zagadnienia pozostają  niestety wciąż bardzo niejasne. Aż do chwili, 

gdy  odkryjemy  właściwy  formalizm  matematyczny,  za  pomocą  którego  będzie  można 

opisywać  procesy  związane  z  kwantowaniem  grawitacji,  wszystkie  tego  rodzaju  rozważania 

przypominają błądzenie po omacku. 

Dla  nas  jednak  najbardziej  istotne  są  nie  zjawiska  parowania  czarnych  dziur,  czy 

nawet  wszechświatów  potomnych,  lecz  raczej  odkrycie,  że  kwantowe  fluktuacje  pustej 

przestrzeni  nabierają,  przynajmniej  w  obecności  silnych  pól  grawitacyjnych,  własności 

przypominających  warunki  konieczne  do  otwarcia  tunelu  czasoprzestrzennego.  Zasadnicze 

pytanie,  na  które  również  nie  ma  jeszcze  ostatecznej  odpowiedzi,  brzmi:  czy  fluktuacje 

kwantowe  w  pobliżu  tunelu  czasoprzestrzennego  mogą  się  zachowywać  wystarczająco 

nietypowo, ażeby utrzymać otwarty tunel? 

(Przy  okazji  należy  wspomnieć,  że  autorzy  Star  Trek  jeszcze  raz  okazali  się 

nadzwyczaj  przewidujący  w  wyborze  nazewnictwa.  Mówi  się,  że  tunele  bajorariski  i 

barzański wykorzystują pola  „werteronowe”. Nie  mam pojęcia, czy ta nazwa  została wzięta  z 

sufitu, czy nie. Ponieważ jednak cząstki wirtualne - fluktuacje kwantowe w pustej przestrzeni 

- są obecnie najlepszym kandydatem do miana „egzotycznej materii” Kipa Thorne'a, sądzę, że 

intuicja twórców Star Trek - o ile tym razem się nią posłużyli - zasługuje na uznanie). 

Innymi  słowy,  jeśli  fluktuacje  kwantowe  w  próżni  mogą  być  egzotyczne,  czy  nie 

wystarczyłyby  jakieś  inne  nieklasyczne  konfiguracje  materii  i  promieniowania  -  chociażby 

wyrwa  w  środku  zakrzywienia  czasoprzestrzennego  lub  „mieszankowa”  nierównowaga  w 

napędzie  czasoprzestrzennym  Scotty'ego?  Ciągle  nie  znamy  odpowiedzi  na  takie  pytania. 

Choć  w  żaden  sposób  nie  wykluczają  one  istnienia  stabilnych  tuneli  czasoprzestrzennych  w 

rzeczywistym Wszechświecie, pozostawiają otwarte ogólniejsze pytanie, dotyczące  tego, czy 

background image

podróże  przez  tunel  są  niemożliwe,  czy  jedynie  prawie  niemożliwe.  Problem  tuneli  jest  nie 

tylko  jednym  z przedmiotów sporu pomiędzy  nauką a  fantastyką  naukową: jest on kluczem, 

mogącym otworzyć drzwi, które wielu wolałoby pozostawić zamknięte.  

NOWE SPOJRZENIE NA WEHIKUŁY CZASU.  Tunele, chociaż  znakomicie by  się 

nadawały  do  pokonywania  olbrzymich  odległości  w  przestrzeni,  kryją  w  sobie  jeszcze 

bardziej  niezwykłą  możliwość,  zauważoną ostatnio w odcinku  Ucho  igielne  z serii  Voyager. 

Załoga  Voyager odkrywa  mały tunel wiodący  z powrotem do  ich własnego  „kwadrantu alfa” 

Galaktyki.  Po  nawiązaniu  łączności  przez  ten  tunel  okazało  się  ku  ich  przerażeniu,  że 

prowadzi  on  nie  do  kwadrantu  alfa,  który  znali  i  kochali,  ale  do  kwadrantu  alfa  o  jedno 

pokolenie wcześniej. Dwa końce tunelu łączyły przestrzeń w dwóch różnych czasach! 

I  tym  razem  twórcy  serii  Voyager  uchwycili  sedno  sprawy.  Jeśli  istnieją  tunele 

czasoprzestrzenne,  niewątpliwie  mogą  one  być  wehikułami  czasu!  Świadomość  tego 

zaskakującego faktu narastała w ciągu ostatniego dziesięciolecia, w miarę jak różni teoretycy, 

nie  mając  nic  lepszego  do  roboty,  zaczęli  badać  fizykę  tuneli  czasoprzestrzennych  nieco 

poważniej.  Wykorzystując  ideę  tuneli,  łatwo  jest  zaprojektować  wehikuł  czasu.  Najprostszy 

chyba  przykład  znowu  zawdzięczamy  Kipowi  Thorne'owi:  tunel,  którego  jeden  koniec 

pozostaje  zamocowany, drugi  zaś porusza się  z dużą, ale podświetlną prędkością w odległym 

obszarze  Galaktyki.  W  zasadzie  jest  to  możliwe,  nawet  jeśli  długość  tunelu  nie  ulega 

zmianom.  Używając  przedstawionego  wcześniej  dwuwymiarowego  modelu  tunelu, 

przesuńmy po prostu dolną część powierzchni na lewo, pozwalając przestrzeni „prześlizgiwać 

się” po dolnym otworze tunelu, który przez cały czas  znajduje  się  w  tym samym  miejscu w 

stosunku do drugiego otworu tunelu: 

 

Ponieważ  dolny  wylot  tunelu  porusza  się  względem  przestrzeni,  w  której  jest 

umieszczony, natomiast  górny pozostaje w tym samym  miejscu, zgodnie ze szczególną teorią 

względności  zegary  na  każdym  z  końców  tunelu  odmierzają  czas  w  innym  tempie.  Jeśli 

jednak długość  tunelu  nie  ulega  zmianie, dla kogoś  znajdującego się  wewnątrz  tunelu  te dwa 

końce będą się znajdowały względem siebie w spoczynku. W tym układzie odniesienia zegary 

w  obu  końcach  powinny  tykać  w  takim  samym  tempie.  Cofnijmy  teraz  dolną  część 

powierzchni  z powrotem w to  samo  miejsce,  tak aby dolne  wejście do tunelu  znalazło się w 

początkowym  położeniu.  Powiedzmy,  że  czynność  ta  -  obserwowana  przez  kogoś 

background image

znajdującego się  w pobliżu dolnego wylotu  tunelu -  zajmuje jeden dzień.  Z punktu  widzenia 

obserwatora  znajdującego się przy  górnym końcu tunelu ten  sam proces  może  trwać dziesięć 

dni. Gdyby ten drugi obserwator spojrzał przez tunel na obserwatora znajdującego się na dole, 

zobaczyłby  na  jego  ściennym  kalendarzu  datę  o  dziewięć  dni  wcześniejszą!  Jeśli  teraz 

zdecyduje się on złożyć wizytę drugiemu obserwatorowi podróżując przez tunel, cofnie się w 

czasie. 

Jeśli  istnieją  stabilne  tunele  czasoprzestrzenne,  musimy  przyznać,  że  wehikuły  czasu 

są  możliwe.  Powróćmy  teraz  do  uwag  Einsteina,  o  których  była  mowa  na  początku 

poprzedniego rozdziału. Czy podróże  w czasie - a zatem stabilne  tunele  i egzotyczną  materię 

o ujemnej energii - można „wykluczyć ze względów fizycznych”?  

Tunele  są  w  końcu  tylko  jednym  z  przykładów  wehikułów  czasu,  które 

zaproponowano  w  ramach  ogólnej  teorii  względności.  Jeśli  przypomnimy  sobie  naszą 

poprzednią  dyskusję  o  naturze  tej  teorii,  nie  powinno  być  zaskakujące,  że  podróże  w  czasie 

stają  się  w  niej  możliwe.  Powtórzmy  jeszcze  raz  poglądowy  zapis  równań  Einsteina,  który 

podałem wcześniej: 

Lewa strona równania  

=  

Prawa strona równania 

ZAKRZYWIENIE    

=  

MATERIA I ENERGIA 

 

Lewa  strona  tego  równania  określa  geometrię  czasoprzestrzeni.  Prawa  strona  opisuje 

rozkład  materii  i energii. Moglibyśmy  zapytać, jaka będzie krzywizna przestrzeni dla danego 

rozkładu  materii  i  energii.  Ale  możemy  też  działać  odwrotnie.  Dla  danej  geometrii 

przestrzeni,  włącznie  z  taką,  która  zawiera  zamknięte  krzywe  czasowe  -  czyli  pętle 

przyczynowe, pozwalające powrócić do początkowego punktu w przestrzeni  i czasie (w pętlę 

taką  wpadł  Enterprise  przed,  w  trakcie  i  po  zderzeniu  z  Bozemanem)  -  równania  Einsteina 

określają  dokładnie,  jaki  rozkład  materii  i  energii  musi  jej  towarzyszyć.  W  zasadzie  można 

więc  zaprojektować dowolny rodzaj wszechświata  z podróżami w czasie;  równania Einsteina 

szczegółowo podpowiedzą, jakiego rozkładu  materii  i energii  należy  użyć. Kluczowe pytanie 

jest więc następujące: czy taki rozkład materii i energii jest fizycznie możliwy?  

Przekonaliśmy  się  już,  dlaczego  to  pytanie  pojawia  się,  gdy  dyskutujemy  o  tunelach 

czasoprzestrzennych.  Istnienie  stabilnych  tuneli  wymaga  egzotycznej  materii  o  ujemnej 

energii.  Rozwiązanie  umożliwiające  podróże  w  czasie  znalazł  w  ramach  ogólnej  teorii 

względności Kurt  Godeł. Wymaga ono  istnienia  wszechświata o  stałej, jednorodnej  gęstości 

energii  i  zerowym  ciśnieniu;  wszechświata,  który  się  obraca,  ale  nie  rozszerza.  Ostatnio 

zaproponowano  wehikuł  czasu  związany  z  istnieniem  strun  kosmicznych,  który  również 

background image

wymaga  konfiguracji  o  ujemnej  energii.  Niedawno  udowodniono,  że  w  ogólnej  teorii 

względności  każda  konfiguracja  materii,  która  mogłaby  pozwalać  na  podróże  w  czasie, 

wymagałaby  zastosowania  egzotycznych  rodzajów  materii  o  ujemnej  energii  z  punktu 

widzenia przynajmniej jednego obserwatora. 

Ciekawe,  że  prawie  we  wszystkich  odcinkach  Stor  Trek  mówiących  o  podróżach  w 

czasie  lub pętlach czasowych dochodzi również do  gwałtownego  uwolnienia  energii,  zwykle 

związanego z wyrwą w środku zakrzywienia czasoprzestrzennego. Na przykład czasowa pętla 

przyczynowa,  w  którą  został  złapany  Enterprise,  powstała  zaraz  po  (choć  właściwie  pojęcia 

„przed” i „po” tracą sens w pętli przyczynowej) zderzeniu z Bozemanem, które spowodowało 

naruszenie  zakrzywienia  czasoprzestrzennego  i  zniszc zenie  Enterprise.  Ta  sama  seria 

wydarzeń powtarzała się wielokrotnie, aż w końcu w jednym cyklu załodze udało się uniknąć 

zderzenia. Chwilowe  zamrożenie czasu  na pokładzie Enterprise, odkryte przez Picarda,  Datę, 

Troia  i  LaForge'a  w  odcinku  Czasobroz,  przypuszczalnie  również  było  spowodowane  przez 

narastające  naruszenie  zakrzywienia  czasoprzestrzeni  w  połączeniu  z  awarią  rdzenia  silnika 

na pokładzie pobliskiego statku romulańskiego. W odcinku Czas do kwadratu rozległy „węzeł 

energetyczny” cofnął Picarda  w czasie. W klasycznym przykładzie podróży w  czasie w Stor 

Trek:. Nagi czas statek Enterprise  zostaje przerzucony o trzy dni  wstecz  w  wyniku  implozji 

zakrzywienia czasoprzestrzennego.  

Natomiast  olbrzymie  zakrzywienie  czasoprzestrzeni  w  ostatnim  odcinku  z  serii 

Następne  pokolenie,  podróżujące  wstecz  w  czasie  i  grożące  pochłonięciem  całego 

Wszechświata,  zostało spowodowane  jednoczesną eksplozją trzech  wersji Enterprise, które  - 

choć pochodziły z różnych epok - znalazły się w tym samym punkcie przestrzeni. 

Wygląda  więc  na to,  że podróże  w czasie w  rzeczywistym Wszechświecie, podobnie 

jak  we  wszechświecie  Star  Trek,  związane  są  z  możliwościami  istnienia  egzotycznych 

konfiguracji  materii.  Czy  jakaś  wystarczająco  zaawansowana  obca  cywilizacja  mogłaby 

skonstruować  stabilny  tunel  czasoprzestrzenny?  Czy  potrafimy  opisać  wszystkie  rozkłady 

masy,  które  mogą  prowadzić  do  podróży  w  czasie,  a  następnie  wykluczyć  je  „ze  względów 

fizycznych”, jak zapewne życzyłby sobie tego Einstein? Na razie nie znamy odpowiedzi na te 

pytania.  Niektóre  szczególne  wehikuły  czasu  -  takie  jak  wehikuł  czasu  Godła  lub 

wykorzystujący  istnienie  strun  kosmicznych  -  okazały  się  nie-fizyczne.  Chociaż  podróże  w 

czasie  przez  tunele  czasoprzestrzenne  nie  zostały  jeszcze  ostatecznie  wykluczone,  wstępne 

badania sugerują,  że kwantowe  fluktuacje  grawitacji  mogą spowodować samozagładę tuneli, 

zanim udałoby się je wykorzystać do podróży w czasie. 

Ostateczne  rozwiązanie  problemu  podróży  w  czasie  pozostanie  prawdopodobnie  nie 

background image

znane,  dopóki  nie  powstanie  teoria  kwantowej  grawitacji.  Kilka  odważnych  osób,  ze 

Stephenem Hawkingiem  na czele,  zajęło już jednak stanowisko  w  tej sprawie. Hawking jest 

przekonany,  że  podróże  w  czasie  są  niemożliwe  z  powodu  oczywistych  paradoksów  z  nimi 

związanych.  Zaproponował  on  „hipotezę  zachowania  chronologii”,  twierdząc,  że  „prawa 

fizyki nie pozwalają na pojawienie się zamkniętych krzywych czasowych”.  

Osobiście  przychylam  się  do  poglądu  Hawkinga.  Fizyki  nie  uprawia  się  jednak  za 

pomocą  dekretów.  Jak  stwierdziłem  wcześniej,  ogólna  teoria  względności  często  wykracza 

poza  nasze  naiwne  oczekiwania.  Jako  ostrzeżenie  przytoczę  dwa  znane  mi  z  historii 

precedensy, kiedy to znani teoretycy utrzymywali,  

że  zaproponowane  w  teorii  względności  zjawisko  powinno  zostać  uznane  za 

niemożliwe, ponieważ muszą go zabraniać prawa fizyki. 

Pierwszy  raz  zdarzyło  się  to,  kiedy  młody  astrofizyk  Subrahmanyan  Chandrasekhar 

wysunął przypuszczenie,  że jądra gwiazd o  masie większej  niż 1,4  masy Słońca nie  mogą po 

spaleniu  całego  swojego  paliwa  jądrowego  ustabilizować  się  jako  białe  karły,  lecz  muszą 

dalej zapadać się grawitacyjnie. Znany fizyk sir Arthur Eddington publicznie zakwestionował 

ten  wynik,  mówiąc:  „wiele  przypadków  może  się  przyczynić  do  uratowania  gwiazdy,  ale  ja 

chcę  silniejszego  zabezpieczenia.  Sądzę,  że  powinno  istnieć  prawo  natury,  które 

zapobiegałoby  zachowaniu  się  gwiazdy  w tak absurdalny sposób!” W tamtych czasach wielu 

astrofizyków  stanęło  po  stronie  Eddington.  Pół  wieku  później  Chandrasekhar  otrzymał 

Nagrodę  Nobla  za  swoje  badania,  których  wyniki  do  tego  czasu  zostały  już  wielokrotnie 

potwierdzone. 

Nieco  ponad  20  lat  po  tej  historii  do  bardzo  podobnego  wydarzenia  doszło  na 

konferencji  w  Brukseli.  J.  Robert  Oppenheimer,  znany  amerykański  fizyk  teoretyk  i  ojciec 

bomby  atomowej,  obliczył,  że  obiekty,  zwane  gwiazdami  neutronowymi  -czyli  pozostałości 

po  supernowych,  jeszcze  gęstsze  niż  białe  karły  -  nie  mogą  mieć  masy  większej  od  około 

dwóch  mas  Słońca,  w  przeciwnym  bowiem  razie  zapadają  się  dalej,  tworząc  coś,  co  dziś 

nazywamy  czarną  dziurą.  Równie  znany  uczony,  John  Archibald  Wheeler,  stwierdził,  że 

wynik  ten  jest  niemożliwy,  przytaczając  ten  sam  argument,  którego  użył  Eddington,  aby 

odrzucić  twierdzenie  Chandrasekhara:  prawa  fizyki  muszą  w  jakiś  sposób  zapobiegać  tak 

absurdalnemu  losowi  obiektów  fizycznych.  W  ciągu  następnych  dziesięciu  lat  Wheeler 

zmienił zdanie i, jak na ironię, zasłynął jako ten, który nadał czarnym dziurom ich nazwę.  

background image

ROZDZIAŁ 4 

DATA KOŃCZY GRĘ 

I jam w przyszłość się pogrążał i, jak oka sięgnie trud, 

Świat widziałem, który idzie, i wszelaki jego cud. 

ALFRED TENNYSON, Zamek w Lockslty 

(cytat zawieszony na pokładzie statku Voyager) 

 

 

Niezależnie  od  tego,  czy  w  przyszłości  opisywanej  przez  Star  Trek  może  istnieć 

stabilny  tunel  czasoprzestrzenny  i  czy  załoga  Enterprise  mogła  przenieść  się  w  czasie  do 

dziewiętnastowiecznego San Francisco, prawdziwa stawka w tym kosmicznym pokerze wiąże 

się  z  pytaniem,  które  doprowadziło  nas  do  dyskusji  nad  zakrzywioną  czasoprzestrzenią. 

Brzmi  ono:  czy  może  istnieć  napęd  czasoprzestrzenny?  Ponieważ  nie  wydaje  się  możliwe, 

aby  Galaktyka  była  podziurawiona  stabilnymi  tunelami  czasoprzestrzennymi,  z  naszych 

wcześniejszych  dyskusji  wynika  niezbicie,  że  bez  tego  rodzaju  napędu  większość  Drogi 

Mlecznej pozostanie na zawsze poza naszym zasięgiem. Nadszedł w końcu czas, aby zająć się 

tym irytującym pytaniem. Odpowiedzią jest głośne: Być może! 

Po  raz  kolejny  wiele  zawdzięczamy  językowej  przenikliwości  twórców  Stor  Trek. 

Opisywałem  już,  dlaczego  żaden  rakietowy  mechanizm  napędowy  nigdy  nie  ominie  trzech 

przeszkód  stojących  na  drodze  do  podróży  międzygwiezdnych,  które  ustanowiła  szczególna 

teoria  względności.  Po  pierwsze,  nic  nie  może  poruszać  się  szybciej  niż  światło  w  pustej 

przestrzeni. Po drugie,  zegary obiektów podróżujących  z prędkością bliską prędkości światła 

zwalniają. Po trzecie, nawet gdyby rakieta mogła przyspieszyć statek kosmiczny do prędkości 

bliskich prędkości światła, jej zapotrzebowanie na paliwo byłoby bardzo wygórowane.  

Pomysł  polega  na  tym,  aby  zamiast  jakiegokolwiek  typu  rakiety  używać  samej 

czasoprzestrzeni  -  zakrzywiając  ją.  Ogólna  teoria  względności  wymaga,  abyśmy  byli  nieco 

bardziej dokładni w  naszych stwierdzeniach  na temat ruchu.  Zamiast  mówić, że  nic nie  może 

poruszać  się  szybciej  niż  światło,  winniśmy  raczej  twierdzić,  iż  nic  nie  może  podróżować 

lokalnie szybciej niż światło. Oznacza to, że nic nie może biec szybciej niż światło względem 

lokalnych  mierników  odległości.  Jeśli  jednak  czasoprzestrzeń  jest  zakrzywiona,  lokalne 

mierniki odległości nie muszą być takie same jak globalne. 

Jako  przykład  niech  posłuży  nam  sam  Wszechświat.  Według  szczególnej  teorii 

względności  zegary  wszystkich  obserwatorów  znajdujących  się  w  spoczynku  względem 

swojego otoczenia odmierzają czas w takim samym tempie. Zatem w trakcie przemieszczania 

background image

się  przez  Wszechświat  mogę  co  jakiś  czas  się  zatrzymywać,  umieszczając  zegary  w  takich 

samych odległościach od siebie w przestrzeni, i oczekiwać, że wszystkie one będą odmierzały 

ten  sam  czas.  Ogólna  teoria  względności  tego  nie  zmienia.  Zegary  będące  lokalnie  w 

spoczynku  odmierzają  ten  sam  czas.  Ogólna  teoria  względności  zezwala  jednak,  by 

czasoprzestrzeń  się  rozszerzała.  Obiekty,  znajdujące  się  po  przeciwnych  stronach 

obserwowalnego  Wszechświata, oddalają się od siebie  z prędkością bliską prędkości światła, 

ale  mimo  to  pozostają  w  spoczynku  względem  swojego  otoczenia.  Jeśli  Wszechświat 

rozszerza się jednorodnie ł jest wystarczająco duży - a oba te założenia wydają się prawdziwe 

- istnieją obiekty, których  nie  możemy jeszcze  zobaczyć  i które w tej właśnie chwili oddalają 

się od  nas o  wiele szybciej  niż światło, chociaż cywilizacje  na  tych krańcach Wszechświata 

mogą się znajdować lokalnie w spoczynku względem swojego otoczenia.  

Krzywizna  przestrzeni  stwarza  więc  lukę  w  argumentach  szczególnej  teorii 

względności -  lukę  wystarczająco dużą, aby  mógł się przez  nią przecisnąć statek kosmiczny 

Federacji. Jeśli  istnieje  możliwość  manipulowania samą czasoprzestrzenią, obiekty  mogą  się 

poruszać lokalnie z małymi prędkościami, ale towarzyszące im rozszerzanie lub kurczenie się 

przestrzeni  pozwala  na  pokonywanie  olbrzymich  odległości  w  krótkim  czasie.  Widzieliśmy 

już,  w  jaki  sposób  daleko  idąca  manipulacja  -  to  znaczy  wycinanie  i  sklejanie  odległych 

części  Wszechświata  za  pomocą  tunelu  czasoprzestrzennego  -  może  tworzyć  skróty  w 

czasoprzestrzeni.  Chcę  tutaj  pokazać,  że  nawet  jeśli  nie  będziemy  się  uciekać  do  tak 

drastycznych  zabiegów,  podróże  z  prędkością  ponadświetlną  mogą  być  globalnie  możliwe, 

nawet jeśli nie są możliwe lokalnie. 

Zasadniczy  dowód  tego  stwierdzenia  został  ostatnio  przedstawiony  przez  Miguela 

Alcubierre'a,  fizyka  z  Uniwersytetu  Walijskiego.  Postanowił  on  dla  zabawy  zbadać,  czy  w 

ramach  ogólnej  teorii  względności  można  znaleźć  spójne  rozwiązanie  dopuszczające  tego 

typu podróże. Udało  mu się wykazać,  że  można  uzyskać  taką konfigurację  czasoprzestrzeni, 

w  której  statek  kosmiczny  podróżowałby  między  dwoma  punktami  w  dowolnie  krótkim 

czasie.  Co  więcej,  przez  cały  czas  podróży  statek  ten  poruszałby  się  względem  swojego 

otoczenia  z  prędkościami  mniejszymi  od  prędkości  światła,  dzięki  czemu  zegary  na  jego 

pokładzie  byłyby  zsynchronizowane  z  zegarami  znajdującymi  się  w  punkcie  startu  oraz  w 

punkcie  docelowym.  Wygląda  więc  na  to,  że  ogólna  teoria  względności  pozwala  nam 

jednocześnie mieć ciastko i je zjeść. 

Pomysł  jest  prosty.  Jeśli  czasoprzestrzeń  można  lokalnie  ukształtować  tak,  aby 

rozszerzała  się  za  statkiem,  a  kurczyła  przed  nim,  statek  będzie  się  poruszał  wraz  z 

przestrzenią, w której się znajduje, niczym deska surfingowa na fali. Nie przekroczy on nigdy 

background image

prędkości  światła, ponieważ  światło również będzie  się  unosiło  wraz  z rozszerzającą się  falą 

przestrzeni. 

By  lepiej  to  zrozumieć,  wyobraźmy  sobie,  że  znajdujemy  się  na  pokładzie  takiego 

statku.  Jeśli  przestrzeń  za  nami  nagle  znacznie  się  rozszerzy,  zauważymy,  że  stacja 

kosmiczna, którą opuściliśmy przed kilkoma  minutami,  znajduje się teraz w odległości wielu 

lat  świetlnych.  Podobnie,  jeśli  przestrzeń  skurczy  się  przed  nami,  spostrzeżemy,  że  stacja 

kosmiczna,  do  której  zmierzamy  i  która  znajdowała  się  uprzednio  w  odległości  kilku  lat 

świetlnych,  jest  teraz  bardzo  blisko  i  można  do  niej  dotrzeć  w  ciągu  kilku  minut,  używając 

zwykłego napędu rakietowego. 

Można  tak  zaprojektować  geometrię  czasoprzestrzeni,  aby  olbrzymie  pola 

grawitacyjne,  potrzebne  do  rozszerzania  i  kurczenia  przestrzeni,  nie  miały  nigdy  dużych 

wartości  w  pobliżu  statku  lub  którejś  ze  stacji  kosmicznych.  W  okolicach  statku  i  stacji 

przestrzeń  może  być  niemal  płaska  i  dzięki  temu  zegary  na  statku  i  w  stacjach  pozostaną 

zsynchronizowane.  Gdzieś  między  statkiem  a  stacjami  grawitacyjne  siły  pływowe  będą 

olbrzymie, ale nie przeszkodzi to nam, dopóki się tam nie znajdziemy.  

Takie  właśnie  rozwiązanie  musieli  mieć  na  myśli autorzy Star Trek, kiedy  wymyślali 

napęd  czasoprzestrzenny,  nawet  jeśli  nie  przypomina  ono  zbytnio  podanych  przez  nich 

opisów  technicznych.  Czyni  za  to  zadość  wszystkim  postawionym  wcześniej  wymaganiom, 

które należy spełnić, aby odbywać z powodzeniem kontrolowane podróże międzygalaktyczne. 

Mamy tu: (1) prędkość ponadświetlną, (2) brak dylatacji czasu i (3) brak napędu rakietowego. 

Pominęliśmy  oczywiście  bardzo  ważną  kwestię.  Nadając  samej  czasoprzestrzeni  własności 

dynamiczne,  ogólna  teoria  względności  pozwala  na  tworzenie  „zaprojektowanych 

czasoprzestrzeni”,  w których  możliwy jest  niemal każdy rodzaj ruchu  w przestrzeni  i  czasie. 

Nie  za  darmo  jednak:  teoria  względności  wiąże  te  czasoprzestrzenie  z  pewnym  rozkładem 

materii  i energii. Aby  zatem pożądana czasoprzestrzeń była  „fizyczna”,  leżący  u jej podstaw 

rozkład materii i energii musi być osiągalny. Niedługo powrócimy do tego problemu. 

Pierwszą  ciekawą  własnością  takich  zaprojektowanych  czasoprzestrzeni  jest  to,  że 

pozwalają  nam  one  powrócić  do  dawnych  problemów  Newtona  i  stworzyć  amortyzatory 

bezwładności  oraz  wiązki  holownicze.  Idea  jest  taka  sama,  jak  w  przypadku  napędu 

czasoprzestrzennego. Jeśli można zakrzywiać czasoprzestrzeń wokół statku, obiekty mogą się 

poruszać  osobno  lub  razem,  nie  doświadczając  żadnego  lokalnego  przyspieszenia,  co,  jak 

pamiętamy, było  zmorą Newtona. Aby  uniknąć  niewiarygodnych przyspieszeń, koniec znych 

do osiągnięcia prędkości bliskich prędkości światła przy wykorzystaniu napędu pulsacyjnego, 

musimy  uciekać  się  do  takich  samych  trików  z  czasoprzestrzenią,  jak  w  przypadku  użycia 

background image

napędu czasoprzestrzennego. Zanika  więc różnica  między  napędem pulsacyjnym a  napędem 

czasoprzestrzennym.  Podobnie,  aby  użyć  wiązki  holowniczej  do  przyciągnięcia  ciężkiego 

obiektu, takiego jak planeta, należy skurczyć przestrzeń po tej stronie planety, która jest bliżej 

nas, a rozszerzyć po przeciwnej. To proste! 

Zakrzywianie  czasoprzestrzeni  ma  również  inne  zalety.  Jeżeli  przestrzeń  przed 

Enterprise  Jest  silnie  zakrzywiona,  jakikolwiek  promień  świetlny  -  albo  na  przykład  wiązka 

fazera  -  zostanie  odchylony  od  statku.  Niewątpliwie  na  tej  zasadzie  działają  tarcze 

deflektorów. I rzeczywiście,  z serialu dowiadujemy  się,  że tarcze deflektorów pracują dzięki 

„spójnej  emisji  grawitonów”.  Ponieważ  grawitony  są  z  definicji  cząstkami,  które  przenoszą 

siłę  grawitacji, spójna  emisja  grawitonów jest  niczym  innym,  jak  tworzeniem  spójnego pola  

grawitacyjnego. W języku współczesnej fizyki to właśnie spójne pole grawitacyjne zakrzywia 

przestrzeń! Tak więc twórcy Stor Trek po raz kolejny wybrali właściwe słownictwo.  

Wyobrażam sobie, że romulańskie  urządzenie  maskujące  mogłoby działać  w podobny 

sposób.  Enterprise  z  rozwiniętymi  tarczami  deflektora  jest,  w  gruncie  rzeczy,  dobrze 

zamaskowanym statkiem. W końcu coś, co samoistnie  nie świeci, widzimy dlatego, że obiekt 

ten  odbija  światło,  które  następnie  trafia  do  nas.  Maskowanie  musi  zatem  polegać  na 

zakrzywieniu  przestrzeni  tak,  aby  promienie  świetlne  zakrzywiały  się  wokół  statku,  zamiast 

się  od  niego  odbijać.  Nie  różni  się  to  prawie  od  odchylania  promieni  świetlnych  od  statku 

Enterprise.  W  związku  z  tym,  zanim  wyemitowany  został  odcinek  Pegaz  serii  Następne 

pokolenie,  wielu  trekkerów  gnębiło  pytanie,  dlaczego  Federacja  nie  stosuje  technologii 

maskowania?  A  zatem  każda  cywilizacja,  która  potrafi  wytwarzać  deflektory,  powinna 

również  umieć  budować  urządzenia  maskujące.  W  odcinku  Pegaz  dowiadujemy  się,  że  

ograniczeniem  dla  rozwoju  urządzeń  maskujących  było  raczej  zawarte  porozumienie,  a  nie 

poziom  technologii  (w ostatnim odcinku serii Następne pokolenie pod tytułem Wszystko, co 

dobre... okazuje się, że Federacja w końcu przyzwala na stosowanie maskowania s tatków). 

Kiedy  dysponujemy  już  napędem  czasoprzestrzennym  działającym  zgodnie  z 

zasadami  ogólnej  teorii  względności,  prędkości  uzyskiwane  przy  użyciu  tego  napędu 

nabierają  bardziej  konkretnego  znaczenia.  Prędkość  taka  zależałaby  od  tego,  jak  bardzo 

kurczy  się  lub rozszerza objętość przestrzeni przed  lub  za statkiem.  Ustalenia dotyczące tych 

prędkości  nigdy  nie były ostateczne: wygląda  na  to,  że  między pierwszą a drugą serią  Gene 

Roddenberry  zdecydował,  iż  prędkości  statków  kosmicznych  należy  przekalibrować  tak,  by 

nie przekraczały 10 warpów. Oznacza  to,  że prędkości tych  nie  można  mierzyć prostą  skalą 

logarytmiczną,  w  której  10  warpów  odpowiadałoby  na  przykład  2

10

  =  1024  x  prędkość 

światła.  Według  instrukcji  technicznej  serii  Następne  pokolenie  9,6  warpa  -  największa 

background image

prędkość  osiągana  przez  Enterprise-D  -  odpowiada  wartości  1909  x  prędkość  światła,  a  10 

warpów  oznacza  prędkość  nieskończoną.  Warto  zauważyć,  że  mimo  tego  przekalibrowania, 

co jakiś czas  namierza  się obiekty  (takie  jak sześcian  Borga) poruszające  się  z prędkościami 

większymi niż 10 warpów, sądzę więc, że nie powinniśmy się przejmować szczegółami.  

I tyle dobrych wiadomości... 

Skoro  przekonaliśmy  się  już,  że  napęd  czasoprzestrzenny  nie  jest  czymś  całkowicie 

niemożliwym (przynajmniej w zasadzie), musimy w końcu stawić czoło konsekwencjom tego 

zjawiska  dla  prawej  strony  równań  Einsteina  -  to  znaczy  dla  rozkładu  materii  i  energii,  jaki 

jest  konieczny  do  stworzenia  wymaganego  zakrzywienia  czasoprzestrzeni.  Cóż,  pod  tym 

względem  okazuje  się,  że  sytuacja  wygląda  tu  gorzej  jeszcze  niż  w  przypadku  tuneli 

czasoprzestrzennych.  Obserwatorzy  podróżujący  z  wielką  prędkością  przez  tunel 

czasoprzestrzenny mieliby do czynienia z ujemną energią. W przypadku materii potrzebnej do 

stworzenia  napędu  czasoprzestrzennego  nawet  obserwator  znajdujący  się  w  spoczynku 

względem  statku  kosmicznego  -  czyli  obecny  na  jego  pokładzie  -  zarejestrowałby  ujemną 

energię. 

Ta  sytuacja  nie  jest  aż  tak  bardzo  zaskakująca.  Na  pewnym  poziomie  wszystkie 

niezwykłe rozwiązania ogólnej  teorii  względności - pozwalające  utrzymywać otwarte tunele, 

odbywać  podróże  w  czasie  i  budować  silniki  czasoprzestrzenne  -wymagają,  by  w  pewnych 

skalach  materia odpychała  grawitacyjnie  inną  materię. W ogólnej  teorii  względności  istnieje 

nawet twierdzenie  mówiące,  że  warunek ten jest równoważny temu, by energia  materii  była 

dla pewnych obserwatorów ujemna. 

Jeszcze  bardziej  zaskakujące  jest  to,  że  z  połączenia  mechaniki  kwantowej  ze 

szczególną  teorią  względności  wynika,  iż  przynajmniej  w  skalach  mikroskopowych  lokalny 

rozkład energii  może być ujemny. Jak  zauważyłem  w rozdziale trzecim,  fluktuacje kwantowe 

często  mają  tę  własność.  Zasadnicze  pytanie,  na  które  na  razie  nie  znamy  odpowiedzi, 

dotyczy tego, czy  znane  nam prawa  fizyki pozwalają  na  to, aby  materia była obdarzona taką 

własnością  w skali  makroskopowej. Obecnie  nie  mamy  najmniejszego pojęcia,  jak  można by 

tworzyć taką materię w zgodzie z prawami fizyki. 

Zapomnijmy  jednak  na  chwilę  o  potencjalnych  przeszkodach  i  przypuśćmy,  że 

pewnego  dnia  uda  się  stworzyć  egzotyczną  materię,  wykorzystując  jakąś  zaawansowaną 

kwanto-womechaniczną  inżynierię  materii  lub  pustej  przestrzeni.  Nawet  w  takim  przypadku 

wymagania  energetyczne,  jakie  należałoby  spełnić,  aby  w  opisany  sposób  bawić  się 

czasoprzestrzenią,  byłyby  niewyobrażalnie  większe  od  mocy  koniecznej  do  osiągnięcia 

prędkości  pulsacyjnych.  Rozważmy  masę  Słońca,  która  jest  blisko  milion  razy  większa  od 

background image

masy  Ziemi.  Pole  grawitacyjne  na  powierzchni  Słońca  wystarcza,  aby  zakrzywić  promień 

świetlny o  mniej  niż  jedną  tysięczną stopnia. Jakież olbrzymie pola  grawitacyjne  należałoby 

wytworzyć w pobliżu statku kosmicznego, aby odchylić o 90 stopni biegnący w jego kierunku 

promień  fazera! Jest  to  jedna  z  wielu przyczyn, dla których  zupełnie  niemożliwy jest  słynny 

„efekt katapulty”, którym posłużono się po raz pierwszy  w klasycznym odcinku Jutro będzie 

wczoraj, aby cofnąć Enterprise w czasie (później w Stor Trek IV: Podróż do domu, a także w 

odcinku  Czas  do  kwadratu  z  serii  Następne  pokolenie).  Pole  grawitacyjne  w  pobliżu 

powierzchni Słońca jest bardzo  małe  w porównaniu  z efektami  grawitacyjnymi, jakie byłyby 

potrzebne, aby zaburzyć przestrzeń w opisany tutaj sposób. 

Jednym  ze  sposobów  określenia  potrzebnej  w  tym  celu  energii  jest  porównanie  jej  z 

energią niezbędną do stworzenia czarnej dziury wielkości Enterprise - ponieważ czarna dziura 

tej średnicy z pewnością wytworzyłaby pole grawitacyjne, które mogłoby znacząco zakrzywić 

biegnący w pobliżu  niej promień świetlny. Masa takiej czarnej dziury wynosiłaby 10%  masy 

Słońca. Gdy  wyrazimy to  w jednostkach energii, okaże się,  że  na wytworzenie takiej czarnej 

dziury potrzebna byłaby całkowita energia, jaką wytwarza Słońce w ciągu swego istnienia.  

Gdzie  się  więc  znajdujemy pod koniec  tej  gry? Wiemy  wystarczająco dużo o  naturze 

czasoprzestrzeni,  aby  opisać,  w  jaki  sposób  można  by,  przynajmniej  teoretycznie, 

wykorzystać  zakrzywioną  przestrzeń  do  podróży  międzygwiezdnych  pokazywanych  w  Stor 

Trek.  Wiemy,  że  bez  tych  niezwykłych  możliwości  prawdopodobnie  nigdy  nie  będziemy 

podróżować  po  Galaktyce.  Z  drugiej  strony,  nie  mamy  pojęcia,  czy  fizyczne  warunki, 

konieczne  do  osiągnięcia  tego  celu,  są  możliwe  praktycznie  lub  nawet  czy  są  w  zasadzie 

możliwe. Gdyby  jednak były, każda cywilizacja próbująca je wykorzystać  musiałaby zaprząc 

do tego energię znacznie większą niż cokolwiek, co można sobie obecnie wyobrazić. 

Można,  jak  sądzę,  przyjąć  optymistyczny  pogląd,  że  te  naprawdę  niezwykłe  cuda 

przynajmniej  a  priori  nie  są  niemożliwe,  choć  zależą  od  jednej  mało  prawdopodobnej 

możliwości:  umiejętności  tworzenia  i  przechowywania  egzotycznej  materii  i  energii.  Są 

powody,  aby  mieć  nadzieję,  muszę  jednak  przyznać,  że  sam  jestem  tu  raczej  sceptykiem. 

Podobnie  jak  mój  kolega,  Stephen  Hawking,  jestem  przekonany,  że  paradoksy  związane  z 

podróżami  w  czasie  wykluczają  taką  możliwość  w  każdej  rozsądnej  teorii  fizycznej. 

Ponieważ  mniej  więcej  takie  same  warunki  muszą  być  spełnione  dla  stworzenia  napędu 

czasoprzestrzennego  i  tarczy  deflektorów,  nie  spodziewam  się,  że  kiedyś  zostaną 

skonstruowane - chociaż już raz się pomyliłem. 

Mimo  to  wciąż  jestem  optymistą.  Według  mnie,  najbardziej  godna  szacunku  jest 

olbrzymia  ilość  wiedzy,  która  przywiodła  nas  do  tego  fascynującego  progu.  Żyjemy  w 

background image

odległym  zakątku  jednej  ze  100  miliardów  galaktyk  obserwowalnego  Wszechświata. 

Podobnie  jak robaczki  na kawałku  gumy,  mieszkamy we Wszechświecie, którego prawdziwa 

forma  jest  ukryta  przed  naszym  wzrokiem.  W  ciągu  mniej  niż  dwudziestu  pokoleń  -  od 

czasów  Newtona  do  dzisiaj  -  używaliśmy  prostych  praw  fizyki,  aby  rozświetlić  głębiny 

przestrzeni  i  czasu.  Możliwe,  że  nigdy  nie  będziemy  mogli  wejść  na  pokład  statków  i 

wyruszyć do  gwiazd, ale  nawet  uwięzieni  na tej  małej błękitnej planecie potrafiliśmy  zbadać 

nocne  niebo  i  odkryć  niezwykłe  zjawiska,  a  niewątpliwie  wiele  jeszcze  przed  nami.  Jeśli 

nawet  fizyka  nie  jest  w  stanie  umożliwić  nam  międzygwiezdnych  podróży  i  wędrówek  po 

Galaktyce, z pewnością nam ją przybliża. 

background image

CZĘŚĆ II 

MATERIA, WSZĘDZIE MATERIA 

W części tej czytelnik zapoznaje się z transporterem, 

napędem czasoprzestrzennym, 

kryształami dwulitu, silnikami na materie 

i antymaterię oraz z holodekiem. 

background image

ROZDZIAŁ 5 

ATOMY CZY BITY 

Reg, przesyłanie naprawdę jest najbezpieczniejszym sposobem podróżowania.  

GEORDI LaFORGE do porucznika Reginalda Barclaya  

w odcinku Królestwo strachu 

 

 

Życie  naśladuje sztukę. Ostatnio ciągle słyszę to samo pytanie: atomy  czy bity  - gdzie 

leży  przyszłość?  Trzydzieści  lat  temu  Gene  Roddenberry  zajmował  się  tym  samym 

problemem  z  innych  powodów.  Miał  piękny  projekt  statku  kosmicznego  oraz  jeden  mały 

problem: podobnie jak pingwin w wodzie,  Enterprise potrafił  gładko szybować w przestrzeni 

kosmicznej,  lecz - tak jak pingwin  na  lądzie -  miałby poważne problemy  z podwoziem przy 

lądowaniu.  Co  więcej,  szczupły  tygodniowy  budżet  telewizyjny  wykluczał  kręcenie  co 

tydzień lądowania olbrzymiego statku kosmicznego. 

Jak więc rozwiązać ten problem? To proste: spowodować, aby statek nigdy nie musiał 

lądować.  Znaleźć  jakiś  sposób  na  przenoszenie  członków  załogi  ze  statku  na  powierzchnię 

planety. Zanim można było powiedzieć: „Prześlij mnie”, musiał się narodzić transporter. 

Chyba  żadne  inne  urządzenie,  może  z  wyjątkiem  napędu  czasoprzestrzennego,  nie 

ubarwia  tak  bardzo  misji  każdego  statku  Federacji.  Nawet  ci,  którzy  nigdy  nie  oglądali 

żadnego odcinka Star Trek, znają przytoczone przed chwilą magiczne wyrażenie. Przeniknęło 

ono  do  kultury  masowej.  Słyszałem  ostatnio  o  młodym  człowieku,  który  będąc  w  stanie 

nietrzeźwym przejechał skrzyżowanie na czerwonym świetle i wjechał 

na  samochód  policyjny.  Gdy  na  przesłuchaniu  zapytano  go,  czy  ma  coś  do 

powiedzenia, zrozpaczony młodzian wstał, wyjął portfel, otworzył go i wymamrotał: „Prześlij 

mnie, Scotty!” Ta historyjka jest pewnie nieprawdziwa, lecz świadczy 

0  wpływie,  jaki  hipotetyczna  technologia  wywarła  na  naszą  kulturę;  wpływie  tym 

bardziej  godnym  uwagi,  że  prawdopodobnie  żaden  przykład  fantastycznonaukowej 

technologii  na  pokładzie  Enterprise  nie  jest  tak  kompletnie  niewiarygodny.  Aby  stworzyć 

takie urządzenie, należałoby przezwyciężyć więcej problemów - zarówno teoretycznych, jak i 

praktycznych - niż  można sobie wyobrazić. Problemy  te  związane są  z rozległymi obszarami 

fizyki i matematyki, włącznie z teorią informacji, mechaniką kwantową, równaniem Einsteina 

łączącym masę i energię, fizyką cząstek elementarnych i tak dalej.  

W ten sposób dochodzimy do dyskusji  na temat atomów  i bitów. Pojęcie transportera 

background image

zmusza  nas  do  zadania  kluczowego  pytania:  jeśli  mamy  do  czynienia  z  problemem 

przeniesienia  ze  statku  na  powierzchnię  planety  około  l  O

28

  (l  z  28  zerami)  atomów  materii 

wraz  ze  złożonym  wzorem  budowy  konkretnej  istoty  ludzkiej,  jaki  jest  najszybszy  i 

najbardziej efektywny sposób przeprowadzenia takiej operacji? Pytanie jest istotne, ponieważ 

z  tym  samym  dylematem  spotykamy  się  rozważając  problem,  w  jaki  sposób  najlepiej 

zwielokrotnić  skomplikowany  układ  około  l  O

26

  atomów,  znajdujących  się  w  średniej 

wielkości  książce.  Potencjalnie  rewolucyjnym  pomysłem,  przynajmniej  tak  twierdzi  wielu 

guru mediów cyfrowych, jest uznanie, że atomy nie są aż tak ważne. Większe znaczenie mają 

bity. 

Rozważmy  jako  przykład  książkę  w  bibliotece.  Biblioteka  kupuje  zwykle  jeden 

egzemplarz  książki  (czasem  kilka  -  w  przypadku  autorów,  którzy  mają  więcej  szczęścia), 

przechowywany  i  wypożyczany  jednej  osobie  na  raz.  Jednak  w  bibliotece  cyfrowej  tę  samą 

informację  można przechowywać w postaci bitów.  Bity to jedynki  lub  zera, które  łączy się w 

ośmioelementowe ciągi, zwane bajtami, mogące przedstawiać słowa lub liczby. Ta informacja 

tkwi  w  pamięci  magnetycznej  komputerów,  gdzie  każdy  bit  jest  reprezentowany  przez 

namagnesowany (1)  lub nienamagnesowany (O) obszar. W  takim przypadku do tego samego 

miejsca w pamięci komputera może mieć dostęp - w zasadzie w tym samym czasie - dowolna 

liczba  użytkowników.  Tak  więc  dzięki  bibliotece  cyfrowej  każda  osoba  na  Ziemi,  która  w 

przeciwnym razie  musiałaby kupić książkę,  może ją przeczytać, korzystając tylko  z  jednego 

źródła. Oczywiście, dysponowanie rzeczywistymi atomami, które składają się  na książkę,  nie 

odgrywa  już  w  tym  wypadku  wielkiego  znaczenia  i  jest  na  pewno  mniej  efektywne,  niż 

przechowywanie bitów (chociaż pozbawia autora wpływów ze sprzedaży).  

A co z  ludźmi? Jeśli planuje się przenosić  ludzi, czy  należy przemieszczać  ich atomy, 

czy  tylko  informację,  którą  zawierają?  Na  pierwszy  rzut  oka  można  by  sądzić,  że 

przeniesienie  informacji  jest  o  wiele  łatwiejsze,  choćby  dlatego,  że  informacja  może 

podróżować  z  prędkością  światła.  W  przypadku  ludzi  mamy  jednak  do  czynienia  z  dwoma 

problemami, które  nie dotyczą książek: po pierwsze,  należy wydobyć  informację, co  nie jest 

takie  łatwe;  po  drugie,  informację  trzeba  połączyć  z  materią.  W  końcu  ludzie  -  w 

przeciwieństwie do książek - potrzebują atomów. 

Wydaje  się,  że  twórcy  Star  Trek  nigdy  nie  wyjaśnili  dokładnie,  co  ma  robić  ich 

transporter.  Czy  przesyła  on  atomy  i  bity,  czy  tylko  bity?  Może  się  wyda wać  dziwne,  że 

zajmuję się tym zagadnieniem, chociaż instrukcja techniczna serii Następne pokolenie opisuje 

ten  proces  szczegółowo:  najpierw  transporter  kieruje  się  na  cel,  następnie  odczytuje  obraz, 

który ma być przesłany, „dematerializuje” go, przechowuje przez chwilę w „buforze wzorca”, 

background image

a  następnie  transmituje  „strumień  materii”  w postaci  „pierścieniowo  związanego promienia” 

na  miejsce  przeznaczenia.  Wygląda  więc  na  to,  że  transporter  przesyła  materię  razem  z 

informacją. 

Jedyny  problem  związany  z  owym  opisem  polega  na  rym,  że  nie  zgadza  się  on  z 

niektórymi  funkcjami  transportera.  Przynajmniej  w  dwóch  dobrze  znanych  przypadkach 

transporter  zabrał jedną osobę, a dostarczył dwie. W słynnym odcinku Wróg wewnętrzny  źle 

działający transporter dzieli Kirka na dwie różne wersje jego samego: dobrą i złą. Ciekawszy i 

bardziej  trwały  w  skutkach  obrót  sprawy  wzięły  w  odcinku  Jeszcze  jedna  szansa  serii 

Następne  pokolenie,  gdzie  dowiadujemy  się,  że  porucznik  Riker  w  trakcie  przesyłania  z 

planety Nervala IV na statek Potiomkin został podzielony na dwie kopie. Jedna z nich dotarła 

bezpiecznie  na  Potiomkina,  podczas  gdy  drugi  egzemplarz  wrócił  na  planetę,  gdzie  żył 

samotnie przez osiem lat. 

Jeśli transporter przesyła zarówno strumień materii, jak i sygnał informacyjny, podział 

jest  niemożliwy.  Liczba  atomów  na  końcu  podróży  musi  być  taka  sama  jak  na  początku.  A 

zatem  nie  da  się  powielać  ludzi.  Z  drugiej  strony,  jeśli  przesyłana  jest  tylko  informacja, 

można sobie wyobrazić, że zostaje ona połączona z atomami przechowywanymi na statku i że 

wykonuje się w ten sposób dowolną liczbę kopii danej osoby. 

Podobny  problem  dotyczący  strumienia  materii  pojawia  się,  gdy  rozpatrujemy  los 

obiektów  przesyłanych  w  kosmos  w  postaci  „czystej  energii”.  Na  przykład  w  odcinku 

Samotny wśród nas w serii Następne pokolenie Picard decyduje się w pewnym  momencie  na 

przesłanie się w postaci czystej energii, bez ograniczeń, jakie nakłada  materia. Okazuje się to 

ponurym  i  niebezpiecznym doświadczeniem, ale  udaje  mu się odzyskać swą cielesną  formę  z 

bufora  wzorca.  Gdyby  jednak  strumień  materii  został  wysłany  w  przestrzeń  kosmiczną,  nie 

byłoby czego odtwarzać. 

Nie zważając na instrukcję techniczną Star Trek, przyjmę agnostyczny punkt widzenia 

i zajmę się problemami, które wiążą się z przesyłaniem zarówno atomów, jak i bitów. 

KIEDY  CIAŁO  NIE  MA  CIAŁA.  Co  składa  się  na  ludzką  istotę?  To  najbardziej 

chyba  fascynujące  pytanie  dotyczące  przesyłania,  na  które  zwykle  nawet  nie  próbuje  się 

odpowiadać.  Co  składa  się  na  istotę  ludzką?  Czy  jesteśmy  tylko  sumą  wszystkich  naszych 

atomów? Mówiąc dokładniej, czy gdybyśmy potrafili odtworzyć każdy atom swojego ciała w 

dokładnie takim samym chemicznym stanie wzbudzenia, w jakim rzeczywiście znajduje się w 

danej  chwili,  stworzylibyśmy  funkcjonalnie  identyczną  osobę,  mającą  dokładnie  te  same 

wspomnienia,  nadzieje,  marzenia,  ducha?  Należy  oczekiwać,  że  tak  właśnie  się  stanie,  ale 

warto zauważyć, że dotykamy tutaj wielu wierzeń dotyczących istnienia „duszy”, która jest w 

background image

jakiś sposób odróżnialna od ciała. Co się dzieje z człowiekiem po śmierci? Czyż wiele religii 

nie utrzymuje,  że dusza  może  istnieć  nawet wtedy, gdy ciało  umrze? Co w takim  razie dzieje 

się  z  duszą  w  trakcie  przesyłania?  Transporter  oferowałby  wspaniałą  możliwość 

doświadczalnego  rozstrzygnięcia  tego  problemu.  Gdyby  jakąś  osobę  przesłano  na  pokład 

Enterprise, a ona pozostałaby  nietknięta  i  nie  zmieniona  w dający się  zaobserwować sposób, 

świadczyłoby  to  zdecydowanie  o  tym,  że  istota  ludzka  nie  jest  niczym  więcej  niż  sumą 

swoich części, i podałoby w wątpliwość wiele wierzeń dotyczących duszy. 

Z  oczywistych  powodów  w  Star  Trek  starannie  unika  się  jasnego  postawienia  tej 

sprawy.  Jednakże  mimo  czysto  fizycznego  charakteru  procesów  dematerializacji  i 

przesyłania, idea jakiejś mglistej „siły życiowej”, istniejącej poza ograniczeniami ciała, jest w 

serialu stale obecna. Z drugiego i trzeciego pełnometrażowego filmu Star Trek (Gniew Chana 

i W poszukiwaniu Spocka)  można wywnioskować,  że przynajmniej Spock dysponuje  „katrą” 

-  żyjącym  duchem,  który  może  istnieć  poza  ciałem.  Ostatnio  w  odcinku  Cathexis  serii 

Voyager  „nerwowa  energia”  Chakotaya  -  pokrewna  sile  życiowej  -  zostaje  oddzielona  od 

ciała i wędruje po statku, od osoby do osoby, próbując dostać się z powrotem do „domu”.  

Nie  sądzę,  aby  można  było  osiągnąć  w  tej  kwestii  jakiś  kompromis.  Albo  „dusza”, 

„katra”,  „siła  życiowa”,  czy  jakkolwiek  zechcemy  to  nazwać,  stanowi  część  ciała,  a  my  nie 

jesteśmy  niczym  więcej  niż  istotą  materialną,  albo  nie.  Starając  się  nie  urazić  uczuć 

religijnych,  nawet  tych  żywionych  przez  Vulcana,  zajmę  w  tej  dyskusji  pozycję  neutralną. 

Uznałem  jednak,  że  zanim  pójdziemy  dalej,  należy  zwrócić  uwagę,  iż  nawet  podstawowego 

założenia  funkcjonowania  transportera  -  atomy  i  bity  są  wszystkim,  co  istnieje  -  nie  należy 

traktować lekceważąco. 

PROBLEMY  Z  BITAMI.  Wielu  problemów,  którymi  się  wkrótce  zajmę,  można  by 

uniknąć, gdybyśmy  zrezygnowali  z przenoszenia atomów razem  z  informacją. Każdy, kto  ma 

dostęp do sieci 

Internet,  wie,  jak  łatwo  jest  przesłać  strumień  danych  zawierający,  powiedzmy, 

szczegółowe schematy  nowego samochodu razem  z jego zdjęciami. Przesłanie rzeczywistego 

samochodu  jest  nieporównanie  trudniejsze.  Nawet  jednak  w  przypadku  przesyłania  samych 

bitów pojawiają się dwa bardzo poważne problemy. Pierwszy to  znany kłopot,  z jakim  mieli 

do czynienia na przykład ostatni ludzie, którzy widzieli żywego Jimmy'ego Hoffę: jak pozbyć 

się  ciała?  Jeśli  chcemy  przesłać  tylko  informację,  atomy  należy  pozostawić  w  punkcie 

wyjścia,  a  nowy  ich  zbiór  zebrać  w  punkcie  docelowym.  To  dość  poważny  problem. 

Zniszczenie  l  O

28

  atomów  stanowi  nie  lada  kłopot.  Przypuśćmy  na  przykład,  że  chcemy 

zmienić  całą  tę  materię  w  czystą  energię.  Ile  energii  otrzymamy?  Odpowiedź  da  nam 

background image

oczywiście  wzór  Einsteina  E  -  mc

2

.  Gdyby  nagle  przekształcić  50  kilogramów  (tyle  waży 

nieduża  dorosła  osoba)  materii  w  energię,  uwolnilibyśmy  energię  równoważną  tysiącowi 

bomb wodorowych o  sile jednej  megatony.  Trudno  sobie  wyobrazić,  jak  można by to  zrobić 

w sposób przyjazny dla środowiska. 

Wiąże  się  z  tym  jeszcze  inny  problem.  Gdyby  można  było  przeprowadzić  taką 

operację,  bardzo  proste  stałoby  się  powielanie  ludzi.  Co  więcej,  byłoby  to  o  wiele  prostsze, 

niż  ich  przenoszenie  i  przesyłanie,  ponieważ  nie  trzeba  byłoby  niszczyć  oryginału.  Do 

kopiowania w ten sposób przedmiotów nieożywionych  można się przyzwyczaić  i wydaje się, 

że  członkowie  załóg  na  pokładach  statków  potrafią  z  tym  żyć.  Powielanie  żywych  istot 

ludzkich  stałoby  się  jednak  z  pewnością  przyczyną  kłopotów,  o  czym  świadczą  perypetie 

Rikera  w  odcinku  Jeszcze  jedna  szansa  Skoro  już  same  badania  nad  rekombinacją  DNA 

spowodowały pojawienie się  mnóstwa problemów etycznych, trudno sobie  nawet wyobrazić, 

jakie zamieszanie powstałoby, gdyby można było powielać na życzenie żywe istoty, łącznie z 

ich  pamięcią  i  osobowością.  Ludzie  przypominaliby  programy  komputerowe  lub  książki 

zapisane  na dysku. Gdyby ktoś  uległ  zniszczeniu  lub  infekcji,  można by po prostu  uruchomić 

kopię zapasową. 

POZOSTAŃMY  PRZY  ATOMACH.  Podane  argumenty  sugerują,  że  zarówno  z 

praktycznego,  jak  i  z  etycznego  punktu  widzenia  lepiej  byłoby,  gdyby  transporter  przenosił 

strumień  materii  wraz  z  sygnałem  informacyjnym,  tak  jak  dzieje  się  to  w  serialu  Star  Trek. 

Wówczas  pojawia  się  jednak  problem  transportu  atomów.  Okazuje  się.  że  znów  wszystko 

obraca się wokół energii, choć tym razem mamy do czynienia z nieco subtelniejszą sytuacją. 

W  jaki  sposób  można  zdematerializować  coś  w  transporterze?  Aby  odpowiedzieć  na 

to  pytanie,  musimy  dokładniej  rozważyć  prostszą  kwestię  -  czym  jest  materia?  Każda 

zwyczajna  materia  składa  się  z  atomów,  które  z  kolei  zbudowane  są  z  bardzo  gęstych  jąder 

otoczonych chmurą elektronów. Każdy, kto pamięta szkolne  lekcje chemii  lub  fizyki,  wie,  że 

większość  objętości  atomu  to  tylko  pusta  przestrzeń.  Obszar  zajmowany  przez  zewnętrzne 

elektrony jest około dziesięciu tysięcy razy większy niż przestrzeń, którą okupuje jądro. 

Skoro  atomy  to  w  głównej  mierze  pusta  przestrzeń,  dlaczego  materia  nie  przenika 

przez  inną  materię?  Otóż  ściana  jest  twarda  nie  dlatego,  że  składa  się  z  cząstek,  lecz  dzięki 

obecności  pól  elektrycznych  działających  między  nimi.  Kiedy  uderzam  ręką  w  biurko,  nie 

przechodzi  ona  przez  blat  głównie  z  powodu  odpychania  elektrycznego  działającego  na 

elektrony  w  atomach  mojej  ręki.  Jest  ono  wywołane  obecnością  elektronów  w  atomach 

biurka, a nie brakiem przestrzeni, w której elektrony mogłyby się poruszać. 

Pola  elektryczne  nie  tylko  nadają  materii  cielesność  -  w  tym  sensie,  że  zapobiegają 

background image

przenikaniu  obiektów  nawzajem  przez  siebie  -  lecz  także  utrzymują  ją  w  całości.  Aby  to 

zmienić,  należy  przezwyciężyć  siły  elektryczne  działające  między  atomami.  Wymaga  to 

pracy,  do  której  wykonania  potrzeba  energii.  W  ten  właśnie  sposób  zachodzą  wszystkie 

reakcje chemiczne. Konfiguracja poszczególnych skupisk atomów i łączących je wiązań może 

ulec  zmianie,  gdy dojdzie do przepływu energii. Jeśli  na przykład dostarczymy pewnej  ilości 

energii  do  mieszaniny  azotanu  amonowego  i  oleju  napędowego,  cząsteczki  tych  dwóch 

substancji  mogą  zmienić  swoje  położenie  i  w  procesie  tym  zostanie  uwolniona  „energia 

wiązania”,  łącząca  substancje  wyjściowe.  Jeśli  proces  ten  zajdzie  wystarczająco  szybko, 

spowoduje potężny wybuch. 

Energia  wiązania  między  atomami  jest  jednak  bardzo  mała  w  porównaniu  z  energią 

wiązania cząstek - protonów i neutronów - które tworzą niewiarygodnie gęste jądra atomowe. 

Siły  zespalające te cząstki  w jądrze odpowiadają energiom  wiązania  miliony razy silniejszym 

niż  energie  wiązania  atomów.  Reakcje  jądrowe  uwalniają  więc  znacznie  więcej  energii  niż 

reakcje chemiczne i dlatego broń jądrowa ma tak wielką siłę rażenia.  

Z  kolei  energia  wiązania,  która  spaja  cząstki  elementarne,  zwane  kwarkami, 

wchodzące  w  skład  protonów  i  neutronów,  jest  jeszcze  większa  niż  energia  wiązania 

protonów  i  neutronów  w  jądrze.  Panuje  obecnie  przekonanie  -  poparte  obliczeniami,  które 

przeprowadzamy  w  ramach  teorii  opisującej  oddziaływania  kwarków  -  że  całkowite 

rozdzielenie  kwarków,  tworzących  każdy  proton  i  neutron,  wymagałoby  nieskończonej 

energii. 

Wynikałoby  stąd,  że  całkowite  rozbicie  materii  na  jej  fundamentalne  składniki  - 

kwarki  -  jest  niemożliwe;  przynajmniej  w  temperaturze  pokojowej.  Ta  sama  teoria,  która 

opisuje oddziaływania kwarków wewnątrz protonów i neutronów, mówi jednak, że gdybyśmy 

podgrzali jądro atomowe do 1000 miliardów stopni (czyli do temperatury mniej więcej milion 

razy większej niż temperatura panująca w centrum Słońca), nie tylko kwarki utraciłyby swoją 

energię wiązania, lecz materia nagle zostałaby pozbawiona prawie całej swojej masy. Materia 

zmieniłaby  się  w  promieniowanie,  czyli  -  posługując  się  językiem  opisującym  działanie 

transportera - uległaby dematerializacji. 

Aby  zatem  przezwyciężyć  energię  wiązania  materii  na  najbardziej  podstawowym 

poziomie  (poziomie,  do  którego  odwołuje  się  instrukcja  techniczna  Star  Trek,  wystarczy 

podgrzać  ją  do  1000  miliardów  stopni.  W  jednostkach  energii  oznacza  to,  że  należy 

dostarczyć  w  postaci  ciepła  około  10%  masy  spoczynkowej  protonów  i  neutronów. 

Podgrzanie  do  takiej  temperatury  zbioru  atomów  o  rozmiarach  istoty  ludzkiej  wymagałoby 

mniej  więcej  10%  energii  potrzebnej  do  zanihilowania  tej  ilości  materii,  czyli  ener gii 

background image

równoważnej stu bombom wodorowym o sile jednej megatony.  

Zapoznawszy się z tym trudnym do spełnienia warunkiem, można by dyskutować, czy 

scenariusz,  który  właśnie  opisałem,  nie  jest  przypadkiem  przesadzony.  Może  nie  musimy 

rozbijać  materii aż  na kwarki. Może do celów przesyłania ciał wystarczy dematerializacja do 

poziomu protonów i neutronów lub tylko atomów. Wymagania energetyczne byłyby wtedy na 

pewno  o  wiele  niższe,  chociaż  ciągle  duże.  Niestety,  przymknięcie  oka  na  ten  problem 

powoduje,  że  zaraz stajemy wobec  następnego  i  to  znacznie poważniejszego. Gdy  uzyskamy 

już  strumień  materii składający się  z poszczególnych protonów,  neutronów  i  elektronów (lub 

nawet całych atomów), musimy go jeszcze przesłać - najlepiej z prędkością będącą znacznym 

ułamkiem prędkości światła. 

Aby  zmusić  cząstki,  takie  jak  protony  i  neutrony,  do  poruszania  się  z  prędkościami 

bliskimi  prędkości  światła,  należy  im  dostarczyć  energii  porównywalnej  z  energią 

odpowiadającą  ich  masie spoczynkowej. Okazuje się,  że ta  ilość energii jest około dziesięciu 

razy  większa  od  ilości  potrzebnej  do  podgrzania  i  „roztopienia”  protonów  na  kwarki. 

Niemniej  -  choć  przyspieszenie  protonów  do  prędkości  bliskich  prędkości  światła  wymaga 

więcej  energii  na  jedną  cząstkę  -jest  to  łatwiejsze,  niż  umieszczenie  i  utrzymanie  wewnątrz 

protonów  wystarczająco  dużej  energii  przez  odpowiednio  długi  czas,  aby  podgrzać  je  i 

rozłożyć  na  kwarki.  Dlatego  właśnie  potrafimy  dziś,  chociaż  bardzo  dużym  kosztem, 

budować  olbrzymie  akceleratory  cząstek  -  takie  jak  tewatron  w  Fermilabie  w  Batawii  (stan 

Illinois)  -  które  potrafią  przyspieszać  pojedyncze  protony  do  prędkości  równej  99,9% 

prędkości  światła.  Ciągle  jednak  nie  udało  nam  się  skonstruować  akceleratora,  w  którym 

można  by  bombardować  protony  z  wystarczająco  dużą  energią,   aby  stopić  je  na  ich  części 

składowe, czyli kwarki.  Zaobserwowanie tego topnienia  materii  jest jednym  z celów  fizyków 

zajmujących  się  projektowaniem  olbrzymich  akceleratorów  nowej  generacji  -na  przykład 

urządzenia budowanego obecnie w Narodowym Laboratorium Brookhaven na Long Island. 

Muszę  znowu  wspomnieć o trafnym doborze terminologii dokonanym przez  twórców 

Star  Trek.  Topienie  protonów  na  kwarki  nazywamy  w  fizyce  przejściem  fazowym.  Proszę 

sobie wyobrazić, że kiedy w poszukiwaniu nazw części transportera, 

które  dematerializują  obiekty,  przewertuje  się  instrukcję  techniczną  serii  Następne 

pokolenie, natrafia się na termin „cewki przejścia fazowego”.  

Przyszli  twórcy  transporterów  staną  więc  przed  wyborem.  Pierwsza  możliwość 

zakłada  znalezienie  źródła  energii,  które  może  przez  jakiś  czas  produkować  moc  około  10 

tysięcy  razy  większą  niż  całkowita  moc  zużywana  obecnie  na  Ziemi,  wtedy  bowiem  będzie 

można przesyłać „strumień materii” i informacji z prędkością bliską prędkości światła. Druga 

background image

możliwość  związana  jest  z  dziesięciokrotnym  zmniejszeniem  całkowitych  wymagań 

energetycznych,  zakłada  jednak,  że  znajdziemy  sposób,  aby  w  jednej  chwili  podgrzać  istotę 

ludzką  do  temperatury  około  miliona  razy  większej  niż  temperatura  panująca  we  wnętrzu 

Słońca. 

JEŚLI  TO  AUTOSTRADA  INFORMACYJNA,  LEPIEJ  JEDŹMY  PASEM 

SZYBKIEGO RUCHU. Pisząc te słowa na moim domowym komputerze Power PC, nie mogę 

nadziwić się postępowi  technicznemu od czasu,  gdy ponad dziesięć  lat temu kupiłem  mojego 

pierwszego  Macintosha.  Pamiętam,  że  wewnętrzna  pamięć  tej  maszyny  wynosiła  128 

kilobajtów,  co  nie  jest  wielkością  imponującą  w  porównaniu  z  16  megabajtami  w  moim 

obecnym  komputerze  i  128  megabajtami  w  szybkiej  stacji  roboczej,  którą  mam  w  swoim 

biurze  na Wydziale Fizyki Case Western  Reserve University. A  zatem  w ciągu jednej dekady 

pojemność  wewnętrznej  pamięci  mojego  komputera  wzrosła  tysiąckrotnie!  W  podobny 

sposób  zwiększyła  się  pojemność  pamięci  na  twardym  dysku.  Mój  pierwszy  komputer  w 

ogóle  nie  miał  twardego  dysku  ł  trzeba  było  używać  dyskietek,  na  których  mieściło  się  400 

kilobajtów  informacji.  Mój  obecny  komputer  domowy  jest  wyposażony  w  twardy  dysk  o 

pojemności  500  megabajtów  -  co  znowu  oznacza  tysiąckrotny  wzrost  możliwości 

przechowywania  informacji.  Szybkość  mojego  domowego  komputera  również  znac znie  się 

zwiększyła  w  ciągu  ostatnich  dziesięciu  lat.  Przypuszczam,  że  wykonuje  on  teraz 

szczegółowe  obliczenia  numeryczne  prawie  sto  razy  szybciej  niż  mój  pierwszy  Macintosh. 

Natomiast moja stacja robocza na uniwersytecie jest prawdopodobnie jeszcze 10 ra zy szybsza 

i może wykonywać prawie pół miliarda operacji na sekundę. 

Jakkolwiek  by  na  to  nie  spojrzeć,  dokonał  się  niewiarygodny  postęp.  Najlepsze 

komputery  ogólnego  przeznaczenia  w  ciągu  ostatniej  dekady  mniej  więcej  stukrotnie 

zwiększyły swoją  szybkość  i pojemność pamięci. Pomijam  tutaj komputery przeznaczone do 

specjalnych  zadań  -  te  cudeńka  osiągają  prędkości  przekraczające  10  miliardów  operacji  na 

sekundę.  Okazało  się  też,  że  niektóre  urządzenia  specjalnego  przeznaczenia  należałoby  w 

zasadzie  budować,  wykorzystując  układy  biologiczne  oparte  na  DNA,  co  mogłoby 

przyspieszyć ich działanie o kilka rzędów wielkości. 

Można się zastanawiać, do czego to wszystko zmierza i czy należy spodziewać się tak 

szybkiego  rozwoju  także  w  przyszłości.  I  czy  konieczne  jest  utrzymanie  tego  tempa. 

Zauważyłem  już,  że  elementem  określającym  tempo  przepływu  informacji  jest  końcowy 

użytkownik.  Możemy  przyswoić  sobie  tylko  pewną  ilość  informacji.  Aby  się  o  tym 

przekonać,  wystarczy  przez  kilka  godzin  korzystać  z  sieci  Internet.  Często  się  dziwię, 

dlaczego  mimo  niewiarygodnych  możliwości,  jakie  mam  do  dyspozycji,  moja  własna 

background image

produktywność  nie  wzrosła  ani  w  części  tak  bardzo,  jak  możliwości  mojego  komputera. 

Sądzę,  że odpowiedź jest oczywista. Nie ograniczają  mnie  możliwości komputera,  lecz  moje 

własne.  Z  tego  powodu  często  się  mówi,  że  komputery  mogą  być  następną  fazą  ewolucji 

człowieka.  Nie  ulega  wątpliwości,  że  Data,  chociaż  pozbawiony  uczuć,  pod  wieloma 

względami  znacznie  przewyższa  swoich  kolegów  z  załogi.  A  jest  on,  jak  to  zostało  

powiedziane w odcinku Miara człowieka, żywą istotą. 

To  tylko  dygresja.  Wspominam  o  tempie  wzrostu  możliwości  komputerów  w  ciągu 

ostatniej  dekady,  gdyż  chcę  rozpocząć  dyskusję  o  potrzebach,  którym  należałoby  sprostać, 

aby poradzić  sobie  z przechowywaniem  i odzyskiwaniem  informacji koniecznej do działania 

transporterów.  Trzeba  oczywiście  przyznać,  że  daleko  nam  jeszcze  do  spełnienia  tych 

wymagań. 

Spróbujmy  w  prosty  sposób  ocenić,  jaka  ilość  informacji  zapisana  jest  w  ludzkim 

ciele.  Ustaliliśmy już,  że  ludzkie ciało składa się w przybliżeniu  z  l0

28

 atomów. Dla każdego 

atomu  musimy  zapisać  miejsce,  w  którym  się  on  znajduje,  co  wymaga  podania  trzech 

współrzędnych  (wartości  na osiach  x,  y,  z). Następnie powinniśmy  zapisać wewnętrzny  stan 

każdego atomu, a więc  między  innymi  informacje, które  z jego poziomów energetycznych są 

zajęte przez elektrony, czy jest związany  z sąsiednim atomem  i  tworzy  z nim cząsteczkę, czy 

ta cząsteczka drga  lub się obraca  i  tak dalej. Bądźmy ostrożni  i przyjmijmy,  że wszystko  uda 

się  zapisać  w  jednym  kilobajcie  danych.  (Mniej  więcej  tyle  informacji  mieści  się  na  stronie 

maszynopisu).  Oznacza  to,  że  aby  przechować  wzorzec  człowieka  w  buforze  wzorca, 

potrzebowalibyśmy około l0

28

 kilobajtów. Przypominam, że jest to l z 28 zerami.  

Porównajmy  to  z  całą  informacją  zawartą  we  wszystkich  książkach,  jakie 

kiedykolwiek  napisano.  Największe  biblioteki  zgromadziły  kilka  milionów  tomów,  bądźmy 

więc szczodrzy  i przypuśćmy,  że  istnieje  miliard różnych książek (jedna  na każde pięć osób 

żyjących  obecnie  na  naszej  planecie).  Przypuśćmy,  że  każda  książka  zawiera  informację 

równoważną tysiącowi  stron  maszynopisu (znowu jest to ocena  nieco  zawyżona), czyli  mniej 

więcej  jednemu  megabajtowi. Cała  informacja we wszystkich książkach, jakie kiedykolwiek 

napisano,  wymagałaby  więc  l O

12

, czyli około  miliona  milionów kilobajtów pamięci.  Jest to 

wartość  o  szesnaście  rzędów  wielkości  mniejsza  -  czyli  jedna  dziesięciomilionowa  jednej 

miliardowej - od ilości pamięci potrzebnej do  zapisania wzorca jednego człowieka! Mając do 

czynienia  z  tak  dużymi  liczbami,  trudno  objąć  cały  ogrom  zagadnienia.  Spróbujmy  takiego 

porównania: wielkość pamięci potrzebna do zapisania wzorca człowieka w stosunku do ilości 

informacji  zawartej  we  wszystkich  istniejących  książkach  jest  10  tysięcy  razy  większa  niż 

stosunek  ilości  informacji  zawartej  we wszystkich książkach do  ilości  informacji  zawartej  na 

background image

jednej stronie tej książki. 

Problem  przechowywania  takiej  ilości  informacji  nie  jest,  jak  lubią  mówić  fizycy, 

trywialny.  Największe  dostępne  dziś  na  rynku  dyski  twarde  mogą  pomieścić  około  10 

gigabajtów,  czyli  10  tysięcy  megabajtów.  Jeśli  przyjąć,  że  każdy  dysk  ma  grubość  10 

centymetrów,  wszystkie  dyski  potrzebne  do  przechowania  jednego  wzorca  człowieka, 

ułożone  jeden  na  drugim,  miałyby  wysokość  równą  1/3  drogi  dzielącej  nas  od  środka 

Galaktyki, czyli około 10 tysięcy  lat  świetlnych, a  zatem 5  lat podróży statkiem  Enterprise  z 

prędkością 9 warpów! 

Odzyskanie tej  informacji  w czasie rzeczywistym to poważne  wyzwanie. Najszybsze 

obecnie  urządzenia  do  przesyłania  informacji  cyfrowej  mogą  działać  z  prędkością  nieco 

mniejszą  niż  100  megabajtów  na  sekundę.  Gdybyśmy  pracowali  w  tym  tempie,  zapisanie 

danych określających wzorzec  człowieka  na  taśmie  wymagałoby czasu około dwóch tysięcy 

razy  dłuższego  niż  wiek  Wszechświata  (przyjmujemy,  że  wiek  ten  wynosi  około  10 

miliardów  lat)!  Wyobraźmy  sobie  to  dramatyczne  napięcie:  Kirk  i  McCoy  wydostali  się  na 

powierzchnię  kolonii  karnej  w  Rura  Penthe.  Musimy  ich  przesłać,  czyli  przetransmitować 

milion  miliardów  miliardów  megabajtów  informacji  w  czasie,  którego  potrzebuje  strażnik, 

aby  wycelować  w  nich broń przed wystrzałem. Dysponujemy  więc sekundami, a  nie czasem 

porównywalnym z wiekiem Wszechświata. 

Myślę,  że  sytuacja  jest  jasna.  Przy  takim  wyczynie  niewielki  wydaje  się  wysiłek 

wkładany w trwające obecnie badania nad ludzkim genomem, których celem jest odczytanie i 

zapisanie całego kodu  genetycznego człowieka,  zawartego w  mikroskopijnych  nitkach DNA. 

Koszty  tego  przedsięwzięcia  wynoszą  wiele  miliardów  dolarów.  W  ciągu  ostatniej  dekady 

badania  te  prowadzono  w  wielu  laboratoriach  na  całym  świecie.  Łatwo  się  domyślić,  że 

wspominam o tym tylko po to, aby dodać kolejną pozycję do listy trudności wskazujących na 

niewielkie  szansę  skonstruowania  transportera.  Nie  możemy  jednak  wykluczyć,  że  w  XXIII 

wieku  sprawy  będą  się  przedstawiały  inaczej.  Mój  optymizm  bierze  się  z  ekstrapolacji 

obecnego  tempa  rozwoju  technologii  komputerowej.  Biorąc  pod  uwagę  postęp  w 

przechowywaniu  informacji  i prędkości jej przesyłania, dochodzę do wniosku,  że  zwiększają 

się one stukrotnie co dziesięć lat. Jeśli nawet będziemy ostrożni i podzielimy to przez 10 oraz 

przyjmiemy,  że  nasze  możliwości  są  obecnie  mniej  więcej  10  do  21  potęgi  (10

21

)  za  małe, 

możemy oczekiwać, że za 210 lat - na początku dwudziestego trzeciego stulecia - technologia 

komputerowa,  potrafiąca  zmierzyć  się  z  problemem  przesyłania  informacji  przy  użyciu 

transportera, znajdzie się w zasięgu ręki. 

Mówię to  nie  mając oczywiście pojęcia, w jaki  sposób  mogłoby się to dokonać. Jasne 

background image

jest,  że  aby  w  urządzeniu  wielkości  człowieka  przechowywać  ponad  10

25

  kilobajtów 

informacji,  każdy  jego  atom  musiałby  być  wykorzystywany  jako  komórka  pamięci.  Bardzo 

obiecujące  pod  tym  względem  wydają  się  pojawiające  się  obecnie  idee  komputerów 

biologicznych,  w  których  dynamika  molekularna  naśladuje  cyfrowe  procesy  logiczne, 

umożliwiając jednoczesne działanie około 10

25

 cząstek w makroskopowym zbiorze. 

Powinienem  wszakże  ostrzec  Czytelników:  nie  jestem  informatykiem.  Mój  ostrożny 

optymizm  może być  więc  jedynie odbiciem  mojej  niewiedzy. Uspokaja  mnie  nieco przykład 

ludzkiego  mózgu,  który  o  lata  świetlne  wyprzedza  w  złożoności  i  wszechstronności 

jakikolwiek istniejący układ obliczeniowy. Jeśli dobór naturalny mógł stworzyć tak wspaniałe 

urządzenie do przechowywania  i odzyskiwania  informacji,  sądzę,  że wiele  jeszcze  mamy do 

odkrycia. 

ACH,  TE KWANTY!  Aby  jeszcze bardziej  zbliżyć się do rzeczywistości,  wystarczy 

wypowiedzieć  dwa  słowa:  mechanika  kwantowa.  Na  poziomie  mikroskopowym,  na  który 

musimy  zejść,  aby  zapisać  wzór  materii,  a  następnie  odtworzyć  go  w  transporterze,  fizyką 

rządzą  niezwykłe prawa  mechaniki kwantowej;  to dzięki  nim cząstki  mogą  zachowywać  się 

jak  fale,  a  fale  jak  cząstki.  Nie  będę  się  tutaj  wdawał  w  wykład  mechaniki  kwantowej. 

Najważniejsza  idea  mówi,  że w  skalach  mikroskopowych tego, co  jest obserwowane,  i tego, 

co dokonuje obserwacji,  nie  można rozdzielić. Wykonanie pomiaru oznacza  zmianę,  zwykle 

trwałą,  układu.  To  proste  prawo  można  ująć  na  wiele  różnych  sposobów,  ale  chyba 

najsłynniejszym  z  nich jest  zasada  nieoznaczoności Helsenberga.  To  fundamentalne prawo  - 

które,  jak się  wydaje,  znosi klasyczne pojęcie determinizmu  w  fizyce, chociaż  faktycznie  na 

podstawowym poziomie tego  nie  robi  -dzieli  świat  fizyczny  na dwa  zbiory obserwowalnych 

wielkości;  coś  w  rodzaju  yin  i  yang.  Mówi  ono,  że  niezależnie  od  tego,  jaka  technologia 

zostanie  wynaleziona  w  przyszłości,  nie  można  zmierzyć  pewnych  kombinacji  wielkości  z 

dowolnie dużą dokładnością. W skalach  mikroskopowych położenie cząstki  można  zmierzyć 

z  dowolną  dokładnością.  Jednak  Heisenberg  twierdzi,  że  nie  możemy  wtedy  dokładnie 

określić  jej  prędkości  (a  zatem  również  położenia  w  następnej  chwili).  Możemy  również  z 

dowolną dokładnością sprawdzić stan energetyczny atomu. W tym jednak przypadku  nie  uda 

nam  się  precyzyjnie  określić,  jak  długo  będzie  on  przebywał  w  tym  stanie.  Listę  można  by 

ciągnąć dalej. 

Te  związki  są  istotą  mechaniki kwantowej  i  nigdy  nie stracą  mocy.  Jak długo  mamy 

do czynienia z odległościami, w których obowiązują prawa  mechaniki kwantowej,  musimy je 

tolerować.  (Wszystko  wskazuje  na  to,  że  odległości  te  są  większe  od  odległości,  w  których 

stają się znaczące efekty kwantowej grawitacji, czyli od około 10

33

 cm). 

background image

Istnieje  dość  niezdarny,  ale  interesujący  argument  fizyczny,  który  pozwala  lepiej 

zrozumieć  zasadę  nieoznaczoności.  Mechanika  kwantowa  obdarza  wszystkie  cząstki 

własnościami  falowymi,  a  fale  mają  pewną  uderzającą  cechę:  ulegają  zaburzeniu  tylko  przy 

spotkaniu  z  przedmiotami  większymi  niż  ich  długość  {odległość  między  kolejnymi 

grzbietami  fali).  Aby  się  o  tym  przekonać,  wystarczy  obserwować  fale  oceanu.  Niewielki 

kamień  wystający  z  wody  nie  będzie  miał  wpływu  na  fale  uderzające  o  brzeg,  natomiast  za 

dużym głazem powstanie obszar spokojnej wody. 

Jeśli chcemy „oświetlić” atom - to znaczy odbić od niego światło tak, aby można było 

zobaczyć,  gdzie  się  znajduje -  musimy  użyć światła o długości  fali wystarczająco  małej, aby 

atom mógł je zaburzyć. Prawa mechaniki kwantowej mówią jednak, że fale światła rozchodzą 

się  w  małych  porcjach,  czyli  kwantach,  które  nazywamy  fotonami  (jak  w  „torpedach 

fotonowych”  statków  kosmicznych,  nie  składających  się  jednak  z  fotonów).  Poszczególne 

fotony  o  danej  długości  fali  niosą  energię  odwrotnie  proporcjonalną  do  tej  długości.  Z  im 

większą  zdolnością  rozdzielczą  chcemy  widzieć,  tym  mniejszej  długości  światła  musimy 

użyć. Im mniejsza jednak jest długość fali, 

tym  większa  energia  kwantów.  Jeśli  bombardujemy  atom  wysokoenergetycznym 

fotonem,  możemy  stwierdzić,  gdzie  dokładnie  znajdował  się  atom,  kiedy  uderzył  w  niego 

foton, ale sam proces obserwacji - to znaczy uderzenie fotonu w atom - z pewnością dostarczy 

atomowi znacznej energii, zmieniając w ten sposób jego prędkość i kierunek ruchu.  

Nie  można  zatem  określić  położenia  atomów  i  ich  stanów  energetycznych  z 

dokładnością  konieczną  do  precyzyjnego  odtworzenia  wzorca  człowieka.  Zmierzone 

wielkości  zawsze  będą  nieco  niedokładne.  Co  by  to  oznaczało  dla  produktu  końcowego  po 

operacji  przesłania,  jest  szczegółową  kwestią  biologiczną,  na  której  temat  mogę  tylko 

spekulować. 

Problem  ten  nie  pozostał  nie  zauważony  przez  twórców  Star  Trek,  którzy  byli 

świadomi  nieuniknionych  ograniczeń,  jakie  nakłada  na  transporter  mechanika  kwantowa. 

Mając  jednak  do  dyspozycji  coś,  do  czego  fizycy  zwykle  nie  mogą  się  odwołać  -  to  znaczy 

swobodę  artystyczną  -  wprowadzili  „kompensatory  Heisenberga”,  które  umożliwiają 

„kwantową  analizę”  obiektów.  Kiedy  konsultanta  technicznego  Star  Trek,  Michaela  Okudę, 

zapytano, jak działają kompensatory, odpowiedział po prostu: „Bardzo dobrze, dziękuję!” 

Kompensatory  Heisenberga  odgrywają  w  filmie  jeszcze  jedną  rolę.  Zdziwiło  mnie, 

dlaczego  transportery  nie  są  również  replikatorami  form  życia.  W  końcu  replikatory  istnieją 

na  pokładach  statków  i  powodują,  że  szklanki  wody  lub  wina  pojawiają  się  w  magiczny 

sposób w kajucie  na słowne  żądanie każdego członka  załogi. Wygląda  na  to,  że  technologia 

background image

replikatorów operuje tylko  na  „poziomie cząsteczkowym”  i  nie osiąga  „kwantowej  zdolności 

rozdzielczej”. Ma  to wyjaśniać, dlaczego powielanie  istot  żywych  za pomocą replikatora  nie 

jest  możliwe. Pozwala to  również  wytłumaczyć ciągłe  narzekania,  że jedzenie pochodzące  z 

replikatorów  nigdy  nie  jest  zupełnie  takie  samo  jak  prawdziwe,  oraz  dlaczego  Riker  i  inni 

wolą przyrządzać omlety i inne przysmaki w tradycyjny sposób. 

ZOBACZYĆ  ZNACZY  UWIERZYĆ.  Jakby  nie  dość  tego  wszystkiego,  istnieje 

jeszcze  jedna  trudność  związana  z  ideą  przesyłanią.  Przesyłanie  osoby  ze  statku  jest 

wystarczająco  trudne,  ale  zabranie  jej  z  powrotem  na  pokład  może  być  jeszcze  trudniejsze. 

Aby dostarczyć członka  załogi  z powrotem  na statek, czujniki  na pokładzie  Enterprise  muszą 

odnaleźć  go  na  planecie.  Co  więcej,  powinny  odczytać  jego  indywidualny  wzorzec,  zanim 

ulegnie  on  dematerializacji  i  przesłaniu  w  postaci  strumienia  materii.  Enterprise  musi  więc 

być  wyposażony  w  teleskop  o  mocy  wystarczającej  do  oglądania  z  atomową  zdolnością 

rozdzielczą  przedmiotów  na  powierzchni  planety,  a  czasem  nawet  pod  nią.  W  serialu 

dowiadujemy  się,  że  typowy  zasięg  działania  transportera  wynosi  około  40  tysięcy 

kilometrów,  czyli  jest  mniej  więcej  trzy  razy  większy  od  średnicy  Ziemi.  Tę  właśnie  liczbę 

wykorzystamy do przeprowadzenia odpowiednich obliczeń. 

Niemal  każdy  widział  zdjęcia  kopuł  wielkich  teleskopów  ziemskich,  takich  jak 

teleskop  Kecka  na  Hawajach  (największy  na  świecie)  czy  teleskop  na  Mount  Palomar  w 

Kalifornii. Budowa coraz większych teleskopów nie jest po prostu przejawem gigantomanii, o 

którą  niektórzy,  włącznie  z  wieloma  członkami  Kongresu  Stanów  Zjednoczonych,  lubią 

oskarżać  naukowców.  Aby  zobaczyć  słabo  widoczne  i  bardzo  odd alone  ciała  niebieskie, 

potrzebujemy po prostu coraz większych  teleskopów; podobnie,  gdy chcemy badać strukturę 

materii w coraz mniejszych skalach, budujemy coraz większe akceleratory. Powód jest prosty: 

ponieważ światło ma naturę falową, za każdym razem, gdy przechodzi przez otwór, ugina się, 

czyli  nieco  rozmazuje.  Gdy  światło  z  odległego  źródła  punktowego  przechodzi  przez 

soczewkę  teleskopu,  obraz  nieco  się  rozmywa  i  zamiast  punktowego  źródła  widzimy 

rozmazaną  plamkę  światła.  Jeśli  dwa  punktowe  źródła  światła  znajdują  się  bliżej  siebie,  niż 

wynoszą  rozmiary  ich  obrazów,  nie  dostrzeżemy  ich  jako  oddzielnych  obiektów,  ponieważ 

obrazy  będą  się  na  siebie  nakładały.  Im  większa  jest  soczewka,  tym  mniej  rozmazany  jest 

obraz.  Aby  więc  obserwować  coraz  mniejsze  obiekty,  należy  wyposażać  teleskopy  w  coraz 

większe soczewki. 

Jest  jeszcze  inne  kryterium  jakości  teleskopowych  obrazów.  Bez  względu  na  to, 

jakiego  promieniowania  się  używa,  długość  fali  światła  musi  być  mniejsza  niż  rozmiar 

obiektu,  który  chce  się  zaobserwować  (zgodnie  z  argumentacją  przytoczoną  przeze  mnie 

background image

wcześniej).  Jeśli  więc  chce  się  oglądać  materię  z  dobrą  zdolnością  rozdzielczą  w  skalach 

atomowych, gdzie istotne są odległości sięgające kilku miliardowych centymetra, należy użyć 

promieniowania,  którego  długość  fali  jest  krótsza  niż  jedna  miliardowa  centymetra.  Jeśli 

zdecydujemy  się  na  promieniowanie  elektromagnetyczne,  będzie  to  oznaczało,  że  musimy 

użyć  promieniowania  rentgenowskiego  lub  y.  I  od  razu  pojawia  się  problem:  takie 

promieniowanie  jest  szkodliwe  dla  życia  i  atmosfera  dowolnej  planety  klasy  M  zatrzyma  je 

tak,  jak  robi  to  atmosfera  Ziemi.  Transporter  będzie  więc  musiał  wykorzystywać  nośniki 

nieelektromagnetyczne,  takie  jak  neutrina  lub  grawitony,  co  wiąże  się  z  nowymi 

problemami... 

Tak  czy  owak,  można  przeprowadzić  odpowiednie  obliczenia,  zakładając,  że 

Enterprise  posługuje  się  promieniowaniem  o  długości  fali  mniejszej  niż  jedna  miliardowa 

centymetra  ł  ma  za  zadanie  odczytanie  wzorca  obiektu  znajdującego  się  w  odległości  40 

tysięcy  kilometrów  z  atomową  zdolnością  rozdzielczą.  Okazuje  się,  że  aby  wykonać  to 

zadanie, statek potrzebowałby teleskopu  z soczewką o średnicy większej od około 50 tysięcy 

kilometrów! Gdyby  miała  mniejsze  rozmiary,  nie  istniałby  żaden sposób,  nawet  w teorii, aby 

zobaczyć  pojedyncze  atomy.  Chociaż  Enterprise-D  ma  imponujące  rozmiary,  nie  jest  aż  tak 

wielki... 

Tak  jak  obiecałem,  rozważania  nad  transporterami  doprowadziły  nas  do  mechaniki 

kwantowej,  fizyki  cząstek,  informatyki,  odkrytego  przez  Einsteina  związku  między  masą  i 

energią,  a  nawet  do  kwestii  istnienia  ludzkiej  duszy.  Nie  powinniśmy  być  więc  za  bardzo 

rozczarowani oczywistą  niemożliwością  zbudowania  urządzenia, które  mogłoby wykonywać 

konieczne  operacje.  Podchodząc  do  sprawy  z  mniej  negatywnym  nastawieniem, 

powiedzielibyśmy,  że  zbudowanie  transportera  wymagałoby  podgrzewania  materii  do 

temperatury milion razy większej od tej, jaka 

panuje w środku Słońca, wyzwalania w  jednym  urządzeniu większej  ilości energii  niż 

zużywa  obecnie  cala  ludzkość,  zbudowania  teleskopów  większych  od  Ziemi,  zwiększenia 

możliwości  komputerów  tysiąc  miliardów  miliardów  razy  oraz  obejścia  praw  mechaniki 

kwantowej. Nie powinniśmy się więc dziwić,  że porucznik Barclay obawiał się przesyłania! 

Sądzę,  że  nawet  Gene  Roddenberry,  gdyby  w  prawdziwym  życiu  stanął  przed  taką 

możliwością,  wolałby  raczej  zafundować  sobie  statek  kosmiczny  potrafiący  lądować  na 

powierzchni planety. 

background image

ROZDZIAŁ 6 

ILE CZADU ZA DOLARA? 

Nie istnieje nic nierzeczywistego 

Pierwsze prawo metafizyki Kir-kin-thy (Star Trek IV: Podróż do domu) 

 

 

Gdy  wyjeżdża  się  z  Chicago  na  zachód  drogą  stanową  numer  88,  po  przebyciu 

niespełna  50  km,  w  pobliżu  Aurory,  można  zobaczyć,  jak  chaotyczna,  rzadka  zabudowa 

stopniowo  ustępuje  miejsca  gładkiej,  środkowozachodniej  prerii,  która  rozpościera  się  jak 

okiem  sięgnąć.  Nieco  na  północ  od  drogi  znajduje  się  kolisty  teren  opasany  przez  coś,  co 

przypomina  fosę. Wewnątrz tego okręgu pasą się bizony, a  w  licznych  stawach pływa  wiele 

gatunków kaczek i gęsi. 

To,  co  dzieje  się  sześć  metrów  pod  ziemią,  znacznie  odbiega  od  spokojnej, 

sielankowej  atmosfery  na  powierzchni.  Czterysta  tysięcy  razy  na  sekundę  silna  wiązka 

antyprotonów  zderza  się  tam  czołowo  z  wiązką  protonów,  produkując  strumień  setek  lub 

tysięcy wtórnych cząstek: elektronów, pozytonów, pionów i innych. 

Pod  ziemią  znajduje  się  Narodowe  Laboratorium  Akceleratorowe  im.  Enrico 

Fermiego,  w  skrócie:  Fermilab.  Mieści  ono  akcelerator  cząstek,  w  którym  otrzymuje  się 

największe  na  świecie  energie.  Co  więcej,  znajduje  się  tu  również  największy  na  świecie 

magazyn antyprotonów.  Tutaj  antymateria  nie  ma  nic wspólnego  z  fantastyką  naukową. Jest 

powszednim chlebem tysięcy naukowców, którzy korzystają z urządzeń Fermilabu.  

W  tym  właśnie  Fermilab  i  Enterprise  są  do  siebie  podobne.  Antymateria  ma 

podstawowe znaczenie dla działania statku: 

zasila bowiem  napęd czasoprzestrzenny. Jak wspomniałem wcześniej, nie  ma bardziej 

efektywnego sposobu  zasilania  układu  napędowego (chociaż  napęd  czasoprzestrzenny działa 

inaczej  niż  napęd  rakietowy).  Kiedy  materia  spotyka  się  z  antymaterią,  dochodzi  do  ich 

anihilacji i powstaje czyste promieniowanie, które rozchodzi się z prędkością światła.  

Należy  oczywiście  dołożyć  wszelkich  starań,  by  mieć  pewność,  że  antymateria 

znajduje  się pod kontrolą,  zwłaszcza jeśli przechowywana jest w dużych  ilościach. Kiedy  na 

pokładzie  statku  przestaje  działać  układ  przechowywania  antymaterii  -  zdarzyło  się  to  na 

Enterprise  po  zderzeniu  z  Bozemanem,  a  także  na  statku  Yamato,  którego  system  przestał 

działać  po  użyciu  ikonianskiej  broni  komputerowej  -  w  krótkim  czasie  grozi  mu  całkowite 

zniszczenie.  Układ przechowywania antymaterii  ma  tak podstawowe  znaczenie dla działania 

background image

statku  kosmicznego,  że  trudno  zrozumieć,  dlaczego  porucznik  Federacji,  Deanna  Troi,  nie 

wiedziała  o  skutkach  awarii  tego  układu,  kiedy  na  pewien  czas  przejęła  dowództwo  na 

Enterprise  w odcinku Katastrofa  z serii Następne pokolenie, po tym, jak statek  zderzył się  z 

dwoma  „włóknami kwantowymi”. Nie  można w  żadnym razie  uznać  za wytłumaczenie tego, 

że z wykształcenia była psychologiem! 

Konstrukcja  układu  przechowywania  antymaterii  na  pokładzie  statków  kosmicznych 

może odwoływać się do tej samej  zasady, która pozwala w Fermilabie przechowywać przez 

dłuższy czas antyprotony.  Antyprotony  i antyelektrony  (nazywane pozytonami) są cząstkami 

naładowanymi elektrycznie. W obecności pola  magnetycznego  naładowane cząstki poruszają 

się  po  orbitach  kołowych.  Jeśli  zatem  przyspieszy  się  cząstki  w  polach  elektrycznych,  a 

następnie  włączy  pole  magnetyczne  o  właściwej  sile,  będą  się  one  poruszały  po  okręgach  o 

odpowiednich  rozmiarach.  W  ten  sposób  cząstki  mogą  na  przykład  krążyć  wewnątrz 

pojemnika  w  kształcie  torusa  (czyli  obwarzanka),  nie  wchodząc  nigdy  w  kontakt  z  jego 

ściankami. Ta sama zasada jest wykorzystywana w urządzeniach, zwanych tokamakami. które 

służą  do  przechowywania  plazmy  o  wysokiej  temperaturze,  wykorzystywanej  w  badaniach 

nad kontrolowaną syntezą jądrową. 

W  źródle  antyprotonów  w  akceleratorze  Fermilabu  znajduje  się  duży  pierścień 

magnesów.  Wyprodukowane  w  średnioener-getycznych  zderzeniach  antyprotony  kierowane 

są do  tego pierścienia,  gdzie  można je przechowywać aż do czasu, kiedy będą potrzebne do 

zderzeń wysokoenergetycznych, które odbywają się w tewatronie - potężnym akceleratorze w 

Fermilabie.  Tewatron  jest  o  wiele  większym  pierścieniem:  jego  obwód  wynosi  około  6,4 

kilometra.  Do  tego  pierścienia  wstrzykuje  się  protony,  a  następnie  przyspiesza  je  w  jednym 

kierunku;  antyprotony rozpędza się w kierunku przeciwnym.  Jeśli pola  magnetyczne  zostaną 

precyzyjnie  dobrane,  te  dwie  wiązki  cząstek  można  trzymać  z  dala  od  siebie  przez  większą 

część  trasy  w  tunelu.  W  określonych  punktach  wiązki  jednak  zbliżają  się  do  siebie  i  można 

badać zderzenia cząstek. 

Kolejnym  problemem,  który  się  pojawia,  gdy  chcemy  używać  napędu  na  materię  i 

antymaterię, jest kwestia, skąd wziąć antymaterię. O  ile  nam  wiadomo, Wszechświat składa 

się  głównie  z  materii,  a  nie  z  antymaterii.  Potwierdzają  to  badania  zawartości 

wysokoenergetycznego  promieniowania  kosmicznego,  którego  część  pochodzi  spoza  naszej 

Galaktyki. W czasie  zderzeń  wysokoenergetycznego promieniowania kosmicznego  z  materią 

powinny powstawać  niektóre antycząstki.  Gdy bada  się promieniowanie kosmiczne o różnej 

energii,  obecność  w  nim  antymaterii  można  w  zupełności  wyjaśnić  za  pomocą  tego  właśnie 

zjawiska; nic nie wskazuje na to, aby docierała do nas jakaś pierwotna antymateria. Kolejnym 

background image

możliwym  śladem obecności  antymaterii  we Wszechświecie  mogłyby być charakterystyczne 

cechy procesu anihilacji,  zachodzącej w wyniku  zderzeń cząstek  i antycząstek. Gdziekolwiek 

pary  takie  się  pojawią,  można  oczekiwać  charakterystycznego  promieniowania,  wysyłanego 

w wyniku anihilacji. W ten właśnie sposób  Enterprise poszukiwał Krystalicznej Istoty, która 

zniszczyła  nową  placówkę  Federacji;  najwidoczniej  pozostawiała  ona  ślad  w  postaci  smugi 

antyprotonów.  Tropiąc  ślady  promieniowania  anihilacyjnego,  Enterprise  wyśledził  Istotę  ł 

przejął nad nią kontrolę, zanim zdążyła zaatakować następną planetę.  

Chociaż autorzy Star Trek dobrze uchwycili ogólną ideę, mylili się co do szczegółów. 

Dr Marr i Data poszukiwali ostrego maksimum promieniowania y w okolicy 10 keV, czyli 10 

kilo-elektronowoltów,  które  są  jednostkami  energii  promieniowania.  Niestety,  nie  jest  to 

właściwa  skala  energii  dla  procesu  anihilacji  protonów  i  antyprotonów,  a  nawet  nie 

odpowiada  ona  żadnemu  znanemu  procesowi  anihilacji.  Najlżejszą  znaną  cząstką  mającą 

masę  jest  elektron.  W  czasie  anihilacji  elektronów  i  pozytonów  powstaje  ostre  maksimum 

promieniowania  y  w  okolicy  511  keV,  co  odpowiada  masie  elektronu.  Maksimum  energii 

anihilacji protonów  i antyprotonów odpowiada  z kolei  spoczynkowej energii protonu, czyli  l 

GeV  (gigaelektronowoltowi);  to  energia  około  sto  tysięcy  razy  większa  od  tej,  której 

poszukiwali Marr i Data. (Nawiasem mówiąc, 10 keV znajduje się w rentgenowskim obszarze 

widma, a nie w zakresie promieniowania y, które odpowiada energii przekraczającej 100 keV; 

jest to jednak chyba zbyt subtelny szczegół, aby kruszyć o niego kopie).  

W  każdym  razie  astronomowie  i  fizycy  poszukiwali  rozproszonych  sygnałów  tła  w 

okolicy  511  keV  i  w  zakresie  GeV,  mając  nadzieję,  że  trafią  na  ślady  anihilacji  materii  i 

antymaterii;  jak dotąd jednak niczego takiego  nie  znaleziono. Oznacza  to, jeśli  uwzględni  się 

również  wyniki  badań  promieniowania  kosmicznego,  że  gdyby  nawet  we  Wszechświecie 

istniały znaczne ilości antymaterii, nie mogą być one wymieszane ze zwykłą materią.  

Ponieważ  większości  z  nas  o  wiele  bliższa  jest  materia  niż  antymateria,  wydaje  się 

całkiem  naturalne,  że Wszechświat powinien być  zbudowany  z  tej pierwszej. Nie  ma  w  tym 

jednak  nic  naturalnego.  W  rzeczywistości  nadmiar  materii  w  stosunku  do  antymaterii  to 

obecnie  jeden  z  najbardziej  interesujących  nie  rozwiązanych  problemów  w  fizyce.  Ta 

przewaga ma wiele wspólnego z naszym istnieniem, a zatem także z istnieniem wszechświata 

Star Trek. Wydaje się więc właściwe zatrzymać się dłużej nad tą kwestią.  

Kiedy  powstała  mechanika  kwantowa,  zastosowano  ją  z  powodzeniem  do  opisu 

zjawisk  fizyki  atomowej;  udało  się  na  przykład  wspaniale  wytłumaczyć  zachowanie 

elektronów w atomach. Nie ulegało jednak wątpliwości, że jednym z ograniczeń tego obszaru 

badań było to,  że prędkości  takich elektronów są  zwykle dużo  mniejsze od prędkości światła. 

background image

Szczególnej  teorii  względności  z  mechaniką  kwantową  nie  udało  się  pogodzić  przez  prawie 

dwa dziesięciolecia,  m.in. dlatego,  że - w przeciwieństwie do szczególnej teorii  względności, 

która  jest  stosunkowo  prosta  w  zastosowaniach  -  mechanika  kwantowa  wymagała  nie  tylko 

całkiem  nowego  sposobu  widzenia  świata,  lecz  także  skonstruowania  nowych  narzędzi 

matematycznych.  W  ciągu  pierwszych  trzydziestu  lat  naszego  wieku  najwybitniejsi  młodzi 

fizycy poświęcili się całkowicie badaniu tego niezwykłego, nowego obrazu Wszechświata.  

Jednym  z  nich  był  Paul  Adrien  Maurice  Dirac.  Podobnie  jak  jego  następca  Stephen 

Hawking,  a  później  Data,  miał  on  pewnego  dnia  objąć  profesurę  Lucasa  w  katedrze 

matematyki  na  Uniwersytecie  w  Cambridge.  Był  uczniem  lorda  Rutherforda,  a  następnie 

pracował z Nielsem Bohrem - trudno o lepsze przygotowanie dla kogoś, kto chciał rozszerzyć 

mechanikę kwantową  na obszar superszybkich prędkości. W  roku 1928 Dirac, podobnie jak 

kiedyś  Einstein,  ułożył  równanie,  które  miało  zmienić  świat.  Równanie  Diraca  poprawnie 

opisuje  relatywistyczne  zachowanie  elektronów  w  sposób  w  pełni  zgodny  z  teorią 

kwantowomechaniczną. 

Wkrótce  po  sformułowaniu  tego  równania  Dirac  uświadomił  sobie,  że  zachowanie 

spójności  matematycznej wymaga  istnienia w przyrodzie  cząstki o  ładunku, którego  wartość 

odpowiadałaby dokładnie ładunkowi elektronu, ale z przeciwnym znakiem. Oczywiście znano 

już taką cząstkę: był  nią proton. Jednak  z równania Diraca wynikało,  że  cząstka ta powinna 

mieć  taką samą  masę  jak elektron, podczas  gdy proton jest prawie 2  tysiące razy cięższy.  Ta 

rozbieżność  między  rezultatami  obserwacji  a  „naiwną”  interpretacją  równania  pozostawała 

zagadką  przez  cztery  lata,  aż  do  chwili,  gdy  amerykański  fizyk  Carl  Anderson  odkrył  w 

promieniowaniu kosmicznym bombardującym  Ziemię  nową cząstkę, której  masa równała się 

masie  elektronu,  ale  ładunek  miał  przeciwny  znak  -  był  dodatni.  Ten  „antyelektron”  stał  się 

wkrótce znany jako pozyton. 

W  ten  sposób  zdano  sobie  sprawę  z  tego,  że  z  połączenia  szczególnej  teorii 

względności  i  mechaniki  kwantowej  wynika,  iż  wszystkie  cząstki  istniejące  w  przyrodzie 

mają  swoje  anty-cząstki,  których  ładunek  elektryczny  (jeśli  są  nim  obdarzone)  i  różne  inne 

własności  powinny  mieć  przeciwne  wartości.  Jeśli  wszystkim  cząstkom  odpowiadają 

antycząstki, to jest sprawą umowną, które z nich nazwiemy cząstkami, a które antycząstkami, 

o ile żaden proces fizyczny nie wykaże jakiejkolwiek przewagi cząstek nad antycząstkami. W 

klasycznym świecie elektromagnetyzmu i grawitacji takich procesów jednak nie ma.  

Znaleźliśmy  się  teraz  w  kłopotliwym  położeniu.  Jeśli  cząstki  i  antycząstki  są 

równoprawne,  dlaczego  warunki  początkowe  we  Wszechświecie  zdecydowały,  że  to,  co 

nazywamy  cząstkami,  ma  stanowić  dominującą  formę  materii?  Z  pewnością  bardziej 

background image

rozsądnym - lub przynajmniej bardziej symetrycznym -stanem początkowym byłaby sytuacja, 

w  której  liczba  cząstek  i  antycząstek  jest  taka  sama.  Tymczasem  musimy  wyjaśnić,  w  jaki 

sposób prawa  fizyki, które,  jak widać,  nie rozróżniają cząstek  i antycząstek,  znalazły sposób, 

aby  wytworzyć  więcej  jednych  niż  drugich.  A  zatem  albo  istnieje  we  Wszechświecie 

podstawowa  wielkość  -  stosunek  ilości  cząstek  do  antycząstek  -  która  została  ustalona  na 

początku  czasu  i  o  której  prawa  fizyki  nie  mają  nic  do  powiedzenia,  albo  musimy  znaleźć 

wytłumaczenie dla późniejszej dynamicznej kreacji większej ilości materii niż antymaterii.  

W  latach sześćdziesiątych słynny radziecki  naukowiec  i późniejszy dysydent  Andriej 

Sacharow  zaproponował  rozwiązanie  tego  problemu.  Dowodził,  że  jeśli  prawa  fizyki  w 

młodym  Wszechświecie  spełniałyby  trzy  warunki,  asymetria  między  materią  i  antymaterią 

mogłaby  się  pojawić,  nawet  gdyby  na  początku  tej  asymetrii  nie  było.  W  czasach,  gdy  ta 

propozycja  została  wysunięta,  nie  istniały  teorie  fizyczne,  które  spełniałyby  warunki 

postawione  przez  Sacharowa.  W  następnych  latach  jednak  w  fizyce  cząstek  i  w  kosmologii 

dokonał  się  wielki  postęp.  Obecnie  istnieje  wiele  teorii,  które  potrafią  w  zasadzie  wyjaśnić 

obserwowaną różnicę w ilości materii i antymaterii w przyrodzie. Niestety, wszystkie te teorie 

wymagają nowej flzy7-Fizyka podróży... 

ki  oraz  nowych  cząstek  elementarnych  i  dopóki  natura  nie  wskaże  nam  właściwego 

kierunku,  nie  będziemy  wiedzieli,  którą  z  nich  wybrać.  Jednakże  wielu  fizyków,  ze  mną 

włącznie,  znajduje  wielką  pociechę  w  tym,  że  kiedyś,  wychodząc  z  pierwszych  zasad, 

poznamy  odpowiedź  na  pytanie,  dlaczego  istnieje  sama  materia,  będąca  podstawą  naszej 

egzystencji. 

Nawet  gdybyśmy dysponowali odpowiednią teorią,  nie  wiemy, jaką  właściwie  liczbę, 

określającą  stosunek  materii  do  antymaterii,  miałaby  ona  wyjaśnić.  Jaka  musiałaby  być  w 

młodym  Wszechświecie  nadwyżka  protonów  w  stosunku  do  antyprotonów,  abyśmy  mogli 

wyjaśnić obserwowaną obecnie przewagę  materii? Wskazówką do  znalezienia  tej  liczby jest 

porównanie  ilości  istniejących dzisiaj protonów  z  ilością  fotonów  - cząstek elementarnych,  z 

których  składa  się  światło.  Gdyby  w  młodym  Wszechświecie  istniało  tyle  samo  protonów  i 

antyprotonów,  anihilowałyby  one,  wytwarzając  promieniowanie,  czyli  fotony.  Każda 

anihilacja protonu  ł antyprotonu powodowałaby powstanie średnio jednej pary  fotonów. Jeśli 

jednak przyjmiemy,  że  istniała pewna  niewielka przewaga protonów  nad antyprotonami,  nie 

wszystkie  protony  uległyby  anihilacji.  Obliczając  liczbę  protonów  pozostałych  po 

anihilacjach  i  porównując  ją  z  liczbą  fotonów  wyprodukowanych  w  czasie  anihilacji  (to 

znaczy  liczbą  fotonów  w  promieniowaniu  tła  pozostałym  po  Wielkim  Wybuchu), 

moglibyśmy  oszacować  ułamek,  o  jaki  materia  dominowała  nad  antymaterią  w  młodym 

background image

Wszechświecie. 

Okazuje się, że dziś mniej więcej l proton przypada na każde 10 miliardów fotonów w 

kosmicznym promieniowaniu  tła. Oznacza to,  że początkowy  nadmiar protonów  w stosunku 

do antyprotonów wynosił  tylko  l  na 10  miliardów! Innymi słowy, w  młodym Wszechświecie 

na każde 10  miliardów antyprotonów przypadało 10  miliardów  i  l protonów! A jednak  nawet 

ten  malutki  nadmiar  (któremu  towarzyszyła  podobna  przewaga  neutronów  i  elektronów  nad 

ich  antycząstkami)  wystarczył,  aby  powstała  cała  obserwowana  materia  we  Wszechświecie: 

gwiazdy, galaktyki, planety i wszystko, co znamy i kochamy.  

Sądzimy, że właśnie w ten sposób powstał Wszechświat złożony z materii. Historia ta 

wprawdzie  jest  ciekawa  sama  w  sobie,  ale  wynika  z  niej  też  pewien  wniosek  dla  Star  Trele 

jeśli  chce  się  stosować  napęd  na  materię  i  antymaterię,  nie  można  zbierać  antymaterii  w 

przestrzeni kosmicznej, ponieważ  nie  ma  jej tam  wiele.  Antymaterię  trzeba wytwarzać. Aby 

odkryć,  jak  można  to  zrobić,  powróćmy  do  bizonów  wędrujących  po  równinie  nad 

akceleratorem  Fermilabu.  Zastanawiając  się  nad  teoretyczną  i  praktyczną  stroną  tego 

zagadnienia,  postanowiłem  skontaktować  się  z  dyrektorem  Fermilabu,  Johnem  Peoplesem, 

który prowadził badania mające na celu zaprojektowanie i zbudowanie źródła antyprotonów, i 

zapytać go, czy mógłby mi pomóc określić, ile antyprotonów można obecnie wyprodukować ł 

zmagazynować za cenę jednego dolara. Peoples  zgodził  się  mi pomóc, zlecając kilk u osobom 

ze swojego personelu dostarczenie potrzebnych informacji.  

W  Fermilabie  wytwarza  się  antyprotony  w  średnioenerge-tycznych  zderzeniach 

protonów  z  tarczą  wykonaną  z  litu.  Od  czasu  do  czasu  zderzenia  te  produkują  antyproton, 

który  następnie  jest  kierowany  do  pierścienia  przechowującego,  znajdującego  się  pod 

pastwiskiem bizonów. Działając  ze średnią  mocą, Fermilab wytwarza w  ten sposób około 50 

miliardów antyprotonów na godzinę. Przyjmując,  że  źródło antyprotonów pracuje przez 75% 

czasu w ciągu roku, otrzymujemy 6 tysięcy  godzin pracy  w roku, a więc średnio 300 tysięcy 

miliardów antyprotonów na rok. 

Koszt  eksploatacji  tych  urządzeń  akceleratora  w  Fermilabie,  które  biorą  bezpośredni 

udział w produkcji antyprotonów, wynosi około 500 milionów dolarów (wg ce n z 1995 roku). 

Amortyzacja  tego  sprzętu  podczas  użytkowania  go  w  ciągu  25  lat  daje  dalsze  20  milionów 

dolarów  na  rok.  Koszt  pracy  personelu  (inżynierów,  naukowców  i  obsługi  technicznej)  oraz 

maszyn  wynosi  około  8  milionów  dolarów  rocznie.  Dochodzi  do  tego   jeszcze  koszt 

olbrzymiej  ilości  energii  elektrycznej,  koniecznej  do  wytwarzania  wiązek  cząstek  oraz 

przechowywania antyprotonów. Według obecnych cen w Illinois wynosi on około 5 milionów 

dolarów  rocznie.  Są  jeszcze  koszty  administracyjne,  sięgające  15  milionów  dolarów  na  rok. 

background image

Wydaje  się  więc  48  milionów  dolarów  rocznie  na  wytworzenie  300  tysięcy  miliardów 

antyprotonów,  które  następnie  używa  się  w  Fermilabie  do  badania  podstawowej  struktury 

materii we Wszechświecie. Oznacza to, że za dolara otrzymujemy 6 milionów antyprotonów! 

Koszt  ten  prawdopodobnie  mógłby  być  mniejszy.  Fermilab  produkuje 

wysokoenergetyczną  wiązkę  antyprotonów,  lecz  gdybyśmy  chcieli  otrzymać  tylko 

antyprotony  nie  obdarzone  tak  wysokimi  energiami,  moglibyśmy  obniżyć  koszty  około 

dwóch  do  czterech  razy.'Przyjmijmy  więc,  że  dzisiejsza  technologia  pozwala  uzyskać  w 

hurcie 10-20 milionów antyprotonów za jednego dolara.  

Kolejne pytanie jest oczywiste: ile czadu za tego dolara? Jeśli całą masę kupionych za 

dolara antyprotonów zamienimy  na energię, uwolnimy około 1/1000 dżula, co wystarczyłoby 

na podgrzanie 1/4 grama wody o około 1/1000 stopnia Celsjusza. Nic nadzwyczajnego.  

Prawdopodobnie  lepszym  sposobem  wyobrażenia  sobie  potencjalnej  wydajności 

źródła  antyprotonów  w  Fermilabie  jako  części  napędu  czasoprzestrzennego  jest 

uwzględnienie  energii,  którą  można  by  wytworzyć,  zużywając  na  bieżąco  każdy  antyproton 

produkowany  przez  źródło.  Źródło  antyprotonów  może  wytwarzać  50  miliardów  cząstek  na 

godzinę.  Gdyby  te  wszystkie  antyprotony  zostały  zamienione  na  energię,  otrzymalibyśmy 

moc około l /1000 wata! 

Innymi  słowy,  aby  zasilić  jedną  żarówkę,  potrzebnych  byłoby  100  tysięcy  takich 

źródeł antyprotonów! Jako  że całkowity roczny koszt działania  źródła antyprotonów wynosi 

48  milionów  dolarów,  oświetlenie  pokoju  przy  użyciu  antymaterii  kosztowałoby  obecnie 

więcej niż wynosi roczny budżet rządu Stanów Zjednoczonych.  

Główny problem polega na tym, że przy dzisiejszych możliwościach wyprodukowanie 

jednego antyprotonu wymaga o wiele więcej energii, niż można by uzyskać, zamieniając jego 

masę  z  powrotem  w  energię.  Energia,  jaką  traci  się  w  procesie  produkcji,  jest 

prawdopodobnie co  najmniej  milion razy większa  niż energia  zawarta  w  masie antyprotonu. 

Należałoby  zatem  znaleźć  bardziej  efektywne  sposoby  produkcji  antyma terii,  zanim  zacznie 

się  myśleć  o  wykorzystaniu  w  napędzie  statku  kosmicznego  silników  na  materię  i 

antymaterię. 

Nie  ulega  również  wątpliwości,  że  gdyby  Enterprise  miał  wytwarzać  własną 

antymaterię, potrzebne byłyby  nowe technologie - nie tylko po to, by  zmniejszyć koszty,  lecz 

także  rozmiary  potrzebnych  do  tego  urządzeń.  Przy  posługiwaniu  się  technikami 

akceleratorowymi potrzebne byłyby  urządzenia  wytwarzające o  wiele  więcej energii  na  metr 

tunelu  niż  obecnie.  Mógłbym  dodać,  że  stanowi  to  na  Ziemi  końca  XX  wieku  przedmiot 

intensywnych  badań.  Jeśli  akceleratory  cząstek,  będące  obecnie  naszymi  jedynymi 

background image

narzędziami do bezpośredniego badania podstawowej struktury materii, nie mają się stać zbyt 

kosztowne  nawet  dla  międzynarodowych  konsorcjów,  muszą  powstać  nowe  technologie 

przyspieszania  cząstek  elementarnych.  (Niedawno  rząd  Stanów  Zjednoczonych  zdecydował, 

że  koszty  budowy  akceleratora  nowej  generacji  są  zbyt  wysokie.  Kraje  europejskie  budują 

natomiast  akcelerator w Genewie, który  ma  zacząć działać  na początku  przyszłego stulecia). 

Dotychczasowe  doświadczenia  dotyczące  efektywności  produkcji  energii  na  jeden  metr 

akceleratora  sugerują,  że  co  10-20  lat  możliwy  jest  postęp  dziesięciokrotny.  Niewykluczone 

więc, że za kilka stuleci będzie można sobie wyobrazić produkujący antymaterię akcelerator o 

rozmiarach  statku  kosmicznego.  Znając  niechęć  obecnych  rządów  do  finansowania  tego 

rodzaju kosztownych badań podstawowych, trudno być optymistą, ale  w ciągu dwóch stuleci 

może przecież zajść wiele zmian politycznych. 

Nawet  gdyby  można  było  wytwarzać  antymaterię  na  pokładzie  statku  kosmicznego, 

wciąż  trzeba byłoby pamiętać o  tym,  że  wyprodukowanie każdego antyprotonu  wymagałoby 

dużo  więcej  energii,  niż  można  by  później  odzyskać.  Dlaczego  mielibyśmy  zużywać  tę 

energię na produkcję antymaterii, zamiast wykorzystać ją bezpośrednio do napędzania statku?  

Twórcy  Stor  7Vefc,  jak  zawsze  czujni,  rozstrzygnęli  i  ten  problem.  Ich  odpowiedź 

była prosta.  Innych  form energii  można  używać do  napędu pulsacyjnego, czyli do osiągania 

prędkości  podświetlnych,  lecz  do  zasilania  napędu  czasoprzestrzennego  nadają  się  tylko 

reakcje materii i antymaterii. A ponieważ napęd 

czasoprzestrzenny 

może 

wiele 

skuteczniej 

ochronić 

statek 

przed 

niebezpieczeństwem  niż  napęd  pulsacyjny,  dodatkowe  zużycie  energii  na  produkcję 

antymaterii  może  być  opłacalne.  Scenarzyści  uniknęli  również  problemów  związanych  z 

produkcją  antymaterii  za  pomocą  akceleratora,  stając  się  wynalazcami  nowej  metody  jej 

wytwarzania. Zaproponowali hipotetyczne „urządzenia do odwracania ładunk u kwantowego”, 

które  miały  po  prostu  zmieniać  ładunek  cząstek  elementarnych,  tak  aby  z  protonów  i 

neutronów  można  było  w  efekcie  końcowym  otrzymać  antyprotony  i  antyneutrony.  Według 

instrukcji technicznej serii Następne pokolenie, chociaż proces ten wymaga niezwykle dużych 

mocy,  strata  energii  netto  wynosi  tylko  24%  -  o  wiele  mniej,  niż  w  przypadku  użycia 

akceleratora. 

Mimo że brzmi to bardzo obiecująco, zmiana ładunku elektrycznego protonu, niestety, 

nie wystarczy. Weźmy  na przykład pod  uwagę,  że  zarówno  neutrony,  jak  i antyneutrony  nie 

mają  ładunku.  Liczby  kwantowe  antycząstek  (wielkości  opisujące  ich  własności)  są  zawsze 

przeciwne niż u ich odpowiedników tworzących materię. Ponieważ kwarki, z których składają 

się  protony,  mają  wiele  innych  liczb  kwantowych  poza  ładunkiem  elektrycznym,  dla 

background image

dokończenia procesu  zamiany  materii  w antymaterię  należałoby posłużyć  się  jeszcze  innymi 

„urządzeniami do odwracania”. 

W  każdym  razie  w  instrukcji  technicznej  czytamy,  że  z  wyjątkiem  sytuacji 

awaryjnych,  kiedy  antymaterię  można  produkować  na  statkach,  cała  antymateria  Gwiezdnej 

Floty wytwarzana jest w jej stacjach paliwowych. Antyprotony i antyneutrony są tam łączone 

w  jądra  ciężkiego  antywodoru.  Szczególnie  zabawne  jest  to,  że  inżynierowie  Floty  dodają 

później do tych naładowanych elektrycznie jąder antyelektrony (pozytony), tworząc neutralne 

atomy  ciężkiego  antywodoru  -prawdopodobnie  dlatego,  że  neutralne  antyatomy  wydają  się 

scenarzystom  Stor  Trek  łatwiejsze  do  przechowania  niż  naładowane  elektrycznie  antyjądra. 

(W  rzeczywistości  nie  udało  się  jak  dotąd  wyprodukować  antyatomów  w  laboratorium  - 

chociaż  ostatnie  doniesienia  z  Uniwersytetu  Harvarda  sugerują,  że  pierwsze  atomy 

antywodoru uda się wytworzyć jeszcze w tym 

dziesięcioleciu

1

).  Niestety,  stwarza  to  poważne  problemy  z  przechowywaniem 

antywodoru,  ponieważ  pola  magnetyczne,  które  są  absolutnie  nieodzowne  do  utrzymywania 

dużych  ilości antymaterii, działają tylko  na obiekty  naładowane elektrycznie! Cóż, wracamy 

do punktu wyjścia... 

Statek  kosmiczny  może  zabrać  około  3  tysięcy  m

3

  paliwa  z  antymaterii,  które 

przechowywane  jest  w  różnych  zbiornikach  (w  Enterprise-D  na  Pokładzie  42).  Ma  to 

wystarczać na trzyletnią wyprawę. Spróbujmy dla zabawy ocenić, ile energii można uzyskać z 

tej  ilości  antymaterii,  gdyby  zgromadzono  ją  w  postaci  jąder  ciężkiego  antywodoru. 

Zakładam,  że jądra są transportowane  w postaci rozrzedzonej plazmy, którą prawdopodobnie 

łatwiej byłoby przechować za pomocą pól magnetycznych, niż gdyby tworzyły ciecz lub ciało 

stałe.  W  tym  przypadku  3  tysiące  m

3

  odpowiadałyby  około  5  milionom  gramów  paliwa. 

Gdyby w reakcjach anihilacji zużywano l gram na sekundę, wytwarzana w ten sposób energia 

byłaby równa energii zużywanej dziś przez ludzkość w ciągu jednego dnia. Jak wspomniałem 

wcześniej przy okazji opisu napędu czasoprzestrzennego, jest to minimalna ilość energii, jaką 

należy  wytwarzać  na  statku  kosmicznym.  Paliwo  można  by  zużywać  w  tym  tempie  przez  5 

milionów  sekund,  czyli  z  grubsza  2  miesiące.  Przyjmując,  że  statek  wykorzystuje  napęd  na 

materię  i antymaterię przez 5% całkowitego czasu trwania  misji, otrzymamy  żądane trzy  lata, 

na które ma wystarczać ta ilość paliwa. 

Z  kwestią  ilości  antymaterii  wymaganej  do  produkcji  energii  związany  jest  jeszcze 

inny  problem  (na  który  twórcy  Stor  Trek  przymykają  od  czasu  do  c zasu  oko):  anihilacja 

materii i antymaterii jest procesem podlegającym zasadzie „wszystko albo nic”. Nie można go 

w  sposób  ciągły  regulować.  Nawet  jeśli  zmieni  się  stosunek  ilości  materii  do  antymaterii, 

background image

tempo wytwarzania energii  nie ulegnie  zmianie. Stosunek  uzyskanej  mocy do  ilości  zużytego 

paliwa  może się  zmniejszyć tylko przy stracie paliwa - to  znaczy  w sytuacji,  gdy  niektórym 

cząstkom  materii  nie uda się  znaleźć antymaterii,  z którą  mogłyby  zanihilować,  lub gdy będą 

się  one  tylko  zderzać,  nie  anihilując.  W  kilku  odcinkach  (Nogi  czas.  Dziecko  Galaktyki, 

Skóra  diabla)  stosunek  ilości  materii  do  antymaterii  ulega  zmianie,  a  instrukcja  techniczna 

Star Trek podaje  nawet,  że  może się on  zmieniać  w sposób ciągły w  zakresie od 25:  l do  l:  l, 

w  zależności od prędkości czasoprzestrzennej, przy czym stosunek 1:1 odpowiada prędkości 

8  warpów  lub  wyższej.  Przy  prędkościach  wyższych  niż  8  warpów  zwiększana  jest  ilość 

materii  i antymaterii, ale  ich stosunek pozostaje taki  sam. Właściwa procedura jednak  zawsze 

polega  na  zmianie  ilości  materii  i antymaterii przy  ich stałym stosunku, co powinni  wiedzieć 

nawet  kadeci  Gwiezdnej  Floty.  Wyjaśnił  to  Wesley  Crusher,  wspominając  w  odcinku 

Dorastanie,  że  stawiane  w  trakcie  egzaminów  do  Gwiezdnej  Floty  pytanie  na  temat 

właściwego  stosunku  ilości  materii  i  antymaterii  było  podchwytliwe  i  że  tylko  jedna  jego 

wartość jest poprawna - mianowicie 1:1. 

Autorzy  Star  Trek  dodali  jeszcze  jeden  istotny  składnik  napędu  na  materię  i 

antymaterię. Mam  na  myśli słynne kryształy dwu-litu  (co ciekawe, wprowadzone przez  nich 

na długo przedtem,  zanim  inżynierowie  w Fermilabie  zdecydowali się  na  użycie tarczy  z  litu 

w  swoim  źródle  antyprotonów).  Nie  można  ich  pominąć,  ponieważ  są  centralną  częścią 

napędu  czasoprzestrzennego  i jako takie  zajmują  znaczące  miejsce  w  gospodarce Federacji  i 

wielu przedsięwzięciach inwestycyjnych. (Na przykład gdyby nie dwulit, Enterprise nigdy nie 

zostałby wysłany do  Układu Halkańskiego, aby  uregulować prawa wydobywcze,  i  nigdy  nie 

poznalibyśmy „lustrzanego wszechświata”, w którym Federacja jest imperium zła!) 

Na  czym  polega  rola  tych  niezwykłych  produktów  wyobraźni  twórców  Star  Trek? 

Kryształy  te  (znane  również  pod  dłuższą  nazwą:  2<5>6  dwulit  2<:>1  dialokrzemian  1:9:1 

heptożelazek)  mogą  regulować  tempo  anihilacji  materii  i  antymaterii,  ponieważ  uważane  są 

za jedyną formę materii, która jest „przepuszczalna” dla antymaterii.  

Można pozwolić sobie  na  zinterpretowanie tego  następująco: kryształy  zbudowane są 

z  regularnie  uporządkowanych  atomów,  przypuszczam  więc,  że  atomy  antywodoru  zostają 

rozmieszczone w siatce kryształu dwulitu i dzięki temu pozostają w stałej odległości zarówno 

od atomów  zwykłej  materii, jak  i od siebie  nawzajem. W ten  sposób dwulit  może  regulować 

gęstość antymaterii, a więc także tempo jej reakcji z materią. 

Przyczyną,  dla  której  zadaję  sobie  trud  znalezienia  hipotetycznego  wyjaśnienia 

działania  hipotetycznego  materiału,  jest  moje  przekonanie,  że  twórcy  Star  Trek  wyprzedzali 

swój czas. Wiele  lat po tym, kiedy  w Star Trek wprowadzono sterowaną dwulitem anihilację 

background image

materii  i antymaterii,  w podobny - przynajmniej co do  zasady - sposób próbowano  wyjaśnić 

równie  niezwykły  proces:  zimną  fuzję.  W  czasie  mniej  więcej  sześciomiesięcznej  euforii 

związanej  z  tym  zjawiskiem  twierdzono,  że  łącząc  chemicznie  różne  pierwiastki  można  w 

jakiś  sposób  skłonić  jądra  atomowe,  by  reagowały  szybciej,  i  spowodować  w  temperaturze 

pokojowej  zajście  takich  samych  reakcji,  do  których  wytworzenia  Słońce  potrzebuje 

olbrzymich gęstości i temperatur przekraczających milion stopni.  

Zimna  fuzja  budzi  podejrzliwość  fizyków  m.in.  dlatego,  że  związane  z  nią  reakcje 

chemiczne  musiałyby  zachodzić  na  odległościach  porównywalnych  z  rozmiarami  atomu, 

które  są  10  tysięcy  razy  większe  niż  rozmiary  jąder  atomowych.  Trudno  uwierzyć,  aby 

reakcje  zachodzące  w obszarze tak  znacząco  większym od jąder  mogły  mieć  jakiś  wpływ  na 

tempo  reakcji  jądrowych.  Dopóki  jednak  nie  uświadomiono  sobie,  że  innym  grupom 

naukowców  nie  udało  się  powtórzyć  rezultatów  osiągniętych  rzekomo  przez  odkrywców 

zimnej  fuzji, wielu  ludzi spędziło bardzo dużo czasu  na próbach odgadnięcia,  w  jaki sposób 

taki cud jest możliwy. 

Ponieważ,  w  przeciwieństwie  do  zwolenników  zimnej  fuzji,  twórcy  Star  Trek  nigdy 

nie udawali,  że wymyślają coś więcej niż  fantastykę  naukową, sądzę,  że  nie powinniśmy być 

dla nich tacy surowi. W końcu kryształy dwulitu  wspomagają  tylko coś, co  niewątpliwie jest 

najbardziej  przekonującym  i  realistycznym  aspektem  kosmicznej  technologii:  silniki  na 

materię 

i antymaterię. Mógłbym też dodać, że kryształy - chociaż wolframu, a nie dwulitu - są 

rzeczywiście  stosowane  do  spowalniania  wiązek  antyelektronów  (pozytonów)  w 

prowadzonych  obecnie  eksperymentach;  w  tym  przypadku  antyelektrony  rozpraszają  się  w 

polu elektrycznym kryształu i tracą energię. 

Nie  ma  we  Wszechświecie  innego  sposobu,  aby  dostać  więcej  czadu  za  dolara,  niż 

wziąć cząstkę  i anihilować ją  z jej anty-cząstką,  wytwarzając czystą energię promienistą. Jest 

to jedyna możliwa do wyobrażenia technologia mogąca służyć do napędu rakiet i z pewnością 

znajdzie  takie  zastosowanie,  jeśli  zdecydujemy  się  rozwijać  przemysł  statków  kosmicznych 

bez ograniczeń. Niewątpliwie będzie to trochę kosztowało, ale to  już  zmartwienie polityków 

XXIII wieku. 

background image

ROZDZIAŁ 7 

HOLODEKI I HOLOGRAMY 

Jesteśmy nami, proszę pana. Oni również są nami. 

W takim razie wszyscy jesteśmy nami. 

DATA do Picarda i Rikera w odcinku Zawsze zostanie nam Paryż 

 

 

Kiedy  na  lotnisku  w  Casablance  Humphrey  Bogart  powiedział  do  Ingrid  Bergman: 

„Zawsze  zostanie  nam Paryż”,  miał oczywiście  na  myśli  wspomnienie Paryża. Kiedy Picard 

powiedział coś podobnego do Jenice Manheim w odtworzonej w  holodeku Cafe des Artistes, 

rozumiał  to  bardzo  dosłownie.  Dzięki  holodekom  można  ponownie  przeżyć  swoje 

wspomnienia, odwiedzić ulubione  miejsca  i odnaleźć  utracone  miłości... Holodek jest jedną  z 

najbardziej  fascynujących  technologii  używanych  na  pokładzie  Enterprise.  Dla  każdego,  kto 

oswoił  się  z rodzącym się światem  wirtualnej rzeczywistości  - czy to dzięki  grom  wideo, czy 

bardziej  wyrafinowanym  współczesnym  superszybkim  komputerom  -  możliwości,  jakie 

oferuje holodek, są szczególnie kuszące. Kto nie chciałby w jednej chwili wejść całkowicie w 

świat własnych fantazji? 

Jest  to tak  nęcące,  że  nie  wątpię,  iż  można by się od  tego  uzależnić o wiele bardziej, 

niż  pokazuje  to  serial.  Domyślamy  się  „uzależnienia  od  holodeku”  (czyli  „holoholizmu”)  w 

odcinkach  W  pogoni  za  pustką  i  Dziecko  galaktyki  W  pierwszym  z  nich  lubiany  przez 

wszystkich  nerwowo  chory  oficer,  porucznik  Reginald  Barclay,  uzależnia  się  od  swojej 

fantastycznej  wizji  starszych  oficerów  na  pokładzie  Enterprise  i  woli  mieć  z  nimi  do 

czynienia raczej w holodeku, niż gdziekolwiek indziej. 

W  drugim  z  wymienionych  odcinków  Geordi  LaForge  nawiązuje  w  holodeku 

znajomość  z  podobizną  dr  Leah  Brahms,  projektantki  silników.  Kiedy  jednak  spotyka 

prawdziwą dr Brahms, sprawy znacznie się komplikują. 

Mając  na  uwadze  umysłowy  charakter  rozrywek,  jakim  zwykle  oddaje  się  załoga  w 

holodeku,  możemy  się  domyślać,  że  sterowane  hormonami  instynkty  napędzające  ludzkość 

XX  wieku  ulegną pewnej  zmianie do XXIII stulecia (chociaż,  jeśli tak się stanie, Will  Riker 

nie  jest  typowym  reprezentantem  swych  współczesnych).  Znając  dzisiejszy  świat, 

oczekiwałbym raczej,  że  głównym  zajęciem  w  holodeku będzie seks. (Holodek  zapewniałby 

bezpieczny seks w zupełnie nowym znaczeniu). Nie żartuję. Holodek uosabia wszystko to, co 

jest  tak  kuszące  w  fantazjach,  zwłaszcza  seksualnych:  działanie  bez  konsekwencji, 

background image

przyjemność bez bólu oraz sytuacje, które można powtarzać w najrozmaitszych wariantach.  

W  serialu  tylko  od  czasu  do  czasu  czyni  się  aluzje  na  temat  ukrytych  przyjemności 

holodeku. Na przykład Geordi po tym,  jak  wpakował się  niegrzecznie do prywatnej  fantazji 

Rega  w  holodeku,  przyznaje:  „Spędziłem  w  holodeku  kilka  godzin.  Cóż,  to,  co  robisz  w 

holodeku,  jest  twoją  osobistą  sprawą,  o  ile  nie  przeszkadza  ci  to  w  pracy”.  Nie  wiem,  co 

bardziej  mogłoby  się  kojarzyć  z  upomnieniem,  by  nie  oddawać  się  zbytnio  cielesnym 

przyjemnościom. 

Nie  wątpię,  że pierwsze próby odkrywania  wirtualnej rzeczywistości prowadzą  nas w 

kierunku  czegoś  bardzo  podobnego  do  holodeku.  Możliwe,  że  moje  obawy  wydadzą  się  w 

XXIII wieku osobliwe, podobnie jak ostrzegawcze głosy towarzyszące wynalezieniu telewizji 

pół  wieku  temu.  W  końcu,  chociaż  protesty  te  ciągle  trwają  z  powodu  nadmiaru  seksu  i 

przemocy w telewizji, nie byłoby bez niej serialu Stor Trek.  

Niebezpieczeństwo,  że  staniemy  się  nacją  przesiadujących  w  domu  leniuchów,  nie 

byłoby groźne w przypadku świata pełnego osobistych holodeków lub na przykład holodeków 

dostępnych  na  każdej  ulicy  -  zaangażowanie  się  w  fantazję  w  holodeku  wymagałoby  sporej 

aktywności.  Ciągle  jednak  perspektywa  wirtualnej  rzeczywistości  bardzo  mnie  niepokoi  - 

dlatego  właśnie,  że  choć  wydaje  się  ona  rzeczywista,  jest  o  wiele  mniej  groźna  od 

prawdziwego  życia.  Powab  świata  dającego  zmysłową  przyjemność  bez  konsekwencji 

mógłby być nieodparty. 

Każda  nowa  technologia  ma  jednak  złe  i  dobre  strony.  To  od  nas  zależy  sposób  jej 

wykorzystywania.  Z  tonu  tej książki  wynika chyba  jasno,  że  wierzę,  iż technologia  uczyniła 

nasze  życie  lepszym.  Wyzwanie  polegające  na  rozsądnym  jej  użyciu  jest  tylko  jednym  z 

wyzwań stojących przed każdym członkiem ewoluującego ludzkiego społeczeństwa.  

Holodek  różni  się  jednak  w  uderzający  sposób  od  rozwijających  się  obecnie 

technologii wirtualnej rzeczywistości. Dzięki urządzeniom, które przymocowuje się do ciała i 

które  mają  wpływ  na  spostrzeżenia  i  wrażenia,  wirtualna  rzeczywistość  ma  za  zadanie 

umieścić  całą  „akcję”  w  naszym  wnętrzu.  W  holodeku  znajduje  zastosowanie  sprytniejsza 

taktyka:  to  my  jesteśmy  przenoszeni  na  „scenę  wydarzeń”.  Dzieje  się  tak  częściowo  dzięki 

pomysłowemu użyciu holografii, a częściowo przez powielanie.  

Zasady,  na  których  opiera  się  holografia,  zostały  sformułowane  w  roku  1947,  zanim 

jeszcze  powstały  technologie  umożliwiające  ich  zastosowanie.  Dokonał  tego  brytyjski  fizyk 

Dennis  Gabor,  który  za  swoją  pracę  otrzymał  później  Nagrodę  Nobla.  Obecnie  większości 

ludzi  nieobce  są  trójwymiarowe  obrazy  holograficzne,  spotykane  chociażby  na  kartach 

kredytowych  czy  okładkach  książek.  Słowo  „hologram”  pochodzi  od  greckich  słów 

background image

oznaczających  „całość”  i  „pisać”. W przeciwieństwie do  zwykłych  fotografii, które  zapisują 

tylko  dwuwymiarowy  obraz  trójwymiarowej  rzeczywistości,  hologramy  dają  obraz 

całościowy.  Za  pomocą  holografii  odtwarza  się  trójwymiarowy  obraz,  który  można  obejść 

dookoła  ł  obejrzeć  ze  wszystkich  stron,  tak  jakby  to  był  prawdziwy  przedmiot.  Jedyny 

sposób,  aby  stwierdzić  różnicę,  to  spróbować  chwycić  hologram.  Dopiero  wtedy  można  się 

przekonać, że nie ma tam nic, czego można by dotknąć. 

W  jaki  sposób  dwuwymiarowy  kawałek  filmu,  na  którym  zapisuje  się  obraz 

holograficzny,  może  pomieścić  pełną  informację  o  trójwymiarowym  obrazie?  Aby 

odpowiedzieć  na to pytanie,  musimy się  zastanowić nad tym, co to znaczy, że coś widzimy,  i 

co tak naprawdę zapisane jest na kliszy. 

Przedmioty widzimy albo dlatego, że wysyłają, albo dlatego, że odbijają światło, które 

następnie  dociera  do  naszych  oczu.  Kiedy  oświetli  się  obiekt  trójwymiarowy,  odbija  on 

światło  w wielu kierunkach  właśnie  z powodu  swojej  trójwymiarowości. Gdybyśmy potrafili 

w  jakiś  sposób  odtworzyć  dokładny  wzór  rozproszonego  przez  rzeczywisty  obiekt  światła, 

nasze  oczy  nie  mogłyby  odróżnić  prawdziwego  przedmiotu  od  samego  rozproszonego 

światła.  Obracając  głowę,  moglibyśmy  na  przykład  zobaczyć  cechy  wcześniej  niewidoczne, 

ponieważ zostałby odtworzony cały wzór światła odbitego od wszystkich części przedmiotu.  

W jaki sposób można najpierw zapisać, a potem odtworzyć całą tę informację? Pewien 

pogląd  na to  zagadnienie  możemy sobie wyrobić,  zastanawiając się  najpierw, co  zapisuje  się 

na  zwyczajnej  fotografii,  za  której  pomocą  przechowujemy,  a  następnie  odtwarzamy  obraz 

dwuwymiarowy.  Kiedy  robimy  zdjęcie,  wystawiamy  światłoczuły  materiał  na  działanie 

światła  wpadającego  przez  obiektyw  aparatu.  Jeśli  materiał  ten  potraktujemy  następnie 

różnymi chemikaliami, zaciemni się on proporcjonalnie do natężenia światła, jakie nań padło. 

(Mówię  tutaj  o  filmie  czamo-białym,  ale  fotografia  kolorowa  jest  równie  prosta:  wystarczy 

pokryć  błonę  trzema  różnymi  substancjami,  z  których  każda  reaguje  na  inny  podstawowy 

kolor). 

Cała informacja zawarta na filmie fotograficznym mieści się więc w natężeniu światła 

docierającego  do  każdego  punktu  błony.  Gdy  wywołujemy  film,  punkty,  które  były 

wystawione  na  działanie  silniejszego  światła,  staną  się  pod  wpływem  chemikaliów 

ciemniejsze,  te  zaś,  na  które  padło  mniej  światła  -jaśniejsze.  Powstający  w  ten  sposób  na 

filmie  obraz  jest  negatywem  dwuwymiarowego  rzutu  początkowego  pola  światła.  Rzutując 

przez  ten  negatyw  światło  na  światłoczuły  papier,  otrzymamy  ostatecznie  zdjęcie.  Kiedy 

patrzymy  na  nie,  światło  padające  na  jaśniejsze  obszary  zdjęcia  będzie  w  dużej  mierze 

odbijane,  natomiast  to,  które  trafia  na  obszary  ciemniejsze,  zostanie  pochłonięte.  Innymi 

background image

słowy, patrzenie na światło odbite od fotografii 

powoduje  powstanie  na  naszych  siatkówkach  dwuwymiarowego  rozkładu  natężenia, 

który następnie interpretujemy. 

Powstaje  teraz  pytanie:  co  jeszcze  -  poza  natężeniem  światła  w  każdym  punkcie  - 

można  by  zapisać?  Aby  na  nie  odpowiedzieć,  znów  wykorzystamy  to,  że  światło  jest  falą. 

Oznacza  to,  że  do  jego  scharakteryzowania  nie  wystarczy  natężenie.  Przyjrzyjmy  się  fali 

światła pokazanej poniżej: 

 

W punkcie  A  fala, która  w tym przypadku przedstawia  natężenie pola elektrycznego, 

ma wartość maksymalną odpowiadającą polu elektrycznemu o natężeniu E

A

 skierowanemu do 

góry.  W  punkcie  B  pole  ma  takie  samo  natężenie,  ale  jest  skierowane  w  dół.  Ktoś,  kto 

rejestruje tylko  natężenie  fali  światła,  stwierdzi,  że pole  ma  takie samo  natężenie w punkcie 

A,  jak  w  punkcie  B.  A  przecież  punkt  B  znajduje  się  w  innej  części  fali  niż  punkt  A.  To 

„położenie”  nazywane  jest  fazą. Okazuje się,  że aby określić całą  informację  związaną  z  falą 

w danym punkcie,  wystarczy pod ać jej  natężenie  i  fazę.  Aby  więc  zapisać całą  informację o 

falach światła odbitych od  trójwymiarowego obiektu,  należy  znaleźć sposób  na  zapisywanie 

na filmie zarówno natężenia, jak i fazy rozproszonego światła.  

Można  to  zrobić  rozdzielając  wiązkę  światła  na  dwie  części  i  kierując  jedną  z  nich 

wprost  na  film,  drugą  zaś  tak,  by  -  zanim  oświetli  film  -  odbiła  się  od  fotografowanego 

obiektu.  Dojdzie  wówczas  do  jednego  z  dwóch  przypadków.  Jeśli  dwie  fale  są  „w  fazie”  - 

czyli  mają  grzbiety  w  jakimś  punkcie  A  -  amplituda  powstającej  fali  osiągnie  w  punkcie  A 

amplitudę dwa razy większą od każdej z fal składowych, Jak to pokazuje rysunek: 

 

 

background image

 

Z  drugiej  strony,  jeśli  dwie  fale  nie  są  zgodne  w  fazie  w  punkcie  A,  zniosą  się  i 

powstająca „fala” będzie miała w punkcie A zerową amplitudę: 

 

Jeśli teraz w punkcie A umieścimy kliszę fotograficzną, która zapisuje tylko natężenie, 

zarejestrujemy  na  niej  „wzór  interferencyjny”  tych  dwóch  fal  -  wiązki  odniesienia  i  wiązki 

odbitej od przedmiotu. Wzór ten zawiera nie tylko informację o natężeniu światła odbitego od 

obiektu,  ale  również  o  fazach.  Przy  odrobinie  sprytu  można  tę  informację  wydobyć  i 

odtworzyć trójwymiarowy obraz obiektu, który odbił światło. 

Okazuje się,  że sprytu  naprawdę  nie  trzeba  zbyt wiele. Wystarczy  po prostu oświetlić 

kliszę  światłem  tej  samej  długości,  jaką  miało  światło  wykorzystane  do  stworzenia  obrazu 

interferencyjnego, a obraz przedmiotu  -  gdy popatrzy  się przez kliszę - pojawi się dokładnie 

tam,  gdzie  się  znajdował  względem  filmu  sam  przedmiot.  Jeśli  przechyli  się  głowę,  będzie 

można  „wyjrzeć”  za  krawędzie  odtworzonego  przedmiotu.  Nawet  jeśli  większa  część  kliszy 

zostanie  przykryta,  a  następnie  popatrzymy  przez  nią,  trzymając  ją  blisko  oczu,  zobaczymy 

cały  przedmiot!  W  tym  sensie  doświadczenie  to  przypomina  oglądanie  przez  okno  sceny 

dziejącej się  na  zewnątrz,  z tą tylko różnicą,  że  to, co widać,  nie  znajduje się tam  naprawdę. 

Docierające  do  oczu  obserwatora  światło  jest  odkształcane  przez  kliszę  w  taki  sposób,  że 

oczom wydaje się, iż światło to zostało odbite od przedmiotów, które „widzimy”. Tak właśnie 

działa hologram. 

Zazwyczaj,  aby  starannie  kontrolować  zarówno  wiązkę  odniesienia,  jak  i  światio 

odbite od przedmiotu,  używa się światła  laserowego, które  jest spójne  i dobrze skolimowane. 

Istnieją  także  tak  zwane  hologramy światła białego, które  z równie dobrym skutkiem  można 

oświetlać zwykłym światłem. 

Można być bardziej pomysłowym  i spowodować -  używając różnych soczewek - aby 

background image

oglądane przedmioty znajdowały się między oglądającym a kliszą. Wówcza s pojawi się przed 

nami  trójwymiarowy  obraz  przedmiotu,  który  można  obejść  i  obejrzeć  ze  wszystkich  stron. 

Źródło  światła  może  się  też  znajdować  przed  kliszą  zamiast  za  nią  -  jak  w  przypadku 

hologramów na kartach kredytowych. 

W  holodeku  używa  się  przypuszczalnie  pierwszego  rodzaju  hologramów:  gdy  na 

przykład  odtwarza  się  obraz  doktora  na  oddziale  chorych  w  serii  Yoyager.  Co  więcej,  aby 

zrobić  takie  hologramy,  nie  potrzeba  rzeczywistych  przedmiotów.  Komputery  cyfrowe  są 

obecnie  wystarczająco  zaawansowane,  aby  prześledzić  drogę  poszczególnych  promieni 

światła,  czyli  obliczyć,  jak  powinno  wyglądać  światło  odbite  od  dowolnego  obiektu,  który 

zechcemy  narysować  na  ekranie  i  oświetlić  go  pod  dowolnym  kątem.  W  taki  sam  sposób 

komputer  może  określić  wygląd  obrazu  interferencyjnego,  który  powstałby  z  połączenia 

światła biegnącego wprost na kliszę ze światłem odbitym od przedmiotu. Wyprodukowany za 

pomocą komputera obraz interferencyjny można następnie rzutować na przezroczysty ekran i, 

gdy  oświetli  się  ten  ekran  od  tyłu,  powstanie  trójwymiarowy  obraz  przedmiotu,  który  w 

rzeczywistości  nigdy  nie  istniał.  Jeśli komputer  jest  wystarczająco szybki,  może  rzutować  na 

ekran  zmieniający  się  ciągle  obraz  interferencyjny,  tworząc  w  ten  sposób  poruszający  się 

trójwymiarowy obraz. Holograflczny aspekt ho-lodeku nie jest więc specjalnie naciągany. 

Hologramy  jednak  to  jeszcze  nie  holodek.  Powiedzieliśmy  już,  że  nie  są  one 

obiektami  materialnymi.  Można  przez  nie  przechodzić  lub  strzelać,  jak  tego  dowiodły 

wspaniale  hologra- ficzne  obrazy  stworzone  przez  Spocka  i  Datę,  aby  oszukać  Ro- mulan  w 

odcinku  jednoczenie.  Ów  brak  cielesności  przeszkadzałby  jednak  w  przypadku  obiektów,  z 

którymi  chcemy  wejść  w  kontakt  -  to  znaczy  dotknąć  ich.  Wówczas  wymagane  są  bardziej 

ezoteryczne  techniki  i  twórcy  Stor  Trek  musieli  się  posłużyć  w  tym  celu  transporterem  lub 

przynajmniej replłkatora-mi, które są prostszymi wersjami  transportera. Można się domyślać, 

że  transporter  pozwala  odtwarzać  i  przemieszczać  -w  ścisłej  współpracy  z  programami 

komputerowymi  kontrolującymi  głos  i  ruchy  -  materię  w  holodeku  tak,  aby  dokładnie 

przypominała  odpowiednie  istoty.  W  podobny  sposób  replika-tory  odtwarzają  przedmioty 

nieożywione: stoły, krzesła itd. Ta „holodekowa materia” zawdzięcza swoją formę informacji 

przechowywanej w buforze replikatora. Kiedy transporter  zostanie  wyłączony  lub przedmiot 

usunięty  z  holodeku,  materia ta  może rozłożyć się równie  łatwo jak  wtedy,  gdy bufor  wzorca 

zostaje  wyłączony  w trakcie przesyłania. Istoty stworzone  z holode-kowej  materii  mogą  więc 

zostać uwięzione w holodeku, jak to odkryli, ku swemu przerażeniu, fikcyjni detektywi Cyrus 

Red-block i Felix Leach w odcinku Wielkie pożegnanie serii Następne pokolenie.  

Wyobrażam  więc  sobie  holodek  w  następujący  sposób:  hologramy  stanowiłyby 

background image

„ściany”, symulując trójwymiarowe otoczenie, które rozciąga się po  horyzont, oparte  zaś  na 

technologii transportera replikatory stwarzałyby na tej scenie poruszające się cielesne obiekty. 

Ponieważ  opanowaliśmy  już  technikę  holografii,  natomiast  (jak  to  wyjaśniłem  wcześ niej) 

zbudowanie  transporterów  jest  mało  prawdopodobne,  aby  stworzyć  działajacy  holodek, 

należałoby  znaleźć  jakiś  inny  sposób  nadawania  materii  kształtu  i  przemieszczania  jej.  Nie 

jest jednak tak źle, skoro mamy w ręku jedną z dwóch koniecznych technologii. 

Czy  jednak  same  hologramy  nie  wystarczyłyby,  jak  w  przypadku  holograflcznego 

lekarza  w  serii  Yoyoger?  Odpowiedź  brzmi:  absolutnie  nie.  Obawiam  się,  że  obrazy  te, 

składające się tylko  z  rozproszonego światła, pozbawione  grama  materii,  nie  na  wiele by  się  

zdały,  gdybyśmy  chcieli  je  podnieść,  zbadać  lub  manipulować  nimi.  Niemniej  dobrego 

traktowania  ł pełnych  współczucia rad, które  leżą  u podstaw właściwej praktyki  medycznej, 

można oczekiwać tak od hologramu, jak od rzeczywistej istoty. 

background image

CZĘŚĆ III 

NIEWIDZIALNY 

WSZECHŚWIAT, 

CZYLI O CZYM NIE ŚNIŁO SIĘ 

FILOZOFOM 

W części tej mówimy o rzeczach, które mogą istnieć, 

choć nikt ich jeszcze nie widział: życiu pozaziemskim, 

wyższych wymiarach oraz egzotycznej menażerii 

innych możliwości i niemożliwości fizyki. 

background image

ROZDZIAŁ 8 

W POSZUKIWANIU SPOCKA 

Trudno jest pracować w grupie, gdy jest się wszechmocnym. 

Q, dołączając do załogi Enterprise w odcinku Deja Q  

 

 

Nieustająca  agresja,  podboje  terytorialne  i  ludobójstwo...  kiedy  to  tylko  możliwe... 

Kolonia  połączona  jest  tak,  jakby  była  w  rzeczywistości  jednym  organizmem  rządzonym 

przez  genom,  który  ogranicza  zachowanie  tak  samo,  jak  je  umożliwia...  Ten  fizyczny 

superorganizm  działa  tak,  aby  przystosować  demograficzną  mieszankę  w  celu 

zoptymalizowania  swojej  gospodarki  energetyczne j...  Surowe  zasady  nie  pozwalają  na 

zabawę, sztukę czy współczucie”. 

Borgowie  należą  do  najbardziej  przerażających  i  intrygujących  gatunków  obcych 

stworzeń,  jakie  zostały  kiedykolwiek  sportretowane  na  telewizyjnym  ekranie.  Z  mojego 

punktu  widzenia  są  tak  fascynujący  dlatego,  że  podobne  do  nich  organizmy  mogłyby  w 

zasadzie powstać drogą doboru  naturalnego. Chociaż  zacytowany powyżej  fragment  stanowi 

trafny opis Borgów, nie pochodzi on z żadnego z odcinków Star Trek. Ów tekst pojawia się w 

pracy  Berta  Holldoblera  i  Edwarda  O.  Wilsona  Podróż  do  krainy  mrówek  i  nie  jest  opisem 

Borgów,  lecz dobrze  nam  znanych ziemskich owadów. Mrówki osiągnęły  niezwykłe sukcesy 

ewolucyjne  i  nietrudno  zgadnąć  dlaczego.  Czy  można  sobie  wyobrazić,  że  obdarzone 

świadomością  społeczeństwo  rozwija  się  w  podobny  superorganizm  społeczny?  Czy 

intelektualne  subtelności,  takie  jak  empatia,  byłyby  w  takim  społeczeństwie  potrzebne?  A 

może raczej przeszkadzałyby? 

Gene  Roddenberry przyznał,  że podróże  międzygwiezdne statku  Enterprise są przede 

wszystkim  pretekstem  do  opowiadania  coraz  to  nowych  historii.  Mimo  wszystkich 

technicznych  cudów  nawet  umysł  tak  ścisły,  jak  mój,  potrafi  dostrzec,  że  tym,  co  napędza 

Star  Trek,  jest  dramat,  te  same  wielkie  tematy,  które  przepełniały  opowieści  od  czasów 

greckiej  epiki:  miłość,  nienawiść,  zdrada,  zazdrość,  zaufanie,  radość,  strach,  zdziwienie... 

Wszyscy przywiązujemy  się do opowieści opisujących  ludzkie  uczucia, które rządzą  naszym 

własnym  życiem.  Gdyby  napędu  czasoprzestrzennego  używano  jedynie  do  przyspieszania 

bezzałogowych sond, gdyby transportery zbudowano tylko po to, aby przenosić próbki gleby, 

gdyby  skanery  medyczne  wykorzystywano  tylko  do  badania  życia  roślinnego,  serial 

zakończyłby się już po pierwszej serii odcinków. 

background image

Rzeczywiście,  „nieustająca  misja”  statku  Enterprise  nie  służy  badaniu  praw  fizyki, 

lecz  „poszukiwaniu  niezwykłych  nowych  światów,  nowego  życia  i  nowych  cywilizacji”. 

Sądzę,  że serial Stor Trek jest tak  fascynujący dlatego,  iż pozwala, by  ludzki dramat przestał 

być domeną człowieka. Wyobrażamy sobie, w jaki sposób inne gatunki próbują radzić sobie z 

tymi  samymi  problemami  i  zadaniami,  jakie  stoją  przed  ludzkością.  Poznajemy  nowe, 

wymyślone  kultury,  nowe  zagrożenia.  Jest  to  równie  niezwykłe,  jak  zwiedzanie  po  raz 

pierwszy obcego kraju, czy  studiowanie  historii  i odkrywanie  zarówno tego,  co jest  zupełnie 

inne, jak  i  tego, co jest dokładnie takie same  w  zachowaniu  ludzi, którzy  żyli  przed  setkami 

lat. 

Aby się dobrze bawić, musimy oczywiście pozbyć się chociaż na chwilę sceptycyzmu. 

Co  ciekawe,  niemal  wszystkie  obce  gatunki,  które  spotyka  Enterprise,  przypominają  ludzi  i 

mówią  po  angielsku!  (Twórcy  Star  Trek  znaleźli  dla  tej  sytuacji  usprawiedliwienie  w  serii 

Następne pokolenie.  Archeolog Richard Galen odkrywa bowiem,  że  wiele  z  tych cywilizacji 

ma  wspólny  materiał  genetyczny,  który  został  „zasiany”  w  pierwotnych  oceanach  wielu 

różnych światów przez pewną bardzo starą cywilizację. Przypomina to nieco żartobliwą teorię 

panspermii,  lansowaną  ostatnio  przez  Francisa  Cricka,  laureata  Nagrody  Nobla). 

Niewątpliwie nie uszło to uwagi żadnego trekkera, a najbarwniej wyłożył mi to fizyk teoretyk 

i  laureat Nagrody Nobla - Sheldon Glashow, który powiedział o obcych  istotach:  „Wszyscy 

oni  wyglądają  jak  ludzie  cierpiący  na  słoniowatość!”  Jednak  i  on  -  podobnie  jak  większość 

trekkerów  -  aby  móc  podziwiać  sposób  ujęcia  psychologii  obcych  cywilizacji  przez 

scenarzystów,  stara  się  nie  zważać  na  ich  posunięcia.  Hollywoodzcy  scenarzyści  nie  są 

naukowcami ani  inżynierami, dlatego  wydaje się  naturalne, że większość ich energii  twórczej 

pochłania wymyślanie obcych kultur niż obcej biologii. 

A  mieli  oni  rzeczywiście  bardzo  wiele  pomysłów.  Poza  Borga-mi  i  wszechmocnym 

kawalarzem  Q  wszechświat  Stor  Trek  zaludniło  ponad  dwieście  różnych  form  życia;  potem 

przestałem  je  już  liczyć.  Wygląda  na  to,  że  nasza  Galaktyka  pełna  jest  inteligentnych 

cywilizacji,  bardziej  i  mniej  zaawansowanych  w  rozwoju.  Niektóre  z  nich  -  takie  jak 

Federacja,  Klingonowie,  Romulanie  i  Kardasowie  -  zarządzają  olbrzymimi  imperiami, 

podczas  gdy  inne  żyją  w  odosobnieniu  na  pojedynczych  planetach  lub  w  pustce  przestrzeni 

kosmicznej. 

Znalezienie  inteligentnych  istot pozaziemskich, jak podkreślają to  ludzie prowadzący 

ich  poszukiwania,  byłoby  największym  odkryciem  w  historii  ludzkości.  Trudno  sobie 

wyobrazić  odkrycie,  które  mogłoby  bardziej  zmienić  nasze  poglądy  na  człowieka  i  jego 

miejsce  we  Wszechświecie.  Jednak  po  30  latach  poszukiwań  ciągle  jeszcze  czekamy  na 

background image

znalezienie ostatecznego dowodu  na  istnienie  jakiejkolwiek  formy  życia poza  Ziemią. Może 

się to wydawać zaskakujące. Jeśli gdzieś w kosmosie istnieje życie, natrafienie nań wydaje się 

nieuniknione,  podobnie  jak  nieuniknione  było  to,  że  cywilizacje,  które  pojawiły  się 

niezależnie  od  siebie  na  kilku  ziemskich  kontynentach,  w  końcu  spotkały  się,  co  zresztą 

doprowadziło do wielu spustoszeń. 

Kiedy  zastanowimy  się  głębiej  nad  prawdopodobieństwem  odkrycia  inteligentnego 

życia  gdzieś  we  Wszechświecie,  łatwo  się  zniechęcić.  Przypuśćmy  na  przykład,  że  pewna 

obca cywilizacja w naszej Galaktyce została w jakiś sposób poinformowana, na którą z około 

400  miliardów  gwiazd  w  Drodze  Mlecznej  należy  skierować  przyrządy,  aby  odnaleźć 

zamieszkaną  planetę.  Powiedzmy,  że  kazano  im  patrzeć  w  kierunku  Słońca.  Jakie  jest 

prawdopodobieństwo,  że  odkryją  wtedy  naszą  obecność?  Życie  istnieje  na  Ziemi  przez 

większość  z  4,5  miliarda  lat,  jakie  upłynęły  od  czasu,  gdy  powstała.  Jednak  dopiero  w 

ostatnim półwieczu zaczęliśmy wysyłać jakiekolwiek sygnały świadczące o naszym istnieniu. 

Co więcej, dopiero od 25  lat dysponujemy radioteleskopami o  wystarczającej sile, aby  mogły 

one służyć  innym cywilizacjom jako radiolatarnie.  Zatem  w ciągu 4,5  miliarda  lat,  w czasie 

których  obce  cywilizacje  mogły  przyglądać  się  Ziemi  z  kosmosu,  byłyby  w  stanie  odkryć 

nasze  istnienie  tylko  w  trakcie  ostatniego  półwiecza.  Jeśli  przyjmiemy,  że  obca  cywilizacja 

zdecydowała się przeprowadzić swoje obserwacje w przypadkowym momencie historii naszej 

planety,  okaże  się,  że  prawdopodobieństwo  odkrycia  naszego  istnienia  byłoby  jak  1  do  100 

milionów.  Przypominam,  że  ocena  ta  ma  sens  tylko  wtedy,  gdy  wiadomo  dokładnie,  gdzie 

należy patrzeć! 

Napisano  całe  książki  na  temat  prawdopodobieństwa  istnienia  życia  w  naszej 

Galaktyce,  jak  również  o  możliwościach  jego  wykrycia.  Oceny  liczby  zaawansowanych 

cywilizacji  wahają  się  od  milionów  (w  najlepszym  razie)  do  jednej  (w  najgorszym,  gdy 

założymy,  że  nasza  cywilizacja  jest  zaawansowana).  Nie  chcę  tu  szczegółowo  rozważać 

wszystkich  argumentów.  Pragnę  jednak  opisać  kilka  bardziej  interesujących  problemów 

fizycznych  związanych  z  początkami  życia,  na  którego  poszukiwanie  wysłano  Enterprise. 

Chciałbym się również  zająć stosowanymi obecnie  na Ziemi  metodami poszukiwania obcych 

cywilizacji. 

Twierdzenie,  że  życie  pozaziemskie  powinno  istnieć  gdzieś  w  naszej  Galaktyce, 

wydaje  mi  się  przekonujące.  Jak  powiedziałem,  w  Galaktyce  jest  około  400  miliardów 

gwiazd.  Byłoby  więc  rzeczą  niezwykłą,  gdyby  nasze  Słońce  okazało  się  jedyną  gwiazdą, 

wokół  której  rozwinęło  się  inteligentne  życie.  Aby  ocenić  prawdopodobieństwo,  że  życie 

podobne  do  naszego  pojawiło  się  gdzieś  indziej,  można  rozumować  w  sposób,  który  na 

background image

pierwszy  rzut  oka  wydaje  się  dość  skomplikowany.  Na  początek  można  postawić  oczywiste 

pytania  w rodzaju:  „Jakie jest prawdopodobieństwo  tego,  że  wokół większości  gwiazd krążą 

planety?”  lub  „Jakie  jest  prawdopodobieństwo,  że  dana  gwiazda  będzie  żyła  wystarczająco 

długo,  aby  zapewnić  odpowiednie  warunki  dla  rozwoju  życia  w  swoim  układzie 

planetarnym?”  Następnie  należy  się  zająć  sprawami  związanymi  z  samymi  planetami:  „Czy 

planeta  jest  dostatecznie  duża,  aby  mogła  utrzymać  atmosferę?”,  „Jakie  jest 

prawdopodobieństwo, że procesy wulkaniczne rozpoczęły się na niej wystarczająco wcześnie, 

aby wytworzyć  na powierzchni odpowiednią  ilość wody?”, albo  „Jak prawdopodobne jest to, 

że  ma  ona  księżyc,  którego  masa  i  bliskość  powodują,  że  na  planecie  występują  pływy,  a 

zatem  mogą  się  tworzyć  baseny  przypływowe  -  kolebki  życia?”  Zajmę  się  dalej  tymi 

kwestiami,  jednak problem określenia rzeczywistych prawdopodobieństw polega  na tym,  że, 

po  pierwsze,  wiele  potrzebnych  parametrów  pozostaje  nieokreślonych  ł,  po  drugie,  nie 

wiemy,  jak  parametry  te  są  ze  sobą  związane.  Trudno  określić  nawet  prawdopodobieństwo 

codziennych  zdarzeń.  Kiedy  natomiast  chce  się  oszacować  cały  ciąg  bardzo  małych 

prawdopodobieństw, możliwości wykorzystania w praktyce takiej oceny są bardzo niewielkie. 

Należy  też  pamiętać,  że  nawet  jeśli  obliczy  się  dobrze  zdefiniowane 

prawdopodobieństwo,  jego  interpretacja  może  być  bardzo  niejasna.  Prawdopodobieństwo 

jakiegoś ciągu zdarzeń - na przykład tego, że siedzę na krześle określonego rodzaju, pisząc na 

komputerze  (jednym  z  milionów  komputerów  wytwarzanych  każdego  roku),  w  tym 

konkretnym  miejscu (w  jednym  z  wielu  miast  na świecie), o określonej porze dnia (spośród 

86  tysięcy  400  sekund  doby)  -  jest  niezwykle  małe.  To  samo  można  powiedzieć  o  każdym 

innym  zbiorze  okoliczności  w  moim  życiu.  Podobnie,  w  świecie  nieożywionym 

prawdopodobieństwo,  że,  powiedzmy,  radioaktywne  jądro  rozpadnie  się  w  dokładnie 

określonym  momencie,  jest  również  niezwykle  małe.  Jednak  nie  obliczamy  takich 

prawdopodobieństw.  Pytamy  raczej,  jak  prawdopodobne  jest  to,  że  jądro  rozpadnie  się  w 

pewnym  niezerowym  przedziale  czasu,  lub  o  ile  bardziej  prawdopodobny  jest  rozpad  w 

jakimś momencie w stosunku do rozpadu w innym momencie. 

Próbując ocenić prawdopodobieństwo  istnienia  życia w  naszej Galaktyce,  należy być 

bardzo  ostrożnym,  aby  nie  narzucić  zbyt  dużych  ograniczeń  na  ciąg  wydarzeń,  który  się 

rozważa..  Jeśli  się  tak  zrobi,  a  znamy  takie  oceny,  dojść  można  do  wniosku,  że 

prawdopodobieństwo powstania  życia  na Ziemi jest  niezwykle  małe, co czasami wysuwa  się 

jako  argument  za  koniecznością  boskiej  interwencji.  Jednak  równie  znikomo  małe  jest 

prawdopodobieństwo,  że światło  na skrzyżowaniu, które widzę  ze swojego okna,  zmieni  się 

na  czerwone,  gdy  będę  czekał  tam  w  swoim  samochodzie  dokładnie  o  godzinie  11:57,  3 

background image

czerwca 1999 roku. A przecież nie oznacza to, że do tego nie dojdzie.  

Warto  uświadomić  sobie,  że  życie  jednak  powstało  w  Galaktyce  -  przynajmniej  raz. 

Trudno  przecenić  wagę  tego  faktu.  Z  doświadczenia  wiemy,  że  przyroda  rzadko  kiedy 

wytwarza  jakieś  zjawisko  tylko  raz.  Nasze  istnienie  stanowi  precedens;  dowodzi,  że 

powstanie życia jest możliwe. Gdy wiemy już, że życie może pojawić się w naszej Galaktyce, 

prawdopodobieństwo  tego,  że  narodzi  się  również  gdzie  indziej,  gwałtownie  wzrasta.  (Nie 

musi jednak, jak sądzą niektórzy biologowie ewolucyjni, rozwinąć się w formę inteligentną).  

Chociaż  nasza  wyobraźnia  jest  niewątpliwe  zbyt  uboga,  aby  rozważyć  wszystkie 

kombinacje  warunków,  które  mogłyby  doprowadzić  do  powstania  inteligentnego  życia, 

możemy  posłużyć  się  przykładem  własnego  istnienia  i  zastanowić  się,  jakie  cechy 

Wszechświata  były  decydujące  lub  ważne  w  naszej  ewolucji.  Zacznijmy  od  Wszechświata 

jako całości. Wspomniałem już o jednym  z kosmicznych  zbiegów okoliczności, o  tym,  że w 

młodym  Wszechświecie  na  każde  10  miliardów  protonów  i  antyprotonów  przypadał  jeden 

dodatkowy proton.  Bez tych dodatkowych cząstek  materia  zanihilowałaby  z antymaterią  i w 

dzisiejszym Wszechświecie nie byłoby już materii, ani inteligentnej, ani żadnej innej. 

Następną  oczywistą  cechą  Wszechświata,  w  którym  żyjemy,  jest  jego  sędziwy  wiek. 

Powstawanie inteligentnego życia na Ziemi trwało około 3,5 miliarda lat. Abyśmy więc mogli 

się  pojawić  we  Wszechświecie,  musiał  on  istnieć  przez  miliardy  lat.  Wedle  najlepszych 

obecnie ocen wieku Wszechświata ma on 10-20 miliardów lat, co jest okresem wystarczająco 

długim.  Okazuje  się  jednak,  że  nie  tak  łatwo  a  priori  zaprojektować  wszechświat,  który  - 

podobnie  jak  nasz  -  rozszerza  się,  a  nie  zapada  bardzo  szybko  w  Wielkim  Kolapsie 

(odwrotności  Wielkiego  Wybuchu),  i  jednocześnie  nie  rozszerza  się  zbyt  szybko, 

uniemożliwiając  materii  grupowanie  się  w  gwiazdy  i  galaktyki.  Warunki  początkowe  we 

Wszechświecie - lub pewien dynamiczny proces fizyczny we wczesnych etapach jego historii 

- musiały być bardzo dobrze zestrojone, aby wszystko się powiodło.  

Kwestia  ta  znana  jest  jako  problem  płaskości  Wszechświata,  a  jej  zrozumienie  stało 

się  jednym  z  głównych  zadań dzisiejszej kosmologii. Przyciąganie  grawitacyjne,  związane  z 

obecnością materii, spowalnia rozszerzanie się Wszechświata. W związku z tym pojawiają się 

dwie  możliwości.  Albo  we  Wszechświecie  jest  wystarczająco  dużo  materii,  by  zatrzymać  i 

odwrócić  ekspansję  (Wszechświat  zamknięty),  albo  jest  jej  zb yt  mało  i  Wszechświat  będzie 

się  rozszerzał  wiecznie  (Wszechświat  otwarty).  Zaskakującą  cechą  obecnego  Wszechświata 

jest  to,  że  kiedy  dodamy  do  siebie  całą  widoczną  materię,  otrzymana  ilość  jest  podejrzanie 

bliska  wielkości  granicznej  między  tymi  dwoma  możliwościami.  Taka  wielkość  graniczna 

odpowiada  Wszechświatowi  płaskiemu,  w  którym  tempo  ekspansji  maleje,  ale  na  to,  aby 

background image

ekspansja zupełnie ustała, potrzeba byłoby nieskończonego czasu.  

Szczególnie  zadziwia  to,  że  Wszechświat,  który  nie  jest  doskonale  płask i,  w  trakcie 

swej ewolucji coraz bardziej oddala się od tego granicznego stanu. Ponieważ Wszechświat ma 

dzisiaj  co  najmniej  10  miliardów  lat  i  wyniki  obserwacji  wskazują,  że  jest  obecnie  niemal 

zupełnie  płaski,  we  wcześniejszych  okresach  swojego  istnienia  musiał  być  jeszcze  bardziej 

płaski.  Trudno sobie wyobrazić, w  jaki sposób  miałoby to  nastąpić przypadkiem, bez  udziału 

jakiegoś wymuszającego to procesu fizycznego. 

Około  15  lat  temu  zaproponowano  opis  takiego  procesu  -  nosi  on  nazwę  inflacji.  W 

młodym  Wszechświecie  mógł  on  zachodzić  powszechnie  w  wyniku  efektów 

kwantowomechanicznych. 

Przypomnijmy  sobie,  że pusta przestrzeń  nie jest tak  naprawdę pusta,  lecz  istnieją w 

niej kwantowe  fluktuacje, które  mogą przenosić energię. Okazuje  się,  że ponieważ  natura sił 

działających  między  cząstkami  elementarnymi  zmieniała  się  wraz  z  temperaturą  młodego 

Wszechświata,  energia  zmagazynowana  we  fluktuacjach  kwantowych  próżni  mogła  stać  się 

dominującą  formą  energii.  Owa  energia  próżni  może  odpychać  grawitacyjnie,  zamiast 

przyciągać.  Istnieje  hipoteza,  że  Wszechświat  przeszedł  kiedyś  przez  krótką  fazę  inflacji,  w 

czasie  której  dominowała  energia  próżni,  co  zaowocowało  bardzo  szybką  ekspansją.  Można 

wykazać,  że kiedy ten okres dobiegł końca  i energia próżni  zamieniła się w  energię  materii  i 

promieniowania, Wszechświat mógł stać się niemal dokładnie płaski. 

Pozostaje  jednak  inny,  być  może  poważniejszy  problem.  Pojawił  się  on  po  raz 

pierwszy,  gdy  Einstein  spróbował  zastosować  swoją  ogólną  teorię  względności  do  opisu 

Wszechświata. W tym  czasie nie  wiedziano jeszcze,  że Wszechświat się  rozszerza, wierzono 

raczej,  że  jest  on  statyczny  i  niezmienny.  Einstein  musiał  więc  znaleźć  jakiś  sposób,  aby 

powstrzymać  całą  materię  przed  zapadnięciem  się  w  wyniku  przyciągania  grawitacyjnego. 

Dodał  więc  do  swoich  równań  człon,  zwany  stałą  kosmologiczną,  który  wprowadzał 

kosmiczne  odpychanie,  aby  zrównoważyć  przyciąganie  grawitacyjne  materii  w  dużych 

skalach. Gdy się okazało, że Wszechświat nie jest statyczny, Einstein uświadomił sobie, iż nie 

ma potrzeby dodawać do równań stałej kosmologicznej, i nazwał to największą pomyłką, jaką 

kiedykolwiek popełnił. Niestety, tak jak w przypadku pasty do zębów, która - wyciśnięta - nie 

chce wejść z powrotem do tubki, gdy raz podniesiono kwestię istnienia stałej kosmologicznej, 

nie  było  już  odwrotu.  Jeśli  taki  człon  może  się  znajdować  w  równaniach  Einsteina,  należy 

wyjaśnić,  dlaczego  nie  ma  po  nim  śladu  w  obserwowanym  Wszechświecie.  Okazuje  się,  że 

energia próżni daje dokładnie ten sam efekt, jaki chciał  uzyskać  Einstein, wprowadzając stałą 

kosmologiczną.  Powstaje  więc  pytanie:  jak  to  się  stało,  że  energia  próżni  nie  dominuje  w 

background image

dzisiejszym Wszechświecie?  Innymi  słowy, jak  to się dzieje,  że Wszechświat  nie trwa wciąż 

w fazie inflacji? 

Nie  znamy  odpowiedzi  na  te  pytania.  Są  to  prawdopodobnie  jedne  z  najbardziej 

głębokich,  dotąd  nie  zbadanych  problemów  w  fizyce.  Każde  obliczenie  wykonywane  przy 

użyciu  znanych  teorii  sugeruje,  że  energia  próżni  powinna  być  obecnie  o  wiele  rzędów 

wielkości  większa,  niż  to  wynika  z  obserwacji.  Zaproponowano  pewne  mechanizmy 

odwołujące  się  do  tak  niezwykłych  tworów,  jak  tunele  euklidesowe,  które  mogłyby 

powodować  znikanie  energii,  ale  żadnej  z  tych  hipotez  nie  udało  się  dobrze  uzasadnić.  Co 

więcej, ostatnie obserwacje wykazują,  że stała kosmologiczna, chociaż  znacznie  niniejsza  niż 

moglibyśmy  się  spodziewać,  może  być  jednak  różna  od  zera  i  w  związku  z  tym  wywierać 

zauważalny  wpływ  na  ewolucję  Wszechświata,  na  przykład  postarzając  go.  Zagadnienia  te 

budzą wielkie zainteresowanie i zajmują dużo miejsca także w moich własnych badaniach. 

Niezależnie  od  tego,  jak  ów  problem  zostanie  rozwiązany,  nie  ulega  wątpliwości,  że 

płaskość Wszechświata była jednym  z  warunków koniecznych powstania  życia  na  Ziemi  i  że 

warunki  kosmologiczne,  które  się  do  tego  przyczyniły,  są  takie  same  w  całym 

Wszechświecie. 

Do  licznych kosmicznych  zbiegów okoliczności, które pozwoliły  na rozwój  życia  na 

Ziemi,  doszło  również  na  podstawowym,  mikrofizycznym  poziomie.  Gdyby  którakolwiek  z 

fundamentalnych  stałych  fizycznych  przyrody  była  tylko  nieco  inna,  nigdy  nie  powstałyby 

warunki  konieczne  do  ewolucji  ziemskich  form  życia.  Gdyby  na  przykład  bardzo  małą 

różnicę  masy  między  neutronem  i  protonem  (około  1/1000)  zmienić  tylko  dwukrotnie, 

rozpowszechnienie  we  Wszechświecie  pierwiastków  istotnych  dla  życia  na  Ziemi  byłoby 

znacznie  mniejsze. Podobnie,  gdyby  nieco  zmienić poziom energetyczny jednego  ze stanów 

wzbudzonych  jądra  atomu  węgla,  reakcje,  w  których  wyniku  ten  pierwiastek  powstaje  we 

wnętrzach  gwiazd,  nie  zachodziłyby  i  w  dzisiejszym  Wszechświecie  nie  byłoby  węgla 

stanowiącego podstawowy składnik cząsteczek organicznych.  

Oczywiście,  trudno  powiedzieć,  jaką  wagę  należy  przypisać  tym  zbiegom 

okoliczności.  Ponieważ  pojawiliśmy  się  we  Wszechświecie,  nie  należy  się  dziwić,  że  stałe 

przyrody  mają wartości, które pozwoliły  na  nasze  zaistnienie.  Można by sobie  wyobrazić,  że 

Wszechświat,  który  obserwujemy,  jest  częścią  o  wiele  większego  metawszechświata.  W 

każdym  z  wszechświatów,  wchodzących  w  skład  tego  metawszechświata,  stałe  przyrody 

mogłyby  mieć  inne  wartości. We wszechświatach, w których stałe  fizyczne  nie pozwalają  na 

pojawienie  się  życia,  nie  ma  nikogo,  kto  mógłby  cokolwiek  zmierzyć.  Parafrazując 

sformułowanie  rosyjskiego  kosmologa  Andrieja  Linde,  który  popiera  tę  postać  zasady 

background image

antropicznej,  jesteśmy w sytuacji  inteligentnej  ryby: dziwi się ona, dlaczego wszechświat, w 

którym  żyje (wnętrze akwarium),  składa  się  z  wody. Odpowiedź jest prosta:  gdyby  nie był  z 

wody, nie byłoby tam ryby i nie mogłaby zadawać pytań. 

Ponieważ  większość  z  tych  interesujących  problemów  nie  może  obecnie  zostać 

rozwiązana  na  drodze  empirycznej,  najlepiej  chyba  pozostawić  je  filozofom,  teologom  i 

autorom  literatury  fantastycznonaukowej. Przyjmijmy więc,  że Wszechświat  zdołał rozwinąć 

się  zarówno  w  skali  mikroskopowej,  jak  i  makroskopowej  w  sposób  sprzyjający  powstaniu 

życia. Zajmiemy się teraz naszym własnym domem - Drogą Mleczną. 

Kiedy  zastanawiamy  się,  które  układy  gwiezdne  w  naszej  Galaktyce  mogłyby 

zawierać  inteligentne  życie,  problemy  fizyczne  są  o  wiele  lepie j  określone.  Wiedząc,  że  w 

Drodze  Mlecznej  istnieją  gwiazdy  liczące  sobie  co  najmniej  10  miliardów  lat  (podczas  gdy 

życie  na  Ziemi  nie  jest  starsze  niż  3,5  miliarda  lat),  musimy  zapytać,  od  jak  dawna  życie 

mogło się rozwijać w naszej Galaktyce, zanim pojawiło się na Ziemi. 

Kiedy  10-20  miliardów  lat  temu  nasza  Galaktyka  zaczęła  tworzyć  się  w 

rozszerzającym  się  Wszechświecie,  pierwsze  pokolenie  jej  gwiazd  składało  się  wyłącznie  z 

wodoru  i  helu, jedynych pierwiastków, które powstały w dużych  ilościach  zaraz po Wielkim 

Wybuchu. Synteza jądrowa wewnątrz tych gwiazd powodowała zamianę wodoru w hel, a gdy 

paliwo  wodorowe  się  wyczerpywało,  zaczynał  się  spalać  hel,  tworząc  jeszcze  cięższe 

pierwiastki. Reakcje syntezy zasilają  gwiazdę aż do chwili,  gdy jej jądro składa się  głównie z 

żelaza. Żelaza  nie  można już spalać  i paliwo jądrowe  gwiazdy  ulega  wyczerpaniu. Tempo, w 

jakim  gwiazda  zużywa swoje paliwo jądrowe,  zależy od jej  masy. Słońce po 5  miliardach  lat 

spalania  wodoru  nie  jest  jeszcze  nawet  w  połowie  pierwszej  fa zy  gwiezdnej  ewolucji. 

Gwiazdy  dziesięciokrotnie  masywniejsze  od  Słońca  spalają  swoje  paliwo  około  1000  razy 

szybciej  niż  ono.  Takie  gwiazdy  zużywają  swoje  paliwo  wodorowe  w  ciągu  mniej  niż  100 

milionów lat, podczas gdy Słońce potrzebuje na to 10 miliardów lat. 

Co dzieje się z taką  masywną gwiazdą,  gdy wyczerpie już ona swoje paliwo jądrowe? 

W  ciągu  sekund  po  spaleniu  resztek  zewnętrzne  części  gwiazdy  zostają  odrzucone  w 

eksplozji,  nazywanej  supernową,  która  jest  jednym  z  najwspanialszych  fajerwerków  we 

Wszechświecie.  Supernowe  świecą  przez  krótki  czas  z  jasnością  miliarda  gwiazd.  Obecnie 

pojawiają się one w Galaktyce w tempie 2-3 na stulecie. Prawie tysiąc lat temu astronomowie 

chińscy dostrzegli na niebie nową gwiazdę, widoczną nawet w dzień, którą nazwali „gwiazdą-

gościem”.  Supernowa  ta  wytworzyła  coś,  co  obecnie  możemy  obserwować  za  pomocą 

teleskopów  jako Mgławicę Krab. Ciekawe,  że  nigdzie  w  Europie  Zachodniej  nie  zauważono 

tego  krótkotrwałego  zjawiska.  W  owych  czasach  kościelny  dogmat  głosił,  że  niebiosa   są 

background image

wieczne  i  niezmienne,  i o  wiele  łatwiej było  niczego  nie  widzieć  niż  narażać  się  na spalenie 

na  stosie.  Niemal  500  lat  później  europejscy  astronomowie  wyzwolili  się  już  na  tyle  z  tego 

dogmatu,  że duński astronom Tycho Brahe  mógł prowadzić obserwacje ko lejnej  supernowej 

w Galaktyce. 

Wiele ciężkich pierwiastków powstałych w czasie ewolucji gwiazdy oraz stworzonych 

podczas  eksplozji  ulega  rozproszeniu  w  ośrodku  międzygwiazdowym,  a  część  tego 

„gwiezdnego  pyłu”  wchodzi  później  w  skład  gazu,  który  zapada  się,  aby  gdzie  indziej 

utworzyć nową gwiazdę. W ciągu miliardów lat powstają nowe pokolenia gwiazd - tak zwane 

gwiazdy  populacji  I,  do  których  należy  Słońce.  Wiele  z  nich  może  otaczać  wirujący  dysk 

gazu  i  pyłu,  z  którego  następnie  powstają  planety  zawierające  ciężkie  pierwiastki,  takie  jak 

wapń, węgiel  i  żelazo. Z tego  właśnie  materiału jesteśmy  zbudowani. Każdy atom  w  naszych 

ciałach powstał miliardy lat temu w ognistym piecu jakiejś dawno umarłej gwiazdy. Uważam 

to  za jeden  z  najbardziej  fascynujących  l romantycznych  faktów dotyczących Wszechświata: 

wszyscy jesteśmy - dosłownie! - dziećmi gwiazd. 

Niewiele  byłoby  jednak  pożytku,  gdyby  planeta  taka  jak  Ziemia  uformowała  się  w 

pobliżu bardzo  masywnej  gwiazdy: takie  gwiazdy ewoluują  i  umierają  w ciągu  mniej  więcej  

100 milionów lat. Tylko gwiazdy o masie naszego Słońca lub mniejszej będą przez dłużej niż 

5  miliardów  lat  spokojnie  spalać  wodór.  Trudno  sobie  wyobrazić,  w  jaki  sposób  mogłoby 

powstać  życie  na  planecie  obiegającej  gwiazdę,  która  w  trakcie  ewolucji  znacznie  zmienia 

swoją  jasność.  I  odwrotnie,  gdyby  układ  planetarny  znajdował  się  wokół  gwiazdy  dużo 

mniejszej  i  słabszej  od  naszego  Słońca,  planeta,  by  otrzymywać  ilość  ciepła,  potrzebną  do 

podtrzymania  życia,  musiałaby  prawdopodobnie  znajdować  się  tak  blisko  gwiazdy,  że 

zostałaby  zniszczona  przez  siły  pływowe.  Jeśli  zatem  chcemy  poszukiwać  życia,  należy 

przyglądać się gwiazdom, które nie różnią się zbytnio od naszej. Tak się składa, że Słońce jest 

raczej typowym członkiem Galaktyki. Około 25% wszystkich gwiazd  Drogi Mlecznej - czyli 

blisko 100  miliardów - spełnia ten  warunek. Większość  z  nich  jest  nawet  starsza od Słońca, 

mogły więc stać się ogniskami życia nawet 4-5 miliardów lat wcześniej niż Słońce. 

Wróćmy  jednak  na  Ziemię.  Co  czyni  naszą  piękną  zielononiebieską  planetę  tak 

wyjątkową?  Po  pierwsze,  znajduje  się  ona  w  wewnętrznej  części  Układu  Słonecznego.  To 

ważne,  ponieważ  planety  zewnętrzne  zawierają  procentowo  o  wiele  więcej  wodoru  i  helu  - 

ich skład jest  znacznie bliższy słonecznemu. Większość ciężkich pierwiastków  znajdujących 

się  w  dysku  gazu  i  pyłu,  który  otaczał  Słońce  w  trakcie  jego  narodzin,  pozostała  w 

wewnętrznej części  układu. Można się  więc  spodziewać,  że potencjalne ogniska  życia  wokół 

gwiazdy  o  masie  Słońca  będą  się  znajdowały  w  odległościach  mniejszych  niż,  powiedzmy, 

background image

promień orbity Marsa. 

Jak  zauważyli  Złotowłosi,  Ziemia  jest  w  sam  raz  -  nie  za  duża  i  nie  za  mała,  nie  za 

zimna  i  nie  za  gorąca.  Ponieważ  planety  wewnętrzne  prawdopodobnie  nie  miały  atmosfer, 

gdy  się  rodziły,  ich  atmosfery  musiały  zostać  wytworzone  później  z  gazów  wydzielanych 

przez  wulkany.  Woda  na  powierzchni  Ziemi  powstała  w  ten  sam  sposób.  Mniejsza  planeta 

mogłaby  wypromieniować ciepło  ze  swojej powierzchni  tak szybko,  że procesy  wulkaniczne 

nie  zachodziłyby  na odpowiednio dużą skalę. Przypuszczalnie  tak właśnie było  w przypadku 

Merkurego  i  Księżyca.  Mars  jest  przypadkiem  granicznym,  natomiast  Ziemi  i  Wenus  udało 

się  utworzyć  atmosferę.  Pomiary  radioaktywnych  izotopów  gazów  w  ziemskich  skałach 

sugerują,  że 4,5  miliarda  lat temu, po początkowym okresie bombardowań, w czasie którego 

Ziemia uformowała się poprzez wychwyt materii spadającej na protoplanetę w ciągu 100-150 

milionów  lat, podczas  następnych kilku  milionów  lat procesy  wulkaniczne wytworzyły około 

85% atmosfery

3

. Nie  jest  zaskakujące,  że  życie organiczne powstało właśnie  na  Ziemi, a  nie 

na  żadnej  innej planecie  Układu Słonecznego,  i podobnych tendencji  można oczekiwać także 

gdzie  indziej w  Galaktyce - na  planetach klasy M, jak  się  je  nazywa  we  wszechświecie Stor 

Trek. Następne pytanie brzmi: ile czasu mogło potrzebować życie, a potem życie inteligentne, 

aby  powstać  ł  się  rozwinąć?  Odpowiedź  na  pierwszą  część  tego  pytania  brzmi:  niezwykle 

krótkiego  czasu.  Znalezione  na  Ziemi  skamieniałości  niebieskozielonych  glonów  mają  3,5 

miliarda  lat, a niektórzy badacze twierdzą,  że  życie kwitło na  naszej planecie już 3,8 miliarda 

lat  temu.  Życie  na  Ziemi  pojawiło  się  najwcześniej,  jak  to  tylko  było  możliwe  -w  ciągu 

pierwszych kilkuset milionów lat jej istnienia. To bardzo obiecujące.  

Oczywiście  od  czasu,  kiedy  na  Ziemi  powstało  życie,  do  chwili  pojawienia  się 

skomplikowanych  struktur  wielokomórkowych,  a  później  życia  inteligentnego,  upłynęły 

prawie  3  miliardy  lat.  Wszystko  wskazuje  na  to,  że  okresem  tym  rządziła  raczej  fizyka  niż 

biologia.  Po  pierwsze,  pierwotna  atmosfera  Ziemi  nie  zawierała  tlenu.  Znajdował  się  w  niej 

dwutlenek  węgla,  azot  oraz  śladowe  ilości  metanu,  amoniaku,  dwutlenku  siarki  i  kwasu 

solnego,  ale  nie  tlen.  Tlen  jest  istotny  nie  tylko  dla  zaawansowanych,  organicznych  form 

życia  na  Ziemi,  ale  pełni  jeszcze  inną  ważną  funkcję.  Tylko  wtedy,  gdy  w  atmosferze 

znajduje się wystarczająca  ilość tlenu,  może powstać ozon. Jego obecność, jak sobie to coraz 

lepiej  uświadamiamy,  ma  fundamentalne  znaczenie  dla  życia  na  Ziemi,  ponieważ  odb ija  on 

promieniowanie  ultrafioletowe, które jest szkodliwe dla większości  istot. Nic  więc dziwnego, 

że  eksplozja  życia  na  Ziemi  rozpoczęła  się  dopiero  wtedy,  gdy  w  atmosferze  pojawiły  się 

duże  ilości  tlenu. Ostatnie pomiary  wykazują,  że  tlen pojawił się w  atmosferze około dwóch 

miliardów  lat  temu  i  w  ciągu  następnych  600  milionów  lat  osiągnął  poziom  zbliżony  do 

background image

obecnego. Chociaż tlen wytwarzały już wcześniej w procesach fotosyntezy niebie-sko-zielone 

glony  żyjące  w  pierwotnych  oceanach,  z  początku  nie  mógł  on  na  stałe  wejść  w  skład 

atmosfery. Reaguje on bowiem z tak wieloma substancjami (na przykład z żelazem), że każda 

jego  ilość  wyprodukowana  w  procesach  fotosyntezy  łączyła  się  z  innymi  pierwiastkami, 

zanim  dotarła  do  atmosfery.  W  końcu,  gdy  wystarczająca  ilość  materiału  w  oceanie  się 

utleniła,  wolny  tlen  mógł  zacząć  zbierać  się  w  atmosferze.  (Nigdy  nie  doszło  do  tego  na 

Wenus,  ponieważ  panowała  tam  zbyt  wysoka  temperatura,  aby  mogły  powstać  oceany;  na 

planecie nigdy nie pojawiły się niebiesko-zielone glony). 

Gdy  zapanowały  już  odpowiednie  warunki,  na  pojawienie  się  złożonych  form  życia 

trzeba  było  czekać  jeszcze  miliard  lat.  Nie  oznacza,  to  wcale,  że  taka  jest  właśnie 

charakterystyczna skala czasowa.  Zarówno na biologiczną skalę czasu, jak  i  wyniki końcowe 

miały  wpływ  przypadki:  ślepe  zaułki  ewolucji,  zmiany  klimatu  i  kataklizmy,  które 

spowodowały masowe wymierania. 

Wyniki te  wskazują jednak,  że  życie  inteligentne  może rozwinąć się  w ciągu  miliarda 

lat - w okresie dość krótkim w porównaniu  z kosmiczną skalą  czasu. O długości tego okresu 

decydują jedynie czynniki fizyczne, takie jak produkcja ciepła czy tempo zachodzenia reakcji 

chemicznych.  Z  ziemskiego  doświadczenia  wynika,  że  nawet  jeśli  ograniczymy  nasze 

oczekiwania  w  stosunku  do  inteligentnego  życia  do  form  organicznych  i  tlenowców  -  co  z 

pewnością  jest  bardzo  ostrożnym  założeniem,  którego  chcieli  uniknąć  twórcy  Stor  Trek 

(jednym  z  moich  ulubieńców jest Horta,  istota krzemowa)  - dobrymi kandydatami są planety 

krążące wokół gwiazd o masie zbliżonej do Słońca i mających kilka miliardów lat. 

Przyjmijmy,  że  powstanie  organicznego  życia  jest  procesem  stabilnym  i  stosunkowo 

szybkim. Jakie  mamy dowody  na  to,  że  gdzieś we Wszechświecie  istnieją  niezbędne do tego 

składniki:  mianowicie  cząsteczki  organiczne  i  inne  planety?  I  w  tym  przypadku  wynikł 

ostatnich badań napawają optymizmem. Cząsteczki organiczne znaleziono na planetoidach, w 

kometach,  meteorytach  i  przestrzeni  międzygwiezdnej.  Niektóre  z  nich  są  złożone,  jak  na 

przykład  aminokwasy, podstawowe cegiełki  życia. Mikrofalowe badania  międzygwiezdnego 

gazu i pyłu pozwoliły wykryć dziesiątki związków organicznych, prawdopodobnie złożonych 

węglowodorów.  Wygląda  więc  na  to,  że  materia  organiczna  jest  dość  rozpowszechniona  w 

Galaktyce. 

A  co  z  planetami?  Chociaż  na  razie  zaobserwowano  bezpośrednio  tylko  jeden  układ 

planetarny  poza  naszym,  powszechne  jest  przekonanie,  że  wokół  większości  gwiazd  krążą 

planety.

4

  Na  pewno  duża  część  obserwowanych  gwiazd  ma  gwiezdnych  towarzyszy,  z 

którymi  tworzy  tak  zwane  układy  podwójne.  Co  więcej,  obserwuje  się,  że  wiele  młodych 

background image

gwiazd  jest  otoczonych  przez  dyski  pyłowo-gazowe,  z  których  prawdopodobnie  powstają 

planety.  Różne  modele  numeryczne, których  używa się do badania  rozkładu  mas planet  i  ich 

orbit  w  takich  dyskach,  sugerują  (podkreślam  słowo  „sugerują”),  że  powstaje  z  nich 

zazwyczaj  co  najmniej  jedna  planeta  podobna  do  Ziemi,  krążąca  po  orbicie  zbliżonej 

rozmiarami  do  orbity  ziemskiej.  Całkiem  niedawno  został  wreszcie  odkryty  pierwszy  poza 

Układem Słonecznym system planetarny, znajdujący się 1400 lat świetlnych od Ziemi. Nieco 

zaskakujące jest to,  że ów system  istnieje w jednym  z  najmniej  gościnnych  miejsc,  w jakich 

mogłyby  pojawić  się  planety:  trzy  planety  krążą  wokół  pulsara  -zapadniętego  jądra 

supernowej  -  w  odległości  mniejszej,  niż  wynosi  odległość  Wenus  od  Słońca.  Planety  te 

mogły  powstać  raczej  po  niż  przed  wybuchem  gwiazdy,  niemniej  odkrycie  to  wskazuje,  że 

powstawanie planet nie jest zjawiskiem rzadkim.  

Nie  traćmy  jednak  z oczu  głównego  wątku. To prawie  cud,  że  zwykłe prawa  fizyki  i 

chemii,  obowiązujące  w  rozszerzającym  się  Wszechświecie,  mającym  ponad  10  miliardów 

lat,  prowadzą  do  powstania  świadomych  umysłów,  które  mogą  badać  ów  Wszechświat. 

Chociaż  okoliczności,  którym  zawdzięczamy  powstanie  życia  na  naszej  planecie,  są 

specyficzne,  nie  wygląda  na  to,  aby  miały  one  być  właściwe  tylko  Ziemi.  Powyższe 

argumenty sugerują,  że  w  Galaktyce  może  istnieć ponad  miliard potencjalnych ognisk  życia 

organicznego.  A  ponieważ  nasza  Galaktyka  jest  tylko  jedną  ze  100  miliardów  galak tyk  w 

obser-wowalnym Wszechświecie,  trudno  uwierzyć w  naszą samotność. Co więcej, większość 

gwiazd  populacji  I  powstała  wcześniej  niż  Słońce  -  nawet  o  5  miliardów  lat.  Znając  skale 

czasu,  o  których  mówiliśmy  wcześniej,  można  przypuszczać,  że  życie  intelige ntne  pojawiło 

się  w  wielu  miejscach  jeszcze  miliardy  lat  przed  narodzinami  Słońca.  Można  nawet 

oczekiwać,  że  większość  cywilizacji pozaziemskich  w  Galaktyce  istniała przed  nami.  Zatem 

Galaktyka  mogłaby  być  pełna  cywilizacji,  które  są  miliardy  lat  starsze  od  naszej.  Z  drugiej 

strony,  znając  historię  ludzkości,  możemy  przypuszczać,  że  takie  cywilizacje,  podobnie  jak 

my, stawały w obliczu niebezpieczeństwa wojny czy głodu i wiele z nich mogło nie przetrwać 

kilku  tysięcy  lat;  w  tym  przypadku  większość  inteligentnego  życia  we  Wszechświecie  już 

dawno wymarłaby. Jak trafnie to  ujął pewien badacz ponad dwadzieścia  lat temu:  „Kwestia, 

czy istnieje gdzieś w kosmosie inteligentne życie, zależy w gruncie rzeczy od tego, jak bardzo 

jest ono inteligentne”. 

Jak więc je poznamy? Czy wyślemy  najpierw statki kosmiczne, aby badać  niezwykłe 

nowe światy i dotrzeć tam, gdzie nie stanęła jeszcze ludzka stopa? Czy raczej odkryją nas nasi 

galaktyczni  sąsiedzi,  nastawiwszy  swoje  odbiorniki  na  serial  Stor  Trek,  gdyż  takie  sygnały 

przemieszczają się przez Galaktykę z prędkością światła? Nie sądzę, aby którykolwiek  z tych 

background image

scenariuszy został zrealizowany, i nie jestem w swym sądzie odosobniony.  

Po  pierwsze,  przekonaliśmy  się  już,  jak  wielkim  problemem  mogą  być  podróże 

międzygwiezdne.  Wymagałyby  one  wydatków  energetycznych,  jakich  obecnie  nie  umiemy 

sobie  nawet  wyobrazić  -  i  to  bez  względu  na  to,  czy  posłużylibyśmy  się  napędem 

czasoprzestrzennym,  czy  jakimkolwiek  innym.  Przypomnijmy  sobie,  że  aby  przyspieszyć 

rakietę za pomocą napędu na  materię  i antymaterię do prędkości około 3/4 prędkości światła, 

tak  aby  mogła  się  ona  udać  w  dziesięcioletnią  podróż  tam  i  z  powrotem  do  najbliższej 

gwiazdy,  potrzeba  byłoby  energii,  która  mogłaby  zaspokoić  całkowite  dzisiejsze 

zapotrzebowanie Stanów Zjednoczonych  na okres ponad 100 tysięcy  lat!  To  jednak  niewiele 

w  porównaniu  z  energią,  której  potrzebowalibyśmy,  aby  naprawdę  zakrzywiać 

czasoprzestrzeń.  Co  więcej,  aby  zwiększyć  szansę  znalezienia  życia,  należałoby  przeszukać 

co najmniej kilka tysięcy gwiazd. Obawiam się, że nawet podróżując z prędkością światła nie 

moglibyśmy tego dokonać w ciągu następnego tysiąclecia. 

Takie  są  złe  wieści.  Dobrą  nowiną,  jak  przypuszczam,  jest  to,  że  z  tego  samego 

powodu  prawdopodobnie  nie  musimy  się  za  bardzo  martwić  tym,  że  zostaniemy  porwani 

przez przybyszów z kosmosu. Oni pewnie też ocenili swe  możliwości energetyczne  i odkryli, 

że o wiele łatwiej będzie im poznawać nas z daleka. 

Czy  powinniśmy  więc  poświęcać  energię,  aby  rozgłaszać,  że  istniejemy?  Na  pewno 

byłoby  to  o  wiele  tańsze.  Wydając  mniej  niż  dolara  na  energię  elektryczną,  potrafilibyśmy 

przesiać do najbliższego układu gwiezdnego dziesięciowyrazową wiadomość, którą można by 

odebrać  za  pomocą  anteny  radiowej  odpowiednich  rozmiarów.  Jeśli  jednak  -  tutaj  znowu 

zapożyczę  argument  od  laureata  Nagrody  Nobla,  Edwarda  Purcella  -  będziemy  nadawać, 

zamiast  nasłuchiwać,  umknie  naszej  uwadze  większość  inteligentnych  form  życia. 

Cywilizacje,  które  znacznie  nas  wyprzedzają,  potrafią  na  pewno  o  wiele  lepiej  od  nas 

emitować  silne sygnały. A ponieważ  uczestniczymy w  radiowym biznesie dopiero od 80  lat, 

wiele cywilizacji powinno dysponować  znacznie bardziej  zaawansowaną  technologią niż  my. 

Tak  więc,  jak  mówiła  moja  matka,  powinniśmy  słuchać,  zanim  coś  powiemy.  Mam  jednak 

nadzieję,  że  nie wszystkie  zaawansowane technicznie cywilizacje pozaziemskie  myślą w ten 

sam sposób. 

Czego  jednak  powinniśmy  słuchać?  Jeśli  nie  wiemy,  który  kanał  wybrać,  sytuacja 

wygląda  beznadziejnie.  Tutaj  może  nam  pomóc  Stor  Trek.  W  odcinku  Dziecko  galaktyki 

(serii  Następne  pokolenie)  Enterprise  spotyka  obcą  formę  życia,  która  zamieszkuje  pustą 

przestrzeń,  karmiąc  się  energią.  Szczególnie  smakuje  jej  promieniowanie  o  częstości  1420 

milionów cykli na sekundę, co odpowiada długości fali 21 centymetrów.  

background image

Jak  powiedziałby  Pitagoras:  gdyby  istniała  muzyka  sfer  niebieskich,  z  pewnością  to 

byłby  jej  dźwięk  podstawowy.  Tysiąc  czterysta  dwadzieścia  megaherców  jest  naturalną 

częstością  precesji  spinu  elektronu,  gdy  okrąża  on  jądro  wodoru  -  najpowszechniejszego 

pierwiastka  we  Wszechświecie.  Jest  to  częstość  tysiąckrotnie  bardziej  wyróżniająca  się 

spośród  innych  częstości  w  Galaktyce.  Co  więcej,  znajduje  się  ona  dokładnie  w  oknie 

częstości, które - podobnie jak światło  widzialne -  można odbierać  na powierzchni planety  i 

przesyłać  przez  warstwy  atmosfery  chroniącej  życie  organiczne.  Poza  tym  w  okolicach  tej 

częstości  szum  tła  jest  bardzo  słaby.  Radioastronomowie  posłużyli  się  tą  częstością,  aby 

znaleźć  obszary  występowania  wodoru  w  Galaktyce  -  co  jest  oczywiście  równoważne 

występowaniu  materii  -  ł  w  ten  sposób  określić  jej  kształt.  Każdy  gatunek  wystarczająco 

inteligentny, aby wiedzieć choć trochę o  falach radiowych  i o Wszechświecie, powinien  znać 

tę  częstość.  To  taka  uniwersalna  latarnia  morska.  Trzydzieści  sześć  lat  temu  astrofizycy 

Giuseppe Cocconi  i Philip  Morrison  stwierdzili,  że  jest to  najbardziej  naturalna częstość,  na 

jakiej należałoby nadawać lub odbierać sygnały, i od tego czasu nikt się z nimi nie spierał.  

W Hollywood  nie tylko odgadnięto  właściwą częstość  nasłuchu, ale  zdobyto również 

część  pieniędzy  na  jego  prowadzenie.  Chociaż  nasłuch  kosmosu  na  niewielką  skalę  trwa  od 

trzydziestu lat, pierwszy zakrojony na większą skalę wszechstronny program badawczy zaczął 

funkcjonować  jesienią  1985  roku.  Wówczas  to  Steven  Spielberg  wysup łał  trochę  grosza,  co 

pozwoliło  na  formalne  zainicjowanie  projektu  META,  czyli  Mega-channel  Extra  Terrestrial 

Assay (Milionkanałowe  urządzenie do poszukiwania cywilizacji pozaziemskich). Ojcem tego 

urządzenia  jest  spec  od  elektroniki  Paul  Horowitz  z  Uniwersytetu  Harvarda.  META  tkwi  w 

26-metrowym  harwardzkim  radioteleskopie  w  stanie  Massachusetts  i  funkcjonuje  za 

pieniądze prywatnego Planetary Society (Towarzystwa Planetarnego)  łącznie  z wkładem 100 

tysięcy  dolarów  od  samego  ET.  META  wykorzystuje  układ  128  równoległych  procesorów, 

które jednocześnie odczytują 8 388 608 kanałów częstości  w pobliżu 1420  megaherców  i  jej 

tak zwanej drugiej harmonicznej - równej 2840 megaherców. Jak dotąd zebrano dane z ponad 

pięciu lat i w tym czasie META trzykrotnie przemiotło całe niebo. 

Oczywiście  w  trakcie  nasłuchu  należy  się  wykazać  pewnym  sprytem.  Trzeba  sobie 

przede  wszystkim  uświadomić,  że  nawet  jeśli  wysyłany  sygnał  ma  częstość  1420 

megaherców,  może  nie  być  z  taką  samą  częstością  odbierany.  Dzieje  się  tak  z  powodu 

niecnego efektu Dopplera - przejawiającego się na przykład w ten sposób, że dźwięk gwizdka 

pociągu brzmi wyżej,  gdy się on  zbliża, a niżej, gdy się od nas oddala.  Zasada  ta obowiązuje 

dla  każdego  rodzaju  promieniowania  emitowanego  przez  poruszające  się  źródło.  Ponieważ 

większość gwiazd w Galaktyce porusza się względem nas z prędkościami kilkuset kilometrów 

background image

na sekundę, przesunięcia Dopplera nie można zaniedbać. {Twórcy Star Trek nie zaniedbywali 

go;  dodawali  do  transportera  „kompensatory  efektu  Dopplera”,  aby  zrównoważyć  względny 

ruch statku kosmicznego i celu transportera). Przyjmując, że nadawcy jakiegokolwiek sygnału 

byliby  tego  świadomi,  grupa  META  poszukiwała  sygnału  1420  megaherców  przesuniętego 

tak,  jak  gdyby  pochodził  z  jednego  z  trzech  układów  odniesienia:  (a)  układu  poruszającego 

się wraz  z  naszym  lokalnym systemem  gwiazd; (b) układu poruszającego się wraz  z centrum 

Galaktyki;  (c)  układu  zdefiniowanego  przez  kosmiczne  mikrofalowe  promieniowanie  tła, 

pozostałe  po  Wielkim  Wybuchu.  Zauważmy,  że  ułatwia  to  znacznie  odróżnienie  tych 

sygnałów od sygnałów pochodzenia ziemskiego, które są emitowane w układzie związanym z 

powierzchnią  Ziemi,  różniącym  się  od  każdego  z  trzech  wymienionych.  Ziemskie  sygnały 

można więc bardzo łatwo wyłowić spośród danych zebranych przez META. 

Jak  wyglądałby  sygnał  pozaziemski?  Cocconi  i  Morrison  zaproponowali,  aby 

poszukiwać kilku początkowych liczb pierwszych: l, 3, 5, 7, 11, 13... Dokładnie taki sam ciąg 

wystukuje  Picard  w  odcinku  Hołd,  kiedy  będąc  w  niewoli  próbuje  pokazać  strażnikom,  że 

mają  do  czynienia  z  przedstawicielem  inteligentnego  gatunku.  Sygnały  wyemitowane  na 

przykład  podczas  burzy  na  powierzchni  gwiazdy  raczej  nie  utworzą  takiego  ciągu.  Grupa 

META  poszukiwała  nawet  jeszcze  prostszego  sygnału  -  jednostajnego,  stałego  tonu  o 

określonej częstości. Taką falę „nośną” stosunkowo łatwo odnaleźć.  

Horowitz  i  jego  współpracownik,  astronom  z  Uniwersytetu  Cornella,  Carl  Sagan, 

opublikowali  pracę  zawierającą  analizę  danych  zgromadzonych  w  ciągu  5  lat  realizowania 

programu  META.  Ze  100  tysięcy  miliardów  odebranych  sygnałów  wyodrębniono  37 

kandydatów.  Niestety,  żaden  z  tych  „sygnałów”  nigdy  się  nie  powtórzył.  Horowitz  i  Sagan 

interpretują  dotychczasowe  dane,  stwierdzając,  że  jak  dotąd  nie  zawierają  one  żadnego 

prawdziwego  sygnału.  W  wyniku  tego  mogli  oni  ograniczyć  domniemaną  liczbę  wysoko 

zaawansowanych cywilizacji - w  zależności od odległości od Słońca  - które próbowały się  z 

nami skontaktować. 

Trzeba  jednak  pamiętać,  że  pomimo  niewiarygodnego  rozmachu  przeprowadzonych 

badań, przeanalizowano dotychczas jedynie  mały  zakres częstości, a  wymagania co do  mocy 

sygnału, który  mógłby  zostać  zarejestrowany przez  teleskop META, są raczej duże: do jego 

nadania  potrzebne  są  moce  przekraczające  całkowitą  moc  otrzymywaną  przez  Ziemię  od 

Słońca (około 10

17

 watów). Nie ma jednak na razie powodów do pesymizmu. Sam nasłuch to 

trudne  przedsięwzięcie.  Grupa  META  buduje  obecnie  większy  i  lepszy  detektor  (BETA), 

który ma tysiąckrotnie zwiększyć zakres poszukiwań. 

Poszukiwania  trwają.  Choć  jak  dotąd  niczego  nie  usłyszeliśmy,  nie  powinno  nas  to 

background image

zniechęcać. Przypomina  to opowieść, którą  usłyszałem kiedyś od  mego przyjaciela Sydneya 

Colemana,  profesora  fizyki  na  Uniwersytecie  Harvarda:  Gdy  chcesz  kupić  dom,  nie 

powinieneś  się  zniechęcać,  jeśli  obejrzysz  setkę  i  nic  nie  znajdziesz.  Musisz  znaleźć  ten 

jeden...  Jeden  zdecydowany  sygnał  -  jakkolwiek  mało  prawdopodobne  jest  to,  że  go 

kiedykolwiek  usłyszymy  -  zmieniłby  nasz  sposób  widzenia  Wszechświata  i  oznaczałby 

początek nowej ery w dziejach ludzkości. 

Ci,  którzy  czują  się  rozczarowani  stwierdzeniem,  że  nasz  pierwszy  kontakt  z 

pozaziemską cywilizacją nie odbędzie się na pokładzie statku kosmicznego, powinni pamiętać 

o  Cyterianach.  Ta  bardzo  zaawansowana  cywilizacja,  którą  napotkał  na  swej  drodze 

Enterprise, kontaktowała się z innymi cywilizacjami w oryginalny sposób: zamiast wędrować 

w  przestrzeni  kosmicznej,  zabierała  podróżników  do  siebie.  W  pewnym  sensie  robimy  to 

samo nasłuchując sygnałów z gwiazd. 

background image

ROZDZIAŁ 9 

WACHLARZ MOŻLIWOŚCI 

Takie  właćnie  odkrycia  na  was  czekają!  Zamiast  obserwowania  gwiazd  i  studiowania 

mgławic, badanie nieznanych możliwości istnienia. 

Q do Picarda w odcinku Wszystko, co dobre...  

 

 

Ponad  trzynaście  lat  obecności  w  telewizji  kilku  różnych  seriali  Star  Trek  pozwoliło 

scenarzystom  poruszyć  wiele  najbardziej  ekscytujących  tematów  ze  wszystkich  dziedzin 

fizyki.  Czasami  udaje  im  się  uchwycić  sedno  sprawy,  czasem  się  mylą.  Niekiedy  używają 

tylko terminów, którymi posługują się  fizycy, a czasem  włączają także  idee  z  nimi  związane. 

Tematy, które podejmował serial, stanowią przegląd współczesnej fizyki: szczególna i ogólna 

teoria  względności,  kosmologia,  fizyka  cząstek,  podróże  w  czasie,  zakrzywienie 

czasoprzestrzeni i fluktuacje kwantowe, by wymienić tylko kilka z nich.  

Pomyślałem,  że  w  przedostatnim  rozdziale  tej  książki  warto  byłoby  zaprezentować 

krótko  kilka  najbardziej  interesujących  problemów  współczesnej  fizyki,  które  wykorzystali 

scenarzyści  Star  Trek  -  zwłaszcza  zagadnienia  dokładnie  dotąd  nie  omawiane.  Ponieważ  są 

tak różnorodne, podaję je  w  formie słownika,  nie porządkując  ich  w jakiś szczególny sposób. 

W rozdziale ostatnim  w podobnej  formie  zajmę się  najbardziej  rażącymi  -z punktu  widzenia 

fizyki - błędami, jakie popełniono w serialu, dostrzeżonymi  zarówno przeze  mnie, jak  i przez 

niektórych kolegów fizyków i wielu trekkerów. W obydwu tych rozdziałach ograniczyłem się 

do  wybrania  dziesięciu  najciekawszych  przykładów,  choć  można  by  ich  podać  znacznie 

więcej. 

ROZMIARY  GALAKTYKI  I  WSZECHŚWIATA.  Nasza  Galaktyka  jest  sceną,  na 

której  rozgrywa  się  akcja  serialu  Star  Trek.  W  każdym  odcinku  różnego  rodzaju  skale 

odległości  galaktycznych odgrywają  istotną  rolę w przebiegu  wydarzeń. Pojawiają  się różne 

jednostki:  od  j.a.,  czyli  jednostek  astronomicznych  (l  j.a.  odpowiada  149  milionom 

kilometrów, czyli odległości Ziemi od Słońca), których  używano, aby opisać średnicę obłoku 

Vger  w  pierwszym  filmie  Star  Trek,  do  lat  świetlnych.  Poza  tym  wspomina  się  o  wielu 

cechach naszej Galaktyki,  łącznie z  „Wielką Barierą” w jej centrum (Star Trek  V: Ostateczna 

granica] i -w pierwszej serii - „barierą galaktyczną” na jej krańcach (odcinki Gdzie nie stanęła 

ludzka  stopa,  Jakiekolwiek  inne  imię  i  Czyż  prawda  nie  może  być  piękna?.  Aby  opisać 

miejsce  akcji  Star  Trek,  należy  przedstawić  nasz  obecny  pogląd  na  strukturę  Galaktyki  i  jej 

background image

okolic oraz na skalę odległości we Wszechświecie. 

Odległości  astronomiczne  rzadko  wyraża  się  w  zwykłych  jednostkach,  takich  jak 

kilometry  czy  mile,  gdyż  wymagałoby  to  używania  bardzo  wielkich  liczb.  W  zamian 

astronomowie stworzyli kilka  umownych jednostek, które są bardziej  użyteczne. Jedna  z  nich 

to  jednostka  astronomiczna  (j.a.),  czyli  odległość  między  Ziemią  a  Słońcem.  Jest  to  skala 

właściwa dla odległości w Układzie Słonecznym; Pluton, wyznaczający jego krańce, znajduje 

się w odległości 40 j.a. od Słońca. W wersji kinowej Star Trek obłok Vger ma średnicę 82 j.a., 

co jest wartością niezwykle dużą - większą niż rozmiary naszego Układu Słonecznego! 

Dla  porównania  tego  dystansu  z  odległościami  międzygwiezdnymi  warto  wyrazić 

odległość Ziemia-Słońce jako czas potrzebny światłu (lub statkowi Enterprise, rozwijającemu 

prędkość  l warpa)  na jej przebycie.  Równa się on  mniej  więcej ośmiu  minutom. (Tyle czasu 

powinno  wędrować  światło  od  gwiazdy  do  krążącej  wokół  niej  planety  klasy  M).  Możemy 

więc  powiedzieć,  że  jednostka  astronomiczna  równa  się  ośmiu  minutom  świetlnym.  Dla 

porównania: odległość do najbliższej gwiazdy, a Centauri - układu podwójnego gwiazd, gdzie 

miał mieszkać wynalazca napędu czasoprzestrzennego, Zefrem Cochrane - wynosi około 4 lat 

świetlnych!  Jest  to  typowa  odległość  między  gwiazdami  w  naszej  części  Galaktyki.  Przy 

osiągalnych obecnie prędkościach rakiety podróżowałyby do a Centauri ponad 10 tysięcy  lat. 

Przy  prędkości  9  warpów,  która  1500  razy  przewyższa  prędkość  światła,  przebycie  jednego 

roku świetlnego zajęłoby około 6 godzin. 

Odległość Słońca od centrum Galaktyki wynosi około 25  tysięcy  lat świetlnych. Przy 

prędkości  9  warpów  dystans  ten  pokonywałoby  się  w  ciągu  15  lat,  Jest  więc  mało 

prawdopodobne,  aby Sybok, dowodząc  Enterprise,  mógł dolecieć  nim do centrum  Galaktyki 

(Stor Trek V: Ostateczna granica), chyba że statek znajdował się bardzo blisko tego miejsca.  

Droga  Mleczna  jest  galaktyką  spiralną  z  dużym  centralnym  dyskiem  gwiazd.  Jej 

średnica  sięga  100  tysięcy  lat  świetlnych,  a  grubość  kilku  tysięcy  lat  świetlnych.  Voyager, 

rzucony w pierwszym odcinku tej serii 70 tysięcy lat świetlnych od Ziemi, znalazł się więc po 

drugiej  stronie  Galaktyki.  Jego  powrót  w  okolice  Słońca  zająłby  przy  prędkości  9  warpów 

około 50 lat. 

W  środku  naszej  Galaktyki  tkwi  jej  jądro  -  gęste  skupisko  gwiazd,  którego  średnica 

wynosi kilka tysięcy lat świetlnych. Przypuszcza się, że kryje się w nim czarna dziura o masie 

około  miliona  mas  Słońca.  Prawdopodobnie  w  centrum  wielu  innych  galaktyk  również 

znajdują  się  czarne  dziury;  ich  masy  mogą  wynosić  od  100  tysięcy  do  ponad  miliarda  mas 

Słońca. 

Galaktykę  otacza  niemal  sferyczne  halo  bardzo  starych  gwiazd.  Znajdujące  się  tam 

background image

skupiska  tysięcy  gwiazd,  zwane  gromadami kulistymi,  uważa się  za bodaj  najstarsze obiekty 

w  naszej  Galaktyce.  Ich  wiek  ocenia  się  aż  na  18  miliardów  lat;  są  zatem  starsze  nawet  od 

„czarnej  gromady”,  której  w  odcinku  Chwalą  bohaterom  przypisano  wiek  9  miliardów  lat. 

Wysunięto również hipotezę,  że Galaktykę otacza jeszcze większe sferyczne  halo, składające 

się  z  „ciemnej  materii”  {o  której  jeszcze  będzie  mowa).  Tego  halo  nie  można  zobaczyć  za 

pomocą żadnego teleskopu; o jego istnieniu wnioskuje się na podstawie ruchów gwiazd i gazu 

w Galaktyce. Może ono zawierać nawet 10 razy więcej masy niż widzialna część Galaktyki. 

Droga Mleczna jest galaktyką spiralną średnich rozmiarów; można się w niej doliczyć 

kilkuset  miliardów  gwiazd.  W  całym  dostępnym  naszym  obserwacjom  Wszechświecie 

istnieje około 

100  miliardów  galaktyk,  z  których  każda  zawiera  mniej  więcej  tyle  samo  gwiazd! 

Wśród  galaktyk,  które  obserwujemy,  około  70%  stanowią  galaktyki  spiralne;  reszta  ma 

bardziej  sferyczne  kształty  i  nosi  nazwę  galaktyk  eliptycznych.  Największe  spośród  nich  to 

olbrzymie galaktyki eliptyczne, ponad 10 razy bardziej masywne niż Droga Mleczna. 

Większość  galaktyk  tworzy  grupy.  W  naszej  Grupie  Lokalnej  najbliżej  Drogi 

Mlecznej  znajdują  się  małe  galaktyki-satelity,  krążące  wokół  niej.  Obiekty  te  można 

zaobserwować  na południowej półkuli  nieba; są to Wielki  i Mały Obłok Magellana. Około 6 

milionów  lat  świetlnych  dzieli  nas  od  najbliższej  dużej  galaktyki,  Wielkiej  Mgławicy  w 

Andromedzie - domu Kelwanów, którzy w odcinku Jakiekolwiek inne imię próbowali przejąć 

Enterprise  i  powrócić  do  swojej  galaktyki.  Przy  prędkości  9  warpów  podróż  ta  trwałaby 

blisko tysiąc lat! 

Ponieważ  światło  potrzebuje  określonego  czasu,  by  przebyć  dany  dystans,  patrząc 

coraz dalej, cofamy  się  w czasie. Obecnie, posługując się elektromagnetycznymi czujnikami, 

możemy spojrzeć wstecz w czasie aż do okresu, gdy Wszechświat miał około 300 tysięcy lat. 

Wcześniej  materia  istniała  w  postaci  gorącego,  zjonizowanego  gazu,  nieprzezroczystego  dla 

promieniowania  elektromagnetycznego.  Gdy  patrzymy  we  wszystkich  kierunkach, 

obserwujemy  promieniowanie  wyemitowane  w  chwili,  gdy  mat eria  i  promieniowanie 

„odłączyły się od siebie”. Promieniowanie to  nosi  nazwę  mikrofalowego promieniowania  tła. 

Obserwacje tego promieniowania, zwłaszcza ostatnie, prowadzone za pomocą satelity COBE, 

wystrzelonego  przez  NASA  w  1989  roku,  pozwoliły  nam  uzyskać  obraz  Wszechświata  z 

okresu, kiedy miał on tylko 300 tysięcy lat. 

Wszechświat rozszerza się jednorodnie. W wyniku tego odległe galaktyki oddalają się 

od nas; im dalej się znajdują, tym szybciej uciekają, a ich prędkość jest wprost proporcjonalna 

do  dzielącej  nas  od  nich  odległości.  Tempo  ekspansji  Wszechświata,  opisywane  przez 

background image

wielkość,  zwaną  stałą  Hubble'a,  jest  takie,  że  galaktyki  znajdujące  się  w  odległości  10 

milionów lat świetlnych od nas oddalają się ze średnią prędkością 150-300 km/s. Gdy cofamy 

się w czasie, okazuje się, że mniej więcej 

10-20  miliardów  lat  temu  wszystkie  obserwowane  galaktyki  we  Wszechświecie 

znajdowały się blisko siebie. To wówczas nastąpił Wielki Wybuch.  

CIEMNA  MATERIA.  Jak  już  wcześniej  wspomniałem,  wiele  świadczy  o  tym,  że 

nasza  Galaktyka  zanurzona  jest  w  oceanie  niewidocznej  materii.  Badając  ruchy  gwiazd, 

obłoków  gazu wodorowego, a  nawet  Wielkiego  i Małego Obłoku Magellana  wokół centrum 

Drogi Mlecznej i posługując się prawami Newtona, które wiążą prędkość krążących obiektów 

z przyciągającą je grawitacyjnie masą, stwierdzono, że naszą Galaktykę otacza sferyczne halo 

ciemnej materii. Rozciąga się ono od galaktycznego centrum na odległość być może nawet 10 

razy  większą  niż  odległość  między  centrum  a  Układem  Słonecznym.  Materia  ta  stanowi  co 

najmniej  90%  masy  Drogi  Mlecznej.  Co  więcej,  z  obserwacji  ruchów  innych  galaktyk,  z 

galaktykami  eliptycznymi  włącznie,  a  także  ruchów  grup  galaktyk  wynika,  że  z  tymi 

układami  związana  jest  większa  ilość  materii,  niż  można  by  twierdzić  na  podstawie  liczby 

widocznych  obiektów.  Wygląda  więc  na  to,  że  cały  dostępny  naszym  obserwacjom 

Wszechświat  zdominowany  jest  przez  ciemną  materię.  Ocenia  się,  że  stanowi  ona  90-99% 

masy Wszechświata. 

Pojęcie  ciemnej  materii  wkradło  się  zarówno  do  serii  Następne  pokolenie,  jak  i  do 

serii  Voyager  w  bardzo  zabawny  sposób.  W  odcinku  Catnexls  serii  Voyager  statek  zanurza 

się  na  przykład  w  „mgławicy  ciemnej  materii”,  która,  jak  łatwo  można  sobie  wyobrazić, 

przypomina ciemny obłok, tak  że  nie  można  zajrzeć do jej wnętrza. Enterprise spotkał się już 

wcześniej  z podobnymi obiektami,  na przykład  ze wspomnianą  wcześniej  „czarną  gromadą”. 

Uderzającą cechą ciemnej materii jest jednak nie to, że w jakiś sposób przesłania światło, lecz 

że nie świeci - to znaczy nie emituje promieniowania - a nawet nie pochłania znaczących jego 

ilości. W przeciwnym razie  można byłoby  ją  wykryć  za pomocą  teleskopów. Gdybyśmy  się 

jednak znajdowali wewnątrz obłoku ciemnej materii, a tak prawdopodobnie jest, nawet byśmy 

jej nie zauważyli. 

Kwestia  natury,  pochodzenia  i  rozkładu  ciemnej  materii  we  Wszechświecie  jest 

jednym  z  najbardziej  ekscytujących  i  dotąd  nie  rozwiązanych  problemów  współczesnej 

kosmologii.  Ponieważ  ta  nieznana  materia  wnosi  dominujący  wkład  do  gęstości  masy  we 

Wszechświecie,  jej  rozkład  musiał  określić,  kiedy  ł  w  jaki  sposób  obserwowalna  materia 

zapadła  się  grawitacyjnie,  tworząc  gromady  galaktyk,  galaktyki,  gwiazdy  i  planety,  które 

czynią  Wszechświat  tak  interesującym.  Nasze  istnienie  bezpośrednio  zależy  od  ciemnej 

background image

materii. Co więcej,  ilość ciemnej  materii  we Wszechświecie będzie  miała decydujący wpływ 

na jego ostateczny los: czy Wszechświat zakończy swoje istnienie z wielkim hukiem (poprzez 

zapadnięcie się), czy też będzie  się rozszerzał  w  nieskończoność (nawet  gdy  gwiazdy już  się 

wypalą),  będzie  zależało  od  tego,  ile  materii  -  i  jakiego  rodzaju  -zawiera,  ponieważ 

przyciąganie grawitacyjne spowalnia ekspansję. 

Wiele  wskazuje  na  to,  że ciemna  materia  może się składać  z cząstek  zupełnie  innych 

niż protony  i  neutrony, tworzące  zwykłą  materię. Niezależne oceny  ilości  zwykłej  materii  we 

Wszechświecie - oparte  na obliczeniach tempa reakcji jądrowych  w  młodym Wszechświecie 

oraz  teorii  powstawania  lekkich  pierwiastków  -  sugerują,  że  w  kosmosie  może  być  za  mało 

protonów, aby  mogła się  z  nich składać ciemna  materia  wokół  galaktyk  i  gromad. Co więcej, 

wygląda  na  to,  że  aby  z  niewielkich  fluktuacji  w  gorącej  plazmie  młodego  Wszechświata 

powstały  galaktyki  i  gromady,  które  obserwujemy  dzisiaj,  musiał  istnieć  jakiś  nowy  rodzaj 

cząstek  elementarnych,  nie  oddziałujących  z  promieniowaniem  elektromagnetycznym.  Jeśli 

ciemna  materia  rzeczywiście  składa  się  z  cząstek  elementarnych  nieznanego  rodzaju, 

wówczas: 

(a) Ciemna  materia  nie tylko  znajduje się  gdzieś w kosmosie,  lecz również  w pokoju, 

w  którym  czytasz  tę  książkę,  i  niezauważalnie  przenika  przez  Twoje  ciało.  Te  egzotyczne 

cząstki  elementarne  nie  tworzą  obiektów  astronomicznych,  lecz  raczej  rozproszony  „gaz” 

płynący przez Galaktykę. Ponieważ nie oddziałują one wcale lub, w najlepszym razie, bardzo 

słabo  z  materią,  mogą  swobodnie przenikać przez  obiekty tak duże  jak  Ziemia, podobnie jak 

znane nam neutrina (które nie powinny być obce trekkerom i o których będzie jeszcze mowa).  

(b)  Ciemną  materię  można  by  bezpośrednio  wykryć  na  Ziemi  za  pomocą 

skomplikowanych  technik  do  detekcji  cząstek  elementarnych.  Obecnie  buduje  się  detektory, 

które powinny zarejestrować różne rodzaje cząstek-kandydatów na składniki ciemnej materii. 

(c)  Odkrycie  takich  cząstek  mogłoby  zrewolucjonizować  fizykę  cząstek 

elementarnych.  Jest dosyć prawdopodobne,  że cząstki takie są pozostałościami po procesach 

zachodzących  w  bardzo  młodym  Wszechświecie  -  zanim  jeszcze  osiągnął  on  wiek  jednej 

sekundy; wiązałyby się one wówczas  z  fizyką energii porównywalnych  lub  nawet większych 

od tych, które możemy obecnie badać za pomocą akceleratorów. 

Hipotezy  te  są  ekscytujące,  nie  możemy  jednak  wykluczyć,  że  ciemna  materia  jest 

zbudowana  z czegoś  mniej egzotycznego.  Istnieje wiele sposobów  na połączenie protonów  i 

neutronów  tak,  aby  nie  świeciły.  Gdybyśmy  na  przykład  zapełnili  Galaktykę  śniegowymi 

kulami  lub  głazami,  trudno  byłoby  je  wykryć.  Najbardziej  chyba  prawdopodobną 

możliwością  jest  w tym przypadku  sytuacja,  w której  Galaktykę  zapełniają obiekty  niewiele 

background image

mniejsze  od  gwiazd,  choć  zbyt  małe,  aby  rozpoczęły  się  w  ich  wnętrzach  reakcje  jądrowe. 

Takie  obiekty  noszą  nazwę  brązowych  karłów,  a  Data  i  jego  towarzysze  na  pokładzie 

Enterprise  mówili  o  nich  wielokrotnie  (na  przykład  w  odcinku  Polowanie  na  człowieka). 

Obecnie prowadzone  są ciekawe programy badawcze,  mające  na celu  ustalenie, czy brązowe 

karły  -  znane  także  jako  MACHO  (od  ang.  Massive  Astrophysical  Compact  Halo  Objects  - 

masywne astrofizyczne  zwarte obiekty [wchodzące w skład]  halo  [galaktycznego]) stanowią 

istotny  składnik  halo  ciemnej  materii,  otaczającego  Drogę  Mleczną.  Chociaż  obiektów  tych 

nie  można  bezpośrednio  zaobserwować,  jeśli  jeden  z  nich  przejdzie  przed  gwiazdą,  jego 

grawitacja  zaburzy  bieg  promieni  świetlnych  dochodzących  do  nas  z  tej  gwiazdy,  tak  że 

będzie  się  ona  wydawała  jaśniejsza.  Zjawisko  to,  zwane  soczewkowaniem  grawitacyjnym, 

przewidział  Einstein  już  w  latach  trzydziestych,  a  obecnie  dysponujemy  technologią,  która 

pozwala  na  wykrycie  tego  efektu.  W  trakcie  wspomnianych  programów  badawczych  każdej 

nocy obserwuje się  miliony gwiazd naszej Galaktyki w poszukiwaniu tego  zjawiska. Czułość 

używanych  przyrządów  jest  wystarczająca,  aby  wykryć  halo  zbudowane  z  obiektów 

MACHO,  jeśli  rzeczywiście  są  one  dominującym  składnikiem  ciemnej  materii  otaczającej 

naszą  Galaktykę. Pierwsze  wyniki pozwoliły  stwierdzić,  że prawdopodobnie  halo  nie składa 

się z obiektów typu MACHO, ale kwestia ta pozostaje ciągle otwarta.  

GWIAZDY  NEUTRONOWE.  Wspomniałem  już,  że  obiekty  te  są  pozostałością  po 

zapadniętych  jądrach  masywnych  gwiazd,  które  przeszły  stadium  supernowe j.  Chociaż 

gwiazdy  neutronowe  mają  zwykle  masę  nieco  większą  niż  Słońce,  są  tak  ściśnięte,  że  ich 

średnica  nie jest większa od Manhattanu! Jeszcze raz twórcy Star  Trek przeszli sami siebie w 

kwestii  nazewnictwa.  Enterprise  kilkakrotnie  znajduje  materię,  która  została  wyrzucona  z 

gwiazdy  neutronowej,  a  którą  scenarzyści  określają  mianem  „neutronium”.  Jest  to  właściwa 

nazwa,  gdyż  gwiazdy  neutronowe składają się  niemal  wyłącznie  z  neutronów przylegających 

tak ściśle do siebie,  że tworzą  w  zasadzie jedno wielkie jądro atomowe. Maszyna  Dnia Sądu 

Ostatecznego - w odcinku o tej samej nazwie - miała być zbudowana z czystego neutronium i 

dlatego  mogłaby  pozostawać  niewrażliwa  na  broń  Federacji.  Aby  jednak  materia  ta  była 

stabilna,  musi  się  ona  znajdować  pod  niezwykle  wysokim  ciśnieniem,  wytworzonym  przez 

przyciąganie  grawitacyjne  kuli  o  masie  gwiazdy  i  promieniu  zaledwie  15  kilometrów.  W 

rzeczywistym świecie taka materia może istnieć tylko jako część gwiazdy neutronowej.  

Enterprise  kilka  razy  znajdował  się  w  pobliżu  gwiazd  neutronowych.  W  odcinku 

Ewolucja,  w  chwili  gdy  Nanici  zaczęli  zjadać  komputery  statku,  załoga  zajmowała  się 

właśnie  badaniem  mającej  wkrótce  wybuchnąć  gwiazdy  neutronowej.  W  odcinku 

Społeczeństwo  doskonałe  statek  musi  odchylić  tor  fragmentu  jądra  gwiazdy,  lecącego  w 

background image

kierunku Moabu IV. 

Nie  ma  wątpliwości,  że  w  naszej  Galaktyce  istnieją  miliony  gwiazd  neutronowych. 

Większość  z  nich  rodzi  się  z  niewiarygodnie  dużymi  polami  magnetycznymi.  Gdy  takie 

gwiazdy szybko się obracają, stają się wspaniałymi radiolatarniami. Każdy ich biegun emituje 

promieniowanie  i  jeśli  kierunek  pola  magnetycznego  jest  nachylony  względem  osi  obrotu, 

powstaje  omiatająca  przestrzeń  wiązka  fal  radiowych.  Takie  periodyczne  sygnały  radiowe 

możemy rejestrować na Ziemi, a ich źródła nazywamy pulsarami. Obracając się gwiazdy te są 

najlepszymi  zegarami  we  Wszechświecie.  Sygnały  pulsarów  mogą  odmierzać  czas  z 

dokładnością  większą  niż  jedna  mikrosekunda  na  rok.  Niektóre  pulsary  wysyłają  więcej  niż 

1000  impulsów  na  sekundę.  Oznacza  to,  że  obiekt  będący  w  zasadzie  olbrzymim  jądrem 

atomowym o  masie Słońca  i średnicy 10-20 kilometrów obraca się ponad tysiąc razy w ciągu 

sekundy.  Trudno  to  sobie  nawet  wyobrazić.  Prędkość  obrotu  na  powierzchni  gwiazdy 

neutronowej  równa  jest  zatem  prawie  połowie  prędkości  światła!  Pulsary  udowadniają,  że 

natura  potrafi  stworzyć  obiekty  bardziej  niezwykłe,  niż  mógłby  wymyślić  jakikolwiek 

scenarzysta Star Trek. 

INNE WYMIARY.  Gdy James  T. Kirk  na przemian  zanurza się  i  wynurza  z  naszego 

Wszechświata  w  odcinku  Sieć  tholionsko,  dowiadujemy  się,  że  przyczyną  tego  jest 

„przestrzenna  granica  faz”,  łącząca  płaszczyzny  o  różnej  liczbie  wymiarów,  które  w 

normalnych  warunkach  są  „wszechświatami  równoległymi”.  Kirk  już  wcześniej  miał 

dwukrotnie  do  czynienia  z  wszechświatami  równoległymi:  jeden  z  nich  był  zbudowany  z 

antymaterii  (w  odcinku  Czynnik  alternatywny),  a  do  drugiego  dostał  się  za  pomocą 

transportera  (w  odcinku  Lustro,  lustro).  W  serii  Następne  pokolenie  spotykamy  się  z 

kontinuum Q,  nieliniowym czasowym  „oknem do  innych wymiarów” drą Paula Manheima  i, 

oczywiście,  samą  podprzestrzenią,  zawierającą  nieskończoną  liczbę  wymiarów,  gdzie  mogą 

ukrywać się obce istoty, takie jak te, które porwały porucznika Rikera w odcinku Rozłamy.  

Przypuszczenie,  że  cztery  wymiary  przestrzeni  i  czasu,  w  których  żyjemy,  nie  są 

wszystkim,  co  istnieje,  jest  trwałym  składnikiem  potocznej  świadomości.  Niedawno 

psychiatra  z  Harvardu  napisał  książkę,  która  odniosła  sukces  (przysparzając  mu  zresztą 

kłopotów  na  tamtejszym  Wydziale  Medycyny),  poświęconą  badaniom  pacjentów,  którzy 

twierdzili, że zostali porwani przez obcych. Pytając, skąd pochodzą ci obcy i jak się tu dostali, 

sugerował, że odpowiedź brzmi: „Z innego wymiaru”. 

U korzeni  tego  romansu  z  wyższymi  wymiarami  leży  niewątpliwie szczególna teoria 

względności.  Gdy  Hermann  Minkowski  połączył  trójwymiarową  przestrzeń  i  czas,  tworząc 

czterowymiarową  czasoprzestrzeń,  przypuszczenie,  że  proces  ten  można  kontynuować, 

background image

wydawało  się  naturalne.  Co  więcej,  gdy  ogólna  teoria  względności  pokazała,  że  to,  co  

postrzegamy jako siłę  grawitacji,  może  wiązać się  z krzywizną czasoprzestrzeni,  nie było już 

nic oburzającego w  hipotezie,  że pozostałe siły  są  wynikiem  zakrzywienia  w  innych jeszcze 

wymiarach. 

Jako  jeden  z  pierwszych  rozważał  ten  pomysł  w  1919  roku  fizyk  polskiego 

pochodzenia,  Theodor  Kałuża;  niezależnie  od  niego  uczynił  to  w  1926  roku  szwedzki  fizyk 

Oskar  Klein.  Zaproponowali  oni  zjednoczenie  elektromagnetyzmu  i  grawitacji  w 

pięciowymiarowym  świecie.  Może  siła  elektromagnetyczna  jest  związana  z  pewnym 

„zakrzywieniem”  w  piątym  wymiarze,  tak  jak  siła  grawitacji  to  wynik  zakrzywienia 

czterowymiarowej  czasoprzestrzeni?  Ten  bardzo  piękny  pomysł  nie  jest  wolny  od 

problemów.  Każdy  scenariusz,  który  wprowadza  dodatkowe  wymiary  we  Wszechświecie, 

powinien  wyjaśniać,  dlaczego  nie  doświadczamy  tych  wymiarów  tak,  jak  doświadczamy 

przestrzeni  i  czasu.  Odpowiedź  na  to  pytanie  ma  wielkie  znaczenie,  ponieważ  pojawia  się 

wielokrotnie,  gdy  fizycy  rozważają  możliwość  istnienia  wyższych  wymiarów  we 

Wszechświecie. 

Wyobraźmy  sobie  cylinder  i  poruszającego  się  po  nim  inteligentnego  robaczka. 

Dopóki obwód cylindra jest duży w porównaniu z rozmiarem robaczka, może on wędrować w 

obu  wymiarach  i  będzie  mu  się  zdawało,  że  przemieszcza  się  po  dwuwymiarowej 

powierzchni. 

Jeśli  jednak  obwód  cylindra  stanie  się  bardzo  mały,  robaczek  będzie  się  poruszał  po 

obiekcie jednowymiarowym - to znaczy po linie lub strunie - tylko w górę lub w dół: 

Zastanówmy się teraz, w jaki sposób robaczek mógłby dowiedzieć się, że istnieje inny 

wymiar,  odpowiadający  obwodowi  cylindra.  Za  pomocą  mikroskopu  mógłby  określić 

szerokość  „struny”.  Długość  fali  promieniowania  potrzebnego  do  wykrycia  tak  małych 

rozmiarów  musiałaby  dorównać  średnicy  cylindra  lub  być  mniejsza,  ponieważ,  jak 

zauważyłem w rozdziale 

 

background image

 

piątym,  fale rozpraszają się  tylko  na tych obiektach, których rozmiary są co  najmniej 

porównywalne  z  długością  fal.  Ponieważ  energia  promieniowania  rośnie,  gdy  długość  fali 

maleje, aby zobaczyć ten dodatkowy wymiar, potrzebna byłaby pewna minimalna energia. 

Gdyby  piąty  wymiar  był  w  jakiś  sposób  „zwinięty”  w  ciasny  okrąg,  dopóki  nie 

zogniskowalibyśmy  dużej  ilości  energii  na  małej  przestrzeni,  nie  moglibyśmy  wysyłać 

przezeń  fal,  umożliwiających  stwierdzenie,  że  istnieje,  i  świat  nadal  wydawałby  się  nam 

czterowymiarowy. Wiemy,  że przestrzeń jest  trójwymiarowa, ponieważ  możemy ją badać  za 

pomocą  fal rozchodzących się we wszystkich trzech  wymiarach.  Jeśli okazałoby się,  że  fale, 

które  chcemy  wysłać  do  piątego  wymiaru,  wymagają  znacznie  większych  energii,  niż 

potrafimy  wyprodukować  nawet  w  największych  akceleratorach,  nie  moglibyśmy 

doświadczać tego dodatkowego wymiaru. 

Teoria  Kaluzy-Kleina,  mimo  że  sama  w  sobie  interesująca,  nie  jest  kompletna.  Po 

pierwsze,  nie  wyjaśnia  ona,  dlaczego  piąty  wymiar  miałby  być  zwinięty  w  mały  okrąg.  Po 

drugie,  wiemy  obecnie  o  istnieniu  dwóch  innych,  poza  elektromagnetyzmem  i  grawitacją, 

podstawowych  oddziaływań  w  naturze  -silnych  i  słabych  oddziaływań  jądrowych.  Dlaczego 

mielibyśmy  się  zatrzymać  na  piątym  wymiarze?  Czy  nie  należałoby  włączyć  do  teorii 

wystarczającej  liczby  dodatkowych  wymiarów,  by  pomieścić  wszystkie  fundamentalne 

oddziaływania? 

Współczesna  fizyka  cząstek  poszła  tą  właśnie  drogą.  Badania  w  dziedzinie,  zwanej 

teorią  superstrun,  skupiały  się  początkowo  na  próbach  rozszerzenia  ogólnej  teorii 

względności, tak aby można było skonstruować spójną teorię kwantowej grawitacji. W końcu 

jednak powrócił problem zunifikowanej teorii wszystkich oddziaływań.  

Wspominałem  już  o  kłopotach  związanych  ze  stworzeniem  teorii,  w  której  ogólna 

teoria względności byłaby zgodna z mechaniką kwantową. Główną trudnością jest tutaj próba 

zrozumienia,  w jaki  sposób  należy  traktować kwantowe  fluktuacje czasoprzestrzeni. W teorii 

cząstek  elementarnych  kwantowe  wzbudzenia  pól  -  na  przykład  pola  elektrycznego  – 

przejawiają  się  jako  cząstki  elementarne,  czyli  kwanty.  Gdy  jednak  próbujemy  zrozumieć 

background image

kwantowe wzbudzenia pola  grawitacyjnego  -które w ogólnej teorii względności odpowiadają 

kwantowym  wzbudzeniom  czasoprzestrzeni  -  obliczenia  matematyczne  prowadzą  do 

absurdalnych przewidywań. 

Postęp, jaki dokonał się w teorii strun, polegał na wysunięciu hipotezy, że na poziomie 

mikroskopowym,  czyli  w  bardzo  małych  skalach  (bliskich  10~

33

  centymetra),  gdzie  efekty 

kwantowej  grawitacji  mogą  być  istotne,  to,  co  uważamy  za  punktowe  cząstki  elementarne, 

można w rzeczywistości opisać jako  wibrujące struny. Masa każdej cząstki odpowiadałaby w 

pewnym sensie energii drgań tych strun. 

Tę  raczej  dziwaczną  propozycję  wysunięto  dlatego,  że  w  latach  siedemdziesiątych 

odkryto,  iż  taka  teoria  wymaga  istnienia  cząstek  o  tych  samych  własnościach,  co  kwantowe 

wzbudzenia czasoprzestrzeni,  zwane  grawitonami. Ogólna teoria  względności byłaby więc w 

pewnym sensie zawarta w teorii strun w sposób zgodny z mechaniką kwantową. 

Kwantowa teoria strun nie może być jednak matematycznie spójna w czterech, pięciu, 

ani  nawet  w  sześciu  wymiarach.  Okazuje  się,  że  potrzeba  do  tego  albo  dziesięciu,  albo 

dwudziestu  sześciu  wymiarów!  Porucznik  Reginald  Barclay  -  gdy  na  chwilę  po  zderzeniu  z 

sondą cyteriańską osiągnął iloraz inteligencji równy 1200 - odbył nawet w holodeku poważną 

dyskusję  z  Albertem  Einsteinem  na  temat  tego,  która  z  tych  dwóch  możliwości  bardziej 

sprzyja włączeniu mechaniki kwantowej do teorii względności.  

Ów  nadmiar  wymiarów  może  się  wydawać  kłopotliwy,  ale  szybko  uświadomiono 

sobie,  że  otwiera  on  także  pewne  możliwości.  Niewykluczone,  że  wszystkie  fundamentalne 

oddziaływania w przyrodzie dałoby się włączyć do teorii  dziesięciu  lub  więcej  wymiarów,  z 

których  wszystkie,  z  wyjątkiem  znanych  nam  czterech,  zwijają  się  do  rozmiarów  Plancka 

(10

33

 centymetra) -jak przypuszczał porucznik Barclay - i są obecnie niewykrywalne. 

Niestety,  wielkie  nadzieje  okazały  się  płonne.  Nie  mamy  obecnie  pojęcia,  czy 

nieśmiałe  postulaty  teorii  strun  mogą  prowadzić  do  stworzenia  zunifikowanej  Teorii 

Wszystkiego. Podobnie jak w przypadku teorii Kaluzy-Kleina, nie jest jasne, dlaczego wyższe 

wymiary, jeśli istnieją, miałyby się zwijać, pozostawiając czterowymiarową czasoprzestrzeń.  

Morał  z  tej  opowieści  jest  następujący:  możliwe,  że  we  Wszechświecie  istnieją 

wyższe  wymiary.  Te  dodatkowe  wymiary  nie  mają  jednak  nic  wspólnego  z  przestrzeniami 

zamieszkiwanymi  przez  obce  istoty,  lubujące  się  w  porywaniu  pacjentów  oddziałów 

psychiatrycznych  (lub  na  przykład  komandora  Ri-kera).  Nie  są  one  „równoległymi 

wszechświatami”.  Nie  należy  ich  także  mieszać  z  czterema  wymiarami  czasoprzestrzeni, 

twierdząc,  że  możliwe  jest  przenoszenie  przedmiotów  z  jednego  miejsca  w  drugie  poprzez 

inny wymiar, na co wydaje się pozwalać „podprzestrzeń” we wszechświecie Stor Trek.  

background image

Nie  możemy  jednak  wykluczyć  istnienia  mikroskopowych,  czy  nawet 

makroskopowych  „pomostów” pomiędzy  innymi  (równoległymi)  wszechświatami, które bez 

nich  są  rozłączone.  W  ogólnej  teorii  względności  obszary  o  bardzo  dużej  krzywiźnie  -  we 

wnętrzu czarnej dziury lub w tunelu czasoprzestrzennym - mogą łączyć zwykle nie powiązane 

i  potencjalnie  bardzo  rozległe  obszary  czasoprzestrzeni.  Biorąc  pod  uwagę  obecny  obraz 

Wszechświata,  nie  widzę  powodu,  dla  którego  należałoby  spodziewać  się  występowania 

takich  zjawisk poza czarnymi dziurami  i tunelami czasoprzestrzennymi. Ponieważ  jednak  nie 

możemy  tego  wykluczyć,  powinniśmy  pogodzić  się  z  tym,  że  statki  Federacji  wciąż  je 

napotykają. 

ANYONY.  W  odcinku  Następna  faza  serii  Następne  pokolenie  w  wyniku 

jednoczesnego  działania  transportera  i  romulanskiego  urządzenia  maskującego,  które 

powoduje,  że  materia  jest  „niezgodna  w  fazie”  z  inną  materią,  Geordi  LaForge  i  Ro  Laren 

znikają. Uznani  za  zmarłych, pozostają  niewidoczni  i oddzieleni od świata aż do czasu,  gdy 

Data modyfikuje w innym celu „emiter anyonów” i w cudowny sposób „odfazowuje” ich.  

Jeśli twórcy Stor  Trek  nigdy  nie słyszeli  o anyonach  - a  założę się,  że tak było -  ich 

umiejętność dobierania  właściwych słów jest  naprawdę  niesamowita. Anyony to  teoretyczne 

twory,  które  wymyślił  i  nazwał  -  wraz  ze  swoimi  współpracownikami  mój  przyjaciel  Frank 

Wilczek,  fizyk  z Institute  for  Advanced Study w Princeton. Nawiasem  mówiąc,  wynalazł on 

również inną cząstkę - będącą być może składnikiem ciemnej materii -którą nazwał aksjonem 

-  od  nazwy  proszku  do  prania.  „Aksjonowe  układy  scalone”  również  pojawiają  się  w  Star 

Trek - jako część sieci neuronowej skomplikowanego urządzenia. Wróćmy jednak do tematu.  

W trójwymiarowej przestrzeni,  w której  żyjemy, cząstki elementarne określa się jako 

fermiony  lub  bozony,  w  zależności  od  ich  spinu.  Z  każdym  rodzajem  cząstki  elementarnej 

łączymy liczbę kwantową, która podaje wartość jej spinu. Liczba ta może być całkowita (O, l, 

2,...) lub połówkowa (1/2, 3/2, 5/2,...). Cząstki o spinie całkowitym  nazywamy bozonami, a o 

spinie  połówkowym  -  fermionamł.  Fermiony  zachowują  się  inaczej  niż  bozony:  kiedy 

zamienimy  miejscami  dwa  identyczne  fermiony,  funkcję  falową  opisującą  ich  własności 

należy  pomnożyć  przez  -l,  natomiast  gdy  zamieniamy  bozony,  z  funkcją  falową  nic  się  nie 

dzieje.  Zatem  dwa  fermiony nigdy nie  mogą  znajdować się w tym  samym  miejscu, ponieważ 

w  takim  przypadku  ich  zamiana  dałaby  konfigurację  identyczną,  ale  funkcję  falową 

należałoby  pomnożyć  przez  -l,  a  jedyną  wartością,  która  po  pomnożeniu  przez  -l  nie  ulega 

zmianie,  jest  O.  Funkcja  falowa  musi  więc  znikać.  Stąd  właśnie  bierze  się  słynny  zakaz 

Pauliego - pierwotnie stosowany do elektronu  - który  mówi,  że dwa  identyczne  fermiony  nie 

mogą zajmować tego samego stanu kwantowomechanicznego. 

background image

Okazuje  się,  że  jeśli  pozwolimy  cząstkom  poruszać  się  tylko  w  dwóch  wymiarach  - 

jak  są  do  tego  zmuszane  dwuwymiarowe  istoty  napotkane  przez  Enterprise  lub,  co  dla  nas 

istotniejsze,  jak  to  się  dzieje  w  rzeczywistym  świecie,  gdy  ustawienie  atomów  w  krysztale 

zmusza elektrony do poruszania się tylko w płaszczyźnie dwuwymiarowej - reguły mechaniki 

kwantowej,  znane  z  trójwymiarowej  przestrzeni,  ulegają  zmianie.  Spin  nie  jest  już 

skwantowany  i  jego  wartość  dla  danej  cząstki  może  być  dowolna.  Stąd  zamiast  fermionów 

czy bozonów  mamy  anyony (od ang. any -jakikolwiek).  Takie było pochodzenie tej  nazwy  i 

problemu, który badał Wilczek z innymi naukowcami. 

Wracając  do  scenarzystów  Star  Trele  to  zabawne,  że  liczba,  przez  którą  należy 

pomnożyć  funkcję  falową cząstek,  gdy się je  zamienia,  nazywana jest „fazą”. Funkcje  falowe 

fermionów  mnoży  się  przez  fazę  równą  -l,  natomiast  bozonów  przez  fazę  równą  l,  dzięki 

czemu  funkcje tych ostatnich  nie  ulegają  zmianie. Funkcje  falowe anyo nów  mnoży się przez 

kombinację  l  i  liczby  urojonej  (liczby  urojone  to pierwiastki kwadratowe  z  liczb  ujemnych), 

więc rzeczywiście anyony są  „niezgodne w  fazie”  z  normalnymi cząstkami. Czyż  nie  wynika 

stąd, że „emiter anyonów” mógłby zmieniać fazę? 

STRUNY  KOSMICZNE.  W  odcinku  pod  tytułem  Strata  serii  Następne  pokolenie 

załoga  Enterprise  spotyka  zagubione  dwuwymiarowe  istoty.  Żyją  one  na  „kawałku  struny 

kosmicznej”. W odcinku  tym  strunę opisuje się  jako  nieskończenie cienkie  włókno o bardzo 

dużej  sile  przyciągania  grawitacyjnego,  które  drga  z  charakterystycznymi  częstościami 

„podprzestrzennymi”. 

W  fizyce  struny  kosmiczne  pojawiły  się  jako  obiekty,  które  powstały  podczas 

przejścia fazowego w młodym Wszechświecie. Ostatnio mam okazję wiele słyszeć o strunach 

kosmicznych, gdyż na Wydziale Fizyki mojego uniwersytetu pojawił się jeden ze światowych 

ekspertów od  tych  teoretycznych obiektów. Ich własności pod pewnymi  względami  miałyby 

przypominać własności obiektu napotkanego przez Enterprise.  

W  czasie  przejścia  fazowego  -  na  przykład  gdy  woda  gotuje  się  lub  zamarza  - 

konfiguracja  cząstek  składających  się  na  daną  substancję  ulega  zmianie.  Zamarzając  woda 

tworzy  strukturę  krystaliczną.  Ustawione  w  różnych  kierunkach  kryształy  stopniowo  rosną  i 

spotykają  się,  wyznaczając  przypadkowe  linie,  które  układają  się  następnie  we  wzory  tak 

pięknie  wyglądające  zimą  na  okiennej  szybie.  Podczas  przejścia  fazowego  w  młodym 

Wszechświecie  zmienia się konfiguracja  materii, promieniowania  i pustej przestrzeni (która, 

przypominani,  może  również  zawierać  energię).  Czasami  w  trakcie  takich  przejść  fazowych 

różne obszary Wszechświata rozrastają się w różne konfiguracje. W miarę jak konfiguracje te 

rosną,  mogą  się  również  spotykać  -  czasem  w  jakimś  punkcie,  a  czasem  wzdłuż  linii, 

background image

zaznaczając  w  ten  sposób  granicę  między  tymi  obszarami.  W  owej  linii  granicznej  zostaje 

uwięziona energia i linia ta tworzy to, co nazywamy struną kosmiczną.  

Nie  mamy  pojęcia,  czy  struny  kosmiczne  rzeczywiście  powstały  we  wczesnym 

Wszechświecie,  ale  jeśli  tak  się  stało  i  jeśli  dotrwały  do  obecnych  czasów,  mogłyby 

wywoływać  niezwykłe efekty. Byłyby  nieskończenie cienkie  - cieńsze  niż średnica protonu - 

ale  miałyby  olbrzymią  gęstość,  sięgającą  nawet  miliona  milionów  ton  na  centymetr.  Struny 

mogłyby  układać się  w ogniska,  wokół których  zapadałaby się  materia, tworząc  na przykład 

galaktyki.  Mogłyby  również  „drgać”,  nie  emitując  jednak  fal  podprzestrzennych,  lecz 

grawitacyjne.  Dzięki  tym  falom  grawitacyjnym  można  by  nawet  wykryć  obecność  struny 

kosmicznej, zanim jeszcze udałoby sieją zaobserwować bezpośrednio. 

I na  tym koniec podobieństw strun  w  fizyce do strun  w Star  Trek. Zajmijmy  się teraz 

różnicami.  Dzięki  sposobowi,  w  jaki  powstają,  struny  kosmiczne  nie  mogą  istnieć  we 

fragmentach.  Mogą  pojawiać  się  jedynie  w  postaci  zamkniętych  pętli  lub  pojedynczych 

długich  włókien,  wijących  się  we Wszechświecie. Co  więcej,  mimo  ich olbrzymiej  gęstości, 

struny kosmiczne  nie oddziałują  grawitacyjnie  na oddalone od  nich obiekty. Działanie  nagłej 

siły  grawitacyjnej  odczujemy  tylko  wtedy,  gdy  struna  kosmiczna  będzie  nas  mijała.  Są  to 

jednak  dość  subtelne  kwestie  i  ogólnie  rzecz  biorąc  twórcy  Star  Trek  poradzili  sobie  ze 

strunami kosmicznymi całkiem nieźle. 

POMIARY KWANTOWE. W serii Następne pokolenie znalazł się wspaniały odcinek 

pod  tytułem  Wszechświaty  równolegle,  w  którym  Worf  przeskakuje  między  różnymi 

„rzeczywistościa-mi  kwantowymi”.  Odcinek  ten  porusza,  chociaż  niepoprawnie,  jeden  z 

najbardziej fascynujących aspektów mechaniki kwantowej: teorię pomiaru kwantowego.  

Ponieważ  nie  możemy  bezpośrednio  zaobserwować  zjawisk  kwantowych,  cały  nasz 

intuicyjny  fizyczny obraz Wszechświata  ma charakter klasyczny.  Gdy  mówimy o  mechanice 

kwantowej, posługujemy się w  zasadzie językiem  mechaniki klasycznej, próbując  wyjaśniać 

świat kwantowy za pomocą znajomych nam pojęć. Podejście to, które zwykle określa się jako 

„interpretację  mechaniki  kwantowej”  i  które  tak  fascynuje  filozofów  nauki,  jest  błędne. 

Naprawdę powinniśmy  się  zajmować  „interpretacją  mechaniki klasycznej”, to  znaczy tym, w 

jaki sposób klasyczny  świat, który widzimy - a który jest tylko przybliżeniem  leżącej  głębiej 

rzeczywistości  mającej  naturę  kwantową  -można  wyjaśnić,  posługując  się  odpowiednimi 

wielkościami kwantowymi. 

Jeśli  będziemy  się  upierać  przy  interpretacji  zjawisk  kwantowych  za  pomocą  pojęć 

klasycznych,  w  nieunikniony  sposób  niektóre  zjawiska  wydadzą  się  nam  paradoksalne  lub 

niemożliwe.  Tak  właśnie  powinno  być.  Mechanika  klasyczna  nie  może  poprawnie  wyjaśnić 

background image

zjawisk kwantowych, nie ma więc powodu, aby klasyczne opisy miały sens.  

Wyraziwszy  ten sprzeciw, dalej będę posługiwał się pojęciami  mechaniki klasycznej, 

ponieważ  tylko  takie  narzędzia  językowe  są  mi  dostępne.  Chociaż  do  opisu  mechaniki 

kwantowej  używam  narzędzi  matematycznych,  podobnie  jak  inni  fizycy  mogę  się  uciekać 

jedynie  do  klasycznego  obrazu,  ponieważ  moje  bezpośrednie  doświadczenie  ma  charakter 

klasyczny. 

Jak  już  wspominałem  w  rozdziale  piątym,  jedną  z  najbardziej  niezwykłych  cech 

mechaniki  kwantowej  jest  to,  że  nawet  jeśli  zaobserwujemy  pewną  cechę  obiektu,  nie 

możemy  stwierdzić,  czy  istniała  ona  na  chwilę  przed  obserwacją.  Sam  proces  obserwacji 

może  zmienić  charakter  rozważanego  układu  fizycznego.  Kompletny  opis  konfiguracji 

danego  układu w określonym czasie  zapewnia jego  funkcja  falowa  i  ewoluuje ona  zgodnie  z 

deterministycznymi  prawami  fizyki.  Sprawy  komplikuje  jednak  to,  że  funkcja  falowa  może 

obejmować dwie lub więcej wzajemnie rozłącznych konfiguracji w tym samym czasie.  

Gdy  na  przykład  cząstka  obraca  się  zgodnie  z  kierunkiem  ruchu  wskazówek  zegara, 

mówimy,  że  jej  spin  jest  skierowany  „w  górę”.  Gdy  obraca  się  w  kierunku  przeciwnym,  jej 

spin  skierowany  jest  „w  dół”.  Funkcja  falowa  tej  cząstki  może  zawierać  sumę  tych  dwóch 

stanów  o  równych  prawdopodobieństwach:  zarówno  spin  skierowany  w  górę,  jaki  i  spin 

skierowany  w dół.  Gdy  zmierzymy kierunek spinu, okaże się,  że  jest on  skierowany albo w 

górę,  albo  w  dół.  Kiedy  już  dokona  się  pomiaru,  funkcja  falowa  cząstki  będzie  od  tego 

momentu  zawierała tylko  zmierzony składnik. Jeśli pomiar  wykazał spin skierowany w  górę, 

taki sam wynik dadzą dla danej cząstki następne pomiary.  

Obraz  ten  stwarza  pewne  problemy.  Można  by  zapytać,  w  jaki  sposób  cząstka  może 

przed pomiarem  mieć spin skierowany  zarówno  w  górę, jak  i w dół. Prawidłowa odpowiedź 

brzmi, że nie ma żadnego z nich. Kierunek spinu był przed pomiarem nieokreślony. 

Owo dziwne zachowanie kwantowej funkcji falowej jest szczególnie niepokojące, gdy 

myślimy o istotach żywych. Przypomnijmy sobie na przykład słynny paradoks kota Schródin-

gera.  (Erwin  Schródłnger  był  jednym  z  tych  młodych  ludzi,  którzy  na  początku  naszego 

stulecia  przyczynili  się  do  odkrycia  praw  mechaniki  kwantowej.  Równanie  opisujące 

ewolucję  czasową  funkcji  falowej  nazywa  się  równaniem  Schrodingera).  Wyobraźmy  sobie 

pudełko, w którym siedzi kot. Wewnątrz pudełka znajduje się rewolwer wycelowany w kota i 

połączony z radioaktywnym źródłem. Możliwość rozpadu źródła w zadanym czasie określona 

jest przez pewne kwantowe prawdopodobieństwo. Gdy dojdzie do rozpadu, rewolwer wypali i 

zabije  kota.  Czy  funkcja  falowa  opisująca  kota  przed  otwarciem  pudełka  jest  liniową 

superpozycją  żywego  i  martwego  kota?  Brzmi  to  absurdalnie.  Podobnie  nasza  świadomość 

background image

jest  zawsze określona. Czy akt świadomości  jest pomiarem? Jeśli  tak,  można powiedzieć,  że 

w każdej chwili  istnieje  niezerowe kwantowe prawdopodobieństwo  zaistnienia kilku różnych 

zdarzeń  i  to  akt  naszej  świadomości  określa,  którego  ze  zdarzeń  doświadczamy. 

Rzeczywistość  ma więc  nieskończoną  liczbę odgałęzień. W każdej  chwili  nasza świadomość 

określa,  w  którym  odgałęzieniu  się  znajdujemy,  ale  a  priori  istnieje  nieskończona  liczba 

innych możliwości. 

Hipoteza  istnienia  „wielu  światów”  -  jedna  z  interpretacji  mechaniki  kwantowej, 

według  której  jest  możliwe,  że  w  jakimś  innym  odgałęzieniu  kwantowej  funkcji  falowej  to 

Stephen  Hawking  pisze  tę  książkę,  a  ja  przedmowę  -  stała  się  prawdopodobnie  przyczyną 

nieszczęścia  biednego  Worfa;  potwierdza  to  sam  Data.  Gdy  statek  Worfa  wędruje  przez 

„kwantową szczelinę w czasoprzestrzeni”, wysyłając jednocześnie  „sygnał podprzestrzenny”, 

granice  między  rzeczywistościami  kwantowymi  „załamują  się”  i  Worf  zaczyna  co  pewien 

czas przeskakiwać  z jednego odgałęzienia  funkcji  falowej do  innego, doświadczając  licznych 

alternatywnych  rzeczywistości  kwantowych.  Oczywiście  jest  to  niemożliwe,  ponieważ  w 

chwili  dokonania  pomiaru  cały  układ,  z  aparaturą  pomiarową  włącznie  (w  tym  przypadku  z 

Worfem),  ulega  zmianie. Gdy  Worf  raz już czegoś doświadczy,  nie  ma powrotu... czy raczej 

nie  ma  żadnych odgałęzień. Samo doświadczenie  wystarcza,  aby  ustalić  rzeczywistość.  Żąda 

tego natura mechaniki kwantowej.  

Jest  jeszcze  inna  cecha  mechaniki  kwantowej,  o  której  była  mowa  w  tym  samym 

odcinku. Załoga Enterprise odkrywa,  że Worf przybywa  z  innej  „rzeczywistości kwantowej”, 

stwierdzając,  iż  jego  „sygnatura  kwantowa  na  poziomie  atomowym”  różni  się  od 

wszystkiego,  co  istnieje  w  ich  świecie.  Według  Daty  ta  sygnatura  jest  niepowtarzalna  i  nie 

może ulec zmianie w wyniku żadnego procesu fizycznego. Mamy tu oczywiście do czynienia 

z  technicznym  pseudożargonem,  wiąże  się  on  jednak  z  pewną  inte resującą  cechą  mechaniki 

kwantowej.  Pełny  zbiór  wszystkich  możliwych  stanów  układu  nazywamy  przestrzenią 

Hilberta  -  od  nazwiska  Davida  Hilberta,  słynnego  matematyka  niemieckiego,  który  między 

innymi  był  bliski  stworzenia  przed  Einsteinem  ogólnej  teorii  względności.  Zdarza  się 

czasami,  że  przestrzeń  Hilberta  rozpada  się  na  oddzielne  obszary,  zwane  sektorami 

superwyboru. W takim przypadku żaden proces fizyczny nie może przenieść układu z jednego 

sektora  do  drugiego.  Każdy  sektor  określony  jest  przez  pewną  wie lkość  -  na  przykład 

całkowity  ładunek  elektryczny  układu.  Gdybyśmy  chcieli  wyrazić  się  bardziej  obrazowo, 

moglibyśmy  powiedzieć,  że  wielkość  ta  nadaje  temu  sektorowi  niepowtarzalną  „sygnaturę 

kwantową”,  ponieważ  wszystkie  lokalne  operacje  kwantowe  zachowują  ten  sam  sektor,  a 

zachowanie operacji  i  mierzalnych wielkości,  z którymi są  związane, jest określone przez tę 

background image

właśnie sygnaturę. 

Różne  odgałęzienia  funkcji  falowej  układu  muszą  się  jednak  znajdować  w  jednym 

sektorze superwyboru, ponieważ każde  z nich jest w zasadzie fizycznie dostępne. Niestety, w 

przypadku  Worfa,  nawet  gdyby  udało  mu  się  złamać  zasady  mechaniki  kwantowej, 

przeskakując  z jednego odgałęzienia do drugiego,  nie  istniałaby  żadna  zewnętrzna  mierzalna 

wielkość, która mogłaby dowieść prawdziwości jego relacji. 

Cały  problem  z  interpretacją  mechaniki  kwantowej  odwołującą  się  do  idei  wielu 

światów  (czy  z  jakąkolwiek  inną)  sprowadza  się  do  tego,  że  nigdy  nie  można  doświadczać 

więcej  niż  jednej  rzeczywistości  jednocześnie.  Na  szczęście,  także  inne  pra wa  fizyki  nie 

pozwalają,  by  pojawiły  się  miliony  statków  Enterprise  z  różnych  rzeczywistości,  jak  to  się 

dzieje  na  końcu  wspomnianego  odcinka.  Zapobiega  temu  chociażby  prosta  zasada 

zachowania energii - pojęcie najzupełniej klasyczne. 

SOLITONY.  W  odcinku  Nowa  ziemia  serii  Następne  pokolenie  załoga  Enterprise 

obserwuje  eksperyment  przeprowadzany  przez  drą  Ja'Dora  z  planety  Bilana  III.  W 

doświadczeniu  tym  używa  się  „fali  solitonowej”  -  nie  ulegającego  rozproszeniu  czoła  fali 

odkształcenia  podprzestrzennego  -  do  przyspieszania  prototypu  statku  do  prędkości 

czasoprzestrzennych  bez  użycia  napędu  czasoprzestrzennego.  Metoda  ta  wymaga,  aby  na 

końcu  podróży  znajdowała  się  planeta  wytwarzająca  pole,  na  którym  rozproszy  się  fala. 

Eksperyment  niemal  kończy  się  tragedią,  której  oczywiście  udaje  się  uniknąć  w  ostatniej 

chwili. 

Solitony  nie są wymysłem  twórców Star  Trek. Termin ten oznacza  tyle,  co  „samotne 

fale”,  i  odnosi  się  do  zjawiska  zaobserwowanego  po  raz  pierwszy  w  roku  1834  na  falach 

wodnych  przez  szkockiego  inżyniera  Johna  Scotta  Russella.  Prowadząc  własnym  sumptem 

badania  nad projektem barek rzecznych dla  Union Canal Society  w  Edynburgu,  zauważył on 

coś niezwykłego. Oto jego relacja: 

Obserwowałem  ruch  barki,  ciągniętej  z  dużą  szybkością  wzdłuż  wąskiego  kanału 

przez parę koni, gdy nagle barka się zatrzymała - cała zaś masa wody w kanale, wprawiona w 

ruch  przez  barkę,  nie  zatrzymała  się,  lecz  zgromadziła  w  pobliżu  dzioba  barki  w  formie 

burzliwego  kłębowiska,  a  potem  nagle  oddzieliła  się  i  potoczyła  bardzo  prędko  napr zód, 

przybierając  postać  samotnego  wzniesienia.  Był  to  zaokrąglony,  gładki  i  zdecydowanie 

wyróżniający  się  pagórek  na  powierzchni  wody,  który  poruszał  się  wzdłuż  kanału  pozornie 

bez  zmiany  kształtu  i  bez  utraty  prędkości.  Podążyłem  konno  jego  śladem  i  gdy  go 

dogoniłem, wciąż przetaczał się  naprzód  z prędkością ośmiu  lub dziewięciu  mil  na  godzinę, 

zachowując swój pierwotny kształt, długi  na  trzydzieści stóp  i  na stopę  lub półtorej wysoki. 

background image

Jego  wysokość  powoli  malała  i  po  mili  lub  dwóch  straciłem  go  z  oczu  wśród  zakrętów 

kanału.  W  ten  sposób  w  sierpniu  1834  roku  miałem  szczęście  napotkać  po  raz  pierwszy  to 

osobliwe i piękne zjawisko, które nazwałem falą przesuniętą. 

Później  Scott  Russell  ukuł  na  określenie  tego  cudu  termin  „samotna  fala”,  który 

utrzymał  się  do  dziś,  choć  solitony  pojawiły  się  w  wielu  różnych  działach  fizyki.  Według 

ogólnej  definicji,  solitony  są  nie  ulegającymi  rozproszeniu,  klasycznie  rozciągłymi,  ale 

skończonych  rozmiarów  obiektami,  które  mogą  przemieszczać  się  z  miejsca  na  miejsce.  Z 

tego właśnie powodu nie mogły się wydarzyć katastrofy, które napędzają akcję odcinka Nowa 

ziemia.  Po  pierwsze,  soliton  nie  „emitowałby  dużej  ilości  zakłóceń  radiowych”.  Gdyby  tak 

było,  rozpraszałby  swoją  energię.  Z  tej  samej  przyczyny  nie  mógłby  uzyskiwać  energii  czy 

zmieniać częstości. 

Zwykłe  fale  są  obiektami  rozciągłymi,  które  podróżując  tracą  swoją  energię.  Jednak 

klasyczne  siły  -  pochodzące  z  różnych  oddziaływań  w  przestrzeni,  zwanych  polami  - 

zazwyczaj  pozostawiają  solitony  w  stanie  nietkniętym,  tak  że  mogą  się  one  rozchodzić,  nie 

tracąc  energii  na  rzecz  ośrodka.  Ponieważ  są  one  kompletnymi  rozwiązaniami 

energetycznymi równań opisujących ruch, zachowują się w  zasadzie tak samo, jak  zwyczajne 

obiekty  -  na  przykład  cząstki  elementarne.  W  pewnych  matematycznych  modelach  silnych 

oddziaływań, które utrzymują razem kwarki, można traktować proton jako soliton, a wówczas 

wszyscy składamy  się  z solitonów! W  fizyce cząstek elementarnych  wymyślono  nowe pola, 

które  mogłyby  łączyć  się  w  „gwiazdy solitonowe” - obiekty o rozmiarach  gwiazd,  istniejące 

dzięki jednemu spójnemu polu. Obiektów takich nie  udało się jeszcze  zaobserwować, ale  ich 

istnienie jest prawdopodobne. 

KWAZARY.  W  odcinku  Pegaz  -  dowiadujemy  się  w  nim  o  Traktacie  Algońskim, 

który zakazuje Federacji używania urządzeń maskujących - mamy okazję zobaczyć Enterprise 

Picarda  w  trakcie  badania  kwazaru  Mecoria.  Wcześniej,  w  odcinku  Galileusz  siedem 

emitowanym  w pierwszej serii, dowiedzieliśmy się, że regulamin obowiązujący  na pokładzie 

Enterprise  nakazywał badanie  tych obiektów przy każdej  nadarzającej się okazji.  Jest  jednak 

mało  prawdopodobne,  aby  jakiś  statek,  podróżując  po  peryferiach  Galaktyki,  rzeczywiście 

napotkał  kwazar.  Sądzi  się  bowiem,  iż  kwazary  -  obiekty  o  największej  we  Wszechświecie 

energii  (emitują  one  tyle  energii,  co  całe  galaktyki,  choć  są  tak  małe,  że  nie  można  ich 

dokładnie  zbadać  nawet  za  pomocą  teleskopów)  -  są  olbrzymimi  czarnymi  dziurami  w 

centralnych częściach  niektórych  galaktyk  i dosłownie połykają  materię swoich  gospodarzy. 

Jest  to  jedyny  znany  nam  mechanizm,  który  mógłby  wyjaśniać  obserwowane  energie  i 

rozmiary  kwazarów.  Gdy  materia  wpada  do  czarnej  dziury,  wypromieniowuje  dużą  ilość 

background image

energii  (w  miarę  jak  traci  swoją  grawitacyjną  energię  potencjalną).  Jeśli  w  centralnych 

obszarach  niektórych  galaktyk  istnieją  czarne  dziury  o  masach  milion  czy  miliard  razy 

większych od masy Słońca, mogą one połykać całe układy gwiezdne. Z tego powodu kwazary 

są  często  częścią  tego,  co  nazywamy  aktywnymi  jądrami  galaktyk.  Dla  tej  samej  przyczyny 

odradzałbym bliskie spotkanie  z  jednym  z  takich obiektów,  gdyż  mogłoby się okazać  fatalne 

w skutkach. 

NEUTRINA. Neutrina są moimi ulubionymi cząstkami i dlatego ten temat zostawiłem 

sobie  na  koniec.  Stworzonkom  tym  poświęciłem  wiele  lat  mojej  pracy  naukowej,  tak  mało 

bowiem  o  nich  wiemy,  a  przecież  mogą  wiele  nas  nauczyć  o  strukturze  materii  i  naturze 

Wszechświata. 

Wielokrotnie  w  różnych  odcinkach  Stor  Trek  używa  się  neutrin  lub  mierzy  je  na 

pokładach statków kosmicznych.  Zwiększone odczyty  neutrin występują  na przykład  wted y, 

gdy  statki  przemierzają  bajorański  tunel  czasoprzestrzenny.  W  odcinku  Wróg  dowiadujemy 

się,  że  maska  Geordiego  LaForge'a  potrafi  wykrywać  neutrina,  gdy  dociera  do  niego  ich 

wiązka,  wysłana,  żeby  go  zlokalizować;  w ten sposób  można  go ewakuować  z  nieprzyjaznej 

planety.  W  odcinku  Koncentracja  sil  załoga  Enterprise  napotyka  „pole  neutrinowe”,  które 

zakłóca transport bezcielesnych, przestępczych form życia na pokład statku.  

Istnienie  neutrin  przewidziano  w  wyniku  niejasności  związanej  z  procesem  rozpadu 

neutronów. Neutrony są stabilne w jądrach atomowych,  lecz  w stanie  nie  związanym  ulegają 

rozpadowi  na  protony  i  elektrony  po  mniej  więcej  dziesięciu  minutach.  Z  zachowaniem 

ładunku  elektrycznego  w  takich  reakcjach  nie  ma  problemu,  ponieważ  neutron  jest 

elektrycznie  obojętny,  natomiast  proton  ma  ładunek  dodatni,  a  elektron  -ujemny,  przy  czym 

ich wartość bezwzględna jest taka sama. Masa protonu  i elektronu daje w sumie niemal  masę 

neutronu,  nie  zostaje  więc  wiele  energii  na  wytworzenie  innych  masywnych  cząstek  w  tym 

rozpadzie. 

Czasami  jednak obserwuje  się,  że proton  i elektron po rozpadzie  neutronu  wybiegają 

w  tym  samym  kierunku.  Jest  to  niemożliwe,  ponieważ  każda  wyemitowana  cząstka  niesie 

pęd. Jeśli  neutron  znajdował się  w spoczynku, jego pęd wynosił  zero, konieczne jest  więc w 

tym rozpadzie  wyemitowanie czegoś  jeszcze,  aby cząstka taka  mogła  unieść pęd w kierunku 

przeciwnym. 

Istnienie  takiej  hipotetycznej  cząstki  zaproponował  w  latach  trzydziestych  Wolfgang 

Pauli,  a  Enrico  Fermi  nazwał  ją  neutrinem  (czyli  małym  neutronem).  Wybrał  tę  nazwę 

dlatego,  że  cząstka  Pauliego  musiała  być  elektrycznie  obojętna,  aby  nie  została  naruszona 

zasada  zachowania  ładunku,  i  mieć bardzo  małą  masę,  aby  mogła powstać  nawet  z  niedużej 

background image

ilości energii dostępnej po wyemitowaniu protonu i elektronu. 

Jako  że  neutrina są elektrycznie obojętne  i  nie odczuwają silnych oddziaływań (które 

wiążą kwarki  i pomagają  utrzymać  jądro w całości), bardzo słabo oddziałują one  ze  zwykłą 

materią.  Ponieważ  jednak  neutrina  produkowane  są  w  reakcjach  jądrowych,  które  zachodzą 

we wnętrzu Słońca, są wszechobecne. W ciągu każdej sekundy każdego dnia każdy centymetr 

kwadratowy naszego ciała przeszywa sześćset miliardów neutrin pochodzących ze Słońca - ta 

nieustanna  inwazja  stała  się  nawet  inspiracją  wiersza  Johna  Updike'a.  Nie  zauważamy  tego 

ostrzału, ponieważ neutrina przenikają przez nasze ciała bez śladu. Średnio neutrina słoneczne 

musiałyby  przejść  przez  blok  materii  grubości  10  tysięcy  lat  świetlnych,  zanim  wywarłaby 

ona na nie jakikolwiek wpływ. 

Jeśli  rzeczywiście  tak  jest,  można  by  zapytać,  skąd  możemy  mieć  pewność,  że 

neutrina  istnieją.  Cóż,  wspaniałą  cechą  mechaniki  kwantowej  jest  to,  że  określa 

prawdopodobieństwa. Dlatego właśnie w poprzednim paragrafie użyłem określenia „średnio”. 

Chociaż  większość  neutrin  przebędzie  10  tysięcy  lat  świetlnych,  nie  oddziałując  z  materią, 

jeśli  będziemy  mieć  wystarczająco  dużo  neutrin  i  odpowiednio  grubą  tarczę,  możemy  się 

przekonać o ich istnieniu. 

Tę  zasadę  wykorzystali  po  raz  pierwszy  w  roku  1956  Frede-rick  Reines  i  Clyde 

Cowan, którzy  umieściwszy w pobliżu reaktora jądrowego kilkutonową tarczę, rzeczywiście 

zaobserwowali kilka  zdarzeń, świadczących o  istnieniu  neutrina.  To doświadczalne wykrycie 

neutrina  (a  właściwie  antyneutrina)  nastąpiło  ponad  20  lat  po  wysunięciu  hipote zy  przez 

Pauliego i długo po tym, jak większość fizyków ją zaakceptowała.  

Obecnie  używa  się  o  wiele  większych  detektorów.  Pierwsze  obserwacje  neutrin 

słonecznych  przeprowadził  w  latach  sześćdziesiątych  Ray  Davis  ze  swoimi 

współpracownikami,  używając  prawie  400  tysięcy  litrów  płynu  do  czyszczenia, 

umieszczonego  w  podziemnym  zbiorniku  w  kopalni  złota  Homestake  w  Południowej 

Dakocie. Średnio każdego dnia jedno  neutrino pochodzące  ze Słońca oddziaływało  z  jednym 

atomem chloru i zmieniało go w atom argonu. Eksperymentatorom należą się wyrazy uznania 

za  to,  że  potrafili  wykryć  zachodzącą  w  tak  wolnym  tempie  jądrową  alchemię.  Okazuje  się 

jednak, że tempo reakcji zmierzone przez ich detektor - i wszystkie następne detektory neutrin 

słonecznych -jest odmienne od przewidywanego.  Ta  tak  zwana  zagadka  neutrin słonecznych 

może sygnalizować potrzebę stworzenia nowej fizyki neutrin.  

Największy detektor  neutrin  na świecie buduje się obecnie w kopalni Kamiokande w 

Japonii.  Będzie on  zawierał 30 tysięcy  ton wody  i  zastąpi detektor  wykorzystujący 5 tysięcy 

ton,  za  pomocą  którego  udało  się  zarejestrować  pewną  ilość  neutrin  pochodzących  z 

background image

supernowej. Wybuch  ten  zaobserwowano  w 1987 roku w Wielkim Obłoku Magellana, który 

znajduje się ponad 150 tysięcy lat świetlnych od nas! 

W  ten  sposób  wracamy  do  punktu  wyjścia.  Neutrina  są  jednym  z  nowych  narzędzi, 

używanych  przez  fizyków  do  badania  Wszechświata.  Wykorzystując  każdy  możliwy  rodzaj 

detekcji  cząstki  elementarnej  oraz  konwencjonalne  detektory  elektromagnetyczne,  możemy 

odkryć  tajemnice  Galaktyki,  zanim  odważymy  się  wyruszyć  na  jej  podbój.  Wynalezienie 

detektora neutrin wielkości maski Geordiego byłoby w tym oczywiście bardzo pomocne! 

background image

ROZDZIAŁ  10 

KRAINA NIEMOŻLIWOŚCI: TO, CZEGO NIE DA SIĘ ODKRYĆ 

Geordi: Nagle prawa fizyki jakby wyskoczyły f rzeź okno. 

Q: Dlaczego nie miałyby tego zrobić? Są takie niewygodne! 

W odcinku Prawdziwy Q  

Bones, cha żebyś sprawdził także to, co niemożliwe. 

KIRK do McCoya w odcinku Nagi czas   

To, co opisujesz, to... niebyt ! 

KIRK do Spocka w odcinku Czynnik alternatywny 

 

 

Każdy rozsądny flzyktrekker zdaje sobie sprawę z tego, że Star Trek należy traktować 

z pewną dozą pobłażliwości. Zdarzały się jednak przypadki, gdy z takiego lub innego powodu 

twórcy  Stor  Trek  przekraczali  granicę  między  tym,  co  jest  po  prostu  niejasne  lub  mało 

prawdopodobne,  a  tym,  co  zupełnie  niemożliwe.  Wynajdywanie  w  każdym  odcinku 

niewielkich  nawet  uchybień  jest  popularną  rozrywką  trekkerów,  nie  tym  jednak  najbardziej 

rozkoszują  się  fizycy  i  studenci  fizyki.  W  czasie  obiadów  i  przerw  na  kawę  podczas 

zawodowych spotkań dyskutuje się najczęściej o naprawdę poważnych wpadkach.  

Trzeba jednak przyznać, że zdarza, się, iż okruch fizyki w serialu - nawet jeśli dotyczy 

niewielkiego epizodu - potrafi  następnego dnia  wywołać  żarliwą dyskusję.  Dobrze pamiętam 

dzień,  kiedy  mój  student  z  Yale  -  Martin  White,  który  obecnie  pracuje  na  Uniwersytecie  w 

Chicago  -  przyszedł  do  mojego  pokoju  zaraz  po  obejrzeniu  Stor  Trek  VI:  Nieznany  kraj. 

Myślałem,  że  będziemy  rozmawiać  o  fałach  grawitacyjnych  w  bardzo  młodym 

Wszechświecie.  Martin  zaczał  się  jednak  zachwycać  pewną  szczególną  sceną  z  filmu,  która 

nie  trwała  dłużej  niż  15  sekund.  Dwóch  ubranych  w  hełmy  zabójców  wchodzi  na  pokład 

statku  kanclerza  Gorkona  -  statek  został  unieruchomiony  za  pomocą  torped  fotonowych, 

wystrzelonych  z  Enterprise,  i dzięki temu  nie  ma  na  nim  grawitacji  -  i strzela do  wszystkich 

znajdujących się w  zasięgu wzroku,  łącznie  z Gorkonem. Szczególne wrażenie  na Martmie  i, 

ku  mojemu  zaskoczeniu,  na  wielu  innych  studentach  fizyki  oraz  pracownikach  wydziału 

wywarto  to,  że  krążące  po  statku  krople  krwi  miały  sferyczne  kształty.  Na  Ziemi  wszystkie 

krople  cieczy  są  wydłużone  z  powodu  wszechobecnej  siły  grawitacji.  W  obszarach  jej 

pozbawionych,  takich jak statek  Gorkona,  nawet  łzy byłyby  małymi kulkami. Fizycy wiedzą 

o  tym,  ale  rzadko  mają  okazję  to  zobaczyć.  Pracujący  nad  Star  Trek  fachowcy  od  efektów 

background image

specjalnych dostarczyli wielu fizykom sporej przyjemności. Wystarczy tak niewiele...  

Oczywiście  błędy  również  nas  poruszają.  Co  ciekawe,  najbardziej  chyba  pamiętny 

błąd w Star Trek nie dotyczył wcale fizyki. Doniósł mi o nim Steven Weinberg, fizyk cząstek 

elementarnych  (a  także  autor  książek  popularnonaukowych)  i  laureat  Nagrody  Nobla,  którą 

otrzymał  za  udział  w  stworzeniu  tego,  co  obecnie  nazywamy  modelem  standardowym 

oddziaływań  cząstek  elementarnych.  Ponieważ  wiedziałem,  że  wykonuje  on  najbardziej 

zawiłe  obliczenia  przy  włączonym  telewizorze,  napisałem  do  niego  i  zapytałem  o  refleksje 

związane  ze  Star  Trek.  Weinberg  odpowiedział,  że  głównymi  b łędami  popełnianymi  w  Stor 

Trek są błędy językowe. 

Znacznie  częściej  jednak  uwagę  fizyków  przykuwają  błędy  z  dziedziny,  którą 

uprawiają.  Dzieje się tak  zapewne dlatego,  że  te właśnie błędy  utwierdzają  w wielu  fizykach 

przekonanie,  iż  fizyka  jest  bardzo  oddalona  od  kultury  masowej;  nie  mówiąc  o  poczuciu 

wyższości, które dają nam żarty na temat absolwentów filologii piszących scenariusz. Trudno 

sobie wyobrazić, aby  w dużej produkcji  filmowej Napoleon  mówił po  niemiecku,  zamiast po 

francusku,  a  Deklaracja  Niepodległości  została  podpisana  w  XIX  wieku.  Kiedy  więc 

podobnego kalibru błędy  fizyczne  wkradają się do serialu, który  ma przecież  mieć charakter 

naukowy,  fizycy  przechodzą  do  ataku.  Byłem  zaskoczony,  gdy  się  dowiedziałem,  jak  wielu 

moich  szacownych  kolegów  -  Kip  Thome,  Weinberg,  Sheldon  Glashow,  nie  mówiąc  o 

Stephenie  Hawkingu,  najbardziej  chyba  znanym  fizyku-trekkerze  -  ogląda  serial  Star  Trek. 

Oto  lista  moich  ulubionych  pomyłek,  zebranych  w  trakcie  dyskusji  z  fizykami  oraz 

przesłanych  do  mnie  pocztą  elektroniczną  przez  licznych  trekkerów.  Starałem  się  skupić 

głównie (ale  nie  wyłącznie)  na  gafach dotyczących  „ziemskiej  fizyki”. Nie  zajmuję się  więc 

tutaj  takimi  częstymi  zarzutami,  jak  ten,  że  światło  gwiazd  się  rozmazuje,  gdy  mamy  do 

czynienia  z  prędkościami  czasoprzestrzennymi.  Nie  walczę  też  z  technicznym 

pseudożargonem  -  nieodpowiedzialnym  użyciem  terminologii  naukowej  i  pseudonaukowej, 

jaką  posługują  się  w  każdym  odcinku  scenarzyści,  aby  stworzyć  wrażenie  technologii 

przyszłości. Poza tym starałem się wybrać przykłady, o których nie było wcześniej mowy. 

„W  PRZESTRZENI  KOSMICZNEJ  NIKT  NIE  USŁYSZY  TWOJEGO  KRZYKU”. 

Zwiastun  Obcego  ujął  to  trafnie,  ale  w  serialu  Star  Trek  zwykle  popełnia  się  w  tej  kwestii 

błędy.  Fale  dźwiękowe  nie  rozchodzą  się  w  pustej  przestrzeni!  Gdy  jednak  wybucha  stacja 

kosmiczna  krążąca  wokół  planety  Tanuga  IV,  z  dogodnego  punktu  obserwacyjnego  na 

pokładzie  Enterprise  słyszymy  to  wydarzenie  tak  samo  dobrze,  jak  widzimy.  Co  gorsza, 

słyszymy  je  w  tej  samej  chwili,  w  której  je  widzimy.  Nawet  gdyby  fale  dźwiękowe  mogły 

rozchodzić  się  w  pustej  przestrzeni,  co  jest  niemożliwe,  prędkość  fali  ciśnienia,  takiej  jak 

background image

dźwięk,  jest  na  ogół  o  kilka  rzędów  wielkości  mniejsza  od  prędkości  światła.  Wystarczy 

wybrać się  na  mecz piłki  nożnej, aby się przekonać, że widzimy  zdarzenia, zanim  możemy je 

usłyszeć. 

Poglądowy eksperyment, który przeprowadza się  na szkolnych  lekcjach  fizyki, polega 

na umieszczeniu elektrycznego dzwonka pod szklanym kloszem i wypompowaniu spod niego 

powietrza.  Gdy  powietrze  zostanie  usunięte,  dzwonienie  zanika.  Już  w  XVII  wieku 

uświadomiono  sobie,  że  dźwięk  potrzebuje  jakiegoś  ośrodka,  aby  się  rozchodzić.  W  próżni, 

takiej jaka panuje  wewnątrz klosza,  nie  ma  nic, co  mogłoby przenosić  fale dźwiękowe,  więc 

nie  słyszymy  znajdującego  się  w  środku  dzwonka.  Mówiąc  dokładniej,  dźwięk  jest  falą 

ciśnienia, czyli  zaburzeniem, które przemieszcza się w  miarę  jak obszary ciśnienia  wyższego 

lub  niższego  niż  średnie  rozchodzą  się  w  ośrodku.  Gdy  wyeliminujemy  ośrodek,  nie  będzie 

ciśnienia, które  można by  zaburzać. Nawiasem  mówiąc, przykład  z kloszem  leżał  u podstaw 

tajemnicy,  o  której  wcześniej  wspomniałem,  a  która  miała  duże  znaczenie  w  historii  fizyki. 

Chociaż  nie słyszymy dzwonka, wciąż  go  widzimy! Jeśli więc światło  ma być  rodzajem  fali, 

w jakim to ośrodku, którego  nie  można  usunąć  wraz  z powietrzem, się ono porusza?  Był to 

jeden z głównych argumentów przemawiających za istnieniem eteru.  

Oglądając serial,  nigdy  nie  zwracałem  większej  uwagi  na obecność bądź  nieobecność 

dźwięku  w przestrzeni kosmicznej. Po tym jednak, jak Steven Weinberg  i kilka  innych osób 

wspomniało,  że  pamiętają  dźwięk  towarzyszący  wybuchom  w  Star  Trek,  zwróciłem  na  to 

uwagę przy okazji oglądanego właśnie odcinka pod tytułem Kwestia perspektywy, w którym 

wybucha  stacja  kosmiczna  krążąca  wokół  planety  Tanuga  IV.  I  oczywiście:  bum!  To  samo 

zdarzyło  się  w  następnym  odcinku  -  statek  przewożący  skradzione  z  Enterprise  kryształy 

trójlitu  z  wielkim  hukiem eksplodował w pobliżu planety Arkaria. Potem obejrzałem ostatni 

pełnometrażowy film Star Trek: Pokolenia, w którym nawet butelka szampana wydaje odgłos, 

gdy eksploduje w przestrzeni kosmicznej.  

Mark  Srednicki,  mój  kolega  fizyk  z  Uniwersytetu  Kalifornijskiego  w  Santa  Barbara, 

zwrócił  uwagę  na  o  wiele  poważniejszą  pomyłkę  w  pewnym  odcinku,  w  którym  fale 

dźwiękowe  wykorzystuje  się  jako  broń  przeciwko  statkowi  znajdującemu  się  na  orbicie. 

Jakby  tego  było  mało,  słyszymy,  że  fale  te  osiągają  liczbę  decybeli  równą  „18  do  potęgi 

dwunastej”.  Fizykowi  wielkość  ta  wydaje  się  szczególnie  duża,  ponieważ  ska la,  w  której 

natężenie  mierzy  się w decybelach, jest  logarytmiczna, podobnie jak skala  Richtera. Oznacza 

to,  że  liczba  decybeli  to  już  potęga  10,  a  wartości  znormalizowane  są  w  ten  sposób,  że  20 

decybeli  jest  10  razy  głośniejsze  od  10  decybeli,  a  30  decybeli  jeszcze  10  razy  głośniejsze. 

Zatem  18  do  potęgi  dwunastej  decybeli  to  10

1812

,  czyli  l  z  11  568  313  814  300  zerami  razy 

background image

głośniej niż samolot odrzutowy! 

SZYBCIEJ NIŻ FAZER. Do podróży z prędkościami ponad-świetlnymi musimy się w 

Star  Trek przyzwyczaić; ta  możliwość,  jak już  mówiłem,  wiąże się  z subtelnościami ogólnej 

teorii  względności  i  istnieniem  egzotycznych,  nowych  form  materii.  Dla  zwyczajnych 

obiektów  w  zwyczajnych  sytuacjach  prędkość  światła  jest  i  zawsze  będzie  nieprzekraczalną 

barierą. Czasami  zapomina  się o tym prostym  fakcie. W  zwariowanym odcinku pod  tytułem 

Mgnienie  oka  Skalozjanie  podstępnie  skłaniają  Kirka  do  wypicia  napoju,  który  przyspiesza 

wielokrotnie  jego ruchy. Dzięki  temu osiąga on szybkość ruchów Ska-lozjan  i  może  stać  się 

partnerem  ich  królowej  Deeli.  Skalozjanie  wiodą  superszybkie  życie,  w  związku  z  czym 

załoga  Enterprise  nie  potrafi  ich  dostrzec.  Zanim  jednak  Kirk  znajdzie  się  w  łożu  królowej, 

próbuje  zastrzelić  ją  z  fazera.  Ponieważ  królowa  potrafi  przemieszczać  się  w  mgnieniu  oka,  

przynajmniej z punktu widzenia ludzi, uchyla się z drogi promienia, zanim ten w nią trafi. Co 

mija się z prawdą w tej historii? Odpowiedź brzmi: wszystko! 

Kilku  trekkerów  zauważyło,  że  jeśli  Deela  może  się  poruszyć  w  czasie,  który 

wystarcza, by promień  fazera przebiegł pokój  z prędkością światła,  cała reszta  tego odcinka 

jest  niemożliwa. Prędkość światła wynosi 300  milionów  metrów  na sekundę.  Deela  znajduje 

się  w  odległości  około  metra  od  strzelającego  Kirka,  z  czego  wynika,  że  światło  będzie 

podróżowało przez około 1/300  milionowej sekundy.  Aby ten czas wydał się  Deeli sekundą, 

zegar  Skalozjan  musi  odmierzać  czas  300  milionów  razy  szybciej.  Jeśli  tak  jest,  trzysta 

milionów  sekund  dla  Skalozjan  trwa  około  jednej  sekundy  zwykłego  czasu  Enterprise. 

Niestety, trzysta milionów sekund to około 10 lat.  

Wybaczmy  twórcom  Star  Trek  ten  lapsus.  Pojawia  się  jednak  o  wiele  poważniejszy 

problem,  którego  nie  można  rozwiązać  i  na  który  natknęło  się  kilku  znanych  fizyków.  Z 

serialu dowiadujemy się, że fazery są bronią mogącą wysyłać ukierunkowaną energię; wiązka 

fazera  zatem  przemieszcza  się  z  prędkością  światła.  Niestety,  w  tym  miejscu  tkwi  pułapka. 

Jeśli  promień  fazera  składa  się  z  czystej  energii,  a  nie  z  cząstek,  jak  twierdzi  Instrukcja 

techniczna Star  Trek,  musi biec  z  prędkością światła. Niezależnie od tego, jak szybko  może 

się ktoś poruszać,  nawet jeśli robi  to 300  milionów razy szybciej  niż  zwykły człowiek,  nigdy 

nie  zdąży  się  usunąć  z  drogi  promienia  fazera.  Dlaczego?  Ponieważ  aby  się  dowiedzieć,  że 

zbliża  się  do  niego  wiązka,  musiałby  najpierw  zobaczyć  wystrzał  fazera.  Potrzebne  do  tego 

światło  porusza  się  jednak  z  tą  samą  prędkością,  co  wiązka.  Innymi  słowy,  nie  możesz  się 

dowiedzieć, że wiązka zmierza w Twoim kierunku, dopóki w Ciebie nie trafi! Dopóki wiązka 

fazera  jest  wiązką  energii,  nie  ma  przed  nią  ucieczki.  Podobny  problem  związany  z  próbą 

uniknięcia promienia fazera pojawia się w odcinku Bakteriofagi z serii Yoyager.  

background image

Czasami  to  jednak  krytycy  Stor  Trek  popełniają  błędy.  Powiedziano  mi  kiedyś,  że 

powinienem  zwrócić  uwagę na scenę w  filmie Pokolenia, kiedy gwiazda oświetlająca planetę 

znika  i w tym  samym  momencie planeta ciemnieje. Jest to oczywiście niemożliwe, ponieważ 

światło  potrzebuje  pewnego  skończonego  czasu,  aby  przebyć  drogę  od  gwiazdy  do  planety. 

Jeśli  zatem  wyłączymy  światło  gwiazdy,  obserwatorzy  na  planecie  przez  pewien  czas  nie 

będą o tym wiedzieli. W filmie Pokolenia jednak cały ten proces obserwuje się z powierzchni 

planety.  Z  tego  punktu  widzenia  powierzchnia  planety  powinna  pociemnieć  w  tej  samej  

chwili,  w  której  gwiazda  się  zapada.  Wynika  to  stąd,  że  zarówno  informacja  o  tym,  że 

gwiazda  się  zapadła,  jak  i  informacja o braku światła dotrą do planety w  tym  samym czasie: 

spóźnione,  ale  równoczesne!  Chociaż  ten  aspekt  zagadnienia  został  ukazany  popra wnie, 

scenarzyści  popełnili  błąd,  skracając  bardzo  czas  opóźnienia.  Dowiadujemy  się,  że  sonda 

mająca  zniszczyć  gwiazdę  dotrze  do  niej  w  ciągu  11  sekund  od  wystrzelenia  z  powierzchni 

planety. Sonda porusza  się  z prędkością podświetlną;  możemy być tego pewni, ponieważ do 

czasu,  gdy  mieszkańcy  planety  ujrzą  zapadającą  się  gwiazdę,  upływa  znacznie  mniej  niż  2 

razy po 11 sekund, co oznacza,  że podróż powrotna światła  musiała trwać o  wiele krócej  niż 

11 sekund.  Dla porównania,  Ziemia  znajduje się w odległości 8  minut  świetlnych do Słońca. 

Gdyby  Słońce  eksplodowało  w  tej  chwili,  dowiedzielibyśmy  się  o  tym  dopiero  za  8  minut. 

Trudno  uwierzyć,  żeby planeta klasy M  mogła  istnieć  w odległości 10  sekund świetlnych od 

spalającej wodór  gwiazdy, takiej jak Słońce. Jest to odległość tylko pięciokrotnie większa od 

rozmiarów Słońca - o wiele za blisko, by można było tam wygodnie żyć. 

TO  SCENARIUSZ  TRZESZCZY,  A  NIE  HORYZONT  ZDARZEŃ.  Chociaż 

obiecałem, że nie będę się zajmował technicznym pseudożargonem, nie mogę nie wspomnieć, 

że seria Voyager jest pod tym względem bezkonkurencyjna. Gdy Voyager próbuje dotrzeć do 

domu, podróżując w czasie z regularnością metra w godzinach szczytu, można usłyszeć każde 

żargonowe  wyrażenie  znane  współczesnej  fizyce.  Terminy  fizyczne  zwykle  jednak  coś 

znaczą,  więc  gdy  używa  się  ich  tylko  po  to,  by  pchnąć  akcję  do  przodu,  błędy  są 

nieuniknione.  W  rozdziale  trzecim  wspomniałem,  że  odgłos  towarzyszący  wyrwaniu  się  z 

horyzontu  zdarzeń  -  ratuje  to  Voyagera  w  nieudanym  odcinku  Bakteriofagi  -  brzmi  dla 

fizyków  szczególnie  niedorzecznie.  „Trzask”  horyzontu  zdarzeń  jest  mniej  więcej  tak  samo 

prawdopodobny, jak odcięcie jednego końca koła lub bycie trochę w ciąży. Horyzont zdarzeń 

wokół  czarnej  dziury  nie  jest  obiektem  fizycznym,  lecz  miejscem  określającym  obs zar,  w 

którym  wszystkie  tory  obiektów  pozostają  wewnątrz  czarnej  dziury.  To,  że  trajektoria 

jakiejkolwiek  cząstki,  ze  światłem  włącznie,  ulega  zakrzywieniu  w  kierunku  czarnej  dziury, 

gdy  znajdzie  się  wewnątrz  obszaru  o  pewnym  promieniu,  jest  własnością  zakrzywionej 

background image

przestrzeni. Albo  horyzont  zdarzeń  istnieje - a wtedy  istnieje także czarna dziura - albo  nie. 

Nie  istnieje  obszar  pośredni,  przez  który  mogłaby  się  prześlizgnąć  igła,  nie  mówiąc  o 

Voyagerze. 

CZY  MOŻNA  DOTKNĄĆ  DOKTORA?  Muszę  przyznać,  że  moim  ulubionym 

technicznym błędem  w serii Voyager jest  holograficzny doktor. W trakcie pewnej wspaniałej 

sceny pacjent pyta doktora, w jaki sposób  może on  go dotykać, skoro jest tylko hologramem. 

Dobre pytanie. W odpowiedzi doktor  wyłącza  „wiązkę  magnetycznie wiążącą”, aby pokazać, 

że  bez  niej  jest  równie  bezcielesny  jak  fatamorgana.  Później  rozkazuje,  aby  ponownie 

włączono  wiązkę,  gdyż  musi  dokończyć  badanie  pacjenta.  Jest  to  wspaniały  epizod,  ale, 

niestety,  nieprawdopodobny.  Jak  pisałem  w  rozdziale  szóstym,  magnetyczne  wiązanie  czyni 

cuda  w przypadku  naładowanych cząstek,  na które w stałym  polu  magnetycznym działa siła 

zmuszająca je do ruchu po orbitach kołowych. Światło nie  ma jednak  ładunku elektrycznego. 

W polu  magnetycznym  nie działa  na  nie  żadna siła. Hologram, a  zatem  i doktor, jest jedynie 

obrazem świetlnym. 

CO  JEST  BARDZIEJ  WRAŻLIWE:  TWOJE  RĘCE  CZY  TYŁEK?  ALBO: 

ZMIENIAĆ  CZY  NIE  ZMIENIAĆ  FAZY?  Twórcom  Star  Trek  udało  się  popełnić  kiedyś 

coś,  co  nazywam  haniebnym  błędem  ducha.  Mam  na  myśli  nakręcony  niedawno  film  pod 

tytułem  Uwierz  w  ducha,  w  którym  główny  bohater,  duch,  przechodzi  przez  ściany  i  nie 

potrafi  podnosić  przedmiotów,  ponieważ  jego  ręce  przenikają  przez  nie.  Kiedy  jednak  siada 

na krześle lub kanapie, w cudowny sposób jego pośladki znajdują wygodne oparcie. Podobnie 

ziemia  pod  jego  stopami  pozostaje  całkiem  twarda.  W  poprzednim  rozdziale  wspominałem, 

że  w  jednym  z  odcinków  Geordi  LaForge  i  Ro  Laren  byli  „niezgodni  w  fazie”  ze  zwykłą 

materią  dzięki  romulanskiemu  „generatorowi  interfazy”.  Ku  swojemu  zaskoczeniu 

odkrywają,  że  są  niewidzialni  ł  mogą przechodzić przez  ludzi  i ściany. Ro  zaczyna wierzyć, 

że  umarła  (może  w  młodości  widziała  w  jakimś  starym  kinie  powtórkę  Uwierz  w  ciucha). 

Geordi  i  Ro  mogą  jednak  bezkarnie  stać  na  podłodze  i  siedzieć  na  krzesłach.  Materia  jest 

materią, a krzesła  i podłogi  niczym się  nie różnią od ścian  i, o  ile wiem,  stopy  ł pośladki  nie 

są bardziej ani mniej cielesne niż ręce. 

Nawiasem  mówiąc, w tym samym odcinku był  jeszcze jeden słaby punkt, który  łamie 

spójność  wielu  innych  wydarzeń  w  serialu.  W  fizyce  dwa  przedmioty,  które  oddziałują  z 

czymś  trzecim,  zawsze  mogą  oddziaływać  ze  sobą.  Prowadzi  nas  to  z  powrotem  do 

pierwszego prawa Newtona. Jeśli  wywieram  na Ciebie siłę,  Ty działasz  na  mnie z siłą równą 

co  do  wartości  i  przeciwnie  skierowaną.  Jeśli  zatem  Geordi  i  Ro  mogli  obserwować 

Enterprise ze swojej nowej „fazy”, musieli oddziaływać ze światłem falą elektromagnetyczną. 

background image

Wystarczy  posłużyć  się  prawem  Newtona,  aby  stwierdzić,  że  oni  również  powinni  być 

widoczni. Szkło pozostaje niewidoczne, ponieważ nie pochłania  

widzialnego światła. Aby widzieć - to znaczy odczuwać światło -musisz je pochłaniać. 

Pochłaniając  je,  wywierasz  na  nie  wpływ.  A  skoro  tak,  musisz  być  widoczny  dla  kogoś 

innego.  Tak  samo  dzieje  się  w  przypadku  niewidzialnych  owadów  z  innej  fazy,  które 

zaatakowały  Enterprise,  przyczepiając  się  do  ciał  załogi  w  odcinku  Urojenia  serii  Następne 

pokolenie.  Siła,  która  pozwala  im  spoczywać  na  zwyczajnej  materii,  nie  przechodząc  przez 

nią,  to  właśnie  elektromagnetyzm  -  elektrostatyczne  odpychanie  między  naładowanymi 

cząstkami  wchodzącymi  w  skład  atomów  jednego  i  drugiego  ciała.  Jeśli  oddziałujesz 

elektromagnetycznie, jesteś częścią naszego świata. Coś za coś.  

WYLEWANIE  DZIECKA  Z  KĄPIELĄ.  W  odcinku  Kopalnia  serii  Następne 

pokolenie  statek  Enterprise  dokuje  w  Ciągu  Remmleranskim,  aby  poddać  się  „usuwaniu 

barionów”.  Wygląda  na  to,  że  te  cząstki  osadzają  się  na  konstrukcjach  statku  w  wyniku 

długotrwałej podróży  z prędkościami  czasoprzestrzennymi  i  muszą  zostać  usunięte. Podczas 

tego „odkurzania”  załoga  musi  się ewakuować, ponieważ  wiązka oczyszczająca jest zabójcza 

dla  żywej  tkanki.  Nie  da  się  jednak  ukryć,  że  jedynymi  stabilnymi  barionami  są  protony  i 

neutrony,  tworzące  jądra  atomowe.  Ponieważ  wszystko,  co  widzimy,  składa  się  z  tych 

cząstek, po usunięciu ich z Enterprise nie zostałoby ze statku zbyt wiele na następne odcinki.  

JAK  ZIMNE  MOŻE  BYĆ  ZIMNO?  Ulubiona  gafa  mojego  kolegi  i  wielbiciela  Star 

Trek, Chucka Rosenblatta, to ochładzanie przedmiotów do temperatury -295°C. Jest to bardzo 

ekscytujące  odkrycie,  ponieważ  w  skali  Celsjusza  absolutnemu  zeru  odpowiada  -273°.  Jak 

wynika  z  samej  nazwy,  zero  absolutne  to  najniższa  temperatura,  jaką  może  osiągnąć  ciało, 

gdyż  w  tej  temperaturze  ustają  wszelkie  ruchy  cząsteczkowe  i  atomowe,  drgania  i  obroty. 

Chociaż  osiągnięcie  tej  teoretycznej  granicy  jest  niemożliwe,  układy  atomowe  udało  się 

schłodzić do temperatury nie większej niż jedna milionowa stopnia powyżej zera absolutnego 

(ostatnio osiągnięto  nawet  temperaturę dwóch  miliardowych stopnia).  Temperatura  związana 

jest  z ruchami  cząsteczek  i atomów, a  nigdy  nie  można  mieć  mniej  niż  zero  ruchu.  A  zatem 

nawet za 400 lat absolutne zero ciągle będzie absolutne. 

WIDZIAŁEM ŚWIATŁO! Czuję się  nieco  zakłopotany,  gdyż  muszę przyznać,  że  na 

ten  oczywisty  błąd,  który  sam  powinienem  był  zauważyć,  zwrócił  mi  uwagę  student 

pierwszego roku fizyki, Ryan Smith, gdy podczas wykładu wspomniałem, iż piszę tę książkę. 

Za  każdym  razem,  gdy  Enterprise  wysyła  promień  fazera,  widzimy  go.  Oczywiście  jest  to 

niemożliwe, jeśli  fazer  nie emituje światła we wszystkich kierunkach. Światło  widoczne jest 

dopiero wtedy, gdy się od czegoś odbije. Każdy, kto kiedykolwiek uczestniczył w pokazie, na 

background image

którym prelegent posługiwał się  wskaźnikiem  laserowym -  zazwyczaj są  to czerwone  lasery 

helowo-neonowe  -  pamięta  zapewne,  że  widoczna  jest  tylko  plamka  w  miejscu,  gdzie 

promień  pada  na  ekran,  nie  widać  natomiast  nic  pomiędzy  wskaźnikiem  a  ekranem.  Cały 

promień  można dostrzec  tylko  wówczas,  gdy  w pomieszczeniu rozpyli się kurz,  na przykład 

uderzając  o  siebie  dwie  suche  gąbki  do  wycierania  tablicy.  (Warto  tego  spróbować  -  widok 

jest  rzeczywiście  niezwykły).  Podczas  widowisk  laserowych  światło  przepuszcza  się  przez 

dym  lub  wodę.  Jeśli  zatem  pusta  przestrzeń  nie  jest  szczególnie  zapylona,  nie  powinniśmy 

zobaczyć promienia fazera aż do momentu, gdy dotrze on do celu.  

ASTRONOMOWIE  SĄ  WYBREDNI.  Nie  powinno  nas  dziwić,  że  wielu  ludzi 

znajduje  w  serialu  błędy  fizyczne  związane  z  ich  własnym  obszarem  zainteresowań.  Gdy 

pytałem  różne  osoby  o  przykłady,  po  odpowiedziach  można  było  odgadnąć,  czym  się 

zajmują.  Za  pomocą  poczty  elektronicznej  otrzymałem  kilka  sugestii  od  astronomów-

trekkerów, którzy  zauważyli  niektóre subtelne błędy w Stor  Trek. Pewien  student astronomii 

wykazał,  że  mimo  dużego  wysiłku  scenarzystów,  by  wykorzystać  nieco  prawdziwej 

astronomii,  rezultat  rozminął  się  z  prawdą.  Żywiąca  się  energią  forma  życia  w  odcinku 

Dziecko  galaktyki okazuje się  młodą  istotą, która bierze  Enterprise  za swoją  matkę  i  zaczyna 

wysysać  jego  energię.  LaForge  w  samą  porę  wpada  na  pomysł,  w  jaki  sposób  pozbyć  się 

„dziecka”. Reaguje ono na promieniowanie o długości  fali 21 centymetrów, emitowane przez 

Enterprise.  Zmieniając  częstość  emisji,  załoga  psuje  „mleko”  i  „dziecko”  daje  za  wygraną. 

Odcinek  ten  jest  interesujący,  choć  zawiera  błąd.  Scenarzyści  chcieli  wykorzystać  to,  że 

promieniowanie  o  długości  21  centymetrów  jest  najpowszechniejszym  promieniowaniem 

emitowanym przez wodór; astronomowie posługują się nim do stworzenia map występowania 

gazu  międzygwiazdowego  (wspomniałem  o  tym  w  rozdziale  ósmym).  Scenarzyści  przyjęli 

jednak,  że  wszystko,  łącznie  z  Enterprise,  emituje  takie  promieniowanie.  Tymczasem 

przejście atomowe w wodorze, odpowiedzialne za to promieniowanie, jest niezwykle rzadkie: 

konkretny atom w przestrzeni  międzygwiazdowej  może  wysłać  falę o takiej długości średnio 

tylko  raz  na  400  lat.  Ponieważ  jednak  Wszechświat  jest  wypełniony  wodorem, 

promieniowanie  to  jest  wystarczająco  silne,  aby  można  je  było  wykryć  na  Ziemi.  W  tym 

przypadku  oceniłbym  więc  wysiłki  scenarzystów  na  6  i  obniżył  tę  ocenę  na  5+  za  złą 

interpretację; uchodzę jednak za pobłażliwego egzaminatora. 

Pewien pracownik NASA  zwrócił  mi  uwagę  na błąd, którego sam  nie  zauważyłem, a 

który  ktoś  pracujący  dla  NASA  powinien  wychwycić.  Standardowym  sposobem  poruszania 

się statków kosmicznych jest okrążanie planet po orbitach geostacjonarnych  - okres orbitalny 

statku  jest  wtedy  taki  sam  jak  okres  obrotu  planety  wokół  osi.  Statek  powinien  się  więc 

background image

znajdować  cały  czas  nad  tym  samym  miejscem  na  powierzchni  planety,  jak  w  przypadku 

satelitów  meteorologicznych, krążących  wokół  Ziemi.  Gdy jednak Enterprise obiega planetę, 

zazwyczaj pokazane jest,  że porusza się  na tle jej powierzchni. A  jeśli  nie  znajduje  się on  na 

orbicie  geostacjonarnej,  pojawiają  się  poważne  problemy  z  przesyłaniem  za  pomocą 

transportera. 

TE  PRZEKLĘTE  NEUTRINA.  Muszę  chyba  jeszcze  raz  powrócić  do  neutrin. 

Ponieważ  niewiele dotąd pisałem o serii Stacja kosmiczna, wspomnę przynajmniej o błędzie, 

o  którym  powiedział  mi  David  Brahm,  jeszcze  jeden  fizyk-trekker.  W  jednym  z  odcinków 

Quark 

dysponuje 

urządzeniem, 

które 

swoim 

otoczeniu 

zmienia 

prawa 

prawdopodobieństwa. Można sobie wyobrazić, jak użyteczne byłoby ono przy jego stołach do 

gry,  dając  mu  przewagę;  tej  pokusie  jako  Fereng  nie  mógłby  się  oprzeć.  Podstęp  odkrywa 

jednak  Dax,  która  przypadkowo  analizuje  strumień  neutrin  przepływający  przez  stację.  Ku 

swojemu  zaskoczeniu  zauważa  ona,  że  wszystkie  neutrina  są  lewo-skrętne  -  to  znaczy 

wszystkie  obracają  się  w  jednym  kierunku  względem  swojego  ruchu.  Coś  musi  być  nie  w 

porządku! Wygląda na to, że brakuje neutrin obracających się w przeciwnym kierunku! 

Niestety,  ze  wszystkich  zjawisk, jakimi  mogli posłużyć się scenarzyści Star  Trek, aby 

zdemaskować  oszustwa  Quarka,  wybrali  wariant,  który  jest  zawsze  prawdziwy.  O  ile  nam 

wiadomo,  neutrina  są  tylko  lewoskrętne!  To  jedyne  znane  nam  cząstki  w  przyrodzie,  które 

mogą  istnieć tylko w  jednym stanie spinu. A  zatem  na podstawie wyników swej analizy  Dax 

miałaby wszelkie powody, aby wierzyć, że wszystko jest w porządku. 

Przykład  ten  jest bardzo przewrotny, przynajmniej dla  mnie,  z  tego  samego powodu, 

dla  którego  fizyka  świata  Star  Trek  jest  tak  ciekawa:  czasem  prawda  jest  dziwniejsza  od 

fikcji. 

background image

EPILOG 

 

I  to  by  było  wszystko,  jeśli  chodzi  o  błędy  i  fizykę.  Jeżeli  nie  wymieniłem  Twojego 

ulubionego błędu w serialu lub nie nawiązałem do Twojej ulubionej dziedziny fizyki, możesz 

przesłać  swe  uwagi  memu  wydawcy.  Jeśli  uzbiera  się  ich  wystarczająco  dużo,  pomyślimy, 

podobnie jak w przypadku serialu Stor  Trek,  o dalszym ciągu. Mam  już  nawet  tytuł: Fizyka 

podróży międzygwiezdnych II: Gniew Kraussa. 

Zakończenie książki  rozdziałem  na  temat  naukowych  nieścisłości w  serialu  nie  miało 

na  celu  przesadnego  karcenia  twórców  Stor  Trek.  Chciałem  raczej  pokazać,  że  podczas 

oglądania  serialu  można  się  dobrze  bawić  na  wiele  sposobów.  Jestem  pewien,  że  dopóki 

emitowany  będzie  serial  Star  Trek,  coraz  to  nowe  fizyczne  fawc  pas  będą  dostarczać 

wszystkim  trekkerom - od uczniów szkół średnich do profesorów  uniwersytetu  - tematów do 

rozmów.  A  dla  scenarzystów  i  producentów  wyzwaniem  będzie  nadążanie  za  wciąż 

poszerzającym swe horyzonty światem fizyki. 

Zakończę  tę  książkę  tam,  gdzie  ją  zacząłem:  mówiąc  nie  o  błędach,  lecz  o 

możliwościach.  Naszą  kulturę  ukształtowały  cuda  współczesnej  fizyki  -  do  współczesnych 

zaliczam  tutaj  Galileusza  i  Newtona  -  na  równi  z  każdym  innym  wysiłkiem  intelektualnym 

ludzkości.  Obecnie  tak  się  nieszczęśliwie  składa,  że  nauka  uważana  jest  niesłusznie  za  coś 

odrębnego  od  kultury,  lecz  w  rzeczywistości  jest  ona  żywą  częścią  składową  naszej 

cywilizacji.  Wyniki  badań  nad  Wszechświatem  to  najbardziej  godne  uwagi  odkrycia 

ludzkiego intelektu i szkoda, że 

nie  dzieli  ich  z  nami  publiczność  tak  szeroka,  jak  w  przypadku  dzieł  wielkiej 

literatury, malarstwa czy muzyki.  

Podkreślając  potencjalną  rolę  nauki  w  rozwoju  rodzaju  ludzkiego,  Star  Trek  w 

zabawny  sposób  ukazuje  silny  związek  między  nauką  i  kulturą.  Kilkakrotnie  wyrażałem 

opinię,  że  nauka  XXIII  stulecia  w  bardzo  małym  stopniu  ma  szansę  przypominać  wytwory 

wyobraźni  scenarzystów  Star  Trek;  przypuszczam,  że  może  okazać  się  jeszcze  wspanialsza. 

W  każdym  razie  jestem  przekonany,  że  fizyka  dnia  dzisiejszego  i  jutra  z  pewnością  określi 

charakter  naszej  przyszłości,  podobnie  jak  fizyka  Newtona  i  Galileusza  ubarwia  nasze 

istnienie  w  chwili  obecnej.  Zostałem  naukowcem  po  części  dlatego,  że  wierzyłem,  iż  nasz 

gatunek  obdarzony  jest  potencjałem,  który  jeszcze  przez  długi  czas  będzie  umożliwiał 

odkrywanie  cudów  Wszechświata.  Podobny  duch  ożywia  serial  Stor  Trek.  Niech  ostatnie 

słowo  należy  do  Gene'a  Roddenberry'ego.  Przy  okazji  dwudziestopięciole-cia  serialu  Star 

background image

Trek, na rok przed swoją śmiercią, powiedział on: „Człowiek jest niezwykłym stworzeniem o 

olbrzymim  potencjale  i  mam  nadzieję,  że  Star  Trek  pomógł  nam  uświadomić  sobie,  jac y 

możemy być, jeśli będziemy wierzyć w siebie i w swoje możliwości”.  

background image

PODZIĘKOWANIA 

 

Pozostaję  dłużnikiem  wielu  osób,  które  przyczyniły  się  do  powstania  tej  książki. 

Jestem  wdzięczny kolegom  fizykom, którzy niezawodnie odpowiadali na prośby o pomoc. W 

szczególności  dziękuję  Stephenowi  Hawkingowi  za  natychmiastową  zgodę  na  napisanie 

przedmowy oraz Stevenowi Wein-bergowi, Sheldonowi  Glashowowi  i Kipowi  Thorne'owi  za 

podzielenie  się  ze  mną  swoimi  przemyśleniami  na  temat  serialu  Star  Trek.  John  Peoples, 

dyrektor  Narodowego  Laboratorium  Akceleratorowego  im.  Enrico  Fermiego,  umożliwił  mi 

opisanie  sposobu  produkcji  i  przechowywania  antymaterii  w  Fermila-bie.  Szczególnie 

dziękuję Judy  Jackson  z administracji Fermi-labu  za pomoc  i  zdjęcia oraz  mojemu koledze  z 

Case Western  Reserve University, Cyrusowi  Taylorowi, który obecnie pracuje  w Fermilabie, 

za  udzielenie odpowiedzi  na różne pytania  natury technicznej. Paul Horowitz  z Uniwersytetu 

Harvarda odpowiedział  na  moją prośbę o  informacje  na  temat programów SETI oraz META, 

które prowadził; otworzył przede mną prawdziwą skarbnicę wiadomości na temat poszukiwań 

cywilizacji  pozaziemskich  oraz  dostarczył  zdjęcia  ilustrujące  te  badania.  George'owi 

Smootowi  zawdzięczam  wspaniałe  zdjęcie  naszej  Galaktyki,  wykonane  przez  COBE,  a 

Philipowi Taylorowi źródło cytatu dotyczącego solitonów. 

Wielu  flzyków-trekkerów  podzieliło  się  ze  mną  swoimi  przemyśleniami  na  temat 

praw  fizyki  w  świecie  Star  Trek.  Szczególnie  jestem  wdzięczny:  Markowi  Srednickiemu, 

Martinowi Whi-te'owi, Chuckowi Rosenblattowi i Davidowi Brahmowi za 

wskazanie  użytecznych  przykładów  z  serialu.  Chciałbym  również  podziękować 

trekkerom, którzy odpowiedzieli  na  moje pytanie (przesłane pocztą elektroniczną) o ulubione 

zagadnienia fizyczne i najciekawsze pomyłki, a zwłaszcza: Scottowi Specko-wi, „Westy'emu” 

z  NASA,  T.  J.  Goldstelnowi,  Denysowi  Proteau  i  J.  Dildayowi  -  za  utwierdzenie  mnie  w 

moim własnym  wyborze  lub  zasugerowanie  innych  użytecznych przykładów. Jestem również 

wdzięczny  wielu  studentom  z  Case  Western  Reserve  University,  a  zwłaszcza  Ryanowi 

Smithowi, za gotowość do udzielania informacji. 

Znaczący  wkład  wnieśli  również  inni  trekkerzy.  Chciałbym  podziękować  Annie 

Fortunato  za  przeczytanie  l  skomentowanie  pierwszych  wersji  rękopisu  i  wiele  użytecznych 

sugestii.  Swoją  opinię  przekazał  mi  również  Mark  Landau  z  wydawnictwa  HarperCollins. 

Jeffrey  Robbins,  w  tym  czasie  redaktor  w  Oxford  University  Press,  był  łaskaw  wskazać 

ważne  źródło  traktujące  o  napędzie  czasoprzestrzennym.  Mój  wuj  Herb  Title,  zapalony 

trekker,  przeczytał  rękopis,  podobnie  jak  mój  współpracownik  Peter  Keman.  Obydwaj 

background image

podzielili  się  ze  mną  cennymi  uwagami.  W  wiele  fragmentów  rękopisu  znaczący  wkład 

wniosła moja żona Kate. 

Jestem  bardzo  wdzięczny  Gregowi  Sweeneyowi  i  Janelle  Ke-berle  za  udostępnienie 

mi  ich  kompletnej,  skatalogowanej  kolekcji  kaset  wideo  ze  Star  Trek,  którymi  mogłem 

dysponować  przez  cztery  miesiące  w  czasie  pisania  tej  książki.  Miały  one  dla  mnie 

podstawowe znaczenie i posługiwałem się nimi nieustannie. 

Szczególne  podziękowania  jestem  winien  redaktorce  z  Basic  Books,  Susan  Rabiner, 

bez której ta książka nigdy by nie powstała. To Susan ostatecznie przekonała mnie, bym zajął 

się  tym  tematem,  i  zaraziła  tym  pomysłem  wydawnictwa  Basic  i  HarperCollins.  Dziękuję 

również  Kermitowi  Hummelowi,  prezesowi  Basic  Books,  za  jego  poparcie  i  entuzjazm. 

Ostateczny  kształt  tej  książki  zależał  w  znacznym  stopniu  od  wiedzy  i  umiejętności 

korektorki  Sary  Lipplncott.  Wierzę,  że  liczne  godziny  spędzone  przy  faksie  i  telefonie 

znalazły odbicie w jakości tekstu. 

Na koniec chciałbym podziękować dziekanowi, pracownikom  i  studentom College of 

Arts  and  Sciences  oraz  Wydziału  Fizyki  Case  Western  Reserve  University  za  wsparcie,  a 

często  także  wyrozumiałość,  zwłaszcza  w  okresie,  gdy  praca  nad  książką  dobiegała  końca. 

Przyczynili  się  oni  do  utrzymania  przyjacielskiej  i  pełnej  zaangażowania  atmosfery,  która 

dodawała mi otuchy, kiedy tego najbardziej potrzebowałem. 

Jak  zawsze  na  wiele  sposobów  wspierała  moje  wysiłki  rodzina.  Kate  i  moja  córka 

Lilly  wiele  razy  do  późna  w  nocy  oglądały  odcinki  Star  Trek,  mimo  że  pewnie  wolałyby 

wtedy spać.