BIBLIOTEKA • PROBLEMÓW • TOM SZEŚĆDZIESIĄTY TRZECI
Sześć szkiców tworzących niniejszą książką opiera się na tzw. Wykładach Gwiazdkowych wygłoszonych w Instytucie Królewskim w grudniu 1958 i styczniu 1959 roku, a przeznaczonych dla audytorium składającego się głównie z młodzieży. Wykłady te zorganizował Dyrektor Instytutu Królewskiego, Sir Lawrence Bragg, z okazji zakończenia Międzynarodowego Roku Geofizycznego.
Stało się tradycją, że wykłady Gwiazdkowe są bogato ilustrowane za pomocą pokazów, doświadczeń i filmów. Niniejsze eseje, jakkolwiek treścią odpowiadają tym wykładom, różnią się jednak od nich znacznie co do formy. Wiadomości w nich podanych nie należy traktować jako podsumowanie prac podejmowanych przez geofizyków w okresie osiemnastu miesięcy MRG, ale jako wprowadzenie w problematykę, która skupiała na sobie uwagę osób pracujących w dziedzinie nauk
o Ziemi. Mamy nadzieję, że jako takie zainteresują licznych zaróumo starszych, jak i młodszych czytelników, ciekawych świata, który nas otacza.
Autorzy pragną wyrazić swą wdzięczność Sir Lawrence’owi Braggowi za wskazówki w przygotowaniu wykładów, personelowi Instytutu Królewskiego za sprawną współpracę przy pokazach, zaś wydaionictwu „The English Universities Press”, a zwłaszcza jego Dyrektorowi Naczelnemu panu Johnowi Maitlandowi, za umożliwienie wydania niniejszej publikacji.
Jonosfera, o której J. A. Ratcliffe pisze w niniejszym szkicu, jest to zjonizowana, tzn. złożona z naelektry- zowanych cząstek, część atmosfery górnej. Fakt jej istnienia pozostawał nieznany do czasu wprowadzenia dalekosiężnej łączności bezprzewodowej za pomocą fal elektromagnetycznych. Zanim bowiem Marooni wykazał, że jego sygnały mogą dotrzeć za Atlantyk, wielu fizyków, nie wiedząc o istnieniu jonosfery, dochodziło do wniosku, iż dalekosiężna łączność radiowa jest niemożliwa. Interesującą rzećzą jest także to, że stanowiąca istotę radiolokacji (radaru) technika impulsowa rozwinęła się w związku z badaniami jonosfery. Stanowi to piękny, przykład, jak pozornie akad0mickie i odległe od praktycznych celów badania w istocie rzeczy okazują się niezwykle ważne dla zastosowań zaróumo wojennych, jak pokojowych.
J. A. Ratcliffe, pionier radia i radiolokacji, w "roku 1951 wybrany członkiem Towarzystwa Królewskiego, jest obecnie dyrektorem Działu Badań Radiowych w Departamencie Badań Naukowych i Przemysłowych.
Ponieważ wiele badań opisanych w niniejszej książce dotyczy najwyższych warstw atmosfery ziemskiej, należy najpierw zdać sobie sprawą z ich własności. Jeżeli wejdziemy na szczyt wysokiej góry, okaże się, że oddychanie jest tam bardzo utrudnione, ponieważ na szczycie góry powietrza jest ¡mniej niż u jej podnóża. Lecąc samolotem na wielkiej wysokości nie możemy wcale oddychać i zmuszeni jesteśmy korzystać z kabiny hermetycznej zasilanej w powietrze za pomocą specjalnych urządzeń. Istotnie, ciśnienie powietrza a także koncentracja jego cząsteczek stale maleje, w miarą jak wznosimy sią w górą. Na wysokości 20 km spada do około 1/10 swojej wartości przy Ziemi, po następnych 20 kim znowu spada do około 1/10 swojej poprzedniej wartości (to znaczy do około 1/100 swej wartości początkowej) itd., tak że na wysokości około 100 km wynosi mniej więcej 1/10 000 swej wartości przyziemnej. Jest to już bardzo mało, ale na jeszcze większych wysokościach ciśnienie staje się mniejsze niż w najlepszej próżni, jaką możemy osiągnąć laboratoryjnie.
O tej właśnie części atmosfery, w której! koncentracja cząsteczek gazów jest znacznie mniejsza niż przy Ziemi, będziemy mówić w niniejszym rozdziale.
W ciągu dnia to bardzo rozrzedzone powietrze naświetlane jest przez Słońce nie tylko promieniami widzialnymi, które dochodzą również do powierzchni Zie
mi, lecz także promieniami nadfiołkowymi oraz promieniami X*. Promieniowanie to jonizuje powietrze, to znaczy wytrąca elektrony z cząsteczek gazów, które sią tam znajdują. Elektrony te są bardzo lekkie i obdarzone ładunkiem elektrycznym. Jeżeli ich koncentracja jest dostatecznie duża, mogą one odbijać fale radiowe. Ta cząść atmosfery, która zawiera wystarczającą liczbą elektronów, by fale radiowe odbijały się od niej w taki sposób, została nazwana jonosferą.
Jonosferę można badać za pomocą fal radiowych w sposób następujący. Krótka wiązka fal radiowych wysłana ze znajdującego sią na Ziemi nadajnika zostaje, po odbiciu sią od jonosfery, odebrana w tym samym miejscu. Odebrany ¡h sygnał odchyla plamką I świetlną na ekranie oscy- I loskopu, co daje ślad po- I dobny do przedstawione- I go na rys. 1. W chwili na- I dania fali plamka zaczy- | na sią poruszać z lewa na I prawo ze znaną prąd- I kością, w momencie zaś I powrotu „radio-echa” zo- I staje wychylona pionowo,
tak jak w oznaczonym punkcie „odbiór echa” na rys. 1. Mierząc odległość od początku śladu do początku echa można, znając prędkość ruchu plamki, wyznaczyć czas potrzebny fali na przejście do jonosfery i z powrotem. Znając prędkość rozprzestrzeniania się fal radiowych
możemy z kolei obliczyć wysokość, na jakiej nastąpiło odbicie. Waha się ona w granicach od około 100 do 200 km.
Różne fale radiowe docierają do różnych wysoko* ści; aby wyjaśnić dlaczego sic tak dzieje, musimy nieoo bliżej zapoznać się z naturą tych faL Istnieje wiele różnych rodzajów fal, lecz dla omówienia ich wygodnie jest posłużyć się przykładem fal na powierzchni wody, przedstawiając je schematycznie tak jak na rys. 2. Fale te poruszają się w ten sposób, że
każdy ustalony punkt powierzchni wody wykonuje oscylacyjne ruchy do góry i na dół. Liczba takich drgań zachodzących w ciągu sekundy nazywa się częstotliwością fali. Odległość pomiędzy dwoma kolejnymi „grzbietami” nazwano długością fali. Jest ona tym większa, im mniejsza jest częstotliwość fali. Dla fal na powierzchni wody częstotliwość wynosi 1—2 oscylacje na sekundę. Fale radiowe, o których będzie mowa, różnią się wprawdzie znacznie od fal na powierzchni wody, gdyż są natury elektrycznej i mogą rozchodzić się w pustej przestrzeni, ale również możemy mówić o ich długości, częstotliwości i prędkości.
Fale radiowe o dowolnej częstotliwości możemy wytwarzać, wywołując w przewodzie przepływ prądu zmieniającego kierunek z żądaną częstotliwością.
Przewód staje się wówczas anteną nadawczą. W celu badania jonosfery używamy fal, w których prąd zmienia się nadzwyczaj szybko, to znaczy fal o bardzo dużej częstotliwości, rzędu miliona oscylacji na sekundę.
Pojawia się pytanie, jak na nasze jonosferyczne eksperymenty wpłynie zmiana częstotliwości fali. Okazuje się, że w miarę wzrostu częstotliwości wzrasta wielkość koncentracji elektronów niezbędnej dla odbicia fali, a ponieważ koncentracja rośnie ze wzrostem wysokości, wysokość, na której fala odbija się, rośnie wraz ze wzrostem częstotliwości fal. Stwierdzono np., że fale o częstotliwości ok. 1 miliona oscylacji na sekundę odbijiają się na wysokości ok. 100 km, podczas gdy fale o częstotliwości ok. 5 milionów na sekundę odbijają się dopiero na wysokości ok. 250— 300 km. Zwiększając częstotliwość fali i widząc, jak zmienia się wysokość odbicia fali, możemy wyznaczyć koncentrację elektronów na dowolnej wysokości. Postępowanie takie nazywa się „sondowaniem jonosfery”, ponieważ wykorzystuje się w nim „echo radiowe” do „sondowania” wysokości jonosfery, w podobny sposób jak marynarze sondują głębokość oceanu.
Sieć obserwatoriów jonosferycznych rozrzuconych po całym świecie przeprowadza regularne sondowania jonosfery w powyższy sposób. Używana w nich aparatura umożliwia automatyczny zapis wyników w sposób przedstawiony schematycznie na rys. 3. Zapisy takie noszą nazwę jonogramów. Wysokość odbicia fali radiowej wykreślona jest na nich w funkcji częstotliwości i z kolei można z nich wyliczyć koncentrację elektronów na różnych wysokościach nad obserwatorium. Warto zwrócić uwagę, że w zapisie przedstawionym na rys. 3 brak w ogóle echa dla czę-
stotliwości większych niż 12 milionów oscylacji na sekundę. Spowodowane Jest to tym, że ha żadnejj wysokości nie istnieje koncentracja elektronów Wystarczająco duża dla odbicia takich lal. Przedostają się one przez jonosferę w przestrzeń kosmiczną.
^F^ODnczem^n^podstawl^oonogramu” (takiego, jaki przedstawiony został na rys. 3) koncentracji elektronów na różnych wysokościach, otrzymamy wynik podobny do wykresu na rys. 4, gdzie koncentracja
elektronów, wyrażona przez ilości elektronów na cen- | tymetr sześcienny, wykreślona została w funkcji wysokości wyrażonej w kilometrach. Kształt tej krzywej; zmienia się w zależności od pory dnia, pory roku i po- i łożenia geograficznego. Rys. 5 przedstawia szereg roz- 1 kładów koncentracji elektronów nad Anglią w róż- 1 nych godzinach letniego dnia. Można na nim zauwa- 1 żyć, że największa koncentracja elektronów wystę- I puje w południe, kiedy promieniowanie słoneczne | produkuje wciąż nowe elektrony, zaś zmniejsza się I w nocy wskutek łączenia się elektronów z powrotem I z cząsteczkami gazów atmosferycznych, przy jedno- | czesnym braku produkcji nowych. W innych miejscach i w innych porach można by uzyskać inne wyniki, toteż ważnym celem badań jonosferycznych jest stwierdzenie, w jaki sposób 'koncentracja elektronów zmienia się w czasie i przestrzeni.
Zdarzają się niekiedy dni z bardzo osobliwymi rozkładami koncentracji elektronów. Przykładem jest tu kreskowana linia na rys. 6, którą można porównać z linią ciągłą odpowiadającą stanowi z dnia „normalnego". Osobliwości takie obserwuje się zazwyczaj we wszystkich obserwatoriach jednocześnie i mówi się
o wystąpieniu „burzy jonosferyczneji”. Takie burze natury elektrycznej: występują wyłącznie w jono- sferze, nie mają związku z pogodą w pobliżu powierzchni Ziemi i są zupełnie innego rodzaju niż zwyczajne burze z piorunami. Wiążą się natomiast ściśle z burzami magnetycznymi, które zostaną omówione obszerniej w rozdziale II. Będzie tam wyjaśnione, że są one wynikiem zaburzeń w jonizującym promieniowaniu Słońca, związanych z obecnością widocznych plam słonecznych. Jeżeli obserwacje Słońca prowadzą do wniosku, że można oczekiwać burzy jonosferycz- nej, ostrzega się o tym wszystkie obserwatoria jono-
sferyczne, by mogły zwiększyć częstość wykonywania jonogramów i w ten sposób szczegółowo stwierdzić, jakie zmiany zachodzą w jonosferze.
Badania za pomocą „jonosond” wykazują, że koncentracja elektronów wzrasta ze wzrostem wysokości, osiągając maksymalną wartość na wysokości ok. 250 km, a następnie znowu maleje. Badania te nie mogą jednak dostarczyć informacji, jaka jest koncentracja powyżej owego maksimum. Gdybyśmy jednak znajdowali się na zewnątrz jonosfery i mogli obserwować przechodzące przez nią fale o dostatecznie dużej częstotliwości, to bylibyśmy w stanie wyciągnąć stąd pewne wnioski o własnościach górnych części jonosfery. Jak dotychczas nie jest to możliwe, ale za pomocą sztucznych satelitów spróbowano zrobić ten eksperyment w odwrotnym kierunku. Obserwowano w tym celu na Ziemi fale radiowe emitowane przez sztuczne satelity wyżej rozważanej warstwy, tak że przechodziły one przez nią, nim doszły do aparatu odbiorczego.
fftywan# v tjn cci« sztuczne satelity przystoso- arane tą d© anutcnraaut w sposób ciągły i jednostajny fal radiowych o »»IrtlHMŚfi wystarczająco dużej, Iff tmgiy pta-fiikaą/t prttz ymetśert Na Ziemi od- b»<*f«¡a aparaty dwóch rodzajów -i--. ptęelkeM, z i&feą MteilU zbliża się, względnie oddala. Gdyby jeawwiera ni i- oddziaływała na przechodzące prin nią ia-te za-ów«* kąt padania fali. jak i obser- uwwaAa prędkość zMiżaróa się )ub oddalania satelity ¿ffiL*m*łyltry *ię w ipadb rtfularnjr i można by je a pbty wyliczyć. Obecność joooafery aakłóca jednak tQ nfuitfieit, a wynikaj-ące stąd różnice pozwalają wy- zftaczyć pewna dane dotycząc* koncentracji elektronów pwwyaej 7/atstwy, w które) osiąga ona swą war- taŚC maksymalną.
limwfc. a kdngD fał* priychodzą, wyznacza się, oflbiiifj i^i’ jf.' jednorwdnie aa pomocą dwóch anten pułąc/iiniych a jadnjm odbiornikiem W miarę jak kąt pad anta fal aaą aaaMcda. wypadkowy sygnał to wzma- ga mą, 1» aaaaka pray ctym pray szeregu wartości kąta znika aupriafca. Automatyczny zapis sygnału na wy}^«ńu «dtomndka wygląda podobnie do zapisu przed- i—gr aa rya. T. Znając momenty, w których sygnał m ili arta* wyaaaccyć zmiany szukanego kąta. Okaałatjjs aśą. tor nie zmienia się on tak płynnie, jafefty la wymh da a rąjalarawgn ruchu aatelity, i róż- ■kaą tą prtfpttm)* gą wpływowi jonosfery.
PtąaNtaer sMuaaŁe stą lula oddalania satelity znajda Jaaay afcawrwając Ław ijawtgw Dopplera. Polega mm m tjA la a^pMlaidt ff atu odbieranego od dMMaJąa«^» alą nadapdka )ad atfąjkma. aaś od odda- lająeaga alą aani Jm i tft w nwaywłitałri. Analogiez- m ajawteko afta fał dAwmwaryrii c**r*to aaoana saob- amwwad, gdy MMamitywe gwtadaąr tnij# »aa ta
M
znaczną prędkością. W chwili mijania, gdy źródło dźwięku zmienia się ze zbliżającego na oddalające, wysokość tonu gwizdu wyraźnie spada. Jeżeli ohser wator znajduje się blisko toru, zmiana wysokości tonu jest gwałtowna, jeżeli zaś dalej — zmiana ta następuje bardziej stopniowo. Jeżeli wysokość- albo częstotliwość tonu wykreślimy w funkcji czasu, to powstaje krzywa podobna do przedstawionej na rys. B. A oznacza tu moment, w którym lokomotywa mija obserwatora. W przypadku fal radiowych należało użyć specjalnych przyrządów do pomiaru częstotliwości, a gdy następnie wykreślono krzywą podobną do przedstawionej na rys. 8, okazało się, że kształt jej jest nieco odmienny od tego, którego należało oczekiwać. Badając następnie, jak dalece odbiega on od tego kształtu, uzyskano informacje o koncentracji elektronów w jonosferze. Rys. 9 przedstawia taką krzywą, uzyskaną przy przelocie jednego ze sztucznych satelitów.
Pomiary dokonywane w takt czy inny sposób c falami radiowymi emitowanymi prze* satelity dostarczyły pewnych informacji. Jak się łroncen- 1 racja (tfklronów powyżej poetomu »woj maksym«]-
neji wartości. Wyznaczenie tego spadku ułatwił fakt, że niektóre spośród pierwszych satelitów przelatywały nad obserwującą je stacją dwukrotnie w ciągu doby: raz na stosunkowo niewielkiej wysokości ok. 200 km, drugi zaś na stosunkowo dużej, wynoszącej ok. 500 km. Pozwoliło to na pomiary na dwóch wysokościach. Wiele trzeba będzie jednak jeszcze zrobić, aby zbadać własności górnej części jonosfery w różnych miejscach oraz w różnych porach dnia czy roku.
Na rys. 9 widać także, że przedstawiona na nim krzywa Dopplera nie jest gładka, lecz wykazuje nie^ regularne skoki. Skoki te nie są jeszcze dostatecznie wyjaśnione, ale przypuszcza się, że wskazują one na istnienie w jonosferze poziomych nieregulamości. Doświadczenia dotyczące kierunku padania fal prowadzą do podobnych wniosków.
Rozpatrzmy obecnie inną metodę badania jonosfe-
ry, w której wykorzystano fakt, że każde wyładowanie atmosferyczne (piorun) Jest naturalnym nadajnikiem ogromnej mocy. Wyładowania takie składają się z iskier o długościach rzędu setek metrów; w iskrach tych płyną silne i gwałtownie zmieniające się prądy, emitując fale podobne do tych, jakie wysyła zwyczajny nadajnik. ■ Fale emitowane w przyrodzie różnią się jednak od fal wysyłanych przez nadajniki skonstruowane przez człowieka częściowo tym, że zawierają szeroki zakres różnych częstotliwości, a nie tylko jedną, częściowo zaś tym, że częstotliwości te są niższe, zawierając się pomiędzy mniej więcej 100 a 100 000 oscylacji na sekundę. Dolne z nich odpowiadają częstotliwościom fal dźwiękowych. Środkowy ton C fortepianu ma np. około 250 oscylacji na sekundę, zaś najwyższe tony słyszalne mają ok. 20 000. Oczywiście fale emitowane przez wyładowania atmosferyczne nie są falami dźwiękowymi, lecz radiowymi, i nie mogą bezpośrednio oddziaływać na nasz narząd słuchu.
Jeżeli pragniemy usłyszeć sygnały radiowe pochodzące od tych naturalnych nadajników, musimy do ich odbioru i wzmocnienia użyć wzmacniacza akustycznego, podobnego do tych, jakich używa się do adapterów, a następnie za pomocą głośnika zamienić je na słyszalne dźwięki. W ten sposób możemy usłyszeć trzask przy każdym wyładowaniu atmosferycznym, a jeżeli jednocześnie odbieramy trzaski pochodzące od wyładowań w promieniu np. 1000 km, to czynią one hałas niczym huraganowy ogień artylerii. Ucho nie słyszy tu żadnych czystych tonów, ponieważ na każdy pojedynczy trzask składają się -rozmaite częstotliwości emitowane i słyszane jednocześnie. W takim przypadku ucho nie odróżnia poszczególnych tonów, lecz odczuwa odbierany dźwięk po prostu jako silny hałas. Jeżeli jednak wsłuchujemy się uważnie, często słyszymy wmieszane pomiędzy trzaski dziwne dźwięki, w postaci czystych świstów. Mają one charakterystyczną formę, zaczynając się od tonów wysokich, a kończąc na niskich, co można mniej więcej odtworzyć mówiąc „piiiooo”. Analiza tych świstów prowadzi do interesujących wniosków dotyczących górnej części jonosfery, ale żeby wyjaśnić, jak się je otrzymuje, musimy uczynić małą dygresję i zapoznać się nieco z naturą magnetyzmu ziemskiego.
Jak wiadomo, Ziemia stanowi olbrzymi magnes i jak każdy magnes oddziałuje na igłę kompasu. Przestrzeń wokół dowolnego magnesu, w której można stwierdzić obecność takiego oddziaływania, nosi nazwę pola magnetycznego. Pole to można zobrazować rozsypując opiłki żelazne wokół magnesu — układają się one w kształcie krzywych linii biegnących od bieguna do bieguna. Przyjęto przedstawiać pole magnetyczne wokół magnesu, kreśląc te linie noszące nazwę „linii sił”. Wskazują one w wyidealizowany sposób, jak uło-
żyłyby się opiłki żelazne. Gdybyśmy mogli przedstawić pole magnetyczne Ziemi za pomocą opiłków żelaznych, linie sił wyglądałyby podobnie jak na rys. 10.
Jeżeli teraz fale radiowe niskiej częstotliwości pochodzące od wyładowań atmosferycznych dojdą do
jonosfery, to pole magnetyczne Ziemi oddziałuje tam na nie na dwa istotne sposoby. Po pierwsze, obecność tego pola umożliwia im przeniknięcie do jonosfery, podczas gdy przy jego braku istniejąca koncentracja elektronów wystarczyłaby do odbicia tych fal już na niewielkich wysokościach, po drugie, pole magnetyczne „chwyta” fale i zmusza je do poruszania się przez jonosferę wzdłuż linii sił. Jeżeli np. wyładowanie nastąpi w punkcie A, rys. 10, fala przemieści się wzdłuż narysowanej tam linii siły i dojdzie do punktu B leżącego na drugiej półkuli. Moglibyśmy więc oczekiwać, że obserwator w punkcie B usłyszy ten sam trzask, oo i obserwator w punkcie A. Tak jednak nie jest, ponieważ fale o większych częstotliwościach poruszają się w jonosferze prędzej i wcześniej docierają do celu niż fale o częstotliwościach mniejszych. W rezultacie poszczególne tony trzasku zostają rozdzielone w ten sposób, że wyższe docierają wcześniej niż niskie, co w wyniku daje charakterystyczne „piidooo”
świstu. Przedział czasu upływający pomiędzy odbicSl rem tonów wysokich i niskich zależy od długości drogi przebytej przez falę oraz od koncentracji elektrofe nów, zwłaszcza na ¡najbardziej zewnętrznych odcina kach linii sił. Jeżeli teraz świsty takie obserwować będziemy w różnych punktach kuli ziemskiej, jak B, C, D na rys. 10, to odpowiednie lilnie sił docierać bę?? dą do różnych wysokości nad Ziemią, i mierząc rozkład częstotliwości w odpowiednich świstach, może^ my oszaoować koncentrację elektronów na różnych wysokościach. Jaik dotychczas, uzyskano tylko nieliczne i raczej niepewne rezultaty —• przedstawiono je na- wykresie na rys. 11 za pomocą krzyżyków. W połą
czeniu z danymi ze sztucznych satelitów stanowią one najlepsze, jakimi dysponujemy, informacje o koncentracji elektronów w zewnętrznych częściach jono- sfery.
Rys. 11 wskazuje, że koncentracja elektronów na dużych odległościach jest znacznie mniejsza niż jej wartość szczytowa. Ciekawe będzie w przyszłości stwierdzić, co się dzieje jeszcze dalej. Przypuszcza się ostatnio, że koncentracja nie maleje do zera, w miarę jak oddalamy się od Ziemi, lecz że jonosfera przechodzi niepostrzeżenie w zewnętrzną atmosferę Słońca, która w bairdzo rozrzedzonej postaci dociera do Ziemi luib nawet dalej. Przypuszczalnie już wkrótce będziemy w stanie badać te zagadnienia za pomocą satelitów wysyłanych ma odpowiednio wielkie odległości*.
MAGNETYZM ZIEMSKI
- • Fakt, że Ziemia jest wielkim magnesem, odegrał ogromną rolą w rozwoju cywilizacji, ponieważ bez magnetycznego kompasu trudno byłoby poznać świat tak prędko, jak zrobili to pierwsi odkrywcy podczas swych długich i śmiałych podróży. Ale jak pokazuje dalej J. M. Stagg, prosty model Ziemi jako wielkiego magnesu z jednym biegunem w Arktyce, a drugim w Antarktyce, nie wystarcza. Rzeczywistość jest o wiele bardziej skomplikowana i magnetolog musi uwzględniać nie tylko powolne, rozległe ruchy ciekłego jądra Ziemi, lecz także wpływ skomplikowanej maszyny elektrycznej utworzonej przez Słońce, atmosferą i samą Ziemią. Świat magnetologa nie oddziałuje wprawdzie na nasze zmysły, tak jak świat meteorologa lub oceanografa, lecz także ma swoje burze t dni spokojne. Przez długie lata magnetyzm ziemski był przedmiotem badań nielicznych tylko uczonych — dziś jednak jego znaczenie dla zagadnień praktycznych, takich jak np. radiokomunikacja, stale rośnie.
J. M. Stagg, były dyrektor służby w brytyjskim Meteorological Office (odpowiednik PIHM) -jest jednym z niewielu geofizyków będących specjalistami w dwóch działach geofizyki. Jest on bowiem w równym stopniu meteorologiem, jak i magnetologiem.
! Jak można pokazać, że Ziemia jest magnesem? Możemy to uczynić przenosząc z miejsca na miejsce swobodnie zawieszoną igłę magnetyczną i wykazując, że Ziemia oddziałuje na nią, ogólnie rzecz biorąc, tak samo jak magnes. Ściślej mówiąc, musimy wykazać, że Ziemia posiada tzw. pole magnetyczne, które w każdym punkcie oddziałuje na inny magnes siłą o takim kierunku i takiej wielkości, z jaką oddziaływałby wielki magnes umieszczony na miejscu Ziemi. Pojęcie pola sił otaczającego każdy magnes odgrywa wielką rolę w rozważaniach dotyczących magnetyzmu ziemskiego, musimy więc zapoznać się z jego modelem i własnościami. W przypadku magnesu sztabkowego moglibyśmy to uczynić rozsypując opiłki żelazne na {włożonej na nim kartce papieru. Ułożą się one wówczas wzdłuż linii zwanych liniami sił. Linie te wypełniają całą przestrzeń wokół magnesu, przy czym krzywizna ich maleje w miarę oddalania się od niego. Na rys. 1 przedstawiono, co się dzdej;e, gdy doświadczenie takie przeprowadzić z kulą przedstawiającą Ziemię z magnesem w środku.
Ziemia oddziałuje na swobodnie zawieszoną igłę magnetyczną w ten sam w zasadzie sposób. W pobliżu równika igła ustawia się poziomo; na północ i na południe od równika igła będzie się stopniowo odchylać coraz bardziej od poziomu, aż wreszcie na kana-
dyjskim półwyspie Boothia ustawi się pionowo swym biegunem północnym ku dołowi, zaś na Antarktydzie również pionowo, lecz biegunem północnym do góry. Z tego rodzaju obserwacji dotyczących kierunku i wielkości sił pola, przeprowadzanych w wielu miejscach, możemy wnosić, że na położone na zewnątrz niej magnesy Ziemia oddziałuje mniej więcej tak, jakby sama zawierała wdelki magnes.
Wszystko to jest, jak dotąd, bardzo proste, ale gdy zaczynamy badać szczegóły, to musimy brać pod uwa-
Wf : *■y-cy
gę tyle ¡nieregularności, że ten prosty obraz znika niemal zupełnie. Na przykład ziemskie bieguny magnetyczne nie leżą na przeciwległych końcach średnicy Ziemi, a ldnie magnetyczne określające kierunek igły kompasu nie biegną od bieguna do bieguna wzdłuż wielkich kół, lecz odchylają się w pobliżu lokalnych anomalii, gdzie magnetyzm ziemski j;est znacznie słabszy względnie silniejszy niż miałoby to miejsce, gdyby Ziemia była zwyczajnym magnesem (rys. 2). Jeszcze dziwniejszy jest fakt, że całe pole ciągle się zmienia i to nie jednostajnie, lecz różnie w ¡różnych punktach powierzchni Ziemi. Pomiędzy końcem XVI wieku a rokiem 1820 kąt, jaki igła magnetyczna w Londynie tworzyła z kierunkiem północy geograficznej, zmieniał się stopniowo od 11,5° na wschód do 24° na zachód, natomiast po roku 1820 powoli się zmniejszał, wykazując Obecnie 8° na zachód. Istnieją przy tym wielkie obszary na obu półkulach, gdzie zmiany te były większe lub mniejsze niż w Londynie, przy czym kształt tych obszarów się zmienia, one same zaś przesuwają się w kierunku na ogół zachodnim.
Należy jednak jasno stwierdzić, że żaden ruch prostego magnesu wewnątrz Ziemi nie może wyjaśnić wszystkich tych zjawisk i przez wiele lat zagadnienie źródeł magnetyzmu ziemskiego z jego powolnymi i nieregularnymi zmianami należało do wielkich nierozwiązanych problemów. Dopiero w ostatnich czasach opraoowano zarys odpowiedniej;, możliwej do przyjęcia teorii.
Z badań nad trzęsieniami Ziemi wynika niemal na pewno, że Ziemia posiada wielkie ciekłe jądro złożone prawdopodobnie z żelaza i niklu, rozciągające się od środka Ziemi do około połowy jej promienia. Częściowo wskutek obrotu Ziemi dookoła osi, częściowo zaś wskutek istnienia niewielkich różnic temperatury,
w jądrze powstają wielkie wirowe ruchy konwekcyjne (tzw. komórki konwekcyjne). Ponieważ ¡materia jądra ziemskiego przewodzi prąd elektryczny, komórki te zachowują się jak wielkie solenoidy, których osie są w przybliżeniu równoległe do osi ziemskiej; ten sam mniej więcej kierunek ma wdęc i pochodzące od nich wypadkowe pole magnetyczne. Niektóre mniejsze komórka odchylają się jednak od tego zasadniczego kierunku i wytwarzają na .powierzchni Ziemi bieguny drugorzędne: Owe mniejsze komórki mogą powoli zmieniać swe kształty, a nawet rozwijać się luib zanikać niezależnie od wielkich komórek głównych, powodując w ten sposób odpowiednie powolne zmiany^ w obrazie pola magnetycznego na .powierzchni Ziemi.
Brak jak dotąd skrystalizowanego poglądu oo do tego, w jaki sposób owe prądy elektryczne w ']'ącirz?~ ziemskim zostały pierwotnie wzbudzane; z wyjątkiem j pewnych obszarów, na których przeprowadzano dokładne pomiary magnetycznie, nie wiemy nawet do- i kładnie, jak przebiegają same .zmiany pola. Fakt ten j jest jedną z przyczyn, dla których na słalbo dotąd zba- < danych obszarach (np. na Antarktydzie) powstało w okresie MRG wiele nowych obserwatoriów magnetycznych. Z tego też powodu trzeba będzie w ciągu najbliższych lat włożyć wiele pracy w sporządzenie map pola magnetycznego na obszarach oceanicznych, gdzie dotychczas w ogóle niewiele wykonywano pomiarów. Jak dotąd bowiem, magnetycznych obserwacji na morzu można było dokonywać jedynie na specjalnych statkach zbudowanych bez użycia stali l?ub żelaza. Obecnie jednak zastosowano w tym celu zupełnie nowy przyrząd zwany magnetometrem protonowym. Przyrząd ten, w którym wyeliminowano konieczność użycia magnesów zawieszonych na niciach lub osiach, ukryty w specjalnej obudowie, zwanej
i powodu opływowych kształtów „rybą”, holowany jest na Mnie konopnej dostatecznie długiej, by mógł znajdować się poza oddziaływaniem stalowych części okrętowych, a, wykonywane nim pomiary pola ziemskiego są automatycznie rejestrowane na samym statku.
^Dotychczas zajmowaliśmy się tzw. stałym polem magnetycznym Ziemi, to znaczy tą jego częścią, która (wbrew nazwie) bynajmniej nie jest stała — zmienia się tylko zwolna z roku na rok. To, ozym zajmiemy się teraz, jest słabszą, lecz nie mniej interesującą częścią pola magnetycznego, pochodzącą z zewnątrz Ziemi. W przeciwieństwie do powoli zmieniającego się pola s|ałego, część pochodząca z zewnątrz zmienia się z godziny na godizinę, a czasem i z minuty na minutę przy czym zmiany te są często nieregularną. ,Ąr Do badania tych chwilowych zmian używa się zapisów dokonywanych przez tzw. magnetografy (rys. 3).
W prostym tym przyrządzie znajduje się zwierciadeł- ko przytwierdzone do magnesu zawieszonego na naci kwarooweji. Promień światła 1 lampki odbija się od zwieroiadełka i pada na arkusz papieru fotograficznego nawiniętego na bęben obracany mechanizmem
zegarowym raz na dobę. Po wywołaniu na papierze pojawi się ciemna linia. Jeśliby magnes pozostawaj nieruchomy, byłaby to linia prosta. W praktyce jednak nigdy tak nie jest; otrzymuje się (w całości lub częściowo) gładką (rys. 4a) albo nieregularną i gwałtownie oscylującą (rys. 4ib) ikirzywą. Dni, w którymi
otrzymuje się gładką, falującą linię, nazywa się dniami spokojnymi, inne dniami zaburzonymi, zwłaszcza jeżeli zakłócenia występują w sposób ciągły, wzmagając się gwałtownie w pewnych okresach.
Dni spokojne interesujące są głównie'Ze względu na sposób, w jaki owe regularne zmiany powstają. Porównując magnetogramy z różnych obserwatoriów położonych w różnych częściach świata stwierdzimy, że dzień spokojny w jednym miejiscu jest spokojny również we wszystkich innych; dalej, jjak widać na rysunku 4a, największe zmiany w danym miejscu zachodzą około południa, gdy Słońce znajduje się w ze-
nicie, natomiast w godzinach nocnych magnes pozostaje niemal nieruchomy. Kierunek i wielkość odchylania się magnesu przed południem zależą od szerokości geograficznej miejsca oraz od pory roku; ponadto izmiany te są większe w latach o dużej liczbie plam słonecznych, niż wtedy, gdy Słońce jest „czyste”.
Wszystko to wskazuje na Słońce — jako pośrednią lub bezpośrednią przyczynę zmilan podczas dni spokojnych. Słońce posiada wprawdzie pole magnetyczne, lecz w pobliżu Ziemi nie jest ono wystarczająco silne, by bezpośrednio zakłóoać pole ziemskie lub oddziaływać na wielkie prądy w głębi jądra Ziemi w sposób mogący spowodować te regularne zmiany dzienne. Oddziaływanie to musi więc być pośrednie
i mechanizm jego znajduję się prawdopodobnie w atmosferze na wysokości około 100 km. Dzięki swemu oddziaływaniu grawitacyjnemu, Słońce i Księżyc wywołują w atmosferze przypływy i odpływy, podobnie jak to zachodzi w oceanach. Istotną różnicę stanowi tu fakt, że wskutek rozkładu temperatury w atmosferze pływy powodowane w jej górnych warstwach przez Słońce są większe niż powodowane przez Księżyc, a więc odwrotnie niż w przypadku pływów oceanicznych. Ponieważ przewodzące warstwy jonosfe- ry stanowią część atmosfery i również podlegają ruchom pływowym, powstaje tu w drodze dość skomplikowanego procesu ooś w rodzaju powoli działającego, leez potężnego, dynama. Odpowiednikiem uzwojenia jest tu jonosfera: odpowiednikiem obrotu — układ wiatrów wywołanych ruchami pływowymi, ■polem magnetycznym zaś — pole ziemskie. W miarę jak poszczególne części Ziemi zwracają się ku Słońcu, w jednej z niższych warstw jonosfery powstają wielkie kołowe prądy elektryczne dochodzące przeciętnie
do 60000 A, a pochodzące od nich pole magnetyczne przesuwa się wraz z nimi na zachód, powodując na powierzchni Ziemi zmiany charakterystyczne dla spokojnego dnia.
Do niedawna brak było pewności co do tego, w której warstwie jonosfęry prądy te płyną, lecz ostatnio zaczyna się jej nabierać. Wstępne dane z rakiet zaopatrzonych w magnetometry typu omówionego przez nas w związku z pomiarami oceanicznymi potwier*1 dzają, że prądy owego dynama płyną 90—100 km nad Ziemią, to znaczy przypuszczalnie w warstwie E jo-i nosfery.
Zastanowimy się obecnde, oo się dzieje podczas za-] burzeń lub burzy -magnetycznej. W różnych porach dnia czy nocy, w różnych porach roku, choć najczęściej w pobliżu równonocy i stosunkowo częściej w latach bliskich maksimum jedenastoletniego cyklu aktywności słonecznej, miejsce gładkiego zapisu spokojnego dnia zająć mogą mieregulame, konwulsyjne ■ oscylacje. Zaczyna się zaburzenie magnetyczne, które j może rozwinąć się w prawdziwą burzę i trwać dwa do trzech dni.
W przeciwieństwie do zwykłych burz z piorunami, < które choć potężne, posiadają bardzo ograniczony zasięg, burza magnetyczna obejmuje cały świat jedno-] cześnie. Następuje ona po okresie spokojnym, zaczyn nająć się zwykle gwałtownym wzrostem sił magnetycznych, po którym następuje powolniejszy, lecz większy spadek i wreszcie znowu trwający kilka dni wzrost do wartości sprzed burzy. Lecz na tle tego zasadniczego obrazu zapis burzy wykazuje nieregularne fluktuacje, z których każda może trwać od niecałej! minuty do godziny lub dwóch. Fluktuacje te są najr większe w obrębie dwóch, mniej więcej, kołowych stref (po jednej na każdej półkuli) charakteryzują
cych się największą częstością występowania zórz polarnych. Igła magnetografu może się tam podczas burzy odchylać do 10°. Położenie tych ważnych stref wymaga wyjaśnienia. Strefy te otaczają punkty przebicia powierzchni Ziemi przez oś hipotetycznego magnesu, którego pole przedstawia zasadnicze cechy rzeczywistego pola magnetycznego Ziemi (lecz bez uwzględnienia jego mieregularności) podobnie jak północne i południowe koła polarne otaczają bieguny geograficzne. Na naszej półkuli owa oś geomagnetyczna ■(jak oznaczono ją na rysunku 1) przebijia powierzchnię Ziemi w najdalej! na północny zachód wysuniętym punkcie Grenlandii, tak że część północnej strefy zórz leży pomiędzy Islandią a Wyspami Szetlandzkimi. Z tego właśnie powodu wytniM uzyskiwane przez obserwatorium koło Lerwick mają tak wielkie Znaczenie.
Jednocześnie z burzą magnetyczną lub silnymi zaburzeniami pewne inne zjawiska występują zazwyczaj w wysokich warstwach atmosfery i otaczającej Ziemię przestrzeni. W godzinach nocnych na niebie pojawia się zorza polarna, jonosfera ulega zakłóceniu, tak że przestaje służyć jako reflektor krótkich fal radiowych, co z kolei powoduje przerwy w radiokomunikacji; duże zmiany zachodzą też w ilości cząstek promieniowania kosmicznego docierających do Ziemi. Zjawiska te nie towarzyszą nieodmiennie każdemu zaburzeniu magnetycznemu, lecz gdy zaburzenie jest naprawdę silne i obejmuje cały świat — kiedy występuje burza magnetyczna —ł pojawiają się one jednocześnie i to na ogół w związku z wystąpieniem szczególnie aktywnych obszarów na zwróoonej ku Ziemi części tarczy słonecznej.
Pewien szczególny przypadek daje klucz do zrozumienia tego niezwykle interesującego. zestawu zja
i
wisk przyrody. Od czasu do czasu ina tarczy Słońca pojawia się jasmy wybuch lub rozbłysk. Może on trwać jedynie pół godziny, a nieraz i mniej, ale w momencie, w którym się go zauważa (tzn. osiem minut po jego rzeczywistym pojawieniu się na Słońcu), na Ziemi zaczynają występować różne zjawiska. Zmiany magnetyczne spokojnego dnia gwałtownie wzrastają, tak, jakby pora roku zmieniła się nagle z zimowej na letnią (rys. 4a); dalekodystansowa łączność radiowa ulega przerwaniu, a intensywność promieniowania kosmicznego wzrasta. W miarę jak rozbłysk słoneczny zanika, stan pola magnetycznego Ziemi, jonosfera
i promieniowanie kosmiczne wracają powoli do normy. Następnie po pewnym czasie wynoszącym najczęściej około jednej doby pole magnetyczne ulega nagłemu zaburzeniu; następnie przechodzi przez opisane już fazy, na które nałożone są silne fluktuacje — zwłaszcza w strefach największej częstości zórz (rys. 4b). Tymczasem na obu półkulach pojawia się w porze nocnej zorza polarna (rys. 5). Zaczyna się ona przecinającym niebo łukiem spokojnej, żółtozielonej! poświaty, poprzez którą rozwija się następnie sitruik- tura pionowych promieni. Promienie przekształcają się dalej w poruszające się szybko po niebie słupy świetlne lub kurtyny, grające żywymi barwami od zieleni do głębokiej czerwieni. Niekiedy oświetlają one krajobraz tak silnie, jak Księżyc w pełni. Poddzaś trwania tych zjawisk łączność zarówno radiowa, jak
i kablowa zostaje przerwana.
' Powinniśmy tu może zaznaczyć, że zaburzenia magnetyczne i towarzyszące im inne zjawiska nie zawsze występują w opisanej tu kolejności. Słuszniejszym będzie powiedzieć, że nie ma dwóch zaburzeń ściśle jednakowych pod względem swych magnetycznych, zorzowych i innych efektów.
mm
^¿*038
•Sg$3f¡fe
IL 1 tataes
m0l
'È^ÊÈ^tmilàiM
iMlligagl
m
Pewna zasadnicza różnica istnieje pomiędzy tymi burzami, które występują nagle i jednocześnie na całym świede, często w powiązaniu iz rozbłyskami słonecznymi lub podobnymi krótkożyciowymi wybuchami w pobliżu plam słonecznych, a mniejszymi zaburzeniami, które zaczynają się stopniowo, osiągają największe nasilenie w dużych szerokościach geograficznych i nie mogą być powiązane z żadnym szczególnym rodzajem aktywności słonecznej;. Jest jednak faktem, że zaburzenia te zmniejszają się 1 zwiększają na ogół wraz z jedenastoletnim cyklem aktywności słoneczniej. Z tego, między innymi, powodu na Międzynarodowy Rok Geofizyczny wybrano lata 1957/58, bliskie maksimum obecnego jedenastoletniego cyklu słonecznego — chcieliśmy bowiem uzyskać możliwie dużą liczbę obserwacji zaburzeń. Prawdą jest także, że owe zaburzenia mają skłonność do występowania w odstępach dwudziestosiedmiodniowych, co odpowiada czasowi potrzebnemu na to, by dana plama słoneczna powróciła w wyniku obrotu Słońca dookoła osi na to samo miejsce naprzeciw Ziemi. Ów okres dwudziestosiedmiodniowy najwyraźniejszy jest właśnie dla tych słabych zaburzeń, które nie mogą być bezpośrednio związane z wyraźnie zakłóconymi obszarami tarczy słonecznej. Silne burze związane ze szczególnymi zjawiskami na Słońcu mają zazwyczaj charakter jednorazowy.
Wiele teorii tworzono dla wyjaśnienia tych tak bardzo różnorodnych zjawisk, trudno się jednak dziwić, wobec tak wielkiej liczby rzeczy, które trzeba brać pod uwagę, że żadna z tych teorii nie wyjaśniła wszystkiego. W gruncie rzeczy dopiero po przestudiowaniu danych uzyskanych podczas MRG przez obserwatoria na obu półkulach będziemy mieli dokładne pojęcie o faktach, które należy wyjaśnić. Nie wiemy
38
na przykład, czy zorze polarne występują jednocześnie w odpowiadających sobie miejscach obu półkul, ani też, jakie są związki pomiędzy poszczególnymi rodzajami zaburzeń pola magnetycznego a cechami zórz na każdej z nich. Te i wiele innych faktów wymagają jeszcze zibadania, wiemy już jednak wystarczająco dużo, by z grubsza naszkicować mechanizm, który zaczyna działać z chwilą pojawienia się rozibłysku słonecznego.
Z faktu, że pierwsze objawy występują na Ziemi wkrótce po dostrzeżeniu rozbłysku, możemy wnosić, że nośnikiem pokonującym w tak krótkim czasie blisko 150 milionów kilometrów dzielących Słońce od Ziemi są fale elektromagnetyczne — prawdopodobnie promienie ultrafioletowe i ¡krótsze od nich promienie X. Promieniowanie to, stanowiąc dodatek do stałego promieniowania powodującego tworzenie się jo- nosfery, zwiększa w niej gęstość jonów i elektronów. Równoważne jest to zwiększeniu przekroju uzwojenia w ziemskim dynamo, co powoduje zwiększenie natężenia płynącego w nim prądu. Powoduje to z kolei wzrost natężenia pola magnetycznego Ziemi i powiększa rejestrowane na magnetografie izmiany spokojnego dnia znacznie powyżej ich normalnych wartości. Jednocześnie bardziej przenikliwe promienie X także jonizują atmosferę do niższych niż zazwyczaj poziomów, a powstające w ten sposób dodatkowe warstwy jonosfery pochłaniają fale radiowe i przerywają łączność. Gdy rozbłysk zanika, chwilowo zwiększone promieniowanie maleje i wszystko wraca do normy.
Aby wyjaśnić występowanie jednodobowej przerwy dzielącej wybuch słoneczny od wystąpienia poważniejszych zaburzeń pola magnetycznego, musimy znów cofnąć się do Słońca. Poza promieniowaniem fa-
lowym, którego skutki omówiliśmy wyżej, rozbłysk (względnie obszar wokół niego) wysyła przypuszczalnie w kierunku Ziemi chmurę elektrycznie naładowanych cząstek (protonów i elektronów), przy czym cząstki obu znaków występują w równych mniej więcej ilościach. Chmura ta porusza się z ogronmną prędkością, znacznie jednak mniejszą niż prędkość promieniowania falowego; wynosi ona bowiem przypusz
czalnie około 2000 km/sek wobec blisko 300 000 km/sek dla fal. Potrzeba więc około 21 godzin na to, by owa chmura dotarła do Ziemi, a że czas niezbędny w tym celu zależy także od położenia rozbłysku na tarczy słonecznej oraz od położenia Ziemi na orbicie, łatwo można wytłumaczyć wahania jego długości. W miarę zbliżania się do Ziemi chmura cząstek zaczyna ooraz bardziej ulegać działaniu stałego pola magnetycznego; to, co się dzieje dalej, jest jednak również — coraz bardziej — niepewne. Przy-
puszczalnie zewnętrzne linie sił pola ziemskiego działają jako osłona niedopuszczająca ładunków chmury do Ziemi. W chwili gdy czoło chmury oddalone jest od Ziemi o kilka ziemskich promieni, ładunki ulegają rozdzieleniu; dodatnie zaczynają się poruszać wokół Ziemi jednym torem, ujemne — drugim. W momencie gdy spotykają się one po przeciwnej stronie Ziemi, aostaje zamknięty wielki pierścień prądu elektrycznego. Dalej, od momentu zbliżenia się do zewnętrznych linii pola ziemskiego chmura zaczyna je zagęszczać, co powoduje wzrost pola magnetycznego na powierzchni Ziemi. Utworzenie się pierścienia rozpoczyna przypuszczalnie drugą fazę burzy, bowiem na powierzchni Ziemi magnetyczny efekt przepływu prądu w pierścieniu polega na zmniejszeniu północnej składowej pola. Wreszcie pierścień naładowanych cząstek zaczyna zanikać, prąd w nim płynący stopniowo się zmniejsza i pole z wolna powraca do normy.
Jakkolwiek Ziemia jest osłonięta przed pełną siłą uderzenia chmury, w jej osłonie występują jednak pewne słabe punkty, których położenie zależy od energii naładowanych cząstek. W zasadzie owe punkty leżą wzdłuż tych linii sił, które zaczynają się i kończą na powierzchni Ziemi w strefie największej częstości występowania zórz polarnych. Wzdłuż nich protony i elektrony pochodzące bądź bezpośrednio z chmury, bądź (co jest bardziej prawdopodobne) z prądu pierścieniowego, dążą ;z wielkimi prędkościami po spiralach do Ziemi, 'zderzając się na wielkich wysokościach z rozrzedzonym 'tlenem i azotem atmosferycznym i powodując luminesoencję, którą widzimy w postaci zorzy polarnej1. Przez ten czas cząstki, które przeniknęły prziez zjonizowane warstwy atmosfery, wytraciły swoje wielkie prędkości, oddając jednak swe ładunki warstwom przewodzącym, i wzbudzając
w nich dzięki swemu działaniu cieplnemu silne wichry powodują powstanie w janosferze wielkich zakłócających prądów. Ponieważ ładunki te docierają do Ziemi wzdłuż linii sił ¡kończących się w 23-stopniowychl strefach wokół biegunów geomagnetycznych, w tychl właśnie strefach zorze polarne są najczęstsze i naj-; intensywniejsze; z tego samego powodu gwałtowne! wahania w natężeniu pola magnetycznego, spowoctóll wane prądami w jonosfenze, również koncentrują się wzdłuż tych stref.
Naszkicowaliśmy wyżej współczesne poglądy na bot-i rze magnetyczne pochodzące od rozbłysków słoneczni nych. Burze takie rzadko powtarzają się po pełnymi obrocie Słońca wokół osi — wybuchy promieniowania falowego luib korpuskularnego Słońca mają zazwyczaj krótki żywot. Inaczej ma się jednak sprawa z zabu-| rżeniami słabszego typu. Jakkolwiek obszary Słońcami z którymi wydają się one związane, często nie wyka-j żują żadnej specjalnej! aktywności, to zachowują sięj jednak tak, jakby wysyłały strumienie cząstek w dą- i gu dwóch, trzech lub więcej obrotów słonecznych, i bez przerwy. W rezultacie, jeżeli strumień taki leżyj w płaszczyźnie orbity Ziemi, to ogarnia Ziemię co każ-j de 27 dni, powodując efekty podobne do opisanych! w wypadku burzy, z tą różnicą, że z niewyjaśnionychl dotąd powodów nagły początek jest stłumiony, a inne zasadnicze fazy — trudne do rozpoznania. Ponadto; zaburzenia te nie obejmują — jak burze — całegoj świata, lecz koncentrują się głównie w rejonach polarnych, a zwłaszcza wzdłuż stref maksymalnej częstości zórz.
Taki jest więc z grubsza obraz zjawisk magnetycznych. Wiele szczegółów wymaga tu jeszcze uzupełnień nia, przy czym liczne cechy owego obrazu trzeba będzie zmienić, aby uwzględnić nowoodkryte fakty.
Tymczasem przypomnijmy sobie niektóre spośród przedyskutowanych punktów. A więc: badanie stałego pola jest dotychczas jedynym kluczem, jaki posiadamy, do tego, co się dzieje głęboko, w ciekłym jądrze Ziemi; wielkie dynamo produkujące na wysokości stu kilometrów rogulame zmiany dobowe pola ziemskiego działa jedynie dlatego, że magnetyzm ziemski dostarcza pola, w którym ruchy pływowe przemieszczają strumienie znajdujących się tam jonów, zaś w odległości dziesiątków tysięcy kilometrów, w otaczającej Ziemię przestrzeni, odległe linie sił odgrywają dominującą rolę w szeregu zjawisk, które zależą przypuszczalnie od ich oddziaływania na przychodzące ze Słońca (naładowanie cząstki.
BADANIA GÓRNYCH WARSTW ATMOSFERY
Chcąc wiedzieć, jakie związki zachodzą pomiędzy naszą planetą a jej sąsiadami w kosmosie, zwłaszcza Słońcem, musimy wysłać nasze przyrządy do granic atmosfery i jeszcze dalej. Samoloty względnie balony- -sondy mogą dotrzeć jedynie do tych wysokości, na których jest jeszcze dość pouńetrza, by statki powietrzne mogły się w nim unosić. Aby dotrzeć wyżej, trzeba użyć rakiet — jedynego środka do badania przestrzeni kosmicznej, jaki jest znany człowiekowi.
W niniejszym szkicu R. L. F. Boyd wyjaśnia, w jaki sposób ów starożytny wynalazek dostosowano do celów naukowych, oraz omawia niektóre spośród odkryć, jakidh dokonano przy jego ppmocy.
R. L. F. Boyd, wykładowcza fizyki w londyńskim University College, jest współautorem podstawowych prac w zakresie górnej atmosfery; znany jest również z odczytów radiowych.
Zakończony w roku 1959 Międzynarodowy Rok Geć9 fizyczny -różnił śię pod wieloma względami od orga-1 nizowamych poprzednio (podobnych imprez międzynaS rodowych, przewyższając je zarówno ilością biorącycja w ndej udział państw, jak i ilością badianych zjiawiskl Najważniejszą chyba innowacją było jednak szerokia wykorzystanie rakiet do transportu przyrządów naa kowych do górnych warstw atmosfery ziemskie* W ten sposób badania licznych zjawi.sk zachodzącyc™ wokół globu nabrały charakteru trójwymiarowego. % Oczywiście, rakiet używano i przedtem. Zanim roz-| począł się MRG, wystrzelono ich ponad sto, zdobywa-j jąc w ten sposób niemało informacji naukowych, jied-J nakże w okresie intensywnych badań podczas MRG® wystrzeliwano ich przeciętnie trzy na tydzień. Ponadrl to wprowadzono na orbity osiem sztucznych satelitowi i rozpoczęto badania nad przestrzenią międzyplanej tamą. [ ! JM
Do badań rakietowych włączyło się wiele różnycH* krajów, przy czym program ich obejmował niezwykle! szeroki zakres zaigadnień. W Anglii badania te byłyi i są prowadzanie pod auspicjami Towarzystwa Kró-| lewskiego przy czynnej pomocy Ministerstwa Zaopatrzenia, a zwłaszcza Królewskiej Organizacji Lotni>| cae| (Royal Aircraft Establishment),
Dlaczego używamy rakiet? Fakt ten z pewnością nid
ma mc wspólnego ze współ zawodmictwem pomiędzy narodami, ani z podróżami kosmicznymi. Przyrządy przeprowadzaj ą odpowiednie badania naukowe znacznie lepiej;, niż mógłby to zrobić na wpół oszołomiony i; źle się czujący żywy człowiek*. Lecz cóż w ogóle można tam badać?
Patrząc w pogodną noc na gwiazdy trudno wprost uwierzyć, by cokolwiek godnego uwagi mogło zachodzić w tej przezroczystej przestrzeni, która rozciąga się ponad nami. Gęstość atmosfery maleje gwałtownie ze wzrostem wysokości i wydawałoby się, że możemy najwyżej utwierdzić sLę w przekonaniu, iż powietrze ponad mami istotnie, stopniowo zanika.
Pogląd taki bardzo daleko odbiega od prawdy. W rzeczywistości, w górnych warstwach atmosfery dzieje się bardzo wiele. Cząsteczki rozpadają się tam na atomy, atomy zaś tracą elektrony stając się nała- 1 dowanymi elektrycznie joniami. Powstają substancje
o ogromnej aktywności chemicznej, jak np. tlenek azotu. Cząsteczki i atomy są pobudzane do fluorescencji. Docierające z odległej przestrzeni promienie kosmiczne, o niewiarygodnych wprost energiach, bombardują powietrze rozbijając jądra atomów gazów atmosferycznych i wyzwalając ulewy przenikliwych cząstek zwanych mezonami. Z bliższych stron z układu słonecznego gg£j przylatują pozostałości komet — drobne meteory —- by jarząc się Jasnym blaskiem wyparować w zetknięciu z powietrzem. Od czasu do cza- su większa bryła dociera do dolnych warstw atmosfery w postaci świecącej kuli «albo eksplodującego bolidu, lub, co zdarza się rzadziej, spada na Ziemię, jako meteoryt. Z drugiej strony mamy bezustanny deszcz
ii
pyłu międzyplanetarnego, który, hamowany w swym spadku przez górne warstwy atmosfery, osiada na Ziemi cicho i niepostrzeżenie. Łączny wpływ przyciągania Słońca i ogrzewania się powietrza wywołuje w górnych warstwach atmosfery potężne wichry, które w wyniku elektryzującego działania ultrafioletowego promieniowania słonecznego powodują z kolei powstawanie wielkich prądów elektrycznych wykrywalnych na Ziemi wskutek ich oddziaływania na igłę magnetyczną.
■ Są to wszystko wielkie problemy naukowe, a że nasze wiadomości są jeszcze odnośnie do wielu rzeczy bardzo skąpe, wciąż dokonuje się zupełnie nowych odkryć.
Nie odpowiedzieliśmy jednak dotąd na pytanie, dlaczego właśnie rakiety są najlepszym dla tych badań narzędziem. Są one przecież kosztowne, często nawet bardzo kosztowne, więc czy nie można by zamiast nich używać balonów?
Każdy wie, że ciśnienie powietrza maleje ze wzrostem wysokości, w związku z czym alpiniści muszą na wyższe wspinaczki zabierać ze sobą tlen; do znacznych wysokości można przyjąć, że maleje ono dziesięciokrotnie na każde 16 km wzniesienia. Zgodnie z zasadą Archimedesa, siła wyporu balonu równa jest ciężarowi wypartego przezeń powietrza. Jeżeli więc 1 kg powietrza zajmuje na Ziemi około 0,8 m3, to balon o średnicy około 6 m może unieść ciężar około 130 kg, wliczając w to ciężar powłoki i gazu. Dla uniesienia tego samego ciężaru na wysokość 50 km, gdzie ciśnienie jest około tysiąca razy mniejsze niż na Ziemi, potrzebny byłby balon o średnicy około 60 m. Gdyby powłokę tego balonu wykonać z materiału
o grubości około 0,01 mm, to sam balon z gazem, nie mówiąc już o przyrządach, ważyłby więcej niż 130 kg.
Tymczasem balon o takich parametrach znajduje się niemal dokładnie na granicy naszych możliwości technicznych. Na wysokościach przekraczających 50 km nie możemy więc używać balonów.
Z pomocą przychodzą tutaj rakiety. Nie potrzebują one powietrza ani do spalania paliwa, ani do wytwarzania ciągu, gdyż tlen zabierają ze sobą, a ciąg uzyskują dzięki odrzutowi. Za pomocą prostego doświadczenia łatwo pokazać, że odrzut nie ma nic wspólnego z „odpychaniem” się od powietrza. Potrzeba w tym celu krzesła obrotowego (używanego niekiedy przez dyrektorów dla stwarzania 'zastraszającego wrażenia wsze chob ecności), diużego ciężarka (np. typu używanego do gimnastyki odchudzającej) oraz dziecinnego balonika. Siedząc na krześle przyciągnijcie mamię z ciężarkiem do siebie, a następnie odepchnijcie je szybko, ż całej siły; powstały przy tym odrzut obróci krzesło dookoła. Powtórzcie teraz ten eksperyment używając zamiast ciężarka balonu. Oczywiście balon stawia powietrzu duży opór, ale że odpychanie się od powietrza nie ma z tym nic wspólnego, krzesło obraca się słabo. Przeciwnie, jak zobaczymy dalej, powietrze jest dla rakiety przeszkodą; poruszająca ją siła odrzutu najskuteczniej działa w próżni.
Przy pomocy prostego rachunku można pokazać, że maksymalna prędkość, jaką może osiągnąć w próżni rakieta zabierająca około dwukrotnie więcej paliwa niż saima waży, równa się prędkości opuszczających ją gazów spalinowy oh. Z drugiej strony ta sama rakieta wystrzelona w atmosferze osiągnie jedynie ułamek tej prędkości i to być może niewielki. Dzieje się to na skutek oporu powietrza, który pochłaniając energię zmniejsza prędkość rakiety. Z tego powodu wiele mniejszych rakiet używanych podczas MRG wystrzeliwano z balonów, które wynosiły je przed odpalę-
»i ł JL
»fi" -y .
i j*n ■ "hL y * f P'-t
niem ponad najgęstszą część atmosfery. Tak np. rakieta, która wystrzelona z Ziemi osiągnęłaby około 15 km, wystrzelona z balonu na wysokości około 30 km, może dotrzeć do około 150 km. Urządzenie takie nosi angielską nazwę „rockoon”*.
Podobny skutek uzyskuje się umieszczając małą rakietę na krótko działającej rakiecie pomocniczej, służącej do nadania temu układowi prędkości wystarczającej do przebycia gęstych warstw atmosfery, ponad którymi zostaje odpalona główna rakieta. Wiele spośród rakiet używanych podczas MRG stanowiło zestawy małych jednostek na paliwo stałe, wystrzeliwanych w wyżej opisany sposób.
Rakieta leci podobnie jak strzała, tzn. osiągając swoją maksymalną prędkość w ciągu stosunkowo krótkiego czasu pracy silnika, wynoszącego na ogół około 1/2 minuty, a dalej poruszając się dżięki bezwładności; maksymalną wysokość rakieta osiąga w ciągu około 10 minut. Większość rakiet badawczych sterowana jest za pomocą sztywnych lotek, które są odpowiednikami piór przy strzałach, jakkolwiek na wysokości 50—60 km powietrze jest już tak rozrzedzone, że lotki przestają być skuteczne. Wielkie rakiety, w rodzaju używanych do wystrzeliwania satelitów, są sterowane bądź silnikami pomocniczymi, bądź za pomocą specjalnych urządzeń odchylających główny strumień gazu, i mogą w ogóle nie posiadać lotek. Rakiety takie mogą startować z prostych stanowisk, zaś automatyczny pilot utrzymuje je we właściwym kierunku; mniej skomplikowane rakiety natomiast, jakich używa się do większości celów naukowo-badawczych, muszą być albo bardzo gwałtownie przyspieszane, by lotki mogły
od razu działać, albo muszą korzystać z takich urządzeń, jak wieże startowe z prowadnicami, które utrzymują je we właściwym kierunku, zanim nie zostanie osiągnięta wystarczająco duża prędkość.
Problemem nie mniejszej wagi niż sam transport przyrządów na duże wysokości jest odzyskanie otrzymanych przez nie informacji. W Związku Radzieckim, gdzie dawniej kładziono wielki nacisk na eksperymenty biologiczne, do odzyskiwania zarówno danych pomiarowych, jak i okazów doświadczalnych (nierzadko psów) stosowano spadochrony. Spadochronów używano także na Zachodzie, lecz częściej korzysta się tu z telemetrii. Oznacza to, że wskazania przyrządów, odpowiednio zaszyfrowane, przekazywane są na Ziemię, drogą radiową. Oczywiście istnieją pewne szczególne rodzaje eksperymentów, np. obejmujące fotografowanie, do których metoda ta nie daje się zastosować. W tych przypadkach można niekiedy uniknąć stosowania nieuchronnie wielkiego i ciężkiego spadochronu, stosując odpowiednio wytrzymałe kasety, które pozostają światłoszczelne, pomimo uszkodzeń związanych z silnym wstrząsem przy lądowaniu.
Przeprowadzanie doświadczeń w laboratorium-ra- kiecie stwarza problemy zupełnie inne niż ich przeprowadzanie na Ziemi. Jako dobry przykład może tu służyć pomiar temperatury powietrza. Na Ziemi mierzy się ją termometrem osłoniętym tak, by dochodziło do niego powietrze, a nie dochodziło promieniowanie Słońca; nie możemy jednak mierzyć temperatury wystawiając po prostu termometr z rakiety. Oczywiście w żadnym wypadku nie można by użyć zwykłego termometru rtęciowego — musiałby to być termometr elektryczny podłączony do nadajnika urządzenia telemetrycznego; istota trudności polega jednak na tym, że
nie uzyskalibyśmy w ten sposób właściwej informacji. Termometr taki, nawet osłonięty przed promieniowaniem słonecznym, wskazałby temperaturę znacznie wyższą od temperatury otaczającego powietrza, ogrzewając się wskutek tarcia podczas przelotu przez atmosferę z prędkością naddźwiękową. Podobnie, jakakolwiek próba bezpośredniego pomiaru prędkości wiatru za pomocą wiatromierza lub innego podobnego urządzenia umieszczonego w rakiecie prowadziłaby, na skutek olbrzymiego wpływu ruchu rakiety, do bardzo niedokładnych wyników.
Wiadomo jednak, pomijając zmiany wilgotności w dolnych warstwach atmosfery, że do wysokości około 80 km skład powietrza atmosferycznego niemal w ogóle się nie zmienia. Z drugiej zaś strony temperatura i wiatr zmieniają się w bardzo szerokich granicach. W celu badania tych zmian załadowuje się rakietę pewną ilością granatów (w eksperymentach brytyjskich — osiemnastoma), które w czasie wzlotu rakiety są z niej wyrzucane i odpalane w mniej więcej równych odstępach czasu. Na Ziemi, na obszarze o średnicy około 30—50 km, znajduje się układ mikrofonów połączonych z rejestratorami. Nie są to zwykłe, powszechnie znane mikrofony. Zawierają one siatkę z cienkiego drutu platynowego o średnicy około 0,025 mm, ogrzewaną prądem elektrycznym. Fala dźwiękowa, przechodząc przez nią, chłodzi drut zmieniając jego oporność elektryczną, co z kolei prowadzi do zmian napięcia na końcach siatki. Układ taki może być zupełnie nieczuły n.a zwykłe dźwięki słyszalne, natomiast z łatwością zareaguje na infradźwięki* o niskich częstościach. Wystrzał z pistoletu słabo zaznaczy się
|
|
|
|
bSSSi |
|
^ *v i ' S |
/Sr
na zapisie rejestratora, natomiast charakteryzująca się małą częstością fala ciśnienia, spowodowana np. delikatnym otwarciem drzwi wywoła ogromne wychylenie wskaźnika przyrządu.
Odgłos eksplozji po przebyciu 80 km w atmosferze nie będzie już zawierał składowych słyszalnych, gdyż
zostaną one wytłumione w rozrzedzonym powietrzu na wielkich wysokościach, lecz wciąż będzie zawierał składową podsłyszalmą. Składowa ta może być wykryta przez mikrofony, a moment jej przyjścia rejestrator może zanotować z dokładnością do tysięcznych części sekundy.
Na Ziemi, poza mikrofonami, znajduje się kilka bardzo dokładnych kamer balistycznych. W kamerach
tych położenie kliszy jest precyzyjnie wyznaczone za pomocą trzech ostrzy diamentowych. Migawkę uruchamia zdalaczynne urządzenie elektryczne połączone z tzw. wykrywaczem błysku, wycelowanym w kierunku oczekiwanych wybuchów. Wykrywacz błysku zawiera fotokomórkę reagującą na błysk wybuchu i pozwala na dokładne wyznaczenie momentu eksplozji. Miejsce wybuchu może być zidentyfikowane przez porównanie jego położenia na fotografii z położeniem znanych gwiazd. Moment dojścia fali dźwiękowej do różnych miejsc na powierzchni Ziemi wyznacza się za pomocą mikrofonów.
W nocy migawka kamery jest stale otwarta; w dzień konieczność otwierania migawki tylko w momencie wybuchu komplikuje nieco cały układ. Elektryczna migawka może być jednak uruchomiona już w ciągu niespełna jednej setnej sekundy od momentu „zauważenia” błysku przez wykrywacz. Ponieważ sam błysk trwa co najmniej 1/10 sekundy, pozostaje dość czasu na zrobienie zdjęcia.
Łatwo można wykazać, że czas potrzebny na dojście fali dźwiękowej do mikrofonów zależy od temperatury powietrza na jej drodze oraz że do mikrofonów położonych z „wiatrem” dźwięk dotrze szybciej niż do położonych „pod wiatr”. Obserwując różnice w zachowaniu się dźwięków pochodzących od kolejnych eksplozji można obliczyć lokalne wartości temperatury i wiatru w warstwach położonych pomiędzy miejscami kolejnych wybuchów. Same rachunki są bardzo skomplikowane, lecz automatyczny przelicznik elektronowy szybko daje sobie z nimi radę.
Stosowanie granatów powyżej 80 km okazało się, jak dotychczas, niemożliwe, ponieważ dźwięk był zbyt słaby. Powyżej tego poziomu trzeba się więc odwołać do innych metod. Jedna z nich polega na wypuszczaniu
przez rakietę pary sodu. Wewnątrz rakiety, w pokrytej azbestem komorze, umieszcza się w tym celu termit (mieszanka używana m.Ln. podczas II Wojny Światowej w bombach zapalających) zmieszany z małymi bryłkami metalicznego sodu. Po zapaleniu mieszanki powstaje bardzo wysoka temperatura, powodująca powstanie długiej chmury pary sodu. Para ta fluory
zuje w promieniach Słońca charakterystycznym żółtym światłem sodowym. Przeprowadzając ten eksperyment o zmroku, gdy niebo jest już ciemne, a rozrzedzone górne warstwy atmosfery są jeszcze oświetlone, można ów obłok ®odowy obserwować i fotografować 'z ziemi. Jego ruch pozwala wnioskować o wietrze,
badanie zaś emitowanego przezeń światła za pomocą interferometru dostarcza informacji o temperaturze.
Powyżej 80 km skład górnej atmosfery zaczyna się zmieniać. Stosunek ilości tlenu i azotu ulega zmianie i zaczynają się pojawiać nowe, nietrwałe substancje, jak np. tlen atomowy. Pierwsze próby zmierzenia tych zmian polegały na wysyłaniu opróżnionych naczyń dla pobrania próbek i na tej drodze istotnie osiągnięto pewne sukcesy. Eksperyment taki był jednak niezmiernie trudny. Naczynie należało otwierać i zamykać bez żadnych zanieczyszczeń próbki, a następnie należało przeprowadzić dokładną analizę gazu w ilości milionowych części grama. Występował tam nawet problem selektywnego działania momentu otwarcia naczynia, dzięki któremu gazy lekkie, jak hel, o szybko poruszających się atomach pobierane były w większej stosunkowo ilości niż gazy ciężkie, takie jak argon.
Lepszym rozwiązaniem możliwym do stosowania na bardzo wielkich wysokościach jest prowadzenie analizy powietrza in situ. Można to robić dwoma różnymi sposobami, używając bądź spektrometru masowego, bądź zwykłego spektrometru optycznego.
Spektrometr masowy jest przyrządem, w którym niektóre atomy i cząsteczki próbki gazu są jonizowane za pomocą wiązki elektronów, emitowanej przez gorącą katodę, a następnie przyspieszane w polu elektrycznym. Prędkość, którą osiągają, zależy od ich masy, względnie ciężaru, a więc od tego, jakie to są jony — atomy tlenu (O), cząsteczki tlenu (O2), atomy helu (He), czy inne. Prędkość jonów można wyznaczyć bądź bezpośrednio, mierząc czas przejścia jonów przez pewien krótki odcinek, bądź mierząc odchylenie ich toru w polu magnetycznym. W badaniach górnej atmosfery używa się zwykle tej pierwszej metody, ponieważ nie wymaga ona użycia dość ciężkiego magnesu.
Metoda analizy składu górnej atmosfery za pomocą spektrometru optycznego opiera się na tym, że światło słoneczne przechodzące przez powietrze ulega pewnym zmianom. Wyjaśnia to następująca analogia: jeżeli za pomocą pryzmatu lub siatki dyfrakcyjnej rozszczepimy światło słoneczne, to zauważymy, że zawiera ono całą skalę barw światła o różnych długościach fal. Umieszczając następnie przed pryzmatem szybkę z lekko zabarwionego szkła, przekonamy się, że światło opuszczające pryzmat jest teraz uboższe
o pewne barwy. Zwiększenie grubości szkła powoduje zwiększenie tych strat — osłabienie światła odpowiednich kolorów może więc stanowić miarę grubości szkła.
Atmosfera jest wprawdzie przezroczysta dla wszystkich barw widzialnych, lecz poza fiołkowym krańcem widma istnieje jeszcze krótkofalowe promieniowanie ultrafioletowe. Promieniowanie to, niewidoczne dla oczu, posiada duże znaczenie zdrowotne i powoduje powstawanie opalenizny. Na szczęście najkrótsze spośród tych ultrafioletowych promieni są pochłaniane przez składniki atmosfery, w przeciwnym bowiem razie otrzymalibyśmy znacznie większe dawki energii promienistej, niż moglibyśmy wytrzymać bez uszczerbku dla zdrowia. Z tej właśnie zdolności pochłaniania możemy zrobić użytek w analizie widmowejl.
Długość fałd światła słonecznego pochłanianego przez dany składnik atmosfery zależy od natury tego składnika, zaś wielkość pochłaniania zależy od całkowitej ilości pochłaniających atomów, jlakie znajdują się pomiędzy Słońcem a miejscem obserwacji. Fotografując podczas wzlotu rakiety ultrafioletowe widmo Słońca lub mierząc elektrycznie natężenie światła na kilku różnych długościach fali, możemy wyznaczyć ilość
pochłaniającej substancji pomiędzy dwoma kolejnymi wysokościami, na których rohiono pomiary.
Energia usunięta z wiązki światła nie może jednak zniknąć. Na przykład pewna ilość światła niebieskiego zostaje przez atmosferę usunięta i z tego powodu Słońce ma barwę czerwonawą, zwłaszcza przy wschodzie i zachodzie, gdy promienie słoneczne muszą niemal poziomo przechodzić przez wielokilometrową warstwę atmosfery. Owo niebieskie światło jednak nie ginie i odnajduje się w postaci niebieskiej barwy nieba.
Ultrafioletowe promieniowanie słoneczne, natrafiając na cząsteczki gazów atmosferycznych, ulega wprawdzie częściowemu rozproszeniu, większa część jego energii zostaje jednak zużyta na wzbudzenie lub rozbijanie cząsteczek i atomów, na które promieniowanie pada. Może przy tym występować wiele różnorodnych zjawisk. Elektrony ¡mogą zostać przeniesione na orbity leżące dalej od macierzystego jądra lub mogą zostać w ogóle wyrzucone, pozostawiając macierzysty atom w postaci dodatniego jonu. Cząsteczki mogą zostać pobudzone do drgań, lub rozpaść się na składowe atomy. Obraz ten dodatkowo komplikuje fakt, że powstające fragmenty mogą reagować z innymi składnikami atmosfery i mogą tworzyć nowe cząsteczki, które w niższych, gęstszych warstwach atmosfery byłyby nietrwałe, oraz że elektrony mogą przyłączyć się do innych atomów i cząsteczek tworząc jony ujemne.
Poza tym zachodzi rekombinacja różnych fragmentów, oczywiście na ogół nie z poprzednimi partnerami, lecz | innymi, identycznymi. Uzyskana energia zostaje rozproszona w postaci ciepła lub częściowo reemito- wana na falach dłuższych niż te, na których została pochłonięta. Proces ten powoduje trwające dzień i noc świecenie nieba — słabą, lecz wyraźną fluorescencję górnych części atmosfery.
Pomiędzy różnego rodzaju doświadczeniami rakietowymi prowadzonymi w różnych krajach znajdowały się również pomiary natężenia, barwy i wysokościowych zmian owego świecenia nieba.
Jednym z najważniejszych i najwyraźniejszych skutków pochłaniania energii promienistej Słońca w górnej atmosferze jest proces jonizacji prowadzący do powstania zjonizowanych, przewodzących elektryczność, warstw atmosfery.
Ów zjonizowany obszar, czyli tzw. jonosfera, ma ogromne znaczenie dla światowej łączności radiowej. Wiele związanych z nią zagadnień nie daje się jednak badać za pomocą odbitych od niej fal radiowych, wysyłanych z Ziemi. Zaczyna się jie rozwiązywać dopiero obecnie, za pomocą rakiet i satelitów. Jednym z takich zagadnień jest dokładne wyznaczenie wysokości wyższych warstw jonosfery. Prędkość fal radiowych spada bowiem w gazie izjonizowanym i wyznaczanie wysokości najwyższych warstw jonosfery z pomocą pomiaru czasu upływającego pomiędzy nadaniem sygnału a powrotem jego echa jest niezibyt pewne. Niemożliwe jest również za pomocą sygnałów radiowych nadawanych z Ziemi dokładne badanie tych rejonów, które leżą powyżej! poziomu maksymalnej jonizacji. Prowadzone z Ziemi sondowania radiowe nie dostarczają także żadnych danych 00 do rodzaju występujących w jonosferze zjonizowanych cząstek, ponieważ fale radiowe reagują niemal wyłącznie na elektrony.
Wszystkie te problemy dają się jednak rozwiązać za pomocą rakiet. Wysokość, na jakiej rakieta się znajduje, może zostać zmierzona za pomocą fal radiowych tak krótkich, że nie są one zakłócone przez jonosferę. Gęstość jonizacji można zmierzyć zbierając cząstki na małą naładowaną elektrodę, umieszczoną na dziobie rakiety i mierząc powstający stąd prąd elektryczny.
Inną, nową i elegancką metodę, wynalezioną na Uniwersytecie w Birmingham, zastosowano z powodzeniem podczas tzw. „rakietowego dnia światowego”, w czerwcu 1958 r., w Wo- omera. Pojemność elektryczna kondensatora zmienia się, jeżeli gaz pomiędzy okładkami zostaje zjonizowany, przy czym wielkość tej zmiany zależy od gęstości jonizacji. Przy pomiarze rakietowym kondensator będący odizolowaną od reszty konstrukcji częścią dzioba rakiety zostaje włączony w obwód strojony oscylatora radiowego. Wynik pomiaru w postaci częstotliwości oscylatora zostaje przekazany na Ziemię za pomocą urządzę* ria radiotelemetrycznego i po rozszyfrowaniu, zinterpretuj wany „w języku” struktury jonosfery.
Dla zbadania rodzaju jo? nów występujących w z jonizowanych warstwach atmosfery możemy skorzystać z opisanej poprzednio techniki spektrometru masowego, z tą różnicą, że możemy tu zrezygnować z jonizuj jącego strumienia elektronów, jako że wchodzące w grę cząstki są już zjonizowane.
Jednym z najdonioślejszych wyników badań tego rodzaju było odkrycie, że w anacznym przedziale wyso-
kości najpospolitszym jonem jest NO+, dodatnio naładowana cząsteczka tlenku azotu. Jest to wynik — zważywszy, że obojętne cząsteczki tlenku azotu rzadko występują wśród innych składników górnej atmosfery — zgoła nieoczekiwany, a przy tym efektownie pokazujący, jak ważną rolę odgrywają w tych rejonach reakcje chemiczne wywoływane pnzez intensywne naświetlanie słonecznymi promieniami ultrafioletowymi.
Mówiliśmy dotąd o tej części widma słonecznego, która charakteryzuje się falami krótszymi niż światło widzialne. W miarę jak przechodzimy do fal coraz krótszych, aktywność elektryczna i chemiczna promieni wzrasta, lecz ich natężenie maleje, jako że widmo słoneczne jest najintensywniejsze w środku pasma widzialnego. Przechodzić do fal coraz krótszych nie można jednak bez końca; postępując w ten sposób dojdziemy w końcu do tzw. miękkich promieni X (zwanych tak z powodu stosunkowo mniejszej przenikliwości niż przenikliwość tzw. twardych promieni X, o jeszcze krótszej fali). Fakt, że promienie ultrafioletowe X są tak aktywne w górnej atmosferze, prowadzi do ich całkowitego pochłonięcia, zanim dotrą do dolnych warstw atmosfery, i aby je obserwować, trzeba korzystać z rakiet o dużym pułapie lub z satelitów. Obserwacje tego promieniowania prowadzi się za pomocą urządzeń fotograficznych liu'b elektrycznych.
Urządzenia fotograficzne składają się z kawałków czułego filmu, /umieszczonych za paskami różnych metalowych folii. Folie te są tak dobrane, że pomiar zaczernienia fibnp pozwala określić natężenie i długość fali promieni X, które je wywołały. Mocna, uruchamiana elektrycznie zasłona zakrywa delikatne paski folii w czasie opadania i chroni je przed uszkodzeniem w momencie uderzenia o ziemię.
Elektrycznie wykrywa się promieniowanie X za pomocą urządzeń w rodzaju licznika Geigera. Jest to rura do wyładowań, zaopatrzona w okienko z cienkiej folii, przez które przenikają promienie X, wywołując impulsy prądu elektrycznego.
ir-
Przy pomocy takich urządzeń wykazano, że Słońce wysyła ze swej zewnętrznej atmosfery, czyli korony, intensywne promieniowanie X. Korona składa sią w głównej mierze z wodoru o ogromnej temperaturze miliona stopni Celsjusza, to znaczy o wiele wyższej, niż temperatura świecącej powierzchni Słońca. Od czasu do czasu, pod działaniem przechodzących przez nie cząstek, pewne obszary korony nagrzewają się
lokalnie jeszcze bardziej; ¡natężenie promieniowania rentgenowskiego wówczas rośnie, promienie stają się twardsze, wskutek czego wzrasta wywoływana przez nie w atmosferze ziemskiej jonizacja.
Jeszcze większe, być może, zmaczenie mają sporadyczne wzrosty natężenia teji części promieniowania ultrafioletowego, która jonizuje najniższe warstwy jonosfery. Gdy coś takiego nastąpi, np. w związku z rozbłyskiem słonecznym, to zwiększenie jonizacji na wysokości ok. 80 km i związanego z nim pochłaniania energii fal radiowych powoduje przerwanie dalekosiężnej komunikacji radiowej.
Podczas MRG dokonano częściowo udanych prób obserwacji wzmożenia promieniowania słonecznego podczas rozbłysku (rozbłysk jest to lokalne rozjaśnienie się powierzchni Słońca). W tym celu przygotowano się do wystrzelenia odpowiednio wyposażonych rakiet w ciągu kilku minut po wykryciu rozbłysku przez pobliskie obserwatorium słoneczne. Wysiłek i koszty związane z takimi przygotowaniami są jednak bardzo duże. Niezbędne były więc środki, które pozwoliłyby całymi tygodniami utrzymywać wyposażenie badawcze w górze, tak by w momencie pojawienia się (rozbłysku już odbierało promieniowanie słoneczne. Idealnym niemal rozwiązaniem są tutaj; satelity, toteż od chwili pojawienia się tych laboratoriów kosmicznych badania sporadycznych zaburzeń na Słońcu oraz ich wpływu na jonosferę .przechodzą z „królestwa” rakiet o torze pionowym do „królestwa” sztucznych satelitów Ziemi.
Zalet sztucznych satelitów w niczym nie umniejsza fakt, że wystrzelone na znaczne wysokości mogą prowadzić ciągłą obserwację jedynie tak długo, jak długo działają baterie elektryczne i jak długo instrumenty pracują prawidłowo. (Obecnie dzięki zastoso
waniu ogniw słonecznych ograniczenia związane z bateriami zostały przezwyciężone.) Nie mniej ważna jest okoliczność, że obszar obserwacji satelity pokrywa cały świat. Satelita wprowadzony na orbitę przechodzącą nad biegunami znajdzie się, w ciągu mniej wię-
cej dziewięciu obrotów trwających razem około dwunastu godzin, w polu widzenia wszystkich kolejno punktów kuli ziemskiej. Wynika to z faktu, że orbita satelity jest w pierwszym przybliżeniu nieruchoma w przestrzeni, podczas gdy Ziemia obraca się dookoła osi, wskutek czego każdy punkt Ziemi przechodzi naj(- pierw pod jedną, a następnie pod drugą częścią orbity.
Satelita wystrzelony pod ostrym kątom do równika znajduje się w mniej korzystnej! sytuacji. Nachylenie orbity do równika wynoszące 65° (jakie miały sputniki wystrzelone do końca 1958 r.) pozwala dotrzeć wszędzie, z wyjątkiem rejonów polarnych — Arktyki i Antarktyki. Mniejsze nachylenia są jeszcze
mniej korzystne, lecz mają tą zaletą, że w większym stopniu pozwalają wykorzystać prędkość ruchu obrotowego Ziemi dla wprowadzenia satelity ma oihitę. Oczywiście istnieją także doświadczenia, dla których zupełnie odpowiednia jest orbita położona nad równikiem; do kategorii tej należą mp. pewne obserwacje astronomiczne.
Wystrzelenie satelity jest niezwykle skomplikowanym przedsięwzięciem. Prędkość niezbędna do tego celu jest tak wielka, że jeszcze dwadzieścia lat temu Wiele Ludzi pracujących obecnie w dziedzinie sztucznych satelitów uważało za niemożliwe osiągnięcie jej przy pomocy paliw chemicznych. Energia kinetyczna Satelity poruszającego się z prędkością orbitalną 30 000 km/godz jest niemal 100 000 razy większa niż energia samochodu osobowego jadącego z prędkością 100 (km/godz, wystrzelenie zaś iza pomocą pojedynczej rakiety satelity o ciężarze, powiedzmy pół tony, wymagałoby energii jeszcze wielokrotnie większej, ponieważ wraz z satelitą muszą zostać wyniesione na wysokość orbity i przyspieszone do prędkości orbitalnej także olbrzymie zbiorniki paliwa i silniki rakiety.
Powszechnie wiadomo, że tajemnica osiągnięcia tych olbrzymich prędkości (a także większej, bo wynoszącej około 43 500 km/godz, — prędkości niezbędnej dla rakiety księżycowej) polega nia użyciu rakiet wielostopniowych. Wielka rakieta unosi średnią, ta zaś z kolei — całkiem już stosunkowo małą. Po wyczerpaniu się paliwa w majiwiększej, czyli w tzw. pierwszym stopniu, zostaje ona odrzucona; bezużyteczny już ciężar pustych Zbiorników i ogromnego silnika spada na (ziemię, drugi zaś stopień zwiększa swą prędkość, nie obciążony już zbyteczną „martwą” masą. Proces ten powtarza się trzy lub cztery razy z kolejnymi stopniami, aż wreszcie ostatniego impulsu niezbędnego
do osiągnięcia prędkości orbitalnej dostarcza rakieta akurat takich rozmiarów, jakie są do tego celu niezbędne.
Osiągnięcie odpowiednio wielkiej prędkości jest koniecznym warunkiem udanego wystrzelenia satelity, ale dopiero jednym warunkiem. Niemniej jednak istotne jest osiągnięcie jej na odpowiedniej! wysokości i w odpowiednim kierunku. Jeżeli w momencie oddzielania się ostatniego stopnia kierunek ruchu satelity odchyla się od planowanego o stopień lub dwa, ku górze lub ku dołowi, satelita zbliży się w pewnym punkcie swojej orbity zanadto do Ziemi, co daje równie niepożądane skutki jak osiągnięcie końcowej, orbitalnej prędkości na wysokości zbyt małej. W obu tych wypadkach satelita będzie poruszać się w stosunkowo gęstych warstwach atmosfery, co spowoduje stałe zmniejszanie się jego wysokości, aż do upadku na Ziemię. To samo nastąpi wtedy, gdy pomimo właściwej wysokości i właściwego kierunku prędkość nadana satelicie będzie za mała. Z drugiej strony zbyt duża prędkość zwiększy jedynie maksymalną odległość od Ziemi (czyli odległość tzw. apogeum). W praktyce stwierdzono, że jeżeli najbliższy Ziemi punkt orbity (peri- geum) znajduje się poniżej 300 km, żywot satelity będzie raczej krótki.
Trzy zjawiska powodują zmiany orbity i bad/anie tych zmian rzuca światło na każde z nich. Najważniejszym z tych zjawisk jest opór powietrza, ponieważ prowadzi on ostatecznie do zniszczenia satelity. Bezustanne zderzenia satelity z cząsteczkami gazów atmosferycznych pochłaniają jego energię. W pierwszej chwili mogłoby się wydawać, że efekt ten musi zmniejszać prędkość satelity, lecz o dziwo, tak nie jeaft; opór powietrza powoduje jej zwiększenie — zmniejsza za to wysokość orbity. Ponieważ dokładne
zachowanie warunków niezbędnych dla uzyskania orbity kołowej jest niemożliwe, tor satelity jest zawsze mniej lub więcej wydłużoną elipsą i opór powietrza obniża wpierw apogeum, a następnie, gdy orbita zbliży się do kołowej — także perigeum.
Mechanizm tego zdumiewającego przyspieszania satelity najłatwiej, będzie nam zrozumieć, gdy rozważymy stosunkowo prosty przypadek orbity kołowej, pamiętając przy tym, że satelita utrzymuje się na niej, poniewiaż jego ciężar jest dokładnie równoważony przez tzw. siłę odśrodkową. Związek ten można wyrazić równaniem:
w którym m jest masą satelity, M — masą Ziemi, G — tak zwaną stałą grawitacyjną, V — prędkością satelity, zaś R — promieniem orbity. Widzimy więc,
mMG mV‘
ze
Innymi słowy, jeżeli promień orbity się zmniejsza — co oczywiście* musi nastąpić, gdy satelita tnaci energię, — to prędkość satelity rośnie. Paradoks ten tłumaczy się faktem, że przyrost energii kinetycznej satelity spowodowany obniżeniem się orbity i związanym z tym zmniejszeniem jego energii potencjalnej jest większy niż potrzeba dla skompensowania strat wywołanych oporem powietrza.
Czas potrzebny satelicie na okrążenie Ziemi wynosi:
2nR
V
Dla wyznaczenia wpływu oporu powietrza wystarcza więc pomiar czasu zużywanego przez satelitę na zatoczenie orbity. Na podstawie teji informacji można wyznaczyć gęstość atmosfery na wysokości perigeum, a w miarę jak perigeum się obniża, można wykonać wykres rozkładu gęstości w zależności od wysokości. Za pomocą prostych rozwiażań teoretycznych można też określić temperaturę, co jest tym cenniejsze, że satelity krążą na wysokościach, na których opisane wyżej rakietowe metody pomiaru temperatury nie dają się już stosować.
Dwa pozostałe główne ruchy orbity powstają w wyniku działania tzw. efektu giroskopowego i polegają na obracaniu się płaszczyzny, w której orbita leży.
ii
rsr
*«■» /
IfSWHPP^l
.#*•****' iSV v’•'
ts&srts»»»
1 n-'M'-y^:7t< I? ■ ■ fi
ISw? * > ip* **
■¡s* *
Efekt ten polega na tym, że jeżeli rozkręcimy giroskop* i spróbujemy obrócić go wokół osi prostopadłej do osi obrotów, to zacznie się on obracać wokół trzeciej, prostopadłej do obu poprzednich. Satelita krążący po orbicie zachowiuje się jiak giroskop; jest przy tyim przedmiotem oddziaływania dwóch sił, a raczej ich momentów, które dążą do obrócenia osi orbity wokół środka Ziemi. Największa z tych sił, przy orbicie nachylonej do równika pod kątem powiedzmy 45°, związana jest ze spłaszczeniem Ziemi.
W wyniku oddziaływania sił związanych z obrotem Ziemi dookoła osi średni jej promień na równiku jest nieco większy niż na biegunach. Dodatkowe przyciąganie pochodzące od mas ¡znajdujących się w owej równikowej wypukłości dąży do zmniejszenia kąta nachylenia orbity do równika, a związany z tym efekt giroskopowy powoduje w rezultacie obrót płaszczyzny orbitalnej wokół osi Ziemi. Ruch orbity przejawia się oczywiście w zmianach toru satelity na tle nieba; obserwacja tych zunian pozwala wyznaczyć spłaszczenie Ziemi z dokładnością większą niż udało się to zrobić kiedykolwiek przedtem.
Trzeci główny ruch orbity wynika z faktu, że Ziemia obraca się wdkół osi z zachodu na wschód. Ponieważ orbita satelity nie porusza się wraz z Ziemią, sam satelita ulega działaniu wiatru zachodniego, który dąży do obrócenia orbity wokół osi ziemskiej. I tym razem, w wyniku działania momentu giroskopowego ruch wypadkowy jest inny — jest nim powolne zmniejszanie się nachylenia orbity do równika. Obserwacja tego ruchu dostarcza informacji o sile wspom-
Hf
mB AWMMapikił*» «Mi V
C 3f \ SUfc-®li^3p>BVT , Jf
nianego wiatru zachodniego, a w związku z tym nowych informacji o gęstości powietrza w rejonie orbity-
Warto zauważyć, że dla przeprowadzenia tych ważnych badań nie potrzeba żadnych instrumentów na samym satelicie; nawet radiolatarnia nie jest konieczna, choć znacznie ułatwia śledzenie jego ruchu. Potrzebne są za to bardzo dokładne przyrządy do obserwacji z Ziemi. Dla większości omawianych prac badawczych metody radionamiarowe są za mało doldad- ne i trzeba się posługiwać precyzyjnymi metodami optycznymi. Obserwacji tych dokonuje sią bezpośrednio przed świtem lub po zachodzie słońca, gdy satelita jest wciąż oświetlony, choć niebo jest już ciemne.
W Anglii do większości dokładnych obserwacji używano kinoteodolitów. Są to bardzo dokładne kamery filmowe, wyposażone w skale pozwalające rejestrować kierunek .ustawienia kamery. Od pewnego jednak czasu przechodzi się na precyzyjne metody fotoelektrycz- ne polegające na tym, że silna soczewka rzuca obraz nieba na ciemny ekran leżący w płaszczyźnie ogniskowej i zakrywający czułą fotokomórkę. W ekranie znajdują się szczeliny i gdy obraz satelity przecina je, fotokomórka wysyła serię impulsów, których czas pojawienia się rejestrowany jest z wielką precyzją. Kształty szczelin są tak dobrane, że rozmieszczenie impulsów w czasie .pozwala doikładnie wyznaczyć tor obrazu satelity na ekranie, zaś tor samego satelity na niebie można znaleźć, cechując przyrząd względem gwiazd.
Wyposażenie satelity w nadajnik radiowy dodatkowo zwiększa naukowe efekty jego wystrzelenia, wpływ jonosfery na odbiór sygnałów radiowych satelity dostarcza bowiem wielu informacji o samej jono- sferze.
Ażeby jednak maksymalnie wykorzystać takie kosz-
towne przedsięwzięcie, trzeba satelitę wyposażyć w instrumenty i przeprowadzać doświadczenia na jego pokładzie.
Znaczna część przyrządów używanych na satelitach jest bardzo podobna do analogicznych instrumentów skonstruowanych dla rakiet, oczywiście z tą różnicą, że energia elektryczna jest tu w cenie i wiele pracy
włożono, aby zredukować jej zużycie do minimum. Z tego powodu, a także z uwagi na ich wytrzymałość i niezawodność, szerokie zastosowanie znalazły tu tranzystory i inne urządzenia półprzewodnikowe. Na przykład w satelicie Vanguard I temperaturę konstrukcji satelity kontrolowano za pomocą termistorów, a wyniki przekazywano na Ziemię za pomocą tranzystorowego nadajnika zasilanego całkowicie półprzewod-
nikowymi bateriami słonecznymi. Temperatura panująca na satelicie zależy od ilości ciepła promieniowanego przez Ziemię i od staranności, z jaką wykonano jego powierzchnię. Obserwacje temperatury satelity mają wielkie znaczenie dla projektowania przyszłego wyposażenia instrumentalnego.
Jednym z niebezpieczeństw, na które narażone są satelity i inne urządzenia do badania przestrzeni kos-
micznej, jest erodujące działanie pyłu międzyplanetarnego. Są to mikroskopijne cząstki, prawdopodobnie pozostałości komet, które krążąc dookoła Słońca natrafiają na Ziemię, gdy ta porusza się po swej orbicie. Cząstki te mają wielkie i zasadnicze znaczenie, ponieważ ich obecność może w poważnym stopniu oddziaływać chłodząco na niezwykle rozległą koronę słoneczną. Poisiadają one także 'znaczenie praktyczne, ponieważ niszczą zwolna wszelkie powierzchnie wystawione na ich działanie. Tak więc np. okres maksymalnej wydajności baterii słonecznych jest przypuszczalnie ograniczony pnzede wszystkim matowieniem szyb osłonowych. Zauważyliśmy także, że temperatura satelity bardzo zależy od stanu jego powierzchni. Każda znaczna erozja teji powierzchni może więc wywierać poważny wpływ na temperaturę satelity.
Proces erozji badano umieszczając na zewnętrznej powierzchni satelity cienką, przewodzącą prąd, powłokę Chromową na pasku z izolatora. Zmiany oporu elektrycznego powłoki były mierzone i przekazywane na Ziemię poprzez układ telemetryczny.
Bardziej istotnym problemem jest pomiar chwilowej, koncentracji tych mikrometeorytycznych cząstek. Rozwiązuje się go różnymi sposobami; najpowszechniejszy z nich polega na zastosowaniu mikrofonów krystalicznych. Mikrofon taki przekazuje charakterystyczny wysoki dźwięk w momencie, gdy jedna z takich cząstek uderza weń lub w jego pobliże. O dziwo, wyniki uzyskane na tej drodze w ZSRR i USA różnią się znacznie — dalsze eksperymenty są więc bardzo potrzebne.
Do eksperymentów, dla których satelity są szczególnie przydatne, należą również badania promieni kosmicznych i innych promieni korpuskulamych, ponieważ potrzeba do nich długich czasów obserwacji
fgfc.* - ilii.i 11 Dnli ji
>03
w«,«
•w
vant iiiffiRMY
-Sje?
1*2JmŁ
mi
i możliwości zwykłych rakiet są tu znacznie ograniczone.
Ziemia jest olbrzymim magnesem i w związku z tym naładowane cząstki odchylane są w stronę biegunów. Cząstki o większej energii, a ściślej mówiąc, o większym pędzie mogą jednak dotrzeć do gęstszych warstw atmosfery i szerokość geograficzna, na której to następuje, jest miarą tego pędu. W ten sposób można wyznaczać pęd promieni kosmicznych. Na powierzchni Ziemi można jednak obserwować jedynie promieniowanie wtórne, wywołane reakcjami jądrowymi w wyższych warstwach atmosfery. Dla obserwowania promieni pierwotnych pomiary trzeba prowadzić na dużych wysokościach, przy czym dla uzyskania maksimum informacji pomiary owe powinny objąć znaczny przedział szerokości geograficznych. Satelita wprowadzony na orbitę bliską biegunowej jest więc idealnym narzędziem do tego celu. Może on w dodatku prowadzić ciągłą obserwację i w związku z tym wykrywać cykliczne oraz nieregularne zmiany promieniowania kosmicznego. Dla prowadzenia tych badań satelitę wyposaża się w liczniki geigerowskie lub scyntylacyjne (licznik scyntylacyjny zawiera fotokomórkę, za pomocą której rejestruje się krótkie, fluorescencyjne błyski, spowodowane zderzeniami cząstek ze specjalnym kryształem).
Właśnie w czasie doświadczeń z licznikiem Geigera umieszczonym na satelicie dokonano jednego z najważniejszych odkryć Międzynarodowego Roku Geofizycznego.
Pierwszy amerykański satelita, którego udało się umieścić na orbicie — Explorer I, został przez profesora van Allena wyposażony w licznik Geigera. Profesor van Allen prowadził poprzednio rozległe badania promieni kosmicznych oraz cząstek pochodzenia
słonecznego o mniejszej energii za pomocą rakiet startujących z balonów (rockoon). Na wysokości kilkuset kilometrów (w pobliżu perigeum) licznik rejestrował oczekiwaną ilość około 30 impulsów na minutę. Gdy jednak satelita przekroczył równik na wysokości około 1600 km, licznik zaczął wskazywać wartości pomi- jalmie małe. Był to wynik zgoła nieoczekiwany; jeżeli bowiem promienie kosmiczne pochodzą z przestrzeni kosmicznej, to strumień ich nie może maleć, w miarę jtak wznosimy się w górę. W pierwszej chwili wydawało się, że licznik uległ uszkodzeniu, lecz przypuszczenie to okazało się mało prawdopodobne, gdy na mniejszych wysokościach przyrząd znów zaczął pracować.
Prawda wkrótce wyszła na Jaw. Sa<telita wszedł w obsz>ar tak intensywnego promieniowania, że licznik przekroczył maksymalną roboczą dawkę promieniowania i przestał działać. Dalsze badania istotnie potwierdziły istnienie otaczającego Ziemię pasa intensywnego promieniowania i wykryły jeszcze inny pas, na większej odległości od Ziemi.
Źródła tego promieniowania nie są znane z dostateczną pewnością. Być może, pochodzi ono od Słońca; możliwe także, że jest ono wynikiem oddziaływania promieni kosmicznych na leżącą poniżej atmosferę. Niezależnie jednak od tego odgrywa ono z pewnością wielką rolę w zjawisku zórz polarnych, jego odkrycie izaś rzuca nowe światło na wiele zjawisk atmosferycznych, otwierając przy tym nowe pole dla spekulacji, badań i doświadczeń.
ES! ‘ftsSB
DOLNE WARSTWY ATMOSFERY I POGODA
Systematyczne badania pogody liczą sobie niewiele więcej niż sto lat — meteorologia jest więc nauką bardzo młodą w porównaniu np. z astronomią. Powstała ona właściwie wraz z wynalezieniem telegrafu elektrycznego, ponieważ na to, aby przewidywanie pogody było możliwe, trzeba nie tylko obserwować zjawiska atmosferyczne w obejmującej cały świat, gęstej sieci stacji meteorologicznych, ale i przekazywać wyniki tych obserwacji na cały świat, i to w bardzo krótkim czasie. Dlatego też zorganizowanie badań meteorologicznych na skalę światową trwało długo.
Jesteśmy wciąż dalecy od wyczerpującego poznania procesów rządzących pogodą i nawet pozornie proste zjawiska, jak np. deszcz, okazały się bardziej skomplikowane, niż początkowo sądzono.
Sir Graham Sutton, członek Towarzystwa Królewskiego od r. 1949, jest dyrektorem naczelnym brytyjskiego Meteorological Office (odpowiednik PIHM).
Żyjemy na dnie oceanu — oczywiście nie oceanu w sensie morza, lecz na dnie znacznie rozleglejszego oceanu powietrza, który nazywamy atmosferą. Choć w porównaniu z morzem atmosfera jest głęboka, to w skali całej Ziemi tworzy jedynie cienką powłokę, a warstwa, w której możemy swobodnie oddychać, stanowi tylko drobną część tej' powłoki, o grubości mniejszej niż jedna tysięczna promienia Ziemi.
Wyobraźmy sobie, że jesteśmy podróżnikami kosmicznymi przybywającymi na Ziemię z jakiejś odległej planety. Dopóki nie znaleźlibyśmy się w rejonie dolnych części orbity pierwszego Sputnika, tzn. na wysokości 300—400 km, trudno byłoby nam wykryć ślady istnienia atmosfery. W takiej odległości od Ziemi ciśnienie atmosferyczne, które równe jest ciężarowi powietrza znajdującego się ponad nami, jest mniejsze niż jedna bilionowa ciśnienia na powierzchni Ziemi. Oznacza to, że ośrodek, w którym się poruszamy, na Ziemi nazywałby się próżnią, jako że panujące w nim ciśnienie jest niższe niż to, które możemy osiągnąć za pomocą najlepszych pomp laboratoryjnych. W pobliżu obszarów polarnych ujrzelibyśmy zorze polarne, a około 250 km nad Ziemią minęlibyśmy jedną z przewodzących elektrycznie warstw, tzw. warstwę F jonosfery; warstwy te odbijają fale elektromagnetyczne, umożliwiając dalekodystansową łączność radiową.
Niżej — około 100 km od Ziemi — znajduje się inna warstwa odbijająca, tzw. warstwa Kenelly-Heaviside’a, czyli warstwa E; właśnie w jej pobliżu możemy oczekiwać pojawienia się pewnej ilości meteorów, czyli spadających gwiazd — małych odłamków kamiennych, które świecą jaskrawo, zanim wyparują w wyniku rozgrzania spowodowanego gwałtownym wejściem w atmosferę. Powietrze na tym poziomie jest jednak wciąż jeszcze bardzo rozrzedzone — jego gęstość stanowi zaledwie około jednej milionowej gęstości przy Ziemi; jest to o wiele za mało, by mogły tu żyć oddychające stworzenia. Na wysokości około 80 km możemy się natknąć na tzw. nocne obłoki świecące, widoczne niekiedy z Ziemi. Następnie, jeszcze bliżej Ziemi, na wysokości pomiędzy 20 a 50 km stwierdziliśmy (mając odpowiednie przyrządy) obecność warstwy bogatej w ozon, aż wreszcie po przebyciu stratosfery we- szlibyśmy w troposferę, czyli rejon, w którym występują zjawiska pogody; górna jego granica występuje na wysokości 7—17 km, zależnie od tego, czy znajdujemy się nad biegunami czy nad równikiem.
Meteorologów interesuje cała atmosfera, lecz troposfera jest obiektem ich szczególnej uwagi. Jedynie bowiem w tej stosunkowo cienkiej warstwie występują zjawiska pogody, takie jak chmury, mgły, deszcz grad czy śnieg. Na ogół, im wyżej wchodzimy w troposferę, tym powietrze staje się zimniejsze, co w pierwszej chwili może się wydawać dziwne, jako że w ten sposób zbliżamy się przecież do Słońca, które jest dla nas źródłem wszelkiego ciepła. Fakt ten tłumaczy się małą skutecznością promieni słonecznych, jeżeli chodzi
o bezpośrednie ogrzewanie powietrza. Czyste powietrze pochłania bardzo małą część promienistej! energii Słońca — w przeciwnym wypadku spędzalibyśmy nasze życie pośród czegoś w rodzaju gorącego mroku
i głębokich ciemności na przemian, nie widząc jasnych barw krajobrazu. Promienie słoneczne ogrzewają powierzchnię Ziemi (zarówno ląd, jak i wodę) i dopiero od niej atmosfera otrzymuje większą część swej energii, która przejawia się następnie w postaci wiatru i innych zjawisk pogody.
Nie koniec na tym. Na wysokości około 10—11 km* pojawia się coś zupełnie nieoczekiwanego, lecz zandm to wyjaśnimy, musimy się zastanowić, w jaki sposób meteorolodzy mierzą temperaturę powietrza wysoko ponad Ziemią.
Obecnie wykonuje się to przy pomocy instrumentu zwanego radiosondą (rys. 1). Standartowa radiosonda brytyjska wygląda jak zwykła puszka czy pudełko, z mniejszymi pudełeczkami i małym wiatraczkiem z boku. Pudełka te zawierają malutki aneroid (barometr), termometr bimetalowy, skrawek błony zwierzęcej!, która zmienia swą długość w zależności od wilgotności powietrza, nadajnik radiowy oraz baterie zasilające. Cały ten zespół jest w gruncie rzeczy miniaturowym obserwatorium meteorologicznym, które wolny balon unosi w powietrzu. Używając specjalnych balonów można za pomocą takiego urządzenia badać własności atmosfery do wysokości około 35 km, a nawet więcej; na ogół osiąga się wysokość 20 km.
W miarę jak balon się wznosi, ciśnienie, temperatura i wilgotność otaczającego powietrza ulegają zmianom. Przyrządy reagują na te zmiany mechanicznymi ruchami barometru, bimetalu i błony. Wewnątrz głównego pudełka znajduje się radionadajnik emitujący falę, która przenosi charakterystyczny wysoki ton. W miarę jak np. temperatura powietrza się zmienia, wysokość tonu również ulega zmianie, ponieważ ruch
bimetalu izmiania indukcyjność obwodu nadajnika. Podobnie dzieje się przy zmianach ciśnienia i wilgotności, ażeby więc nie pomylić sygnałów, barometr, termometr
i higrometr włączane są w obwód kolejno, za pomocą wiatraczka, który obraca się podczas wznoszenia balonu.
Na Ziemi znajduje sdę radioodbiornik, za pomocą którego mierzy się wysokość tonu (częstotliwość). Przed wysłaniem radiosonda zostaje wycechowana w specjalnych komorach, w których ciśnienie, temperaturę i wilgotność można stopniowo zmieniać, notując przy tym wysokości tonu odpowiadające różnym wartościom tych parametrów. Dzięki temu zmierzone w czasie sondażu częstotliwości można łatwo przeliczyć na milibary*, stopnie i procenty wilgotności, uzyskując tą drogą obraz stanu powietrza, do wysokości wielu kilometrów ponad stacją.
Gdy pod koniec ubiegłego stulecia meteorolodzy zaczęli używać balonów-sond, radio było nieznane
i w związku z tym musieli oni korzystać z malutkich samopiszących instrumentów, 00 do których liczono, że zostaną odnalezione, gdy po pęknięciu balonu spadną na Ziemię. Jeden z najsłynniejszych przyrządów tego rodzaju, zwanych meteorografami balonowymi, został skonstruowany przez angielskiego meteorologa W. H. Dinesa. Używano go, dopóJu nie został wyparty przez radiosondy. Przyrząd Dinesa był całkowicie mechaniczny i ważył zaledwie kilkadziesiąt gramów; stanowi on jeden z najpiękniejszych przykładów celowości konstrukcji wśród instrumentów meteorologicznych w ogóle.
Przed przeszło pięćdziesięciu laty francuski meteorolog Tessereinc du Bort dokonał przy pomocy ba- lomi-sondy sensacyjnego odkrycia. Stwierdził on, że temperatura powietrza nie spada ze wzrostem wyso
kości nieograniczenie.Jego pomiary wykazały, że spada ona około 6 stopni na kilometr do wysokości około 9—11 km; powyżej tej wysokości temperatura przestaje spadać. Du Bort odkrył w ten sposób warstwą izwaną obecnie strato sferą, a odkrycie to otworzyło nową erą w meteorologii.
Stratosfera jest warstwą zimnego, rozrzedzonego, niemal bezchmurnego i bardzo suchego powietrza, leżącą ponad troposferą, czyli warstwą, w której występują zjawiska pogody. W stratosferze temperatura przestaje spadać, a niekiedy nawet lekko wzrasta. Troposferą, w której temperatura na ogół maleje ze wzrostem wysokości i stratosfera; w której temperatura na ogół nie maleje, tworzą dwie wyraźne warstwy w pobliżu dna oceanu powietrza. Granica pomiędzy nimi nosi nazwą tropopauzy. Najiwiększe wysokości tropopauza osiąga nad równikiem r— najmniejsze nad biegunami. Jest to powodem interesującego paradoksu, że najniższe temperatury w całe j| atmosferze występują nad najgorętszymi obszarami Ziemi.
Dalsze badania doprowadziły do nowych niespodzianek. Rysunek 2 przedstawia przeciętny rozkład temperatury powietrza w funkcji wysokości, do około 110 km nad poziomem morza. Począwszy od wysokości około 30 km temperatura powietrza zaczyna wzrastać, osiągając maksimum pomiędzy 50 a 60 km. Powyżej tej warstwy temperatura bardzo już rozrzedzonego powietrza znowu spada, osiągając minimum na wysokości około 80 km, po czym znowu zaczyna rosnąć. Ilość .powietrza na tych wysokościach jest jednak tak mała, Że meteorolodzy nie sądzą, by warunki panujące powyżej drugiego minimum temperatury miały poważniejszy wpływ na pogodę w pobliżu powierzchni Ziemi*
Pierwsze sygnały wskazujące na obecność ciepłej
warstwy na dużej wysokości pochodziły z obserwacji meteorów, pełne jednak potwierdzenie uzyskano | chwilą, gdy stwierdzono, że bardzo silne dźwięki (np. odgłos ognia artyleryjskiego) często słychać bardzo daleko od ich źródła. We Francji podczas I Wojny
Światowej, w czasie 'bardzo silnego ognia, huk dział słychać było do pewnej odległości od pola walki, dalej następowała strefa ciszy, po czym, znacznie już dalej był obszar, w którym działa słychać było znowu jako słaby, niski grzmot (rys. 3). Po Pierwszej Wojnie Światowej przeprowadzono doświadczenia dla zbadania zjawiska tego anomalnego rozchodzenia się dźwięku.
Silny dźwięk powoduje zaburzenie rozchodzące się w postaci fali ciśnienia. Część fali przemieszczająca się w pobliżu powierzchni Ziemi zostajle szybko stłumiona i dźwięk przestaje być słyszalny. Występowanie stref anomalnej słyszalności można wytłumaczyć jedynie w ten sposób, że idąca w górę część fali dźwiękowej zostaje załamana ku dołowi i powraca na Ziemię, lecz już daleko poza strefą normalnej słyszalności. Fala może ulec załamaniu, czyli zmienić kierunek rozchodzenia się, jeżeli zmienia się jej prędkość. Ponieważ prędkość dźwięku zależy od natury ośrodka, w którym dźwięk się rozchodzi, oraz od jego
temperatury, zmiana kierunku fali dźwiękowej wskazywała na obecność warstwy ciepłego powietrza wysoko w stratosferze. Późniejsze, bezpośrednie pomiary, wykonane przy pomocy rakiet wniosek ten potwierdziły.
Istnienie swoje owa ciepła warstwa zawdzięcza obecności ozonu, którego ¡największa koncentracja występuje pomiędzy 20 a 40 km nad poziomem morza. Ozon powistaje z atomów tlenu pod działaniem światła słonecznego (jest to przykład tzw. fotosyntezy). Pochłania on ultrafioletowe promieniowanie Słońca, rozgrzewając się przy tym; wyjaśnia to pochodzenie ciepłej warstwy załamującej fale dźwiękowe ku Ziemi.
W pewnym okresie sądzono, że ozon ¡ma działanie zdrowotne, <a nasi ojcowie skłonni byli przypisywać dobroczynny wpływ nadmorskich wczasów właśnie ozonowi, w który morskie powietrze miało być boga
te. W rzeczywistości, w dolnych warstwach atmosfery ozonu jest w ogóle bardzo mało, sam zaś ozon, wdychany, działa nie zdrowotnie, lecz trująoo. Jest on natomiast pożyteczny w inny sposób, gdyż znajdująca się wysoko w atmosferze warstwa ozonu pochłania ultrafioletowe promieniowanie Słońca o fali krótszej niż około 300 A, chroniąc nas w ten sposób przed oparzeniami. Gdyby przypadkiem warstwa ta znikła, ucierpielibyśmy wszyscy od zbyt dużych dawek promieniowania ultrafioletowego, które mogłyby spowodować ślepotę lub inną poważną chorobę. Na szczęście nic na razie nie wskazuje, by Ziemia miała utracić swą ochronną powłokę ozonu.
Obecny nasz obraz atmosfery podobny jest więc do cebuli pokrytej wieloma warstwami łusek. Warstwy atmosfery nie są wprawdzie łuskami w tym sensie, by można je było pooddzielać jedną od drugiej!, ale są na tyle realne, że można je odróżniać.
Wydajność, z jaką Słońce promieniuje energię, jest, jak przypuszczamy, niemal niezmienna. Meteorolodzy charakteryzują ją tzw. stałą słoneczną. Jest to ilość energii promienistej, jaką uzyskałaby w jednostce czasu płytka o jednostkowej powierzchni, ustawiona prostopadle do biegu promieni słonecznych, j:eżeli umieścilibyśmy ją poza granicami atmosfery w takiej! odległości od Słońca, w jakiej średnio znajduje się Ziemia. Wartość tej stałej określonej w drodze wieloletnich obserwacji prowadzonych w wysokich górach (głównie przez amerykański Smithsoniain Institute) wynosi niemal dokładnie 2 kal/cm2’min. Oznacza to, że moc promieniowania padającego na przeciętny ogródek objęty wiązką promieni słonecznych o powierzchni przekroju równej ck. 1 ara wynosi około 140 kW. Ten olbrzymi dopływ energii jest jednak znacznie ograniczony przez pochłanianie (i rozpraszanie — przyp.
tłum.), a głównie przez odbicia, zwłaszcza odbicia od chmur. Zdolność odbijania Ziemi nosi nazwą jej „albeda” i stanowi jedną z głównych przyczyn zainteresowania, jakim meteorolodzy darzą sztuczne satelity Ziemi. Dostarczają one bowiem nowych metod pomiaru zarówno stałej słonecznej, jak i albeda.
Obecnie albedo możemy najwyżej: oszacować, przy czym powszechnie przyjmuje się tu liczbę 0,4. Oznacza to że 40% dostarczonej przez Słońce energii zostaje od razu „zawrócone” w przestrzeń kosmiczną i utracone. Sama Ziemia wypromieniowuje w przestrzeń promienie podczerwone, leoz znaczna ich część zostaje zatrzymana przez zawartą w atmosferze parę wodną
i dwutlenek węgla, dzięki czemu temperatura na Ziemi jest stosunkowo dość wysoka.
Przyjrzyjmy się teraz bardziej szczegółowo temu, co się dzieje na Ziemi. Słońce ogrzewa Ziemię najsilniej w strefie tropikalnej, najsłabiej, zaś przy biegunach. Ten nierównomierny dopływ energii winien wytworzyć coś w rodzaju systemu centralnego ogrzewania, w którym równik odgrywa rolę kotła, bieguny zaś rolę zbiornika na wychłodzoną wodę. Zgodnie z powyższą analogią można by oczekiwać, że powietrze będzie unosić się w pobliżu równika i opadać w pobliżu biegunów. Otrzymamy w ten sposób pierwsze, grube przybliżenie ruchu powietrza w skali globu, przybliżenie, w którym powietrze .unosi się nad równikiem, następnie przesuwa się na dużych wysokościach ku biegunom, gdzie opada, po czym z powrotem spływa dołem ku równikowi. Gdyby przybliżenie to było bliskie rzeczywistości, wszystkie dolne wiatry na półkuli północnej byłyby północne, na południowej zaś — południowe. Oczywiście prosty ten obraz jest dość daleki od rzeczywistości częściowo dlatego, że Ziemia się obraca, częściowo zaś z powodu nierównomiernego roz
mieszczenia lądów i wody, a także z powodu obecności pary wodnej w atmosferze.
Przypuśćmy, że obserwatorzy z innej planety mają dostatecznie dobry teleskop, by mogli przez niego obserwować ruch chmur. Zastanówmy się, jaki obraz ogólnej cyrkulacji atmosfery wytworzyliby sobie na tej podstawie.
Przez dłużsizy czas widok wydawałby się bardzo skomplikowany, stopniowo jednak zacząłby się z niego wyłaniać obraz coraz bardziej przejrzysty. Stwierdziliby oni, że w pobliżu równika i biegunów ogólny kierunek wiatru jest wschodni, względnie północno- lub południowo-wschodni, natomiast pomiędzy tymi dwoma (na każdej półkuli) strefami występują pasy bardzo chaotycznych ruchów, z wyraźną jednak prze
wagą wiatrów zachodnich (rys. 4). Jest to charakterystyczna dla umiarkowanych szerokości geograficznych strefa wiatrów zachodnich, obejmująca między innymi znaczną część Europy wraz z wyspami Brytyjskimi. Północno- i południowo-wschodnie wiatry
n
wiejące od mniej więcej 40° szerokości geograficznej: w kierunku równika znane są jako pasaty. Odgrywały one ważną rolę w czasach żaglowców, ponieważ ich regularność umożliwiała pierwszym odkrywoom i kup- oom podejmowanie długich podróży. Wiatry te spowodowane są w zasadzie objaśnioną wyżej; cyrkulacją termiczną, przyczyna zaś, dla której kierunek ich jest północno- czy też południowo-wschodni zamiast wprost północny lub południowy, została odkryta w XVIII w. przez brytyjskiego uczonego, Jerzego Hadleya.
Przyczynę tę wyjaśnić może proste doświadczenie z ołówkiem, tarczą gramofonową i tekturowym kołem. W tym celu należy położyć wycięte z tektury koło na tarczy gramofonowej tak, by mogło się obracać jak płyta. Przed uruchomieniem tarczy należy pociągnąć ołówkiem od osi w kierunku obwodu. Rysunek przedstawiać będzie oczywiście promień koła, to znaczy odcinek linii prostej. Następnie należy uczynić ten sam ruch ołówkiem w czasie, gdy tarcza się obraca. Tym razem nakreślona linia będzie zakrzywiona. W doświadczeniu tym tarcza gramofonu stanowi model Ziemi; środek jest tu odpowiednikiem bieguna, obwód zaś — odpowiednikiem równika. Ciało przemieszczające się w przestrzeni prosto od bieguna północnego ku równikowi, będzie — dla obserwatora związanego z obracającą się Ziemią — zbliżać się od północnego wschodiu odchylając się pozornie w prawo*. Obserwator może sobie wyjaśnić to odchylenie przyjmując, że na ciało działały dwie siły — jedna poruszająca je z północy na południe, druga zaś — fikcyjna — odchylająca je w prawo. W przypadku wiatru
pierwsza z nich wywołana różnicami ciśnienia powietrza pomiędzy biegunem a miejscami położonymi dalej na południe jest proporcjonalna do gradientu ciśnienia, czyli do spadku ciśnienia przypadającego na jed
nostkę odległości. Siła odchylająca proporcjonalna jest do prędkości wiatru, prędkości kątowej Ziemi oraz sinusa szerokości geograficznej; jest zatem największa na biegunach, znika natomiast na równiku.
Siłę odchylającą wiatry od kierunku gradientu* ciśnienia, meteorolodzy nazywają siłą Coriolisa. Odgrywa ona w meteorologii ważną rolę. Gdyby Ziemia nie obracała się, powietrze poruszałoby się wprost od obszarów wysokiego, do obszarów niskiego ciśnienia. Tymczasem w wyniku obrotu Ziemi ¡powietrze krąży wokół centrum niskiego ciśnienia zgodnie z ruchem wskazówek zegara na południowej! półkuli, a przeciwnie doń — na północnej. Wyrazem tego faktu jest słynne prawo sformułowane -przed przeszło wiekiem przez holenderskiego meteorologa Buys Ballota, mówiące, że na półkuli północnej obserwator zwrócony tyłem do wiatru ma obszar niskiego ciśnienia po
lewej stronie. Na półkuli południowej obszar ten znajdować się będzie po stronie prawej, zaś w pobliżu równika reguła ta w ogóle stosować się nie daje (rys. 6).
Dopływ energii słonecznej wytwarza w atmosferze całą hierarchię nuchów, począwszy od bardzo wielkich,
takich jjak układ pasatów, poprzez mniejsze, takie jak niże przynoszące w naszym kraju deszcze i zmienną pogodę oraz wyże niosące w lecie piękną pogodę, w zimiie zaś często mgły* — do bardzo małych. Przyjrzyjmy się obecnie niektórym z nich bardziej szczegółowo.
Najgwałtowniejszy układ wiatrów — tornado — jest jednocześnie i najmniejszym. Tornada powstają we wszystkich częściach świata, najczęściej jednak w USA i w Australii. Tornado jest czymś w rodzaju
wiru, jaki można zaobserwować w otworze odpływowym wanny. Na zdjęciach wygląda jak ciemny wijący się lejek lub trąba słonia, ciągnąca się od czarnej chmury aż do ziemi. Tornada powstają, gdy w atmosferze istnieją warunki sprzyjające tworzeniu się szybkich, wznoszących ruchów wilgotnego powietrza — np. gdy warstwa suchego chłodnego powietrza zalega ponad powietrzem gorącym i wilgotnym. Jeżeli sytuacja taka pojawia się na mapach pogody, meteorolodzy w Ameryce nadają ostrzeżenie o niebezpieczeństwie groźnych zjawisk atmosferycznych. „Groźne zjawisko atmosferyczne” może tu oznaczać wszystko od burzy po tornado, nie sposób bowiem przewidzieć, czy tornado na pewno się utworzy i czy dojdzie do powierzchni ziemi. Tornado charakteryzuje się gwałtownym spiralnym ruchem wokół pionowej osi, pokrywa obszar o średnicy kilkuset zaledwie metrów, a czasem i mniej, trwa zaś często mniej niż pół godziny. W ciągu tego czasu jest jednak niewiarygodnie nieszczycielskie. Nie posiadamy pewnych pomiarów maksymalnych prędkości osiąganych przez wirujące powietrze, ponieważ każdy wiatramierz, jaki przypadkiem znalazłby się na drodze tornada, z pewnością zostałby zniszczony, ale obliczenia dokonane na podstawie spowodowanych przez tornada zniszczeń wskazują często na prędkości rzędu 500 km/godz, a w bardzo gwałtownych tornadach nawet 800 km/godz. Trasa tornada wynosi na ogół nie więcej niż kilka kilometrów. Wraz ze zbliżaniem się „lejka” (względnie, jak się niekiedy mówi, „trąby powietrznej”), ciśnienie gwałtownie spada i wiele budynków zostaje zniszczonych po prostu wskutek rozsadzenia przez ciśnienie wewnętrzne. Często zdarzają się też zgoła nieoczekiwane efekty, jak np. ulewy żab, które zostały wciągnięte w wir wraz z wodą sadzawki
i rzuoone na ziemię kilka kilometrów dalej.
Następnymi według rozmiaru są huragany względnie tajfuny*. Jest to rodzaj cyklonów** tworzących się głównie nad ciepłymi tropikalnymi morzami, zwłaszcza w pobliżu Indii Zachodnich. Są one znacznie mniejszych rozmiarów niż cyklony znane w Europie pod nazwą niżów Łub depresji i zazwyczaj obejmują obszary o średnicy kilkuset zaledwie kilometrów. Ich cechami charakterystycznymi są: niezwykle niskie ciśnienie, silne wiatry (często powyżej 150 km/godz), wyjątkowo silne deszcze, burze z piorunami, w samym zaś środku zamętu — obszar ciszy — tzw. „oko” cyklonu. Jeżeli huragan taki dotrze do wybrzeży, powoduje wielkie zniszczenia wskutek działania wiatru oraz powodzi, które wywołuje.
Na szczęście nie wszystkie cyklony powstające nad ciepłymi tropikalnymi morzami rozwijają się w huragany, a spośród tych ostatnich nieliczne tylko docierają do lądu. Większość cyklonów tropikalnych osiąga oo najwyżej stadium sztormu. Meteorolodzy amerykańscy poświęcają obecnie wiele pracy problemowi przyczyn huraganów. Przypuszcza się obecnie, że krytycznym procesem, który decyduje o tym, czy cyklon tropikalny stanie się huraganem czy nie, jest proces formowania się „oka”. Wewnątrz „oka” powietrze jest bardzo gorące, duszne i wilgotne, lecz zupełnie spokojne, w odróżnieniu od tego, co się dzieje dookoła. Ostatnie badania zdają się wykazywać, że na to, by wiatry mogły osiągnąć istotnie huraganową siłę, istnieć musi gorący, spokojny obszar centralny, wewnątrz
którego powietrze zstępuje w dół i jest następnie odrzucane na zewnątrz przez siłę odśrodkową.
Tornada i huragany są przykładami konwekcji. Ciepłe wilgotne powietrze znalazłszy się pod suchym i zimnym zaczyna się wznosić i oziębiać wskutek rozszerzania, a zawarta w nim para wodna kondensuje się w kropelki. Każdy gram kondensującej się wody wydziela 600 kalorii ciepła, co prowadzi do uwolnienia olbrzymich ilości energii. Proces ten jest głównym źródłem energii wiatru.
Niże barometryczne, czyli pospolite w naszym kraju cyklony strefy umiarkowanej, uzyskują energię dla swego ruchu obrotowego głównie z przemiany energii potencjalnej na kinetyczną. Niż taki powstaje wtedy, gdy prąd ciepłego, wilgotnego powietrza tropikalnego spotyka się z płynącym równolegle do niego prądem zimnego i suchego powietrza polarnego. Na ich wspólnej granicy powstaje fala przekształcająca się ostatecznie w niż z tzw. frontami — ciepłym i chłodnym. Powietrze chłodne wślizguje się na nich pod powietrze ciepłe, oo powoduje w tym ostatnim kondensację pary wodnej. Ostateczne położenie środka ciężkości całej masy obniża się, gdy chłodne powietrze znajdzie się w końcu całkowicie pod ciepłym; oznacza to, że potencjalna energia układu ulega zmniejszeniu, przy czym znaczna jej część przechodzi w energię kinetyczną ruchu. Oczywiście cały ten proces jest znacznie bardziej skomplikowany, niż wynika to z powyższego opisu. Drobiazgowe śledzenie kolejnych stadiów rozwoju niżu stanowi znaczną część pracy meteorologów, gdyż od takiej analizy w dużym stopniu zależy prognoza pogody.
Podstawowym problemem meteorologii jest śledzenie przemian energii od postaci promieniowania słonecznego poprzez całą hierarchię ruchów i sił. Jest
to.* > r**>>¿H* ¿.- ■ *•
f|*^3»l Jf *
f^r;Mjr Qt ** '-¿''£r'J'^""•
' ¿'■fc.ę-i* V
to problem skomplikowany, głównie wskutek obecności w powietrzu pary wodnej', działającej nie tylko jako magazyn ciepła, lecz także jako jeden ze środków transportu energii. Dla uzyskania jasnego obrazu pracy maszyny cieplnej1, jaką jest atmosfera, musimy więc prześledzić formowanie się deszczu.
Odpowiedź na pytanie, dlaczego pada deszcz, w pierwszej chwili wydaje się bardzo łatwa. Gdy ciepłe powietrze wznosi się w górę, to wskutek spadku ciśnienia ulega rozszerzeniu. Rozszerzające się powietrze ochładza się i, jeżeli ten proces trwa dostatecznie długo, to para wodna zawarta w powietrzu kon- densuje się w postaci maleńkich kropelek wody. Podobny proces ma miejsce w parowozie. Woda ogrzewana jest w kotle w celu uzyskania pary pod wysokim ciśnieniem; następnie para rozpręża się w cylindrze popychając tłok i obracając koła, po czym znów skrapla się, i pojawia w postaci białych kłębów buchających z komina.
Tłumaczenie takie nie wyjaśnia jednak tworzenia się deszczu. Kropelki wody powstające w tego rodzaju procesie kondensacji są zbyt małe, by mogły szybko opaść ku ziemi. Z tego właśnie powodu nie opadają na ziemię chmury, z których każda może zawierać tysiące czy nawet miliony ton wody. Drobne kropelki nie pływają wprawdzie w powietrzu, tak jak patyk pływa po wodzie, ponieważ gęstość wody około 800 razy przewyższa gęstość powietrza, lecz opadają tak wolno, iż wydaje się, że pływają. To samo zjawisko zachodzi dla wszelkich drobnych ciał unoszących się w powietrzu, nawet dla drobnych cząstek skał.
Skąd więc w ogóle bierze się deszcz — lub by inaczej sformułować to pytanie — dlaczego deszcz pada tylko z niektórych, a nie ze wszystkich chmur? Jeżeli woda zawarta w chmurach może spadać na ziemię je-
dynie w postaci dostatecznie dużych, szybko opadających kropli, to problem ten sprowadza się do innego: dlaczego w pewnych chmurach z małych kropę*» lek powstają duże, a w innych nie. Przeciętna kroplą deszczu jest zlepkiem około 'miliona kropelek chmu« ry. Na pierwszy rzut oka wydawałoby się, że deszcz powstaje wskutek dalszej kondensacji wody na drobnych kropelkach, dopóki te ostatnie nife osiągną ^zgg miarów kropli deszczowej. Rachunek wykazuje jednak, że proces taki byłby o wiele za powolny i gdyby tylko on występował, to w ciągu czasu, w jakim zazwyczaj powstaje deszcz, mogłyby jpowstać jedyniey! krople o średnioach rzędu setnych części milimętagż (krople deszczowe mają średnicę od jednego do kilku milimetrów), które wyparowałyby przed dotarciem do ziemi. Należy więc poszukać innego mechanizmie dla wyjaśnienia powstawania kropli deszczowych.
Obecnie przypuszcza się, że deszcz powstaje głównie dwoma sposobami. Pierwszy z nich, dotyczy „głównie burz oraz strefy tropikalnej*, nie będzie tu szczegółowo rozpatrywany. Jest to tzw. proces koagulacji; polega on na tym, że liczne krople deszczu powstają wskutek „wymiatania” przez nieliczne bardzo duże krople, znajdujących się na ich drodze mniejiszych kropli. Drugi, który jak sądzimy prowadzi do większości opadów obserwowanych w naszym kraju, jest bardziej interesujący. Został on odkryty przez skandynawskiego meteorologa prof. Bergerom i w związku z tym nazywany jest przeważnie jego nazwiskiem.
Często dyszy się, że temperatura 0°C nazywana jest temperaturą zamarzania wody; właściwiej jednak byłoby mówić o niej jako o temperaturze topnienia lodu, gdyż woda nie posiada określonej temperatury zamarzania. Bardzo drobne kropelki czystej| wody, jakie znajdują się w wysokich chmurach, zazwyczaj pozo
stają ciekłe nawet w bardzo niskich temperaturach — do — 40°C. Kropelki takie nazywa się przechłodzony- mi. Zamarzają one natychmiast, zetknąwszy się z cząstką lodu.
Wiele spośród chmur dających opady w naszym kraju zawiera w swych górnych częściach ogromne ilości ptrzechłodzonych kropelek wody. Poza nimi często występują stosunkowo niewielkie ilości drobnych kryształków lodowych. W chmurze będącej mieszaniną przechłodzonych kropelek wody oraz kryształków lodowych, te ostatnie z powodu różnicy prężności nasyconej pary wodnej nad wodą i nad lodem rosną kosztem kropelek. Kryształki lodu wkrótce przekształcają się więc. w płatki śniegu i zaczynają opadać ze stosunkowo znaczną prędkością. Płatki te mają postać gwiazdek i są bardzo łamliwe, a wokół odpryskujących od nich odłamków lodowych tworzą się nowe płatki śniegu, co daje swego rodzaju reakcję łańcuchową. Gdy płatki śniegu dolatują do cieplejszych warstw powietrza, topniej'ą i zamieniają się w krople deszczu. Przypuszczamy, że większość deszczów padających w naszym kraju powstała w drodze topnienia śniegu.
Przebieg procesu bergeromowskiego sugeruje możliwość sztucznego wywoływania opadu. Oczywiście, ludzie mieszkający w tak deszczowym -klimacie jak nasz, są w tym mniej zainteresowani niż mieszkańcy Okolic pustynnych, takich jak niektóre części Ameryki, Afryki czy Australii. Proces bergeronowsiki rozpoczyna się od stosunkowo niewielkiej liczby kryształków lodowych znajdujących się w przechłodzonej chmurze. Jeżeli ibrak ich w dostatecznej ilości, deszcz jest mało prawdopodobny. Nowoczesny sposób wywoływania opadu polega więc na wprowadzeniu do wierzchołkowych części chmur substancji, które powodują tworzenie się kryształków lodowych. Substancje takie w od
powiednio rozdrobnionej! postaci noszą nazwę jąder zamarzania. Najlepszymi jądrami zamarzania są niewątpliwie same kryształki lodu, jest jednak rzeczą trudną wprowadzić w dostatecznych ilościach sproszkowany lód do chmury, która może mieć wysokość 6 km lub nawet znacznie więcej. limą substancją, która zapoczątkowuje zamarzanie przechodzonych kropli jest jodek srebra, którego wielokrotnie próbowano użyć do zapoczątkowania lub zwiększenia opadu, wprowadzając go w postaci dymu do chmur. Jak dotąd jest jednak wątpliwe, czy metody takie w ogóle doprowa^ dzały do powstania deszczu. Obecnie liiożemy z pewnością stwierdzić jedynie tyle, że jeżeli doprowadzon# w ten sposób do zwiększenia opadu, to nie o więcej niż około 10°/o normy, przy czym wydaje się óii najskuteczniejszy, gdy cząstki jodku srebra wytwarzane są na podwietrznych stokach wysokich gór.
W ten sposób dochodzimy do ostatniego i najtrudniejszego pytania: czy w ogóle kiedykolwiek będziemy mogli regulować pogodę? Na początku bieżącego stulecia na pytanie to łatwiej było odpowiedzieć niż obecnie; wtedy 'bowiem człowiek nie dysponował żadnym kontrolowanym przez siebie źródłem energii wy-; starczając© dużym, by mogło ono wpływać na ruchy powietrza w wielkiej skali. Pogodą rządzi Słońce dostarczając Ziemi w każdej minucie óibrzymich ilości energii oraz zawarta w aitmosferze woda, zdolna szybko pochłonąć, zmagazynować i uwolnić wielkie ilości ciepła.
Obecnie kontrolujemy nieograniczone ilości energii jądrowej, lecz energia największych z wyprodukowanych dotąd bomb jądrowych stanowi drobny tylko ułamek energii dostarczanej atmosferze przez Słońce. Nawet mała burza wyzwala więcej energii niż dziesięć bomb atomowych typu użytego podczas ostat-
ndej wojny. Wbrew temu, oo wiele ludzi chciałoby uważać, nic nie wskazuje (na istnienie związku pomiędzy złą pogodą w ci ągu ostatnich lat a doświadczalnymi wybuchami jądrowymi przeprowadzanymi zarówno w Związku Radzieckim, jak i przez Stany Zjednoczone na Pacyfiku. Sugerowano, by użyć bomb termojądrowych dla stopienia lodów Arktyki; nikt jednak nie wie na pewno, jak podziałałoby to na zjawiska atmosferyczne w wielkiej skali, choć jeden z amerykańskich meteorologów okazał się dość odważnym, by Zgadywać. Dr Harry Wexler, który Ibadał to zagadnienie, sądzi, że być może, udałoby się w ten sposób zmienić pogodę, lecz niestety zmiana ta mogłaby pójść w niepożądanym kierunku. Sądzi on mianowicie że wyzwolenie w Arktyce ogromnych ilości ciepła mogłoby spowodować zwiększenie w Anglii opadów śniegu w zimie, czego w tym kraju nikt sobie nie życzy.
Przypuszczalnie jednak eksperyment taki jeszcze długo, a być może nigdy, nie zostanie podjęty. Za mało, jak dotąd, wiemy o ogólnej cyrkulacji atmosfery, by wiarygodnie przewidzieć jego skutki. Jednym z głównych celów badań meteorologicznych w czasie MRG było pogłębienie wiedzy o ruchach powietrza w skali globu. Gdy wyniki tych badań zostaną przeanalizowane przez uczonych, będziemy mogli z większym stopniem pewności odpowiedzieć na pytanie dotyczące regulacji pogody. Obecnie można by jedynie zakłócać .pogodę, wyzwalając wielkie ilości energii skupione w pewnych punktach Ziemi, lecz jest to zupełnie oo innego, niż wyrażać nadzieję na to, że kiedykolwiek będziemy mogli regulować ¡pogodę w wielkiej skali, zgodnie z interesem człowieka.
WII Iłll !!■
MORZE I JEGO PROBLEMY
Z 510 milionów km2 powierzchni Ziemi blisko 361 milionów km2, to znaczy prawie trzy czwarte, pokrywają oceany i morza. Problemy dotyczące oceanów muszą więc zajmować wiele miejsca w badaniach nad fizyką naszej planety. Pomimo jednak wielu wieków
nnSPrmnnńi fnnnnrMnrIyio AU
Metody nauk przyrodniczych okazują się tak skuteczne w badaniach nieba i Ziemi, że odkrywanie za ich pomocą nowych dziwów oceanów i wzbogacanie przez dociekliwe oko badacza doświadczeń wielu pokoleń znakomitych żeglarzy nie powinno dziwić nikogo. Może to wprawdzie być nieoo zaskakujące dla marynarzy, ale uczeni przewidzieli to już dość dawno temu. Gdy w roku 1694 zwrócono się do Sir Izaaka Newtona z prośbą o wydanie opinii o nowym programie studiów matematycznych sporządzonym przez pana Pageta, nauczyciela matematyki w Christ’s Hospital*, Newton zupełnie otwtarcie zwrócił uwagę na pewne braki w tym programie, zwłaszcza w dziale poświęconym nauczaniu nawigacji. W swym liście do Skarbnika** określił go jako niewiele więcej niż „użytek instrumentów i naga praktyka żeglarzy na ich przetartym szlaku” oraz zauważył, że „matematyczne dzieci, stanowiące kwiat szkoły, znacznie lepiej uczone być by mogły”. Oświadczył on, że powinnoby tam być więcej rozumowania, rozsważań o ruchach i siłach, które mogą wspomagać marynarza „w wynajdywaniu nowych rzeczy i praktyk, w korygowaniu dawnych
i w ocenianiu tego, oo staje przed nimi”..., oraz że „należy rozważyć, oo będzie z większym pożytkiem dla spraw morskich — ozy gdy najzdolniejsi z naszych marynarzy będą jedynie czystymi empirykami nawigacji, czy też, gdy będą także zdolni dobrze ogarnąć rozumem te liczby, siły i ruchy, z którymi ustawicznie się stykają”. Chwalił też Newton mądrość apelu ogłoszonego przez wcześniej żyjącego matematyka Oughtre- da, który głosił, że kapitanowie statków oraz piloci powinni zbierać obserwacje „o ukrytych ruchach i wzburzeniach mórz”, a także „o wszystkim innym, co by godnego uwiagi na morzu zauważyli”, jak również zwykłe informacje o kursie, kompasie, zachowaniu statku, wietrze i prądzie. Apel stwierdzał dalej, że kapitanowie i piloci powinni „chętnie powiadamiać o tym uczonych, którzy byliby biegłymi w sztuce matematycznej, a przy tym miłowaliby i poszukiwaliby prawdy”. Oughtred nie wątpił, że „doprowadziłoby to do ulepszenia żeglugi i bezpieczeństwa tych, których zawód zmusza, by życie swe i mienie na ogromnym oceanie Bożej powierzali Opatrzności”. Newton kończy to znanym cytatem: „Dodam, że dałoby to znacznie więcej dla ulepszenia żeglugi i bezpieczeństwa żywota oraz dobytku ludzkiego na tym żywiole, gdyby miast posyłać obserwacje żeglarzy zdolnym matematykom na lądzie, ląd posyłałby zdolnych matematyków na morze”.
Wydaje się, że „matematyczne dzieci” niezbyt ostatecznie były kształcone w mechamce i uczono ich tylko „tyle sztuki artyleryjskiej, ile potrzeba w służbie morskiej”, niektóre zaś z dezyderatów Oughtreda i Newtona do dziś nie zostały zrealizowane. Ogromnie udoskonalono tabele, mapy, instrukcje nawigacyjne, a ostatnio środki radionawigacyjne, w zakresie mniej oczywistych potrzeb zrobiono jednak niewiele.
Dane o prądach morskich zbiera- się Wprawdzie systematycznie od przeszło stu lat, wykorzystując je dla sporządzania map średnich prądów oraz ich zmian sezonowych; niewiele jednak wiemy o ich zmianach z dnia na dzień, ani o czynnikach odgrywających istotne role w obszarach prądów zmiennych. A samoloty nie mogłyby przecież dokonywać rentownych przeloi- tów, nie dysponując niczym lepszym niż mapy średnich wiatrów. Statki są wprawdzie bardziej niezależne od warunków hydro-meteorologicznych, lecz dla nich również przydałyby się bardziej szczegółowe informacje. Fale poważnie wpływają na szybkość statku i zużycie paliwa, a także na bezpieczeństwo portów; pomiary fal są jednak rzeczą nową. Zaledwie kilka lat temu zaopatrzono pierwszy statek w urządzenie do ciągłej i przy tym dostatecznie dokładnej rejestracji fal. |
W programie Międzynarodowego Roku Geofizycznego oceanografia była nauką drugoplanową; program ten nie byłby jednak pełny, gdyby pominięto ją cał
Ij4v*s*W’
kowicie. Cyrkulacja atmosfery w dużym bowiem stopniu zależy od wzajemnego oddziaływania atmosfery i oceanów, przy czym ich problemy fizyczne są pod wieloma względami bardzo podobne. Zaburzenia atmosferyczne wywołują odpowiednie zaburzenia na morzu, zmiany w polarnej, pokrywie lodowej i deformacje skorupy ziemskiej powodują zmiany średniego poziomu morza, zaś zmienne pola magnetyczne i prądy elektryczne w (morzu wiążą się ściśle z analogicznymi zjawiskami we wnętrzu Ziemi i w jonosferze. Na szczęście dość było specjalistów od spraw morskich, by wykorzystać te okazje, których dostarczał MRG. ^.Zasadniczą myślą programu w zakresie oceanografii było, podobnie jak w innych częściach programu MRG, skoncentrowanie się na tych zagadnieniach, dla których szczególnie istotne znaczenie miała szeroka sieć jednoczesnych obserwacji. Oceany ze swym transportem wody i energii na skalę światową dostarczają takich zagadnień sporo. Pierwszym z nich stało się pogłębienie naszej wiedzy o tych falach oceanicznych, które zazwyczaj nazywa się falami pływowymi, drugim — badanie zmian średniego .poziomu morza, trzecim zaś — rozszerzenie waszej wiedzy o cyrkulacji: wód w głębiach oceanicznych.
Przypływy i odpływy można mierzyć za pomocą tyczki lub umieszczonej! na molo łaty; lepiej jednak stosować tzw. mareograf, czyli .przyrząd, w którym ruchy specjalnego pływaka przenoszą się na piórko, kreślące wykres na bębnie rejestracyjnym. Pływak musi być przy tym chroniony przed bezpośrednim działaniem fal; w tym celu umieszcza się go w studzience lub cylindrze, łączącym się z ¡morzem za pomocą cienkiej ¡rurki lub małego otworka. Pływak jest połączony za pomocą przechodzącej przez bloczek linki z prostym urządzeniem, które kieruje ruch piórka, kreślącego
wykres pływów na bębnie obracanym przez mechanizm zegarowy. Papier rejestracyjny (maTeogram) pozostaje na bębnie zazwyczaj przez siedem dni, i chociaż w większości miejscowości występują w ciągu doby dwa razy przypływ i dwa razy odpływ, ich wykresy nie mieszają się zbytnio ze sobą, ponieważ każdy przypływ (względnie odpływ) opóźnia się codziennie o pięćdziesiąt minut w stosunku do dnia poprzedniego; amplituda pływów także ulega zmianom osiągając maksimum w pobliżu pełni i nowiu Księżyca.
Wiele wysiłku trzeba włożyć w to, by uzyskać dobry zapis. Bęben rejestracyjny nie może być za mały, zegar musi być dokładny, a sam mechanizm powinien być praktycznie pozbawiony tarcia i poślizgu. Poziomy wskazywane na mareogramie należy okresowo sprawdzać przez bezpośrednie pomiary poziomu wody w studzience, a punkt początkowy sikali musi być odniesiony za pomocą precyzyjnych metod geodezyjnych do stałego punktu wysokościowego na brzegu, najlepiej do jednego z punktów należących do podstawowej sieci geodezyjnej. Przy zachowaniu tych ostrożności można uzyskiwać dobre wyniki nawet za pomocą improwizowanych urządzeń i w bardzo trudnych warunkach. Na Antarktydzie np. improwizowane mareogra- fy umieszczano na lodzie morskim tak że poruszały się one w górę i w dół wraz ze zmianami poziomu wody, spowodowanymi pływami, podczas gdy piórko połączone było za pomocą linki z leżącym na dnie ciężarkiem.
Najlepsze nawet mareografy nie zawsze będą jednak kreślić gładką krzywą, ponieważ przypływy i odpływy często są zakłócane przez inne oscylacje wody,
o okresie znacznie dłuższym niż okres zwykłych fal wiatrowych, lecz krótszym od okresu pływów. Nie można ich przy tym wyeliminować zmniejszając otwór
łączący mar eo graf z morzem, ponieważ wówczas przyrząd reagowałby na zmiany poziomu wody zbyt wolno, by dać wystarczająco dokładny zapis pływów. Dla uzyskania możliwie najlepszych pomiarów pływów należy więc wybrać osłonięte miejsce w pobliżu nip. wejścia do portu, nie zaś w głębi zatok, gdzie woda często ma swe własne drgania.
Jeżeli płaską miskę z wodą delikatnie pochylić, a następnie postaiwić w położeniu poziomym, woda zacznie oscylować. Najprostsze drganie wystąpi wtedy, gdy woda porusza się w ten sposób, że poziom jej w środku nie ulega zmianom, podczas gdy przy brzegach wznosi się ona kolejno i opada. Dngania tego typu wykryto w jeziorach przed dwustu laty, a szczegółowe ich badania na Jeziorze Genewskim zapoczątkował w roku 1873 dr Forel. O ile jednak w prostokątnym zbiorniku występują nieskomplikowane drgania od końca do końca i z boku na bok, to przy tak nieregularnym kształcie, jakim jest kształt Jeziora Genewskiego, stają się one znacznie bardziej złożone, gdyż różne czę
ści jeziora, czy też wrzynające się w ląd aatoki mają swe własne drgania. Wśród tych wszystkich krzyżują- cydi się i mieszających fal, dr Forel zdołał jednak wskazać oscylacje wokół ustalanych linii, a wykryte przezeń drgania o okresie około l1/« godziny okazały się podstawowymi drganiami między „przeciwległymi brzegami” jeziora. Z uwagi na wielkie znaczenie i piękno badań dr Forela lokalna nazwa oscylacji wód w Jeziorze Genewskim — seiches — przyj'ęła ; się powszechnie w badaniach naturalnych oscylacji.
Każde, małe czy duże, zaburzenie w basenie może wprawić wodę w drgania; pewne zaburzenia są tu. jednak skuteczniejsze niż inne. Rozpatrując te zagadnienia należy odróżnić drgania swobodne od wymu-v szonych. Drgania takie jak pływy, które powstają wskutek stałego oddziaływania rytmicznie zmieniającej się podczas obrotu Ziemi siły przyciągania Księżyca i Słońca, noszą nazwę drgań wymuszonych. Największe drgania powstają wtedy, gdy okres drgań swobodnych bliski jest okresowi działających na wodę sił. Zj;awisko to nazywa się rezonansem. Można je porównać z roz- huśtywamiem huśtawki, którą przy zachowaniu odpowiedniego rytmu można słabymi pchnięciami silnie rozkołysać.
Trzęsienie Ziemi jest w stanie wstrząsnąć talerzem; dr Forel zauważył także rozkołysanie wody w basenie fontanny dochodząc jednak do wniosku, że okres drgań spowodowanych trzęsieniem Ziemi jest zbyt krótki, by wywołać rezonans w jeziorze. Jednak pomiędzy starszymi zapisami istnieje wiele przykładów niezwykłych oscylacji wody, które przypisuje się właśnie trzęsieniem Ziemi. Jednym z najdramatyczniejszych przypadków spośród notowanych oscylacji tego typu były drgania w jeziorze Loch Lomond w dniu trzęsienia lizbońskiego. Być może, znaczenie tego problemu
będzie rosnąć w miarę pogłębiania się naszej wiedzy ipliugookresowych drganiach skorupy ziemskiej, i Trudno wprawdzie wyobrazić sobie cały ocean rozkołysany przez trzęsienie Ziemi, jednak w tych częściach świata, g)dzie występują strome stoki podmorskie (np. północno-zachodnie części Oceanu Spokojnego), wstrząsy podmorskie są aż nazbyt częste. Silny wstrząs może spowodować potężne drgania, dające początek grupie fal powierzchniowych biegnących poprzez ocean. Fale te trudno zaobserwować ze statku na pełnym morzu, ponieważ ich wysokość może nie przekraczać kilkudziesięciu centymetrów, przy odległości pomiędzy dwoma kolejnymi grzbietami, przekraczającej 150 km. Fale te nazywa się długimi, ponieważ ich długość jest duża w porównaniu z głębokością wody; prędkość rozchodzenia się tych fal związana jest z głębokością wody wzorem:
v = }fgh,
gdzie v oznacza prędkość fali, gf-—r przyspieszenie ziemskie, zaś h — głębokość wody. Większość głębokich wód oceanicznych posiada głębię rzędu 4,5 km, co odpowiada prędkości fali około 760 km/godz. Choć fale te są zbyt długie i niskie, można je 'było dostrzec na głębokiej| wodzie, to zbliżając się do płytkich wód przybrzeżnych zmniejszają one swoją prędkość, zwiększając jednocześnie amplitudę i załamują 3ię na brzegu osiągając wówczas wysokość 7—10 m.
Jedną z największych katastrof ostatnich la/t był podmorski wstrząs w pobliżu wysp Aleuckich o godzinie drugiej w dniu 1 kwietnia 1946 r. W ciągu niespełna pięciu godzin pierwsza fala dotarła do Hawa- jiów, zmiatając znaczną część wybrzeża. Zginęło wówczas 159 osób; licziba ta mogłaby być jeszcze większa, gdyby w dwanaście minut po uderzeniu pierwszej
fałd, druga, jeszcze wyższa, me ostrzegła wszystkich, którzy mogli się schronić w bezpieczne miejsce, przed nadejściem najwyższej z tej! serii — trzeciej fali. Pierwsza fala dotarła do wybrzeży kalifornijskich tego samego dnia wieczorem, do wybrzeży Peru — następnego dnia rano, będąc przy tym j,eszcze dostateczni# wysoką, by zmyć stary barak pozostawiony na wy* brzeżu Antarktydy przez brytyjską ekspedycję do Ziemi Grahama.
Po tych klęskach zorganizowano służbę ośtrzegaw* czą. Dane sejsmograficzne zbiera się w centralnym ob4 serwatorium Hawajów, i jeżeli ognisko trzęsienia Zie% mi znajduje się w pobliżu miejisca, w którym-można podejrzewać powstanie fal morskich, alarmuje się stacje mareograficzne, których dane służą z kolei do ewentualnego ogłoszenia powszechnego alarmu. Dzięki tej sieci i współpracy wszystkich odpowiednich władz uniknięto śmiertelnych ofiar, gdy 4 listopad^ 1952 roku następna seria niszczących fal dotarła do Wysp Hawajskich. W rejonie Oceanu Spokojnego takie fale pochodzenia sejsmicznego nazywają się „tsunami”, co po japońsku oznacza „fala portowa” Nazwa ta jest logiczna, gdyż te długie fale zagrażają wybrzeżom i portom lecz nie statkom na pełnym morzu.
Gdy wody przybrzeżne zachodniego wybrzeża kontynentu amerykańskiego zostają zakłócone przez długie fale pochodzące z odległych źródeł, mareografy wykazują potem ¡przez szereg dni istnienie lokalnych oscylacji poziomu wody w (portach i zatokach. Może to być spowodowane dopływem dalszych „porcji” energii z tego samego źródła, lecz po różnych drogach ocea- i nicznych, włączając w to jedno lub kilka załam# lub odbić od innych kontynentów. Może zjawisko tś także wystąpić wskutek wielokrotnego odbijania się fal przez ocean lub jeszcze innego rodzaju drgań, an a-
nego jako fale brzegowe, wzbudzanego, gdy długie fale -docierają' dk> wybrzeży ze stosunkowo niewielką prędkością, mając grzbiety prostopadle do linii brzegu. Wszystkie te zagadnienia wymagają większej liczby obserwacji tego typu, jakie lobkmo w czasie MRG, zwłaszcza na wyspach położonych w miejscach odległych od zwykłych szlaków żeglugowych, a więc obserwacji wymagających zaplecza w postaci specjalnego przedsięwzięcia naukowego.
Pływy powodowane są różnicą sił, z jakimi Księżyc przyciąga Ziemię i wodę. Role odgrywają tu jedynie składowe tych sił, styczne do powierzchni Ziemi; są one najmniejsze w najbliższym i najdalszym od Księżyca punkcie Ziemi oraz wzdłuż okręgu, którego punkty znajdują się w tej samej1, oo środek Ziemi, odległości od Księżyca. Największe natomiast wartości osiągają owe siły wzdłuż okręgów leżących w połowie drogi pomiędzy wyżej wspomnianym okręgiem a najbliższym i najdalszym od Księżyca punktem Ziemi. Działają one stycznie db powierzchni Ziemi wzdłuż osi Ziemia — Księżyc, w kierunk/u do Księżyca po bliższej mu stronie Ziemi, zaś w kierunku od Księżyca — po dalszej. Kierunek ten zmienia się wraz z kątem, jaki oś Ziemia — Księżyc tworzy z płaszczyzną równika, ale jako grube uogólnieoiie można przyjąć, że w miarę obrotu Ziemi każdy punkt jest w ciągu
24 godzin i 50 minut dwukrotnie pociągany najpierw w jednym, a następnie w rnnieji więcej] przeciwnym kierunku. Te dwa ruchy mde są identyczne, z wyjątkiem sytuacji, kiedy Księżyc znajduje się w płaszczyźnie równika; mamy więc efekt zarównlo dobowy, jak i półdobowy. Siły pochodzące od Słońca zachowują się podobnie, są jednak przeszło dwukrotnie słabsze.
Można pokazać, że działanie sił przypływowych jest małe (około 10 cm na 1000 km), o ile kształty, rozmiary i głębokości danej części oceanu oraz jeji wzajemne oddziaływanie z innymi częściami nie prowadzą do rezonansu z okresem 24 godzin 50 minut lub 12 godzin 25 minut. W większości rejonów oceanicznych występuje, jak się wydaje, rodzaj' rezonansu i pływy są duże w porównaniu z naturalnymi oscylacjami zatok i basenów portowych, tak że te ostatnie występują na mareogramach jedynie w postaci ząbków na krzywych pływów. Natomiast w jeziorach pływy są znacznie słab
sze niż seiches. Być może, w pewnych okolicznościach pływy mogą wzbudzić drgania lokalne w ten na przykład sposób, że część energii prądu pływowego, płynącego wzdłuż linia brzegowej, odchyla się w kierunku wąskiego wejścia do portu, w którym woda zostaje pobudzona do drgań, podobnie jak powietrze w piszczałce organowej.
Przed przystąpieniem do omawiania różnego rodzaju fal pochodzenia meteorologicznego należy zauważyć, że istnieje pewien rodzaj fal o okresie 2—3 minut, wywołany zmienną wysokością grup zwyczajnych fal wiatrowych, łamiących się przy brzegu. Fale wiatrowe są najbardziej pospolitym skutkiem oddziaływania wiatru na powierzchnię morza, ponieważ jednak są to fale krótkie w porównaniu z głębokością wody, prędkość ich przemieszczania — dopóki nie zbliżą się bardzo do brzegu — zależy jedynie od ich długości. Fale te mogą również przenosić energię przez ocean, a w miarę ich ruchu dłuższe spośród nich coraz bardziej wyprzedzają ¡krótsze. Zaburzenie docierające w pewnej chwili do odległego wybrzeża zawiera fale
o długościach stosunkowo mało się różniących, co prowadzi do silnego dudnienia, czyli do przeplatających się grup wysokich i niskich fal. Przemieszcza się jednak tylko energia fal — same cząstki wody zataczają jedynie tory zbliżone do koła na głębokiej, a do elipsy — na płytkiej wodzie. Tory te nie są jednak całkiem zamknięte i w związku z tym cząstki wody również nieznacznie się przesuwają. Gdy fala dociera do płytkach wód i łamie się na nich, ów transport naprzód gwałtownie wzrasta i grupa fal wysyła do przodu falę o długości wynoszącej nieco mniej niż dwunasto- krotna wysokość spiętrzenia. W tym momencie przyspieszenie do przodu powinno być skompensowane przez przeciwnie skierowaną falę o podobnej długości.
Długie fale tego typu mogą być jednym ze źródeł wzbudzających kłopotliwe oscylacje wody obserwowane w niektórych portach. Następuje to wówczas, gdy naturalny okres oscylacji wód w parcie zbliżony jest do okresu uderzeń kipieli. Ruchy pionowe wody są tu wprawdzie małe, lecz ruchy poziome bywają wystarczająco duże, by spowodowane nimi przemieszczenia statków doprowadziły do zerwania cum, o ile te ostatnie nie są systematycznie regulowane i przy tym nie zachowuje się innych środków ostrożności. W najgorszych przypadkach statki muszą oddalić się od molo. Oscylacyjne prądy w pobliżu wejścia do portu lub przy wystających głowicach falochronów mogą się również okazać niebezpiecznie dla statków manewrujących na małych prędkościach.
Kłopoty takie występują przeważnie w portach położonych na wybrzeżach oceanicznych, gdzie nawet przy idealnie pięknej pogodzie występować mogą uderzenia kipieli, wywołane falami, dochodzącymi z odległych obszarów z silnymi wiatrami. Proste obserwacje na takich wybrzeżach wykazują, że fala wdziera się głębiej w ląd mniej więcej: eo 2 minuty. Rozstrzygnięcie zagadnienia, czy takie zjawiska mają istotny wpływ dla wzbudzania rezonansu w portach, posiada duże znaczenie praktyczne. Niektóre dane MRG będą tu wielce pomocne.
Staranne obserwacje prowadzone na Bermudach, które można uważać niemal za mały punkt obserwacyjny na głębokiej wodzie, wykazują, że zmiany poziomu wody podczas huraganów można w zupełności wytłumaczyć zmianami ciśnienia atmosferycznego. Morze działa tu jak naczynie barometru wodnego — woda wznosi się w obszarach niskiego, a opada w obszarach wysokiego ciśnienia atmosferycznego. W przypadkach, gdy woda jest głęboka, zmiany jej poziomu
zachodzą z prędkością pozwalającą na utrzymanie równowagi. Jeżeli jednak woda jest płytka, prędkość przemieszczania się zaburzenia atmosferycznego może być bliska prędkości swobodnych fal powierzchniowych dla tej głębokości. W takiej, sytuacji wystąpi rezonans i zaburzenie atmosferyczne bez przerwy zwiększać będzie energię fali.
W sobotę dinia 22 lipca 1929 roku wielka fala o wysokości około 6 m zmyła niespodziewanie wiele ludzi z pdaż położonych na południowym wybrzeżu w hrabstwach Kent i Sussex, wyrządzając przy tym szkody. Opisano ją wówczas w gazetach oraz w „Meteorological Magazine”, zaś prof. Proudman w swej książce poświęconej dynamice mórz i oceanów wykazał, że występowały wówczas warunki sprzyjające rezonansowi. Zaburzenie atmosferyczne stanowiła w tym przypadku linia szkwałów, przebiegająca z zachodu na wschód i przemieszczająca się w kierunku północnym z prędkością około 60 km/godz. Szkwał ten spowodował gwałtowny wzrost ciśnienia powietrza, równoważny wprawdzie jedynie około 1,5 cm słupa wody, ale przemieszczający się z taką samą prędkością jak długie fale na średniej głębokości Kanału na południe od Sussex i Kent.
Poniżej przytaczamy fragment notatki na ten temat, która ukazała się w „Dail Mail” w dniu 22 lipca 1929.
Dwudziestostopowa fala. Kobieta utonęła podczas łowienia ryb
Fala przepływowa, która sobotniej nocy wtargnęła na wschodnie i południowo-wschodnie wybrzeża, wraz ze sztormem i burzą, wywołała wielki popłoch. Skutki tego niezwykłego zjawiska dały się odczuć od Yarmouth na wschodzie aż do Worthing na południu.
W Bury St. Edmunds była to najgroźniejsza burza, jaką pamiętano. Piorun kulisty poważnie uszkodził wieżę kościo-
ła św. Piotra, a kawałki muru wybiły dziury w balkonie należącym do sąsiedniego szpitala West Suffolk w momencie, gdy pacjenci opuszczali balkon. Pani Lilian Pollard, zamieszkała w Chertsey-Road, Woking, Surrey padła ofiarą fali, która wtargnęła na plażę w Hastings. Fala ta zalała łódź, w której ofiara wypadku znajdowała się wraz ze swym mężem i dwoma innymi mężczyznami, łowiąc ryby.
Pan White powiedział: „Wiosłowałem w kierunku brzegu; morze było gładkie jak lustro. W połowie portu, około 100 yardów od brzegu, ujrzałem zbliżającą się falę o wysokości około 20 stóp; nie byliśmy w stanie ustrzec się jej. Obróciłem łódź do fali, fala nakryła nas i przeszła dalej. Nigdy w życiu nie widziałem czegoś podobnego”.
Pan Wilkins, urzędnik Hastings Pier Company, powiedział: „Nagle zapadły ciemności i za molem ujrzałem coś co wyglądało jak biała ściana wody; runęła z wielką prędkością na brzeg, po czym po kiliku minutach uspokoiło Się.
„Trąba powietrzna”.
W Folkestone ukazała się wielka czarna chmura, a trąba powietrzna wzburzyła wodę w morzu. Choć był odpływ, woda wzniosła się kilka stóp powyżej znaku wysokiej wody, rozpraszając ludzi na plaży i miażdżąc małe łodzie. Wielu osobom, przemoczonym do nitki, zaszokowanym i pokaleczonym o skały, udzielono pomocy w szpitalu. Arthur J. B. Balkham, zamieszkały w Folkestone, Thanetgarden 16, który łowił ryby ze skały, został zmyty dio morza i zginął na oozaich obserwatorów, nie mających możności okazania mu pomocy.
Tłumy zgromadzone na plaży w Brighton ujrzały diługą białą linię wznoszącej się piany. Kobieta i mężczyzna, uwięzieni pod przewróconą łodzią, zostali uratowani przez służącego, który znurkował pod łódź. Fala wdarła się 150 yardów w głąb plaży w Worthing, porywając mężczyzn, kobiety i dzieci.
W Kingston piorun uderzył w drut od markizy na łodzi, a siedzący w niej chłopiec został wyrzucony w powietrze i po przekoziołkowaniu wpadł do łodzi z -powrotem.
Zaburzenia tego typu nie są w Kanale La Manche niczym niezwykłym. Zmiany ciśnienia i wiatru są tu niekiedy tak małe, że trudno je zauważyć, ale pomimo to zupełnie (nieoczekiwanie fale w ciągu kilku minut podnoszą i obniżają poziom wody o kilkadziesiąt cen
tymetrów. Zjawisko to ma różne nazwy lokalne. W pobliżu Plymouth nazywają je „boar”, co znaczy „dzik”, na rzece Yealm — „run” albo „sitch”. Na wybrzeżu niemieckim nazywają je „niedźwiedź morski”; na Bałtyku potrafi on czasem być niebezpieczny.
Fale wywołane huraganami, występujące na amerykańskim wybrzeżu Atlantyku lub fale sztormowie, powodujące co pewien czas powodzie u zachodnich wybrzeży Anglii, powstają w podobny sposób — silne zaburzenie atmosferyczne, związane ze zmianą ciśnienia i wiatru, powinno się przemieszczać z odpowiednią prędkością poprzez wystarczająco długi obszar płytkich wód. Olbrzymie fale sztormowe, powstające u wschodnich brzegów Anglii (jak mp. te, które spowodowały w końcu stycznia 1953 roku katastrofalne powodzie), są, jak można to na ogół wykazać, skutkiem fal docierających do północnych części Morza Północnego i znacznie wzmocnionych przez działanie wiatru. Tzw. efekt geostroficzny, związany z obrotem Ziemi dookoła osi, odgrywa tu również pewną rolę, w wyniku oziego fala porusza się zazwyczaj dookoła Morza Północnego — na południe przy wybrzeżach brytyjskich, na północ zaś — przy norweskich.
W Wielkiej Brytanii istnieje służba ostrzegawcza przed falami sztormowymi z głównym ośrodkiem w Centralnym Biurze Prognoz Brytyjskiej Służby Meteorologicznej, w Dunstable; j|est ona równie skuteczna jak służba ostrzegawcza przed falami sejsmicznymi na Hawajach. Dalsze badania są jednak ciągle potrzebne, zarówno dla uzyskiwania wcześniejszych ostrzeżeń, jak i do opracowania reguł o bardziej powszechnym zastosowaniu.
Obserwacje prowadzone na Bermudach zdają się wskazywać, że na głębokiej wodzie zaburzenia atmosferyczne nie wzbudzają długich fal, natomiast dane
japońskie i amerykańskie prowadzą, jak się wydaje, do przeciwnego wniosku. Wstępne dane MRG z amerykańskich stacji położonych na Pacyfiku wykazują że mareografy wykrywały tam długie fale pochodzące od huraganów. Najpierw pojawiały się długie fale
o okresie 10—20 minut, po czym zwiększał się przy- bój i wzburzenie morza.
Około czterdziestu mareografów, przystosowanych do rejestracji długich fal, zainstalowano podczas MRG w różnych częściach świata. W urządzeniach tych, za pomocą pomysłowych elektrycznych i hydraulicznych filtrów, usuwa się z zapisu zarówno fale pływowe, jak i wiatrowe.
Jeżeli z mareogramów wyeliminować zarówno fale pływowe, jak również fale długie i zwykłe, wiatrowe, to pozostaną jeszcze zmiany średniego poziomu morza z miesiąca na miesiąc, z roku ma rok, czy w ciągu długich okresów wieloletnich. Badania tego procesu przeprowadza się, wyznaczając z mareogramów cogodzinne stany wody i uśredniając te dane na każdy miesiąc czy rok oraz zwracając przy tym uwagę, by nie włączyć tu żadnej niepełnej części podstawowego, półdobowe- go czy dobowego, okresu pływów.
Wyniki wykazują, że średni poziom morza nie jest bynajmniej wielkością tak niezmienną, jak można by przypuszczać. Ulega on znacznym zmianom, które nie są przy tym zjawiskiem jedynie lokalnym, lecz przebiegają w podobny sposób w całkiem rozległych obszarach. Jedną z przyczyn tego zjawiska są regionalne zmiany gęstości wody. Gdy średnia temperatura słupa wody do głębokości około 200 m wzrośnie ¡z 10°C na 11°C, zaś zasolenie tego samego słupa spadnie z 35%o na 34,9%o, spowoduje to wzrost wysokości o około 5 cm. W umiarkowanej strefie Północnego Atlantyku średni poziom morza jest latem i jesienią około'
25 cm wyższy niż wiosną. W zjawisku tym pewną rolę odgrywają sezonowe zmiany równowagi pomiędzy opadami i parowaniem, które najintensywniej zachodzi w zimie, gdy chłodne wiatry wieją nad stosunkowo ciepłą wodą; izimą także większa ilość wody ulega zmagazynowaniu w postaci lodów polarnych i pokrywy śnieżniej oraz w gruncie, rzekach i jeziorach. Wahania średniego ciśnienia atmosferycznego, wiatrów oraz prądów morskich również mogą wywierać wpływ na poziom morza. Nie jest prty tym rzeczą łatwą wyodrębnić wpływ poszczególnych z tych czynników, gdyż zmiany zalsolenia i temperatury często wiążą się ¡ze zmianami wiatru.
W pobliżu wysp oceanicznych, w strefie tropikalnej, średnie miesięczne wahania poziomu morza są bardzo małe, lecz np. w głębi Zatoki Bengalskiej mogą dochodzić do 1,5 m. Uśrednienie danych ze wszystkich oceanów wskazuje, że pod koniec zimy (na półkuli północnej) oceany zawierają mniej wody niż pod koniec lata (różnica średnich poziomów przekracza w tych okresach czasem 2 cm). Może to być spowodowane tym, że na półkuli północnej: istnieją znacznie większe niż na południowej obszary lądowe, które może pokrywać śnieg.
Dokładna niwelacja poprzez Przesmyk Panamski wytkazała, że średnia roczna .poziomu morza po stronie Oceanu Spokojnego jest o około 20 cm wyżisza niż po stronie Atlantyku. W porze deszczowej w październiku różnica ta dochodziła do 30 cm, natomiast w ciągu stosunkowo suchego lata znikała niemal zupełnie. Wydaje się, że zasadniczą przyczyną tej różnicy jlest znacznie mniejsze zasolenie, a więc i mniejsza gęstość wód Zatoki Panamskiej niż wód Morza Karaibskiego. Występowanie tych różnic może wydawać się dziwne, zważyw/szy że oba oceany łączą się przy przy
lądka Bom. faaorąr Jednak pod uwagę smiany temperatury wDlMUt, ciśnienia powietrza, wiatrów i prądów menkieh wyatąpnjąc* na tej kilkanaście tysięey Ukamtirtw ko|er] tr«W nietrudno pojąć, że różnice I* są w flPWKW rzeczy bfl KMinu. Pomiary wzdłuż wybtz*~zy L'SA zarówno na Atlantyku, jak i na Pacyfik i, wykazują. t+ pomiędzy Florydą a Maine oraz peaniąifcry Msdawry Kehfemią a rtannn W»nhm|U* Mniłjl rteam rz^du JO cm
Ciyrw:A: itiwoJuficn i klimatyczne (które powodują (rwmnrt amuny średntch mn-su.-c/nych wy- Kitoirt posaomu nuta) nmr zmieniają się s roku na pak i tym wpływają ria tmlMjr średnich rocznych wysokości pciwu mena Występuje również dzie- wtątaaMHai akna anian średniego poziomu morza awiąaany a Mnnutn pływu o tym samym okresie. Pływ In wtąae się s dziewiętnastoletnim cyklem mu*n p>jfcK««a artłlty Księżyca względem równika; muay ywriwan morza wywołane tym pływem sięgają fc i'kWM*fcB «antyaartoGw. Zmiany średniego poziomu n&iwraa a roku na rok me przekraczają na ogół kilku- fi«atn natyniitrtw. eapAo wskazują jednak pewną «gnlrą Orui -r:; \ Tak np. na południe od Anglii śred- ai |x ,m*im nona podnosi óę obecnie około 15 cm na atiaiwete latnaeją ponadto dane archeologiczne wyka- au |<t' i-- a» tohś* aa martw rzymakich proces ten prze- ka(pł t mm*} adąaaj tą aamą prędkością, zaś dane |a*togl«arv# Mtaścaą o tym. te smiany poziomu mo- rta w «bu Idanakadi z podobną JA obecnie prędkością *»aly toż nirpta w poprzednich epokach.
Mni?| wtąnrj taka aema prądkość wzrostu średniego »■1—»wraa występuje obecnie w Holandii oras W wwlhedMWife | aariwhldi wybrzeży USA; w północ- aej taknp I aa Aiaam )■( jednak znacznie mniej* aaa. Dw»)i alą tak dfotegg, to «kanary to wciąż uwal-
niają się spod oddziaływania ciężkiej pokrywy lodowej, która „przygniatała” je podczas ostatnieji epoki lodowcowej. W Finlandii natomiast ląd w stosunku do poziomu morza podnosi się — o około 30 cm na stulecie (na północnym zachodzie ¡niemal o 90 cm).
Jest rzeczą niewątpliwą, że obecnie poziom wód oceanicznych podnosi (się w miarę ocieplania się Arktyki i cofania' lodowców. Procesy te powodują bowiem zarówno ogrzewanie się wód arktyoznych, jak i zwiększanie ich ilości; nie mniej iważne są tu zmiany kształtu skorupy ziemskiej. Takie powolne podnoszenie się dna morskiego, jakie występuje w Zatjoce Hudsona oraz w pobliżu północnych wybrzeży Kanady i Syberii, odgrywa tu z pewnością bardzo istotną rolę» Zagadnienia te są (niezwykle interesujące w związku z badaniami w zakresie klimatologii, glacjologii oraz fizyki skbrupy ziemiskiej. Zaczynają się one stawać także problemem technicznym. Piętnaście centymetrów na stulecie wydaje się wprawdzie wielkością bardzo małą, należy jednak pamiętać, że istnieją gęsto zaludnione i uprzemysłowione obszary, położone poniżej poziomu przypływów syzygijnych (powstających wówczas, gdy Słońce i Księżyc znajdują się wraz z Zie- i mią na jednej linii) i chronilone są przed zalaniem je?J dynie dzięki wałom wzdłuż brzegów morza i rzek. Zwiększenie o 15 cm wysokości tych wałów oraz urządzeń portowych byłoby ogromnym przedsięwzięciem, co do konieczności którego trudno się wyczerpująco wypowiedzieć, dopóki nasza wiedza o czynnikach powodujących zmiany poziomu morza nie zoistanie pogłębiona. W związku z tym zainstalowany pięćdziesiąt nowych mareografów w różnych częściach świata (w tym znaczną część na wyspach oceanicznych i w innych miejscach, w których pomiary były najkonieczniejsze) dla uzyskania obrazu badanych zja
wisk pełniejszego, niż było to możliwe wówczas, gdy pomiarów tych dokonywano jedynie w dużych portach. Same obserwacje MRG, tnwające zaledwie 18 miesięcy, wprawdzie nie mogły rozwiązać żadnego z zasadniczych problemów, przyczyniły się jednak wiele do wzbudzenia zainteresowania zagadnieniem, a znaczna część rozpoczętych w tym czasie prac ma być kontynuowana. Międzynarodowa Rada Unii Naukowych oraz UNESCO zorganizowały stałe zespoły dl'a badania mareograśffiisęśf wybierając na centrum tych piać Inistytut Pływów w Liverpool {Liverpool Tidal Institute).
Wszelkie rodzaje fal przenoszą przez oceany energię, ale ¡nie masy wody. Ruchy samej wody można przy’* pisać pośrednio ciepłu słonecznemu. Atmosfera Ziemi jest ibardzo przezroczysta dla krótkofalowego pror mieniowania Słońca i większa jego część, która nie uległa odbiciu od chmur czy powierzchni Ziemi, zostaje pochłonięta przez lądy i oceany. Jednak temperatura zarówno lądów, jiak i oceanów nie wzrasta z roku na rok, co oznacza, że muszą one tracić równie wiele energii, jak jej otrzymują. Proces ten odbywa się częściowo poprzez długofalowe promieniowanie cieplne, częściowo zaś przez parowanie i przewodnictwo. Promieniowanie długofalowe jest częściowo pochłaniane w .atmosferze, głównie przez parę wodną i dwutlenek węgla. Atmosfera ogrzewa się od powierzchni lądów i wód także przez przewodnictwo, zaś kondensacja zawartej w powietrzu pary wodnej również daje zńaczne efekty cieplne. Ciepło to jest ostatecznie wypromieniowywane z powrotem w przestrzeń kosmiczną. Z bilansu energii wynika jednak, że rejony tropikalne byłyby nieznośnie gorące, polarne zaś nieznośnie zimne, gdyby nie istniał potężny transport ciepła z małych do dużych szerokości geograficznych po-
przez atmosferę i oceany. Cyrkulacja w atmosferze i oceanach mają wiele cech wspólnych, jednak cyrkulacja atmosferyczna jest znacznie bardziej aktywna. Jedna | zasadniczych różnic polega na tym, że atmosfera jest od dołu ogrzewana przez lądy | oceany, a od góry chłodzona wskutek wypromieniowamia, podczas gdy w oceanach zarówno ogrzewanie, jak i chłodzenie odbywa się na powierzchni. Wynika stąd, że najważniejszą siłą napędową prądów morskich są wiatry, przy czym, jak się wydaje, przeważa obecnie pogląd, iż wiatry transportują większe ilości ciepła niż prądy. Wpływu tych ostatnich w żaden sposób nie można jednak pominąć. Przenoszą one bowiem ciepłą wodę do dużych szerokości geograficznych, zimną zaś do małych, rozstrzygając w znacznym stopniu o tym, gdzie największe ilości ciepła zostaną dostarczone atmosferze. Niewiele możemy jeszcze powiedzieć o efektach cyrkulacji wód głębinowych, wzrasta jednak ilość dowodów, że jest ona — podobnie jak konwekcja w naczyniu — wywołana przez regiońalne różnice w ogrzewaniu i parowaniu. Program MRG poświęcony był przede wszystkim badaniom ogólnej cyrkulacji w oceanach, a zwłaszcza prądom głębinowym.
W wyniku badań oceanów, trwających 150 lat, dysponujemy wystarczającą ilością wiadomości o temperaturze i zasoleniu wód powierzchniowych, głębinowych i przydennych w większej części oceanów, by śledzić ruchy wody z jednego końca oceanów na drugi. Jeden z najbardziej interesujących ruchów zaczyna się ma północnym Atlantyku, gdzie zimne i silnie zasolone wody opadają w głąb, po czym na głębokości 2—2,5 km płyną w kierunku południowym. We wschodniej części Atlantyku prąd ten zasilają bardzo słone wody, płynące jako prąd głębinowy z Morza Śródziemnego. W miarę zbliżania się do rejonów
Antarktyki głębokość tego prądu ulega zmniejszeniu, po czym część jego, rozcieńczona przez wielkie opady deszczu i śniegu oraz przez topniejące lody, powraca na północny Atlantyk j'ako prąd powierzchniowy; inna część, która, ulegając wprawdzie znacznemu rozcieńczeniu, oziębia się na skutek mieszania z wodami antarktycznego szelfu kontynentalnego, powraca na północ jako prąd przydenny. Resztę tych mas wodnych można odnaleźć wokół Przylądka Dobrej Nadziei, na Oceanie Indyjskim, a nawet na Pacyfiku na południe od Australii.
Jednym z zasadniczych problemów oceanograficznego programu MRG miało być rozszerzenie tych badań oceanicznych. Wzięło w nich udział osiemdziesiąt statków z dwudziestu kraj,ów. Program angielski obejmował bardzo szczegółowe obserwacje na wszystkich głębokościach wzdłuż trzech linii przecinających
Ocean Atlantycki, czterech innych długich linii, biegnących przez wschodnią część Atlantyku, oraz krótszych linii w Zatoce Biskajskiej i wzdłuż wybrzeży Portugalii, Hiszpanii i Afryki Północnej. Pracę tę wykonywano w ścisłej współpracy z uczonymi amerykańskimi. Statki brytyjskie Instytutu Rybołówstwa prowadziły podobne obserwacje na morzu Barentsa, Morzu Grenlandzkim oraz pomiędzy Wyspami Szetlandzkimi i Owczymi oraz Islandią. Okręty hydrograficzne Marynarki Wojennej dokonywały obserwacji w cieśninach: Gibraltarskiej i Bab el Mandeb. Morska Asocjacja Biologiczna prowadziła szereg szczegółowych badań w zatoce Biskajskiej. Statki badawcze ZSRR, USA, Niemiec, Japonii, Francji i innych krajów miały również ambitne plany, toteż obecnie wiele trzeba będzie włożyć wysiłku w opracowanie i opublikowanie uzyskanych wyników.
Jakkolwiek sporo wiemy o trasach wędrówek, jakich dokonują łatwe do zidentyfikowania masy wód, pochodzące z wyjątkowych rejonów klimatycznych, to niewiele możemy powiedzieć o ich prędkościach, ani
o siłach, jakie podczas ich ruchu występują. Jeżeli ¡np. zatapia się pewną ilość odpadów promieniotwórczych w głębokiej wodzie oceanicznej*, to nie wiadomo, jak prędko dotrą one do innych miejsc i głębokości, a przy tym zbyt mało wiemy o zachodzących tata procesach fizycznych, by móc dać tu jakąś rzetelną ocenę. Długo czekaliśmy więc na metodę, która byłaby odpowiednikiem używanej w meteorologii techniki .balonowej i radiosondażowej. Odpowiednie urządzenie wynalazł dr J. S wal Iow z brytyjskiego Narodowego Instytutu Oceanograficznego, w samą porę, by można
było jej użyć podczas MRG. Balon został w niej zastąpiony pływakiem z rur aluminiowych, które są mnieji ściśliwe od wody morskiej. Oznacza to, że jeżeli pływak zostanie tak obciążony, iż zacznie tonąć, to wzrastające wraz z głębokością ciśnienie wody w mniejszym stopniu zwiększy średnią gęstość pły-
waka niż gęstość otaczającej go wody, czyli wraz ze wzrostem głębokości zwiększa się działająca ¡na pływak siła wyporu. Dobierając odpowiednią grubość rur i wielkość obciążenia można spowodować, by pływak swobodnie zanurzony w wodzie utrzymywał się stale na dowolnie obranej głębokości i przemieszczał wraz i prądem.
Część obciążenia pływaka stanowią baterie i urządzenie sygnalizacyjne, wysyłające w regularnych odstępach czasu sygnały akiistyczne, dzięki czeimi. ze znajdującego się na powierzchni 'Wody statku można*: śledzić i wnosić na mapę drogę pływaka. Zazwyczaj używa się w tym celu dwóoh hydrofonów — jednego umieszczonego na dziobie statku, drugiego zaś na ru* fie. Jeżeli sygnał dochodzi do obu hydrofonów jednocześnie, oznacza to, że pływak znajduje się dokładnie na linii prostopadłej do osi statku i przechodzącej przez jego środek. Szereg podobnych namiarów, powtórzonych w innych znanych położeniach statku, pozwala wyznaczyć położenie pływaka. Wystarczająoo dokładne rejestrowanie ruchów statku nie jest bynajmniej rzeczą łatwą, można to jednak robić, korzystając z krótko zakotwiczonych boji radarowych, których pozycje względem charakterystycznych szczegółów topografii dna można wyznaczyć ze statku drogą sondowania akustycznego. Zadanie to jest znacznie łatwiejsze, jeżeli wykonuje się je na obszarze, na którym można wykorzystywać pomoce radionawigacyjne.
Dokonano już wielu pomiarów tego rodzaju. Jednym z pierwszych problemów o wielkim znaczeniu teoretycznym i praktycznym było zbadanie ruchów występujących pod Prądem Zatokowym. Badań tych dokonano w ścisłej współpracy z Instytutem Oceanograficznym z Woods Hole, Massachusetts, na obszarze położonym bezpośrednio poza szelfem przybrzeżnym
Południowej Karoliny, Było wiele dowodów wskazujących na istnienie przy powierzchni ruchu w kierunku północnym. Na głębokości około 1,5 km ruch poziomy był bardzo słaby, lecz 2,5—2,7 km pod powierzchnią pływaki wykazały obecność ruchu w kierunku południowym z prędkością dochodzącą do 1/3 węzła (ok. 800 m/godz.), dostarczając dowodów na istnienie wielkiego transportu wody w kierunku przeciwnym niż na powierzchni. Pływaki, użyte pomiędzy San Francisco a Aleutami, wykazały bardzo niewielkie prędkości, natomiast uczeni amerykańscy badający później Południowy Prąd Równikowy wykazali istnienie tam głębokiego przeciwprądu o prędkości 2—3 węzłów (|,5—5 km/godz.). We wschodniej części Atlantyku, gdzie jeden z pływaków śledzono przez 48 dni, prądy głębinowe płyną zazwyczajl z prędkością około 1—2 mil (Ź-—4 km) na dobę, zwracają natomiast uwagę zmianami, jakim ulegają zarówno w czasie jak i przestrzeni. Za Cieśniną Giiblraltarską stwierdzono obecność skoncentrowanego przy brzegu hiszpańskim prądu bardzo słonejl wody, płynącego z Morza Śródziemnego w kierunku zachodnim na głębokości 900-^-1400 m z prędkością około 0,5 węzła. Po jego południowej stronie występują wiry 'bardzo słonej wody — jeden z pływaków poruszał się tam w ciągu siedmiu dni wokół elipsy o długości około 20 km a szerokości około 16 km. Warto zauważyć, że jeżeli położenie pływaków ztaienia się w ciągu doby dostatecznie mało, to wykazują one istnienie prądów pływowych na wszystkich głębokościach.
Obserwacje takie przyczyniły się już w dużym stopniu do rozwoju teoretycznych i praktycznych badań ogólnej cyrkulacji oceanów. Wykazały one jasno, że prądy głębinowe transportują równie wiele wody, jak i powierzchniowe i że w związku z tym nie będziemy
w stanie wytłumaczyć zmian w prądach powierzchniowych oraz ich wpływu na Mimat i rybołówstwo, dopóki nie wyjaśnimy cyrkulacji wód głębinowych.
Program oceanograficzny MRG był niewątpliwym osiągnięciem, przynosząc wiele nowych danych i powiększając zainteresowanie sprawami oceanicznymi. Wydaje się, że wskazał an drogi współpracy i wywołał wiele zaciętych dyskusji w skali międzynarodo-
wej. Podczas ostatnieji podróży brytyjskiego okrętu badawczego „Disoovery II”, z której powrócił 15 grudnia 1958 roku, cztery laboratoria | trzech krajów podzieliły się pracą. Na pewno pomoże to nam w wyłapywaniu „nowych teorii i praktyk, w korygowaniu dawnych i w ocenianiu tego, oo staje przed nami”.
V» ^ f •‘V-*» *J*-*!)V-«*^j"t**
t L,aâk«à t\ f -«si<4F%L.wwEiweimÍ
vfÿ’t
ANTARKTYKA
Rejony polarne uważano niegdyś za najbardziej niedostępne obszary Ziemi. Niewiele lat upłynęło od czasu, gdy po długiej podróży odbytej pieszo w nadzwyczaj ciężkich i niebezpiecznych warunkach, po raz pierwszy dotarto do Bieguna Północnego, a następnie do Południowego. Dziś wygląda to inaczej — przez Arktykę kursują regularnie samoloty komunikacyjne, a do miejsc leżących nawet w pobliżu samego bieguna można dotrzeć stosunkowo łatwo i prędko. Podczas Międzynarodowego Roku Geofizycznego wielki ląd Antarktydy zamieszkiwało więcej ludzi niż kiedykolwiek przedtem, w tym liczna grupa na samym Biegunie Południowym.
Lecz choć bohaterskie czasy Peary’ego, Nansena, Amundsena, Shackletona i Scotta minęły na zawsze, zorganizowanie dużej antarktycznej wyprawy badawczej pozostaje nadal sprawą niełatwą. W niniejszym szkicu G. de Q. Robin, obeźnany jak nikt inny z ową mroźną krainą, omawia niektóre problemy naukowe Antarktydy oraz opisuje życie i pracę uczonych w groźnych warunkach długiej zimowej nocy.
G. de Q. Robin jest dyrektorem Instytutu Badań Polarnych im. Scotta w Cambridge.
Badania naukowe na obszarach podbiegunowych prowadzi się nie dlatego, że zainteresowani uczeni specjalnie pragną tam pojechać, lecz dlatego, że rejony te są częściami świata najbardziej! przydatnymi do prowadzenia pewnych rodzajów obserwacji. W rozdziale tym pragniemy opowiedzieć Wam o tych stronach i o trudnościach, które trzeba tam przezwyciężać.
Główne trudności, z którymi przychodzi zetknąć się w Arktyce i Antarktyce, związane są z zimnem i zimowymi ciemnościami. Na biegunach dzień i noc trwają po sześć miesięcy bez przerwy. Spowodowane to jest tym, że bieguny są stale zwrócone w tym samym kierunku przestrzeni. W zimie na biegunie północnym Gwiazda Polarna tkwi stale w zenicie, natomiast gwiazdy położone niżej wykonują w ciągu doby jeden pełny obrót w prawo, pozostając przez cały czas na tej samej wysokości ponad horyzontem. Bieguny są więc jedynymi miejscami na kuli ziemskiej, gdzie obrót Ziemi dookoła osi nie powoduje oodzien- nych wschodów i zachodów Słońca, Księżyca ozy gwiazd. Zamiast tego, dzięki obrotowi Ziemi dookoła Słońca oraz nachyleniu osi ziemskiej, Słońce wschodzi tam raz do roku. Im bardziej oddalamy się od bieguna, tym w większych granicach Słońce zmienia swą wysokość pcdczas biegu dobowego, jednak w dniu
przesilenia letniego nad całym północnym kołem polarnym pozostaje przez pełną dobę powyżej horyzontu. Oczywiście przesilenie letnie w Arktyce przypada w momencie, w którym Ziemia znalazła się w takim położeniu, że. Biegun Północny jest najbardziej nachylony ku Słońcu. W tym samym momencie biegun południowy jest maksymalnie od Słońca odchylony — jest tam wówczas sam środek antarktycznej zimy.
W naszym kraju* w zimie Słońce znajduje się nad horyzontem w ciągu około ośmiu godzin, zaś w lecie — w ciągu około szesnastu; lecz nawet te stosunkowo niewielkie różnice w usłonecznieniu pomiędzy zimą a latem .powoduj,ą duże różnice temperatury powietrza w tych porach roku. Sześciomiesięczna zaś noc na biegunach prowadzi do bardzo dużego wychłodzenia powietrza zarówno na samych biegunach, jak i na obszarze całej Arktyki i Antarktyki.
Pomimo jednakowych długości dnia i nocy występują w Arktyce i Antarktyce uderzające różnice. Centralny obszar Arktyki stanowi ocean pokryty pływającą krą lodową o grubości 1,5—6 m. W lecie górna powierzchnia tej kry topnieje, kra na wielu obszarach pęka, pozostawiając pasy otwartej wody, w których łódź podwodna może .się wynurzyć, jak to widać na poniższej fotografii (rys. 1) nawet tuż przy samym Biegunie Północnym. Obecnie, dzięki atomowym łodziom podwodnym, można przepłynąć pod lodem Północny Ocean Lodowaty od Alaski do Północnego Atlantyku w ciągu około 4 dni, podczas gdy na powierzchni zwykły statek potrzebował na pokonanie tej! trasy trzech lat lub więcej, nigdy przy tym nie docierając do samego bieguna. Atomowe łodzie podwodne są bardzo obiecującym narzędziem badań ba
senu arktycznego; jednak nie mniej wartościowe wyniki uzyskiwano w ciągu szeregu lat na stacjiach naukowych zakładanych na wielkich krach. Snodki techniczne i ludzi dowożono na nie drogą lotniczą ze Związku Radzieckiego i Ameryki Północnej. Stacje te prowadziły badania głównie w zakresie meteorologii ■i oceanografii, podczas gdy kra dryfowała wokół Oceanu Lodowatego. W nowszych czasach umieszczano na lodzie automatyczne stacje, bez obsady ludzkiej, które drogą radiową okresowo przekazują stacjom przybrzeżnym dane o stanie pogody; w tym samym czasie stacje przybrzeżne wyznaczają za pomocą radionamiarów położenie nadajników. W wyniku tych badań wiejmy, że na znacznej części Arktyki rozprzestrzenia się ocean równie głęboki jak inne oceany, lecz pokryty stosunkowo cienkimi, pływającymi polami lodowymi.
W Antarktyce warunki są zupełnie inne. Biegun
Południowy znajduje się na wielkim lądzie Antarktydy ma wysokości około 3 km nad poziomem morza. Ze względu na wysokość położenia dwukrotnie przekraczającą wysokość gór w Wielkiej Brytanii, na Biegunie Południowym jest zawsze zimno — o wiele za zimno, by lód mógł tato topnieć nawet w środku lata. Na rys. 2 przedstawiono ¿budowaną przez Amerykanów na Biegunie Południowym stację naukową, niemal całkowicie zasypaną śniegiem. Widać tam garaż, maszt, który początkowo miał wskazywać Biegun (później] przekonano się, że w rzeczywistości leży on nieco dalej), oraz wielką kopułę kryjącą tzw. radioteo- dolit, używamy do śledzenia balonów dla pomiarów wiatrów na różnych wysokościach w atmosferze.
Tę różnicę warunków klimatycznych pomiędzy biegunem południowym z jego wysokim, kontynentalnym położeniem, a północnym, gdzie zdarzają się skrawki otwartej wody, można zaobserwować również
i w większych odległościach od biegunów. Na przykład, na wschodnim wybrzeżu Grenlandii w pobliżu 73°N w lecie rośnie trawa i małe kwiatki, a stada wołów piżmowych mogą przebywać tam cały rok,; żywiąc się trawą i liśćmi, zimą zaś — korzeniami, które wygrzebują spod śniegu. Natomiast wybrzeża Antarktydy w odległości 1800 km od bieguna przedstawiali ją inny obraz, nawet w lecie. Na morzu Weddella,J na ¡przykład, brzeg tworzą ciągnące się kilometrami | bariery lodowe, wysokie na około 30 m. Jedynie gdzie- I niegdzie w barierze lodowej występują przerwy i lód łagodnie schodzi do morza, tak że można w tym miejscu wyładować ze statku ładunek i wyposażenie. Na to, by w Antarktyce znaleźć miejsce podobne do wschodniego wybrzeża Grenlandii odległego od bie-* guna o około 1800 km, trzeba się oddalić od bieguna południowego o niemal 4000 km, to znaczy o odległość dwukrotnie większą; widać stąd, o ile Antarktyka jest zimniejsza od Arktyki. Krajobraz pochodzący z Południowej Georgii (rys. 3) z bazą wielorybniczą na brzegu, kilkoma statkami wielorybniczymi w porcie i pokrywającymi góry lodowcami na horyzoncie, jest bardzo podobny do krajobrazu wschodniej Grenlandii na szerokości 73°N; .pochodzi on jednak z szerokości 54°S, to znaczy z szerokości, na której znajduje się Belfast*.
Istnieje jeszcze jedna zasadnicza różnica pomiędzy Arktyką i Antarktyką. Arktyka leży znacznie bliżej Europy, Ameryki Północnej i Azji, a więc — naj gęś-
oieji zaludnionych obszarów świata. Samoloty linii lotniczych odbywają regularne rejsy nad Oceanem Lodowatym, praktycznie rzecz biorąc również ponad (biegunem, a do większości położonych w Arktyce miejsc można dotrzeć w ciągu paru dni, zaś w nagłej potrzebie — nawet w Mika godzin. Natomiast na główny ląd Antarktydy dokonano dotychczas bardzo niewielu lotów z kontynentów południowych. W obecnej chwili tylko Amerykanie mogą sobie pozwolić na organizowanie ich z Nowej Zelandii*. Wszyscy inni mogą dostawać się tam morzem, a potrzebne do prac
potowych samoloty milszą być także transportowane na statku. Podróż morska na Antarktydę, pomimo udoskonalenia potężnych lodołamaczy jest wciąż ryzykowna. W początkach bieżącego wieku na Morzu Wed- della zarówno ekspedycja „Deutschland”, dowodzona przez Filchnera, jak i ekspedycja „Enduramce” Shac- kletona, zostały uwięzione w lodach d nie mogły założyć planowanych baz na brzegu, Historia zmiażdżenia „Enduranoe” przez lody i ocalenia jego załogi ^ należy do najbardziej klasycznych w dziejach badań Antarktydy. Dopiero w drugiej,;* połowie bieżącego! stulecia udało się, dzięki użyciu potężniejszych stat-| ków, założyć bazy na Morzu Weddella.. Jednak nawefeä wtedy niektóre stacje w innych częściach Antarktydy trzeba było zamknąć, a personel eVakuowac drogą lotniczą, ponieważ statki z zaopatrzeniem nie były w stanie przedrzeć się przez potężne lody blokujące dojścia.
Pomimo takich niebezpieczeństw, wiele różnych •krajów postanowiło jednak zónganizować na konty- j nencie Antarktydy podczas MRG stacje naukowe. Rozmieszczenie tych stacji podano na rys. 4, z którego ?; łatwo zorientować się, jakie kraje brały w tym czasie i udział w obserwacjach antarktycznych. Były to: Wielka Brytania, Belgia, Japonia (która w roku 1958 ewa- kuowała swą bazę ze względu na trudne warunki lodowe, reaktywując ją jednak w roku 1959), Australia, Nowa Zelandia, ZSRR, USA, Francja, Argentyna
i Chile. Amerykanie zbudowali bazę na Biegunie Po-. łudniowym, Rosjanie zaś dotarli w końcu 1958 r. do Bieguna Niedostępności, czyli najbardziej oddalonego od wybrzeża punktu kontynentu. Większość baz kontynuuje swoją działalność także po zakończeniu MRG, jako że wiele rozpoczętych w tym czasie badań wymaga kontynuacji.
Przed początkiem MRG najniższą temperaturę powietrza na świecie (około — 70°C) zaobserwowano na Syberii. W roku 1957 Amerykanie na Biegunie Południowym zanotowali — 80°C, Rosjanie jednak nie dali się zastraszyć pobiciem ich syberyjskiego rekordu: w sierpniu 1958 roku temperatura w radzieckiej bazie „Wostok” opadła do — 87°C.
Bardzo niskie temperatury występują wówczas, gdy brak jest znaczniejszego dopływu promieni słonecznych do antarktycznego lądolodu. Podczas zimowych miesięcy nieoo ciepła z rejonów położonych bardziej na północ dostarcza cyrkulacja powietrza; również pewna ilość ciepła, zmagazynowanego podczas lata w lodzie, zostaje teraz zużyta na ogrzanie powietrza. Polarny lądolód sam wypromieniowuje jednak ciepło w przestrzeń, jeżeli tylko niebo jest bezchmurne, w wyniku czego temperatura* opada tak długo, dopóki straty przez promieniowanie nie zaczną być równoważone przez istniejący dopływ ciepła. Oczywiście znaczne wysokości lądolodu Antarktydy powodują to, że temperatura, która, jak wiadomo, spada z wysokością, będzie tam stosunkowo niższa niż na obszarach nieznacznie wzniesionych nad poziomem morza.
W miarę wypromieniowywania ciepła przez powierzchnię lodu stykające się z nią powietrze ulega ochłodzeniu, stając się przy tym cięższe niż powietrze położone wyżej ponad lodem. Wszędzie więc, gdzie nachylenie powierzchni lodu jest wystarczające, zimne powietrze spływa w dół jak każdy płyn i to tym szybciej, im większe jest nachylenie. Najstromsze stoki lodowe na Antarktydzie występują na wybrzeżu, tam też te tzw. wiatry katabatyczne są najsilniejsze. O wia
trach tych wspomina w swej klasycznej książce The Home of Blizzard (Gniazdo Wichrów) zmarły Sir Douglas Mawson. W jego bazie na przylądku Denison średnia roczna prędkość wiatru wynosiła 80 km/godz., maksymalne zaś prędkości osiągały przeszło 160 km/godz. W nowszych czasach francuska ekspedycja do Ziemi Adeli w 1951 roku zetknęła się z równie złą pogodą. Ostatnie badania wiatrów katabatycznych wykazały, że nie spływają one wzdłuż linii największego nachylenia stoku, lecz pod działaniem siły Coriolisa odchylają się od niej o około 30° (por. rozdz. IV). Z rozważań teoretycznych wynika, że działanie to wzmaga wiatry katabatyczne w zachodnich częściach wielkich niżów barometrycznych. Jeżeli jednak można zbudować stację >na płaskiej płycie, jaką jest na przykład lód szelfowy, to wówczas można uniknąć działania wiatrów katabatycznych, zanikają one bowiem zupełnie już kilka kilometrów od podstawy stoku lodowego.
Niskie temperatury, jakie występują na Antarktydzie, nie tylko utrudniają pracę geofizyków, lecz również zmieniają własności szeregu substancji, tak że nie dają się one używać w celach, do których używa się ioh normalnie w cieplejszym klimacie. Na przykład, jeżeli temperatura spadnie poniżej1 — 79°C, tzn. poniżej temperatury „suchego lodu”*, guma staje się sztywna jak kawałek-drewna, tracąc elastyczność i plastyczność. W tych temperaturach nie można jej więc używać jako materiału giętkiego. Również termometr rtęciowy nie znajdzie w bardzo niskich temperaturach zastosowania, ponieważ rtęć krzepnie około — 40°C. Trudność tę można ominąć stosując pewne typy termometrów alkoholowych. (Temperatury znacznie nawet
niższe od tych, jakie występują na Antarktydzie, można również zmierzyć termometrem butanowym.)
Innym zagadnieniem jest utrzymywanie w stanie nadającym się do eksploatacji pojazdów takich jak ciągniki i sno-caty*. Jeżeli używa się zwykłych olejów, to już w temperaturze 0°C rozruch motorów jest utrudniony, jakkolwiek specjalne oleje poziwalają przezwyciężyć tę trudność. W bardzo niskich temperaturach zwykle oleje w ogóle krzepną, przy użyciu zaś specjalnych potrzebne jest wstępne ogrzewanie silników przed uruchomieniem. W przypadku instrumentów, które muszą pracować na wyjątkowym mrozie, olej usuwa się, zastępując go warstewką suchego grafitu.
Również kondensacja pary wodnej powoduje trudności. Przyrządy takie jak kamery filmowe, wniesione z mrozu do ciepłego baraku lub namiotu, 'pokrywają się natychmiast warstwą szronu i trzeba czekać godzinę lub więcej, by woda wyparowała czyniąc kamerę zdatną do ponownego użytku.
Członkowie wyprawy muszą się zawsze przygotowywać do zetknięcia z tymi bardzo niskimi temperaturami, nawet przy krótkich przejściach. Na przykład mięso fok, używane do karmienia psich zaprzęgów, może zamarznąć do tego stopnia, że nie daje się ciąć nożem ani tasakiem, a można je podzielić na części jedynie piłą krzyżową obsługiwaną przes dwóch ludzi, przy czym ludzie ci, jak widać to na rys. 5, będą prawdopodobnie mieli oszronione brody i obszycia kapturów.
W tych warunkach wiele uwagi trzeba, rzecz jasna, poświęcić ubraniu. Typowy ekwipunek na mróz składa się z trykotowej koszulki, która utrzymuje wokół ciała grubą warstwę ciepłego powietrza, długich weł
nianych kalesonów, flanelowej koszuli, ciepłych wełnianych spodni i dwóch lub trzech swetrów. Na wierzch tego wełnianego odzienia musi przyjść nieprzewiew- ne okrycie zewnętrzne, by uniemożliwić zimnemu powietrzu przenikanie przez stosunkowo luźną tkaninę wełnianą. Na głowę wkłada się czapkę narciarską z nausznikami, wełnianą kominiarkę lub skórzaną pilotkę na wełnianej podszewce, na którą naciąga się obszyty futrem kaptur wierzchniej, wiatroszczełnej kurtki, tak by możliwie największa część twarzy była zakryta. Nogi utrzymuje się w cieple za pomocą dwóch lub trzech par ciepłych skarpet, filcowych pantofli, na które naciąga się parę skórzanych lub płóciennych butów względnie fińskie lub lapońskie „finesko” z reniferowej skóry. Na bezpalcowe rękawiczki nakłada się drugą parę rękawiczek i wreszcie trzecią — z płótna żaglowego lub skóry. Zaletą tych materiałów jest
ich porowatość, dzięki której przepuszczają one parę wodną. Gdyby używać rękawiczek gumowych, powietrze wewnątrz nich byłoby szczelnie zamknięte i cała parująca z rąk wilgoć pozostałaby wewnątrz nich w postaci lodu. Opisany wyżej rodzaj odzieży służy do prac polowych wymagających ruchu, takich jak jazda psim zaprzęgiem, natomiast przy pracach wykonywanych na siedząco, jak np. prowadzenie pojazdów, używa się jeszcze cieplejszej odzieży, np. futer
i bryczesów z psiej lub reniferowej skóry, względnie lżejszych, lecz bardzo ciepłych kurtek i spodni z puchu edredonowego.
Podobnie jak ubranie, również budownictwo mieszkaniowe musi być specjalnie dostosowane do warunków antarktycznyoh. Najpilniejszym zadaniem, które staje przed członkami każdej ekspedycji po wyładowaniu sprzętu i innego bagażu ze statku którym przybyli, jest wzniesienie budynków bazy. Kiedy bowiem zimowe wichry raz się rozpoczną, jest niemal niemożliwością ochronić przed śniegiem wnętrze jakiegokolwiek niedokończonego budynku. Wyprawa Trans- antarktyczna, która nie była w stanie ukończyć budowy głównego budynku bazy przed nadejiściem zimy, stwierdziła podczas jednej zimowej doby, że w czasie, w którym uprzątnięto 80 ton śniegu z zachodniej części niedokończonego budynku, nowe 40 ton zostało nawianych cd wschodu. Nawet jeżeli można ukończyć budowę przed nadejściem zimy, baraki, które mają stać na śniegu, muszą być przygotowane na ogromne jego ruchy, wskutek czego podczas trwania zimy może być zagrzebana cała konstrukcja, Qo powoduje powstawanie wielkich naprężeń na ścianach i dachu. Jeżeli baza stoi na skale, baraki muszą być przymocowane do niej za pomocą grubych stalowych lin, by nie zostały zmiecione przez potężne wichry. Niemniej,
gdy główny budynek zostanie już wzniesiony, a elektryczność, kuchnia i centralne ogrzewanie zainstalowane, można w nim żyć równie komfortowo jak w każdym podobnym budynku gdziekolwiek indziej.
Dla założenia nowoczesnej bazy antarktycznej potrzeba kilkuset ton wyposażenia. Ta jego część, która nie jest natychmiast potrzebna, powinna być starannie złożona i zmagazynowana, by w razie potrzeby można się było do niej łatwo dostać. Często stosuje się układ tuneli zbudowanych ze skrzyń po ładunkach; spełnia on dwojaką rolę — umożliwiając składowanie żywności i wyposażenia z dala od pomieszczeń mieszkalnych oraz zapewniając łatwy dostęp do innych pomieszczeń bez konieczności wychodzenia na dwór przy wietrze i niepogodzie.
Jeżeli planuje się prowadzenie obserwacji kompleksowych, pożądane jest zbudowanie zamiast jednego dużego budynku, raczej; kilku mniejszych baraków, bowiem w wypadku pożaru tylko jedna część zostaje zniszczona. W każdym jednak przypadku niektóre budynki muszą być odosobnione. Na przykład dieslow- skie generatory elektryczne wymagają masywnych fundamentów i są hałaśliwe — muszą więc być umieszczane z dala od pomieszczeń mieszkalnych. Także gdy mają być prowadzone obszerne badania meteorologiczne, obejmujące obserwacje za pomocą radiosond, niezbędne będą pomieszczenia do napełniania balonów wodorem, jeżeli zaś mają być wykonywane pomiary magnetyczne, niezbędny jest specjalny barak antyma- gnetyczny, zbudowany z dala od innych. Poza budynkami niemal na pewno potrzebna będzie pewna ilość wysokich masztów dla anten radiowych, a być może również specjalne wieże i klatki do obserwacji meteorologicznych. Rys. 2 przedstawia niektóre z tych urządzeń.
Śnieg padający w Anglii topnieje w ciągu kilku dni
i powstająca woda spływa, jak zwykła woda deszczowa. Na Antarktydzie powietrze jest zbyt zimne, by śnieg mógł topnieć, wobec tego zbiera się go coraz więcej, podczas gdy niżej położone warstwy zamieniają się stopniowo w lód. W większej części rejonów nadbrzeżnych, w których występują największe opady, wysokość opedu śniegu podczas jednej zimy może dochodzić do metra. Odpowiada to w przybliżeniu 400 mm deszczu — jest to nieco mniej ¡niż roczna średnia wysokości opadów w Londyn ie. W centralnej części kontynentu, z dala od wilgotnego, morskiego powietrza, opad jest znacznie mniejszy i daje jedynie 10—20 cm pokrywę śnieżną rocznie, co odpowiada słupowi 40—80 mm opadu w postaci deszczu. Przy tym tempie przyrostu pokrywy śnieżnej utworzenie się antarktycznego lądolodu, mającego obecnie przeszło 3 km grubości, musiało trwać długo.
Diagram na rys. 6 pozwala zorientować się, w jaki sposób mogłaby narastać lodowa pokrywa Antarktydy, o ile obecny stan z wielkimi opadami w pobliżu wybrzeży i niewielkimi — wewnątrz kontynentu, utrzymywał się także w przeszłości. Początkowo utwo
rzyłby się wzdłuż wybrzeży Antarktydy wysoki wał lodowy, podczas gdy środek kontynentu tworzyłby niższy basen. Jednocześnie lód, tworzący się u brzegów Antarktydy pod pokrywą śnieżną, spływałby do morza i pękał tworząc góry lodowe, które odpływałyby na północ, topniejąc w cieplejszych wodach. Nie cały jednak lód z wybrzeży odpływałby na zewnątrz — mała jego część spływałaby do środka, pomagając zapełnić środkową depresję, ale nawet bez tego spływu słaby opad wewnątrz lądu utworzyłby po pewnym czasie kopułę z najwyższą częścią w pobliżu środka kontynentu.
Do roku 1956 powszechnie panowała teoria, że tworzenie się takiej kopuły nie zostało jeszcze zakończone i wysokość kontynentu w pobliżu Bieguna Niedostępności może być niniejsza, niż na Ziemi Królowej Maud w pobliżu wybrzeży czy też w okolicach Bieguna Południowego, o których wiedziano, że wysokości ich przekraczają 3 km. Ostatnio jednak badacze radzieccy stwierdzili w pobliżu centrum kontynentu obecność lodu o grubości przeszło 3,5 km, co wskazuje na to, że lodowa pokrywa istotnie stała się tu już kopułą. Nie jest to idealna kopuła, gdyż obecność gór i fiordów pod lodem zmienia nieco jej kształt, jednak badania ekspedycji różnych krajów potwierdzają, że grubość lodu gwałtownie wzrasta w kierunku wnętrza kontynentu. Jeżeli, jak już stwierdzono, w ciągu roku opada w centrum kontynentu tylko około 15 cm śniegu, równoważne 7 cm lodu, to jasne jest, że utworzenie 3,5-kilometrowej warstwy lodu zajęłoby wiele lat — być może około 50 000. W rzeczywistości wydaje się, że lądolód antarktyczny jest nawet znacznie starszy. Według dr Pewego z USA, w ciągu ostatniego miliona lat w okresie, gdy w północnych częściach Europy i Ameryki Północnej 3-kilometrowej gru
bości lodowiec kolejno nasuwał się i oofał, lód na Mc Murdo Sound wyrastał niekiedy 300—600 m ponad swój dzisiejszy poziom.
Jednym z aktualnych zagadnień jest problem, czy lądolód antarktyczny rośnie obecnie, czy nie. Poglądy specjalistów w tym przypadku nie są jednak zgodne. Niektórzy glacjolodzy znaleźli w pewnych rejonach nadbrzeżnych dowody zmniejszania się grubości pokrywy lodowej, która obecnie odsłania więcej skał niż dawniej. Natomiast w innych miejscach lód nie obniżał się w ciągu ostatnich pięćdziesięciu czy stu lat. Badań takich nie prowadzono jednak w pobliżu centrum Antarktydy, jako że brak tam skał, na których można by mierzyć bieżące zmiany. Inna metoda polega na szacowaniu całkowitej masy śniegu spadającej w ciągu roku na kontynent i zbadaniu, czy przewyższa ona straty powstające w tym samym czasie wskutek tworzenia się gór lodowych, topnienia lodu w morzu, zdmuchiwania śniegu przez wiatr oraz parowania. Z wyników uzyskanych tą drogą wydaje się, że masa lodu antarktycznego obecnie rośnie, jednak pogląd taki pozostaje w sprzeczności z zachowaniem się średniego poziomu morza. Ponieważ powierzchnia Antarktydy wynosi około 1/30 powierzchni wszystkich oceanów i mórz świata, pogrubienie jej pokrywy lodowej o metr oznaczałoby obniżenie się poziomu morza o około 3 cm. Wydaje się jednak, że obecnie średni poziom morza podnosi się o około 4 cm na stulecie. Choć fakt ten można częściowo wyjaśnić topnieniem mniejszych lodowców arktycznych, to podważa jednak przekonanie, że grubość lodu antarktycznego rośnie. Będziemy musieli przypuszczalnie poczekać kilka lat, aż powtórne pomiary grubości lodu na stacjiach położonych w głębi kontynentu wykażą, czy grubość lodu rośnie, czy nie.
Jak widać z rys. 6, lód na Antarktydzie stale spływa na zewnątrz, rozpadając się u wybrzeży na góry lodowe. W Odległości kilkuset kilometrów od linii brzegowej lód porusza się przypuszczalnie z prędkością wynoszącą jedynie 8—10 om na dobę; prędkość ta zwiększa się jednak wraz ze zbliżaniem się danej masy lodu (lodowca) do brzegu. Ow powolny ruch wewnątrz kontynentu trwa bez przerwy, tak że jeżeli grupa podróżująca w kierunku środka Antarktydy zatrzyma się na jeden dzień dla przeglądu pojazdów, będzie zmuszona nadrobić około 8 can, gdy po 24 godzinach wyruszy w dailszą drogę. Z drugiej zaś strony, spływ lodu zwiększy O' około 8 cm na dobę prędkość podróżnych, udających się w kierunku wybrzeża.
Stwierdziliśmy już, że grubość lodu w pobliżu centrum kontynentu wynosi około 3,5 km; powstaje pytanie, w jaki sposób w tym przypadku można mierzyć tak wielkie grubości? Najpewniejszą metodą jest tu tzw. strzelanie sejsmiczne; metoda ta powstała na gruncie dwóch nauk — badań nad falami sejsmicznymi, prowadzonych za pomocą czułych sejsmografów, zdolnyqh zanotować bardzo małe ruchy skorupy ziemskiej, oraz zasad sondowania akustycznego.
W celu wyznaczenia grubości lodu dokonuje się wybuchu na jego powierzchni lub pod nią. Wzbudzone wybuchem fale dźwiękowe docierają do skalnego podłoża, odbijają się i powracają w postaci echa rejestrowanego na powierzchni lodu przez tzw. sejsmometry. Sejsmometry są instrumentami tak czułymi, że można nimi mierzyć przemieszczenia gruntu rzędu 1/40 000 milimetra.
Rys. 7 pozwala nam na bardziej szczegółowe wyjaśnienie tej metody. Przedstawia on grupę sondażu sejsmicznego w czasie prac polowych na Ziemi Królowej Maud w roku 1951. Widoczny w środkowej czę
ści zdjęcia ¡pojazd służył za mieszkanie oraz spełniał rolę miniaturowego laboratorium, zawierającego wzmacniacze i inne urządzenia elektryczne. Sześć sejsmometrów, ¡połączonych z ukrytym w pojeździ© wzmacniaczem, ustawiano zazwyczaj wzdłuż linii prostej na powierzchni lodu. W lodzie wiercono następnie ręcznie otwór o głębokości około 12 m, zakładając weń około ćwierćkilogramowy ładunek trotylu. Gdy wszystko było już gotowe, ładunek odpalano z po jazdu, rejestrując następnie drgania lodu wywołane wybuchem.
Przykład takiego zapisu pokazany jest na rys. 8. Sześć krzywych dolnych przedstawia ruch sześciu sęjr amometrów, zaś na siódmej, najwyższej, zarejestro-* wano moment wybuchu. Na przesuwającą się taśmę
«pierową rzutowano co .0,01 sekundy pionowe kreski, >00 pozwalało- wyznaczyć; czas upływający pomiędzy wybuchem a dojściem nagłego impulsu do sejsmometru z dokładnością do 0,001 sekundy. Widać dalej, że w ciągu kilku setnych sekundy po wybuchu, zanim odgłos eksplozji nie dojdzie do sejsmometrów^. pozostają one nieiauehome; przy tym można zauważyć kolejność, z jaką dźwięk dociera do poszczególnych instrumentów. Na niektórych zapisach, widać też jasno, że biegnący w lodzie odgłos wybuchu zawiera trzy wyraźne fale. Dalej, po pewnym czasie do instrumentów dociera echo. Łatwo teraz zrozumieć, dlaczego używa się sześciu. Sejsmometrów ułożonych wzdłuż linii prostej. Jeżeli bowiem echo dociera do nich niemal pionowo z głębokości rzędu 2 km, to następuje to niemal jednocześnie, dzięki czemu można je łatwo odróżnić od odgłosu eksplozji, który dociera do instrumentów kolejno.;
Ryś. 9 daje przykład profilu grubości lodu, wyznaczonego za pomocą strzelania sejsmicznego. Wykazuje on (zaczynając od lewej strony), gruby lód, pływający na powierzchni morza; następnie półwysep, na którym lód spoczywa na stałym podłożu skalnym,
tworząc małą kopułę; drugi obszar lodu pływającego na wodzie morskiej, i wreszcie masyw kontynentu, wykazujący bardzo nierówną, górzystą topografię ukrytą pod lodem; jedynie w dwóch punktach szczyty górskie wystają ponad lód w postaci tzw. nunataków.
Strzelanie sejsmiczne może się okazać metodą pomiarów bardzo praco- i czasochłonną, zwłaszcza gdy otwory strzałowe trzeba wiercić ręcznie. Im bardziej w głębi lądu prowadzi się badania, tym otwory te muszą być głębsze, gdyż w przeciwnym razie odgłos eksplozji będzie się w zimnym lodzie utrzymywał zbyt długo, zagłuszając echa. Istnieje jednak metoda, która choć nie jest wystarczająco dokładna, by zupełnie zastąpić sondaż sejsmiczny, jednak daje wyniki znacznie szybciej. Polega ona na pomiarach siły ciężkości. Znane powszechnie newtonowskie prawo dążenia stwierdza, że każde dwa ciała przyciągają się z siłą proporcjonalną do ich mas i odwrotnie proporcjonalną do kwadratu dzielącej je odległości. W danych więc punktach pokrywy lodowej grubość warstwy lodu będzie wpływała na wielkość siły ciążenia. Jako przykład możemy podać, że kawałek metalu, zważony około 1 m nad powierzchnią Ziemi, waży około 1/3 000 000 mniej niż zważony na poziomie gruntu; siła ciążenia pomiędzy kawałkiem metalu a Ziemią zmienia się bowiem wraz z kwadratem odległości od
środka Ziemi. Istnieje jednak instrument zwany grawimetrem, który jest wystarczająco precyzyjny, by zmierzyć tę mikroskopijną różnicę ciężkości. Przyrządów takich używano na Antarktydzie, podczas podróży przez lądolód, dla wyznaczania siły ciążenia w celu 'uzyskania informacji o zmianach grubości Jodu.
Inne zastosowanie grawimetru znaleziono w bazie „Shaokleton” Ekspedycji Transantarktycznej, umieszczając go na grubym lodzie szelfowym, który poruszał się w górę i w dół wraz z pływami. Wobec braku sikał lub brzegu, względem którego można by mierzyć wysokość przypływu, zastosowano pomiary ciężkości za pomocą grawimetru, wyznaczając następnie rachunkowo wysokość fali przypływowej; wynosiła ona 0,5—3 m.
Podczas podróży poprzez kontynent wielkość siły ciążenia zmieniać się będzie także w zależności od wysokości nad poziomem morza, odległości od bieguna oraz rodzaju skał zalegających pod lodem. Poprawki na wysokość i położenie można wyliczyć, lecz zmiany gęstości skał daje się poprawnie wyznaczyć jedynie wtedy, gdy grubość lodu znana jest z sondażu sejsmicznego, jakkolwiek obecność tych zmian można wykryć także za pomocą pomiarów magnetycznych. W związku z tym przy przejściach przez Antarktydę stosuje się obecnie system, polegający na wykonywaniu pomiarów grawimetrycznych (które można zrobić w ciągu kilku minut), np. co 10 km oraz sondaży sejsmicznych, nie częściej niż raz na dzień w odległości 50—80 km j:eden od drugiego. Rys. 10 pokazuje, jak łączono pomiary grawimetryczne i sejsmiczne podczas jednego z przejść. Profil górny odpowiada profilowi, uzyskanemu w drodze sondaży sejsmicznych pomiędzy stacją „Little America” a stacją „Byrd” w Ziemi
Mary Byrd. Wykres środkowy daje wartości ciążenia po wprowadzeniu pewnych poprawek, zaś wykres dolny przedstawia szczegółowy profil podłoża, uzyskany w wyniku łącznej interpretacji pomiarów grawimetrycznych i sejsmicznych.
Obecnie, gdy dokonano około 16 000 km przejść przez Antarktydę (wobec kilkuset kilometrów dokonanych przez MRG), możemy uzyskać jaśniejszy obraz zasadniczych konturów Antarktydy. Na mapce (rys. 11) starano się przedstawić główne wyniki uzy
skane dotychczas, o ile tylko udało się je zebrać z komunikatów naukowych, prasowych i z innych źródeł. Liniami kropkowanymi oznaczono na niej miejsca, gdzie podłoże skalne znajduje się poniżej! poziomu morza, liniami ciągłymi — gdzie podłoże te leży powyżej poziomu morza. Na pierwszy rzut oka wydaje się, że znaczna część kontynentu składa się w gruncie
rzeczy z wysp; w rzeczywistości jednak wiele spośród części położonych poniżej poziomu morza prawdopodobnie łączy się z oceanem poprzez głębokie, wypełnione lodem fiordy. Znaczna część znajdującego się pod lodem wybrzeża Antarktydy powinna być podobna do wybrzeży Norwegii czy wschodniej Grenlandii. Z drugiej jednak strony, wycinek położony na południe od Oceanu Spokojnego, zbadany przez grupy amerykańskie, zawiera znacznie więcej skał położonych poniżej poziomu morza niż powyżej! niego. Możliwe, że część tego obszaru oddzielona jest od reszty kontynentu głębokim rowem i jest w znacznie większym stopniu podzielona na wyspy niż części, leżące naprzeciw Oceanu Indyjskiego lub Atlantyku.
Rozdział ten poinformował was nieco o lądzie Antarktydy oraz o trudnościach, które muszą przezwyciężyć nie tylko glacjolodzy, ale i inni naukowcy prowadzący badania opisane w niektórych poprzednich rozdziałach. W najbliższych latach konieczne będzie dalsze powiększenie liczby badaczy Antarktydy, a tym, którzy chcieliby tam w przyszłości pracować, można powiedzieć, że najciekawsze życie będą mieli tam ludzie o wysokich kwalifikacjach, zajmujący się określonymi badaniami naukowymi. Potrzeba będzie ludzi ze stopniami naukowymi w zakresie fizyki, geologii, fizjologii i innych działów nauk biologicznych, a także mierniczych, mechaników, pilotów itp.